L’Oversight Board di Facebook: il controllo dei contenuti tra procedure private e norme pubbliche

Intervento di Ginevra Cerrina Feroni, vice Presidente del Garante per la protezione dei dati personali

 

Il Comitato per il controllo di Facebook: regole di funzionamento e di decisione

Come è noto, il cd. Comitato per il controllo di Facebook (Facebook’s Oversight Board) è un organo collegiale istituito su impulso di Facebook il cui scopo è garantire un controllo ulteriore e indipendente sulle rimozioni di contenuti o sospensioni di account effettuate da Facebook per asserite violazioni delle proprie regole di community. I quaranta componenti, esperti (accademici, magistrati) o leader pubblici (ex politici, attivisti per i diritti umani), sono stati scelti attraverso un articolato meccanismo in modo da garantire un pluralismo geografico, culturale e “politico” interno e, soprattutto, la loro assoluta indipendenza funzionale dalla piattaforma che ha voluto la nascita del Board[1].

Il fine dichiarato alla base dell’istituzione del Comitato consiste nel dare vita ad una ulteriore articolazione per la governance di Internet e, in particolare, nella creazione di un patrimonio giuridico di concetti e case-law che meglio definiscano la portata e i confini della libertà di espressione nella Rete.

Regole di condotta e di procedura sono raccolte nei c.d. Statuti del Comitato (Oversight Board Bylaws), che fungono tanto da atto costitutivo quanto da vero e proprio regolamento interno[2]. Gli Statuti definiscono, talvolta più specificamente, talaltra in maniera più rudimentale, la giurisdizione, gli atti sindacabili[3], la pubblicità dei lavori, i mezzi istruttori esperibili[4], la procedura e l’implementazione delle decisioni[5]. Viene inoltre esplicitato il ruolo del precedente e della prassi tanto sotto il profilo contenutistico che sotto quello procedurale.

Le prime decisioni

Il 28 gennaio 2021 il Comitato ha rilasciato le prime sei decisioni in merito ad attività di rimozione dei contenuti effettuate dalla piattaforma social nei confronti di alcuni dei suoi utenti.

Si tratta di un momento storico, di un primo tassello che va nella direzione di modificare in maniera radicale tanto la natura stessa della Rete quanto il rapporto tra piattaforme, da una parte, e istituzioni pubbliche statali o internazionali, dall’altra. È soprattutto un passaggio che interessa – nel solco dello scopo primario del Comitato – la (ri)definizione degli spazi di libertà degli utenti all’interno delle piattaforme.

Seppur in modo schematico, vale la pena di richiamare i sei casi, scelti dal Comitato per il loro alto valore simbolico, e provare ad estrapolare la ratio alla base dei criteri valutativi utilizzati e delle raccomandazioni che si accompagnano alle decisioni.

Si può già anticipare che tutti i casi hanno a che fare con la tematica dell’hate speech e che, con l’eccezione del primo caso, “archiviato” per “cessata materia del contendere”[6], e del quarto (rigettato, seppur solo per uno dei vari motivi addotti da Facebook a giustificazione della rimozione), il Comitato ha accolto tutti i ricorsi.

Il secondo caso (vale a dire il primo giunto ad una decisione sul merito) riguarda un commento di un utente del Myanmar che, all’interno di un suo più elaborato discorso, aveva affermato «[there is] something wrong with Muslims psychologically»[7]. Questa frase era stata giudicata dal team di moderazione Facebook offensiva nei confronti dei musulmani (a cui sembrava essere imputabile una sorta di malattia mentale generalizzata) e l’intero post era stato censurato. Il Board, nel valutare il ricorso, fa innanzitutto riferimento agli standard di community che si presumano violati; in particolare la categoria dell’hate speech – intesa dallo stesso Facebook come “violent or dehumanizing speech, harmful stereotypes, statements of inferiority, or calls for exclusion or segregation”[8] – e al “valore” promosso da Facebook (Facebook’s values) della sicurezza (Safety).

Il Comitato esclude tuttavia che, da un’analisi dell’intero commento, si possa rientrare nella fattispecie di hate speech. Leggendo il post «as a whole, considering context»[9], in realtà emerge una critica sull’incoerenza tra le reazioni che si registrano in alcune comunità musulmane quando esse pretendono di difendere la propria identità: irragionevole, per l’utente, era il clamore suscitato dalle vignette di Charlie Hebdo rispetto al silenzio sulla repressione delle autorità di Pechino della minoranza musulmana Uyghur nella Cina occidentale. Letta nella sua integrità la frase, come spiega il Comitato, non rappresenta affatto un caso di retorica antimusulmana e, dunque, si pone all’interno dell’ambito coperto dagli standard di community.

Il terzo caso riguarda un post di un cittadino armeno sul patrimonio artistico cristiano di Baku, in Azerbaijan, dove l’utente chiamava gli azeri “taziks” (un termine dispregiativo utilizzato nei confronti degli azeri per rimarcare un asserito status di inferiorità) e “aggressori”, sosteneva la causa irredentista della regione di Nagorno-Karabakh, teatro di scontri durante la guerra armeno-azera ed esaltava l’apporto armeno nella creazione dell’identità della capitale Baku. In questo caso, il Comitato, a maggioranza, ha deciso per la conferma della decisione di Facebook, fondando la propria decisione sul carattere insultante e disumanizzante del commento, che «se non costituisce incitamento [all’odio], nondimeno possiede il potenziale per causare effetti negativi»[10]. Anche in questo caso, per il Board, la chiave di tutto sta nel contesto: «dal settembre al novembre 2020, i combattimenti nella regione di Nagorno-Karabakh tra azeri e armeni hanno causato decine di vittime e il contenuto era stato postato poco prima del cessate-il-fuoco»[11]. Anche in considerazione di questa speciale circostanza, la maggioranza del Comitato ha ravvisato una violazione dei valori di sicurezza e dignità (ed una loro sovraordinazione rispetto a quello della libertà di parola (voice). A fronte di questi rischi, vi sarebbe, a parere del Comitato, «a Facebook’s human rights responsibility to avoid contributing to them»[12] il cui fondamento viene ricondotto alle Guiding Principles on Business and Human Rights dell’ONU (UNGPs) del 2011, che stabiliscono un quadro volontario per la definizione delle responsabilità dei privati in tema di diritti umani.

Qui, diversamente dal caso precedente, il Comitato ha ritenuto opportuno rivolgere delle raccomandazioni a Facebook e, in particolare, quella di assicurare che all’utente sia sempre notificata la specifica ragione della rimozione e non la mera violazione degli standard di community: «in this case, the user was informed that the post violated Facebook’s Community Standard on Hate Speech but was not told that this was because the post contained a slur attacking national origin»[13].

Il quarto caso affronta la questione della cd. visione artificiale, ovvero le rimozioni di foto o video attraverso gli algoritmi di riconoscimento delle immagini. Nell’ottobre 2020 un utente brasiliano aveva postato su Instagram (l’altra piattaforma di proprietà Facebook su cui il Board ha giurisdizione) immagini che ritraevano il seno di alcune donne che avevano subito interventi di rimozione di tumori maligni: il post, come l’utente non aveva mancato di indicare, rappresentava un gesto di riguardo in occasione della giornata dedicata alla “sensibilizzazione carcinoma mammario”. Un’evidente svista dell’algoritmo di moderazione aveva fatto sì che le immagini fossero ritenute in violazione degli standard di Instagram riguardanti nudità e attività sessuali. Non appena la questione era stata portata a conoscenza del Board, Facebook aveva immediatamente ripristinato il post. Il primo motivo di interesse del caso sta nella decisione del Comitato di procedere comunque all’analisi della fattispecie nonostante il post fosse stato riammesso, dal momento che la decisione sulla riammissione era giunta dopo la chiusura del processo di revisione interno di Facebook e solo a seguito del ricorso al Comitato.

La decisione sul ricorso è stata certo scontata, ma l’importanza nel merito è racchiusa nelle regole di procedura che il Comitato ha inteso raccomandare: «the incorrect removal of this post indicates the lack of proper human oversight which raises human rights concerns. The detection and removal of this post was entirely automated. Facebook’s automated systems failed to recognize the words “Breast Cancer,” which appeared on the image in Portuguese»[14]. La decisione costituisce così un precedente importante sulla illegittimità della moderazione di opinioni svolta unicamente con l’ausilio dello strumento algoritmico. Infine i commissari hanno ritenuto che il caso in oggetto abbia mostrato profili di problematicità anche sotto il profilo dell’adeguatezza delle guidelines di Instagram in merito alle esplicite eccezioni alle regole sulla nudità in caso di sensibilizzazione su malattie e hanno raccomandato una più chiara, precisa ed efficace definizione delle eccezioni.

Il quinto caso ha a che fare con la rimozione di post ritenuti pericolosi per la pace sociale. Si trattava di un post su Facebook in cui si richiamava una citazione erroneamente attribuita a Joseph Goebbels, secondo la quale in politica, piuttosto che argomentazioni razionali si dovrebbero usare quelle istintive ed emozionali. L’utente non condivideva né il significato della frase, né l’ideologia del gerarca nazista, ma anzi il suo scopo era quello di richiamare il pericolo che un tal pensiero potrebbe comportare (e questo emergeva chiaramente dai commenti al post, i quali dimostravano che gli altri utenti avessero compreso quanto il ricorrente volesse intendere).  Facebook ha ritenuto che la condanna della frase di Goebbels non emergesse chiaramente («the user did not make clear that they shared the quote to condemn Joseph Goebbels»[15]) e rimuoveva il post. Il Comitato, nel cassare la decisione di Facebook, coglie l’occasione per ricordare come le regole volte a limitare la libertà d’espressione debbano necessariamente avere al proprio fondamento i requisiti della chiarezza, della determinatezza e dell’accessibilità e conclude che, con riferimento alle condotte che riguardano Dangerous Individuals and Organizations, esse non soddisfano tali requisiti. Qui il Comitato adotta però una linea più timida e non pienamente condivisibile. Il biasimo, infatti, non è diretto a sottolineare la mancanza di precisione – anche semantica – del concetto di “supporto” ad un individuo o ad una organizzazione pericolosa, ma si appunta sull’assenza di esempi o di liste accessibili che elenchino gli individui o i movimenti non tollerati. Perciò il Board sembra suggerire che Facebook avrebbe potuto censurare il post se le sue regole sul “supporto” fossero state più dettagliate. Quando il Comitato afferma che «in its publicly available rules, Facebook is not sufficiently clear that, when posting a quote attributed to a dangerous individual, the user must make clear that they are not praising or supporting them», esso indica che l’utente possa essere messo nelle condizioni di operare espressamente dei distinguo, prendere apertamente le distanze dall’individuo o dall’organizzazione interdetta. Ciò ovviamente avrebbe serie ripercussioni non solo sulla libertà di espressione, ma sulla conduzione di qualsiasi dibattito sulla piattaforma. Se si accogliesse questa impostazione dogmatica e anti-scientifica, se cioè ogni qualvolta si evocassero estremisti, dittatori o ideologie anti-democratiche (Hitler, Osama Bin-Laden, Mao Zedong, Comunismo, Nazismo, Salafismo, ecc.) si dovesse prendere preventivamente le distanze per “giustificare” il loro richiamo, si impedirebbe l’operatività delle eccezioni al principio generale, le quali si reggono sulla capacità di lettura dell’interprete e sulla contestualizzazione della frase.

Il sesto ed ultimo caso, forse uno dei più accurati, riguarda una tematica tanto attuale quanto controversa, vale a dire il dissenso nei confronti delle strategie di contrasto al virus Covid-19 messe in atto dai vari Stati. È noto che in questo anno di pandemia, la messa a punto di terapie di contrasto non ha visto un andamento lineare e coerente e molto spesso l’approccio empirico volto alla ricerca di applicazioni sperimentali è stato quello più seguito. Tra le varie terapie si è a lungo parlato anche della idrossiclorichina: farmaco antimalarico che alcuni studi hanno ritenuto possedere un efficace effetto antivirale[16]. La sesta pronuncia annulla la decisione di Facebook di rimuovere il commento con il quale un utente francese, nell’ottobre 2020, criticava la strategia di contrasto al Covid-19 portata avanti dalle autorità francesi per il loro rifiuto di utilizzare proprio l’idrossiclorichina, richiamando le dichiarazioni di Didier Raoult, professore di microbiologia e direttore dell’Institut Hospital-Universitaire Méditerranée Infection dell’Università di Marsiglia. La piattaforma ha ritenuto il post in contrasto con le nuovissime linee guida sugli abusi che concernono l’emergenza Covid-19; in particolare per quanto riguarda i rischi di “misinformation” e “imminent harm”, che si collocherebbero nella più ampia categoria della “Violence and Incitement” (violenza e istigazione). Secondo Facebook, avendo la comunità scientifica escluso l’efficacia del medicinale, la sua promozione avrebbe potuto istigare altri utenti a «ignorare le indicazioni precauzionali sanitarie e /o auto-curarsi»[17].

Il Comitato, cassando la decisione, ritiene che il danno imminente paventato da Facebook non fosse dimostrato, né che gli standard di Community spiegassero quali fattori concomitanti e contestuali, oltre la semplice dichiarazione dell’utente, favorissero tanto il danno quanto la sua imminenza[18]. Per di più, la dichiarazione non aveva come scopo quello di incoraggiare le persone a procurarsi il trattamento, ma solo di far pressione sulle autorità francesi perché prendessero in considerazione la possibile cura. Pertanto, in questo caso, il Comitato non ravvisa una carenza tra gli standard di community, ma solo un loro mancato rispetto e una conseguente violazione dei “Facebook’s values”.

L’interesse della pronuncia si appunta su uno dei moniti finali del Comitato: oltre a non riconoscere il soddisfacimento del criterio del pericolo (e quindi a dichiarare la violazione del principio di necessità a cui avrebbe dovuto essere ispirata la misura), i commissari sollevano anche il problema della sua proporzione: è mai possibile – si chiedono – che per un caso di semplice disinformazione non esistessero misure meno invasive della rimozione? Quest’ultima infatti è considerata l’extrema ratio. Per contenuti considerati falsi e svianti (come avrebbe semmai potuto essere considerato quello in oggetto), Facebook «dispone di una vasta gamma di opzioni prima di imporre la rimozione»[19]. Tra di esse vengono menzionate dal Comitato l’interruzione degli incentivi economici per le persone e le pagine che promuovono la disinformazione; la riduzione della loro visibilità sulla piattaforma o la predisposizione di iniziative volte imbastire una sorta di contro-informazione promossa da fact checker indipendenti, quale ad esempio, per quanto riguarda lo specifico tema del Covid-19, il Facebook’s COVID-19 Information Center.

Ancora una volta, i tre punti che emergono all’attenzione del Comitato fanno riferimento ad una maggiore chiarezza degli standard di community, ad una maggiore trasparenza della moderazione dei contenuti in rapporto alla disinformazione sanitaria e ad una maggiore gradualizzazione della risposta, anche tenendo conto dei fattori contingenti e concorrenti che accompagnano il commento.

Un passo verso l’ulteriore istituzionalizzazione delle piattaforme

Per quel che riguarda l’aspetto più sistematico legato alla funzione del Board e provando a tracciare il quadro generale in cui si è mosso il Comitato, alla luce di queste sue prime decisioni, possiamo formulare alcune considerazioni.

a) Il Comitato non prende mai in considerazione, ai fini della decisione, le leggi del Paese in cui è avvenuta la presunta violazione, ma solo standard giuridici internazionali, quali quelli delineati dalla Convenzione internazionale sui Diritti Civili e Politici o dalle varie raccomandazioni del Consiglio dell’ONU per i Diritti Umani o dal Relatore speciale per la promozione e protezione della libertà di opinione ed espressione. Ciò va ad ulteriore conferma – oltre all’aspirazione a trovare maggiore condivisione possibile e un comune nucleo forte di valori e diritti – del carattere essenzialmente transnazionale della piattaforma che si pone, sempre di più, come un’istituzione digitale svincolata dal controllo statuale.

b)L’impostazione della decisione segue la sistematicità adottata da una delle più importanti Corti internazionali, ovvero la Corte Europea dei Diritti dell’Uomo, in particolare in quelle sue pronunce che fanno riferimento alle decisioni in materia di diritti di libertà. Essa parte, innanzitutto, dal definire gli standard rilevanti ai fini della decisione, ovvero la normativa di diritto internazionale e i paramount values (interessante la scelta del termine “value” invece di “interest”) che reggono il concreto bilanciamento della libertà di espressione: al valore Voice, il Comitato contrappone di volta in volta gli altri standard di valori contenuti nel codice di condotta, in particolare quello della Safety e, talvolta, anche quello della Dignity. Essa utilizza poi una griglia in cui vaglia e motiva la misura alla luce di tre scriminanti (o cause di giustificazione) della restrizione, vale a dire sotto il profilo della riserva di legge (Legality), del fine legittimo (Legitimate Aim) e della necessità/proporzionalità (Necessity and Proportionality). Ciò consente al Comitato di utilizzare un metodo analitico, progressivo e trasparente (grazie al presidio della motivazione)  a fondamento delle proprie decisioni e di porsi, proprio come la Corte EDU, come un organo giudicante internazionale.

c) Il Comitato più volte rimarca come tra i suoi compiti vi sia anche quello di individuare in che modo e fino a che punto a Facebook sia richiesto l’enforcement della libertà di espressione dei propri utenti.

d) Il Comitato accompagna quasi tutte le decisioni con dei moniti: che vanno dall’obbligo di notificare all’utente la specifica ragione della rimozione, alla pubblicazione di una sorta di lista di casi pratici ed esemplificativi di condotte non tollerate in contrasto con gli standard di community che di volta in volta si presumono violati; altre volte ancora le raccomandazioni proponevano la predisposizione di una guida su come rendere gli intenti degli utenti più chiari.

Da tutti questi fattori emerge con sempre più chiarezza il processo di istituzionalizzazione che coinvolge le grandi piattaforme del web e che è stato evidenziato ormai da qualche anno dalla dottrina. I c.d. Over the Top, le grandi piattaforme di servizi e di condivisione di contenuto, tra cui Facebook, stanno cioè gradualmente assorbendo le competenze statali, affiancando alle attività di vendita di contenuti e di fornitura di servizi agli utenti finali, tipiche della dimensione privatistica, interventi che incidono sui diritti fondamentali di questi ultimi. I riferimenti ai «Facebook’s values» e alle «businesses’ human rights responsibilities» ci mostrano la trasformazione di Facebook da soggetto guidato da una stretta logica di mercato a soggetto rappresentativo di interessi pubblici primari tipici di ogni istituzione sociale. Facebook e il Comitato per il controllo che ne costituisce l’Authority di garanzia si stanno affermando infatti come una vera e propria nuova tipologia di istituzione sociale che si pone come una realtà privatistica alternativa al modulo Stato[20], tanto da poter parlare persino di una “privatizzazione della giustizia digitale su scala globale”, dai contorni ancora incerti, pertanto rischiosa e da seguire pertanto con la massima attenzione[21].

Riflessioni conclusive

Non risulta agevole giudicare – data la fase iniziale del nuovo percorso – struttura e azione del Comitato per il controllo.

La creazione di un organo funzionalmente indipendente che giudichi, in un equo bilanciamento, diritti potenzialmente in contrasto, è certamente un passo avanti se confrontata con le pratiche di moderazioni interne della piattaforma finora utilizzate, lacunose e largamente approssimative. Essa è il portato dell’acceso dibattito degli ultimi anni dove è emerso con forza il bisogno, sempre più pressante, di un contenimento della portata giuridica delle decisioni della piattaforma quando si tratta di interferire con la libertà di espressione. L’iniziativa di Facebook mette poi ancora più in luce l’inspiegabile immobilità degli attori istituzionali a livello, se non statale, almeno transazionale.

E’ evidente che tutto ciò non può bastare e che siamo in presenza di un surrogato.

Non si può dimenticare, infatti, che la creazione del Board è una concessione di Facebook e che, al di là delle apprezzabili dichiarazioni, non vi è alcun obbligo giuridico in senso proprio di adeguamento da parte della piattaforma, dal momento che, a fronte di un suo eventuale inadempimento, non sono contemplate sanzioni, con capacità deterrente e dissuasiva. Più che di una limitazione, si tratta quindi piuttosto di un’auto-limitazione. Infine, resta il dubbio dell’istituzionalizzazione: essa rappresenta un ulteriore passo verso l’obiettivo di legittimazione dell’esercizio di un potere coercitivo o di controllo da parte delle piattaforme. Più che come una limitazione, la creazione da parte del controllato di un’autorità ‘indipendente’ che la controlli, non può essere interpretata come un’(auto)legittimazione della propria condotta?

Domande cruciali che riguardano il tema della accountability ma anche il ruolo delle Data Protection Authorities  (anche nella prospettiva di eventuali ‘giudicati’ paralleli e contrastanti fra loro, soprattutto con riguardo ad un medesimo ‘local case’, perlopiù rimasto nelle loro rispettive competenze, a raggio nazionale ) e le cui risposte non possono essere ancora una volta lasciate interamente nelle mani di un attore che, formalmente, continua ad avere natura di soggetto privato.