Dicembre 3, 2022

Adicons

Per le tue curiosità

Gli algoritmi di Meta su Facebook hanno “proattivamente” promosso la violenza contro i Rohingya

logo di meta in primo piano

Amnesty International ha accusato mercoledì Meta, società madre di Facebook, di aver “contribuito in modo sostanziale” alle violazioni dei diritti umani perpetrate contro l’etnia Rohingya del Myanmar.

In un nuovo rapporto, Amnesty sostiene che gli algoritmi di Facebook hanno “amplificato in modo proattivo” i contenuti anti-Rohingya. Sostiene inoltre che Meta ha ignorato le richieste di civili e attivisti di limitare l’incitamento all’odio sulla piattaforma di social media, traendo profitto dall’aumento del coinvolgimento.

L’apparente incapacità di Facebook di gestire i discorsi d’odio e la disinformazione online è diventata un grave problema offline per molti Paesi del mondo. Amnesty chiede che il gigante tecnologico fornisca un risarcimento alle comunità colpite.

Cosa è accaduto?

I Rohingya sono perseguitati da decenni dalla maggioranza buddista del Myanmar, ma secondo Amnesty Facebook ha esacerbato la situazione. Il gruppo per i diritti umani sostiene che il Tatmadaw, le forze armate del Myanmar, ha usato Facebook per incrementare la propaganda contro i Rohingya e per raccogliere il sostegno pubblico per una campagna militare di uccisioni, stupri e incendi dolosi che ha preso di mira la minoranza prevalentemente musulmana nell’agosto 2017.

In seguito, più di 730.000 Rohingya nello Stato occidentale di Rakhine sono stati costretti a rifugiarsi nei campi del vicino Bangladesh. Oggi, più di un milione di Rohingya vive in esilio e i leader militari del Myanmar stanno affrontando l’accusa di genocidio presso la Corte internazionale di giustizia.

Nel 2018 una missione d’inchiesta delle Nazioni Unite ha stabilito che Facebook è stato uno “strumento utile” per diffamare i Rohingya in Myanmar “dove, per la maggior parte degli utenti, Facebook è internet”. Mesi dopo, Meta ha pubblicato un rapporto d’impatto sui diritti umani commissionato, in cui ha ammesso che l’azienda non stava facendo abbastanza per fermare la semina di odio contro i Rohingya sulla piattaforma. Da allora Meta ha dichiarato di aver investito in un maggior numero di moderatori di contenuti in lingua birmana e di aver migliorato la tecnologia per affrontare il problema.

Amnesty ha analizzato i documenti interni di Meta rilasciati dall’informatore Frances Haugen nel 2021, oltre a vari rapporti pubblici, e ha condotto interviste con attivisti Rohingya ed ex dipendenti di Meta. Il rapporto conclude che la società madre di Facebook – allora nota come Facebook Inc. – era consapevole del suo ruolo nel contribuire alle atrocità contro l’etnia Rohingya anni prima del 2017, e che all’epoca non ha tenuto conto di tali avvertimenti e ha adottato misure “del tutto inadeguate” per affrontare i problemi dopo i fatti.

In una dichiarazione inviata via e-mail, Rafael Frankel, direttore delle politiche pubbliche di Meta per l’Asia-Pacifico, ha dichiarato al TIME che “Meta è solidale con la comunità internazionale e sostiene gli sforzi per ritenere il Tatmadaw responsabile dei suoi crimini contro il popolo Rohingya“. Frankel non ha risposto a domande su misure e pratiche specifiche adottate dall’azienda, ma ha fatto notare che ha divulgato volontariamente informazioni agli organi investigativi.

Ha dichiarato: “Il nostro lavoro per la sicurezza e l’integrità in Myanmar continua a essere guidato dal feedback delle organizzazioni della società civile locale e delle istituzioni internazionali, tra cui la Missione d’inchiesta delle Nazioni Unite sul Myanmar; la Valutazione d’impatto sui diritti umani che abbiamo commissionato nel 2018; nonché la nostra continua gestione dei rischi per i diritti umani“.

Meta e i contenuti anti-rohingya

Nel suo rapporto, Amnesty conclude che Meta era a conoscenza già dal 2012 di come i suoi algoritmi basati sull’engagement stessero contribuendo a causare gravi danni nel mondo reale in Myanmar. Il rapporto sostiene che negli ultimi 10 anni l’azienda ha deliberatamente ignorato i rischi noti per i diritti umani sulla sua piattaforma e ha implementato soluzioni inadeguate, privilegiando il profitto rispetto alla sicurezza degli utenti.

Il rapporto di Amnesty afferma che le pratiche di moderazione dei contenuti di Meta non sono state all’altezza della quantità di contenuti infiammatori e anti-rohingya incrementati dall’algoritmo. A metà 2014, Amnesty sostiene che l’azienda aveva un solo moderatore di contenuti di lingua birmana – con sede a Dublino, in Irlanda – per monitorare i post degli 1,2 milioni di utenti attivi in Myanmar. Nelle interviste condotte da Amnesty, i rifugiati Rohingya hanno ricordato come le loro segnalazioni di post sulla piattaforma ritenuti in violazione degli standard comunitari di Facebook fossero spesso ignorate o respinte. Un documento interno del luglio 2019, citato dal rapporto di Amnesty, affermava che venivano presi provvedimenti solo contro “circa il 2% dei discorsi di odio sulla piattaforma“.

Nel novembre 2018 Meta ha annunciato, tra le altre misure, di aver assunto 99 moderatori di contenuti in lingua Myanmar. (Non si conosce il numero attuale di tali revisori, incaricati di monitorare i post dei circa 20 milioni di utenti Facebook del Paese del Sud-Est asiatico). Secondo il gruppo per i diritti, il sentimento anti-rohingya è comunque fiorito su Facebook.

Oltre agli algoritmi, Amnesty ha affermato che altre funzioni di Facebook hanno incentivato gli editori a pubblicare contenuti anti-rohingya. La funzione Instant Articles, ad esempio, che è stata introdotta nel 2015 e consente di pubblicare storie in formato news direttamente su Facebook, ha fatto sì che fiorissero clickbait e contenuti sensazionali. Meta ha anche tratto profitto direttamente dalla pubblicità a pagamento della Tatmadaw, ha aggiunto Amnesty.

Finora Meta ha sostenuto l’uso dell’intelligenza artificiale per migliorare l’individuazione dei contenuti dannosi. Ma anche questo non è sufficiente. A marzo, un rapporto di Global Witness ha rilevato che l’AI di Facebook ha approvato pubblicità contenenti discorsi di odio contro i Rohingya.

Da parte sua, l’azienda sta adottando ulteriori misure per affrontare le questioni relative ai diritti umani derivanti dall’uso della sua piattaforma in Myanmar. A febbraio dell’anno scorso, nel contesto di una presa di potere militare in Myanmar, Meta ha bandito il Tatmadaw e altre entità sponsorizzate dallo Stato su Facebook e Instagram. Nel suo rapporto sui diritti umani del luglio 2022, l’azienda ha illustrato altre misure specifiche per il Myanmar, come la funzione “Blocca il tuo profiloper garantire una maggiore privacy agli utenti che potrebbero essere oggetto di molestie o violenze.

Cosa dice Amnesty riguardo a ciò che Meta deve ai Rohingya

Amnesty sostiene che le sue scoperte giustificano una maggiore regolamentazione del settore tecnologico e le richieste di risarcimento dei Rohingya. L’organizzazione ha chiesto a Meta di sostenere l’assistenza legale, medica e psicologica delle vittime Rohingya e di risarcirle in base alle opportunità perse.

I gruppi rohingya di Cox’s Bazar hanno chiesto direttamente a Meta di finanziare un progetto educativo da 1 milione di dollari per i bambini e gli adulti dei campi profughi. “Credo davvero che meritiamo un rimedio da parte di Facebook“, ha dichiarato ad Amnesty Sawyeddollah, un attivista rohingya di 21 anni che vive in un campo profughi in Bangladesh. “Facebook non può rifare le nostre vite come prima; solo noi possiamo farlo. Ma per farlo abbiamo bisogno di educazione“.

Nel suo rapporto, Amnesty sostiene che la richiesta di risarcimento di 1 milione di dollari rappresenta una goccia nel mare rispetto al fatturato di Meta. I ricavi dell’azienda tecnologica nel 2021 hanno raggiunto quasi 118 miliardi di dollari, con un profitto al netto delle imposte di 39,3 miliardi di dollari. Inoltre, sarebbe solo una frazione di quanto richiesto dai Rohingya, sottolinea Amnesty, citando un dato delle Nazioni Unite che stima il loro bisogno educativo totale in oltre 70 milioni di dollari.

La direttrice per i diritti umani di Facebook, Miranda Sissons, avrebbe respinto la proposta del fondo per l’istruzione l’anno scorso, affermando che l’azienda “non si impegna direttamente in attività filantropiche“, anche se ha ribadito l’impegno di Meta a impegnarsi con la comunità Rohingya, compresi i rifugiati di Cox’s Bazar e di altri campi.

Il rapporto di Amnesty conclude che: “Il rifiuto di Meta di risarcire le vittime Rohingya fino ad oggi – anche quando le modeste richieste della comunità rappresentano briciole dalla tavola degli enormi profitti dell’azienda – non fa che aumentare la percezione che si tratti di un’azienda completamente distaccata dalla realtà del suo impatto sui diritti umani“.

Amnesty ha anche chiesto un maggiore monitoraggio indipendente del settore tecnologico. Negli ultimi anni, i legislatori e i sostenitori di tutto il mondo hanno cercato di controllare le società di social media, anche se si tratta di un’impresa difficile e talvolta controversa.

Queste aziende sono state incredibilmente efficaci nel vendere una narrativa che dice: se ci regolamentate, se affrontate gli aspetti più dannosi della nostra attività, renderete fondamentalmente Internet inaccessibile per tutte le ragioni per cui le persone dipendono da esso“, afferma de Brun di Amnesty.

Ma “queste tecnologie plasmano fondamentalmente il funzionamento della società umana di oggi e il modo in cui interagiamo gli uni con gli altri”, aggiunge. “Non c’è motivo per cui questo modello di business debba dominare“.

Contenuto liberamente ispirato a https://time.com/6217730/myanmar-meta-rohingya-facebook/