Etiopia, Myanmar e non solo: “Fermiamo i social di guerra”
Le vittime avviano cause miliardarie. Con Oltremare ne parla la ricercatrice Al Ghussain, che avverte: “Gli algoritmi possono diffondere odio”
Meareg Amare insegnava Analisi chimica all’Università di Bahir Dar, nella regione di Amhara, in Etiopia. È stato ucciso a colpi di pistola davanti casa, il 3 novembre 2021, nel pieno di un conflitto civile che un accordo di pace promette ora in qualche modo di superare. Il cadavere, ha denunciato uno dei suoi quattro figli, Abrham, è rimasto a terra per ore. Per il professore adesso si chiede giustizia con un’azione legale intentata a Nairobi, la capitale del Kenya: sotto accusa non ci sono paramilitari o uomini delle Forze speciali Amhara ma un colosso mondiale dei social network.
La tesi è che l’assassinio di Amare, originario del Tigray, la regione epicentro del conflitto etiope, sia stato istigato attraverso post e commenti online che Facebook non ha saputo o voluto bloccare. E c’è di più, spiega a Oltremare Alia Al Ghussain, una ricercatrice dell’ong Amnesty International esperta in intelligenza artificiale e diritti umani: “Il modello di business del social fondato sull’engagement fa sì che gli algoritmi siano programmati per alimentare contenuti lesivi e incendiari in grado di diventare virali”. L’accusa è rivolta a Meta, la multinazionale americana proprietaria non solo di Facebook ma anche di WhatsApp e Instagram. Che ora, se la causa di Nairobi dovesse andare avanti, rischia: in caso di condanna dovrebbe adottare misure di emergenza per il contrasto ai discorsi d’odio, aumentare il numero delle persone incaricate di monitoraggio e moderazione online e creare un fondo ad hoc da due miliardi di dollari con il compito di risarcire le vittime di violenze istigate online.
Se e come post social lesivi, minacciosi e diffamatori abbiano messo a rischio Amare, favorendone o causandone l’assassinio, andrà indagato e chiarito. Resta però un nodo, emerso già in passato in altre regioni del Sud globale attraversate da conflitti e ora più che mai di attualità: basti pensare al fatto che la società keniana incaricata di moderare i contenuti social in Africa cesserà di lavorare per Meta il mese prossimo. Un portavoce della multinazionale, sentito dall’agenzia di stampa Reuters, ha assicurato che la “prossima fase di transizione” non avrà “alcuna conseguenza sulla capacità di monitorare i messaggi”.
Visti i precedenti, però, i timori restano. E investono gli squilibri geopolitici globali. Ascoltate Bridget Andere, un’avvocatessa keniana che lavora con Access Now, una ong impegnata per i diritti digitali. “Meta”, dice, “dovrebbe aumentare il numero dei moderatori di contenuti in Africa perché possano controllare anche nelle lingue e nei dialetti locali”. Secondo l’esperta, servirebbe inoltre “maggiore trasparenza sugli algoritmi che promuovono contenuti nocivi”.
Non si tratta solo dell’Etiopia. Nel 2021 rifugiati di origine rohingya costretti a lasciare il Myanmar hanno fatto causa a Meta per non aver monitorato e bloccato messaggi d’odio e insulti rivolti contro la loro comunità, una minoranza perlopiù di religione musulmana. L’azione legale, avviata negli Stati Uniti, prevede multe e richieste di risarcimenti per 150 miliardi di dollari. Già nel 2018 esperti dell’Onu al lavoro sul Myanmar avevano denunciato il mancato controllo della violenza online da parte di Facebook. I responsabili del social network avevano prima ammesso lentezze nei controlli sottolineando poi però di aver impiegato moderatori birmani e bandito il profilo del Tatmadaw, l’esercito che risponde ai generali autori del golpe del 2021, da tempo accusato di raid e violenze indiscriminate ai danni di comunità minoritarie. Nell’inchiesta americana è citato uno studio di Reuters che in un solo anno ha raccolto su Facebook oltre mille esempi di post, commenti o immagini denigratorie, offensive e discriminatorie nei confronti di persone di origine rohingya o fede islamica.
I testi sono quasi tutti in birmano, la lingua parlata dalla maggioranza perlopiù buddista del Myanmar. Si appella alla legge americana, invece, Meta. La tesi difensiva è che ai sensi dell’articolo 230 della U.S. Internet Law le piattaforme online non sono responsabili di contenuti postati da terzi. I rifugiati parte civile rispondono che, per ottenere giustizia, cercheranno di far applicare la legge del Myanmar.
Vincenzo Giardina
Nato a Padova, laureato in storia contemporanea, è un giornalista professionista. Coordina il notiziario internazionale dell’agenzia di stampa Dire. Tra le sue collaborazioni Il Venerdì di Repubblica, Internazionale, l’Espresso e Nigrizia. Già redattore dell’agenzia di stampa missionaria Misna, si è specializzato sull’Africa e sui temi dei diritti umani e della lotta contro le disuguaglianze. Scrive su Oltremare, magazine dell’Agenzia italiana per la cooperazione allo sviluppo, e interviene come esperto o inviato su Radio Rai, Radio Vaticana e altre emittenti. Suoi articoli e reportage sono pubblicati anche da La Stampa e Vanity Fair. Parla più lingue, tra le quali il russo.
www.vincenzogiardina.org