chiudi

Aiuta Global Voices!

Per rimanere indipendente, libera e sostenibile, la nostra comunità ha bisogno dell'aiuto di amici e di lettori come te.

Fai una donazione

Come ha fatto Facebook a sviare il movimento della Nigeria #EndSARS?

Il fondatore di Facebook, Mark Zuckerberg, durante una visita in Kenya. Fotografia di Afromusing, 1 settembre 2016 (CC BY 2.0)

Il 20 ottobre, mentre le forze di sicurezza nigeriane freddavano i giovani manifestanti durante le proteste #EndSARS (basta SARS) contro la brutalità della polizia, i post su Facebook e Instagram in cui veniva condivisa attivamente la notizia sono stati erroneamente flaggati [en, come tutti i link successivi, salvo diversa indicazione] come “notizie false”.

Le proteste #EndSARS hanno infuriato in molte città della Nigeria e nelle comunità della diaspora per oltre due settimane. La SARS, la Squadra Speciale Anti Rapina della polizia nigeriana — che ha una reputazione per agire al di fuori della legge — nel corso degli anni ha arrestato, torturato e ucciso cittadini, in particolare giovani nigeriani.

Lasciate che questo video riaccenda la vostra rabbia, lasciate che vi sproni. Abbiamo dato il via a qualcosa di straordinario che non può essere fermato, siamo la generazione che apporterà un cambiamento.

Filmato ed editato da @BayoBrahms

LEGGI ANCHE: Copertura Speciale di Global Voices #EndSARS: A youth movement to end police brutality in Nigeria

Gli utenti Facebook e Instagram nigeriani che tentavano di condividere fotografie o video dell'uccisione dei manifestanti #EndSARS al casello di Lekki — come, ad esempio, la bandiera nigeriana impregnata di sangue  ottenevano la seguente risposta: “I fact checker ritengono che almeno una foto o un video in questo post contenga false informazioni”.

Facebook lavora con terze parti indipendenti alla revisione e alla valutazione dell'accuratezza delle notizie. La società di tecnologia ha affidato la verifica dei contenuti nigeriani ad Africa Check, AFP-Hub e Dubawa.

Il 22 ottobre, Instagram Communication ha scritto in un tweet le proprie scuse per “aver erroneamente flaggato i contenuti a sostegno di #EndSARS e aver contrassegnato i post come falsi”.

La richiesta di Global Voices di commentare la censura dei contenuti #EndSARS — avanzata tramite messaggio diretto e con un tweet, il 22 ottobre, all’utente Twitter verificato Andy Stone, direttore delle politiche di comunicazione di Facebook — non è stata accolta e non è stata fornita alcuna risposta.

I precedenti di censura degli attivisti di Facebook

Dal 2008, gli attivisti di Global Voices dall'Afghanistan al Kazakistan, dalla Bulgaria alla Macedonia, dalle Filippine a Singapore, dal Brasile al Venezuela, dall'Egitto al Libano, dal Bangladesh all'India, dall'Etiopia alla Tanzania documentano le proprie esperienze relative alla “libertà di parola, alla censura e ai diritti umani sul più grande social network del mondo”.

Due settimane fa, Facebook è stato coinvolto in una controversia sui discorsi di incitamento all'odio in India. Nel 2018, il più importante giornale brasiliano ha abbandonato Facebook dopo aver accusato il mezzo di comunicazione di diffondere fake news [it]. A luglio del 2016, Facebook ha rimosso un post che criticava la polizia di Singapore. Nel 2011, Facebook ha chiuso l'account di una blogger dopo che questa “aveva pubblicato una serie di post sui crimini in Honduras”. La sera del 25 novembre 2010, Facebook ha disabilitato la pagina “We Are All Khaled Said”. Khaled Said [it], un ragazzo egiziano di 28 anni, è stato picchiato a morte da due agenti di polizia ad Alessandria d'Egitto. Facebook ha ripristinato la pagina dopo che gli attivisti hanno chiesto spiegazioni su Twitter.

Tutto questo sottolinea la complicità storica di Facebook nel censurare le voci degli attivisti per i diritti umani “più e più volte nel corso dell'ultimo decennio, e spesso senza una spiegazione da parte della società”, afferma Ellery Roberts Biddle, giornalista, esperta di tecnologia e capo redattrice di Ranking Digital Rights, in un'email a Global Voices.

Il flagging dei contenuti #EndSARS non è stato un “errore”

I manifestanti a una protesta #EndSARS nel Lagos, in Nigeria. Fotografia di Kaizenify tramite Wikimedia (CC-BY-SA 4.0)

La censura dei contenuti #EndSARS ad opera di Facebook “è fin troppo comune”, afferma Jillian C. York, attivista americana e direttrice dell'International Freedom of Expression all'Electronic Frontier Foundation.

Tramite un messaggio diretto su Twitter, la York ha informato Global Voices che “Instagram non ha fatto solo un ‘errore’ qui”. Piuttosto, si è trattato di una conseguenza dei loro “sistemi di flagging e di moderazione dei contenuti scarsamente sviluppati — non di un bug”, ha sottolineato la York.

La Biddle ha puntato il dito contro Facebook per il suo scarso investimento nella moderazione dei contenuti:

Investigations by journalists and leaks from inside the company demonstrate that Facebook does not put adequate financial or human resources towards its content moderation processes.

Le inchieste dei giornalisti e i leak dalla società sono la prova che Facebook non investe abbastanza da un punto di vista finanziario e di risorse umane nei processi di moderazione dei suoi contenuti.

Le uniche eccezioni alla moderazione insufficiente di Facebook avvengono “in Paesi quali la Germania, dove i controlli sono rigorosi, ma c'è ragione di sospettare (anche se non possiamo esserne certi a causa della mancanza di trasparenza di Facebook) che Facebook investa molte meno risorse nella moderazione dei contenuti in Nigeria, nonostante la Nigeria sia un Paese molto più grande”, ha scritto la Biddle in un'email a Global Voices.

Il Dottor Qemal Affagnon, coordinatore regionale dell'Africa Occidentale di Internet Sans Frontières, ha scritto a Global Voices in un'email che è “un'ironica forma di arroganza” che Facebook raccolga “metadati dalle fotografie condivise dai nigeriani” e nel contempo “penalizzi” la loro libertà di espressione.

Pur costituendo una violazione della privacy, i metadati dei nigeriani rendono il “business redditizio” per la società americana di tecnologia. Affagnon ha spiegato poi che “Facebook si basa sui metadati delle fotografie quali la data, l'ora e la localizzazione dei dispositivi mobili usati per scattare le fotografie. Questi metadati sono estremamente importanti per tracciare un profilo delle persone (dove sono, con chi sono, che tipo di automobile si trova dietro di loro, per citare alcuni esempi) — informazioni preziose che sono di grande interesse per gli inserzionisti”.

La censura arriva nello stesso momento in cui il gigante della tecnologia sta cercando di entrare nel mercato nigeriano. Quattro anni fa, nel settembre del 2016, il Lagos, in Nigeria, è stato la prima tappa del tour di Mark Zuckerberg in Africa. In un palese dichiarazione relativa all'ecosistema tecnologico nigeriano in forte espansione, Facebook ha recentemente annunciato che aprirà il suo secondo ufficio africano nel Lagos entro la seconda metà del 2021.

Affagnon afferma che questo rende la censura dei contenuti #EndSARS “inquietante e difficile da interpretare”, considerata l'incursione della società di tecnologia nel mercato nigeriano. Tuttavia, come sostiene Affagnon, Facebook ha dimostrato “di non avere rispetto per la diversità dei punti di vista che rappresentano un pericolo per la democrazia” e “viola i diritti degli utenti internet nigeriani, mostrando allo stesso tempo una ripugnante forma di autoritarismo”.

Pensateci: Facebook ha attivamente aiutato il governo nigeriano a dichiarare che non c'è stata alcuna uccisione rimuovendo foto/video/post in diretta live delle proteste #EndSARS (anche su Instagram). Dopodiché, si è scusato e ha continuato ad andare avanti. Dopo aver messo a tacere le notizie.

Il “flagging erroneo” dei contenuti #EndSARS da parte di Facebook e Instagram ha contribuito all’oscuramento dei social media finanziato dallo Stato della repressione dei manifestanti al casello di Lekki, nel Lagos. Sia il governo dello Stato del Lagos che l'esercito nigeriano o hanno negato le morti che si sono registrate o hanno descritto le sparatorie come fake news, nonostante le numerose prove dei giornalisti e dai gruppi per i diritti umani come Amnesty International.

Facebook non è mai stato “totalmente trasparente con il pubblico riguardo a come e perché potrebbe censurare un hashtag come questo [#EndSARS]”, dichiara la Biddle. Da qui la necessità di “una verifica completa e di una revisione dei loro sistemi e di un impegno a favore della trasparenza, della comunicazione con gli utenti e del ricorso in tutti i casi”, osserva la York.

avvia la conversazione

login autori login »

linee-guida

  • tutti i commenti sono moderati. non inserire lo stesso commento più di una volta, altrimenti verrà interpretato come spam.
  • ricordiamoci di rispettare gli altri. commenti contenenti termini violenti, osceni o razzisti, o attacchi personali non verranno approvati.