Apartheid digitale e uso degli algoritmi dei social media nelle crisi umanitarie

Photo by Alfo Medeiros from Pexels

Manifestanti in Palestina. Foto di Alfo Medeiros estratta da Pexels, utilizzata sotto licenza Pexels.

“Apartheid digitale” è uno dei tanti nuovi termini che, ad oggi, si riferiscono alle restrizioni su internet e al modo in cui le grandi piattaforme tecnologiche si avvalgono del potere di scegliere i contenuti mostrati nei nostri feed, portando talvolta all'oppressione, alla censura delle voci politiche che si oppongono al dissenso e alla rimozione.

Di recente gli utenti hanno constatato un incremento dell’ondata di censura [en, come tutti i link successivi, salvo diversa indicazione] applicato dalle piattaforme con lo “shadow ban” [it], una forma di censura che senza avvisare limita la visibilità di alcuni contenuti, in aggiunta ad accuse di “violazione delle linee guida della comunità”. Questi sono solo alcuni dei molti termini utilizzati per mettere a tacere le voci che trattano l'attuale genocidio palestinese in corso dal 9 ottobre.

La storia è testimone di come le crisi umanitarie si inaspriscano in stato di guerra. Ciò che differenzia le guerre di quest'epoca, tuttavia, è il potere di internet e il ruolo delle grandi piattaforme tecnologiche. A seguito dell'invasione russa in Ucraina si è osservato il ruolo che hanno avuto nel dare voce ai sopravvissuti. A fronte di un aumento dell'attivismo nella guerra tecnologica i social media hanno scelto di schierarsi e fornire i loro servizi a favore dei cittadini ucraini.

Questa mossa ha contribuito a dare risalto alle voci in loco e a evidenziare i potenziali crimini di guerra verificatisi nel periodo in oggetto, ma vale la pena chiedersi se gli stessi standard vengano applicati anche su Paesi non facenti parte del Nord del mondo [it]. Il recente inasprimento del conflitto israelo-palestinese ha sollevato una serie di interrogativi sulla scelta delle grandi piattaforme tecnologiche di risaltare alcune voci in determinate crisi umanitarie e, allo stesso tempo, ignorare opportunamente le altre.

Un report di Amnesty International, risalente al 2017, sostiene che i modelli algoritmici e gli interessi di profitto di Meta abbiano portato a un aumento delle atrocità durante la crisi dei musulmani Rohingya [it] in Myanmar (ottobre 2016–gennaio 2017). Le forze di sicurezza in Myanmar hanno attuato una campagna di pulizia etnica diffusa sulla piattaforma di Meta, Facebook, causando gravi violazioni dei diritti umani sul campo e incitando a ulteriori odio, violenza e discriminazione contro la comunità. I contenuti denigratori e lesivi sono aumentati e, nel 2018, Facebook ha ammesso di non aver fatto abbastanza per prevenirne l'escalation sulle sue piattaforme. Nel Regno Unito e negli Stati Uniti ciò ha condotto ad una citazione in giudizio della piattaforma. La causa è in corso.

Più recentemente, secondo l'ONG palestinese 7amleh (Centro arabo per l'avanzamento dei social media), tra il 7 ottobre e il 14 novembre sono state accertate 1447 violazioni dei diritti digitali dei palestinesi, di cui 573 sono restrizioni agli account o rimozione di contenuti di utenti e sostenitori. Sono stati inoltre verificati manualmente 904 casi di incitamento all'odio, alla violenza fisica e in altre forme agevolate dalla tecnologia.

7amleh, attraverso l'intelligenza artificiale, ha sviluppato un modello linguistico che monitora la diffusione sulle piattaforme di discorsi in lingua ebraica incitanti all'odio contro i palestinesi e gli utenti filopalestinesi. L'indicatore di violenza ha documentato oltre un milione di casi classificati come discorsi incitanti all'odio su tutte le piattaforme, la maggior parte dei quali sono stati riscontrati su X (ex Twitter). Secondo 7amleh il 68% dei casi documentati si basa su affiliazioni politiche e/o sentimenti nazionalisti, il 29% su pregiudizi razziali e i restanti includono, tra gli altri, violenza di genere e religiosa.

Gli utenti di tutto il mondo hanno recentemente constatato una sottovalutazione della portata organica da parte delle grandi piattaforme tecnologiche, riferendo che poche persone hanno accesso ai loro contenuti, in particolare a quelli relativi al genocidio e alla guerra in corso a Gaza. Numerosi attivisti e utenti hanno segnalato che le grandi piattaforme tecnologiche come Facebook, Instagram, X, YouTube e TikTok stanno applicando lo shadow ban sui contenuti filopalestinesi.

Sono stati segnalati anche casi di rimozione di account Instagram filopalestinesi che per molti sono fonte di notizie online, come @eye.on.palestine con un seguito di 8,8 milioni di utenti, rimosso e poi reinserito sulla piattaforma. Anche Instagram è stato messo sotto accusa per aver aggiunto la parola “terrorista” alle biografie degli utenti iscritti che si descrivono come palestinesi sulla piattaforma. La crisi è già stata definita “nebbia di guerra guidata dagli algoritmi”, con l'uso crescente dell'intelligenza artificiale (IA) e dell'IA generativa per diffondere disinformazione contro le voci filopalestinesi.

Anche gruppi internazionali per i diritti, come Amnesty InternationalAccess Now, hanno rilasciato dichiarazioni sui continui razzismo e odio subiti online dai palestinesi, sostenendo la necessità di un maggior supporto da parte delle piattaforme in tempi di crisi, invece di censure e ban sui cittadini, già testimoni di una guerra in corso dal vivo.

Per arginare questo blocco mirato da parte dei social media alcuni utenti hanno “rotto” e “ingannato” gli algoritmi, postando storie normali e poi, tra una e l'altra, alcune sulla guerra in corso.

Gli utenti, nel tentativo di diffondere la propria parola, hanno anche aggiunto suoni bippati per nascondere le voci fuori campo, alterato l'ortografia di parole comuni inglesi e arabe come “Palestina”, “genocidio” e “Hamas” per eludere i rilevamenti e incastrato i loro messaggi tra post regolari e reel con immagini e video da Gaza sul genocidio in corso. Alcuni stanno adottando il cosiddetto “algospeak“, una tattica di elusione utilizzata per contrastare la moderazione automatica sui social media che consiste nel creare nuove parole al posto di quelle chiave in modo da non essere rilevate dagli algoritmi e rimosse dalle piattaforme.

Mona Shtaya, attivista per i diritti digitali residente in Palestina, si è aperta con Global Voices, tramite LinkedIn, sull'apartheid digitale che i cittadini palestinesi stanno vivendo e sull'importanza delle grandi piattaforme tecnologiche in questo periodo. Ha dichiarato:

Given the inadequate and biased coverage by international mainstream media and the targeting of journalists, social media platforms should serve as a means for Palestinians to share their narrative. However, the reality differs significantly.

These platforms heavily censor Palestinian voices, shadowban Palestinians and their supporters, and infringe upon their rights to free speech, assembly, access to information, political participation, and protection from discrimination. These violations closely resemble those witnessed in 2021 [in Palestine], representing a systematic and deliberate suppression of Palestinian voices, as confirmed by the Sustainable Business Network and Consultancy (BSR) report. This highlights the platforms’ failure to uphold fundamental human rights principles.

I social media, data l'inadeguata e parziale copertura da parte dei principali media internazionali e la presa di mira dei giornalisti, dovrebbero servire ai palestinesi come mezzo per condividere la propria testimonianza. Tuttavia la realtà è molto diversa.
Queste piattaforme censurano pesantemente le voci palestinesi, applicando lo shadow ban anche sui loro sostenitori e violano i loro diritti alla libertà di parola, riunione, accesso alle informazioni, partecipazione politica e protezione dalla discriminazione. Queste violazioni assomigliano molto a quelle registrate nel 2021 [in Palestina] e rappresentano una sistematica e deliberata soppressione delle voci palestinesi, come confermato dal Sustainable Business Network and Consultancy (BSR) report. Ciò evidenzia l'incapacità delle piattaforme di sostenere i principi fondamentali dei diritti umani.

Shtaya ha aggiunto che la questione algoritmi e lo shadow ban dei contenuti filopalestinesi sono causa di difficoltà per coloro che cercano di condividere la propria storia con il mondo e chiedono un cessate il fuoco immediato.

Ha continuato: “La censura dei social media ci sta soffocando e sta inasprendo la nostra sofferenza e la lotta contro la discriminazione sistemica. Intensifica l'autocensura e crea un effetto dissuasivo, aggravando, in ultima analisi, l'oppressione subita dalle comunità emarginate”.

Riguardo a ciò che il pubblico può fare per aiutare Shtaya ha osservato che:

People should be aware of falling victim to disinformation and one-sided narratives. Social media censorship impedes Palestinians from sharing their perspectives. Therefore, the general public should proactively fact-check the news they receive regarding events on the ground and ensure they engage with and listen to the Palestinian narrative. Additionally, individuals should support Palestinian voices by following Palestinian accounts and sharing their content.

Occorre essere consapevoli di cader vittime della disinformazione e di testimonianze unilaterali. La censura dei social media impedisce ai palestinesi di condividere il proprio punto di vista. Il grande pubblico, pertanto, dovrebbe controllare in modo proattivo le notizie ricevute circa gli eventi sul campo e assicurarsi di impegnarsi e ascoltare la testimonianza palestinese. Il singolo, infine, dovrebbe sostenere le voci palestinesi seguendo i loro account e condividendone i contenuti.

In tempi di crisi umanitarie i social media si sono rivelati l'unico canale per documentare gli eventi e informare il mondo sugli abusi e le sofferenze in loco. La loro scelta di discriminare alcune comunità è una grave violazione dei diritti umani e crea un apartheid digitale che altro non fa che aggravare le crisi.


Seerat Khan è responsabile dei programmi della Digital Rights Foundation in Pakistan e negli ultimi sette anni si è occupata di questioni di genere e tecnologia. Lavora soprattutto con donne attiviste per i diritti umani e giornaliste su temi chiave come la protezione dei dati, la sicurezza online, il genere, la privacy e la disinformazione.

avvia la conversazione

login autori login »

linee-guida

  • tutti i commenti sono moderati. non inserire lo stesso commento più di una volta, altrimenti verrà interpretato come spam.
  • ricordiamoci di rispettare gli altri. commenti contenenti termini violenti, osceni o razzisti, o attacchi personali non verranno approvati.