Ecco come il COVID-19 sta aggravando i difetti della moderazione dei contenuti online

Grafica di Mozilla. Usata con autorizzazione.

Il seguente articolo è stato elaborato dalle scrittrici ospiti Solana Larsen, Internet Report Editor presso Mozilla [en, come i link seguenti, salvo diversa indicazione] e Leil Zahra, una Mozilla Fellow inserita presso WITNESS.

Mentre le persone di tutto il mondo si mettono al riparo dalla pandemia del COVID-19, internet è diventato una risorsa ancora più vitale di prima. Milioni di noi in questo periodo si collegano, commiserano, imparano, lavorano e giocano esclusivamente online.

In un certo senso, la pandemia ha mostrato il potenziale di internet come una risorsa pubblica globale. Ma sta anche mostrando l'aspetto malsano di internet: coloro che non vi hanno accesso [it] si trovano attualmente in una situazione di svantaggio ancora maggiore. Inoltre, le carenze in termini di privacy e sicurezza nella tecnologia dei consumatori stanno rendendo esponenzialmente più vulnerabili le persone.

Un problema preoccupante che la pandemia fa emergere è un ecosistema danneggiato di moderazione del contenuto di internet. Ossia, i modi profondamente difettosi con cui le grandi piattaforme tecnologiche affrontano il discorso dell'odio online, la disinformazione e i contenuti illegali. Nonostante i numerosi progressi, Facebook, Youtube e altre piattaforme spesso moderano i contenuti in maniera incostante o addirittura pericolosa: i contenuti dannosi vengono lasciati a marcire mentre i contenuti accettabili vengono ingiustamente rimossi. Queste decisioni colpiscono spesso in modo sproporzionato le persone nel sud del mondo e che parlano lingue meno diffuse.

Attualmente, ci troviamo in un punto di flesso. I difetti della moderazione dei contenuti appariranno ancora più grandi? Oppure questa crisi potrebbe essere un trampolino di lancio per cambiamenti positivi e duraturi nel modo in cui comunichiamo online?

Uno dei problemi più spinosi nella moderazione dei contenuti è chi — o cosa — compie la moderazione. Con le piattaforme sopraffatte dalla disinformazione legata alla pandemia e molti moderatori umani di contenuti incapaci di lavorare, molte piattaforme si rivolgono sempre di più all'intelligenza artificiale. I limiti di questo tipo di approccio sono chiari. Il filtraggio automatico non è riuscito ad impedire la disinformazione sul COVID-19, divampatasi come un incendio, mettendo in pericolo la salute pubblica. Le piattaforme sono inondate di articoli che suggeriscono che bere la candeggina possa curare il virus, o che la tecnologia 5G stia in qualche modo diffondendo la malattia.

Oltre a sorvolare sulla disinformazione, la moderazione automatica può anche censurare accidentalmente contenuti di qualità. Gli utenti di internet che fanno domande serie o che parlano con vocabolario o contesti locali, possono essere ingiustamente etichettati come problematici. La moderazione automatica della pandemia su Facebook ha erroneamente portato alla rimozione di una grande quantità di contenuti, inclusi dei collegamenti ad alcuni nuovi articoli sul COVID-19. A marzo, Facebook ha affermato che dietro questo c'era un problema tecnico e ha affermato di aver ripristinato i contenuti rimossi. Ma l'episodio ha sollevato serie perplessità sull'efficienza di tale sistema e, inoltre, fa dubitare della trasparenza di Facebook. Quando Youtube ha annunciato di aver aumentato il filtro automatico a marzo causa COVID-19, ha scritto: “mentre lo stiamo facendo, utenti e creatori potrebbero vedere un aumento delle rimozioni dei video, inclusi alcuni video che potrebbero non violare le norme”. In maniera simile, Twitter ha spiegato nello stesso mese che la loro moderazione automatizzata “a volte può mancare il contesto che i nostri team portano, e questo può farci commettere errori”.

Il fatto che un contenuto venga ingiustamente rimosso o un account venga sospeso non aiuta, il processo di appello può essere difficile da comprendere. In molti casi, gli utenti vengono lasciati senza capire i motivi alla base della rimozione dei contenuti o della sospensione dell'account. Anche prima della pandemia, il contesto è stato un problema importante nella discussione sulla moderazione dei contenuti. Ad esempio, se un approccio incentrato negli Stati Uniti su ciò che è un linguaggio accettabile o meno dovrebbe essere applicato a livello internazionale.

La tecnologia difettosa è un problema nell'ambito della moderazione dei contenuti; le politiche disuguali ne sono un altro. Negli Stati Uniti e alcune nazioni europee, grosse piattaforme tecnologiche possono essere abbastanza vigili nel seguire le leggi locali e nel rispettare i propri impegni politici interni. Altrove, ciò non accade. Durante le elezioni in Nigeria nel 2018, la ricercatrice e collaboratrice di Global Voices Rosemary Ajavi a un gruppo di colleghi hanno catalogato [it] centinaia di tweet che diffondevano disinformazione ed erano rimasti basiti per i tassi di risposta imprevedibili e incoerenti in rapporto a questa attività. “Se segnali qualcosa di grave nel giorno delle elezioni e ti rispondono una settimana dopo, qual è il senso?” ha affermato Ajavi. Il pensiero è altrettanto spaventoso nel contesto odierno: se una piattaforma rimuove la disinformazione sul COVID-19 dopo che milioni di persone l'hanno già vista, il danno è ormai stato fatto.

Questi sono solo due dei numerosi problemi di lunga data nel campo della moderazione dei contenuti. Nel recente sondaggio di Mozilla nello spazio dei social media, ne abbiamo esaminati molti altri. Abbiamo parlato con un gruppo senza scopo di lucro polacco, SIN, che tratta la riduzione del danno da droga, il quale è stato sospeso da Facebook e non è stato in grado di presentare ricorso contro la decisione. Abbiamo anche parlato con il gruppo di ricerca sui diritti umani Syrian Archive, il quale afferma che le prove di violazione dei diritti umani durante la guerra vengono spesso cancellate dalle piattaforme. Non è difficile vedere come casi come questi possano essere particolarmente gravi anche durante la pandemia. Cosa succede se scompaiono informazioni critiche sulla salute o se vengono erroneamente rimosse prove di violazione dei diritti umani legate al confinamento?

Non esiste una panacea per questi problemi. Ma una maggiore trasparenza su quello che viene rimosso, quando e perché, nonché su quale parte delle azioni di rimozione vengono chiamate in appello e ripristinate, potrebbe aiutare molto di più i ricercatori, le comunità interessate a fornire consulenze su piattaforme e responsabili politici. Le relazioni sulla trasparenza delle principali piattaforme sono tuttavia diventate più dettagliate nel corso degli anni, in parte grazie alle pressioni della società civile, compresi i firmatari dei Santa Clara Principles. Questa iniziativa della comunità per delineare le basi per la trasparenza e la responsabilità nella moderazione dei contenuti è stata lanciata nel 2018 e diverse piattaforme hanno continuato a sostenerla. A marzo, rilevando che i principi avrebbero tratto beneficio da un aggiornamento, la Electronic Frontier Foundation (EFF) ha avviato un invito globale a presentare proposte (la scadenza è il 30 giugno) su come soddisfare al meglio le esigenze delle voci emarginate che sono fortemente colpite.

Si sa così poco sulla moderazione e sui modelli di appello in diversi contesti globali, che anche la testimonianza aneddotica degli utenti interessati sarebbe una risorsa preziosa. Silenced.online è un nuovo strumento di base per il crowdsource e la discussione di esperienze di rimozioni ingiuste in tutto il mondo. Lo scopo è di creare una rete di organizzazioni e individui che hanno lavorato, o che vogliono iniziare a lavorare, nella rimozione dei contenuti e moderazione.

Altri gruppi concorderanno sul fatto che è fondamentale per la società civile e i ricercatori impegnarsi in questioni di moderazione dei contenuti e regolamentazione della piattaforma. Gli scandali e le crisi tendono tendono a provocare nuove regole e regolamenti, o richiamano a ulteriori automazioni, che non sono necessariamente basate su analisi indipendenti di ciò che funziona. Nuovi approcci alla creazione di meccanismi di responsabilità e ricorso, come il nuovo comitato per il controllo [it] di Facebook, richiedono attenzione da parte di un pubblico globale.

Come sottolineato, la pandemia del COVID-19 ha acceso i riflettori sui difetti della moderazione dei contenuti, ma i problemi sono di lunga durata, non per ultimi quelli in materia di salute e disinformazione. Si richiede un cambiamento nel funzionamento quotidiano delle piattaforme e nel modo in cui sono ritenute responsabili. Una maggiore prudenza e concentrazione sulla questione ha il potenziale di catalizzare qualcosa di buono. Può suscitare maggiore trasparenza, tecnologia più umana, leggi migliori e un internet più sano.

avvia la conversazione

login autori login »

linee-guida

  • tutti i commenti sono moderati. non inserire lo stesso commento più di una volta, altrimenti verrà interpretato come spam.
  • ricordiamoci di rispettare gli altri. commenti contenenti termini violenti, osceni o razzisti, o attacchi personali non verranno approvati.