- Global Voices in Italiano - https://it.globalvoices.org -

Fake News e soluzioni ingannevoli: come creare un'educazione civica affidabile?

Categorie: Censorship, Citizen Media, Diritti umani, Governance, Libertà d'espressione, Media & Giornalismi, The Bridge
Protesters fly a flag upside down as a signal of distress outside the offices of The Washington Post in Washington D.C. on Inauguration Day, January 20, 2017. Photo: Ivan Sigal. [1]

Manifestanti sventolano una bandiera al contrario in segno di disagio fuori dagli uffici del Washington Post durante l'Inauguration Day, città di Washington DC, 20 gennaio 2017. Foto: Ivan Sigal.

Nel suo recente manifesto [2][en, come i link seguenti salvo diversa indicazione], Mark Zuckerberg sostiene che la risposta a una politica disfunzionale e densa di conflitti stia nel costruire una comunità globale più forte, strutturata su interconnessioni capillari. Sapendo che Facebook trarrebbe, ovviamente, profitto da questa visione utopistica, dovremmo considerare con scetticismo le motivazioni che spingono il nostro Zuck. Converrebbe, invece, considerare l'idea di lavorare sulle questioni politiche ed economiche che stanno alla base delle nostre società, anziché focalizzarci sugli effetti derivanti dalla libertà d'espressione in rete — specialmente nella situazione di panico morale scatenato dal fenomeno delle “fake news.”

Il disorientamento causato dalle fake news tra i giornalisti occidentali, gli studiosi della propaganda e i policymaker [3] [it] ha ispirato un fiume di notizie e di discussioni tra gli addetti ai lavori, [4]che considerano l'incremento di questo fenomeno come una minaccia al dibattito pubblico, al giornalismo e ai nostri sistemi di governo. Assistiamo inoltre a molti tentativi di comprendere, trovare soluzioni e attribuire colpe. Eppure, molte delle soluzioni proposte presentano problematiche profonde, perché auspicano restrizioni alla libertà d'espressione eccessivamente ampie e vaghe. Particolarmente inquietanti risultano le proposte che vorrebbero limitare i contenuti sospettati di essere dei “fake”, o il forte incoraggiamento verso gli intermediari privati a imporre restrizioni su determinati tipi di dibattiti e a dare priorità a quelli inclusi in una ipotetica “lista bianca”.

Questa settimana, anche la Germania ha introdotto [5] un piano per costringere i social media a monitorare e censurare alcuni tipi di contenuti. Il Ministro della Giustizia Heiko Maas vuole [6] mettere sotto pressione normativa le aziende social, soprattutto Facebook e Twitter, per costringerle a vigilare sui contenuti, sostenendo che abbiano fallito nel farlo spontaneamente. Il disegno di legge propone sanzioni fino a 50 milioni di euro per la mancata rimozione tempestiva di incitazioni all'odio, fake news e altri tipi di contenuti fuorvianti.

In questo contesto, possiamo guardare ai paesi che hanno creato rigidi regimi normativi per il controllo dell'espressione in rete — come la Cina — non come totalmente “alieni”, ma forse come monito per stare molto attenti, nella ricerca di soluzioni alle fake news, a non costruirci da soli macchine per l'auto-censura.

Le “Fake” news e il ruolo degli stati

Molte delle recenti notizie false provenivano da gruppi non affiliati a governi, ma gli esempi di Russia, Cina, Iran e di molti altri paesi dovrebbero ricordarci che la minaccia maggiore per il dibattito pubblico proviene dalle false informazioni utilizzate dagli stati a proprio vantaggio. I governi, dopotutto, hanno l'autorità di combinare narrazioni mutevolii della verità con meccanismi ufficiali di controllo. Dobbiamo stare particolarmente attenti a quegli stati che limitano l'espressione “falsa” dei cittadini, ma allo stesso tempo creano narrazioni e notizie ingannevoli su loro stessi. Quando i governi tentano di controllare le notizie, è il caso di iniziare a cercare i segnali di tirannia.

Negli ultimi 20 anni, abbiamo visto i governi e i loro affiliati utilizzare false informazioni e fake news circolanti in rete nel più ampio intento di plasmare l'opinione pubblica per scopi politici. Esempi ben documentati includono il 50 Cent Party [7] cinese, le troll factories [8] russe e i bot engines [9] per le tecniche di astroturfing [10] [it] messe in atto dal governo americano, tutti pensati per inondare i forum in rete e i social media con falsità e distrazioni di massa.

Contemporaneamente, alcuni stati hanno preso provvedimenti [11] per regolare, limitare e perfino criminalizzare storie “false” prodotte da cittadini e giornalisti, che prevedono metodi di controllo punitivi. In Bahrain, Cina [12], Egitto, Turchia, Russia, Venezuela, Iran e in altre parti del mondo, gli utenti dei social media sono stati arrestati e perseguiti per aver condiviso informazioni ritenute false o inesatte dai loro governi. Nuove norme [12] in Cina proibiscono l'utilizzo di “fatti non verificati diffusi tramite le piattaforme dei social media” e vietano ai siti web “di pubblicare citazioni provenienti da fonti anonime o false e di inventare notizie di fantasia o basate su dicerie e congetture.”

Una recente dichiarazione [13] rilasciata da un gruppo di organizzazioni intergovernative, tra cui il Relatore per la Libertà di Espressione dell'ONU David Kaye [14], prende in esame questi tentativi di regolamentazione dalla prospettiva delle norme e leggi internazionali. Sottolinea che la dottrina internazionale relativa ai diritti umani protegge esplicitamente le forme di espressione che possono essere diverse o contrarie alle posizioni governative, anche se di fatto inaccurate. Si sostiene che gli approcci tecnici e normativi per ridurre il fenomeno delle fake news dovrebbero continuare a tutelare la diversità e la pluralità di opinione. Di seguito la frase intera che dice:

Il diritto umano di diffondere informazione e idee non si limita a “correggere” dichiarazioni… questo diritto protegge anche informazione e idee che possono scioccare, offendere o disturbare, e i divieti relativi alla disinformazione potrebbero violare gli standard internazionali dei diritti umani, mentre, allo stesso tempo, questo non giustifica la diffusione consapevole e incauta di false dichiarazioni da parte di soggetti ufficiali o governativi…

Ma, esattamente, qual è il problema?

Le conseguenze delle fake news nella vita reale non sono chiare. Un recente studio [15] del progetto di ricerca Media Cloud [16] (a cui Global Voices è associato [17]), condotto da Yochai Benkler [18] di Harvard e da Ethan Zuckerman [19] del MIT, esamina gli effetti delle fonti di informazione statunitensi orientate a destra. Emerge che, piuttosto di torcersi le mani per le “fake news”, sarebbe bene concentrarsi sulle reti di disinformazione che restano isolate dal dibattito pubblico. Benkler e colleghi mettono in discussione l'idea che “la rete internet in quanto tecnologia sia responsabile della frammentazione del dibattito pubblico e della polarizzazione delle opinioni”, sostenendo invece che sono “le scelte umane e le campagne elettorali, non l'algoritmo di una compagnia”, che più probabilmente influenzano la creazione e la diffusione della disinformazione.

Ciononostante, i progetti per cercare di controllare le fake news procedono a grande velocità. Queste proposte potrebbero potenzialmente decidere quali informazioni resterebbero facilmente accessibili per il pubblico e, se non stiamo attenti, potrebbero finire col ridurre il nostro diritto alla libera espressione. Gli approcci proposti rientrano tendenzialmente in tre categorie:

In particolare, tutti questi approcci si concentrano sul mitigare gli effetti, anziché confrontarsi con gli incentivi economici e tecnologici che fanno parte della struttura portante dei media, o con le questioni sociali, politiche ed economiche che generano un certo genere di discorsi.

Intervenire sul dibattito online

Cercando di costituire dei sistemi per gestire le notizie false, le compagnie tecnologiche finiranno per creare metodi di vigilanza e controllo sulla libertà d'espressione. Scopriremo presto che saranno necessarie analisi semantiche attente e minuziose, e quindi costantemente aggiornate, allo scopo di monitorare e limitare la libera espressione.

Le soluzioni proposte sarebbero in parte tecnologiche, basate sull'intelligenza artificiale (AI) e sull'analisi del linguaggio naturale. Questi metodi renderebbero automatica la ricerca e la segnalazione di alcuni termini, associazioni di parole e formulazioni linguistiche. Ma il linguaggio è più malleabile di un algoritmo, e le persone inventeranno termini e locuzioni alternativi per esprimersi.

Quello del linguaggio è un terreno scivoloso, che potrebbe generare una caccia al “fake” o ai discorsi offensivi fine a se stessa. L'abbiamo già visto con la caccia al linguaggio “tossico” nel recente progetto di Jigsaw [20] (l'incubatore di idee di Google) denominato Perspective [21], e altri tentativi seguiranno di sicuro.

Molto probabilmente, le compagnie affiancheranno ai processi automatizzati una qualche forma di monitoraggio umano — dagli utenti dei social media che segnalano contenuti sospetti, ad eserciti di incaricati che dovranno interpretare le segnalazioni ed applicare le necessarie restrizioni. In più, potrebbero essere previsti garanti, sistemi di feedback, procedimenti legali e politiche di vigilanza sui censori. Tali sistemi esistono già [22] per far fronte a terrorismo, incitamento all'odio estremo, violenza grave, pornografia infantile, nudità e materiale sessualmente esplicito. Rifiniti ed ampliati, potrebbero vigilare su altri tipi di contenuti.

Soluzioni di questo genere non riconoscono che gli incentivi tecnologici che incoraggiano le fake news sono gli stessi che attualmente finanziano il settore dei media digitali — ossia tecnologia pubblicitaria mascherata da contenuti editoriali.

Il teorico di internet Doc Searls definisce questo fenomeno “adtech [23]”, sottolineando che si tratta di una forma di marketing diretto o di spamming. L'aumento delle fake news è in parte guidato da organizzazioni in cerca di profitti o di influenze politiche, che creano storie sensazionali e ingannevoli confezionate per un pubblico altamente polarizzato. Chi produce questi contenuti beneficia di un sistema ideato [24] per segmentare [25] il pubblico in fasce, da mobilitare per scopi commerciali. Questo sistema include il monitoraggio delle abitudini dei consumatori, la pubblicità mirata, il marketing diretto e la creazione di prodotti editoriali che risultino interessanti per specifici segmenti di consumatori. Queste forze si fondono in un balletto di incentivi pubblicitari ed editoriali che inducono un'ulteriore polarizzazione e segmentazione.

Intervenire sul pubblico

Il secondo approccio — educare noi stessi — si affida all'idea vittoriana che l'attuale sistema dei media funzionerebbe, se solo le persone si comportassero come i creatori del sistema si aspettano da loro. Campagne per l'alfabetizzazione digitale [26], istruzione pubblica, verifica dei fatti, tattiche di sfida e smascheramento, fruizione equilibrata dei media, liste bianche di media approvati: tutte queste soluzioni implicano che la colpa è nostra se non riusciamo a frenare i nostri desideri. Non si può negare che siamo vulnerabili alla strategia endorfinica con cui i media allettano la nostra sete di sensazionalismo e di frivolezza, né che l'istruzione sia importante per una sana educazione civica. Imputare la colpa principalmente agli individui, però, equivale in qualche modo ad incolpare la vittima.

Intervenire sul giornalismo

L'ultimo approccio — destinare più risorse ad un giornalismo migliore — è un esempio di come la comunità giornalistica potrebbe approfittare della situazione attuale per riaffermare la propria competenza e il proprio valore. Mentre un settore dei media più dinamico e con risorse maggiori è indubbiamente vitale per la salute a lungo termine della nostra vita civile, le conversazioni al riguardo dovrebbero partire dalla mancanza di fiducia [27] che molte forme di giornalismo hanno accumulato negli scorsi decenni. Questa sfiducia è dovuta a un modo di fare informazione superficiale e sensazionalistico, con notizie usate come intrattenimento e con le grandi compagnie che tendono a massimizzare i profitti a discapito degli interessi del pubblico e dei lettori.

Dato che il modello di business dei media liberali e capitalisti è basato sulla vendita di spazi pubblicitari agli inserzionisti, non dovrebbero sorprendersi nel constatare che chi di noi si è sentito “venduto”, si sia fatto più scaltro. E, sebbene gli sforzi per rinvigorire il giornalismo e la fiducia del pubblico nei media siano importanti e più necessari che mai, non faranno scomparire le fake news.

Quindi, di cosa stiamo parlando in realtà?

La maggior parte degli approcci proposti finora, siano essi rivolti alla tecnologia o agli esseri umani, per controllare la correttezza dei contenuti online non tengono in considerazione le cause sociali, politiche e comunitarie che generano espressioni di odio o false. Puntano invece a limitare i comportamenti e a controllare gli effetti e, per farlo, si affidano alle buone pratiche degli intermediari tecnologici. Non ci chiedono di guardare più da vicino alla struttura politica e sociale delle nostre comunità. Non esaminano né propongono soluzioni per far cessare odio, discriminazioni e pregiudizi all'interno della società, questioni come la disparità del reddito, la pianificazione urbana, le opportunità di istruzione e, in definitiva, le strutture di governo.

Purtroppo, abbiamo già visto simili approcci nei tentativi [28] di limitare l'estremismo in rete, e con risultati discutibili [29]. I progetti per contrastare l'estremismo violento soffrono delle stesse lacune nella definizione [30] della natura del problema, ma questo non impedisce ai governi di creare risposte inadeguate. Per esempio, basta guardare ai molti progetti [31] di contro-narrazione, come “Welcome to ISIS Land [32]” fondato dal Dipartimento di Stato americano. Questi progetti, supportati da governi [33], organizzazioni internazionali [34] e compagnie private [35], puntano alla creazione di una serie di politiche, approcci tecnologici e di comunicazione per il controllo dell'estremismo.

David Kaye, in una precedente dichiarazione congiunta sull'argomento, nota [36] la “mancata definizione di termini chiave come ‘estremismo’ o ‘radicalizzazione’. “In assenza di una definizione chiara, questi termini possono essere usati per limitare un'ampia gamma di espressioni legittime,” continuando ad infliggere danni collaterali [36] dovuti al controllo e alla sorveglianza invasiva, che innescano l'auto-censore che è in tutti noi, con la conseguente riduzione della partecipazione civica e del dialogo.

Da dove possiamo iniziare ad affrontare le sfide più grandi, quelle che vanno al di là di semplici autoaccuse o correzioni della tecnologia? Non ci sono soluzioni semplici alle disuguaglianze economiche e sociali che creano divisioni. E gli incentivi economici e tecnologici che sostengono l'attuale ecosistema dell'informazione sono profondamente radicati. Eppure, è necessario trovare un modo per dare avvio a discussioni serie a proposito di queste sfide sistemiche, piuttosto che barcamenarci con i loro effetti o semplicemente incolpando l'ultimo arrivato.

Tim Berners-Lee, l'inventore della rete internet, esorta [37] alla riforma dei sistemi e dei modelli di business su cui abbiamo fondato la nostra vita online. Indica, ad esempio, l'utilizzo dei dati personali da parte delle compagnie come un modello per la creazione di società sorvegliate, con effetti raggelanti sulla libertà di espressione. Suggerisce di cercare soluzioni alla concentrazione di interesse e di potere nelle mani di poche compagnie di social media, che generano profitti offrendoci contenuti “sorprendenti, scioccanti o creati per stimolare i nostri preconcetti.” È preoccupato dall'uso delle stesse tattiche nella propaganda politica e dai suoi effetti sul sistema delle campagne elettorali.

Confrontarci con le diseguaglianze sociali ed economiche è anche più difficile. La sfida del nostro tempo è trovare il linguaggio adatto a condurre dibattiti franchi ed onesti sulle modalità in cui costruiamo le nostre economie e i nostri stati, su come ridistribuiamo i benefici e su quali valori ci guidano. Costruire comunità civili che affondino le radici nella fiducia reciproca, online e offline, è il lavoro vitale e continuativo necessario alle discussioni pubbliche sul nostro futuro collettivo.

C'è non poca ironia nel fatto che proprio i sistemi di comunicazione che abbiamo creato per supportare tale dibattito siano minacciati, sia da chi distrugge a vantaggio dei propri fini ideologici le norme sociali per un discorso civile, sia dai conseguenti tentativi di controllare le forme di espressione estreme o fuorvianti. È facile incolpare le tecnologie che facilitano la nostra comune vita civile. È molto più difficile vedere la nostra civiltà come un intero, e determinare se e come potrebbe essere fallimentare.