- Global Voices in Italiano - https://it.globalvoices.org -

L'UE userà l'intelligenza artificiale contro il terrorismo online, eliminando però prove di crimini di guerra

Categorie: Medio Oriente & Nord Africa, Siria, Censorship, Citizen Media, Cyber-attivismo, Diritti umani, Guerra & conflitti, Libertà d'espressione, Tecnologia, Advox

Yarmouk, Siria. L'area è stata danneggiata da attacchi aerei e combattimenti tra regime e ribelli. Foto di Ahmad Shihabi, utilizzata con permesso.

Questo post è pubblicato come parte di una partnership editoriale tra Global Voices e Ranking Digital Rights [1].

(Avviso ai lettori: le immagini dei video che seguono potrebbero urtare la vostra sensibilità, aprire i link con cautela)

Un nuovo video [2] [ar] sul canale YouTube di Orient News mostra una scena che i suoi visitatori regolari hanno già visto centinaia di volte. Il personale di un ospedale chirurgico nella provincia di Idlib, in Siria, si precipita ad operare su un uomo che è appena stato ferito in un'esplosione. Le riprese dall'alto mostrano tre corpi sul pavimento. Uno è immobile. Gli altri due sono nascosti da coperte. Un uomo si china e scruta sotto la coperta, forse per vedere se conosce la vittima.

Il canale siriano Orient News [3] [en, come tutti i link successivi, salvo diversa indicazione] è uno dei tanti piccoli mezzi di informazione che ha avuto un ruolo fondamentale nel documentare la guerra civile in Siria e mettere sotto gli occhi di tutti video che provassero l'uso di violenza contro i civili. Attivo dal 2008, il gruppo è di proprietà e gestito da un attivista che critica a gran voce il regime di Assad.

Oltre ai propri canali di distribuzione, YouTube ha svolto un ruolo determinante nel portare video come questo ad un pubblico più ampio. O almeno lo era, fino ad agosto 2017 quando, senza preavviso, il canale YouTube di Orient News è stato sospeso.

Dopo alcune indagini da parte del gruppo, insieme ad altri organi di informazione che avevano visto alcuni dei loro video scomparire, tra cui Bellingcat [4], Middle East Eye [5]Syrian Archive [6], è venuto alla luce che YouTube aveva rimosso centinaia di video che sembravano mostrare contenuti “estremisti”.

La scoperta aveva lasciato questi gruppi assai perplessi. Da anni ormai pubblicano i propri video, che in genere includono didascalie e informazioni sul contesto, sui propri canali Youtube. Perché sono improvvisamente diventati contenuti non sicuri per gli innumerevoli utenti di YouTube?

Perché adesso è un nuovo tipo di autorità a prendere le decisioni.

Poco prima delle misteriose rimozioni, YouTube aveva annunciato [7] l'impiego di tecnologia di intelligenza artificiale per identificare e censurare “contenuti grafici o estremisti”, al fine di reprimere l'ISIS e gruppi simili che avevano utilizzato [8] i social media (tra cui YouTube [9], Twitter [10] e l'ormai defunta Google Plus [11]) per pubblicare macabri filmati di esecuzioni e per reclutare combattenti.

Migliaia di video che documentano crimini di guerra e violazioni dei diritti umani [12] sono così stati coinvolti e censurati in questa epurazione basata sull'intelligenza artificiale (IA). Tuttavia, dopo che alcuni gruppi hanno messo in discussione la mossa di YouTube, la società ha ammesso [13] di aver “sbagliato” a eliminare diversi video, che sono stati successivamente reintegrati. Altri sono rimasti bloccati, a causa di “contenuti violenti e grafici”.

Il mito dell'autoregolamentazione

Aziende come Google (genitore di YouTube), Facebook e Twitter hanno motivi legittimi per adottare misure speciali quando si tratta di violenza grafica e contenuti associati a gruppi estremisti violenti. Infatti, determinati contenuti possono causare danni nella vita reale e possono avere ripercussioni negative sulle stesse aziende. Ma la domanda su come dovrebbero identificare e rimuovere questo tipo di contenuti – pur conservando le prove essenziali dei crimini di guerra e della violenza – è lungi dall'essere risolta.

Nel corso degli anni, queste aziende hanno sviluppato politiche [14] volte a riconoscere che non tutti i contenuti violenti hanno lo scopo di promuovere o incitare alla violenza. Ad esempio, YouTube, come altre piattaforme, non consente [14] la pubblicazione della maggior parte dei contenuti estremisti o violenti, tuttavia consente agli utenti di pubblicare tali contenuti in “contesti di informazione, documentari, temi scientifici o artistici”, incoraggiandoli a fornire informazioni contestuali sul video.

Tuttavia, il regolamento avverte che: “In alcuni casi, i contenuti possono essere così violenti o sconvolgenti che nessuna quantità di contesto consentirà che i contenuti rimangano sulle nostre piattaforme.” YouTube non offre informazioni al pubblico che descrivano come i meccanismi interni determinino quali video siano “così violenti o sconvolgenti. “

Gruppi come il Syrian Archive si preoccupano di documentare i dettagli contestuali dei video. Questo screenshot dal loro database mostra un videoclip, una mappa, altri metadati e un riassunto di un presunto attacco col gas sarin del 2013 a Damasco.

Questo approccio mette l'azienda in una posizione precaria, poiché Youtube starebbe valutando il contenuto destinato al consumo pubblico, ma non sembrano esserci meccanismi per garantire la trasparenza pubblica o la responsabilità di tali valutazioni. Così facendo, Youtube sta facendo le proprie regole e le modifica a piacimento per servire solo i propri interessi.

La proposta dell'Unione Europea potrebbe rendere obbligatorio l'utilizzo dell'IA

Un comitato in seno alla Commissione europea sta minacciando di intervenire sulla questione con un progetto di regolamento che costringerebbe le aziende a intensificare la rimozione di “contenuti terroristici” o ad affrontare multe salate. Mentre il regolamento proposto romperebbe il ciclo vizioso di aziende che tentano, e spesso non riescono, a “autoregolarsi”, potrebbe peggiorare le cose per gruppi come Orient News.

Cosa dice la proposta della Commissione?

Secondo la proposta [15] [it], relativa alla “prevenzione della diffusione di contenuti terroristici online”, i fornitori di servizi di hosting dovranno adottare misure proattive per proteggere i loro servizi dalla diffusione di contenuti terroristici”. Questo include l'utilizzo di strumenti automatici per: “a)  […] contrastare in maniera efficace la ricomparsa di contenuti che erano stati rimossi o il cui accesso era stato disabilitato perché considerati contenuti terroristici; b)  individuare, identificare e rimuovere prontamente i contenuti terroristici o disabilitarne l'accesso”, secondo quanto stipulato dall'articolo 6, comma 2.

Se adottata, la proposta [15] [it] permetterebbe inoltre “ai fornitori di servizi di hosting di rimuovere i contenuti terroristici o disabilitarne l'accesso”, “entro un'ora dal ricevimento dell'ordine di rimozione

Inoltre, garantisce alla “autorità competente o l'organismo competente dell'Unione” il potere di “inviare una segnalazione” ai fornitori di servizi di hosting affinché “provvedano, su base volontaria, ad esaminarli”.

La bozza del regolamento [15] [it] richiede una cancellazione più severa di questo tipo di contenuti e tempi di risposta rapidi per quanto riguarda la rimozione. Ma non istituisce un tribunale speciale o un altro meccanismo giudiziario che possa offrire indicazioni alle aziende che lottano per valutare contenuti online complessi.

Invece, costringerebbe i fornitori di servizi di hosting a utilizzare strumenti automatici per impedire la diffusione di “contenuti terroristici” online. Ciò forzerebbe le aziende a utilizzare un tipo di sistema simile a quello già messo in atto volontariamente da Youtube.

La proposta dell'UE ripone molta fiducia in questi strumenti, ignorando il fatto che gli utenti, gli esperti tecnici e persino i legislatori stessi sono in gran parte ignari di come funzionino queste tecnologie.

L'IA può davvero valutare il valore del contenuto del video dal punto di vista dei diritti umani?

Strumenti automatici possono essere ‘addestrati’ a valutare se un video è violento o grafico. Ma come determinano lo scopo previsto del video? Come fanno a sapere se la persona che ha pubblicato il video stava cercando di documentare il costo umano di un conflitto? Queste tecnologie possono veramente comprendere il contesto in cui si svolgono questi avvenimenti? E in che misura i moderatori umani svolgono un ruolo in queste decisioni?

Non abbiamo quasi nessuna risposta a queste domande.

“Non abbiamo le più basilari garanzie di responsabilità algoritmica [16] o trasparenza [17], come accuratezza, spiegabilità, correttezza e verificabilità. Le piattaforme utilizzano algoritmi di apprendimento automatico che sono esclusivi e protetti da qualsiasi revisione,” ha scritto WITNESS ‘Dia Kayyali in un blogpost [18] del dicembre 2018.

Coloro che hanno criticato la proposta sostengono che costringere tutti i fornitori di servizi di hosting a fare affidamento su strumenti automatizzati nel tentativo di prendere provvedimenti contro contenuti terroristici ed estremisti, senza trasparenza e adeguata supervisione, è una minaccia per la libertà di espressione e il web aperto.

I relatori speciali delle Nazioni Unite sulla promozione e la tutela del diritto alla libertà di opinione e di espressione, il diritto alla privacy, la promozione e la protezione dei diritti umani e delle libertà fondamentali, hanno espresso preoccupazioni [19] nei confronti della Commissione, nonostante il loro obiettivo rimanga contrastare il terrorismo. In un memo del dicembre scorso, hanno scritto:

Considering the volume of user content that many hosting service providers are confronted with, even the use of algorithms with a very high accuracy rate potentially results in hundreds of thousands of wrong decisions leading to screening that is over — or under — inclusive.

Considerando il volume di contenuti utente a cui si trovano di fronte molti provider di servizi di hosting, anche l'uso di algoritmi con un tasso di accuratezza molto elevato può portare a centinaia di migliaia di decisioni sbagliate che portano a uno screening troppo o troppo poco comprensivo.

Nel considerato 18, la proposta delinea le misure che i fornitori di servizi di hosting possono adottare per impedire la diffusione di contenuti legati al terrorismo, compreso l'uso di strumenti che “impedirebbero il ricaricamento di contenuti terroristici”. Comunemente noti come filtri di caricamento, tali strumenti sono stati una preoccupazione particolare per i gruppi di diritti digitali in Europa. La questione è emersa per la prima volta durante la spinta dell'UE per una direttiva sul copyright, che avrebbe richiesto alle piattaforme [20] di verificare la proprietà di ogni contenuto al momento del caricamento da parte di un utente.

“Abbiamo paura che la creazione di queste funzioni spaventi gli utenti”, ha dichiarato Evelyn Austin, dell'organizzazione per i diritti digitali dei Paesi Bassi, Bits of Freedom, in una conferenza pubblica [21].

We see as inevitable a situation in which there is a filter for copyrighted content, a filter for allegedly terrorist content, a filter for possibly sexually explicit content, one for suspected hate speech and so on, creating a digital information ecosystem in which everything we say, even everything we try to say, is monitored.

Crediamo che sia inevitabile che prima o poi si arrivi ad avere un filtro per i contenuti protetti da copyright, un filtro per contenuti presumibilmente terroristici, un filtro per contenuti potenzialmente sessualmente espliciti, uno per sospetto incitamento all'odio e così via, creando un ecosistema di informazione digitale in cui tutto ciò che diciamo, anche tutto ciò che cerchiamo di dire, è monitorato.

Austin ha sottolineato che questi meccanismi minano le strategie precedenti che si basavano maggiormente sull'uso del giusto processo [di valutazione].

Upload filtering….will replace notice-and-action mechanisms, which are bound by the rule of law, by a process in which content is taken down based on a company's terms of service. This will strip users of their rights to freedom of expression and redress…

Filtri di caricamento… Sostituiranno i meccanismi di notifica e azione, che sono vincolati dallo stato di diritto, da un processo in cui il contenuto viene rimosso in base ai termini di servizio di un'azienda. Ciò priverà gli utenti dei loro diritti alla libertà di espressione e di ricorso…

La proposta dell'UE applica inoltre rigide sanzioni pecuniarie alle società che non ottemperano. Per una singola azienda, questo può ammontare fino al 4% del suo fatturato globale rispetto all'esercizio dell'anno precedente.

Il gruppo francese per i diritti digitali La Quadrature du Net [22] ha offerto una ferma critica della proposta e ha fatto notare i limiti che avrebbe stabilito per i siti web e i servizi di minori dimensioni:

From a technical, economical and human perspective, only a handful of providers will be able to comply with these rigorous obligations – mostly the Web giants.

To escape heavy sanctions, the other actors (economic or not) will have no other choice but to close down their hosting services…

Da un punto di vista tecnico, economico e umano, solo un gruppo ristretto di fornitori sarà in grado di rispettare questi obblighi rigorosi, in particolare i giganti del web.

Per evitare pesanti sanzioni, gli altri attori (economici o meno) non avranno altra scelta che chiudere i loro servizi di hosting…

“Attraverso questi strumenti”, avverte La Quadrature du Net [23], ” saranno queste società che avranno il monopolio e potranno giudicare ciò che si può dire su internet, praticamente su qualsiasi servizio”.

Anzi, invece che incoraggiare “l'autoregolamentazione”, la proposta dell'UE ci porterà molto lontani da un mondo in cui i processi giusti o altri meccanismi pubblici vengono usati per decidere ciò che diciamo e vediamo online, mentre invece ci spingerà sempre di più a fare affidamento sulle tecnologie proprietarie per decidere quali tipi di contenuti sono appropriati, senza alcun meccanismo di controllo pubblico.