Black Lives Matter fa piegare IBM, che rinuncia al riconoscimento facciale

La reconnaissance faciale analyse la structure d'un visage pour permettre l'identification des personnes.

Il riconoscimento facciale consente di identificare le persone attraverso l'analisi della struttura del viso. Immagine usata previa autorizzazione. Fonte: Pikrepo

A seguito della pressione esercitata dal movimentoBlack Lives Matter, che, negli Stati Uniti come altrove, solleva domande cruciali circa il legame tra videosorveglianza e razzismo, la società IBM ha annunciato che rinuncerà al mercato del riconoscimento facciale. Questa decisione segnerà un punto di svolta nell'utilizzo di queste tecnologie imprecise per fini di sicurezza?

L'annuncio è passato quasi del tutto inosservato.

Da una parte, la notizia della crisi sanitaria del COVID-19 gestita in modo confusionario. Dall'altra, quella degli scoppi d'ira, originati dalla sconcertante brutalità della polizia, che hanno rinvigorito il movimento Black Lives Matter in tutto il mondo. Tra le due, l'annuncio l'8 giungo della decisione di IBM di abbandonare il mercato del riconoscimento facciale [en, come tutti i link successivi, salvo diversa indicazione], arrivata a seguito delle campagne degli attivisti per il rispetto del codice etico aziendale.

“La tecnologia può incrementare la trasparenza e aiutare la polizia a proteggere la collettività, ma non deve promuovere la discriminazione o l'ingiustizia razziale” ha dichiarato Arvind Krishna, l'amministratore delegato dell'azienda.

L'annuncio, che non ha suscitato molte reazioni se non quelle di alcuni analisti politico-economici e alcuni tecnofili e attivisti, potrebbe tuttavia preannunciare degli importanti cambiamenti nell'influenza che le tecnologie esercitano sulle nostre vite.

Una tecnologia controversa

Il riconoscimento facciale permette di identificare le persone in video o in foto in maniera automatizzata. Per riuscirci, fa affidamento su due capisaldi: una banca dati di immagini di riferimento pre-registrate e una grande potenza di calcolo. Due ambiti, questi, in cui sono stati recentemente compiuti progressi fenomenali, grazie alle innovazioni realizzate rispettivamente nei campi dei Big Data e dell’Intelligenza Artificiale (IA), che hanno reso possibile l'utilizzo del riconoscimento facciale su grande scala.

Negli ultimi anni, gli esempi si sono moltiplicati in tutto il mondo. Nel febbraio del 2005, la polizia municipale di Los Angeles utilizzava un sistema sviluppato da General Electric e Hamilton Pacific. Una pratica, questa, che da allora si è diffusa e ha subito un'impennata. Nel 2019, la Cina contava 200 milioni di telecamere di videosorveglianza sul proprio territorio, e la Russia si accingeva a sviluppare un sistema ancora più fitto. Senza contare, poi, le iniziative di città quali Nizzache lo sta attualmente testando [fr], o Londra, dove le telecamere analizzano i volti del passanti (senza avvertirli) al fine di localizzare le persone ricercate.

Le autorità giustificano questa sorveglianza automatizzata come un'esigenza di sicurezza. Alla fine del 2016, l’Interpol [fr] ha dichiarato di aver identificato “oltre 650 criminali, fuggitivi, sospettati o persone scomparse […]”. Si tratta, insomma, di combattere la criminalità, il terrorismo o, più recentemente, la diffusione del coronavirus.

Ma come tutte le tecnologie avanzate, anche il riconoscimento facciale è un'arma a doppio taglio. Ai miglioramenti che apporta si accompagnano delle minacce, in particolare quelle alla libertà umana.

Molteplici associazioni a difesa dei diritti digitali mettono in guarda l'opinione pubblica sui possibili abusi. Tra queste, l'Electronic Frontier Foundation (EFF) o La Quadrature du Net [fr]. Quest'ultima coordina la campagna Technopolice [fr], un'iniziativa che individua e denuncia i progetti di sorveglianza automatizzata in Francia e che invoca una resistenza sistematica.

Un'affidabilità relativa

I pericoli più evidenti del riconoscimento facciale derivano dal metodo di apprendimento, un addestramento che si basa su dei campioni di dati, i training data sets. Se questi sono incompleti o privi di rilevanza, lo strumento produrrà un'interpretazione erronea, denominata “bias induttivo”.

Di recente, è stata condivisa una suggestiva dimostrazione di questo bias: il 19 giugno, un'IA ha dimostrato di essere in grado di ricostruire un viso partendo da una fonte pixelata, una prodezza degna di una serie televisiva poliziesca. Alcuni utenti l'hanno rapidamente testata, ottenendo dei risultati talora aberranti, che hanno poi pubblicato. Gli errori erano significativamente più numerosi nei soggetti afroamericani o di origine ispanica come… Barack ObamaAlexandria Ocasio-Cortez! Il data set, che conteneva quasi unicamente fotografie di persone bianche, aveva orientato le ricostruzioni verso i profili-tipo che aveva erroneamente calcolato come maggiormente probabili.

Questa fotografia di un Barack Obama bianco rappresenta in sintesi il problema dei bias razziali dell'IA.

Se si utilizza l'IA per identificare le persone nelle immagini anziché per migliorarla, l'elaborazione analitica avrà probabilmente un bias analogo, come spiega questo articolo [fr]:

Imaginons que vous décidiez d’évaluer la dangerosité, le risque de criminalité d’une personne, à partir de paramètres tels que l’âge, le lieu de résidence, la couleur de peau, le diplôme le plus élevé… et que pour entraîner votre logiciel, vous utilisiez les données fournies par les centres de détention, les prisons.

Alors il est fort probable que votre logiciel minimise fortement les risques pour les personnes blanches et l’augmente pour les autres.

Immaginate di dover valutare la pericolosità o il rischio di criminalità di una persona a partire da parametri quali l'età, il luogo di residenza, il colore della pelle, il titolo di studio più elevato… e di utilizzare i dati forniti dai centri di detenzione, dalle prigioni, per addestrare il vostro software.

È altamente probabile che il software minimizzi fortemente i rischi per le persone bianche e che li aumenti per le altre.

I fatti parlano da soli: a Londra, il riconoscimento facciale in tempo reale registra un tasso d'errore pari all'81% [fr]; a Detroit, un uomo afroamericano ha testimoniato di essere stato erroneamente arrestato [fr] a causa di un'identificazione fallace…

Una legittimità che viene messa in discussione

Non solo il sistema è fallibile, ma aggrava anche le discriminazioni, come conferma un'inchiesta del 2016 del sito di investigazioni ProPublica.

Google Photos qui étiquetait comme des « gorilles » deux Afro-Américains […] un outil d'aide au recrutement utilisé par Amazon et défavorisant les femmes

Source : « IA : la reconnaissance faciale est-elle raciste ? » Orange Digital Society Forum

Le fotografie di Google che etichettavano due afroamericani come “gorilla” […] uno strumento di supporto per le assunzioni utilizzato da Amazon che sfavoriva le donne

Fonte: “IA: il riconoscimento facciale è razzista?” Orange Digital Society Forum [fr]

Per le forze di polizia, che si ritrovano spesso a essere accusate di discriminazioni [fr], il riconoscimento facciale rappresenta un ulteriore elemento altamente infiammabile.

La morte di George Floyd, avvenuta il 25 maggio a Minneapolis a causa della brutalità della polizia, ha scatenato numerose manifestazioni prima negli Stati Uniti e, in seguito, in tutto il mondo. Inizialmente, a essere denunciate erano le discriminazioni verso le minoranze etniche, ma un'incredibile escalation di violenza ha portato i manifestanti a chiedere la smilitarizzazione delle forze dell'ordine al grido di “Defund the police” (“Tagliamo i fondi alla polizia”). Per estensione, sono stati messi in discussione anche gli strumenti di sorveglianza generalizzata, così come le aziende private che li producono.

Messa sotto pressione dagli attivisti del movimento Black Lives Matter, l'azienda IBM ha annunciato il suo (relativo) ritiro dal mercato del riconoscimento facciale.

Non è un caso che la prima reazione sia giunta proprio da Big Blue. La società ha una lunga storia, spesso ignominiosa, della quale ha dovuto imparare a farsi carico. Nel 1934, collaborò con il regime nazista tramite la sua filiale tedesca. Molto più tardi, nel 2013, fu implicata nell'affare del programma di sorveglianza PRISM, portato alla luce dall'informatore Edward Snowden. È forse per questo motivo che ha potuto prendere coscienza del proprio ruolo nel conflitto attuale tra uno Stato di sicurezza e gli attivisti per i diritti umani. Ovviamente possiamo citare una motivazione molto più razionale nella strategia di IBM, desiderosa di proteggersi da eventuali procedure giudiziarie e relativi costi finanziari.

Ciononostante, la riqualificazione delle proprie attività è più che reale e ha dato il via a uno slancio che è stato seguito da altri di questi colossi. Il 12 giugno, Microsoft ha dichiarato il proprio rifiuto a vendere la sua soluzione alle forze di polizia [fr]; Amazon, cedendo alla pressione sociale, ha finito per decretare una moratoria sul suo strumento Rekognition.

Un primo passo verso un percorso di riforme?

La necessità di un quadro legislativo è divenuta evidente. Nella sua dichiarazione, Arvind Krishna, l'amministratore delegato di IBM, sollecitava il Congresso americano ad “avviare un dialogo nazionale per capire se e come le tecnologie di riconoscimento facciale debbano essere utilizzate dalle forze dell'ordine”.

L'appello è stato accolto. Il 25 giugno, alcuni membri del Congresso hanno proposto un progetto di legge che vieta l'utilizzo del riconoscimento facciale da parte della polizia. Il giorno prima, il divieto era stato ratificato nella città di Boston dal Consiglio municipale.

Indubbiamente questo non è che l'inizio di una lunga battaglia politica e giuridica per disciplinare l'utilizzo del riconoscimento facciale in un'ottica che sia rispettosa per i cittadini. Ma per la prima volta, i movimenti di difesa dei diritti umani sembrano essere nella condizione di poter influenzare le grandi aziende tecnologiche e le forze politiche al fine di tendere insieme verso una tecnologia utile per tutti.

avvia la conversazione

login autori login »

linee-guida

  • tutti i commenti sono moderati. non inserire lo stesso commento più di una volta, altrimenti verrà interpretato come spam.
  • ricordiamoci di rispettare gli altri. commenti contenenti termini violenti, osceni o razzisti, o attacchi personali non verranno approvati.