Supremazia sistematizzata: le conseguenze della fede cieca nella tecnologia

Illustration of two digital faces on either side os a bank of technologies with people looking at it. Image by Liz Carrigan and Safa, with visual elements from Yiorgos Bagakis and La Loma, used with permission.

Immagine di Liz Carrigan e Safa, con elementi visivi di Yiorgos Bagakis e La Loma, utilizzati previa autorizzazione.

Questo articolo è stato scritto da Safa per la serie ‘Digitized Divides’ [en, come tutti i link successivi, salvo diversa indicazione] pubblicato originariamente su tacticaltech.org. Una versione modificata è stata ripubblicata da Global Voices nell'ambito di un accordo di partnership.

La tecnologia può essere utilizzata per aiutare le persone, per danneggiarle, ma non si tratta necessariamente di una situazione di tipo “o l'uno o l'altro”: può essere utilizzata contemporaneamente a vantaggio di una persona o di un gruppo e a danno di un'altra persona o di un altro gruppo.

Sebbene alcuni possano chiedersi se i vantaggi derivanti dall'utilizzo dei dati personali per attuare politiche e azioni su larga scala superino i danni, confrontare i vantaggi e i danni in questo approccio equilibrato, binario e bilaterale è un modo errato di valutarlo criticamente, soprattutto quando i danni includono la violenza contro i civili. Dopo tutto, la sofferenza umana non è mai giustificata e non c'è modo di edulcorare le ripercussioni negative in buona fede. Il dualismo tecnologico cerca di determinare la “bontà” o i “meriti” della tecnologia, il che è fuorviante, perché la tecnologia in sé non è né buona né cattiva: ciò che conta sono gli esseri umani che la utilizzano, i proprietari e gli operatori che stanno dietro alle macchine. A seconda delle intenzioni e degli obiettivi di queste persone la tecnologia può essere utilizzata per una vasta gamma di scopi.

Lucrativo e letale

Israele utilizza i dati raccolti sui palestinesi per addestrare strumenti automatizzati basati sull'IA, compresi quelli coprodotti da aziende internazionali, come la collaborazione tra la israeliana Elbit Systems e l'indiana Adani Defence and Aerospace, che sono stati dispiegati a Gaza e in tutta la Cisgiordania. Gli strumenti di sorveglianzaspyware israeliani potenziati dall'IA, tra cui Pegasus, Paragon, QuaDream, Candiru, Cellebrite, nonché le armi basate sull'IA, tra cui Smart ShooterLavender, sono famosi in tutto il mondo ed esportati in molti paesi, inclusi Sud Sudan e Stati Uniti

Anche gli Stati Uniti stanno valutando come utilizzare, al confine con il Messico, tecnologie di riconoscimento facciale sviluppate internamente e importate per tracciare l'identità dei bambini migranti, raccogliendo dati che potranno essere utilizzati nel tempo. Eileen Guo del MIT Technology Review ha scritto: “Il fatto che questa tecnologia sia destinata a persone che godono di minori tutele della privacy rispetto ai cittadini statunitensi fa parte di una tendenza più ampia che consiste nell'utilizzare persone provenienti dai paesi in via di sviluppo, siano essi migranti che arrivano al confine o civili in zone di guerra, per contribuire al miglioramento delle nuove tecnologie.” Oltre al riconoscimento facciale gli Stati Uniti stanno anche raccogliendo campioni di DNA degli immigrati per un registro di massa presso l'FBI.

Nel 2021 le società statunitensi Google e Amazon hanno firmato congiuntamente un contratto esclusivo da un miliardo di dollari con il governo israeliano per sviluppare il “Progetto Nimbus”, volto a promuovere tecnologie di riconoscimento facciale, categorizzazione automatica delle immagini, tracciamento degli oggetti e analisi del sentiment per uso militare, una mossa che è stata condannata da parte di centinaia di dipendenti di Google e Amazon in una coalizione denominata No Tech for Apartheid

L'esercito israeliano ha anche rapporti con Microsoft circa gli strumenti di apprendimento automatico e archiviazione cloud. Questi strumenti e rapporti aziendali non sono accessibili a tutti i potenziali benefattori; sarebbe inconcepibile che Google, Amazon e Microsoft firmassero gli stessi contratti con, ad esempio, il Movimento di Resistenza Islamica (Hamas).

Armi ‘smart’, una fonte di incubi

All'ex presidente degli Stati Uniti Barack Obama viene attribuito il merito di aver normalizzato l'uso di droni armati in contesti non bellici. L'amministrazione Obama ha descritto gli attacchi con i droni come “chirurgici” e “precisi”, sostenendo tavolta addirittura che l'uso dei droni armati non avesse causato “nemmeno una vittima collaterale”, quando ciò era palesemente falso. Da quando Obama è entrato in carica nel 2009, gli attacchi con i droni sono diventati comuni e si sono persino estesi azioni internazionali degli Stati Uniti (in contesti bellici e non bellici) delle amministrazioni successive.

I critici sostengono che l'uso dei droni in guerra dia ai governi il potere di “agire come giudici, giurati e carnefici a migliaia di chilometri di distanza” e che i civili “subiscano sofferenze sproporzionate” in “una minaccia urgente al diritto alla vita”.  Per citare un esempio, la BBC ha descritto i droni russi come “cacciatori” di civili ucraini.

Nel 2009 Human Rights Watch ha segnalato l'uso da parte di Israele di droni armati su Gaza. Nel 2021 Israele ha iniziato a schierare “sciami di droni” a Gaza per localizzare e monitorare gli obiettivi. Nel 2022 Omri Dor, comandante della base aerea di Palmachim, ha dichiarato: “L'intera Gaza è ‘coperta’ da UAV che raccolgono informazioni 24 ore su 24.” A Gaza la tecnologia dei droni ha svolto un ruolo importante nell’ aumento dei danni e degli obiettivi, compresi i droni ibridi come “The Rooster” e i “Robodogs” che possono volare, librarsi, rotolare e arrampicarsi su terreni irregolari. I rover mitragliatori sono stati utilizzati per sostituire le truppe di terra. 

Lo Smart Shooter, alimentato dall'IA, il cui slogan è “un colpo, un bersaglio”, vanta un alto livello di precisione. Lo Smart Shooter è stato installato durante la sua fase pilota nel 2022 a un posto di blocco di Hebron, dove è ancora attivo oggi. Israele impiega anche missili “smart”, come lo SPICE 2000, utilizzato nell'ottobre 2024 per bombardare un grattacielo residenziale a Beirut

L'esercito israeliano è considerato una delle 20 forze militari più potenti al mondo. Israele sostiene di condurre “attacchi di precisione” e di non prendere di mira i civili, ma l'esperto di danni ai civili Larry Lewis ha affermato che le strategie di mitigazione dei danni ai civili adottate da Israele sono state insufficienti, con campagne apparentemente progettate per creare rischi per i civili. Le tecnologie sopra menzionate impiegate da Israele hanno aiutato le sue forze armate a usare una forza sproporzionata per uccidere in massa i palestinesi a Gaza. Come riportato da un portavoce dell'IDF: “Ci concentriamo su ciò che causa il massimo danno”. 

Sebbene le tecnologie basate sull'intelligenza artificiale riducano il numero di soldati sul campo e, di conseguenza, il rischio di feriti e vittime tra i militari che le utilizzano, aumentano notevolmente il numero di vittime tra gli obiettivi. L'esercito israeliano sostiene che i sistemi basati sull'IA “hanno ridotto al minimo i danni collaterali e aumentato la precisione del processo guidato dall'uomo”, ma i risultati documentati raccontano una storia diversa.

La documentazione dimostra che almeno 13.319 dei palestinesi uccisi erano neonati e bambini di età compresa tra 0 e 12 anni. I ricercatori ritengono che i rapporti delle Nazioni Unite sulle vittime palestinesi siano prudenti e stimano che il numero reale dei morti sia doppio o addirittura più del triplo. Stando a uno dei report: “I cosiddetti ‘sistemi smart’ possono determinare l'obiettivo, ma i bombardamenti vengono effettuati con munizioni ‘stupide’, non guidate e imprecise, perché l'esercito non vuole usare bombe costose su quelli che un ufficiale dell'intelligence ha descritto come ‘obiettivi spazzatura’”. Inoltre, il 92% delle abitazioni è stato distrutto a Gaza, così come l'88% degli edifici scolastici, e il 69% delle strutture complessive in tutta Gaza è distrutto o danneggiato

Nel 2024 gli esperti delle Nazioni Unite hanno condannato l'uso dell'IA da parte di Israele per commettere crimini contro l'umanità a Gaza. Nonostante tutte le informazioni sopra riportate, nello stesso anno, Israele ha firmato un trattato globale sull'IA sviluppato dal Consiglio d'Europa per la salvaguardia dei diritti umani. Il fatto che Israele abbia ucciso un numero così elevato di palestinesi utilizzando strumenti basati sull'IA e collegati a tecnologie di uso quotidiano, come WhatsApp, è visto da alcuni come un segnale di avvertimento di ciò che potrebbe accadere loro un giorno, ma da altri come un modello per sistematizzare in modo efficiente la supremazia e il controllo. 

Questo articolo sostiene che il problema non sia solo la mancanza di supervisione umana sui dati e sugli strumenti di IA; in realtà, chi raccoglie, possiede, controlla e interpreta i dati e quali sono i loro pregiudizi (impliciti o espliciti) è un elemento chiave per comprendere il danno e l'abuso effettivi e potenziali. Inoltre, concentrarsi esclusivamente sulla tecnologia utilizzata da Israele nel genocidio a Gaza, o in qualsiasi guerra, potrebbe comportare un grave errore: assolvere i responsabili dei crimini commessi utilizzando la tecnologia. Quando si enfatizzano eccessivamente gli strumenti, può diventare fin troppo facile ridefinire gli abusi intenzionali come errori commessi dalle macchine.

Quando si esamina l'uso della tecnologia nella geopolitica e nella guerra, comprendere le strutture di potere è fondamentale per ottenere una visione d'insieme chiara. Trovare il “bene” in usi ultra-specifici della tecnologia non serve a molto nel tentativo di compensare il “male”.

Per gli esseri umani le cui vite sono state rese più difficili e le cui condizioni sono diventate disastrose a causa dell'implementazione della tecnologia nel dominio, nella guerra e nei sistemi di supremazia, non c'è molto che possa essere razionalizzato in meglio. Lo stesso vale per altre entità che sfruttano i propri vantaggi (geopolitici, tecnologici o di altro tipo) per affermare il proprio controllo su altri che si trovano in posizioni relativamente più svantaggiate e vulnerabili. Separare le applicazioni utili da quelle dannose della tecnologia significa perdere di vista il quadro generale non solo di come la tecnologia potrebbe essere utilizzata un giorno, ma anche di come viene effettivamente utilizzata oggi.

avvia la conversazione

login autori login »

linee-guida

  • tutti i commenti sono moderati. non inserire lo stesso commento più di una volta, altrimenti verrà interpretato come spam.
  • ricordiamoci di rispettare gli altri. commenti contenenti termini violenti, osceni o razzisti, o attacchi personali non verranno approvati.