Deepfake audio e frodi con l'IA minacciano le elezioni in tutto il mondo

Immagine creata da OpenArt con Dalle-3.

Al giorno d'oggi, grazie a un semplice software di intelligenza artificiale (IA) [en, come tutti i link successivi, salvo diversa indicazione] di facile accesso, quasi tutti possono creare registrazioni audio o video di personaggi famosi o persone comuni che agiscono o parlano in modi in cui non l'avrebbero mai fatto. È necessario proteggere in modo efficace i diritti di coloro la cui voce e la cui immagine è oggetto di appropriazione. Le grandi imprese tecnologiche si sono unite nel tentativo storico di fermare l'uso non appropriato dell'IA nelle prossime elezioni in tutto il mondo.

I deepfake aumentano e ogni volta la loro qualità migliora, sono più convincenti e si avvicinano di più alla realtà. Con l’alto numero di elezioni nel mondo nel 2024, cresce la preoccupazione per l'inclusione dell'intelligenza artificiale nei processi elettorali che potrebbe compromettere l'integrità delle elezioni. La manipolazione di voti per mezzo dei deepfake è uno dei temi più dibattuti in molti paesi che si preparano alle elezioni. Circa 4.000 milioni di persone si recheranno alle urne in più di 50 paesi. Accademici, giornalisti e politici  hanno espresso la loro preoccupazione in merito all'uso dei contenuti generati con l'IA per influenzare politicamente gli elettori.

Tuttavia, i contenuti creati dall'IA avranno anche un grande impatto sulla nostra vita sociale. Recentemente sono stati segnalati casi virali riguardanti celebrità ma, data la rapidità con la quale si stanno evolvendo i deepfake, ci saranno video deepfake di persone comuni che non sono né celebrità né politici e che non attirano l'interesse del pubblico per il loro lavoro o le attività a cui si dedicano. Dato che questo rappresenterà una grave minaccia per la società, è importante poter contare su iniziative collettive contro gli inganni generati con l'IA.

Studi su recenti casi di deepfake

I deepfake, o le manipolazioni non create dall'IA chiamate “cheapfakes“, non sono nuovi ed esistono da tempo. Tuttavia, grazie all'impatto che ha ChatGPT per avvicinare l'IA a un pubblico più amplio, nell'ultimo anno sono stati investiti migliaia di milioni di dollari in aziende di IA. Il progresso dei programmi che facilitano la loro produzione, specialmente nel caso di deepfake, ha moltiplicato l'uso dell'intelligenza artificiale per creare deepfake rivolti al pubblico. Oggigiorno, oltre alla manipolazione di video, ci sono stati casi nei quali sono stati creati audio deepfake, cosa ancora più facile da realizzare.

Il caso dell'audio deepfake del presidente degli Stati Uniti, Joe Biden, diffuso nel New Hampshire e che ha invitato le persone a non votare alle primarie dello Stato, ha raggiunto quasi 20.000 persone. Steve Kramer, responsabile di questa manipolazione e che pagò 150 dollari per crearla, ha dichiarato di averlo fatto come atto di disobbedienza civile per richiamare l'attenzione sui rischi legati all'intelligenza artificiale in politica e sulla necessità di una sua regolamentazione.

Un altro esempio eclatante che ha dimostrato quanto possono essere pericolosi i deepfake per la democrazia è l’audio deepfake del politico slovacco Michal Simecka. Un audio è stato pubblicato su Facebook 48 ore prima delle elezioni in Slovacchia, nel quale sembrava che Simecka parlasse di brogli elettorali con la giornalista Monika Todova. Ugualmente, un caso che avrebbe potuto avere gravi conseguenze politiche e sociali è quello dell'audio deepfake del sindaco di Londra, Sadiq Khan. All'inizio di novembre 2023, divenne virale l'audio di Khan in cui sembrava che stesse insultando il Giorno dell'Armistizio (festa per commemorare la fine della Prima Guerra Mondiale) chiedendo che si desse maggiore importanza alle marce a favore della Palestina.

Oltre agli audio deepfake che hanno per protagonisti i politici, i video deepfake di celebrità continuano a circolare in internet. Ad esempio, ci sono video deepfake del famoso attore di Hollywood Tom Hanks, nel quale una versione dell'attore costruita con l'IA pubblicizza un piano dentistico, e anche del famoso youtuber statunitense MrBeast, che sembrava stesse organizzando “il sorteggio di un iPhone 15 più grande del mondo”.

Inoltre, sono diventate virali le immagini deepfake della cantante Taylor Swift, che sono state pubblicate all'inizio di quest'anno in diverse piattaforme di reti social come X (un tempo Twitter), Instagram, Facebook e Reddit. Prima che venissero ritirate da X, una delle immagini falsificate di Swift era stata vista più di 45 milioni di volte durante le quasi 17 ore nelle quali era rimasta nella piattaforma.

Iniziativa collettiva contro le frodi realizzate con l'IA

Il “Tech Accord to Combat Deceptive Use of AI in 2024 Elections” [Accordo tecnologico per combattere l'uso ingannevole dell'intelligenza artificiale nelle elezioni del 2024], che è stato annunciato durante la Conferenza sulla Sicurezza di Monaco, conta con 20 grandi compagnie, come Adobe, Google, Microsoft, OpenAI, Snap Inc. e Meta, che si impegnano a usare tecnologie innovative per rilevare e ostacolare contenuti pregiudizievoli generati con l'IA che cercano di ingannare gli elettori, e anche per sostenere gli sforzi per aumentare la consapevolezza pubblica, l'educazione mediatica e la resilienza di tutta la società. È la prima volta che 20 compagnie si uniscono contro le frodi realizzate con l'IA.

Le compagnie partecipanti si sono accordate su otto impegni specifici per mitigare i rischi legati a contenuti elettorali ingannevoli generati con l'IA. Questa iniziativa tra il settore tecnologico e l'IA ha l'obiettivo di affrontare il problema delle immagini, dei video e degli audio generati con l'IA che potrebbero influenzare gli elettori in merito ai candidati, i funzionari elettorali e il processo elettorale. Tuttavia, non esige che si proibiscano completamente questi contenuti.

avvia la conversazione

login autori login »

linee-guida

  • tutti i commenti sono moderati. non inserire lo stesso commento più di una volta, altrimenti verrà interpretato come spam.
  • ricordiamoci di rispettare gli altri. commenti contenenti termini violenti, osceni o razzisti, o attacchi personali non verranno approvati.