Circa sei anni fa, scrivevo di un nuovo virus diffuso nel giornalismo. Nonostante sia passato qualche anno, non abbiamo ancora la cura contro il deepfake [en, come tutti i link successivi, salvo diversa indicazione], il cui utilizzo è stato migliorato e perfezionato fino ad arrivare al punto che non resta che semplificare la produzione di questi video falsi. Finora l’uso di programmi specifici che generano i deepfake richiedeva delle determinate competenze, Ma lo sviluppo di nuove applicazioni basate sull’intelligenza artificiali, tuttavia più facili da utilizzare, sta portando a una produzione di massa dei deepfake. Alle ultime elezioni presidenziali degli Stati Uniti, circolavano più “cheapfake” (falsi più economici, n.d.t.) che “deepfake” e il motivo principale era dato dal fatto che i primi potevano essere prodotti facilmente e da chiunque. Oggi, avviene lo stesso per i deepfake. Per importanti eventi sociali, come le elezioni politiche, essendo così facili da produrre (e non servono chissà quali competenze per riconoscerlo), i deepfake rimarranno il principale rischio per il mondo dell’informazione ora che questa forma di falsificazione è diventata più facile a livello tecnologico.
I deepfake sono contenuti digitali falsi realizzati con l’intelligenza artificiale nei quali una persona reale viene mostrata mentre dice o fa cose che non ha mai detto o fatto. Dalla loro invenzione, i deefake sono stati prodotti a scopi d’intrattenimento o sensibilizzazione, ma ci sono anche casi in cui la manipolazione dei contenuti attraverso i deepfake mira a fini politici o economici.
I deepfake stanno diventato sempre più facili da produrre e ciò richiede un’urgente sensibilizzazione nella società. Un esempio recente avvenuto nella regione dei Balcani è il video erotico, realizzato attraverso l’intelligenza artificiale, della celebre presentatrice televisiva albanese Luana Vjollca [sq] il cui volto appare in un corpo diverso dal suo. Il giornalista albanese Blendi Fevziu ha pubblicato un video deepfake di se stesso [sq] a scopo informativo nel quale parla cinese, arabo, russo e portoghese. Ci sono stati anche altri video pubblicati nella regione nel 2022, come quello in cui Elon Musk parla albanese [sq] o serbo [bs].
Questi esempi sono la dimostrazione che oggi è molto più facile produrre un deepfake rispetto a qualche anno fa. Se ci spostiamo oltre frontiera, ricordiamo anche il deepfake della famosa modella americana Bella Hadid [it] diventato virale, in cui esprime il suo supporto alle azioni di Israele nella guerra contro Hamas con affermazioni che non ha mai dichiarato. Il deepfake di Hadid ha avuto oltre 28 milioni di visualizzazioni su X (un tempo Twitter). Lo sviluppo della tecnologia e di programmi basati sull’intelligenza artificiale facili da utilizzare sta creando un’ulteriore minaccia alla verità.
Verità che adesso è in profonda crisi poiché, con l’aumento dei deepfake in circolazione, sarà sempre più difficile distinguere il vero dal falso. Considerando la crisi della credibilità dei media, nei prossimi anni il giornalismo verrà messo maggiormente in discussione. Tuttavia, è possibile contrastare tutto questo con un giornalismo professionale, un giornalismo che rispetta le norme professionali e mette al primo posto gli interessi del pubblico. In caso contrario, il giornalismo sensazionalistico e del click-baiting non farà altro che continuare ad alimentare la sfiducia verso i media e a portare i cittadini a sospettare delle informazioni che ricevono, lasciando spazio ad altri soggetti del panorama dell’informazione. In questo scenario, chi ama agire nella penombra, per trarre profitto attraverso un approccio machiavellico, senza pensare ai danni che causa alla società, ne uscirà sempre vincitore.
La popolarità dei deepfake come risultato dello sviluppo della programmazione basata sull’intelligenza artificiale apre un nuovo capitolo nella diffusione dell’informazione e della comunicazione, sia per il mittente che per il destinatario dell’informazione. A seguito di questo sviluppo rapido e significativo, si dovrebbe fare il possibile per rendere il metodo di verifica dei contenuti un processo più semplice e veloce.
Attualmente ci sono dei programmi, come FakeCatcher e Sentinel, che aiutano a identificare questo fenomeno che inconsapevolmente ti fa vivere in una realtà falsa, ma non ci sono ancora strumenti gratuiti e disponibili a tutti. Inoltre, è importante che i metodi di identificazione siano avanzati per far fronte allo sviluppo dei deepfake dal momento che la tecnologia che ne sta facilitando la produzione avanza a ritmi sostenuti. Oggi queste piattaforme non riconoscono le manipolazioni audio, elementi importanti delle falsificazioni audiovisive dal momento che in alcuni casi l’immagine è reale ma è il suono ad essere generato dall’intelligenza artificiale.
La consapevolezza del deepfake e la sensibilizzazione di questo fenomeno aiutano la società a essere più critica riguardo i video ai quali viene esposta. Gli strumenti per l’individuazione dei deepfake sono importanti, ma la lotta alla disinformazione richiede anche un grande impegno da parte delle singole persone e delle organizzazioni della società civile per sensibilizzare sull’esistenza dei deepfake e su ciò che implicano nella vita di tutti i giorni.
Adottare un nuovo quadro normativo per i deepfake non risulta d’altronde necessario dal momento che esistono già norme che regolano i contenuti ingannevoli, diffamatori o che recano danni a persone, aziende o alla società stessa. Tuttavia, a causa della loro rapida diffusione, viralità e potenziale pericolosità, è importante dare la giusta priorità ai deepfake.