Global Voices è orgogliosa di pubblicare testi, traduzioni e illustrazioni creati dalle persone, per le persone, e ci aspettiamo che i nostri collaboratori mantengano questo standard.
Poiché l'uso di strumenti basati sui modelli linguistici di grandi dimensioni (LLM [it, come tutti i link seguenti]), come ChatGPT, DeepSeek e Midjourney, e altre forme di IA – cioè “intelligenza artificiale” generativa – sono sempre più comuni e integrati a piattaforme e sistemi operativi esistenti, è importante che Global Voices, in quanto organizzazione nell'abito dei media, definisca una policy chiara sul loro utilizzo sul nostro sito.
Abbiamo due ragioni principali per limitare l'uso degli LLM nel nostro lavoro, entrambe collegate alla nostra missione principale:
- Fiducia. I modelli linguistici di grandi dimensioni non sono programmati per essere basati sui fatti. Sebbene i loro modelli di probabilità a volte diamo come risultato delle informazioni corrette, questo non è uno dei loro obiettivi, e gli esempi di risposte completamente false abbondano. In quanto organo di informazione che rispetta i principi giornalistici, ci impegniamo a riportare i fatti. Affidarsi a LLM per scrittura o traduzione, oppure a programmi che generano grafici o illustrazioni in base a un prompt, rischierebbe di violare tali principi, oltre ad erodere la fiducia che richiediamo ai nostri lettori.
- Amplificare voci inascoltate. Gli LLM utilizzano dati esistenti, ad esempio i testi digitali su cui sono stati allenati per calcolare le probabili risposte. I risultati che producono sono perciò sbilanciati verso i dati più popolari e abbondanti disponibili online. Questo, sul lungo termine, ha l'effetto di spingere internet verso l'omogeneità e di minimizzare ed eliminare le anomalie, comprese le voci meno ascoltate che noi, come organizzazione, ci impegniamo ad amplificare. Ci sforziamo di pubblicare idee e conoscenze che – anzi, soprattutto – quando non si adattano perfettamente al linguaggio o ai modi di pensare ritenuti standard. Questo per noi è molto più importante, rispetto a qualcosa che “suona” bene ma che non esprime un punto di vista costruito su esperienze e intuizioni di un singolo individuo.
Al di là di queste ragioni, vi sono altre considerazioni importanti: l'impatto ambientale degli LLM; i problemi di copyright sollevati dal loro allenamento e dai risultati, e il rispetto per gli autori e gli illustratori il cui lavoro è stato usato senza permesso; e la cancellazione delle persone che lavorano per semplificare i loro processi, che sono spesso sottopagate e in pessime condizioni.
Trovare un equilibrio
Sappiamo che gli LLM sembrano offrire un modo semplice per scrivere, disegnare o tradurre, e che sono particolarmente comodi per chi scrive in una lingua che potrebbe non essere la sua madrelingua, o per chi ha bisogno di conformarsi a regole stilistiche o standard di pubblicazione non familiari. Riconosciamo inoltre che gli LLM e altre tecnologie raggruppate con il termine “IA” non sempre si distinguono facilmente. Piuttosto sono un insieme di strumenti che spaziano dai correttori ortografici e grammaticali agli output basati su prompt, e che sono spesso integrati in altri programmi, rendendo difficile lavorare completamente senza di essi.
Inoltre, riconosciamo che scrittori, illustratori e traduttori utilizzano da tempo diversi strumenti per supportare il loro lavoro, come dizionari, thesaurus, guide di stile, disegni/foto di riferimento e così via. Alcune delle applicazioni denominate “IA” funzionano in modo simile. I traduttori potrebbero cercare parole possibili in un traduttore online invece che ricorrere a un dizionario; gli scrittori potrebbero eseguire il controllo ortografico o cercare sinonimi.
Tuttavia, proprio come non sarebbe accettabile un articolo copiato da un'enciclopedia o da Wikipedia (anche con poche parole modificate) o una traduzione che sostituisca ogni parola con il risultato di una ricerca sul dizionario, non accettiamo nemmeno scritti, traduzioni o illustrazioni generate automaticamente.
Poiché siamo una organizzazione decentralizzata, dobbiamo riporre un elevato grado di fiducia nei nostri collaboratori. Non esistono tecnologie che riescono ad identificare in modo affidabile testi o traduzioni generati da LLM, né illustrazioni generate da prompt, e quelle che pretendono di farlo sono spesso afflitte dagli stessi problemi etici e ambientali degli LLM stessi. Ci riserviamo pertanto il diritto di sottoporre a una rigorosa revisione i testi, le traduzioni o le illustrazioni che mostrano i segni distintivi della dipendenza da queste tecnologie e di richiederne la riscrittura, rifiutarne la pubblicazione o di rimuovere del tutto gli articoli, a seconda dei casi, qualora dovessimo riscontrare che questi strumenti siano stati utilizzati in modi che contraddicono la nostra missione.
Infine, sappiamo che la tecnologia sta cambiando rapidamente; probabilmente anche questa policy dovrà essere modificata in futuro, e la aggiorneremo se necessario.