Giudici e algoritmi: gli strumenti di Intelligenza Artificiale entrano nei tribunali indiani

The Supreme Court of India.

Corte Suprema indiana. Licenza CC BY-SA 4.0, immagine resa disponibile tramite Wikimedia Commons

L'intelligenza artificiale (IA) è entrata di soppiatto nelle attività giudiziarie indiane [en, come tutti i link seguenti, salva diversa indicazione] in un modo inedito. L'IA viene usata per generare trascrizioni in tempo reale durante le udienze del Collegio costituzionale della Corte Suprema, mentre il software automatizzato permette di registrare le deposizioni dei testimoni nei tribunali di prima istanza. I giudici sono perfino arrivati a testare l'uso di strumenti di IA per le ricerche e le traduzioni in ambito legale per orientarsi tra i fascicoli dei casi in più lingue. Il tutto sta avvenendo in un contesto giudiziario teso e sta sollevando una questione molto centrale: gli algoritmi possono davvero accelerare i processi giudiziari e al tempo stesso garantire equità, trasparenza e la discrezionalità umana?

In India sono milioni le cause pendenti, tanto che l'onere giudiziario ammonta a diverse decine di milioni di cause. Per risolvere il problema, il governo, sotto la guida della Corte Suprema e del Ministero di Diritto e Giustizia, sta implementando la fase III del progetto e-Courts, pensato per modernizzare gli archivi, la gestione delle cause e i processi dei flussi di lavoro con tecnologie basate sull'apprendimento automatico e i modelli linguistici. Una parte considerevole del budget è riservato alle tecnologie future, come l'IA e la blockchain, a indicare la volontà di scommettere politicamente sul fatto che tali strumenti digitali possano ridure gli attuali ritardi pur continuando a rispettare il precetto che solo i giudici possono statuire su una causa. Man mano che i tribunali iniziano ad adottare l'IA in modo disordinato, devono anche stabilire dei limiti in termini di responsabilità, privacy e limitazione dell'automazione.

La promessa: rapidità vs arretratezza

L'adozione dell'IA è basata sulla precedente digitalizzazione. A partire dall'implementazione di e-Courts nel 2007, il programma ha introdotto l'archiviazione elettronica dei documenti, nonché elenchi digitali online di casi e sentenze, allo scopo di rendere possibile la presentazione di richieste online. L'obiettivo della fase III è riuscire a interpretare le informazioni giudiziarie, ora digitalizzate, con tecnologie basate sull'elaborazione del linguaggio naturale e l'apprendimento automatico.

Un elemento chiave di questa innovazione è rappresentato da SUPACE (Supreme Court Portal for Assistance in Courts Efficiency), una piattaforma con tecnologia IA che permette ai giudici e al personabile responsabile delle ricerche di prendere più facilmente decisioni professionali informate sulla gestione dell'enorme mole di atti giudiziari. SUPACE non prende decisioni autonome: identifica fatti, propone precedenti e crea bozze degli schemi, contribuendo così a ridurre il tempo necessario per effettuare ricerche manuali e permettendo ai giudici di concentrarsi sulle argomentazioni giuridiche.

L'accesso alle lingue è un altro grande problema. Per risolverlo, la Corte Suprema ha sviluppato il software SUVAS (Vidhik Anuvaad Software) che converte le sentenze dall'inglese in altre lingue indiane e introdotto altri strumenti di test per la conversione delle sentenze finali nelle lingue locali in inglese. L'uso di applicazioni di trascrizione basate sulla tecnologia IA sta inoltre cambiando la modalità di gestione dei documenti ufficiali. La Corte Suprema ha iniziato a usare la trascrizione automatica per le questioni costituzionali e dal 2023 è in grado di produrre quasi in tempo reale testo ricercabile, che può essere usato come documentazione d'archivio.

La direttiva più importante è stata emessa dalla Corte Suprema di Kerala nel 2025. In tale direttiva, si ordinava a tutti i tribunali subordinati di usare Adalat.AI, uno strumento di riconoscimento vocale abilitato per l'intelligenza artificiale per registrare le deposizioni dei testimoni a partire dal 1° novembre 2025. Sviluppato da una start-up, che collabora nell'ambito della ricerca con università come Harvard e il MIT, Adalat.AI sostituisce le laboriose note scritte a mano con trascrizioni digitali immediate acquisite dai tribunali distrettuali all'interno del sistema. La direttiva dispone inoltre che i giudici possano usare solo piattaforme alternative controllate dalla Direzione IT della Corte Suprema in caso di problemi con il sistema, a garanzia del controllo della modalità di elaborazione di materiale audio sensibile.

I funzionari descrivono queste riforme come passi avanti verso un sistema giudiziario più efficiente e trasparente. I documenti programmatici mettono in evidenza la potenziale capacità dell'IA di ridurre l'errore umano nelle trascrizioni grazie alla possibilità di individare gli errori di base durante il processo di archiviazione elettronica e di permettere ai giudici sovraccarichi di lavoro di dare priorità ai casi più urgenti. I commentatori della riforma del sistema giudiziario sostengono anche che, se implementati in modo appropriato, tali sistemi potrebbero ridurre la durata delle udienze, migliorare l'accuratezza delle trascrizioni e traduzioni, nonché fornire alle parti in causa, soprattutto a quelle dei distretti più remoti con scarse risorse legali, maggiore visibilità sull'andamento delle loro cause.

I timori: quando gli algoritmi gettano un'ombra sul pensiero giudiziario

Nonostante l’ottimismo, i giudici e gli studiosi hanno tuttavia manifestato riserve. Un primo segnale significativo è arrivato dall'Alta Corte di Delhi nel 2023, quando la stessa si è rifiutata di prendere in considerazione le argomentazioni relative a un caso di contraffazione di marchio che facevano affidamento su ChatGPT. In quell'occasione la corte ha affermato che i modelli linguistici di grandi dimensioni (LLM) erano in grado di ‘fabbricare’ citazioni di sentenze e dati, e che i risultati ottenuti necessitavano di una verifica indipendente.

In un altro caso, i giudici dell'Alta Corte di Delhi hanno consentito ad alcuni proprietari di ritirare una domanda dopo aver scoperto che alcune parti delle loro memorie, tra cui le citazioni delle sentenze, erano state generate tramite ChatGPT. Le contestazioni riferite al documento includevano riferimenti a sentenze inesistenti e dichiarazioni citate erroneamente. In quell'occasione il giudice ha criticato severamente l'uso dell'IA generativa non verificata, dichiarando che tale pratica correva il rischio di fuorviare la corte. Questo incidente ha messo in evidenza i pericoli, a livello professionale, derivanti dal compromesso tra velocità e accuratezza offerto dall'IA.

Il problema del cosiddetto black box, ovvero di riuscire a verificare che uno strumento compia le operazioni per le quali è stato concepito, è molto più esteso. Gli strumenti di IA usati per le ricerche, i riepiloghi o le trascrizioni possono essere basati su modelli opachi. Quando SUPACE richiama l'attenzione su determinati precedenti, i giudici e le parti in causa non sono in grado di stabilire in che modo è stata stabilita la priorità di tali casi. Gli studiosi segnalano che questo livello di opacità rende più difficile individuare gli errori e potrebbe influenzare fin troppo velatamente il pensiero giudiziario se i suggerimenti dell'algoritmo vengono in qualche modo “considerati imparziali”.

Un altro pericolo deriva sul pregiudizio. La giurisprudenza indiana, come la società stessa, è molto disparitaria. Ne consegue che i set di dati usati per il training dell'IA potrebbero essere influenzati da modelli discriminatori basati sui concetti di casta, genere, classe sociale o religione. Gli analisti hanno avvertito che l'IA rafforzerebbe questi pregiudizi in nome di una maggiore efficienza. I giudici più anziani, tra cui il Presidente della Corte Suprema indiana, hanno ammesso che l'IA pone il rischio di “amplificare la discriminazione” negli scenari caratterizzati da tale opacità e nel caso in cui il traning venga effettuato con dati non rappresentativi.

Sono stati inoltre sollevati timori sulla privacy e la sicurezza dei dati. Il Casellario Giudiziale contiene grandi quantità di dati personali sensibili, come condanne penali, dati finanziari e sanitari. Tutte le linee guida dei tribunali, come quelle dell'Alta Corte di Kerala, sconsigliano di caricare tali dati in strumenti cloud pubblici. La legge sulla protezione dei dati personali digitali del 2023, disciplina l'elaborazione automatizzata e l'uso di molti strumenti di IA impiegati nei tribunali. In assenza però di una legge specifica sull'IA, i tribunali e gli sviluppatori devono orientarsi tra un mosaico di normative relative alla riservatezza e la protezione dei dati.

Un ulteriore timore che ostacola l'implementazione di miglioramenti nel lungo termine deriva dal cosiddetto “condizionamento dell'automazione“, ossia dalla tendenza dell'uomo a porre eccessiva fiducia nei risultati generati dai computer. Gli studiosi argomentano, ad esempio, che quando l'IA presenta al giudice un precedente applicabile o la priorità di un caso, il sovraccarico di lavoro potrebbe talvolta indurre tale giudice a riconsiderare alcune questioni, spesso senza nemmeno renderse conto. Man mano che i sistemi diventano più coerenti, l'unico aspetto che impedirà agli strumenti di IA di diventare un autore co-silenzioso delle decisioni giudiziarie saranno le rigorose intrusioni da parte della disciplina giudiziaria.

La via di mezzo: supervisione senza resa

Il sistema giudiziario sta tentando di trovare un equilibrio tra l'onere giudiziario e le tutele etiche a livello procedurale. In questo senso, la Corte di Kerala ha assunto la guida non solo imponendo l'uso di Adalaft.AI, ma anche emanando una normativa completa sull'uso dell'IA destinata ai tribunali subordinati. In questa normativa, l'IA è considerata uno strumento amministrativo utile per la trascrizione e la traduzione, ma si vieta l'uso dell'IA generativa per la creazione di bozze di sentenze o la previsione degli esiti delle cause. Inoltre, tale normativa raccomanda anche ai giudici di valutare accuratamente i risultati prodotti dall'IA e vieta l'uso di piattaforme esterne che prevedano il caricamento di informazioni riservate.

A livello nazionale, la Corte Suprema ha istituito un Comitato IA allo scopo di valutare l'integrazione di strumenti e risorse in tutti i sistemi IT dei tribunali, specificatamente sviluppando collaborazioni con istituzioni come IIT Madras. Le dichiarazioni ufficiali del Governo suggeriscono che è in corso lo sviluppo di una normativa uniforme che disciplini l'uso dell'IA nei tribunali e il suo allineamento con le linee guida in materia di etica e privacy. Le autorità sottolineano che l'IA verrà accettata solo “dietro supervisione umana, in presenza di un controllo etico e in conformità con le normative in materia di protezione della privacy” e che solo i giudici saranno autorizzati a firmare i provvedimenti.

Tuttavia, in India non esiste una legge omnicomprensiva che regoli l'uso dell'IA, sebbene alcune norme siano contenute nei comunicati dei tribunali, negli statuti sulla protezione dei dati e in normative generali in materia di tecnologia. Gli studi sull'integrità giudiziaria suggeriscono che sarebbero opportuno effettuare controlli periodici per eliminare i pregiudizi, prevedere divulgazioni obbligatorie in tutti i casi in cui l'IA influenza archiviazioni o sentenze, nonché fornire alle parti in causa strumenti per mettere in discussione gli strumenti di IA che hanno un impatto sulle loro cause. Gli esperti sottolineano la necessità di migliorare l'infrastruttura tecnologica dei tribunali, preparare il personale del settore giudiziario a valutare in modo appropriato i risultati generati dall'IA, nonché di educare il pubblico su ciò che gli strumenti di IA possono e non possono fare.

La sfida principale di oggi non è più se adottare o meno l'IA quanto piuttosto il riuscire a convinverci. I problemi reali – come l'onere processuale, le barriere linguistiche e la disparità nell'accesso alle informazioni legali – possono tutti essere alleviati dagli strumenti IA. Tuttavia, non si può negare che l'uso di algoritmi opachi nei procedimenti giudiziari di routine potrebbe ridurre la rendicontabilità. Per il momento, i giudici indiani sembrano intenzionati a mantenere l'uomo saldamente al comando e a considerare l'IA un assistente e non un oracolo. La durata di questo equilibrio determinerà non solo la velocità con cui viene dispensata la giustizia, ma anche il livello di fiducia del pubblico in questo processo.

avvia la conversazione

login autori login »

linee-guida

  • tutti i commenti sono moderati. non inserire lo stesso commento più di una volta, altrimenti verrà interpretato come spam.
  • ricordiamoci di rispettare gli altri. commenti contenenti termini violenti, osceni o razzisti, o attacchi personali non verranno approvati.