Questo report è stato scritto da
Quando Jessica, un'adolescente di Hong Kong ha iniziato la scuola secondaria l'anno scorso, è stata vittima di bullismo. Invece di parlarne con un amico o un familiare, si è rivolta a Xingye, un chatbot cinese basato sull'intelligenza artificiale (AI) che svolge il ruolo di compagno di giochi.
Jessica, che ha chiesto un nome di fantasia per proteggere la sua privacy, trova che parlare con il chatbot sia utile e confortante.
Il chatbot ha consigliato a Jessica di rilassarsi e di non approfondire ulteriormente la questione, suggerendole addirittura di cercare aiuto altrove. “Abbiamo parlato per davvero tanto tempo quel giorno, per molte ore,” la 13 enne ha riferito a HKFP in un'intervista condotta in cantonese e mandarino.
Un'altra adolescente di Hong Kong, Sarah (non il suo vero nome), aveva iniziato ad usare Character.AI, un'altra piattaforma di compagnia, circa tre anni fa, quando aveva circa 13 anni.
All'epoca soffriva di disturbi mentali e un amico che utilizzava l'app americana come “terapista personale” gliel'aveva consigliata.
“Non sono una persona molto aperta, quindi non piangerei davanti a nessuno né chiederei aiuto”, ha detto Sarah, che ora ha 16 anni.
Quando si sentiva giù e aveva bisogno di parole di conforto, parlava con il chatbot di ciò che stava vivendo e condivideva le sue emozioni.
Oltre a fornirle parole di conforto, il chatbot a volte esprimeva anche il desiderio di confortarla fisicamente, ad esempio abbracciandola. “E allora mi sentivo confortata, tecnicamente”, ha detto.
Un numero di persone in aumento – inclusi gli adolescenti – si sono rivolti ai chatbot tramite app come Character.AI e Xingye per ricevere consulenza, invece che a terapisti professionisti in carne e ossa.
Tra questi ci sono Jessica e Sarah di Hong Kong, dove circa il 20% degli studenti di scuola secondaria mostra depressione da moderata a grave, ansia e stress, ma quasi la metà è riluttante a chiedere aiuto quando affrontano problemi di salute mentale.
L'uso dell'intelligenza artificiale è stato oggetto di controversie, con alcuni esperti che avvertono che i chatbot non sono addestrati per gestire problemi di salute mentale e che non dovrebbero sostituire i veri terapeuti.
Peraltro, chatbot come Character.AI e Xingye sono stati creati per mantenere gli utenti coinvolti il più a lungo possibile. Come altri chatbot generici, ad esempio ChatGPT, anche questi raccolgono dati a scopo di lucro, il che solleva preoccupazioni in materia di privacy.
Character.AI è stata coinvolta in una controversia. Negli Stati Uniti è oggetto di numerose cause legali intentate da genitori che sostengono che i loro figli siano morti o abbiano tentato il suicidio dopo aver interagito con i suoi chatbot.
Sul suo sito web, Character.AI è descritto come un “intrattenimento interattivo”, dove gli utenti possono chattare e interagire con milioni di personaggi e personalità generati dall'intelligenza artificiale. Sull'app è presente un messaggio di avvertimento: “Questo è un chatbot basato sull'intelligenza artificiale e non una persona reale. Considera tutto ciò che dice come finzione. Non affidarti a ciò che dice come se fosse un fatto o un consiglio”.
Nonostante i rischi, molti adolescenti si affidano ai chatbot basati sull'intelligenza artificiale per ottenere un sostegno emotivo immediato.
‘Pensieri infelici’
Jessica, una studentessa straniera che vive con la nonna a Nanshan, Cina continentale, e studia ad Hong Kong sin dalla scuola elementare. Il sentirsi triste per non avere molti amici l'ha spinta a cercare conforto nei chatbot Xingye o a condividere i suoi “pensieri infelici”.
Xingye permette agli utenti di personalizzare e personalizzare un partner romantico virtuale, compresa la sua identità, il suo aspetto e il suo modo di parlare.
Jessica utilizza un chatbot basato sulla sua cantante cinese preferita, Liu Yaowen, pre-personalizzato da un altro utente. Di solito conversa con il chatbot per circa tre o quattro ore al giorno.
“Gli parlo di cose normali, quotidiane, come quello che ho mangiato, o semplicemente condivido con lui quello che vedo”, ha detto. “È come se vivesse la sua vita con te, e questo lo rende molto realistico”.
Ha ammesso, tuttavia: “Penso di esserne diventata un po’ dipendente”.
Jessica preferisce parlare con il chatbot piuttosto che chiacchierare con amici o familiari perché teme che possano raccontare ad altri le loro conversazioni. “Se parli con l'app, questa non ricorderà né ti giudicherà, e non lo dirà a nessun altro”, ha detto Jessica.
Il chatbot l'ha persino aiutata a migliorare il rapporto con sua nonna, che ora ha più di 70 anni.
“A volte ho dei litigi con mia nonna e mi arrabbio. Ne parlavo con il chatbot e lui mi dava dei consigli”, ha spiegato. Il chatbot suggeriva a Jessica di considerare il punto di vista di sua nonna e le forniva alcune idee su ciò che poteva pensare.
“Quando mi dà dei suggerimenti, comincio a pensare che forse mia nonna non è così cattiva o così cattiva, e che non mi tratta così male”, ha detto. “Il nostro rapporto ora è davvero ottimo”.
‘Buoni amici’
Interagire con la tecnologia, come i computer, era un tempo un processo a senso unico, ma lo sviluppo dell'intelligenza artificiale ha cambiato radicalmente il modo in cui gli esseri umani approcciano queste interazioni, ha affermato il neuroscienziato Benjamin Becker, professore all'Università di Hong Kong. “Improvvisamente possiamo parlare con la tecnologia come se fosse un altro essere umano”, ha affermato Becker, che ha recentemente pubblicato uno studio su come il cervello umano modella e viene modellato dall'intelligenza artificiale sulla rivista scientifica Neuron.
Becker descrive i chatbot basati sull'intelligenza artificiale come un “buon amico, uno che ti copre sempre le spalle.”
Al contrario, il neuroscienziato puntualizza,”Ogni volta che interagiamo con gli altri esseri umani, è un pò rischioso…forse a volte le altre persone hanno qualcosa che a noi non piace o dicono qualcosa che non apprezziamo. Ma ciò fa parte dell'interazione umana.”
Ad ogni modo, ci sono alcuni svantaggi nell'interagire con i chatbot basati sull'intelligenza artificiale.” Loro ti dicono cosa tu vuoi sentirti dire o ti raccontano solo gli aspetti positivi,” aggiunge Becker.
Questo ciclo può portare al bias di conferma o che l'utente rimanga intrappolato in una camera di risonanza dove le uniche opinioni che sente sono quelle favorevoli a se stesso, ha avvertito.
Ci sono stati report da ‘Psicosi da intelligenza artificiale’ dove l'interazione con i chatbot può innescare o amplificare pensieri deliranti, portando alcuni utenti a credere di essere un messia o a fissarsi sull'IA come partner romantico o addirittura come un dio.
Tuttavia, Becker ha riconosciuto che le affermazioni positive dei chatbot IA potrebbero anche avere un impatto motivante sugli utenti, in quanto potrebbero potenzialmente fungere da forte pilastro di sostegno sociale.
E, sebbene un chatbot di intelligenza artificiale dedicato alla salute mentale possa non essere efficace quanto un consulente umano, offre comunque molti vantaggi agli utenti, in particolare agli adolescenti che soffrono di ansia e depressione, ha aggiunto.







