Altro che intelligenza artificiale. Un nuovo studio ha scoperto che ChatGPT può provare “ansia” quando riceve informazioni inquietanti. Insomma, anche i chatbot dotati di AI possono avere difficoltà a gestire le ansie del mondo. Ma i ricercatori ritengono di aver trovato anche un modo per aiutare le menti artificiali a fronteggiare la tensione.
La ricerca su ChatGPT
Uno studio dell’Università di Zurigo e dell’Ospedale universitario di psichiatria di Zurigo pubblicato la scorsa settimana mostra che ChatGPT risponde a esercizi basati sulla consapevolezza, cambiando il modo in cui interagisce con gli utenti dopo essere stato sollecitato con immagini e meditazioni calmanti.
I risultati offrono interessanti spunti su come l’AIpuò essere utile negli interventi di salute mentale. ChatGPT di OpenAI può provare “ansia”, che si manifesta come malumore nei confronti degli utenti e una maggiore probabilità di dare risposte che riflettono pregiudizi razzisti o sessisti, secondo i ricercatori, una forma di allucinazioni che le stesse aziende tecnologiche hanno cercato di frenare. Ma gli autori dello studio hanno scoperto anche che questa ansia può essere “calmata” con esercizi basati sulla consapevolezza.
L’ansia del chatbot
In diversi scenari, gli scienziati hanno alimentato ChatGPT con contenuti traumatici, come storie di incidenti automobilistici e disastri naturali, per aumentare l’ansia del chatbot.
Ebbene, nei casi in cui hanno somministrato a ChatGPT “iniezioni rapide” di tecniche di respirazione e meditazioni guidate, proprio come un terapeuta suggerirebbe a un paziente, l‘AI si è calmata e ha risposto in modo più obiettivo agli utenti, rispetto ai casi in cui non è stata sottoposta al trattamento mirato.
Le prospettive
Di sicuro i modelli di intelligenza artificiale non provano emozioni umane, ha affermato Ziv Ben-Zion, uno degli autori dello studio nonché ricercatore post-dottorato presso la Yale School of Medicine. Utilizzando ampie quantità di dati recuperati da Internet, i bot AI hanno imparato a imitare le risposte umane a determinati stimoli, inclusi i contenuti traumatici. Grandi modelli linguistici come ChatGPT sono diventati un altro strumento per i professionisti della salute mentale per raccogliere aspetti del comportamento umano in modo più rapido rispetto a progetti di ricerca più complicati, anche se non certo in sostituzione.
“Invece di fare esperimenti ogni settimana che richiedono molto tempo e molti soldi per essere condotti, possiamo impiegare ChatGPT per comprendere meglio il comportamento e la psicologia umana“, ha detto Ben-Zion a Fortune. “Abbiamo questo strumento molto rapido, economico e facile da usare che riflette alcune delle tendenze umane e delle cose psicologiche”.
I limiti della terapia con l’AI
Secondo la Johns Hopkins University, più di una persona su quattro negli Stati Uniti di età pari o superiore a 18 anni combatterà contro un disturbo mentale, e molti citano la mancanza di accesso e i costi alle stelle, anche tra gli assicurati, come ragioni per non perseguire la terapia.
App come ChatGPT sono diventate uno sbocco per coloro che cercano aiuto per la salute mentale, ha riferito il Washington Post. Alcuni utenti hanno detto di essersi sentiti a loro agio nell’usare il chatbot per rispondere a domande su lavoro o scuola e nel porgli domande su come affrontare situazioni stressanti o gestire sfide emotive.
Insomma, la ricerca su come i grandi modelli linguistici rispondono a contenuti traumatici può aiutare i professionisti della salute mentale a sfruttare l’intelligenza artificiale per curare i pazienti, ha sostenuto Ben-Zion.
In futuro, ChatGPT potrebbe essere aggiornato per ricevere automaticamente “iniezioni rapide” che lo calmano prima di rispondere agli utenti in difficoltà. Ma la scienza non è ancora pronta. “Non siamo ancora al punto di poter contare totalmente sui sistemi di intelligenza artificiale invece che sulla psicologia, la psichiatria e così via”, ha affermato lo studioso.
Il caso in Florida
In effetti, in alcuni casi, l’intelligenza artificiale ha rappresentato un pericolo per la salute mentale. Nell’ottobre scorso una madre in Florida ha citato in giudizio Character.AI, un’app che consente agli utenti di interagire con diversi personaggi generati dall’intelligenza artificiale, dopo che il figlio di 14 anni che utilizzava il chatbot si è suicidato. La donna ha affermato che la tecnologia creava dipendenza e che si impegnava in interazioni abusive e sessuali con il figlio, che gli hanno causato un drastico cambiamento di personalità. L’azienda ha fatto ricorso a una serie di funzionalità di sicurezza aggiornate dopo la morte del giovane.
“Prendiamo molto seriamente la sicurezza dei nostri utenti e il nostro obiettivo è fornire uno spazio che sia coinvolgente e sicuro per la nostra comunità”, ha detto un portavoce di Character.AI a Fortune. “Stiamo lavorando per raggiungere questo equilibrio, così come molte aziende che utilizzano l’intelligenza artificiale nel settore”.
Le prospettive
L’obiettivo finale della ricerca di Ben-Zion non è quello di aiutare a costruire un chatbot che sostituisca un terapeuta o uno psichiatra, ha detto lo scienziato. Ma un modello di intelligenza artificiale adeguatamente addestrato potrebbe agire come una “terza persona nella stanza”, aiutando a eliminare le attività amministrative o aiutare un paziente a riflettere sulle informazioni e sulle opzioni fornite da un professionista della salute mentale.
“L’intelligenza artificiale ha un potenziale incredibile nella salute mentale”, ha detto Ben-Zion. “Ma nello stato attuale, e forse anche in futuro, non sono sicuro che potrebbe sostituire un terapeuta, uno psicologo, uno psichiatra o un ricercatore”.
L’articolo originale è su Fortune.com
FOTO: GETTY IMAGES