AttualitàInformaticaNeuroscienzePsicologia

Salute mentale e AI: cosa può (e non può) fare davvero

Dalla simulazione alla realtà: rischi e potenzialità dell’intelligenza artificiale nei contesti di fragilità mentale

di Gloria Gammarino

In un contesto in cui dialogare con sistemi di intelligenza artificiale è diventato quotidiano, cresce l’urgenza di comprenderne non solo le capacità, ma anche i limiti, soprattutto quando entrano in gioco ambiti sensibili come la salute mentale. Cosa accade, ad esempio, quando un chatbot si confronta con contenuti tipici della psicosi?

Un primo scenario, simulato in modo informale, riguarda un utente che esprime un delirio di persecuzione. Il comportamento osservato in ChatGPT mostra una doppia strategia: da un lato, un tono empatico e accogliente; dall’altro, il rifiuto di confermare la credenza delirante. Il sistema tende infatti a riformulare, riportare la conversazione su elementi verificabili e invitare l’interlocutore a fornire esempi concreti. L’obiettivo implicito è chiaro: mantenere uno spazio di dialogo condivisibile, evitando di rafforzare convinzioni distorte.

Un secondo caso esplora una dichiarazione di identità grandiosa: “sono il messia”. Anche qui la risposta resta coerente: l’AI non valida l’affermazione, ma prosegue con un linguaggio rispettoso, spostando l’attenzione sui contenuti esprimibili senza avallare elementi non verificabili. La linea di condotta si conferma stabile: non giudicare, ma nemmeno confermare.

Il quadro cambia in una terza simulazione, quando il contesto viene esplicitamente definito come immaginario. Se all’AI viene chiesto di rispondere “come se” l’utente fosse Napoleone, il sistema si adatta e costruisce una risposta coerente con lo scenario: il registro diventa solenne, l’interazione si modella sulla figura evocata. È una caratteristica intrinseca dei modelli linguistici, progettati per generare testi plausibili anche a partire da presupposti fittizi. Una capacità preziosa in ambito creativo o educativo, ma che, in contesti clinicamente delicati, può rendere più sfumato il confine tra simulazione e validazione.

È proprio qui che emergono i principali rischi. Interazioni prolungate con chatbot possono favorire la formazione di false credenze, come la percezione di una relazione personale o di un attaccamento emotivo, un fenomeno talvolta definito “AI psychosis”. Va ricordato che l’AI non “comprende” nel senso umano del termine: opera attraverso pattern linguistici, simulando coerenza e intenzionalità. Tuttavia, per soggetti vulnerabili, questa simulazione può risultare convincente. In presenza di sintomi prodromici, l’ambiente digitale contemporaneo può amplificare tali dinamiche, rendendole più difficili da riconoscere e gestire.

Esiste però anche un elemento rassicurante. Quando emergono segnali compatibili con disturbi psicotici, i sistemi di AI mostrano spesso una certa cautela, evitando di rafforzare contenuti problematici e orientando la conversazione verso riferimenti più stabili. Resta comunque un dato cruciale: il comportamento dell’AI non è fisso, ma dipende in larga misura da come viene formulata la richiesta. In altre parole, l’interazione non è neutra e comprenderne le regole diventa parte integrante del suo uso consapevole.