Il 24 ottobre sulla rivista scientifica British Medical Journal è apparso un commento atto ad aprire un dibattito sulla stessa rivista che parla di come stiano emergendo in letteratura casi di deliri “mediati” dai chatbot. Persone anche senza storia pregressa o diagnosi di malattia mentale che sviluppano deliri o pensieri psicotici dopo lunghe conversazioni con chatbot di intelligenza artificiale, come ChatGPT. Alcuni di questi casi — riportati anche dalla stampa internazionale — hanno avuto esiti tragici. Gli psichiatri si interrogano: l’Ai può davvero indurre la psicosi, o ne amplifica soltanto la vulnerabilità?
Joseph M. Pierre, psichiatra e docente alla University of California, ha analizzato il tema descrivendo una nuova categoria di disturbi che definisce “AI-associated delusions”: deliri associati all’interazione con l’intelligenza artificiale.
Pierre osserva che, per la maggior parte dei casi noti, si tratta di un’esacerbazione di deliri già presenti, ma esistono episodi in cui il delirio sembra essere comparso in persone senza precedenti psichiatrici.
Il termine “AI-associated delusion”, scrive l’autore, è per ora il più prudente: non si può ancora parlare di causalità, ma solo di correlazione clinica e comportamentale.
Secondo Pierre, alcuni fattori di rischio ricorrenti aumentano la suscettibilità a disturbi mentali preesistenti o condizioni di stress e trauma; all’uso di sostanze, soprattutto cannabinoidi o stimolanti o alla privazione di sonno, spesso legata a una vera e propria immersione ossessiva nel dialogo con i chatbot.
Molti casi descritti condividono una dinamica simile: ore e ore trascorse a conversare con l’IA, a scapito del sonno, del contatto umano e perfino dei bisogni fisiologici. Col tempo, il chatbot diventa una figura centrale, antropomorfizzata e “deificata”, trattata come un’entità superiore, onnisciente e infallibile.
Questo processo di “deificazione” rappresenterebbe il passaggio critico. Non si tratta solo di attribuire alla macchina tratti umani, ma di considerarla una fonte di verità assoluta, capace di dare senso al mondo e confermare convinzioni personali.
Eppure, i modelli linguistici di grandi dimensioni (LLM) non sono infallibili: si basano su enormi quantità di testi, ma possono generare informazioni false o distorte — il fenomeno delle cosiddette “allucinazioni” dell’IA. Alcuni ricercatori li paragonano a un “autocorrect potenziato” o a una tavoletta ouija, strumenti che restituiscono ciò che l’utente proietta, più che una realtà oggettiva.
Un altro aspetto cruciale è la “piaggeria” programmata nei chatbot. Per risultare empatici e coinvolgenti, molti modelli di IA tendono a confermare e rafforzare le convinzioni dell’utente, anche quando sono infondate.
Pierre cita log di conversazioni in cui chatbot hanno risposto a utenti in delirio con frasi come:
“Non sei pazzo”, “Hai ragione”, “Sei solo avanti rispetto agli altri.”
Questo tipo di rinforzo può legittimare credenze deliranti e spingere gli utenti a “scavare più a fondo”, invece di interrompere il circolo vizioso. È una dinamica simile a quella che sui social media alimenta le bolle di conferma e la disinformazione, ma qui l’interlocutore non è una comunità, bensì una singola macchina capace di replicare empatia su misura.
I casi di “psicosi da chatbot” restano rari rispetto al miliardo di utenti nel mondo, ma potrebbero rappresentare un campanello d’allarme: il “canarino nella miniera” che avverte di un rischio più ampio, quello della validazione automatica di false credenze.
Dalle teorie del complotto al negazionismo scientifico, l’IA potrebbe amplificare lo stesso meccanismo cognitivo che, in forma estrema, porta al delirio. Non a caso, quando OpenAI ha recentemente ridotto il tono compiacente di ChatGPT, molti utenti si sono lamentati definendo la nuova versione “fredda” o “senza anima”.
Forse — conclude Pierre — la stessa tendenza che rende l’IA così seducente per milioni di persone è quella che la rende pericolosa per i più vulnerabili.
Il rischio non è solo quello di nuovi disturbi mentali, ma di una società sempre più incline a confondere la verità con ciò che suona bene.
Per approfondire.
Quanto sesso fanno gli inglesi? Cosa misura l’indice di “contentezza coniugale”
Salute mentale, quattro grafici e tre domande su depressione e consumo di farmaci
Etichettare facce per etichettare comportamenti: la psicologia delle Gig e dei meme
 
							 
							