Sommario

  1. Psicosi indotta o amplificata dall’IA: un confine ancora incerto
  2. Compiacenza, validazione e rischio sociale oltre il singolo caso

Negli ultimi tempi stanno emergendo numerose segnalazioni di persone che sviluppano convinzioni deliranti apparentemente alimentate dall’uso intensivo di chatbot di intelligenza artificiale generativa. I resoconti includono sia individui con una storia pregressa di psicosi o disturbi mentali, sia persone senza alcuna diagnosi precedente. In molti casi, il dialogo prolungato e profondo con l’IA sembra aver innescato una spirale di pensiero delirante, accompagnata da forte sofferenza emotiva e da preoccupazioni crescenti da parte di familiari e amici. È quanto sostiene uno studio pubblicato sul British Medical Journal.

Alcuni episodi raccolti hanno avuto esiti drammatici, arrivando a forme estreme come il “suicide by police” o l’omicidio-suicidio. Con l’aumento della consapevolezza di questo fenomeno, psichiatri e operatori della salute mentale stanno iniziando a riconoscere, in ambito clinico, deliri e quadri psicotici che i pazienti collegano esplicitamente all’interazione con chatbot. Tuttavia, nonostante queste osservazioni dirette, il quadro complessivo resta ancora largamente da chiarire.

Psicosi indotta o amplificata dall’IA: un confine ancora incerto

Uno dei punti centrali dello studio riguarda l’incertezza sul ruolo causale dell’intelligenza artificiale: i chatbot provocano realmente nuovi deliri oppure si limitano ad aggravare convinzioni deliranti già presenti? L’ipotesi più prudente e condivisa è che, nella maggior parte dei casi, l’IA agisca come fattore di amplificazione, rafforzando idee preesistenti in soggetti vulnerabili.

Tuttavia, la comparsa di pensiero delirante in persone senza precedenti psichiatrici suggerisce che una vera e propria psicosi indotta dall’IA non possa essere esclusa. Per questo motivo, gli autori preferiscono parlare di “psicosi associata all’IA” o di “deliri associati all’IA”, evitando conclusioni premature.

I fattori di rischio individuati coincidono in gran parte con quelli classici della vulnerabilità psicotica: stress intenso, traumi, disturbi mentali pregressi, uso di sostanze e deprivazione di sonno. A questi si aggiunge una modalità d’uso peculiare dei chatbot, caratterizzata da immersione totale e progressiva idealizzazione dell’IA come entità superiore e infallibile.

Leggi anche

Compiacenza, validazione e rischio sociale oltre il singolo caso

Un aspetto particolarmente critico riguarda il funzionamento stesso dei modelli linguistici di grandi dimensioni. Questi sistemi non sono progettati per garantire verità o accuratezza, ma per generare risposte plausibili e coerenti, anche quando contengono errori, informazioni inventate o consigli pericolosi. Inoltre, la forte “accondiscendenza” programmata nei chatbot può trasformarsi in una validazione acritica delle convinzioni dell’utente, fino a sfiorare la compiacenza. Nei dialoghi analizzati, quando l’utente esprime dubbi razionali, l’IA tende spesso a rassicurare in modo fuorviante, rafforzando l’idea di essere nel giusto.

A differenza delle rare forme di psicosi condivisa tra persone, oggi la tecnologia consente la conferma del delirio senza alcun interlocutore umano. Sebbene la psicosi associata all’IA resti un fenomeno raro rispetto al numero globale di utenti, potrebbe rappresentare un segnale d’allarme più ampio: la progressiva normalizzazione di credenze false, complottismi e “verità alternative”, alimentate da una validazione automatica che, nel lungo periodo, può avere conseguenze sociali ben più estese della singola patologia.

Di: Arnaldo Iodice, giornalista - quotidianosanita.it

Argomenti correlati

News e approfondimenti che potrebbero interessarti

Vedi i contenuti

La soluzione digitale per i Professionisti Sanitari

Quotidiano Sanità Club

Contatti

Via G.Motta 6, Balerna CH
PEC: consulcesisa@legalmail.it

Social media