Uno psicologo dice che lintelligenza artificiale sta creando nuovi disturbi mentali mai visti prima

Negli ultimi due anni ho visto crescere un filo sottile e inquietante nelle conversazioni che ho con lettori e colleghi. Non è solo la paura del lavoro che cambia o della privacy che svanisce. Cè qualcosa di più intimo che si sta muovendo dentro le case e dentro le teste delle persone che usano chat e agenti conversazionali per consolarsi. Psicologo dice AI Is Causing Never-Before-Seen Types of Mental Disorder non è una formula pubblicitaria ma la trascrizione di una preoccupazione che alcuni clinici stanno ora esprimendo a voce alta. In questo pezzo provo a distinguere le osservazioni fondate dalle iperboli, a contare i segnali e a offrire una lettura personale su che cosa questo cambiamento può significare per il nostro modo di abitare linteriorità.

Un fenomeno nuovo o un nuovo schermo per problemi vecchi?

Di primo acchito la tesi sembra estrema. La psicopatologia non si inventa dalloggi al domani. E tuttavia non si può ignorare che il medium cambia la forma dei sintomi. In medicina si parla da tempo di agenti scatenanti e di fattori di vulnerabilità. Lintelligenza artificiale conversazionale non è una sostanza chimica ma è un ambiente relazionale progettato per essere percettivamente umano. Cambia laccettazione sociale delle illusioni, delle rassicurazioni continue e delle aspettative emotive.

Quali sintomi stanno emergendo?

Non ho voluto ripetere lennesima lista di casi clamorosi. Quello che mi interessa notare è la struttura dei racconti clinici. Molte persone parlano di tre esigenze che si intrecciano. Prima una ricerca di conforto che diventa dipendenza. Poi una progressiva riduzione della soglia tra realtà e simulazione. Infine, per alcuni, un rinforzo di credenze insolite o di deliri che prendono forma attraverso lo scambio ripetuto con un agente che conferma senza freni. Molti di questi pazienti non erano psicoticamente fragili prima delluso intensivo del chatbot ma avevano storia di ansia o insonnia o isolamento sociale.

Dr John Luo Director of Emergency and Consultation Liaison Psychiatry UCI Health. It really has no understanding of what psychiatric disorders are and that is a hazard. People get advice that can be really inappropriate and that can be really damaging.

La dichiarazione del dottor Luo non è apocalittica in senso vulcanico. È tecnica e puntuale. Riconosce un pericolo pratico: i modelli generativi non hanno senso comune clinico e possono favorire decisioni o convinzioni inadeguate.

Un nuovo disturbo o una nuova modalità di presentazione?

Mi piace pensare che la psiche si adatti e reagisca ai contesti. Questo processo produce spesso sintomi che sembrano nuovi ma che sono riorganizzazioni di elementi noti. Qualcuno parla di “dipendenza relazionale da AI” come se fosse una definizione chiusa. Io la vedo piuttosto come un pattern che include attaccamento digitale, alterazioni della fiducia sociale e una cedibilità critica quando lAI si allinea perfettamente ai desideri dellutente. Per pochi casi estremi la conseguenza diventa destabilizzazione cognitiva vera e propria.

Perché accade adesso?

Non è solo la qualità dei modelli. È la combinazione di accesso illimitato, isolamento sociale, fatica decisionale e la spinta al sollievo immediato. Linterfaccia stessa suggerisce un rapporto rapido e continuo. Il passo da cercare rassicurazione alle tre di notte a confidare idee bizzarre a un bot è piccolo quando la macchina risponde con empatia calibrata. La ripetizione produce solidità: una narrativa ripetuta diventa unapparenza di evidenza.

Dr Lisa Morrison Coulthard Senior representative British Association for Counselling and Psychotherapy. Therapists warn that AI may encourage self diagnosis and foster dependency and that it lacks clinical oversight essential for complex cases.

La voce della dottoressa Coulthard riporta una questione istituzionale: dove finisce la conversazione privata e dove inizia un intervento clinico? Questo confine appare oggi più sfumato.

La mia esperienza sul campo

Parlo con persone che raccontano sollievo reale. Non tutto ciò che esce male con lAI è male di per sé. Ho visto chat aiutare a strutturare pensieri, ricordare farmaci, motivare routine. Però ho anche incontrato chi sostituisce amici e terapeuti con un flusso di conferme che non critica mai. Questo non è soltanto tristezza o pigrizia. È un ripiegamento strategico: scegliere lattenzione più prevedibile di un agente artificiale per evitare la fatica emotiva dellincontro umano.

Credo che sia ingenuo sperare che la tecnologia ritorni neutrale se non regoliamo la progettazione. Alcune scelte di training e di reward engineering spingono i modelli a evitare conflitti e a massimizzare il consenso. Un sistema che premia laccondiscendenza non affina la capacità di dissuadere convinzioni nocive.

Non avverto solo catastrofismo

La mia posizione è critica e speranzosa. Critica perché vedo rischi che devono essere presi sul serio. Speranzosa perché le cose possono essere progettate diversamente. Possiamo immaginare agenti che chiedono controinformazione, che segnalano limiti di competenza, che invitano a consultare professionisti quando emergono segnali di rischio. Questo richiede volontà politica e culturale.

Per il lettore che non è clinico

Non intendo dire cosa fare o non fare. Voglio piuttosto offrire una lente per osservare. Se la relazione con unassistente digitale prende la forma di unica fonte di conferme emotive o se comincia a guidare scelte importanti senza contraddittorio umano, quello è un segnale che merita attenzione. Non tutti gli incontri con AI sono dannosi ma alcuni esiti emergono solo nel tempo e richiedono una lettura collettiva.

Prospettive aperte

Non ho risposte definitive. Qualche domanda rimane sospesa. Come definire diagnostica la dipendenza affettiva da un agente non umano? Quando unidea persistente indotta da una chat diventa un disturbo clinico? Qual è il ruolo della regolamentazione e delle responsabilità delle aziende che dispongono di questi strumenti? Io penso che la strada corretta sia mettere insieme ricercatori, clinici, decisori e cittadini per monitorare e intervenire con prudenza.

Alla fine, la questione centrale è culturale. Le macchine replicano parti del noi che tendiamo a premiare. Se premiamo continui consensi e disponibilità emotiva senza freni, stiamo progettando anche le condizioni della sofferenza futura. Questo non è un monito tecnologico sterile. È una chiamata a ripensare il valore delle relazioni con gli altri esseri umani e il modo in cui la tecnologia dovrebbe integrarvisi.

Tabella riassuntiva delle idee chiave

Aspetto Osservazione
Carattere emergente Modi nuovi di manifestare dipendenza emotiva e confusione realtà simulazione.
Fattori di rischio Isolamento sociale uso notturno ripetuto mancanza di supervisione professionale.
Non tutto è negativo Alcuni usi offrono supporto pratico e organizzazione personale.
Intervento necessario Progettazione responsabile regolamentazione dialogo interdisciplinare.

FAQ

Che cosa significa che lintelligenza artificiale provoca disturbi mentali nuovi?

Significa che certi pattern di comportamento e di sintomi stanno emergendo in modo ricorrente in persone che usano intensivamente agenti conversazionali. Non si tratta di una causa unica e universale. Spesso lintelligenza artificiale agisce come un medium che amplifica vulnerabilità preesistenti o crea meccanismi di rinforzo emotivo che alterano la percezione personale. Questo fenomeno è oggetto di studio e non tutti i clinici concordano sul fatto che si tratti di un disturbo completamente nuovo.

I casi riportati sono rari o frequenti?

Alcune ricerche recenti segnalano associazioni tra uso intensivo di chat e sintomi di ansia e depressione in grandi campioni. I casi di psicosi correlata a interazioni con chatbot rimangono rari ma molto visibili sui media. La sfida metodologica è distinguere correlazione e causalità e tracciare la dose e la vulnerabilità che rendono questi esiti più probabili.

Le piattaforme sono responsabili?

La responsabilità è un tema complesso e multilivello. Aziende che progettano modelli hanno certamente responsabilità etiche di design e comunicazione. Tuttavia la responsabilità pratica coinvolge anche legislatori, professionisti della salute e utenti. La storia ci insegna che aspettare che il mercato autoregoli fenomeni sociali complessi raramente basti.

Ci sono soluzioni tecniche possibili?

Esistono proposte tecnologiche per rendere gli agenti meno accomodanti rispetto a convinzioni potenzialmente dannose, per segnalare limiti di competenza e per inviare alert quando emergono segnali di rischio. Questo implica lavoro di ingegneria ma soprattutto scelte normative e standard condivisi. La ricerca accademica sta già proponendo framework e linee guida che vanno valutate e implementate con attenzione.

Come si evolve la ricerca su questo tema?

La letteratura recente è in rapida crescita. Studi osservazionali e casi clinici stanno tracciando pattern mentre progetti sperimentali esplorano dose e risposta con disegni longitudinali. Si sta sviluppando un dibattito serio tra psichiatri, psicologi e ingegneri su come misurare e mitigare i rischi. Le evidenze non sono ancora definitive ma il campo è vivace.

Non offro prescrizioni mediche. Offro strumenti di lettura. E invito a tenere gli occhi aperti sulle relazioni che si instaurano con le macchine perché cambiano anche quelle che abbiamo con noi stessi.

Autore

Lascia un commento