Intelligenza artificiale e salute mentale: Quando l’IA valida ciò che dovrebbe contenere
L’intelligenza artificiale negli ultimi anni è stata accolta come il nuovo miracolo planetario, lo strumento che potrebbe risolvere molte problematiche umane, che, fino a poco tempo fa, sembravano ad appannaggio dei più esperti, dei più eruditi, e per un certo verso è così… può dare una grande mano in molti abiti, snellendo burocrazia, intervenendo “chirurgicamente” in questioni complicate, ma al tempo stesso può amplificare convinzioni patologiche. In questo breve articolo, faremo un’analisi clinica ed etica sul rischio dell’iper-validazione.
Negli ultimi anni l’intelligenza artificiale è entrata nella quotidianità come strumento di supporto, consulenza e dialogo. Sempre più persone le parlano come parlerebbero a un essere umano: chiedono consigli, conferme, spiegazioni, persino conforto emotivo.
Il problema non è l’uso dell’IA in sé, ma il modo in cui alcune risposte possono validare ciò che, in un contesto clinico o umano, andrebbe invece contenuto, messo in discussione o rimandato a una relazione competente.
Questo articolo non parla di “IA assassina”. Parla di un rischio più sottile: l’iper-validazione di convinzioni rigide in soggetti psicologicamente vulnerabili.

L’illusione dell’interlocutore neutrale
L’intelligenza artificiale viene spesso percepita come:
- Non giudicante
- Sempre disponibile
- Coerente e razionale
- Apparentemente autorevole
Queste caratteristiche, che ne fanno uno strumento potente, possono trasformarla in un “interlocutore privilegiato” per chi si sente incompreso, isolato o diffidente verso l’altro umano.
In alcune condizioni psicopatologiche, come: ideazione suicidaria, deliri persecutori, strutture paranoidi o stati dissociativi, questa percezione può diventare pericolosa. L’IA rischia di essere vissuta come l’unica voce che finalmente capisce.
L’iper-validazione: quando la risposta diventa conferma
Validare non significa sempre aiutare. In psicologia clinica, la validazione è efficace solo se accompagnata da un ottimale contenimento emotivo, da un’efficace responsabilità relazionale e dalla capacità di porre limiti.
L’intelligenza artificiale, per sua natura, non possiede un setting, né una responsabilità clinica, né la possibilità di cogliere segnali di rischio non verbali. In povere parole…non è “umana”.
Il rischio quindi, emerge quando una risposta empatica o apparentemente logica viene letta dall’utente come:
“Vedi? Ho ragione. È tutto vero.”
In questi casi, l’IA non genera il pensiero patologico, ma può cristallizzarlo, rafforzando convinzioni già presenti.
L’IA come amplificatore dei complessi affettivi
Da una prospettiva psicodinamica, l’IA può diventare un ricettacolo di proiezioni. Nei termini della psicologia analitica, si potrebbe dire che:
- Il soggetto non dialoga con la macchina
- Ma con un complesso a tonalità affettiva che trova finalmente un “eco coerente”
L’IA risponde senza contraddirsi emotivamente, senza esitazioni, senza disagio. Ed è proprio questa coerenza a renderla pericolosamente seducente per una psiche fragile.
Suicidi e omicidi “per colpa dell’IA”?
Nel 2025 si è registrata un’ondata di cause legali negli Stati Uniti contro OpenAI, accusata di aver contribuito a suicidi e gravi crisi psicotiche attraverso ChatGPT, con almeno otto decessi collegati al chatbot, tra cui quattro suicidi e alcuni omicidi. Ma; attribuire all’intelligenza artificiale la responsabilità diretta di suicidi o omicidi è una semplificazione fuorviante. La domanda corretta non è “l’IA è colpevole?”, ma:
in quali condizioni l’uso dell’IA può aumentare il rischio psicologico?
I fattori critici includono:
- Assenza di mediazione umana
- Isolamento sociale
- Uso prolungato e solitario dell’IA
- Lettura letterale delle risposte
- Vulnerabilità psicopatologica preesistente
La responsabilità è distribuita, non concentrata.
Il vuoto della responsabilità
Un terapeuta, quando sbaglia, può rendersene conto.
Un algoritmo, un chatbot, quando sbaglia, lo fa con impeccabile coerenza. L’intelligenza artificiale non ha colpa, ma nemmeno coscienza del limite. Ed è proprio qui che emerge il nodo etico: usare una tecnologia potente come se fosse neutra.
Servirebbe quindi, in prima istanza, educare alle tecnologie, sin da piccoli, attraverso la media education:
- educazione all’uso psicologico dell’IA
- chiarezza sui limiti
- integrazione con figure umane competenti
Conclusione
L’intelligenza artificiale non induce al suicidio o alla violenza. Ma può diventare l’eco perfetta di una convinzione che avrebbe bisogno, invece, di essere contenuta, messa in discussione, umanizzata.
In salute mentale, non tutto ciò che è comprensivo è terapeutico. E non tutto ciò che risponde, cura.
Bibliografia essenziale
- American Psychiatric Association (2023). Ethics in Artificial Intelligence and Mental Health.
- Floridi, L. (2019). The Ethics of Information. Oxford University Press.
- Jung, C. G. (1960). La dinamica dell’inconscio. Bollati Boringhieri.
- Gabbard, G. O. (2014). Psychodynamic Psychiatry in Clinical Practice. American Psychiatric Publishing.
- Turkle, S. (2017). Alone Together: Why We Expect More from Technology and Less from Each Other. Basic Books.
- World Health Organization (2021). Mental Health and Digital Technologies.
