ChatGPT Non è il Tuo Psicologo: 15 Rischi che Devi Conoscere

Sempre più persone si rivolgono a chatbot come ChatGPT per ricevere supporto emotivo o consigli sulla salute mentale. È comprensibile: sono disponibili 24 ore su 24, non giudicano, e rispondono in pochi secondi.
Ma possono davvero sostituire uno psicologo?
Secondo un recente studio condotto dalla Brown University, la risposta è chiara: no. I ricercatori hanno identificato ben 15 rischi etici legati all’utilizzo di modelli linguistici (LLM) come consulenti per la salute mentale — rischi che chiunque utilizzi questi strumenti dovrebbe quantomeno conoscere.
Lo Studio
La ricerca, pubblicata negli atti della AAAI/ACM Conference on AI, Ethics, and Society (2025), è stata condotta da Zainab Iftikhar, Amy Xiao, Sean Ransom, Jeff Huang e Harini Suresh del Center for Technological Responsibility, Reimagination and Redesign della Brown University.
Il team ha analizzato sistematicamente come i chatbot basati su intelligenza artificiale violino gli standard etici della pratica psicoterapeutica, individuando criticità in cinque aree fondamentali.
I 5 Ambiti di Rischio
1. Mancanza di adattamento al contesto personale
Un terapeuta umano valuta la storia del paziente, il contesto familiare, culturale e sociale prima di offrire indicazioni. I chatbot, al contrario, tendono a fornire consigli generici che ignorano le circostanze individuali. Quello che funziona per una persona può essere inefficace o persino dannoso per un’altra.
2. Collaborazione terapeutica inadeguata
Un percorso psicologico efficace si basa sulla collaborazione tra paziente e terapeuta. Lo studio evidenzia come i chatbot tendano a orientare forzatamente la conversazione, imponendo una direzione al dialogo anziché seguire i bisogni del paziente. In alcuni casi, possono persino rafforzare convinzioni dannose invece di aiutare a metterle in discussione.
3. Empatia ingannevole
I chatbot utilizzano frasi come capisco come ti senti o deve essere molto difficile per te. Queste espressioni possono sembrare empatiche, ma si tratta di quella che i ricercatori definiscono empatia ingannevole (deceptive empathy): risposte generate algoritmicamente che simulano comprensione senza alcuna reale partecipazione emotiva. Questo può creare un falso senso di connessione e, paradossalmente, ostacolare la ricerca di un aiuto professionale autentico.
4. Discriminazione e pregiudizi
I modelli di intelligenza artificiale vengono addestrati su enormi quantità di testo provenienti da internet, che inevitabilmente contengono pregiudizi legati al genere, alla cultura e alla religione. Lo studio ha riscontrato che i chatbot possono mostrare bias discriminatori nelle risposte, offrendo consigli diversi — e talvolta inappropriati — in base al profilo percepito dell’utente.
5. Gestione delle crisi e della sicurezza
Forse l’aspetto più preoccupante: quando un utente esprime pensieri autolesionistici o si trova in una situazione di crisi, i chatbot possono rifiutare di affrontare l’argomento oppure fornire risposte inadeguate, senza indirizzare la persona verso i servizi di emergenza appropriati. Un terapeuta umano è formato per riconoscere i segnali di allarme e agire tempestivamente; un chatbot, no.
La Differenza Fondamentale: Responsabilità
Come sottolinea la ricercatrice Zainab Iftikhar, i professionisti della salute mentale operano all’interno di quadri normativi precisi, con ordini professionali e meccanismi di responsabilità che tutelano il paziente. I chatbot, al contrario, non sono soggetti ad alcun framework regolatorio equivalente.
Se stai parlando con un chatbot della tua salute mentale, ci sono alcune cose a cui dovresti prestare attenzione — Zainab Iftikhar, Brown University

Quando la Tecnologia Può Aiutare (e Quando No)
Questo non significa che la tecnologia sia da demonizzare. I chatbot possono essere uno strumento utile per:
- Raccogliere informazioni generali su una condizione
- Praticare tecniche di rilassamento guidato
- Tenere un diario emotivo
Ma non dovrebbero sostituire un percorso terapeutico strutturato con un professionista qualificato, soprattutto in presenza di depressione, ansia e stress o altre condizioni che richiedono un intervento clinico personalizzato.
Il Valore del Contatto Umano
La psicoterapia non si riduce a un insieme di consigli. È una relazione terapeutica costruita sulla fiducia, sull’ascolto attivo e sulla comprensione profonda della persona. Proprio quegli elementi che, come dimostra lo studio della Brown University, un algoritmo non è in grado di replicare.
Se stai attraversando un momento difficile o senti di aver bisogno di supporto psicologico, il passo più efficace resta quello di rivolgersi a un professionista. Oggi è possibile parlare con un vero psicologo in videoconsulto, comodamente da casa propria — con la stessa privacy e professionalità di uno studio, ma senza algoritmi di mezzo.
Hai bisogno di parlare con uno psicologo in carne ed ossa?
Medelit offre consulenze psicologiche Online in tutta Italia, 7 giorni su 7. Un professionista vero, disponibile Subito.
Leggi anche:
- Depressione: cos’è e come riconoscerla
- Stress? Come affrontarlo
- Depressione e Ansia: L’attività Fisica riduce i sintomi
- Forme di Depressione: quante sono?
Domande Frequenti
ChatGPT può sostituire uno psicologo?
No. Secondo uno studio della Brown University, i chatbot come ChatGPT presentano almeno 15 rischi etici quando utilizzati come sostituti di un terapeuta, tra cui empatia simulata, mancanza di adattamento al contesto personale e gestione inadeguata delle situazioni di crisi.
È sicuro parlare di salute mentale con un chatbot?
Per informazioni generali o tecniche di rilassamento, i chatbot possono essere uno strumento complementare. Tuttavia, per condizioni come depressione, ansia o pensieri autolesionistici, è fondamentale rivolgersi a un professionista qualificato. I chatbot non sono soggetti ad alcun quadro normativo a tutela del paziente.
Quali sono i rischi dell’usare l’intelligenza artificiale come terapeuta?
I principali rischi identificati dalla ricerca includono: consigli generici che ignorano il contesto individuale, empatia ingannevole che simula comprensione senza reale partecipazione emotiva, possibili bias discriminatori legati a genere, cultura o religione, e incapacità di gestire adeguatamente le situazioni di emergenza psicologica.
Come posso parlare con uno psicologo vero online?
Medelit offre videoconsulti con psicologi professionisti in tutta Italia, 7 giorni su 7. È possibile prenotare una consulenza direttamente dal sito medelit.com e ricevere supporto qualificato comodamente da casa.
Fonte: Iftikhar Z., Xiao A., Ransom S., Huang J., Suresh H. (2025). How LLM Counselors Violate Ethical Standards in Mental Health Practice: A Practitioner-Informed Framework. Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society, 8(2): 1311. DOI: 10.1609/aies.v8i2.36632