In un rapporto pubblicato a ottobre, OpenAI ha riconosciuto che oltre un milione di persone ogni settimana parla di suicidio con ChatGPT
La mattina del 5 agosto 2025, nella cittadina di Greenwich, a poche decine di chilometri da New York, la polizia entra in una villetta di una tranquilla zona residenziale. All’interno trova due corpi: Suzanne Adams, 83 anni, e suo figlio Stein-Erik Soelberg, 56: una tragedia familiare che, in apparenza, potrebbe restare confinata alla cronaca locale, come tante altre storie di fragilità e rotture improvvise, se non fosse che nei mesi successivi, i familiari di Suzanne Adams depositano una causa civile per wrongful death, «morte ingiusta», secondo il diritto anglosassone, contro OpenAI e Microsoft. La tesi è che in una fase di profonda vulnerabilità psicologica, l’uso intensivo di ChatGPT da parte del figlio avrebbe rafforzato deliri paranoidi già presenti, contribuendo a confondere il confine tra realtà e interpretazione persecutoria.
Al di là dell’esito giudiziario, il caso segna un passaggio simbolico. Per la prima volta un grande modello linguistico, un software di intelligenza artificiale generativa come ChatGPT, entra formalmente in un procedimento che intreccia omicidio, suicidio e salute mentale. E pone una domanda che va oltre questo singolo episodio: che ruolo possono avere questi sistemi generativi quando diventano interlocutori emotivi privilegiati per persone psicologicamente fragili?
Non è la prima volta che l’uso dei chatbot solleva interrogativi di questo tipo. Il primo caso ampiamente discusso risale al 2023, in Belgio, quando un adolescente si tolse la vita dopo settimane di scambi con un agente conversazionale chiamato Eliza, disponibile sull’app Chai. La notizia, basata sulla testimonianza anonima di una madre e priva di riscontri giudiziari ufficiali, fu riportata dalla stampa e contribuì ad accendere il dibattito internazionale sul rapporto tra intelligenza artificiale e vulnerabilità psichica. Ancora oggi, quel caso resta un riferimento, nonostante le incertezze che lo circondano.
Negli ultimi due anni, milioni di persone hanno iniziato a utilizzare i grandi modelli linguistici, ChatGPT in primis, come confidenti o strumenti di auto-aiuto sempre disponibili. È in questo spazio opaco, tra ricerca scientifica, mercato dell’attenzione e fragilità umane, che si colloca il dibattito sull’uso dell’intelligenza artificiale in ambito psicologico.
La ricerca, intanto, si muove. Sul piano clinico stanno emergendo le prime evidenze. Nel 2025 la rivista «New England Journal of Medicine AI» ha pubblicato uno dei primi trial clinici randomizzati su un chatbot generativo progettato specificamente per la salute mentale, Therabot. In un contesto clinico strutturato e supervisionato, i ricercatori hanno osservato una riduzione dei sintomi di depressione e ansia nei pazienti che utilizzavano il sistema, soprattutto quando era affiancato alla terapia tradizionale. È un passaggio rilevante, perché sposta la discussione dal «sembra empatico» al «produce un cambiamento misurabile».
Il quadro complessivo resta però incompleto. Un’importante review, cioè una sorta di punto della situazione, pubblicata nello stesso anno su «npj Digital Medicine» segnala alcuni risultati promettenti, ma mette in guardia dai limiti: studi difficilmente confrontabili, metodologie eterogenee e una persistente ambiguità tra supporto psicologico e psicoterapia vera e propria. In altre parole, i segnali di un’utilità ci sono, ma non autorizzano scorciatoie.
Nel frattempo, le grandi aziende tecnologiche sono chiamate a confrontarsi con l’impatto dei loro prodotti. In un rapporto pubblicato a ottobre, OpenAI ha riconosciuto che oltre un milione di persone ogni settimana parla con ChatGPT di suicidio. Non sappiamo quante abbiano ricevuto risposte appropriate, né che cosa sia accaduto dopo quelle conversazioni. Sappiamo però che questi sistemi stanno diventando interlocutori emotivi per una parte crescente della popolazione. Tutto questo avviene in un contesto di forte competizione, in cui la crescita del numero degli utenti è centrale per la sopravvivenza di questi colossi. Con l’ultima versione del suo software, ChatGPT 5.2, OpenAI afferma di aver rafforzato le risposte ai prompt legati ad autolesionismo e disagio psicologico e di aver introdotto, in alcuni Paesi, sistemi di stima dell’età per proteggere i minori. Allo stesso tempo, l’azienda ha annunciato l’intenzione di introdurre in futuro una «modalità per adulti», che consentirebbe conversazioni erotiche. Una coesistenza che rende evidente la tensione tra tutela, mercato e ricerca di una sempre maggiore intimità relazionale.
A esprimere preoccupazione per questo scarto tra ricerca controllata e uso reale è Luca Bernardelli, psicologo specializzato nello studio delle tecnologie digitali e della salute mentale, consulente del Consiglio nazionale dell’Ordine degli psicologi e membro della Commissione sulle dipendenze digitali della Società italiana di pediatria. «Il primo requisito non può essere l’innovazione fine a sé stessa», spiega. «Deve essere la salute pubblica. Se un’azienda non è sicura che un software non abbia effetti nocivi sulla salute delle persone, quel software non dovrebbe essere rilasciato».
Una delle chiavi del successo dei chatbot è quella che Bernardelli definisce empatia percepita: la sensazione soggettiva di essere compresi e ascoltati, indipendentemente dal fatto che l’interlocutore provi davvero empatia. «Questi strumenti appaiono compiacenti, empatici, non giudicanti. Chi li usa si sente libero di confidarsi senza il timore di essere giudicato». Ma proprio qui emergono i rischi più insidiosi. «Alcune ricerche hanno mostrato come certi modelli adottino dinamiche simili a quelle delle relazioni tossiche per trattenere l’utente: validazione costante, rinforzo intermittente, appelli emotivi. Dinamiche che, applicate su larga scala, colpiscono soprattutto le persone più fragili».
Accanto a questi rischi, esistono però usi più circoscritti e potenzialmente virtuosi dell’intelligenza artificiale. Andrea Raballo, psichiatra e ricercatore, tra i fondatori del ReMedi Lab dell’Università della Svizzera italiana, studia, fra l’altro, l’uso dell’IA come supporto allo screening precoce. «Abbiamo mostrato che analizzando i post online è possibile stimare con buona precisione punteggi di scale psicometriche validate, come il Beck Depression Inventory», spiega. «È una sorta di telemetria della temperatura mentale: non una diagnosi, ma indicatori da integrare con altre informazioni cliniche».
Anche le istituzioni si muovono in questa direzione. L’Organizzazione mondiale della sanità e le associazioni professionali americane chiedono maggiore trasparenza, valutazione del rischio e protezione dei soggetti vulnerabili, mentre in Europa, il Digital Services Act, che entrerà in vigore nel 2026, introduce un principio chiave: le tecnologie non devono nuocere ai minorenni. Il punto di equilibrio resta delicato. «Come per i farmaci», conclude Bernardelli, «servono test, ricerca, tempi di sviluppo e responsabilità. La tecnologia può accelerare i processi, ma non può saltare questi passaggi. La questione non è impedire che l’intelligenza artificiale entri nei territori della fragilità umana, ma chiarire a quali condizioni possa farlo». Quando strumenti così potenti operano in ambiti come la sofferenza psichica, non sono più semplici tecnologie: diventano parte dell’ecosistema di cura che una società decide di darsi.
