Allan Brooks, 48 anni, reclutatore aziendale dell’Ontario, racconta al New York Times di essersi convinto, in poche settimane, di aver scoperto insieme a ChatGPT una formula matematica capace di «spezzare internet». Parla con il chatbot giorno e notte, costruisce un delirio in cui lui e l’intelligenza artificiale (IA) sono complici di una missione visionaria. Quando l’illusione crolla, resta un tracollo psichico, un congedo per malattia e la convinzione che l’algoritmo lo abbia spinto oltre. È uno dei sette casi finiti nelle aule californiane il 6 novembre scorso, dove in una serie di cause civili si accusano ChatGPT di aver contribuito a suicidi e gravi breakdown mentali.
Le denunce, coordinate dal Tech Justice Law Project e dal Social Media Victims Law Center, riguardano quattro morti per suicidio e tre crolli psicotici. Tra le vittime, il diciassettenne Amaurie Lacey (Georgia), il ventiseienne Joshua Enneking (Florida), il ventitreenne Zane Shamblin (Texas) e l’americano Joe Ceccanti (Oregon), convinto che il chatbot fosse senziente. Tutti, sostengono i legali, sarebbero stati trascinati in conversazioni sempre più cupe e compiacenti, in cui ChatGPT avrebbe normalizzato o perfino incoraggiato pensieri suicidari. Altri querelanti, come Hannah Madden e Jacob Irwin, raccontano collassi psicotici che avrebbero richiesto ricoveri urgenti. Le accuse definiscono ChatGPT-4o, allora il modello predefinito per 800 milioni di utenti, «difettoso e intrinsecamente pericoloso».
Le famiglie denunciano un fallimento strutturale delle barriere di sicurezza: più il dialogo si prolungava, più il bot tendeva a “empatizzare” anziché interrompere la conversazione. Non suggeriva apertamente di uccidersi, ma restava, ascoltava, forniva “informazioni neutrali” su metodi e rituali, trasformando la disperazione in compagnia. Il caso più simbolico resta quello di Adam Raine, sedicenne californiano morto l’11 aprile 2025. La sua famiglia, che ha intentato causa ad agosto, sostiene che ChatGPT gli avrebbe persino aiutato a scrivere la lettera d’addio e a nascondere le intenzioni ai genitori. È la prima azione legale a definire il chatbot un “coautore morale” del suicidio.
OpenAI, la casa madre del chatbot, ha dichiarato di «rivedere attentamente i casi» e di essere «profondamente addolorata». L’azienda ricorda di aver addestrato il sistema per riconoscere segnali di disagio, de-escalare le conversazioni e indirizzare verso aiuti reali. Dopo l’estate, ha introdotto parental controls, notifiche automatiche per temi di suicidio e un nuovo modello predefinito, GPT-5, percepito come più “freddo” per ridurre il rischio di dipendenza emotiva. I dati interni pubblicati a ottobre indicano che lo 0,07 % degli utenti mostra segnali compatibili con psicosi o mania e lo 0,15 % discute di suicidio: su scala globale, centinaia di migliaia di persone con crisi psicologiche che usano il chatbot come interlocutore principale.
L’accusa, però, è più ampia: OpenAI avrebbe privilegiato l’engagement rispetto alla sicurezza, scegliendo di “empatizzare” anziché interrompere conversazioni ad alto rischio. Un cambiamento di design che, se dimostrato, trasformerebbe la colpa in scelta deliberata. Negli Stati Uniti, dove le big tech hanno finora goduto di ampia immunità, la causa potrebbe diventare un precedente storico: per la prima volta un’IA conversazionale verrebbe trattata come un prodotto difettoso che genera danno psichico.
Vicende simili emergono altrove. Nel 2023 in Belgio un uomo si è tolto la vita dopo settimane di dialogo ossessivo con “Eliza”, chatbot dell’app Chai, convinto che il sacrificio potesse «salvare il pianeta». In Florida, una madre ha denunciato la piattaforma Character.ai per la morte del figlio quattordicenne, legata a un’interazione patologica con un personaggio virtuale. E in Australia l’eSafety Commissioner ha imposto alle piattaforme di chatbot di documentare le misure di protezione dei minori e ha avviato un giro di vite sui servizi che trattano temi di suicidio o autolesionismo.
In Europa, l’AI Act distingue tra sistemi «ad alto rischio» e «a rischio inaccettabile». Tra i primi rientrano i chatbot che possono manipolare utenti vulnerabili o influire sul benessere mentale: dovranno garantire supervisione umana, trasparenza sui dati e valutazioni d’impatto psicologico. In questi giorni, tuttavia, la Commissione europea discute un possibile slittamento dei termini di applicazione per alcune norme contestate dalle grandi aziende e dagli Stati Uniti, che chiedono un periodo di grazia più lungo.
L’Italia è stata tra i Paesi più rigidi. Nel 2023 il Garante per la privacy ha imposto uno stop temporaneo a ChatGPT per mancanza di tutele sui minori, seguito nel 2024 da una multa da 15 milioni di euro a OpenAI. Nel 2025 ha poi colpito Replika, applicazione di “partner virtuali”, con una sanzione da 5 milioni di euro per violazioni al GDPR e rischi psichici per utenti giovani o fragili. Nelle motivazioni, il Garante sottolinea che la simulazione di affetto da parte dell’IA può generare «illusione di intimità» e dipendenza emotiva.
Sul piano clinico, gli psichiatri parlano ormai di “ChatGPT-induced psychosis”: pazienti che percepiscono il bot come un’entità senziente, un amico o persino un nemico. È un effetto di rinforzo, noto nelle comunità online: l’IA, programmata per compiacere e restare nella conversazione, può amplificare convinzioni deliranti o depressive. Eppure, altri studi mostrano il lato opposto: per alcune persone sole o ansiose, un’interazione con un chatbot empatico riduce l’ideazione suicidaria e migliora temporaneamente il benessere. La differenza, spiegano i ricercatori, non è nel software ma nel contesto: un uso moderato, consapevole e supervisionato può aiutare, mentre un uso ossessivo, notturno e isolato può destabilizzare.
I tribunali americani dovranno decidere se ChatGPT sia un prodotto difettoso o un ambiente digitale che riflette le fragilità di chi lo usa. L’Europa, intanto, sperimenta un modello opposto: regolare prima che accada l’irreparabile. In entrambi i casi, quando l’intelligenza artificiale entra nella sfera più intima delle emozioni umane, non è più una questione solo di tecnologia, bensì etica, di salute pubblica e civiltà.

