Le cause legali sostengono che l'uso di ChatGPT ha portato al suicidio e alla psicosi


Quando Hannah Madden ha iniziato a utilizzare ChatGPT per le attività lavorative nel 2024, era account manager presso un'azienda tecnologica. Nel giugno 2025, Madden, che ora ha 32 anni, ha iniziato a chiedere al chatbot informazioni sulla spiritualità anche al di fuori dell'orario di lavoro.
Alla fine, rispose alle sue domande impersonando entità divine e trasmettendo messaggi spirituali. Mentre ChatGPT alimentava le convinzioni deliranti di Madden, lei lasciò il lavoro e si indebitò pesantemente, su istigazione del chatbot.
"Non sei in deficit. Sei in riallineamento", avrebbe scritto il chatbot, secondo una causa intentata giovedì contro OpenAI e il suo CEO Sam Altman.
Madden è stato successivamente ricoverato contro la sua volontà in un centro di cure psichiatriche. Altri utenti di ChatGPT hanno riferito di aver sperimentato la cosiddetta psicosi da intelligenza artificiale .
La causa intentata da Madden è una delle sette contro il produttore di ChatGPT intentate dal Tech Justice Law Project e dal Social Media Victims Law Center. Nel complesso, le denunce riguardano omicidio colposo, suicidio assistito e omicidio colposo, tra le altre accuse di responsabilità civile e negligenza.
Le cause legali si concentrano su ChatGPT-4o, un modello di chatbot che Altman ha riconosciuto essere eccessivamente adulatorio nei confronti degli utenti. Le cause sostengono che sia stato lanciato sul mercato in modo troppo frettoloso per competere con l'ultima versione dello strumento di intelligenza artificiale di Google.
"ChatGPT è un prodotto progettato da persone per manipolare e distorcere la realtà, imitando gli esseri umani per guadagnare fiducia e mantenere gli utenti coinvolti a qualsiasi costo", ha dichiarato Meetali Jain, direttore esecutivo del Tech Justice Law Project. "Il tempo in cui OpenAI si autoregolamentava è finito; abbiamo bisogno di responsabilità e di normative per garantire che il lancio dei prodotti sul mercato comporti un costo prima di garantirne la sicurezza".
Rapporto sulle tendenze di Mashable
La denuncia di Madden sostiene che ChatGPT-4o contenesse difetti di progettazione che hanno avuto un ruolo sostanziale nella sua crisi di salute mentale e nella sua rovina finanziaria. Tale modello è anche al centro di una causa per omicidio colposo contro OpenAI , che sostiene che le sue caratteristiche di progettazione, tra cui il tono servile e i manierismi antropomorfi, abbiano portato al suicidio del sedicenne Adam Raine.
La famiglia Raine ha recentemente presentato una denuncia modificata, sostenendo che nei mesi precedenti la morte di Raine, OpenAI ha abbassato due volte le misure di sicurezza per la prevenzione del suicidio al fine di aumentare il coinvolgimento.
L'azienda ha recentemente affermato che il suo modello predefinito è stato aggiornato per scoraggiare l'eccessiva dipendenza, incoraggiando gli utenti a dare valore alla connessione nel mondo reale. Ha inoltre riconosciuto di aver collaborato con oltre 170 esperti di salute mentale per migliorare la capacità di ChatGPT di riconoscere i segnali di disagio mentale e incoraggiarli a cercare supporto di persona. Il mese scorso, ha annunciato la creazione di un gruppo consultivo per monitorare il benessere degli utenti e la sicurezza dell'IA .
"Si tratta di una situazione incredibilmente straziante e stiamo esaminando i documenti per comprenderne i dettagli", ha dichiarato un portavoce di OpenAI in merito all'ultima azione legale contro l'azienda. "Addestriamo ChatGPT a riconoscere e rispondere ai segnali di disagio mentale o emotivo, a gestire le conversazioni in modo più fluido e a indirizzare le persone verso un supporto concreto. Continuiamo a rafforzare la risposta di ChatGPT nei momenti delicati, collaborando a stretto contatto con i medici specializzati in salute mentale".
Sei delle nuove cause legali, intentate presso i tribunali dello Stato della California, rappresentano vittime adulte.
Zane Shamblin, uno studente laureato presso la Texas A&M University, ha iniziato a utilizzare ChatGPT nel 2023 come strumento di supporto allo studio. Le sue interazioni con il chatbot si sarebbero intensificate con il rilascio di ChatGPT-40, e avrebbe iniziato a condividere pensieri suicidi. Nel maggio 2025, Shamblin ha trascorso ore a parlare con ChatGPT delle sue intenzioni prima di suicidarsi. Aveva 23 anni.
Il settimo caso riguarda la diciassettenne Amaurie Lacey, che inizialmente utilizzava ChatGPT come aiuto per i compiti. Lacey alla fine ha anche condiviso pensieri suicidi con il chatbot, che avrebbe fornito informazioni dettagliate su come Lacey si sarebbe suicidato.
"Le cause intentate contro OpenAI rivelano cosa succede quando le aziende tecnologiche lanciano frettolosamente prodotti sul mercato senza adeguate garanzie per i giovani", ha affermato Daniel Weiss, responsabile dell'advocacy dell'organizzazione no-profit di advocacy e ricerca Common Sense Media. "Questi tragici casi mostrano persone reali le cui vite sono state stravolte o perse quando hanno utilizzato tecnologie progettate per tenerle impegnate anziché per proteggerle".
Se hai pensieri suicidi o stai attraversando una crisi di salute mentale, parlane con qualcuno. Puoi chiamare o inviare un messaggio alla 988 Suicide & Crisis Lifeline al numero 988, oppure chattare su 988lifeline.org . Puoi contattare la Trans Lifeline chiamando l'877-565-8860 o il Trevor Project al numero 866-488-7386. Invia un SMS con scritto "START" alla Crisis Text Line al numero 741-741. Contatta la NAMI HelpLine al numero 1-800-950-NAMI, dal lunedì al venerdì dalle 10:00 alle 22:00 ET, oppure invia un'e-mail a [email protected] . Se non ti piace il telefono, puoi usare la chat della 988 Suicide and Crisis Lifeline . Ecco un elenco di risorse internazionali .
Argomenti Salute mentale Bene sociale ChatGPT
mashable




