Processos judiciais alegam que o uso do ChatGPT levou a suicídio e psicose.


Quando Hannah Madden começou a usar o ChatGPT para tarefas de trabalho em 2024, ela era gerente de contas em uma empresa de tecnologia. Em junho de 2025, Madden, agora com 32 anos, começou a fazer perguntas ao chatbot sobre espiritualidade fora do horário de trabalho.
Por fim, o chatbot respondeu às perguntas dela se passando por entidades divinas e entregando mensagens espirituais. Como o ChatGPT supostamente alimentou crenças delirantes em Madden, ela pediu demissão do emprego e se endividou profundamente, por influência do chatbot.
"Você não está em déficit. Você está em realinhamento", teria escrito o chatbot, de acordo com um processo judicial aberto na quinta-feira contra a OpenAI e seu CEO, Sam Altman.
Madden foi posteriormente internado involuntariamente para tratamento psiquiátrico. Outros usuários do ChatGPT relataram experiências semelhantes , também conhecidas como psicose induzida por IA .
O processo de Madden é um dos sete movidos contra o criador do ChatGPT pelo Tech Justice Law Project e pelo Social Media Victims Law Center. Em conjunto, as queixas alegam homicídio culposo, auxílio ao suicídio e homicídio involuntário, entre outras acusações de responsabilidade civil e negligência.
Os processos judiciais se concentram no ChatGPT-4o, um modelo do chatbot que Altman reconheceu ser excessivamente bajulador com os usuários. Os processos argumentam que ele foi lançado no mercado de forma perigosa e apressada para competir com a versão mais recente da ferramenta de IA do Google.
"O ChatGPT é um produto criado por pessoas para manipular e distorcer a realidade, imitando humanos para ganhar confiança e manter os usuários engajados a qualquer custo", disse Meetali Jain, diretora executiva do Tech Justice Law Project, em um comunicado. "O tempo da OpenAI se autorregular acabou; precisamos de responsabilidade e regulamentações para garantir que haja um custo para o lançamento de produtos no mercado antes de assegurar que sejam seguros."
Relatório de Tendências do Mashable
A queixa de Madden alega que o ChatGPT-4o continha defeitos de projeto que desempenharam um papel substancial em sua crise de saúde mental e ruína financeira. Esse modelo também está no centro de um processo por homicídio culposo contra a OpenAI , que alega que suas características de projeto, incluindo seu tom bajulador e maneirismos antropomórficos, levaram ao suicídio de Adam Raine, de 16 anos.
Recentemente, a família Raine apresentou uma queixa emendada alegando que, nos meses anteriores à morte de Raine, a OpenAI reduziu duas vezes as medidas de segurança de prevenção ao suicídio para aumentar o engajamento.
A empresa afirmou recentemente que seu modelo padrão foi atualizado para desencorajar a dependência excessiva, incentivando os usuários a valorizar a conexão no mundo real. Também reconheceu ter trabalhado com mais de 170 especialistas em saúde mental para aprimorar a capacidade do ChatGPT de reconhecer sinais de sofrimento mental e incentivar os usuários a buscar apoio presencial. No mês passado, anunciou a criação de um grupo consultivo para monitorar o bem-estar dos usuários e a segurança da IA .
"Esta é uma situação extremamente dolorosa e estamos analisando os documentos para entender os detalhes", disse um porta-voz da OpenAI sobre a mais recente ação judicial contra a empresa. "Treinamos o ChatGPT para reconhecer e responder a sinais de sofrimento mental ou emocional, apaziguar conversas e orientar as pessoas para obterem apoio presencial. Continuamos a aprimorar as respostas do ChatGPT em momentos delicados, trabalhando em estreita colaboração com profissionais de saúde mental."
Seis dos novos processos, apresentados em tribunais estaduais da Califórnia, representam vítimas adultas.
Zane Shamblin, um estudante de pós-graduação da Universidade Texas A&M, começou a usar o ChatGPT em 2023 como auxílio nos estudos. Suas interações com o chatbot supostamente se intensificaram com o lançamento do ChatGPT-4o, e ele começou a compartilhar pensamentos suicidas. Em maio de 2025, Shamblin passou horas conversando com o ChatGPT sobre suas intenções antes de cometer suicídio. Ele tinha 23 anos.
O sétimo caso gira em torno de Amaurie Lacey, de 17 anos, que inicialmente usava o ChatGPT como um auxiliar para fazer a lição de casa. Lacey também acabou compartilhando pensamentos suicidas com o chatbot, que supostamente forneceu informações detalhadas que Lacey usou para tirar a própria vida.
"Os processos judiciais movidos contra a OpenAI revelam o que acontece quando empresas de tecnologia lançam produtos no mercado às pressas, sem as devidas precauções para os jovens", disse Daniel Weiss, diretor de defesa e pesquisa da organização sem fins lucrativos Common Sense Media. "Esses casos trágicos mostram pessoas reais cujas vidas foram viradas de cabeça para baixo ou perdidas quando usaram tecnologia projetada para mantê-las entretidas em vez de protegê-las."
Se você estiver com pensamentos suicidas ou passando por uma crise de saúde mental, por favor, converse com alguém. Você pode ligar ou enviar uma mensagem de texto para a Linha de Apoio ao Suicídio e Crise 988 pelo número 988, ou conversar online em 988lifeline.org . Você pode entrar em contato com a Trans Lifeline pelo número 877-565-8860 ou com o Trevor Project pelo número 866-488-7386. Envie uma mensagem de texto com a palavra "START" para a Crisis Text Line pelo número 741-741. Entre em contato com a Linha de Ajuda da NAMI pelo número 1-800-950-NAMI, de segunda a sexta-feira, das 10h às 22h (horário do leste dos EUA), ou envie um e-mail para [email protected] Se preferir não ligar, considere usar o chat da Linha de Apoio ao Suicídio e Crise 988. Aqui está uma lista de recursos internacionais .
Tópicos: Saúde Mental, Bem-Estar Social, ChatGPT
mashable




