OpenAI adiciona controle parental ao ChatGPT após processo alegando envolvimento no suicídio de menor

Os pais do adolescente de 16 anos que tirou a própria vida entraram com uma ação judicial contra a OpenAI e seu CEO, Sam Altman, alegando que a empresa não ativou os protocolos de segurança para lidar com sinais de automutilação. Os pais responsabilizam a empresa por uma grave violação de segurança, pois o ChatGPT normalizou os pensamentos suicidas do jovem e até o desencorajou a procurar ajuda. Como resultado, o advogado da família afirma que o caso revelará até que ponto a OpenAI apressou o lançamento comercial do GPT-4o, apesar dos avisos sobre suas limitações em questões sensíveis.
O processo acusa a empresa de Altman de negligência e de priorizar o crescimento econômico em detrimento da segurança do usuário. No entanto, coincidindo com este caso, a OpenAI anunciou que reforçará as medidas de segurança em seus modelos com a ajuda de médicos e especialistas, além de incorporar um novo conjunto de controles parentais para monitorar a atividade de menores com o ChatGPT.
A empresa de Altman afirma em seu blog oficial que os pais poderão gerenciar o uso do ChatGPT por seus filhos adolescentes , pois será possível vincular contas e controlar como o chatbot responde. Além disso, eles poderão gerenciar recursos que complementam a experiência , seja desabilitando a função de memória ou o histórico de conversas.
Por outro lado, os adultos receberão uma notificação se, com base na conversa, o ChatGPT detectar que o menor "está em um momento de angústia aguda", identificando situações de crise mental e emocional . Dessa forma, a OpenAI bloqueará o conteúdo e agilizará o contato com serviços de apoio e familiares.
OpenAI faz parceria com especialistas em saúde e bem-estarAlém dos controles parentais, a OpenAI visa apoiar o progresso da IA com "profunda experiência em bem-estar e saúde mental" e, portanto, estabeleceu um Conselho de Especialistas em Bem-estar e IA e uma Rede Global de Clínicos que trabalharão juntos para projetar medidas de proteção para contextos sensíveis .
Especificamente, o Conselho se concentrará no desenvolvimento de diretrizes, prioridades e salvaguardas para ajudar a descobrir "como a IA pode contribuir para o bem-estar das pessoas e ajudá-las a prosperar", enquanto a Rede Global de Clínicos definirá como os modelos de IA se comportam "em contextos de saúde mental" — embora também o faça em áreas como transtornos alimentares, uso de substâncias e saúde do adolescente no futuro .
Por outro lado, o trabalho com esses especialistas será reforçado com um novo roteador em tempo real que escolherá o modelo mais adequado de acordo com o contexto da conversa. Dessa forma, se o ChatGPT detectar que a conversa está se desviando para tópicos sensíveis – como depressão ou ansiedade –, ele oferecerá um modelo de pensamento – como o GPT-5 ou o GPT-o3 –, pois foi projetado para dedicar mais tempo à reflexão e ao raciocínio sobre o contexto antes de responder .
Em relação à implementação de todas as melhorias mencionadas, a OpenAI afirma em seu blog oficial que "essas etapas são apenas o começo. Continuaremos a aprender e a fortalecer nossa abordagem, guiados por especialistas, com o objetivo de tornar o ChatGPT o mais útil possível ".
20minutos