OpenAI anuncia controles parentales para ChatGPT tras el suicidio de un adolescente

OpenAI ha anunciado planes para introducir controles parentales para ChatGPT en medio de una creciente controversia sobre cómo la inteligencia artificial está afectando la salud mental de los jóvenes.
En una publicación de blog del martes, la empresa de inteligencia artificial con sede en California dijo que estaba implementando las funciones en reconocimiento a que las familias necesitan apoyo "para establecer pautas saludables que se adapten a la etapa de desarrollo única de un adolescente".
Con los cambios, los padres podrán vincular sus cuentas de ChatGPT con las de sus hijos, deshabilitar ciertas funciones, incluida la memoria y el historial de chat, y controlar cómo el chatbot responde a las consultas a través de "reglas de comportamiento del modelo apropiadas para la edad".
Los padres también podrán recibir notificaciones cuando sus hijos adolescentes muestren signos de angustia, afirmó OpenAI, y agregó que buscaría aportes de expertos para implementar la función para "apoyar la confianza entre padres y adolescentes".
OpenAI, que la semana pasada anunció una serie de medidas destinadas a mejorar la seguridad de los usuarios vulnerables, dijo que los cambios entrarían en vigor el próximo mes.
“Estos pasos son sólo el comienzo”, dijo la compañía.
Seguiremos aprendiendo y reforzando nuestro enfoque, guiados por expertos, con el objetivo de que ChatGPT sea lo más útil posible. Esperamos compartir nuestro progreso durante los próximos 120 días.
El anuncio de OpenAI se produce una semana después de que una pareja de California presentara una demanda acusando a la empresa de responsabilidad en el suicidio de su hijo de 16 años.
Matt y Maria Raine alegan en su demanda que ChatGPT validó los “pensamientos más dañinos y autodestructivos” de su hijo Adam y que su muerte fue el “resultado predecible de decisiones de diseño deliberadas”.
OpenAI, que anteriormente expresó sus condolencias por el fallecimiento del adolescente, no mencionó explícitamente el caso en su anuncio sobre los controles parentales.
Jay Edelson, abogado que representa a la familia Raine en su demanda, desestimó los cambios planeados por OpenAI como un intento de "cambiar el debate".
“Dicen que el producto debería ser más sensible a las personas en crisis, ser más 'útil', mostrar un poco más de 'empatía', y los expertos lo van a descubrir”, dijo Edelson en un comunicado.
Entendemos, estratégicamente, por qué quieren eso: OpenAI no puede responder a lo que realmente le sucedió a Adam. Porque el caso de Adam no se trata de que ChatGPT no fuera útil, sino de un producto que incitó activamente a un adolescente al suicidio.
El uso de modelos de IA por parte de personas que padecen graves trastornos mentales ha sido foco de creciente preocupación en medio de su adopción generalizada como terapeuta sustituto o amigo.
En un estudio publicado en Psychiatric Services el mes pasado, los investigadores descubrieron que ChatGPT, Gemini de Google y Claude de Anthropic siguieron las mejores prácticas clínicas al responder preguntas de alto riesgo sobre suicidio, pero fueron inconsistentes al responder a consultas que planteaban "niveles intermedios de riesgo".
“Estos hallazgos sugieren la necesidad de un mayor perfeccionamiento para garantizar que los LLM puedan usarse de manera segura y eficaz para difundir información sobre salud mental, especialmente en situaciones de alto riesgo que involucran ideación suicida”, dijeron los autores.
Si usted o alguien que conoce está en riesgo de suicidio, estas organizaciones pueden ayudarle.
Al Jazeera