ChatGPT. Alerta por diagnóstico erróneo

La plataforma española Maldita advirtió que herramientas como ChatGPT pueden realizar diagnósticos erróneos y no sustituyen a los médicos, al circular en sitios web y redes sociales testimonios de personas que han pedido diagnósticos a estos modelos de inteligencia artificial.
En las redes sociales circulan afirmaciones como “Le pedí a ChatGPT que leyera mi mano y detectó cáncer de piel” o “ChatGPT diagnostica cáncer a una mujer un año antes que los médicos”, afirmando que la herramienta de inteligencia artificial (IA) es capaz de realizar diagnósticos médicos.
Al mismo tiempo, Elon Musk también aseguró que su chatbot (un asistente virtual que usa inteligencia artificial y programación para comunicarse con los usuarios vía texto) puede hacer diagnósticos “mejores que lo que dicen los médicos”, y en redes sociales hay varios testimonios de personas que usan las herramientas para tal fin.
Sin embargo, los resultados de los chatbots de IA se basan en probabilidades, los datos de entrenamiento pueden no ser confiables y no pueden realizar el análisis exhaustivo que puede realizar un médico, dice la plataforma.
“Un chatbot no puede realizar un análisis médico necesario ni puede manejar suficiente información para poder hacer un diagnóstico, por lo que no tiene en cuenta otros factores como las patologías o el contexto”, advierte un médico entrevistado por la plataforma.
En este sentido, las herramientas de IA no son fuentes fiables de información y pueden cometer errores “que pueden llevar a diagnósticos erróneos, tratamientos inadecuados y riesgos para la salud”, por lo que es crucial consultar siempre a un profesional de la salud, añade.
La plataforma también advierte que este tipo de herramientas pueden sufrir de alucinaciones que crean resultados imprecisos, incorrectos o sesgados que pueden llevar a recomendar cosas perjudiciales para la salud de las personas.
“No puedes arriesgar tu salud pidiendo un diagnóstico a un sistema que aún no es robusto ni fiable”, afirma un profesor universitario contactado por Maldita.
Además, compartir datos de salud, como imágenes y documentos médicos, con chatbots de IA también puede suponer riesgos para la privacidad de cada persona, y la posibilidad de que las empresas utilicen esta información para entrenar sus modelos de inteligencia artificial está sobre la mesa.
observador