La muerte de Charlie Kirk demuestra que los chatbots de IA no están diseñados para noticias de última hora.


Bastaron pocas horas para que Internet se extendiera sobre las teorías conspirativas acerca del asesinato de Charlie Kirk , quien murió ayer después de recibir un disparo en un evento público en Utah, según informes.
El comentarista de extrema derecha, quien solía participar en debates mordaces sobre inmigración, control de armas y aborto en los campus universitarios, fue asesinado durante una gira universitaria con su grupo de medios conservador, Turning Point USA. La organización ha dedicado la última década a construir coaliciones juveniles conservadoras en las mejores universidades y se ha vinculado estrechamente con el movimiento nacionalista MAGA (Hacer Grande Grande) y el presidente Trump. Tras las primeras noticias del incidente, tanto de agencias de noticias de renombre como de noticias de cultura pop , no estaba claro si Kirk estaba vivo o si su tirador había sido detenido.
Pero los detectives de internet de ambos partidos políticos ya se preparaban para la batalla en redes sociales, intentando identificar los nombres de las personas entre la multitud y aplicando técnicas de análisis forense digital mientras se acercaban cada vez más al explícito video del disparo a Kirk. Algunos alegaron que los guardaespaldas de Kirk intercambiaban señales con las manos justo antes del disparo. Otros afirmaron que el asesinato fue en realidad un encubrimiento para distraer la atención de las comunicaciones descubiertas de Trump con el fallecido traficante sexual Jeffrey Epstein.
Lo que ha agravado el problema son los chatbots impulsados por IA, que se han apoderado de las plataformas de redes sociales como ayudantes robóticos integrados y como cuentas de spam con IA que responden automáticamente a los usuarios exasperados.
Este tweet no está disponible actualmente. Podría estar cargándose o haber sido eliminado.
En un ejemplo, según NewsGuard , el organismo de control de medios y desinformación, una cuenta X llamada @AskPerplexity , aparentemente afiliada a la empresa de inteligencia artificial, le dijo a un usuario que su afirmación inicial de que Charlie Kirk había muerto era en realidad falsa y que Kirk estaba vivo. El cambio de opinión se produjo después de que el usuario pidiera al bot que explicara cómo una reforma sensata en la regulación de las armas podría haber salvado la vida de Kirk. La respuesta ha sido eliminada desde la publicación del informe de NewsGuard.
"La cuenta de Perplexity Bot no debe confundirse con la cuenta de Perplexity", aclaró un miembro de Perplexity en una declaración a Mashable. "La IA precisa es la tecnología clave que desarrollamos y es fundamental para la experiencia en todos nuestros productos. Dado que nos tomamos el tema tan en serio, Perplexity nunca afirma ser 100 % preciso. Pero sí afirmamos ser la única empresa de IA que trabaja incansablemente en ello como nuestro enfoque principal".
El bot de inteligencia artificial de Elon Musk, Grok, confirmó erróneamente a un usuario que el video era un meme editado , tras afirmar que Kirk se había enfrentado a multitudes más difíciles en el pasado y que sobreviviría a esta fácilmente. El chatbot insistió, escribiendo: «Charlie Kirk está debatiendo, y los efectos lo hacen parecer como si le hubieran disparado a mitad de frase para darle un toque cómico. No sufrió daños reales; está bien y tan activo como siempre». Expertos en seguridad afirmaron entonces que los videos eran auténticos .
Este tweet no está disponible actualmente. Podría estar cargándose o haber sido eliminado.
En otros casos documentados por NewsGuard, los usuarios compartieron respuestas de chatbots para confirmar sus propias conspiraciones, incluyendo aquellas que afirmaban que su asesinato fue planeado por actores extranjeros y que su muerte fue un ataque demócrata. Un usuario compartió una respuesta de Google generada por IA que afirmaba que Kirk estaba en una lista negra de supuestos enemigos ucranianos. Grok le dijo a otro usuario de X que CNN, NYT y Fox News habían confirmado que un demócrata registrado fue visto en el crimen y era un sospechoso confirmado; nada de eso era cierto .
Velocidad de la luz Mashable
"La gran mayoría de las consultas que buscan información sobre este tema arrojan respuestas precisas y de alta calidad. Esta descripción general de IA infringió nuestras políticas y estamos tomando medidas para solucionar el problema", declaró un portavoz de Google a Mashable.
Mashable también contactó a la empresa matriz de Grok, xAI, para solicitar comentarios.
Los chatbots no pueden ser entrenados como periodistasSi bien los asistentes de IA pueden ser útiles para tareas cotidianas simples (enviar correos electrónicos, hacer reservas, crear listas de tareas pendientes), su debilidad a la hora de informar noticias es una responsabilidad para todos, según los organismos de control y los líderes de los medios por igual.
Los algoritmos no requieren comentarios.
"Vivimos tiempos difíciles. ¿Cuánto tiempo pasará antes de que un titular distorsionado por inteligencia artificial cause un daño significativo en el mundo real? ", preguntó Deborah Turness, directora ejecutiva de BBC News and Current Affairs, en un blog de principios de este año.
Un problema es que los chatbots simplemente repiten lo que se les dice , con mínima discreción; no pueden hacer el trabajo que realizan los periodistas humanos antes de publicar noticias de última hora, como contactar a funcionarios locales y verificar imágenes o videos que se difunden rápidamente en línea. En cambio, infieren una respuesta de lo que tienen a su alcance . Esto es significativo en el mundo de las noticias de última hora, en el que incluso los humanos son conocidos por equivocarse. En comparación con la caja negra de la IA, la mayoría de las salas de redacción tienen controles y equilibrios establecidos, como editores que verifican las historias antes de publicarlas.
Por otro lado, los chatbots ofrecen interacciones personales, aisladas y son notoriamente aduladores , haciendo todo lo posible para complacer y confirmar las creencias del usuario.
"Nuestra investigación ha descubierto que cuando la información fiable es deficiente, los chatbots tienden a proporcionar respuestas seguras pero imprecisas", explicó McKenzie Sadeghi, investigadora de NewsGuard y autora del análisis mencionado. "En anteriores acontecimientos de última hora, como el intento de asesinato de Donald Trump el año pasado, los chatbots informaban a los usuarios de que no tenían acceso a información actualizada en tiempo real". Pero desde entonces, explicó, las empresas de IA han mejorado sus bots, incluso permitiéndoles acceder a noticias en tiempo real en el momento en que ocurren.
Este tweet no está disponible actualmente. Podría estar cargándose o haber sido eliminado.
En lugar de negarse a responder, los modelos ahora extraen información disponible en línea en ese momento, incluyendo sitios web con baja interacción, publicaciones en redes sociales y granjas de contenido generado por IA y difundido por actores maliciosos. Como resultado, los chatbots repiten y validan afirmaciones falsas durante eventos de alto riesgo y de rápida evolución —dijo—. Los algoritmos no requieren comentarios.
Sadeghi explicó que los chatbots priorizan las voces más fuertes en la sala, en lugar de las correctas. El algoritmo del bot otorga consenso y autoridad a la información que se repite con mayor frecuencia, lo que permite que las falsedades opaquen la limitada información fidedigna disponible.
El Centro Brennan para la Justicia de la Universidad de Nueva York, un instituto independiente de derecho y políticas públicas, también monitorea el papel de la IA en la recopilación de noticias. La organización ha alertado de forma similar sobre el impacto de la IA generativa en la alfabetización informativa, incluyendo su papel en el fomento de lo que se conoce como el " dividendo del mentiroso ", o los beneficios que obtienen quienes fomentan la confusión al afirmar que la información real es falsa. Estos "mentirosos" argumentan que es imposible determinar la verdad porque, como muchos argumentan ahora, cualquier imagen o video puede ser creado por la IA generativa.
Incluso con los riesgos inherentes, más personas han recurrido a la IA generativa para obtener noticias a medida que las empresas continúan integrando la tecnología en las redes sociales y los motores de búsqueda. Según una encuesta de Pew Research, las personas que encontraron resultados de búsqueda generados por IA fueron menos propensas a hacer clic en fuentes adicionales que quienes usaron motores de búsqueda tradicionales. Mientras tanto, las principales empresas tecnológicas han reducido sus equipos humanos de verificación de datos en favor de notas monitoreadas por la comunidad, a pesar de la preocupación generalizada por la creciente desinformación y el impacto de la IA en las noticias y la política . En julio, X anunció que estaba probando un programa que permitiría a los chatbots generar sus propias notas comunitarias .
Temas Bien social Redes sociales
mashable