¿Distinguirías este informativo hecho con inteligencia artificial? Ya están aquí las noticias falsas ultrarrealistas

Seleccione idioma

Spanish

Down Icon

Seleccione país

Mexico

Down Icon

¿Distinguirías este informativo hecho con inteligencia artificial? Ya están aquí las noticias falsas ultrarrealistas

¿Distinguirías este informativo hecho con inteligencia artificial? Ya están aquí las noticias falsas ultrarrealistas

Última hora en elEconomista.es15
elEconomista.es

¿Sabrías distinguir una noticia falsa si tuviera presentadores creíbles, gráficos de última hora y un reportero "en directo" desde una zona de guerra? ¿Y si esa noticia, tan realista como cualquier informativo de televisión, fuera creada por una inteligencia artificial en cuestión de segundos?

La sensación de extrañeza que provoca este tipo de contenido no es nueva. Pero lo que antes eran montajes toscos o memes burdos, hoy han mutado en vídeos con estética profesional, narrativas fluidas y una capacidad de persuasión que amenaza con socavar la confianza en los medios de comunicación e incluso en lo que podemos creer como real o no.

En los últimos días han empezado a propagarse por redes vídeos creados inteligencia artificial donde se ve a reporteros en distintas situaciones: cubriendo inundaciones, ataques, e incluso invasiones alien. La mayoría cuentan con un enfoque humorístico o un guiño final que evidencia que es algo generado de alguna forma, pero la pregunta es: ¿Seremos capaces de distinguirlo cuando no haya esa buena fe?

Google Veo 3, la herramienta que parece que se está utilizando para estos vídeos

La irrupción de Google Veo 3 en el ecosistema digital marca un antes y un después en estos vídeos, ya que parece que es la herramienta de la que se valen los 'generadores' de estas noticias falsas.

Uno de los vídeos que más impacto ha generado muestra a una supuesta reportera, Angela Carter, cubriendo una inundación en un barrio residencial. La escena es realista, tiene la típica atmósfera de urgencia informativa. Sin embargo, tras unos segundos, la figura generada por IA sonríe y dice: "Solo bromeaba, no soy real", justo cuando un tiburón ficticio nada detrás de ella. El giro es cómico, pero inquietante: si esto se puede hacer con fines humorísticos, ¿qué podría conseguirse con malas intenciones?

Otro clip recrea una supuesta guerra entre Canadá y Estados Unidos, con reporteros a pie de frontera, datos logísticos y un despliegue visual muy convincente. Al final, aparece un aviso: todo ha sido generado con Google Veo 3, una de las herramientas más avanzadas de generación audiovisual con IA hasta la fecha.

Qué es Google Veo 3 y por qué asusta tanto

Lanzado como una evolución del modelo anterior, Google Veo 3 puede crear clips de vídeo de hasta ocho segundos con un nivel de detalle visual y sonoro que roza el hiperrealismo. A diferencia de otras herramientas, no se limita a crear imágenes estáticas o vídeos mudos. Veo 3 genera rostros, expresiones, movimiento labial sincronizado con el audio, e incluso ambientación sonora.

Es decir, puede crear un periodista que hable con convicción, con una voz propia, en un entorno que parezca un directo en televisión. Y lo más sorprendente: todo esto puede producirse en cuestión de minutos.

If they were showing you AI news in the 90's….. Would you have known it was fake?

What if it has been around much longer than we have been led to believe and we are slowly being fed old, crappy versions to make us think we know its limitations? pic.twitter.com/L2p66JpXGs

— Ted Theodore Logan (@TedLogan1010) June 3, 2025

Google, consciente de los riesgos, mantiene una página web centrada en el uso responsable de la IA. Allí se afirma que su objetivo es ayudar a "crear e identificar contenido generado por inteligencia artificial de forma responsable". Pero una cosa es la intención corporativa y otra el uso que miles de usuarios hacen en redes sociales o cuando esta tecnología se expanda a otros usos no controlados por la compañía.

Desinformación en la era de la sobreexposición

La circulación de vídeos falsos no es nueva, pero su grado de sofisticación ha alcanzado cotas peligrosas. Y esto no solo afecta a los espectadores ingenuos. La periodista Nina Schick, experta en deepfakes y desinformación, advertía en 2023 que la próxima gran amenaza sería "la democratización de la falsedad visual". No hablaba solo de elecciones o guerras, sino de lo cotidiano: relaciones personales, reputación, chantaje, manipulación emocional.

En ese contexto, una escena inventada de una catástrofe natural puede viralizarse y provocar pánico. Una noticia falsa sobre un conflicto geopolítico puede alterar mercados. Y una campaña de desprestigio puede arruinar una carrera con solo pulsar un botón.

Organismos internacionales como Reporteros Sin Fronteras han expresado su preocupación por este fenómeno. En este nuevo escenario, la única herramienta efectiva no es tecnológica, sino educativa. La educación mediática debe convertirse en una prioridad global, según los expertos. Saber analizar fuentes, contrastar hechos y entender cómo se produce la información será tan esencial como aprender a leer o escribir.

WhatsAppFacebookTwitterLinkedinBeloudBluesky
eleconomista

eleconomista

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow