Las plataformas meta mostraron cientos de anuncios deepfake "nudify", según CBS News

Seleccione idioma

Spanish

Down Icon

Seleccione país

England

Down Icon

Las plataformas meta mostraron cientos de anuncios deepfake "nudify", según CBS News

Las plataformas meta mostraron cientos de anuncios deepfake "nudify", según CBS News

Meta ha eliminado una serie de anuncios que promocionaban aplicaciones "nudify" ( herramientas de inteligencia artificial utilizadas para crear deepfakes sexualmente explícitos utilizando imágenes de personas reales) después de que una investigación de CBS News encontrara cientos de dichos anuncios en sus plataformas.

"Tenemos reglas estrictas contra las imágenes íntimas no consensuadas; eliminamos estos anuncios, eliminamos las páginas responsables de ejecutarlos y bloqueamos permanentemente las URL asociadas con estas aplicaciones", dijo un portavoz de Meta a CBS News en un comunicado enviado por correo electrónico.

CBS News descubrió docenas de estos anuncios en la plataforma de Instagram de Meta, en su sección "Historias", que promocionaban herramientas de IA que, en muchos casos, anunciaban la posibilidad de "subir una foto" y "ver a alguien desnudo". Otros anuncios en las Historias de Instagram promocionaban la posibilidad de subir y manipular vídeos de personas reales. Un anuncio promocional incluso decía "¿Cómo es posible que este filtro esté permitido?" debajo de un ejemplo de un deepfake de desnudo .

Un anuncio promocionaba su producto de inteligencia artificial usando imágenes deepfake altamente sexualizadas de las actrices Scarlett Johansson y Anne Hathaway, en ropa interior. Algunos enlaces URL redirigen a sitios web que promocionan la posibilidad de animar imágenes de personas reales y hacer que realicen actos sexuales. Algunas aplicaciones cobraban entre 20 y 80 dólares por acceder a estas funciones "exclusivas" y "avanzadas". En otros casos, la URL de un anuncio redirigía a los usuarios a la tienda de aplicaciones de Apple, donde se podían descargar aplicaciones para "desnudar".

Las plataformas meta como Instagram han comercializado herramientas de inteligencia artificial que permiten a los usuarios crear imágenes sexualmente explícitas de personas reales.

Un análisis de los anuncios en la biblioteca de anuncios de Meta descubrió que había, como mínimo, cientos de estos anuncios disponibles en las plataformas de redes sociales de la empresa, incluso Facebook, Instagram, Threads, la aplicación Facebook Messenger y Meta Audience Network, una plataforma que permite a los anunciantes de Meta llegar a los usuarios en aplicaciones móviles y sitios web que se asocian con la empresa.

Según los datos de la propia biblioteca de anuncios de Meta, muchos de estos anuncios estaban dirigidos específicamente a hombres de entre 18 y 65 años, y estaban activos en Estados Unidos, la Unión Europea y el Reino Unido.

Un portavoz de Meta dijo a CBS News que la difusión de este tipo de contenido generado por IA es un problema constante y que enfrentan desafíos cada vez más sofisticados para tratar de combatirlo.

"Quienes están detrás de estas aplicaciones explotadoras constantemente mejoran sus tácticas para evitar ser detectados, por lo que trabajamos continuamente para reforzar nuestra aplicación de la ley", afirmó un portavoz de Meta.

CBS News descubrió que los anuncios de las herramientas deepfake "Nudify" todavía estaban disponibles en la plataforma de Instagram de la empresa incluso después de que Meta había eliminado aquellos inicialmente marcados.

nudify-app-1-borroso.jpg
Las plataformas meta como Instagram han comercializado herramientas de inteligencia artificial que permiten a los usuarios crear imágenes sexualmente explícitas de personas reales.

Los deepfakes son imágenes, grabaciones de audio o vídeos manipulados de personas reales que han sido alterados con inteligencia artificial para tergiversar que alguien dijo o hizo algo que en realidad no dijo o hizo.

El mes pasado, el presidente Trump promulgó la ley bipartidista " Take It Down Act ", que, entre otras cosas, requiere que los sitios web y las empresas de redes sociales eliminen el contenido deepfake dentro de las 48 horas posteriores a la notificación de la víctima.

Si bien la ley establece que es ilegal "publicar a sabiendas" o amenazar con publicar imágenes íntimas sin el consentimiento de una persona, incluidas las falsificaciones profundas creadas por IA, no se dirige a las herramientas utilizadas para crear dicho contenido generado por IA.

Esas herramientas violan las reglas de seguridad y moderación de la plataforma implementadas tanto por Apple como Meta en sus respectivas plataformas.

La política de estándares publicitarios de Meta establece que «los anuncios no deben contener desnudez adulta ni actividad sexual. Esto incluye desnudez, representaciones de personas en posiciones explícitas o sexualmente sugerentes, o actividades sexualmente sugerentes».

Según la política de Meta contra el acoso y la intimidación, la empresa también prohíbe el uso de Photoshop o dibujos despectivos y sexualizados en sus plataformas. La empresa afirma que sus regulaciones buscan impedir que los usuarios compartan o amenacen con compartir imágenes íntimas no consensuadas.

Las directrices de Apple para su tienda de aplicaciones establecen explícitamente que "el contenido que sea ofensivo, insensible, perturbador, destinado a causar disgusto, de excepcionalmente mal gusto o simplemente espeluznante" está prohibido.

Alexios Mantzarlis, director de la Iniciativa de Seguridad, Confianza y Protección del centro de investigación tecnológica de la Universidad de Cornell, lleva más de un año estudiando el auge del marketing de deepfakes con IA en redes sociales. El martes, en una entrevista telefónica con CBS News, declaró que había visto miles de estos anuncios en las plataformas Meta, así como en plataformas como X y Telegram, durante ese mismo período.

Aunque Telegram y X tienen lo que él describe como una "anarquía" estructural que permite este tipo de contenido, cree que el liderazgo de Meta carece de la voluntad de abordar el problema, a pesar de tener moderadores de contenido establecidos.

"Creo que a los equipos de confianza y seguridad de estas empresas les importa. Francamente, no creo que les importe a los altos mandos de la empresa en el caso de Meta", dijo. "Está claro que están asignando recursos insuficientes a los equipos que tienen que combatir esto, porque, por muy sofisticadas que sean estas redes [de deepfake], no tienen el dinero de Meta para invertir en ellas".

Mantzarlis también dijo que encontró en su investigación que los generadores de deepfakes "nudify" están disponibles para descargar tanto en la tienda de aplicaciones de Apple como en la tienda Play de Google, y expresó su frustración por la incapacidad de estas plataformas masivas para hacer cumplir dicho contenido.

El problema con las aplicaciones es que tienen una doble función: se presentan en la tienda de aplicaciones como una forma divertida de intercambiar caras, pero luego se promocionan en Meta como si su propósito principal fuera la desnudez. Por lo tanto, cuando estas aplicaciones se someten a revisión en la tienda de Apple o Google, no necesariamente tienen los medios para prohibirlas, dijo.

"Es necesaria una cooperación intersectorial donde, si una aplicación o un sitio web se promociona como una herramienta para la desnudez en cualquier lugar de la web, todos los demás puedan decir: 'Está bien, no me importa cómo te presentes en mi plataforma, estás perdido'", añadió Mantzarlis.

CBS News se ha puesto en contacto con Apple y Google para solicitar comentarios sobre cómo moderan sus respectivas plataformas. Ninguna de las dos compañías había respondido al momento de escribir este artículo.

La promoción de estas aplicaciones por parte de las grandes empresas tecnológicas plantea serias dudas sobre el consentimiento del usuario y la seguridad en línea de los menores. Un análisis de CBS News sobre un sitio web de "nudify" promocionado en Instagram reveló que el sitio no solicitaba ningún tipo de verificación de edad antes de que el usuario subiera una foto para generar una imagen deepfake.

Estos problemas son generalizados. En diciembre, el programa 60 Minutes de CBS News informó sobre la falta de verificación de edad en uno de los sitios web más populares que utiliza inteligencia artificial para generar fotos falsas de desnudos de personas reales.

A pesar de que a los visitantes se les dijo que debían tener 18 años o más para usar el sitio y que "el procesamiento de menores es imposible", 60 Minutes pudo obtener acceso inmediato para cargar fotos una vez que el usuario hizo clic en "aceptar" en el mensaje de advertencia de edad, sin necesidad de ninguna otra verificación de edad.

Los datos también muestran que un alto porcentaje de adolescentes menores de edad ha interactuado con contenido deepfake. Un estudio realizado en marzo de 2025 por Thorn, una organización sin fines de lucro dedicada a la protección infantil, reveló que, entre los adolescentes, el 41 % afirmó haber oído hablar del término "desnudos deepfake", mientras que el 10 % declaró conocer personalmente a alguien que había sido víctima de la creación de imágenes de desnudos deepfake.

Emmet Lyons

Emmet Lyons es editor de noticias en la oficina de CBS News en Londres, donde coordina y produce reportajes para todas las plataformas de CBS News. Antes de unirse a CBS News, Emmet trabajó como productor en CNN durante cuatro años.

Cbs News

Cbs News

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow