WormGPT regresa con modelos Grok y Mixtral liberados

Seleccione idioma

Spanish

Down Icon

Seleccione país

England

Down Icon

WormGPT regresa con modelos Grok y Mixtral liberados

WormGPT regresa con modelos Grok y Mixtral liberados

A pesar de su cierre anunciado en 2023, WormGPT , una herramienta de inteligencia artificial (IA) sin censura para actos ilegales, está resurgiendo. Una nueva investigación de Cato CTRL, el equipo de inteligencia de amenazas de Cato Networks, revela que WormGPT ahora explota potentes modelos de lenguaje grande (LLM) de reconocidas empresas de IA, como Grok de xAI y Mixtral de Mistral AI.

Esto significa que los ciberdelincuentes utilizan técnicas de jailbreak para eludir las funciones de seguridad integradas de estos LLM avanzados (sistemas de IA que generan texto con apariencia humana, como ChatGPT de OpenAI). Al jailbreakearlos, los delincuentes obligan a la IA a producir respuestas sin censura a una amplia gama de temas, incluso si son poco éticas o ilegales, señalaron los investigadores en una entrada de blog compartida con Hackread.com.

WormGPT apareció por primera vez en marzo de 2023 en un foro clandestino llamado Hack Forums, y su lanzamiento público se produjo a mediados de 2023, según informa Hackread.com. Su creador, conocido como Last, habría comenzado a desarrollar la herramienta en febrero de 2023.

WormGPT se basó inicialmente en GPT-J , un LLM de código abierto desarrollado en 2021. Se ofrecía por una tarifa de suscripción, normalmente entre 60 y 100 € al mes, o 550 € al año, con una configuración privada que costaba alrededor de 5000 €.

Sin embargo, el WormGPT original fue cerrado el 8 de agosto de 2023, después de que el periodista de investigación Brian Krebs publicara una historia que identificaba a la persona detrás de Last como Rafael Morais, lo que generó una amplia atención de los medios.

A pesar de esto, WormGPT se ha convertido en una marca reconocida para un nuevo grupo de herramientas de este tipo. El investigador de seguridad Vitaly Simonovich, de Cato Networks, declaró: «WormGPT ahora es una marca reconocida para una nueva clase de herramientas LLM sin censura».

Añadió que estas nuevas versiones no son creaciones completamente nuevas, sino que fueron creadas por delincuentes que modifican astutamente los LLM existentes. Lo hacen alterando instrucciones ocultas llamadas indicaciones del sistema y posiblemente entrenando la IA con datos ilegales.

La investigación de Cato CTRL encontró variantes de WormGPT no reportadas previamente, anunciadas en otros foros de ciberdelincuencia como BreachForums . Por ejemplo, una variante llamada " xzin0vich-WormGPT " se publicó el 26 de octubre de 2024, y " keanu-WormGPT " apareció el 25 de febrero de 2025. El acceso a estas nuevas versiones se realiza mediante chatbots de Telegram, también mediante suscripción.

Anuncio de WormGPT (Fuente: Cato CTRL)

Mediante sus pruebas, Cato CTRL confirmó que keanu-WormGPT funciona con Grok de xAI, mientras que xzin0vich-WormGPT se basa en Mixtral de Mistral AI. Esto significa que los delincuentes están utilizando con éxito LLM comerciales de primera línea para generar contenido malicioso, como correos electrónicos de phishing y scripts para robar información.

WormGPT regresa con modelos Grok y Mixtral liberados
keanu-WormGPT revela que el chatbot malicioso ha sido impulsado por Grok (Captura de pantalla: CATO Networks)

La aparición de estas herramientas, junto con otras LLM sin censura como FraudGPT y DarkBERT , muestra un mercado creciente para herramientas contra el delito impulsadas por IA y resalta el desafío constante de proteger los sistemas de IA.

J Stephen Kowski , director de tecnología de campo en SlashNext Email Security+, comentó sobre el último desarrollo diciendo: La evolución de WormGPT muestra cómo los delincuentes se están volviendo más inteligentes en el uso de herramientas de IA, pero seamos honestos, estas son herramientas de propósito general y cualquiera que cree estas herramientas sin esperar un uso malicioso a largo plazo fue bastante ingenuo .

Lo realmente preocupante es que no se trata de nuevos modelos de IA creados desde cero; están tomando sistemas confiables y violando sus normas de seguridad para crear armas para el ciberdelito , advirtió. Esto significa que las organizaciones deben pensar más allá de simplemente bloquear herramientas maliciosas conocidas y comenzar a analizar cómo se comporta el contenido generado por IA, independientemente de la plataforma que lo haya creado .

HackRead

HackRead

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow