Google dijo el jueves que observó al actor de amenazas vinculado a Corea del Norte conocido como UNC2970 utilizando su modelo de inteligencia artificial generativa (IA) Gemini para realizar reconocimientos de sus objetivos, como varios grupos de hackers continuar convertir la herramienta en un arma para acelerar varias fases del ciclo de vida de los ciberataques, permitir las operaciones de información e incluso realizar ataques de extracción de modelos.
«El grupo usó Gemini para sintetizar OSINT y perfilar objetivos de alto valor para apoyar la planificación y el reconocimiento de las campañas», dijo Google Threat Intelligence Group (GTIG) dijo en un informe compartido con The Hacker News. «La elaboración de perfiles objetivo de este actor incluyó la búsqueda de información sobre las principales empresas de ciberseguridad y defensa y el mapeo de puestos técnicos específicos e información salarial».
El equipo de inteligencia de amenazas del gigante tecnológico caracterizó esta actividad como una difuminación de los límites entre lo que constituye una investigación profesional rutinaria y un reconocimiento malicioso, lo que permite al actor respaldado por el estado crear personajes de suplantación de identidad personalizados e identificar objetivos fáciles para un compromiso inicial.
adsenseUNC2970 es el apodo asignado a un grupo de hackers norcoreano que se superpone con un grupo que se rastrea como Lazarus Group, Diamond Sleet y Hidden Cobra. Es mejor conocido por haber orquestado una campaña de larga duración con el nombre en código Operación Dream Job para atacar a los sectores aeroespacial, de defensa y energético con malware con el pretexto de acercarse a las víctimas con el pretexto de ofertas de trabajo.
GTIG dijo que la UNC2970 se ha centrado «constantemente» en la defensa, atacando y haciéndose pasar por reclutadores corporativos en sus campañas, con la elaboración de perfiles de objetivos. incluido busca «información sobre las principales empresas de ciberseguridad y defensa y mapea los puestos técnicos específicos y la información salarial».
El UNC2970 está lejos de ser el único actor de amenazas que ha hecho un mal uso de Gemini para aumentar sus capacidades y pasar del reconocimiento inicial al objetivo activo a un ritmo más rápido. Algunos de los otros equipos de hackers que han integrado la herramienta en sus flujos de trabajo son los siguientes:
- UNC6418 (Sin atribuir), para recopilar información específica, específicamente para buscar credenciales de cuentas y direcciones de correo electrónico confidenciales.
- Temp.hex o Mustang Panda (China), para compilar un expediente sobre personas específicas, incluidos objetivos en el Pakistán, y recopilar datos operacionales y estructurales sobre las organizaciones separatistas en varios países.
- APT31 o Judgement Panda (China), para automatizar el análisis de vulnerabilidades y generar planes de pruebas específicos al afirmar ser un investigador de seguridad.
- APARTAMENTO 41 (China), para extraer explicaciones de las páginas README.md de la herramienta de código abierto, así como para solucionar problemas y depurar el código de explotación.
- UNC795 (China), para solucionar problemas de código, realizar investigaciones y desarrollar webshells y escáneres para servidores web PHP.
- APT 42 (Irán), para facilitar el reconocimiento y la ingeniería social específica mediante la creación de personajes que induzcan la participación de los objetivos, así como para desarrollar un rastreador de Google Maps basado en Python, desarrollar un sistema de gestión de tarjetas SIM en Rust e investigar el uso de una prueba de concepto (PoC) para detectar una falla de WinRAR ( CVE-2025-8088 ).
Google también dijo que había detectado un malware llamado HONESTCUE que aprovecha la API de Gemini para subcontratar la generación de funciones para la siguiente etapa, junto con un kit de suplantación de identidad generado por IA con el nombre en código COINBAIT que se creó con Lovable AI y se hace pasar por un intercambio de criptomonedas para la recolección de credenciales. Algunos aspectos de la actividad relacionada con Coinbait se han atribuido a un grupo de amenazas con motivaciones financieras denominado UNC5356.
«HONESTCUE es un marco de descarga y lanzamiento que envía un mensaje a través de la API de Google Gemini y recibe el código fuente de C# como respuesta», afirma. «Sin embargo, en lugar de aprovechar un LLM para actualizarse, HONESTCUE recurre a la API de Gemini para generar código que funcione con la funcionalidad de «fase dos», que descarga y ejecuta otro tipo de malware».
La etapa secundaria sin archivos de HONESTCUE luego toma el código fuente de C# generado recibido de la API de Gemini y usa el dominio.NET legítimo Proveedor de código CSharp marco para compilar y ejecutar la carga útil directamente en la memoria, sin dejar artefactos en el disco.
enlacesGoogle también ha llamado la atención sobre una reciente ola de campañas de ClickFix que aprovechan la función de intercambio público de los servicios de IA generativa para incluir instrucciones realistas que solucionan un problema informático común y, en última instancia, distribuyen malware que roba información. La actividad fue marcado en diciembre de 2025 por Huntress.
Por último, la compañía dijo que identificó e interrumpió los ataques de extracción de modelos que tienen como objetivo consultar sistemáticamente un modelo de aprendizaje automático patentado para extraer información y crear un modelo sustituto que refleje el comportamiento del objetivo. En un ataque a gran escala de este tipo, Gemini recibió más de 100 000 mensajes que planteaban una serie de preguntas destinadas a reproducir la capacidad de razonamiento del modelo en una amplia gama de tareas en idiomas distintos del inglés.
El mes pasado, Praetorian ideó un ataque de extracción de PoC en el que un modelo de réplica logró una tasa de precisión del 80,1% simplemente enviando una serie de 1000 consultas a la API de la víctima, registrando las salidas y entrenándola para 20 períodos .
«Muchas organizaciones asumen que mantener en privado las ponderaciones de los modelos es una protección suficiente», dijo la investigadora de seguridad Farida Shafik dijo . «Pero esto crea una falsa sensación de seguridad. En realidad, el comportamiento es el modelo. Cada par consulta-respuesta es un ejemplo de entrenamiento para una réplica. El comportamiento del modelo queda expuesto en cada respuesta de la API».
Post generado automáticamente, fuente oficial de la información: THEHACKERNEWS