OpenAI el martes dijo interrumpió tres grupos de actividades para mal uso su herramienta de inteligencia artificial (IA) ChatGPT para facilitar el desarrollo de malware.

Esto incluye a un actor de amenazas de habla rusa, del que se dice que utilizó el chatbot para ayudar a desarrollar y perfeccionar un troyano de acceso remoto (RAT), un ladrón de credenciales con el objetivo de evitar ser detectado. El operador también usó varias cuentas de ChatGPT para crear prototipos y solucionar problemas de componentes técnicos que permiten el robo de credenciales después de la explotación y el robo de credenciales.

«Estas cuentas parecen estar afiliadas a grupos delictivos de habla rusa, ya que observamos que publicaban pruebas de sus actividades en un canal de Telegram dedicado a esos actores», dijo OpenAI.

La empresa de inteligencia artificial dijo que, si bien sus modelos lingüísticos grandes (LLM) rechazaban las solicitudes directas del actor de la amenaza para producir contenido malicioso, solucionaron la limitación creando un código de bloques de construcción, que luego se ensamblaba para crear los flujos de trabajo.

Algunos de los resultados producidos incluían código para ofuscación, monitoreo del portapapeles y utilidades básicas para filtrar datos mediante un bot de Telegram. Vale la pena señalar que ninguna de estas salidas es intrínsecamente maliciosa por sí sola.

«El autor de la amenaza hizo una combinación de solicitudes de alta y baja sofisticación: muchas solicitudes requerían un conocimiento profundo de la plataforma Windows y una depuración iterativa, mientras que otras automatizaban tareas básicas (como la generación masiva de contraseñas y las solicitudes de trabajo con guiones)», añadió OpenAI.

«El operador usó una pequeña cantidad de cuentas de ChatGPT e iteró el mismo código en todas las conversaciones, un patrón consistente con el desarrollo continuo, más que con las pruebas ocasionales».

El segundo grupo de actividades se originó en Corea del Norte y compartía superposiciones con una campaña detallada de Trellix en agosto de 2025, dirigida contra misiones diplomáticas en Corea del Sur mediante correos electrónicos de spear-phising para entregar Xeno RAT.

OpenAI dijo que el clúster utilizó ChatGPT para el desarrollo de malware y comando y control (C2), y que los actores participaron en esfuerzos específicos, como el desarrollo de extensiones de macOS Finder, configurar las VPN de Windows Server o convertir las extensiones de Chrome en sus equivalentes de Safari.

Además, se ha descubierto que los actores de amenazas utilizan el chatbot de IA para redactar correos electrónicos de suplantación de identidad, experimentar con servicios en la nube y funciones de GitHub y explorar técnicas para facilitar la carga de las DLL, la ejecución en memoria, el enganche de API de Windows y el robo de credenciales.

El tercer conjunto de cuentas prohibidas, señaló OpenAI, compartía superposiciones con un clúster rastreado por Proofpoint con el nombre UNK_Droppitch (también conocido como UTA0388), un grupo de hackers chino que ha sido atribuido a campañas de suplantación de identidad dirigidas a las principales firmas de inversión centradas en la industria taiwanesa de semiconductores, con una puerta trasera denominada HealthKick (también conocida como GOVERSHELL).

Las cuentas usaron la herramienta para generar contenido para campañas de suplantación de identidad en inglés, chino y japonés; proporcionaron herramientas para acelerar las tareas rutinarias, como la ejecución remota y la protección del tráfico mediante HTTPS; y buscaron información relacionada con la instalación de herramientas de código abierto como nuclei y fscan. OpenAI describió al actor de la amenaza como «técnicamente competente pero poco sofisticado».

Además de estas tres actividades cibernéticas maliciosas, la empresa también bloqueó las cuentas utilizadas para operaciones de estafa e influencia -

  • Las redes que probablemente se originan en Camboya, Myanmar y Nigeria están abusando de ChatGPT como parte de posibles intentos de defraudar a las personas en línea. Estas redes utilizaron la inteligencia artificial para realizar traducciones, escribir mensajes y crear contenido para las redes sociales con el fin de anunciar estafas de inversión.
  • Personas aparentemente vinculadas a entidades gubernamentales chinas que utilizan ChatGPT para ayudar a vigilar a las personas, incluidos los grupos étnicos minoritarios como los uigures, y analizar los datos de las plataformas de redes sociales occidentales o chinas. Los usuarios pidieron a la herramienta que generara material promocional sobre dichas herramientas, pero no utilizaron el chatbot de inteligencia artificial para implementarlas.
  • Un actor de amenazas de origen ruso vinculado a Detener noticias y probablemente esté dirigido por una empresa de marketing que utilizó sus modelos de IA (y otros) para generar contenido y vídeos para compartir en las redes sociales. El contenido generado criticaba el papel de Francia y Estados Unidos en África y el papel de Rusia en el continente. También produjo contenido en inglés que promovía narrativas contra Ucrania.
  • Una operación de influencia encubierta originaria de China, con el nombre en clave «Línea Nueve Emdash», que utilizó sus modelos para generar contenido en las redes sociales en el que se criticaba al presidente de Filipinas, Ferdinand Marcos, y para crear publicaciones sobre el supuesto impacto ambiental de Vietnam en el Mar de China Meridional y sobre figuras políticas y activistas que participaban en el movimiento a favor de la democracia de Hong Kong.

En dos casos diferentes, cuentas chinas sospechosas pidieron a ChatGPT que identificara a los organizadores de una petición en Mongolia y las fuentes de financiación de una cuenta X que criticaba al gobierno chino. OpenAI dijo que sus modelos solo devolvían información disponible públicamente como respuesta y no incluían ninguna información confidencial.

«Un uso novedoso de esta red de influencia [vinculada a China] fueron las solicitudes de asesoramiento sobre estrategias de crecimiento en las redes sociales, incluida la forma de iniciar un desafío en TikTok y lograr que otros publicaran contenido sobre la etiqueta #MyImmigrantStory (una etiqueta muy utilizada desde hace mucho tiempo cuya popularidad la operación probablemente se esforzó por aprovechar)», afirma OpenAI.

«Le pidieron a nuestra modelo que ideara y, luego, generara una transcripción para una publicación de TikTok, además de ofrecer recomendaciones sobre música de fondo e imágenes para acompañar la publicación».

OpenAI reiteró que sus herramientas proporcionaban a los actores de amenazas capacidades novedosas que de otro modo no podrían haber obtenido de múltiples recursos disponibles públicamente en línea, y que se utilizaron para proporcionar una eficiencia incremental a sus flujos de trabajo existentes.

Sin embargo, una de las conclusiones más interesantes del informe es que los actores de amenazas están intentando adaptar sus tácticas para eliminar las posibles señales que podrían indicar que el contenido fue generado por una herramienta de inteligencia artificial.

«Una de las redes fraudulentas [de Camboya] que desbaratamos le pidió a nuestra modelo que eliminara los guiones (guiones largos, —) de su producción, o parece haber eliminado los guiones manualmente antes de su publicación», afirma la empresa. «Durante meses, los em-dashes han sido el tema central de los debates en línea como posible indicador del uso de la IA: este caso sugiere que los actores de la amenaza estaban al tanto de ese debate».

Los hallazgos de OpenAI llegan cuando su rival Anthropic publicó una herramienta de auditoría de código abierto llamada Petri (abreviatura de «herramienta de exploración paralela para interacciones riesgosas») para acelerar la investigación sobre la seguridad de la IA y comprender mejor el comportamiento de los modelos en varias categorías, como el engaño, la adulación, el fomento del engaño de los usuarios, la cooperación ante solicitudes dañinas y la autoperseverancia.

«Petri implementa un agente automatizado para probar un sistema de IA objetivo a través de diversas conversaciones de varios turnos en las que participan usuarios y herramientas simulados», dijo Anthropic dijo .

«Los investigadores le dan a Petri una lista de instrucciones iniciales dirigidas a los escenarios y comportamientos que desean probar. Luego, Petri ejecuta cada instrucción inicial en paralelo. Para cada instrucción inicial, un agente auditor elabora un plan e interactúa con el modelo objetivo en un ciclo de uso de la herramienta. Al final, un juez califica cada una de las transcripciones resultantes en múltiples dimensiones para que los investigadores puedan buscar y filtrar rápidamente las transcripciones más interesantes».

¿Te ha parecido interesante este artículo? Síguenos en Noticias de Google , Twitter y LinkedIn para leer más contenido exclusivo que publicamos.