Los ataques a la cadena de suministro basados en IA aumentaron un 156% el año pasado. Descubra por qué fallan las defensas tradicionales y qué deben hacer los CISO ahora para proteger sus organizaciones.

Descargue la guía completa de expertos del CISO sobre los ataques de IA a la cadena de suministro aquí .

L; SECAR

  • Los ataques a la cadena de suministro basados en inteligencia artificial están aumentando en escala y sofisticación - Carga de paquetes maliciosos a repositorios de código abierto saltó un 156% en el último año .
  • El malware generado por IA tiene características que cambian las reglas del juego - Es polimórfico por defecto, sensible al contexto, camuflado semánticamente y evasivo temporalmente.
  • Los ataques reales ya están ocurriendo - Del playa 3X afectando a 600 000 empresas a Ataques NullBulge convertir en armas los repositorios de Hugging Face y GitHub.
  • Los tiempos de detección han aumentado drásticamente - Informe 2025 de IBM muestra que las infracciones tardan un promedio de 276 días en identificarse, y los ataques asistidos por IA pueden ampliar este período.
  • Las herramientas de seguridad tradicionales tienen dificultades - El análisis estático y la detección basada en firmas fallan contra las amenazas que se adaptan activamente.
  • Están surgiendo nuevas estrategias defensivas - Las organizaciones están implementando una seguridad basada en la IA para mejorar la detección de amenazas.
  • El cumplimiento de la normativa se está convirtiendo en obligatorio - El Ley de IA de la UE impone sanciones de hasta 35 millones de euros o el 7% de los ingresos mundiales por infracciones graves.
  • La acción inmediata es fundamental - No se trata de prepararse para el futuro sino para el presente.

La evolución de los exploits tradicionales a la infiltración impulsada por la IA

¿Recuerdas cuando los ataques a la cadena de suministro implicaban el robo de credenciales y la manipulación de actualizaciones? Eran tiempos más sencillos. La realidad actual es mucho más interesante e infinitamente más compleja.

La cadena de suministro de software se ha convertido en la zona cero de un nuevo tipo de ataque. Piénsalo de la siguiente manera: si el malware tradicional es un ladrón que te abre la cerradura, el malware basado en inteligencia artificial es un cambiaformas que estudia las rutinas de los guardias de seguridad, aprende cuáles son sus puntos ciegos y se transforma en el equipo de limpieza.

Toma el Incidente de PyTorch . Los atacantes subieron un paquete malicioso llamado torchtriton a PyPI que se hacía pasar por una dependencia legítima. En cuestión de horas, se había infiltrado en miles de sistemas y había extraído datos confidenciales de los entornos de aprendizaje automático. ¿El pateador? Seguía siendo un ataque «tradicional».

Si avanzamos rápidamente hasta el día de hoy, estamos viendo algo fundamentalmente diferente. Eche un vistazo a estos tres ejemplos recientes:

1. NullBulge Group: Hugging Face y ataques a GitHub (2024)

Un actor de amenazas llamado NullBulge llevó a cabo ataques a la cadena de suministro utilizando código como arma en repositorios de código abierto en Hugging Face y GitHub, con el objetivo de atacar herramientas de inteligencia artificial y software de juegos. El grupo puso en peligro la extensión Comfyui_llmVision en GitHub y distribuyó código malicioso a través de varias plataformas de inteligencia artificial, utilizando cargas útiles basadas en Python que filtraban datos mediante webhooks de Discord y distribuían el ransomware LockBit personalizado.

2. Ataque a la biblioteca Solana Web3.js (diciembre de 2024)

El 2 de diciembre de 2024, los atacantes pusieron en peligro una cuenta de acceso público de Biblioteca npm @solana /web3.js mediante una campaña de suplantación de identidad. Publicaron las versiones maliciosas 1.95.6 y 1.95.7, que contenían códigos clandestinos para robar claves privadas y vaciar carteras de criptomonedas, lo que resultó en el robo de criptoactivos por un valor aproximado de entre 160 000 y 190 000 dólares en un período de cinco horas.

3. Wondershare RepairIT Vulnerabilities (septiembre de 2025)

La aplicación de mejora de imágenes y vídeos basada en inteligencia artificial Wondershare Repárelo expuso datos confidenciales de los usuarios a través de credenciales en la nube codificadas en su binario. Esto permitió a los posibles atacantes modificar los modelos de IA y los ejecutables de software y lanzar ataques a la cadena de suministro contra los clientes sustituyendo los modelos de IA legítimos recuperados automáticamente por la aplicación.

Descargue la guía de expertos del CISO para ver las listas completas de proveedores y los pasos de implementación .

La creciente amenaza: la IA lo cambia todo

Vamos a basar esto en la realidad. El ataque a la cadena de suministro 3CX de 2023 puso en peligro el software utilizado por 600 000 empresas de todo el mundo, desde American Express hasta Mercedes-Benz. Si bien no fue generado definitivamente por la IA, demostró las características polimórficas que ahora asociamos a los ataques asistidos por IA: cada carga útil era única, lo que hacía inútil la detección basada en firmas.

Según los datos de Sonatype, las subidas de paquetes maliciosos aumentaron un 156% año tras año. Más preocupante es la curva de sofisticación. El análisis reciente de MITRE sobre las campañas de malware para PyPI reveló patrones de ofuscación cada vez más complejos, consistentes con la generación automatizada, aunque la atribución definitiva de la IA sigue siendo un desafío.

Esto es lo que hace que el malware generado por IA sea realmente diferente:

  • Polimórfico por defecto: Al igual que un virus que reescribe su propio ADN, cada instancia es única desde el punto de vista estructural y mantiene el mismo propósito malicioso.
  • Consciente del contexto: El malware de IA moderno incluye la detección en entornos aislados que enorgullecería a un programador paranoico. Un ejemplo reciente esperó hasta que detectó llamadas a la API de Slack y confirmaciones de Git, señales de que se trataba de un entorno de desarrollo real, antes de activarse.
  • Camuflado semánticamente: El código malicioso no solo se oculta, sino que se hace pasar por una funcionalidad legítima. Hemos visto puertas traseras disfrazadas de módulos de telemetría, con documentación convincente e incluso pruebas unitarias.
  • Temporalmente evasivo: La paciencia es una virtud, especialmente para el malware. Algunas variantes permanecen inactivas durante semanas o meses, a la espera de desencadenantes específicos o simplemente duran más que las auditorías de seguridad.

Por qué fallan los enfoques de seguridad tradicionales

La mayoría de las organizaciones utilizan cuchillos para los tiroteos, y las armas ahora funcionan con inteligencia artificial y pueden esquivar las balas.

Tenga en cuenta el cronograma de una infracción típica. El informe sobre el costo de una violación de datos de 2025 de IBM reveló que las organizaciones tardan una media de 276 días en identificar una violación y otros 73 días en contenerla. Son nueve meses en los que los atacantes son dueños de su entorno. Con variantes generadas por la IA que mutan a diario, tu antivirus basado en firmas consiste básicamente en jugar a golpear a un topo con los ojos vendados.

La IA no solo está creando un mejor malware, sino que está revolucionando todo el ciclo de vida de los ataques:

  • Personas de desarrolladores falsas: Los investigadores han documentado los ataques «SockPuppet» en los que los perfiles de desarrolladores generados por la IA contribuyeron con código legítimo durante meses antes de introducir puertas traseras. Estas personas tenían historiales en GitHub, participaban en Stack Overflow e incluso mantenían blogs personales, todos ellos generados por la IA.
  • Tiposentamiento en cuclillas a escala: En 2024, los equipos de seguridad identificaron miles de paquetes maliciosos dirigidos a bibliotecas de IA. Nombres como openai-official, chatgpt-api y tensorflow (fíjate en la «l» extra) atraparon a miles de desarrolladores.
  • Envenenamiento de datos: Reciente Investigación antrópica demostró cómo los atacantes podían comprometer los modelos de aprendizaje automático durante el entrenamiento, insertando puertas traseras que se activan en entradas específicas. Imagine que su IA de detección de fraudes ignora de repente las transacciones de cuentas específicas.
  • Ingeniería social automatizada: La suplantación de identidad ya no es solo para correos electrónicos. Los sistemas de inteligencia artificial generan solicitudes de cambios, comentarios e incluso documentación que tienen en cuenta el contexto y que parecen más legítimas que muchas contribuciones genuinas.

Un nuevo marco para la defensa

Las organizaciones con visión de futuro ya se están adaptando y los resultados son prometedores.

El nuevo manual defensivo incluye:

  • Detección específica de IA: De Google Proyecto OSS-Fuzz ahora incluye un análisis estadístico que identifica los patrones de código típicos de la generación de IA. Los primeros resultados son prometedores a la hora de distinguir el código generado por IA del código escrito por humanos: no es perfecto, pero constituye una sólida primera línea de defensa.
  • Análisis de procedencia conductual: Piense en esto como un polígrafo para el código. Al rastrear los patrones de confirmación, los plazos y el análisis lingüístico de los comentarios y la documentación, los sistemas pueden detectar las contribuciones sospechosas.
  • Combatir el fuego con fuego: De Microsoft Contrapeso y El equipo AI Red de Google utilizan la IA defensiva para identificar las amenazas. Estos sistemas pueden identificar variantes de malware generadas por IA que eluden las herramientas tradicionales.
  • Defensa de tiempo de ejecución de confianza cero: Suponga que ya ha sido violado. Empresas como Netflix han sido pioneras en la autoprotección de aplicaciones en tiempo de ejecución (RASP), que contiene las amenazas incluso después de su ejecución. Es como tener un guardia de seguridad dentro de cada aplicación.
  • Verificación humana: El movimiento de la «prueba de humanidad» está ganando adeptos. El impulso de GitHub por las confirmaciones firmadas por GPG añade fricción pero eleva drásticamente el listón para los atacantes.

El imperativo regulatorio

Si los desafíos técnicos no lo motivan, tal vez lo haga el martillo regulador. El Ley de IA de la UE no es perder el tiempo, y tampoco lo son sus posibles litigantes.

La ley aborda explícitamente la seguridad de la cadena de suministro de IA con requisitos exhaustivos, que incluyen:

  • Obligaciones de transparencia: Documente el uso de la IA y los controles de la cadena de suministro
  • Evaluaciones de riesgos: Evaluación periódica de las amenazas relacionadas con la IA
  • Divulgación de incidentes: Notificación de 72 horas para infracciones relacionadas con la IA
  • Responsabilidad objetiva: Eres responsable aunque «la IA lo haya hecho»

Las sanciones aumentan con sus ingresos globales, hasta 35 millones de euros o el 7% de la facturación mundial por las infracciones más graves. Por motivos de contexto, eso supondría una sanción importante para una gran empresa tecnológica.

Pero este es el lado positivo: los mismos controles que protegen contra los ataques de IA suelen cumplir con la mayoría de los requisitos de cumplimiento.

Su plan de acción comienza ahora

La convergencia de la IA y los ataques a la cadena de suministro no es una amenaza lejana, es la realidad actual. Sin embargo, a diferencia de muchos desafíos de ciberseguridad, este viene con una hoja de ruta.

Acciones inmediatas (esta semana):

  • Audite sus dependencias para detectar variantes de ortografía.
  • Habilite la firma de confirmaciones para los repositorios críticos.
  • Revisa los paquetes agregados en los últimos 90 días.

A corto plazo (el mes que viene):

  • Implemente el análisis del comportamiento en su canal de CI/CD.
  • Implemente la protección del tiempo de ejecución para las aplicaciones críticas.
  • Establezca una «prueba de humanidad» para los nuevos colaboradores.

A largo plazo (el próximo trimestre):

  • Integre herramientas de detección específicas para la IA.
  • Desarrolle un manual de estrategias de respuesta a incidentes de IA.
  • Alinee con los requisitos reglamentarios.

Las organizaciones que se adapten ahora no solo sobrevivirán, sino que tendrán una ventaja competitiva. Mientras otros se esfuerzan por responder a las infracciones, tú las evitarás.

Para ver el plan de acción completo y los proveedores recomendados, descargue la guía del CISO en PDF aquí.

¿Te ha parecido interesante este artículo? Este artículo es una contribución de uno de nuestros valiosos socios. Síguenos en Noticias de Google , Twitter y LinkedIn para leer más contenido exclusivo que publicamos.