Todos hemos visto esto antes: un desarrollador implementa una nueva carga de trabajo en la nube y otorga permisos demasiado amplios solo para mantener el sprint en marcha. Un ingeniero genera una clave de API «temporal» para realizar pruebas y se olvida de revocarla. En el pasado, se trataba de riesgos operativos menores, deudas que eventualmente saldarías durante un ciclo más lento.
En 2026, «Eventualmente» es ahora
Pero hoy en día, en cuestión de minutos, los sistemas adversarios impulsados por la inteligencia artificial pueden encontrar esa carga de trabajo con permisos excesivos, mapear sus relaciones de identidad y calcular una ruta viable hacia sus activos críticos. Antes de que su equipo de seguridad haya terminado de tomar el café de la mañana, los agentes de IA han simulado miles de secuencias de ataque y han pasado a la ejecución.
La IA comprime el reconocimiento, la simulación y la priorización en una única secuencia automatizada. La exposición que creaste esta mañana puede modelarse, validarse y posicionarse dentro de una ruta de ataque viable antes de que tu equipo almuerce.
El colapso de la ventana de explotación
Históricamente, la ventana de explotación favorecía al defensor. Se descubrió una vulnerabilidad, los equipos evaluaron su exposición y la remediación siguió un ciclo de parches predecible. La IA ha roto esa línea temporal.
En 2025, más El 32% de las vulnerabilidades se explotaron el día en que se emitió el CVE o antes . La infraestructura que impulsa esto es enorme, con La actividad de escaneo impulsada por IA alcanza los 36 000 escaneos por segundo .
Pero no se trata solo de velocidad, sino de contexto. Solo el 0,47% de los problemas de seguridad identificados son realmente explotables. Mientras su equipo se dedica a revisar el 99,5% del «ruido», la IA se centra con precisión en el 0,5% que importa, aislando la pequeña fracción de las exposiciones que pueden encadenarse para crear una ruta viable hacia sus activos críticos.
Para entender la amenaza, debemos analizarla desde dos puntos de vista distintos: cómo la IA acelera los ataques a su infraestructura y cómo su propia infraestructura de IA introduce una nueva superficie de ataque.
Escenario #1: La IA como acelerador
Los atacantes de IA no utilizan necesariamente exploits «nuevos». Aprovechan exactamente las mismas CVE y los mismos errores de configuración de siempre, pero lo hacen con la velocidad y la escala de las máquinas.
Encadenamiento automatizado de vulnerabilidades
Los atacantes ya no necesitan una vulnerabilidad «crítica» para acceder a ti. Utilizan la IA para encadenar los problemas «bajos» y «medios»: una credencial obsoleta en este caso y un bucket de S3 mal configurado en el otro. Los agentes de inteligencia artificial pueden recopilar gráficos de identidad y telemetría para encontrar estos puntos de convergencia en cuestión de segundos, haciendo un trabajo que solía llevar semanas a los analistas humanos.
La expansión de la identidad como arma
Las identidades de las máquinas ahora superan en número a los empleados humanos 82 a 1. Esto crea una enorme red de claves, fichas y cuentas de servicio. Las herramientas impulsadas por la inteligencia artificial son excelentes para «saltar identidades», ya que mapean rutas de intercambio de tokens desde un contenedor de desarrollo de baja seguridad a un script de respaldo automatizado y, por último, a una base de datos de producción de gran valor.
Ingeniería social a escala
El phishing ha aumentado un 1265% porque la IA permite a los atacantes reflejar perfectamente el tono interno y el «ambiente» operativo de la empresa. No se trata de correos electrónicos no deseados genéricos; son mensajes contextuales que eluden las habituales «señales de alerta» que los empleados están capacitados para detectar.
Escenario #2: La IA como nueva superficie de ataque
Si bien la IA acelera los ataques a los sistemas heredados, su propia adopción de la IA está creando vulnerabilidades completamente nuevas. Los atacantes no solo utilizan la IA, sino que la atacan.
El protocolo de contexto modelo y la agencia excesiva
Cuando conectas a los agentes internos con tus datos, corres el riesgo de que sean atacados y se conviertan en un «agente confuso». Los atacantes pueden utilizar la inyección inmediata para engañar a los agentes de soporte que están orientados al público para que consulten bases de datos internas a las que nunca deberían acceder. Los datos confidenciales salen a la superficie y son filtrados por los mismos sistemas en los que confiaba para protegerlos, todo ello con la apariencia de tráfico autorizado.
Envenenando el pozo
Los resultados de estos ataques se extienden mucho más allá del momento de la explotación. Al introducir datos falsos en la memoria a largo plazo de un agente (Vector Store), los atacantes crean una carga inactiva. El agente de IA absorbe esta información contaminada y, posteriormente, se la entrega a los usuarios. Sus herramientas de EDR solo ven la actividad normal, pero la IA ahora actúa como una amenaza interna.
Alucinaciones en la cadena de suministro
Por último, los atacantes pueden envenenar su cadena de suministro antes de tocar sus sistemas. Utilizan los LLM para predecir los nombres de paquetes «alucinados» que los asistentes de codificación de IA sugerirán a los desarrolladores. Al registrar primero estos paquetes maliciosos (sin hacer nada), se aseguran de que los desarrolladores introduzcan puertas traseras directamente en su proceso de CI/CD.
Recuperar la ventana de respuesta
La defensa tradicional no puede igualar la velocidad de la IA porque mide el éxito con métricas incorrectas. Los equipos cuentan las alertas y los parches y consideran el volumen como un progreso, mientras que los adversarios aprovechan las brechas que se acumulan debido a todo este ruido.
Una estrategia eficaz para anticiparse a los atacantes en la era de la IA debe centrarse en una pregunta sencilla pero fundamental: ¿qué exposiciones son realmente importantes para un atacante que se mueve lateralmente por su entorno?
Para responder a esto, las organizaciones deben pasar de la aplicación de parches reactivos a la gestión continua de la exposición a las amenazas (CTEM). Se trata de un eje operativo diseñado para alinear la exposición a la seguridad con el riesgo empresarial real.
A los atacantes con inteligencia artificial no les importan los hallazgos aislados. Encadenan las exposiciones para crear rutas viables hacia sus activos más importantes. Su estrategia de remediación debe tener en cuenta esa misma realidad: centrarse en los puntos de convergencia en los que se cruzan múltiples exposiciones y en los que una solución elimina docenas de rutas.
Las decisiones operativas ordinarias que sus equipos han tomado esta mañana pueden convertirse en una ruta de ataque viable antes del almuerzo. Si cierras las rutas más rápido de lo que la IA puede calcularlas, recuperarás la ventana de explotación.
Nota: Erez Hasson, director de marketing de productos de XM Cyber, escribió y contribuyó cuidadosamente a este artículo para nuestra audiencia.
Post generado automáticamente, fuente oficial de la información: THEHACKERNEWS