La inteligencia artificial (IA) es muy prometedora para mejorar la ciberdefensa y facilitar la vida de los profesionales de la seguridad. Puede ayudar a los equipos a reducir la fatiga provocada por las alertas, detectar patrones con mayor rapidez y ofrecer un nivel de escala que los analistas humanos por sí solos no pueden igualar. Sin embargo, darse cuenta de ese potencial depende de la protección de los sistemas que lo hacen posible.

Todas las organizaciones que experimentan con la IA en las operaciones de seguridad están, a sabiendas o no, ampliando su superficie de ataque. Sin una gobernanza clara, unos controles de identidad sólidos y una visibilidad de la forma en que la IA toma sus decisiones, incluso las implementaciones bien intencionadas pueden generar riesgos más rápido de lo que los reducen. Para beneficiarse realmente de la IA, los defensores deben abordar su protección con el mismo rigor con el que se aplica a cualquier otro sistema crítico. Esto significa establecer la confianza en los datos de los que aprende, rendir cuentas por las acciones que emprende y supervisar los resultados que produce. Cuando se protege correctamente, la IA puede amplificar la capacidad humana en lugar de reemplazarla para ayudar a los profesionales a trabajar de manera más inteligente, responder más rápido y defenderse de manera más eficaz.

Establecer la confianza en los sistemas de inteligencia artificial de las agencias

A medida que las organizaciones comienzan a integrar la IA en los flujos de trabajo defensivos, la seguridad de la identidad se convierte en la base de la confianza. Cada modelo, script o agente autónomo que opera en un entorno de producción representa ahora una nueva identidad: una identidad capaz de acceder a los datos, emitir comandos e influir en los resultados defensivos. Si esas identidades no se controlan adecuadamente, las herramientas destinadas a reforzar la seguridad pueden convertirse silenciosamente en fuentes de riesgo.

La aparición de los sistemas de IA de agencia hace que esto sea especialmente importante. Estos sistemas no solo analizan; pueden actuar sin intervención humana. Clasifican las alertas, enriquecen el contexto o activan estrategias de respuesta bajo la autoridad delegada de operadores humanos. Cada acción es, en efecto, una transacción de confianza. Esa confianza debe estar vinculada a la identidad, autenticarse mediante políticas y ser auditable de principio a fin.

Los mismos principios que protegen a las personas y los servicios deben aplicarse ahora a los agentes de IA:

  • Credenciales con alcance y privilegios mínimos para garantizar que cada modelo o agente pueda acceder solo a los datos y funciones necesarios para su tarea.
  • Autenticación sólida y rotación de claves para evitar la suplantación de identidad o la filtración de credenciales.
  • Procedencia de la actividad y registro de auditoría por lo que cada acción iniciada por la IA puede rastrearse, validarse y revertirse si es necesario.
  • Segmentación y aislamiento para evitar el acceso entre agentes, garantizando que un proceso comprometido no pueda influir en otros.

En la práctica, esto significa tratar cada sistema de IA de la agencia como una identidad de primera clase dentro de su marco de IAM. Cada uno debe tener un propietario, una política de ciclo de vida y un alcance de supervisión definidos, al igual que cualquier cuenta de usuario o servicio. Los equipos defensivos deben verificar continuamente lo que pueden hacer esos agentes, no solo lo que tenían previsto hacer, ya que la capacidad a menudo varía más rápido que el diseño. Una vez establecida la identidad como base, los defensores pueden centrar su atención en proteger el sistema en general.

Proteger la IA: mejores prácticas para el éxito

Proteger la IA comienza con la protección de los sistemas que la hacen posible: los modelos, las canalizaciones de datos y las integraciones que ahora forman parte de las operaciones de seguridad diarias. Del mismo modo

si protegemos las redes y los puntos finales, los sistemas de IA deben tratarse como una infraestructura de misión crítica que requiere una defensa continua y por capas.

El Plano de IA segura de SANS describe un Proteja la IA pista que proporciona un punto de partida claro. Construido sobre el Pautas de seguridad de SANS Critical AI , el plan define seis dominios de control que se traducen directamente en la práctica:

  • Controles de acceso: Aplica un nivel mínimo de privilegios y una autenticación sólida a cada modelo, conjunto de datos y API. Registre y revise el acceso de forma continua para evitar el uso no autorizado.
  • Controles de datos: Valide, desinfecte y clasifique todos los datos utilizados para el entrenamiento, el aumento o la inferencia. El almacenamiento seguro y el seguimiento del linaje reducen el riesgo de que los modelos se intoxiquen o se filtren datos.
  • Estrategias de despliegue: Refuerce las canalizaciones y los entornos de IA con entornos aislados, cierre de CI/CD y trabajo en red antes del lanzamiento. Trate la implementación como un evento controlado y auditable, no como un experimento.
  • Seguridad de inferencia: Proteja los modelos contra la introducción inmediata y el uso indebido mediante la aplicación de la validación de entrada/salida, las barreras de protección y las rutas de escalamiento para las acciones de alto impacto.
  • Monitorización: Observe continuamente el comportamiento y los resultados del modelo para detectar desviaciones, anomalías y señales de compromiso. La telemetría eficaz permite a los defensores detectar la manipulación antes de que se propague.
  • Seguridad del modelo: Versa, firma y comprueba la integridad de los modelos a lo largo de su ciclo de vida para garantizar la autenticidad y evitar cambios o readiestramientos no autorizados.

Estos controles se alinean directamente El riesgo de IA del NIST Administración Marco y el Los 10 mejores LLM de OWASP , que destaca las vulnerabilidades más comunes y consecuentes en los sistemas de IA, desde la inyección rápida y las integraciones de complementos inseguras hasta el envenenamiento de modelos y la exposición de datos. La aplicación de medidas de mitigación a partir de esos marcos en estos seis dominios ayuda a convertir la orientación en una defensa operativa. Una vez que se hayan establecido estas bases, los equipos pueden centrarse en usar la IA de manera responsable al saber cuándo confiar en la automatización y cuándo mantener a los humanos informados.

Equilibrar el aumento y la automatización

Los sistemas de IA son capaces de ayudar a los profesionales humanos como un becario que nunca duerme. Sin embargo, es fundamental que los equipos de seguridad diferencien lo que se debe automatizar de lo que se debe aumentar. Algunas tareas se benefician de una automatización total, especialmente aquellas que son repetibles, medibles y de bajo riesgo en caso de que se produzca un error. Sin embargo, otras exigen una supervisión humana directa porque el contexto, la intuición o la ética importan más que la velocidad.

El enriquecimiento de amenazas, el análisis de registros y la deduplicación de alertas son los principales candidatos para la automatización. Se trata de procesos basados en patrones que consumen muchos datos y en los que la coherencia supera a la creatividad. Por el contrario, las decisiones sobre el alcance, la atribución y la respuesta de los incidentes se basan en un contexto que la IA no puede comprender plenamente. En este sentido, la IA debería ayudar revelando indicadores, sugiriendo los próximos pasos o resumiendo los hallazgos, mientras los profesionales conservan la autoridad para tomar decisiones.

Encontrar ese equilibrio requiere madurez en el diseño de los procesos. Los equipos de seguridad deben clasificar los flujos de trabajo según su tolerancia al error y el costo de los errores de automatización. Siempre que el riesgo de que se produzcan falsos positivos o de que se pierdan matices sea alto, mantenga a las personas informadas. Siempre que la precisión pueda medirse objetivamente, deje que la IA acelere el trabajo.

¡Únase a nosotros en SANS Surge 2026!

Profundizaré en este tema durante mi discurso de apertura en SANS Surge 2026 (del 23 al 28 de febrero de 2026), donde exploraremos cómo los equipos de seguridad pueden garantizar que sea seguro confiar en los sistemas de IA. Si su organización avanza rápidamente en la adopción de la IA, este evento le ayudará a avanzar de forma más segura. Únase a nosotros para conectarse con colegas, aprender de los expertos y ver cómo es realmente la IA segura en la práctica.

Regístrese en SANS Surge 2026 aquí .

Nota: Este artículo fue contribuido por Frank Kim, becario del Instituto SANS.

¿Te ha parecido interesante este artículo? Este artículo es una contribución de uno de nuestros valiosos socios. Síguenos en Noticias de Google , Twitter y LinkedIn para leer más contenido exclusivo que publicamos.