Los agentes de IA han pasado rápidamente de las herramientas experimentales a los componentes principales de los flujos de trabajo diarios en materia de seguridad, ingeniería, TI y operaciones. Lo que comenzó como ayudas individuales para la productividad, como las personales asistentes de código , chatbots y copilotos, ha evolucionado hasta convertirse en agentes compartidos en toda la organización integrados en los procesos críticos. Estos agentes pueden organizar los flujos de trabajo en varios sistemas, por ejemplo:
- Un agente de recursos humanos que aprovisiona o desaprovisiona cuentas en IAM, aplicaciones SaaS, VPN y plataformas en la nube en función de las actualizaciones del sistema de recursos humanos.
- Un agente de gestión de cambios que valida una solicitud de cambio, actualiza la configuración en los sistemas de producción, registra las aprobaciones en ServiceNow y actualiza la documentación en Confluence.
- Un agente de atención al cliente que recupera el contexto del cliente del CRM, comprueba el estado de la cuenta en los sistemas de facturación, activa correcciones en los servicios de backend y actualiza el ticket de soporte.
Para ofrecer valor a escala, los agentes de IA organizacionales están diseñados para atender a muchos usuarios y funciones. Se les conceden permisos de acceso más amplios, en comparación con los de los usuarios individuales, para acceder a las herramientas y los datos necesarios para operar de manera eficiente.
La disponibilidad de estos agentes ha permitido obtener ganancias reales de productividad: una clasificación más rápida, un menor esfuerzo manual y operaciones simplificadas. Sin embargo, estas ganancias iniciales conllevan un costo oculto. A medida que los agentes de IA se vuelven más poderosos y se integran más profundamente, también se convierten en intermediarios de acceso. Sus amplios permisos pueden ocultar quién está accediendo realmente a qué y bajo qué autoridad. Al centrarse en la velocidad y la automatización, muchas organizaciones están pasando por alto los nuevos riesgos de acceso que se están introduciendo.
El modelo de acceso detrás de los agentes organizacionales
Los agentes organizacionales suelen estar diseñados para operar en muchos recursos y atender a varios usuarios, funciones y flujos de trabajo a través de una sola implementación. En lugar de estar vinculados a un usuario individual, estos agentes actúan como recursos compartidos que pueden responder a las solicitudes, automatizar las tareas y organizar las acciones en todos los sistemas en nombre de muchos usuarios. Este diseño hace que los agentes sean fáciles de implementar y escalables en toda la organización.
Para funcionar sin problemas, los agentes confían en las cuentas de servicio compartidas, las claves de API o las concesiones de OAuth para autenticarse en los sistemas con los que interactúan. Estas credenciales suelen durar mucho tiempo y se administran de forma centralizada, lo que permite que el agente funcione de forma continua sin la participación del usuario. Para evitar fricciones y garantizar que el agente pueda gestionar una amplia gama de solicitudes, los permisos suelen concederse de forma amplia, lo que abarca más sistemas, acciones y datos de los que normalmente necesitaría un solo usuario.
Si bien este enfoque maximiza la comodidad y la cobertura, estas opciones de diseño pueden crear involuntariamente poderosos intermediarios de acceso que eluden los límites de permisos tradicionales.
Rompiendo el modelo tradicional de control de acceso
Los agentes de la organización suelen operar con permisos mucho más amplios que los concedidos a los usuarios individuales, lo que les permite abarcar varios sistemas y flujos de trabajo. Cuando los usuarios interactúan con estos agentes, ya no acceden directamente a los sistemas, sino que emiten solicitudes que el agente ejecuta en su nombre. Esas acciones se ejecutan con la identidad del agente, no con la del usuario. Esto rompe los modelos tradicionales de control de acceso, en los que los permisos se aplican a nivel de usuario. Un usuario con acceso limitado puede activar acciones de forma indirecta o recuperar datos a los que no estaría autorizado a acceder directamente, simplemente recurriendo al agente. Dado que los registros y los registros de auditoría atribuyen la actividad al agente, no al solicitante, esta escalada de privilegios puede producirse sin una visibilidad clara, una responsabilidad o una aplicación de políticas claras.
Los agentes organizacionales pueden eludir silenciosamente los controles de acceso
Los riesgos de la escalada de privilegios impulsada por los agentes suelen surgir en flujos de trabajo cotidianos sutiles, en lugar de en un abuso manifiesto. Por ejemplo, un usuario con acceso limitado a los sistemas financieros puede interactuar con un agente de inteligencia artificial de la organización para «resumir el desempeño del cliente». El agente, que opera con permisos más amplios, extrae datos de las plataformas de facturación, CRM y finanzas, y obtiene información que el usuario no estaría autorizado a ver directamente.
En otro escenario, un ingeniero sin acceso a la producción pide a un agente de IA que «solucione un problema de implementación». El agente investiga los registros, modifica la configuración en un entorno de producción y desencadena el reinicio del proceso con sus propias credenciales elevadas. El usuario nunca tocó los sistemas de producción, pero la producción se modificó en su nombre.
En ambos casos, no se infringe ninguna política explícita. El agente está autorizado, la solicitud parece legítima y los controles de IAM existentes se aplican técnicamente. Sin embargo, los controles de acceso se eluden de manera efectiva porque la autorización se evalúa a nivel de agente, no a nivel de usuario, lo que genera una escalada de privilegios no intencionada y, a menudo, invisible.
Los límites de los controles de acceso tradicionales en la era de los agentes de IA
Los controles de seguridad tradicionales se basan en los usuarios humanos y en el acceso directo al sistema, lo que los hace poco adecuados para los flujos de trabajo mediados por agentes. Los sistemas de IAM imponen los permisos en función de quién es el usuario, pero cuando un agente de IA ejecuta las acciones, la autorización se evalúa comparándola con la identidad del agente, no con la del solicitante. Como resultado, las restricciones a nivel de usuario ya no se aplican. El registro y los registros de auditoría agravan el problema, ya que atribuyen la actividad a la identidad del agente y ocultan quién inició la acción y por qué. Con los agentes, los equipos de seguridad han perdido la capacidad de imponer los privilegios mínimos, detectar el uso indebido o atribuir de forma fiable la intención, lo que permite escalar los privilegios sin activar los controles tradicionales. La falta de atribución también complica las investigaciones, retrasa la respuesta a los incidentes y dificulta la determinación de la intención o el alcance durante un evento de seguridad.
Descubriendo la escalada de privilegios en los modelos de acceso centrados en los agentes
A medida que los agentes de IA organizacionales asumen responsabilidades operativas en varios sistemas, los equipos de seguridad necesitan tener claro visibilidad de cómo las identidades de los agentes se asignan a los activos críticos como datos confidenciales y sistemas operativos. Es fundamental entender quién usa cada agente y si existen brechas entre los permisos de un usuario y el acceso más amplio del agente, lo que crea rutas de escalamiento de privilegios no deseadas. Sin este contexto, el acceso excesivo puede permanecer oculto e incuestionable. Los equipos de seguridad también deben supervisar continuamente los cambios en los permisos de los usuarios y de los agentes, a medida que el acceso evoluciona con el tiempo. Esta visibilidad continua es fundamental para identificar nuevas rutas de escalamiento a medida que se introducen de forma silenciosa, antes de que puedan utilizarse indebidamente o provocar incidentes de seguridad.
Garantizar la adopción por parte de los agentes con Wing Security
Los agentes de IA se están convirtiendo rápidamente en algunos de los actores más poderosos de la empresa. Automatizan flujos de trabajo complejos, se mueven entre sistemas y actúan en nombre de muchos usuarios a la velocidad de las máquinas. Sin embargo, ese poder se vuelve peligroso cuando se confía demasiado en los agentes. Los permisos amplios, el uso compartido y la visibilidad limitada pueden convertir silenciosamente a los agentes de IA en vías de escalamiento de privilegios y puntos ciegos de seguridad.
La adopción de agentes seguros requiere visibilidad, conocimiento de la identidad y monitoreo continuo. Wing proporciona la visibilidad requerida al descubriendo continuamente qué agentes de IA operan en su entorno, a qué pueden acceder y cómo se utilizan. Wing mapea el acceso de los agentes a los activos críticos, correlaciona la actividad de los agentes con el contexto del usuario y detecta las brechas en las que los permisos de los agentes superan la autorización del usuario.
Con Ala , las organizaciones pueden adoptar a los agentes de IA con confianza, lo que permite la automatización y la eficiencia de la IA sin sacrificar el control, la responsabilidad o la seguridad.
Post generado automaticamente, fuente oficial de la información: THEHACKERNEWS