La realidad actual de la «IA en todas partes» está integrada en los flujos de trabajo diarios de toda la empresa y está integrada en plataformas SaaS, navegadores, copilotos y extensiones, y en un universo en rápida expansión de herramientas ocultas que aparecen más rápido de lo que los equipos de seguridad pueden rastrear. Sin embargo, la mayoría de las organizaciones siguen confiando en los controles tradicionales, que funcionan lejos de donde realmente se producen las interacciones con la IA. El resultado es una brecha de gobernanza cada vez mayor, en la que el uso de la IA crece exponencialmente, pero la visibilidad y el control no.
Con la IA convirtiéndose en un elemento central de la productividad, las empresas se enfrentan a un nuevo desafío: permitir que la empresa innove y, al mismo tiempo, mantener la gobernanza, el cumplimiento y la seguridad.
Un nuevo Guía del comprador para el control del uso de la IA sostiene que las empresas han entendido mal de manera fundamental dónde reside el riesgo de la IA. El descubrimiento del uso de la IA y la eliminación de la IA «oculta» también se abordarán en una próxima edición almuerza y aprende de forma virtual .
La sorprendente verdad es que la seguridad de la IA no es un problema de datos ni de aplicaciones. Es un problema de interacción. Y las herramientas antiguas no están diseñadas para ello.
IA en todas partes, visibilidad en ninguna
Si le preguntas a un líder de seguridad típico cuántas herramientas de IA utilizan sus empleados, obtendrás una respuesta. Pregúnteles cómo lo saben y la sala quedará en silencio.
La guía revela una verdad incómoda: la adopción de la IA ha superado la visibilidad y el control de la seguridad de la IA en años, no en meses.
La IA está integrada en las plataformas SaaS, las suites de productividad, los clientes de correo electrónico, los CRM, los navegadores, las extensiones e incluso en los proyectos paralelos de los empleados. Los usuarios cambian entre las identidades de IA corporativas y personales, a menudo en la misma sesión. Los flujos de trabajo de las agencias encadenan las acciones entre varias herramientas sin una atribución clara.
Sin embargo, la empresa promedio no tiene un inventario confiable del uso de la IA, y mucho menos controla cómo fluyen las solicitudes, las cargas, las identidades y las acciones automatizadas en todo el entorno.
No se trata de un problema de herramientas, es de arquitectura. Los controles de seguridad tradicionales no funcionan en el punto en el que realmente se producen las interacciones de la IA. Esta brecha es precisamente la razón por la que el control del uso de la IA ha surgido como una nueva categoría creada específicamente para regular el comportamiento de la IA en tiempo real.
El control del uso de la IA le permite controlar las interacciones de la IA
El AUC no es una mejora de la seguridad tradicional, pero una capa de gobernanza fundamentalmente diferente en el punto de interacción de la IA.
Un AUC efectivo requiere tanto el descubrimiento como la aplicación en el momento de la interacción , impulsada por señales de riesgo contextuales, no por listas de permisos estáticas ni flujos de red.
En resumen, el AUC no solo responde: «¿Qué datos dejó la herramienta de inteligencia artificial?»
Responde: «¿Quién usa la IA? ¿Cómo? ¿Con qué herramienta? ¿En qué sesión? ¿Con qué identidad? ¿En qué condiciones? ¿Y qué pasó después?»
Este cambio de del control centrado en las herramientas a la gobernanza centrada en la interacción es donde la industria de la seguridad necesita ponerse al día.
Por qué la mayoría de los «controles» de la IA no son realmente controles
Los equipos de seguridad caen constantemente en las mismas trampas cuando intentan proteger el uso de la IA:
- Tratar el AUC como una función de casilla de verificación dentro de CASB o SSE
- Confiar exclusivamente en la visibilidad de la red (que pasa por alto la mayoría de las interacciones de la IA)
- Indexación excesiva en el momento de la detección sin aplicación
- Ignorar las extensiones del navegador y las aplicaciones nativas de IA
- Suponer que la prevención de la pérdida de datos por sí sola es suficiente
Cada una de ellas crea una postura de seguridad peligrosamente incompleta. La industria ha estado intentando adaptar los controles antiguos a un modelo de interacción completamente nuevo, pero simplemente no funciona.
El AUC existe porque no se creó ninguna herramienta antigua para esto.
El control del uso de la IA es más que solo visibilidad
En el control del uso de la IA, la visibilidad es solo el primer punto de control, no el destino. Es importante saber dónde se utiliza la IA, pero la verdadera diferencia radica en la forma en que una solución entiende, gobierna y controla las interacciones de la IA en el momento en que se producen. Los líderes de seguridad suelen pasar por cuatro etapas:
- Descubrimiento : Identifique todos los puntos de contacto de la IA: aplicaciones sancionadas, aplicaciones de escritorio, copilotos, interacciones basadas en el navegador, extensiones de IA, agentes y herramientas de IA oculta. Muchos suponen que el descubrimiento define el alcance total del riesgo. En realidad, la visibilidad sin un contexto de interacción a menudo conduce a una percepción exagerada del riesgo y a respuestas burdas, como la prohibición generalizada de la IA.
- Conciencia de la interacción : El riesgo de la IA se produce en tiempo real mientras se escribe un mensaje, se resume automáticamente un archivo o un agente ejecuta un flujo de trabajo automatizado. Es necesario ir más allá de «qué herramientas se utilizan» y pasar a «qué están haciendo realmente los usuarios». No todas las interacciones de la IA son riesgosas y la mayoría son benignas. Comprender las instrucciones, las acciones, las cargas y los resultados en tiempo real es lo que diferencia el uso inofensivo de la exposición real.
- Identidad y contexto: Las interacciones de la IA suelen eludir los marcos de identidad tradicionales y se producen a través de cuentas personales de IA, sesiones de navegador no autenticadas o extensiones no administradas. Dado que las herramientas antiguas asumen que la identidad equivale al control, pasan por alto la mayor parte de esta actividad. El AUC moderno debe vincular las interacciones con identidades reales (corporativas o personales), evaluar el contexto de la sesión (posición del dispositivo, ubicación, riesgo) y aplicar políticas adaptativas basadas en el riesgo. Esto permite realizar controles detallados, como: «Permita que los resúmenes de marketing se publiquen en cuentas que no estén relacionadas con el SSO, pero bloquee la subida de modelos financieros desde identidades no corporativas».
- Control en tiempo real : Aquí es donde los modelos tradicionales se rompen. Las interacciones de la IA no son adecuadas para permitir o bloquear el pensamiento. Las soluciones de AUC más sólidas funcionan con matices: la redacción, las advertencias a los usuarios en tiempo real, la elusión y las barreras que protegen los datos sin interrumpir los flujos de trabajo.
- Ajuste arquitectónico : La etapa más subestimada pero decisiva. Muchas soluciones requieren agentes, proxies, redireccionamiento del tráfico o cambios en la pila de SaaS. Estas implementaciones suelen estancarse o pasarse por alto. Los compradores se dan cuenta rápidamente de que la arquitectura ganadora es la que se adapta perfectamente a los flujos de trabajo existentes y aplica las políticas en el momento en que la IA interactúa.
Consideraciones técnicas: guía la cabeza, pero la facilidad de uso impulsa el corazón
Si bien la adecuación técnica es fundamental, los factores no técnicos suelen decidir si una solución de seguridad de IA tiene éxito o fracasa:
- Gastos generales operativos — ¿Se puede implementar en horas o requiere semanas de configuración de terminales?
- Experiencia de usuario — ¿Los controles son transparentes y mínimamente disruptivos, o generan soluciones alternativas?
- Prepárese para el futuro — ¿El proveedor tiene una hoja de ruta para adaptarse a las herramientas de IA emergentes, la IA de agencia, los flujos de trabajo autónomos y los regímenes de cumplimiento, o está comprando un producto estático en un campo dinámico?
Estas consideraciones tienen que ver menos con las «listas de verificación» y más con la sostenibilidad, lo que garantiza que la solución pueda escalar tanto con la adopción organizacional como con el panorama más amplio de la IA.
El futuro: la gobernanza centrada en la interacción es la nueva frontera de la seguridad
La IA no va a desaparecer y los equipos de seguridad deben pasar del control perimetral a gobernanza centrada en la interacción .
La Guía del comprador para el control del uso de la IA ofrece un marco práctico e independiente del proveedor para evaluar esta categoría emergente. Para los CISO, los arquitectos de seguridad y los profesionales técnicos, establece:
- Qué capacidades son realmente importantes
- Cómo distinguir el marketing de la sustancia
- Y por qué el control contextual en tiempo real es el único camino escalable hacia adelante
El control del uso de la IA no es solo una categoría nueva; es la siguiente fase de la adopción segura de la IA. Replantea el problema, pasando de la prevención de la pérdida de datos a la gobernanza del uso, alineando la seguridad con la productividad empresarial y los marcos de riesgo empresarial. Las empresas que dominen la gobernanza del uso de la IA desbloquearán todo el potencial de la IA con confianza.
Descargar el Guía del comprador para el control del uso de la IA explorar los criterios, las capacidades y los marcos de evaluación que definirán la adopción segura de la IA en 2026 y más allá.
Únete al almuerza y aprende de forma virtual : Descubrir el uso de la IA y eliminar la IA «oculta».
Post generado automáticamente, fuente oficial de la información: THEHACKERNEWS