4 formas en que los agentes de IA cambian la forma en que abordamos la seguridad de la identidad

Silverfort Imagen
Imagen destacada del blog de IA general

Como si obtener visibilidad de todas las identidades humanas y no humanas no fuera una tarea suficientemente compleja para los equipos de seguridad, la incorporación de agentes de IA lleva la complejidad de la identidad a un nuevo nivel. Organizaciones de todos los tamaños se enfrentan a esta nueva realidad, donde parece prematuro afirmar con seguridad que conocen todos los agentes de IA que se ejecutan en su entorno. 

Esa incertidumbre no es una brecha de conocimiento. Es una superficie de ataque. 

Nuevo informe de Gartner sobre IAM para agentes de IA nombra la verdadera verdad: “El propósito/intención no se puede descubrir después del hecho mediante capacidades de monitoreo y observación”.

Informe de Gartner®

Tendencia en ciberseguridad: IAM se adapta para proteger y habilitar agentes de IA

Eso no es solo analista idioma. Es un cambio fundamental en cómo debemos pensar sobre los agentes gobernantes. No se puede gobernar a los agentes observándolos a posteriori. Debes Saber quiénes son, para qué sirven y quién es responsable. antes ellos corren 

Los números que deberían cambiar tus prioridades

Los datos de Gartner refuerzan la urgencia. Para 2029, más del 50 % de los ataques exitosos contra agentes de IA explotarán vulnerabilidades en el control de acceso. Para el año anterior, el 90 % de las organizaciones que comparten credenciales entre humanos y agentes deberán realizar inversiones significativas para revertir este diseño.

Gráfico estadístico 18 (1) de Gartner IAM para agentes de IA

Esas cifras son consecuencias, no causas. La causa raíz es estructural: la madurez de la gestión de identidades y accesos (IAM) para los agentes es desigual. La evaluación de madurez del ciclo de vida de Gartner lo pone de manifiesto. Las capacidades de autenticación y monitorización están relativamente maduras. El registro y la autorización de identidad no lo están. Esa brecha es la historia. 

Un registro de identidad deficiente significa que el agente nunca se incorporó correctamente como identidad. No tiene un propietario definido. No tiene un propósito declarado. No tiene un alcance documentado. Tiene credenciales y está en funcionamiento, pero nadie puede decir quién lo creó, qué se supone que debe hacer ni qué sucede si falla. Cuando el registro es deficiente, la propiedad no está clara. Y cuando la propiedad no está clara, no existe rendición de cuentas. 

Una autorización débil significa que el agente tiene más acceso del que necesita. Puede acceder a bases de datos, API y flujos de trabajo ajenos a su función prevista. Nadie lo limitó porque nadie definió qué significa "inactividad". Cuando la autorización es débil, los privilegios son excesivos.

Ahora combine el privilegio excesivo con la autonomía. Un agente que puede razonar, encadenar herramientas y actuar por sí solo.Con más acceso del que debería tener y sin nadie claramente responsable de sus acciones. Esa es la superficie de ataque explotable. Esa es la cadena que revelan los datos de Gartner.

No puedes proteger lo que no puedes ver

Antes de poder gobernar agentes, necesitas encontrarlos. Todos. No solo los que tu equipo de plataforma autorizó. Los que los desarrolladores crearon para resolver un problema. Los que construyeron los contratistas. Los que existen porque alguien necesitaba "hacer que funcionara". 

Escuchamos esto constantemente de los equipos de seguridad. Como lo expresó un gerente de seguridad de la información de una empresa de servicios profesionales: «No nos enteramos hasta que alguien realiza una auditoría real del sistema». 

La evaluación de Gartner lo confirma: el registro de identidad es una de las capacidades de IAM menos desarrolladas para los agentes de IA. La mayoría de las organizaciones no pueden responder a las preguntas básicas: ¿Qué debe hacer este agente? ¿Quién es su propietario? ¿Qué ocurre si falla? 

El descubrimiento no es una casilla de verificación. Es la base. Sin él, toda política que se desarrolle se basará en suposiciones, y estas no sobrevivirán al primer contacto con agentes autónomos que operan a la velocidad de una máquina.

La brecha en el registro de identidad

La mayoría de las organizaciones intentan controlar a los agentes con las herramientas equivocadas. Monitorean y registran. Pero el monitoreo indica qué sucedió. El registro de identidad indica qué debería suceder. La autorización refuerza la frontera entre ambos. 

Si su modelo de gobernanza depende de detectar los problemas después de que ocurren, siempre estará rezagado. 

Aquí es donde muchas organizaciones recurren a herramientas familiares. Las plataformas IGA pueden ayudar con el registro y la gestión del ciclo de vida. Soluciones IAM como Okta o Entra ID Pueden registrar la identidad de los agentes. Estos son pasos necesarios. Pero no se limitan a eso. Pueden indicar la existencia de un agente y quién lo solicitó. No pueden imponer nada en el momento en que el agente actúa. 

Esa es la brecha: la gobernanza en el papel versus la aplicación en la producción. 

Los agentes son identidades, pero no como ninguna otra que hayas gestionado antes.

Según mi interpretación de las recomendaciones de Gartner, hay un hilo conductor: tratar a los agentes de IA como tratarías a cualquier identidad de tu organización. Se autentican. Acceden a los recursos. Actúan en nombre de alguien. Eso no es una herramienta. Es una identidad. 

Pero los agentes son más complejos que las identidades tradicionales. Son lo que llamamos identidades compuestas. Combinan la rapidez de las cuentas de servicio con la imprevisibilidad de la toma de decisiones humana a la velocidad de una máquina.

Cuatro razones que los hacen diferentes: 

  • Actúan de forma autónoma, a diferencia de las cuentas de servicio que ejecutan operaciones predefinidas.
  • Pueden heredar la delegación humana, lo que crea un riesgo de escalada de privilegios.
  • Pueden encadenar múltiples identidades de máquinas en una sola tarea.
  • Pueden operar a través de límites de confianza que su sistema IAM no fue diseñado para manejar.

Piensa en cómo incorporas a un empleado. No le das acceso de administrador desde el primer día. Defines su rol, su gerente y su alcance. Revisas su acceso a medida que cambian las responsabilidades. Los agentes necesitan ese mismo ciclo de vida. Pero ahora mismo, la mayoría de las organizaciones pasan directamente a "darles credenciales y esperar que todo salga bien". 

Cómo se ve realmente la aplicación del tiempo de ejecución

Gartner señala la brecha de autorización. Pero ¿cómo se reduce en la práctica? 

Incluso los sistemas IAM modernos, incluyendo el acceso condicional y la evaluación continua, se diseñaron principalmente para evaluar quién inicia sesión y qué se le permite hacer a esa identidad. Los agentes plantean un problema diferente: no solo inician sesión. Ellos ejecutan. Invocan herramientas dinámicamente. Operan en múltiples contextos de identidad dentro de una misma tarea. 

El acceso condicional tradicional evalúa que está iniciando sesión y bajo Lo que condiciones. La gobernanza de los agentes también debe evaluar lo que se está ejecutadoen el momento de la ejecución. 

Así es como se ve: Un agente está a punto de llamar a una herramienta, leer de una base de datos, activar una API o ejecutar un flujo de trabajo. Antes de que esto ocurra, hay un punto de decisión. La aplicación en tiempo de ejecución evalúa la identidad compuesta: el propietario humano, el propio agente, las credenciales de la herramienta y el propósito definido, todo en tiempo de ejecución. ¿Está autenticado este agente? ¿Tiene permiso para esta acción específica? ¿Es este comportamiento coherente con su función prevista? 

Esto es cumplimiento en tiempo de ejecución. No políticas de configuración que asumen que el agente se comportará según lo diseñado. Decisiones en tiempo de ejecución, siempre.

Tabla del informe de Gartner IAM AI

Lo que Silverfort hace diferente

Si el patrón de fallo es la inmadurez de la identidad, el punto de control también debe ser la identidad. La mayoría de los enfoques de seguridad de los agentes de IA comienzan en la capa de modelo o de aplicación. Comenzamos en la capa de identidad.. Porque si la identidad no está controlada, todo... above es frágil 

Responsabilidad humana por diseño

Cada agente de IA está vinculado explícitamente a un propietario humano real en la política. No de manera informal. No en la documentación. En la lógica de aplicación.

Cada acción se puede rastrear hasta una verdadera cadena de responsabilidad: qué humano posee este agente, con qué identidad opera y qué credenciales utiliza para acceder a los recursos. A eso nos referimos con identidad compuesta. Y es lo que posibilita la aplicación de la ley incluso antes de que comience la supervisión.

Conexión humana con el agente de IA
Agente de IA vinculado a un propietario humano en SilverfortSolución de seguridad del agente de inteligencia artificial de

Aplicación del tiempo de ejecución en la capa de identidad

Silverfort Se aplica en el punto de decisión de identidad durante la ejecución. Para los agentes conectados a MCP, esto significa estar en línea entre el agente y el servidor MCP. Para los agentes nativos de la plataforma, la aplicación se realiza mediante la integración nativa, directamente en la plataforma. 

Antes de ejecutar una llamada a una herramienta, evaluamos la identidad, el contexto, la delegación y la política en tiempo real. Si la acción excede el alcance, no se ejecuta. Esto no es IAM en tiempo de configuración, sino cumplimiento de identidad en tiempo de ejecución. Esta distinción es importante. 

Blog

Presentamos el Silverfort Servidor MCP: Donde los agentes de IA se unen a la seguridad de la identidad

El menor privilegio que sobrevive a la autonomía

El privilegio mínimo estático asume un comportamiento predecible. Los agentes rompen esta suposición. Razonan. Encadenan herramientas. Se desvían de lo que originalmente estaban autorizados a hacer. El privilegio mínimo debe validarse en tiempo de ejecución, no solo al aprovisionar. 

Esto significa que si un agente intenta acceder a un recurso fuera de su propósito declarado, se bloquea. Si los privilegios delegados empiezan a expandirse más allá de su alcance original, se contienen. Este es el mismo modelo de cumplimiento que aplicamos a personas y cuentas de servicio, ahora extendido a los agentes de IA.

Una plataforma de seguridad de identidad

AI Agent Security no es un producto independiente. Los agentes se encuentran en la intersección de identidades humanas, identidades no humanas, cuentas de servicio, recursos en la nube, aplicaciones SaaS y capas de protocolo como MCP. Si estos dominios se protegen por separado, los agentes explotarán las fisuras. 

Silverfort Unifica todo esto. Un marco de políticas. Una capa de observabilidadUna única arquitectura de cumplimiento. Para humanos, máquinas e IA. Esa es la diferencia arquitectónica.

Habilitar la innovación en IA sin ralentizarla

Los líderes de seguridad no intentan frenar la adopción de la IA. Buscan asegurarse de que no supere su capacidad para gestionarla. Las organizaciones que avanzan más rápido con agentes de IA son las que se dieron cuenta pronto: un modelo de seguridad adecuado es una ventaja en velocidad, no un lastre. 

Los coches tienen frenos para que puedas conducir rápido. El mismo principio se aplica aquí. 

Pero los frenos solo funcionan si están conectados al mismo sistema. Hoy en día, la mayoría de las organizaciones protegen las identidades humanas en una herramienta, las cuentas de servicio en otra y los agentes de IA (si los hay) en una tercera. Si estos dominios se protegen por separado, los agentes explotarán las fisuras. 

Esa es la razón por la que los equipos necesitan un enfoque unificado. Plataforma de seguridad de identidad. 

  • Un marco de políticas permite que un CISO defina una sola vez que «ningún agente accede a los datos de producción sin aprobación humana» y que esta política se aplique a todos los agentes, plataformas y protocolos. Sin necesidad de configuración por herramienta. Sin brechas de cobertura.
  • Una capa de observabilidad significa que cuando un agente actúa, se ve la cadena completa: qué humano lo activó, con qué NHI se autenticó, a qué herramienta accedió y qué datos accedió. No se trata de tres paneles de control integrados a posteriori, sino de una vista única que permite responder a incidentes en minutos en lugar de días.
  • Un punto de cumplimiento significa que la política se aplica en tiempo de ejecución, en el momento de la acción, no de forma retroactiva mediante revisiones de acceso trimestrales. Cuando un agente solicita acceso, la decisión se toma en línea. Permitir, denegar o aumentar. Antes de que se ejecute la acción, no después. 

Esto es lo que transforma la seguridad de los agentes de IA de un ejercicio de gobernanza a una capacidad operativa. El descubrimiento revela lo que existe. El registro revela quién es el propietario. La ejecución en tiempo de ejecución indica a los agentes qué pueden hacer realmente, en cada momento. 

Los agentes de IA representan la próxima frontera de la identidad. La seguridad de la identidad debe evolucionar en consecuencia, desde la mera gobernanza hasta... cumplimiento continuo en tiempo de ejecuciónDescubra qué se está ejecutando. Registre a su propietario. Aplique la ley al momento de la ejecución. Ese es el camino. 

Vale la pena leer el informe de Gartner completo. Descárguelo aquí: https://www.gartner.com/document-reader/document/7308930?ref=pubsite.

¿Quieres aprender cómo? Silverfort ¿Descubre y protege las identidades de los agentes de IA?

Nos atrevimos a llevar la seguridad de la identidad aún más lejos.

Descubra lo que es posible.

Configure una demostración para ver el Silverfort Plataforma de seguridad de identidad en acción.