La capa de identidad que falta en la cadena de eliminación de la IA 

La identidad se está convirtiendo rápidamente en el hilo conductor para lograr la gobernanza de la IA y la protección contra las amenazas modernas.
Silverfort Imagen
Banner del blog de AI Kill Chain

NVIDIA publicó recientemente un potente marco de trabajo: "The AI ​​Kill Chain", que mapea cómo se desarrollan los ataques contra aplicaciones basadas en IA. Es uno de los intentos más claros hasta la fecha de estructurar una frontera de seguridad cada vez más caótica. El marco muestra cómo los adversarios pasan del reconocimiento y el envenenamiento de datos a la explotación y el comando y control, proporcionando a los equipos de seguridad un lenguaje común para comprender las amenazas específicas de la IA. 

Lo que hace que esto sea valioso es que refleja la curva de madurez que vimos en la ciberseguridad tradicional. Una vez que aprendimos a modelar cómo piensan los atacantes, pudimos diseñar defensas que anticiparan en lugar de reaccionar. Pero como Los sistemas de IA evolucionan de modelos pasivos a agentes autónomosNos enfrentamos a algo nuevo: estos agentes portan credenciales, acceden a recursos confidenciales y actúan en nombre de los usuarios; sin embargo, su comportamiento es mucho menos predecible que el de cualquier humano. Por eso, la identidad debe ser el centro de atención. No solo lo que el agente puede hacer, sino quién actúa como tal y bajo qué autoridad. 

El paso de los sistemas a los actores

En arquitecturas convencionales, los sistemas procesan entradas. En entornos impulsados ​​por IA, actúan. 

Los agentes de IA consultan bases de datos, envían mensajes, activan flujos de trabajo y, en ocasiones, toman decisiones sobre políticas. Son, en efecto, nuevos actores en la empresa. Cada uno opera bajo una identidad que incluye credenciales, permisos y patrones de comportamiento. 

Esa identidad es lo que convierte a un sistema de IA de un modelo a un agente. Y al igual que los usuarios humanos o cuentas de servicioEsas identidades pueden ser pirateadas, sobrepermitidas o dejadas sin supervisión. Esto cambia nuestra interpretación de cada fase de la cadena de eliminación. 

Reconocimiento No se trata solo de mapear sistemas. Se trata de descubrir qué agentes existen, a qué pueden acceder y a quiénes representan. 

Explotación Sucede cuando un atacante manipula la lógica de un agente para realizar una acción legítima con intención ilegítima. 

Comando y control pasa del acceso remoto al control delegado, utilizando la identidad confiable del agente para operar de manera invisible dentro del entorno. 

En el momento en que analizamos los ataques de IA desde la perspectiva de la identidad, el problema cambia. En lugar de preguntarnos "¿Cómo protegemos el modelo?", deberíamos preguntarnos "¿Cómo controlamos quién actúa como modelo?". 

Un escenario en movimiento

Imagine un asistente de IA en finanzas diseñado para conciliar facturas. Está integrado con sistemas de pago y cuenta con credenciales para aprobar pequeñas transacciones automáticamente. Un mensaje malicioso modifica sutilmente la lógica que define "pequeña" y el agente comienza a aprobar transferencias más grandes. Todo dentro de sus permisos permitidos. 

Ninguna detección de anomalías lo detecta, porque técnicamente nada infringe la política. La vulneración no se debe a un fallo del modelo, sino a un uso indebido de la identidad. El sistema hacía exactamente lo que se le permitía, pero bajo un criterio erróneo. 

Aquí es donde la identidad se convierte en el tejido conectivo a lo largo de la cadena de eliminación de la IA. Cada fase (reconocimiento, explotación y control) depende de la visibilidad de quién o qué está actuando, bajo qué autoridad y dentro de qué límites. 

Convertir la cadena de muerte en una cadena de confianza

La seguridad de la identidad incorpora disciplinas que se relacionan directamente con la defensa de la IA: privilegio mínimo, seguridad continua autenticación, líneas de base de comportamiento y atribución trazable. Juntos, transforman los controles reactivos en seguridad proactiva. Yo lo llamaría una cadena de confianza para la IA. 

En esa cadena: 

  • Toda acción conlleva un contexto: quién la inició, en nombre de quién y dentro de qué alcance. 
  • Toda desviación del comportamiento esperado puede ser observada, auditada y gobernada. 

Al conectar modelos basados ​​en el ciclo de vida, como AI Kill Chain, con controles que tienen en cuenta la identidad, comenzamos a cerrar el círculo entre cómo se desarrollan los ataques y quién los permite. 

Mirando hacia el futuro

Con el tiempo, la identidad se convertirá en la capa organizadora de la gobernanza de la IA. Así como en su momento centralizamos la gestión del acceso para los usuarios humanos, Pronto haremos lo mismo para los agentes de IA.Definiremos, supervisaremos y autenticaremos a cada actor digital de la empresa. 

La cadena de eliminación de IA nos ayuda a ver cómo se mueven los adversarios. 

La identidad nos dice a través de quiénes se mueven. 

Unir estas dos perspectivas es la manera de convertir la IA de un sistema opaco en uno confiable. No frenando la innovación, sino haciendo que la rendición de cuentas sea escalable. 

¿Quieres ver cómo se ve esto en la práctica? Lee nuestro Desglose del GTG-1002, la primera campaña cibernética documentada y lo que indica para los defensores. 

Nos atrevimos a llevar la seguridad de la identidad aún más lejos.

Descubra lo que es posible.

Configure una demostración para ver el Silverfort Plataforma de seguridad de identidad en acción.