NVIDIA a récemment publié un cadre d'analyse puissant : « La chaîne d'attaque de l'IA », qui décrit le déroulement des attaques contre les applications basées sur l'IA. Il s'agit de l'une des tentatives les plus abouties à ce jour pour structurer un domaine de la sécurité de plus en plus chaotique. Ce cadre d'analyse montre comment les adversaires passent de la reconnaissance et de l'empoisonnement des données à l'exploitation et au contrôle, offrant ainsi aux équipes de sécurité un langage commun pour comprendre les menaces spécifiques à l'IA.
Ce qui rend cette approche précieuse, c'est qu'elle reflète la courbe de maturité observée en cybersécurité traditionnelle. Une fois que nous avons appris à modéliser le raisonnement des attaquants, nous avons pu concevoir des défenses proactives plutôt que réactives. Mais comme Les systèmes d'IA évoluent de modèles passifs à des agents autonomesNous sommes confrontés à une situation inédite : ces agents possèdent des identifiants, accèdent à des ressources sensibles et agissent pour le compte des utilisateurs, mais leur comportement est bien moins prévisible que celui d’un être humain. C’est pourquoi l’identité doit être au cœur des préoccupations. Il ne s’agit pas seulement de savoir ce que l’agent peut faire, mais aussi qui il représente et sous l’autorité de qui.
Le passage des systèmes aux acteurs
Dans les architectures classiques, les systèmes traitent des données d'entrée. Dans les environnements pilotés par l'IA, ils agissent.
Les agents d'IA interrogent des bases de données, envoient des messages, déclenchent des flux de travail et prennent parfois des décisions stratégiques. Ils constituent, de fait, de nouveaux acteurs au sein de l'entreprise. Chacun opère sous une identité dotée d'identifiants, d'autorisations et de modèles comportementaux.
C’est cette identité qui transforme un système d’IA d’un modèle en un agent. Et tout comme les utilisateurs humains ou comptes de serviceCes identités peuvent être usurpées, bénéficier de trop d'autorisations ou rester sans surveillance. Cela modifie notre interprétation de chaque étape de la chaîne d'attaque.
Reconnaissance Il ne s'agit pas seulement de cartographier les systèmes. Il s'agit de découvrir quels agents existent, à quoi ils ont accès et qui ils représentent.
Exploitation Cela se produit lorsqu'un attaquant manipule la logique d'un agent pour effectuer une action légitime avec une intention illégitime.
Commander et contrôler passe d'un accès à distance à un contrôle délégué, utilisant l'identité de confiance de l'agent pour opérer de manière invisible au sein de l'environnement.
Dès lors que l'on aborde les attaques d'IA sous l'angle de l'identité, le problème change de perspective. Au lieu de se demander « Comment protéger le modèle ? », il faudrait se demander « Comment contrôler qui le modèle représente ? »
Un scénario en mouvement
Imaginez un assistant IA en finance, conçu pour le rapprochement des factures. Intégré aux systèmes de paiement, il est autorisé à approuver automatiquement les petites transactions. Un message malveillant modifie subtilement la définition de « petite transaction », et l'assistant commence à approuver des transferts plus importants, le tout dans le cadre de ses permissions.
Aucun système de détection d'anomalies ne le signale, car techniquement, rien ne contrevient à la politique de sécurité. La faille ne provient pas d'une défaillance du modèle, mais d'une utilisation abusive de l'identité. Le système fonctionnait conformément à ses autorisations, mais suite à une mauvaise interprétation.
C’est là que l’identité devient le tissu conjonctif de la chaîne de destruction de l’IA. Chaque phase (reconnaissance, exploitation et contrôle) dépend de la visibilité sur qui ou quoi agit, sous l'autorité de qui et dans quelles limites.
Transformer la chaîne de destruction en chaîne de confiance
La sécurité des identités implique des disciplines directement liées à la défense contre l'IA : le principe du moindre privilège et la sécurité continue. protocoles d'authentificationDes référentiels comportementaux et une attribution traçable permettent de transformer les contrôles réactifs en une assurance proactive. J'appellerais cela une chaîne de confiance pour l'IA.
Dans cette chaîne :
- Chaque action a un contexte : qui l'a initiée, au nom de qui et dans quel cadre.
- Tout écart par rapport au comportement attendu peut être observé, audité et contrôlé.
En reliant des modèles basés sur le cycle de vie, comme la chaîne d'attaque IA, à des contrôles prenant en compte l'identité, nous commençons à boucler la boucle entre la manière dont les attaques se déroulent et ceux qui permettent leur déroulement.
Regarder vers l'avenir
Avec le temps, l'identité deviendra la couche organisatrice de la gouvernance de l'IA. De la même manière que nous avons autrefois centralisé la gestion des accès pour les utilisateurs humains, Nous ferons bientôt de même pour les agents IANous allons définir, surveiller et authentifier chaque acteur numérique de l'entreprise.
La chaîne d'élimination par IA nous aide à voir comment les adversaires se déplacent.
L'identité nous indique par qui ils passent.
C’est en conciliant ces deux perspectives que nous transformerons l’IA, d’un système opaque, en un système digne de confiance. Non pas en freinant l’innovation, mais en rendant la responsabilisation accessible à tous.
Vous voulez voir à quoi cela ressemble en pratique ? Lisez notre Décomposition du GTG-1002, la première campagne cybernétique automatisée documentée – et ce qu’elle révèle aux défenseurs.