Offrez un café pour soutenir cette veille indépendante.
☕ Je soutiens DCODLe WEF alerte sur les agents IA non sécurisés : une cybermenace croissante, encore trop souvent négligée par les entreprises et les équipes sécurité.
En bref
- Le nombre d’identités non humaines et agentiques devrait dépasser 45 milliards cette année, soit 12 fois plus que la main-d’œuvre mondiale humaine, selon le World Economic Forum.
- Seuls 10 % des dirigeants interrogés déclarent avoir une stratégie claire pour gérer ces identités, malgré leur rôle croissant dans les entreprises.
- Les agents IA reposent sur des jetons API ou certificats cryptographiques, difficiles à tracer et gérer, ce qui complique la sécurité et les audits.
- Des attaques comme l’injection de prompt ou l’exploitation de permissions excessives peuvent détourner les agents IA et exposer des données sensibles.
L’essor des agents d’intelligence artificielle transforme profondément le fonctionnement des entreprises. Déployés massivement dans des fonctions allant du développement à la finance, ils promettent gain de productivité et autonomie. Mais cette adoption rapide s’accompagne d’un déficit évident de gouvernance et de sécurité, exposant les organisations à des cybermenaces inédites et difficiles à maîtriser.
L’explosion des identités non humaines et ses implications
Selon une analyse du World Economic Forum, le nombre d’identités agentiques pourrait atteindre 45 milliards cette année. Cette croissance exponentielle dépasse largement les capacités de contrôle actuelles des équipes de cybersécurité. Or, près de 80 % des violations de sécurité impliquent déjà des identités compromises. Dans ce contexte, les identités IA deviennent une surface d’attaque idéale pour les cybercriminels.
Les organisations sont incitées à donner un accès étendu à ces agents pour maximiser leur efficacité. Mais plus leurs privilèges augmentent, plus les risques de fuites de données, d’actions non autorisées ou de compromissions totales de systèmes se multiplient. La menace de l’injection de prompt illustre bien ce danger : une simple manipulation peut amener un agent à révéler des informations confidentielles. Ces vecteurs d’attaque ajoutent une couche de complexité aux défenses déjà mises à rude épreuve par le phishing, les rançongiciels ou les malwares dopés à l’IA générative.
Autre particularité, les agents IA ne s’authentifient pas comme les humains. Ils utilisent des jetons API ou certificats cryptographiques, souvent invisibles aux yeux des responsables sécurité. Cette différence complique leur suivi et leur révocation, notamment après une compromission. Sans processus strict de provisionnement et de déprovisionnement, une organisation risque de laisser traîner des identités dormantes, facilement exploitables.
Gouverner l’identité des agents IA : un défi inédit
Contrairement aux employés, dont les accès sont définis dès l’embauche et sécurisés par des méthodes éprouvées comme l’authentification multifactorielle, les agents IA possèdent des cycles de vie plus dynamiques et imprévisibles. Certains n’ont besoin que de droits limités pour quelques heures, tandis que d’autres requièrent un accès permanent à des données sensibles. Cette variabilité rend cruciale la mise en place de politiques d’accès granulaires, capables de limiter strictement permissions et durées.
De plus, la traçabilité pose problème. Les journaux d’activité des agents IA sont souvent moins précis que ceux des utilisateurs humains, ce qui entrave les audits post-incident. Un agent compromis peut ainsi agir pendant longtemps sans être détecté, augmentant le coût et la complexité des enquêtes de remédiation.
Les chercheurs insistent donc sur l’importance d’un tissu de sécurité identitaire. Ce concept consiste à sécuriser uniformément toutes les identités — humaines, non humaines et agentiques — dans chaque application, ressource et scénario. Une telle approche permet de combler les angles morts actuels et de créer un socle de confiance indispensable pour déployer l’IA à grande échelle.
Vers une cybersécurité adaptée à l’IA autonome
La plupart des organisations n’en sont qu’aux débuts de leur expérience avec les agents IA. Cette phase de transition représente une opportunité unique pour intégrer dès maintenant les bonnes pratiques de gouvernance. Qu’il s’agisse d’agents développés en interne ou achetés auprès de tiers, leur conception doit intégrer par défaut des mécanismes de sécurité identitaire.
Trois priorités se dégagent : la sécurité, l’interopérabilité et la visibilité. La sécurité impose de limiter au maximum les autorisations et durées d’accès. L’interopérabilité doit reposer sur des standards tels que Model Context Protocol (MCP), garantissant que les agents puissent se connecter sans sacrifier la protection. Enfin, la visibilité suppose un suivi permanent des actions et comportements des agents, afin de détecter rapidement toute anomalie.
À mesure que les cas d’usage se multiplient, les responsabilités des équipes de cybersécurité s’élargissent. La protection des agents IA ne se résume pas à une configuration initiale : elle exige un engagement continu, une gouvernance stricte et des contrôles renforcés. Les entreprises capables d’intégrer ces exigences dans leur culture numérique seront les mieux positionnées pour exploiter les bénéfices de l’IA sans en subir les dérives.
La généralisation des agents IA autonomes est inévitable. Mais leur sécurisation ne doit pas rester un angle mort. L’identité, cœur de la confiance numérique, sera l’élément décisif pour éviter que ces nouveaux acteurs ne deviennent les maillons faibles des infrastructures critiques.
💡 Ne manquez plus l'essentiel
Recevez les analyses et tendances cybersécurité directement dans votre boîte mail.
💡 Note : Certaines images ou extraits présents dans cet article proviennent de sources externes citées à des fins d’illustration ou de veille. Ce site est indépendant et à but non lucratif. 👉 En savoir plus sur notre cadre d’utilisation.
Vous appréciez ces analyses ?
Soutenez DCOD en offrant un café ☕