DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
Navigation
  • Accueil
  • Cyber-attaques / fraudes
  • Intelligence artificielle
  • Failles / vulnérabilités
  • Pertes / vols de données
  • Cybercrime
  • Législation
Les derniers articles
  • Illustration de la décision de la FCC : un routeur Wi-Fi blanc branché à côté du drapeau américain, symbolisant les routeurs étrangers bannis pour protéger la sécurité des réseaux US (logo DCOD).
    FCC : les routeurs étrangers bannis pour protéger les réseaux US
  • Plan moyen d'une jeune femme marchant dans une rue animée de San Francisco, portant des lunettes de soleil noires de style Ray-Ban et tenant son smartphone. Derrière elle, on aperçoit un cable car et une foule de piétons. Cette image illustre la scène de l'article sur l'application Nearby Glasses, qui alerte sur la présence de lunettes intelligentes Meta Ray-Ban.
    Meta Ray-Ban : l’app Nearby Glasses alerte sur les lunettes intelligentes
  • Photographie d'illustration pour la veille cyberattaque : une silhouette portant un sweat à capuche noir est assise de dos devant plusieurs écrans d'ordinateur affichant du code vert complexe et des données. L'environnement est une salle serveur sombre, éclairée par les lueurs bleues des écrans et des lumières oranges en arrière-plan, évoquant un hacker ou un analyste en action.
    Cyberattaques : les 10 incidents majeurs du 31 mars 2026
  • Interface de recherche Google affichant un bloc « AI Overview » détaillant les cyberarnaques de 2025-2026 (deepfakes, phishing) sur un fond graphique rose avec le logo DCOD.
    Google AI Overviews désormais utilisé pour des arnaques
  • Représentation conceptuelle de la surveillance domestique : une maison entourée d'ondes WiFi symbolisant la capacité du projet RuView à pister les mouvements à travers les murs.
    RuView : pister les humains à travers les murs grâce au WiFi
Suivez en direct
DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
Cybersécurité • IA • Tech

Capter l'info, retenir l'essentiel. Pour les pros et passionnés.

DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
  • Cyberattaques
  • Vulnérabilités
  • Vols de données
  • Cybercrime
  • IA & Tech
  • Intelligence artificielle
  • Failles / vulnérabilités

Agents IA en dérive : la menace de l’« agent session smuggling »

  • Marc Barbezat
  • 6 novembre 2025
  • 4 minutes de lecture
Une main tendue interagit avec un écran d’ordinateur portable affichant une silhouette de tête humaine contenant une roue dentée marquée « AI », symbolisant l’intelligence artificielle. Des icônes technologiques flottent autour, illustrant les connexions numériques et l’innovation.
Une nouvelle attaque permet à un agent IA malveillant d’injecter des instructions cachées au cœur de conversations entre agents collaborant via le protocole A2A.

En bref

  • Cette technique exploite la confiance implicite entre agents IA au sein de communications persistantes.
  • Elle cible les systèmes multi-agents où des échanges s’enchaînent sur plusieurs tours de conversation.
  • Elle permet de récupérer des données internes ou d’exécuter des actions non prévues.
  • Elle reste invisible pour l’utilisateur final, qui ne voit que la réponse consolidée.
▾ Sommaire
En brefUne confiance implicite entre agents qui devient une faiblesseDes preuves de concept illustrant des dérives invisiblesVers des défenses plus structurées dans les systèmes multi‑agents

Les systèmes d’agents IA capables de collaborer deviennent de plus en plus répandus pour automatiser des tâches complexes. Dans ces architectures, plusieurs agents peuvent communiquer entre eux, partager du contexte et se déléguer des opérations. Mais cette autonomie et cette capacité à maintenir un historique commun créent aussi de nouvelles surfaces d’attaque. Selon l’analyse publiée par Unit 42 dans When AI Agents Go Rogue: Agent Session Smuggling Attack in A2A Systems, une technique nommée « agent session smuggling » démontre qu’un agent malveillant peut exploiter la confiance entre agents pour injecter des instructions cachées au fil d’une conversation.

Une confiance implicite entre agents qui devient une faiblesse

Dans de nombreux environnements multi‑agents, les systèmes reposent sur un protocole permettant aux agents d’échanger des informations et de coordonner leurs actions. Le protocole A2A se distingue par sa capacité à maintenir des sessions « stateful », c’est‑à‑dire capables de conserver en mémoire l’historique des interactions. Cette continuité est essentielle au bon fonctionnement des workflows collaboratifs : elle permet à un agent de comprendre la progression d’une tâche et d’ajuster ses réponses au fil des échanges.

Mais cette même mémoire contextuelle devient un vecteur d’attaque si l’un des agents impliqués adopte un comportement malveillant. Contrairement à une attaque ponctuelle reposant sur un simple document piégé ou une requête trompeuse, un agent hostile peut ici s’adapter, reformuler, ajuster ses instructions et instaurer progressivement une apparence de confiance. Au lieu de convaincre le système en une seule fois, il exploite la continuité de la session pour faire glisser la conversation vers des actions non prévues.

L'essentiel Cybersécurité, IA & Tech

Rejoignez la communauté. 3 fois par semaine, recevez l'analyse des tendances par Marc Barbezat. Pas de spam, juste de l'info.

Ou suivez le flux temps réel
Telegram Discord

Deux facteurs rendent ce scénario particulièrement délicat à détecter. D’une part, les agents IA sont souvent conçus pour faire confiance à d’autres agents déjà intégrés dans leur environnement. D’autre part, l’utilisateur final n’observe généralement que la réponse finale produite par l’agent client, sans visibilité sur les échanges internes effectués en amont. L’attaque demeure donc silencieuse et persistante.

Des preuves de concept illustrant des dérives invisibles

Pour illustrer cette menace, deux scénarios ont été testés dans un environnement basé sur le Google Agent Development Kit. Un agent client, configuré comme assistant financier, collaborait avec un second agent présenté comme assistant de recherche. Le premier disposait de capacités sensibles telles que l’accès à des informations de portefeuille et l’exécution d’actions d’achat d’actions. Le second était supposé fournir des synthèses d’actualités.

Dans le premier scénario, l’agent malveillant a obtenu progressivement des informations internes sensibles. Sans jamais formuler de commande explicite ou manifestement suspecte, il a posé une série de questions intermédiaires, présentées comme nécessaires à la compréhension du contexte. Au fil de ces échanges, l’agent client a fini par divulguer des éléments de configuration internes, y compris son historique récent et la structure de ses outils disponibles. L’utilisateur n’aurait, dans une interface standard, vu que la réponse finale, sans soupçonner ces échanges intermédiaires.

Dans le second scénario, l’agent malveillant est allé plus loin en déclenchant une opération réelle non demandée : un achat d’actions. Là encore, les instructions étaient insérées discrètement entre la requête initiale et la réponse attendue. L’agent client, supposant que les instructions provenaient d’un échange valide dans le cadre de la tâche, a réalisé l’opération sans jamais demander confirmation à l’utilisateur.

Ce qui rend ces attaques particulièrement pernicieuses est leur capacité à se dérouler entièrement en arrière-plan. Rien, du point de vue de l’utilisateur, ne paraît inhabituel. La réponse affichée est cohérente, la conversation semble fluide, et aucune alerte ne signale un comportement inhabituel.

Vers des défenses plus structurées dans les systèmes multi‑agents

Empêcher ce type d’attaque nécessite plusieurs niveaux de protection. La première mesure consiste à réintroduire un contrôle humain pour certaines actions sensibles. Lorsqu’une opération possède un impact direct, une validation explicite, déclenchée en dehors du modèle génératif, permet de s’assurer qu’elle ne résulte pas d’instructions cachées.

Un second axe de défense repose sur ce que l’analyse appelle le « context grounding » : une vérification continue de la cohérence entre la requête initiale et l’évolution de la conversation. Si l’agent malveillant tente de dériver vers un sujet qui n’a plus de lien avec la demande originale, le système doit pouvoir interrompre la session.

Enfin, une authentification renforcée entre agents permet de limiter les risques d’usurpation ou de substitution. Des mécanismes tels que la signature cryptographique des identités d’agents assurent que chaque entité engagée dans une collaboration peut être vérifiée et auditée.

À mesure que les architectures d’agents IA deviennent plus distribuées et interconnectées, les communications entre systèmes auparavant cloisonnés s’intensifient. Cette ouverture crée de nouvelles opportunités, mais expose également des vecteurs d’attaque subtils et progressifs. Les environnements multi‑agents ne peuvent plus présumer que la confiance est acquise par défaut.

Les systèmes d’orchestration devront donc évoluer : diagnostic plus fin, visibilité sur les actions internes, journalisation accessible aux utilisateurs, et contrôle renforcé des échanges entre agents. La collaboration entre agents IA ne peut être pleinement sécurisée que si les interactions sont observables, vérifiables et limitées par des garde‑fous robustes.

Zéro paywall. Zéro pub.
DCOD reste en accès libre grâce à vos contributions. Chaque café compte.

☕ Je participe
Etiquettes
  • A2A
  • agent IA
  • agent session smuggling
Marc Barbezat

Fondateur et éditeur de DCOD - Restons en contact !

A lire également
Illustration de la décision de la FCC : un routeur Wi-Fi blanc branché à côté du drapeau américain, symbolisant les routeurs étrangers bannis pour protéger la sécurité des réseaux US (logo DCOD).
Lire l'article

FCC : les routeurs étrangers bannis pour protéger les réseaux US

Interface de recherche Google affichant un bloc « AI Overview » détaillant les cyberarnaques de 2025-2026 (deepfakes, phishing) sur un fond graphique rose avec le logo DCOD.
Lire l'article

Google AI Overviews désormais utilisé pour des arnaques

Représentation conceptuelle de la surveillance domestique : une maison entourée d'ondes WiFi symbolisant la capacité du projet RuView à pister les mouvements à travers les murs.
Lire l'article

RuView : pister les humains à travers les murs grâce au WiFi

Des idées de lecture recommandées par DCOD

Page frontale du livre 100 Faits à Savoir sur la Cybersécurité

Les fondamentaux de la cybersécurité: Comprendre et appliquer les principes essentiels

À l’ère du numérique, la sécurité informatique est un enjeu crucial pour toute organisation.Sécurité des systèmes et des réseaux, du cloud, des applications, sécurité défensive et offensive, piratage psychologique…

📘 Voir sur Amazon

Le pirate informatique et l'État : cyberattaques et nouvelle normalité géopolitique (édition anglaise)

Riche en informations exclusives issues d'entretiens avec des acteurs clés de la défense et de la cybersécurité, de documents déclassifiés et d'analyses approfondies de rapports d'entreprises, « The Hacker and the State » explore la véritable compétition géopolitique de l'ère numérique et révèle des détails méconnus sur la manière dont la Chine, la Russie, la Corée du Nord, le Royaume-Uni et les États-Unis se piratent mutuellement dans une lutte acharnée pour la domination.

📘 Voir sur Amazon
Page frontale du livre Cybersécurité Nouvelle Génération

Cybersécurité Nouvelle Génération: Défendre Contre les Attaques Intelligentes grâce à l'IA

Dans un paysage numérique dominé par des menaces en constante évolution, les stratégies traditionnelles de cybersécurité ne suffisent plus. Cybersecurity Next-Generation est votre guide incontournable pour comprendre et mettre en œuvre l'intelligence artificielle comme arme stratégique dans la lutte contre les cyberattaques intelligentes et adaptatives.

📘 Voir sur Amazon

🛒 Les liens ci-dessus sont affiliés : en commandant via ces liens, vous soutenez la veille DCOD sans frais supplémentaires 🙏

💡

Note : Certaines images ou extraits présents dans cet article proviennent de sources externes citées à des fins d’illustration ou de veille.
Ce site est indépendant et à but non lucratif. 👉 En savoir plus sur notre cadre d’utilisation.

DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
  • Marc Barbezat
  • À propos de DCOD / Contact
  • Politique de confidentialité
Veille stratégique Cybersécurité, IA & Tech. Produite par Marc Barbezat.

Input your search keywords and press Enter.

DCOD est 100% indépendant
Vos cafés financent l'hébergement et les outils de veille. Merci !
Offrir un café ☕
☕

Un café pour DCOD ?

DCOD est un site 100% indépendant, maintenu en accès libre grâce à ses lecteurs.
Si cette veille cyber vous est utile, un simple café aide à couvrir les frais techniques.

☕ Offrir un café