Offrez un café pour soutenir cette veille indépendante.
☕ Je soutiens DCODbrève actu
La faille zero-click ShadowLeak dans ChatGPT permettait d’exfiltrer des données Gmail sans clic. Une menace révélatrice des risques liés aux agents AI.
En 2025, une vulnérabilité zero-click nommée « ShadowLeak » a été découverte dans le projet Deep Research de ChatGPT. Exploitée par l’envoi d’un simple email, elle permettait aux attaquants d’accéder à des informations sensibles dans Gmail, sans interaction de l’utilisateur. Cette faille, rapidement corrigée par OpenAI, souligne les risques croissants associés aux agents AI autonomes, souvent utilisés dans des secteurs tels que la finance et la science.
ShadowLeak : une faille zero-click dans ChatGPT
La vulnérabilité ShadowLeak exploitait une faiblesse bien connue des agents AI : l’injection de commandes masquées, ou prompt injection. Les attaquants pouvaient envoyer un email spécialement conçu pour tromper l’agent, qui lisait et exécutait des instructions cachées sans que l’utilisateur ne s’en aperçoive. Selon Malwarebytes, cette technique profitait de la structure du texte dans Gmail, en utilisant des astuces comme les polices minuscules ou le texte blanc sur blanc. En conséquence, les données sensibles étaient exfiltrées vers les attaquants, directement depuis l’infrastructure cloud d’OpenAI, échappant ainsi aux défenses internes.
La mise en œuvre de cette attaque nécessitait de contourner les garde-fous existants, conçus pour détecter les tentatives d’exfiltration directe. Par exemple, lorsque l’agent tentait d’interagir avec une URL malveillante, il la signalait comme suspecte et effectuait une recherche en ligne au lieu de l’ouvrir. Cependant, les chercheurs ont réussi en codant les données sensibles en base64, une méthode simple mais efficace, avant de les ajouter à l’URL. Ainsi, l’agent voyait une chaîne de caractères inoffensive plutôt que des informations personnelles brutes, comme le rapporte GBHackers.
Pour les utilisateurs de Deep Research, il est crucial de comprendre les implications de ces vulnérabilités. Les agents AI, tout en étant puissants, nécessitent une gestion prudente des permissions et des sources. Limiter l’accès aux informations sensibles et vérifier les sources avant d’interagir avec des liens ou des commandes sont des pratiques essentielles. De plus, maintenir les logiciels à jour et utiliser une authentification forte peut réduire le risque d’exploitation. Enfin, rester informé sur les menaces et adopter des pratiques de sécurité rigoureuses sont des étapes cruciales pour prévenir de futures attaques.
💡 Ne manquez plus l'essentiel
Recevez les analyses et tendances cybersécurité directement dans votre boîte mail.
💡 Note : Certaines images ou extraits présents dans cet article proviennent de sources externes citées à des fins d’illustration ou de veille. Ce site est indépendant et à but non lucratif. 👉 En savoir plus sur notre cadre d’utilisation.
Vous appréciez ces analyses ?
Soutenez DCOD en offrant un café ☕