Offrez un café pour soutenir cette veille indépendante.
☕ Je soutiens DCODVoici le tour d’horizon hebdomadaire des actualités à l’intersection de l’intelligence artificielle et de la cybersécurité : avancées technologiques, vulnérabilités, usages malveillants, réglementations et initiatives stratégiques à suivre.
Faits marquants de la semaine
- Une étude révèle que seulement 250 documents malveillants peuvent empoisonner un modèle d’IA de 13 milliards de paramètres.
- Google DeepMind a lancé CodeMender, un agent d’IA qui corrige les vulnérabilités de code et a fourni 72 correctifs en six mois.
- Des hackers liés à la Chine utilisent ChatGPT pour améliorer des campagnes de phishing sophistiquées depuis juin 2025.
- Google ne corrigera pas une attaque de smuggling ASCII dans Gemini, jugée non critique malgré les risques potentiels.
L’actualité de la cybersécurité cette semaine met en lumière des avancées et des défis liés à l’intelligence artificielle. Des chercheurs ont démontré la facilité avec laquelle des modèles d’IA peuvent être empoisonnés avec un nombre infime de documents malveillants. Parallèlement, Google DeepMind a introduit un nouvel agent d’IA destiné à identifier et corriger les vulnérabilités de code, soulignant l’importance croissante de l’IA dans la sécurisation des systèmes. Cependant, des menaces persistent, notamment avec l’utilisation de ChatGPT par des hackers pour développer des campagnes de phishing avancées. Enfin, la décision de Google de ne pas corriger une attaque de smuggling ASCII dans Gemini suscite des inquiétudes quant aux implications potentielles pour la sécurité des données. Ces événements illustrent la nécessité d’une vigilance continue dans un paysage technologique en rapide évolution.
Selon The Register, une étude menée par Anthropic a démontré qu’il suffit de 250 documents malveillants pour empoisonner un modèle d’IA de 13 milliards de paramètres, représentant seulement 0,00016 % de l’ensemble des données d’entraînement. Cette découverte remet en question l’idée reçue selon laquelle un attaquant doit contrôler une grande partie des données d’entraînement pour réussir une attaque par empoisonnement. Les chercheurs ont testé plusieurs modèles, notamment Llama 3.1 et GPT 3.5-Turbo, et ont constaté que tous étaient vulnérables dès que le seuil de 250 documents était atteint. Les attaques étaient efficaces indépendamment de la taille du modèle, démontrant la facilité avec laquelle les modèles d’IA peuvent être manipulés pour produire des résultats erronés.
Google DeepMind a récemment présenté CodeMender, un agent d’IA conçu pour détecter et corriger automatiquement les vulnérabilités dans le code. Utilisant les modèles Gemini DeepThink, CodeMender peut réécrire le code vulnérable pour prévenir les exploits futurs. Au cours des six derniers mois, cet outil a fourni 72 correctifs pour des projets open source, certains contenant des millions de lignes de code. CodeMender utilise des analyses statiques et dynamiques avancées pour identifier les faiblesses architecturales et garantir que les modifications n’introduisent pas de régressions.
D’après GBHackers, des acteurs malveillants alignés sur la Chine exploitent ChatGPT pour améliorer leurs capacités de cyberattaque. Identifiés comme UTA0388, ces groupes mènent des campagnes de spear phishing sophistiquées depuis juin 2025. En utilisant l’IA, ils développent des logiciels malveillants et rédigent des emails de phishing multilingues ciblant des organisations à travers le monde. Cette utilisation de l’IA pour automatiser et perfectionner les attaques souligne une tendance inquiétante dans le domaine de la cybercriminalité, où les outils avancés sont détournés pour des activités malveillantes.
Selon GBHackers, un nouveau malware nommé MalTerminal utilise GPT-4 pour générer du code de ransomware en temps réel, posant ainsi de nouveaux défis pour la détection et la chasse aux menaces. Ce malware, alimenté par des modèles de langage de grande taille (LLM), peut produire une logique malveillante à l’exécution plutôt que de l’intégrer directement dans le code. Cette approche rend la détection plus complexe, car le code malveillant n’est pas statique et peut changer à chaque exécution. La découverte de MalTerminal met en lumière l’évolution des techniques d’attaque, où l’IA est exploitée pour créer des menaces dynamiques et adaptatives.
Comme le détaille Dark Reading, une attaque de type proof-of-concept appelée « CamoLeak » a été développée pour exfiltrer des données via GitHub Copilot. Cette attaque utilise des commentaires invisibles pour manipuler Copilot et exfiltrer des données sensibles telles que des mots de passe ou des clés privées. La méthode repose sur l’injection de prompts dans des commentaires cachés, permettant à un attaquant de contrôler la sortie de Copilot. Bien que GitHub ait amélioré la sécurité de Copilot, cette attaque démontre que des vulnérabilités subsistent, offrant des opportunités pour des exfiltrations de données discrètes.
D’après Dark Reading, 1Password a lancé une nouvelle fonctionnalité pour combler une faille de sécurité critique liée aux agents de navigateur AI. Cette fonctionnalité, appelée Secure Agentic Autofill, permet aux agents d’authentifier sans exposer les identifiants des utilisateurs. Les agents de navigateur, qui automatisent des tâches, posent des risques de sécurité en stockant des identifiants dans des sessions non sécurisées. La nouvelle intégration vise à résoudre ces problèmes en gardant les informations d’identification hors du contexte des agents AI, réduisant ainsi les risques de compromission des données.
Selon Security Affairs, l’Ukraine a observé une augmentation des cyberattaques alimentées par l’IA menées par des acteurs liés à la Russie. Au premier semestre 2025, plus de 3’000 incidents ont été enregistrés, contre environ 2’500 fin 2024. Les attaques ciblent principalement les autorités locales et les entités militaires, tandis que celles sur les secteurs gouvernementaux et énergétiques ont diminué. Les groupes impliqués utilisent notamment des scripts PowerShell générés par l’IA pour voler des données. Ces attaques illustrent l’évolution des tactiques et l’utilisation croissante de l’IA dans les cyberopérations.
Comme le rapporte Bleeping Computer, Google a décidé de ne pas corriger une attaque de smuggling ASCII dans son assistant AI Gemini. Cette attaque utilise des caractères spéciaux pour introduire des charges utiles invisibles qui peuvent altérer le comportement du modèle et empoisonner ses données. Bien que cette vulnérabilité puisse transformer une tentative de phishing standard en un outil d’extraction de données autonome, Google a jugé qu’elle ne constituait pas un bug de sécurité critique.
💡 Ne manquez plus l'essentiel
Recevez les analyses et tendances cybersécurité directement dans votre boîte mail.
💡 Note : Certaines images ou extraits présents dans cet article proviennent de sources externes citées à des fins d’illustration ou de veille. Ce site est indépendant et à but non lucratif. 👉 En savoir plus sur notre cadre d’utilisation.
Vous appréciez ces analyses ?
Soutenez DCOD en offrant un café ☕