DCOD Cybersécurité DCOD Cybersécurité
💡 Ne manquez plus l’essentiel
Les derniers articles
  • Le logo LinkedIn apparaît sur un fond de codes binaires, avec une loupe mettant en évidence le mot « espionage » au centre.
    Espionnage numérique : LinkedIn, cible des espions chinois
  • Un smartphone Samsung posé à côté d’écouteurs sans fil, avec une icône d’œil stylisé symbolisant la surveillance numérique.
    Samsung accusé : des logiciels espions sur ses téléphones abordables
  • Trois agents de sécurité en uniforme inspectent une rangée de serveurs dans un datacenter éclairé au néon, ouvrant l’un des racks.
    250 serveurs saisis : coup d’arrêt à bulletproof hosting
  • Le logo OWASP et le texte « Top 10 » superposés à un fond de lignes de code, représentant les risques majeurs de sécurité applicative.
    Top 10 OWASP 2025 : les nouveaux risques de la sécurité applicative
  • Loupe révélant le mot malware parmi des lignes de code, accompagnée du logo Android sur un fond de caractères chiffrés.
    Sturnus: un malware Android qui cible WhatsApp, Telegram, Signal
Toutes les catégories
  • Actualités
  • Cyber-attaques / fraudes
  • Failles / vulnérabilités
  • Pertes / vols de données
  • Cybercrime
  • Intelligence artificielle
  • Analyses / rapports
  • Biens communs
  • Analyses / Rapports
  • Législation
DCOD Cybersécurité DCOD Cybersécurité
Radar cybersécurité et tendances numériques

Actualités et nouvelles tendances cybersécurité, IA et tech par Marc Barbezat
pour les professionnels et passionnés du numérique.

DCOD Cybersécurité DCOD Cybersécurité DCOD Cybersécurité DCOD Cybersécurité
  • Cyberattaques
  • Vulnérabilités
  • Vols de données
  • Cybercrime
  • IA cyber
  • Actualités cybersécurité

Cyber IA : actualités du 15 oct 2025

  • Marc Barbezat
  • 15 octobre 2025
  • 4 minutes de lecture
Illustration conceptuelle de l'intelligence artificielle. Un cerveau stylisé, composé de lumière et de connexions numériques, brille d'une lueur dorée au centre de l'image. Il est entouré de flux de données bleus et d'ondes graphiques jaunes qui symbolisent l'activité neuronale et le traitement de l'information sur un fond technologique sombre
Voici le tour d’horizon hebdomadaire des actualités à l’intersection de l’intelligence artificielle et de la cybersécurité : avancées technologiques, vulnérabilités, usages malveillants, réglementations et initiatives stratégiques à suivre.

Faits marquants de la semaine

  • Une étude révèle que seulement 250 documents malveillants peuvent empoisonner un modèle d’IA de 13 milliards de paramètres.
  • Google DeepMind a lancé CodeMender, un agent d’IA qui corrige les vulnérabilités de code et a fourni 72 correctifs en six mois.
  • Des hackers liés à la Chine utilisent ChatGPT pour améliorer des campagnes de phishing sophistiquées depuis juin 2025.
  • Google ne corrigera pas une attaque de smuggling ASCII dans Gemini, jugée non critique malgré les risques potentiels.

L’actualité de la cybersécurité cette semaine met en lumière des avancées et des défis liés à l’intelligence artificielle. Des chercheurs ont démontré la facilité avec laquelle des modèles d’IA peuvent être empoisonnés avec un nombre infime de documents malveillants. Parallèlement, Google DeepMind a introduit un nouvel agent d’IA destiné à identifier et corriger les vulnérabilités de code, soulignant l’importance croissante de l’IA dans la sécurisation des systèmes. Cependant, des menaces persistent, notamment avec l’utilisation de ChatGPT par des hackers pour développer des campagnes de phishing avancées. Enfin, la décision de Google de ne pas corriger une attaque de smuggling ASCII dans Gemini suscite des inquiétudes quant aux implications potentielles pour la sécurité des données. Ces événements illustrent la nécessité d’une vigilance continue dans un paysage technologique en rapide évolution.

Selon The Register, une étude menée par Anthropic a démontré qu’il suffit de 250 documents malveillants pour empoisonner un modèle d’IA de 13 milliards de paramètres, représentant seulement 0,00016 % de l’ensemble des données d’entraînement. Cette découverte remet en question l’idée reçue selon laquelle un attaquant doit contrôler une grande partie des données d’entraînement pour réussir une attaque par empoisonnement. Les chercheurs ont testé plusieurs modèles, notamment Llama 3.1 et GPT 3.5-Turbo, et ont constaté que tous étaient vulnérables dès que le seuil de 250 documents était atteint. Les attaques étaient efficaces indépendamment de la taille du modèle, démontrant la facilité avec laquelle les modèles d’IA peuvent être manipulés pour produire des résultats erronés.

Google DeepMind a récemment présenté CodeMender, un agent d’IA conçu pour détecter et corriger automatiquement les vulnérabilités dans le code. Utilisant les modèles Gemini DeepThink, CodeMender peut réécrire le code vulnérable pour prévenir les exploits futurs. Au cours des six derniers mois, cet outil a fourni 72 correctifs pour des projets open source, certains contenant des millions de lignes de code. CodeMender utilise des analyses statiques et dynamiques avancées pour identifier les faiblesses architecturales et garantir que les modifications n’introduisent pas de régressions.

L'essentiel Cybersécurité, IA & Tech

Rejoignez la communauté. 3 fois par semaine, recevez l'analyse des tendances par Marc Barbezat. Pas de spam, juste de l'info.

Ou suivez le flux temps réel
Telegram Discord

D’après GBHackers, des acteurs malveillants alignés sur la Chine exploitent ChatGPT pour améliorer leurs capacités de cyberattaque. Identifiés comme UTA0388, ces groupes mènent des campagnes de spear phishing sophistiquées depuis juin 2025. En utilisant l’IA, ils développent des logiciels malveillants et rédigent des emails de phishing multilingues ciblant des organisations à travers le monde. Cette utilisation de l’IA pour automatiser et perfectionner les attaques souligne une tendance inquiétante dans le domaine de la cybercriminalité, où les outils avancés sont détournés pour des activités malveillantes.

Selon GBHackers, un nouveau malware nommé MalTerminal utilise GPT-4 pour générer du code de ransomware en temps réel, posant ainsi de nouveaux défis pour la détection et la chasse aux menaces. Ce malware, alimenté par des modèles de langage de grande taille (LLM), peut produire une logique malveillante à l’exécution plutôt que de l’intégrer directement dans le code. Cette approche rend la détection plus complexe, car le code malveillant n’est pas statique et peut changer à chaque exécution. La découverte de MalTerminal met en lumière l’évolution des techniques d’attaque, où l’IA est exploitée pour créer des menaces dynamiques et adaptatives.

Comme le détaille Dark Reading, une attaque de type proof-of-concept appelée « CamoLeak » a été développée pour exfiltrer des données via GitHub Copilot. Cette attaque utilise des commentaires invisibles pour manipuler Copilot et exfiltrer des données sensibles telles que des mots de passe ou des clés privées. La méthode repose sur l’injection de prompts dans des commentaires cachés, permettant à un attaquant de contrôler la sortie de Copilot. Bien que GitHub ait amélioré la sécurité de Copilot, cette attaque démontre que des vulnérabilités subsistent, offrant des opportunités pour des exfiltrations de données discrètes.

D’après Dark Reading, 1Password a lancé une nouvelle fonctionnalité pour combler une faille de sécurité critique liée aux agents de navigateur AI. Cette fonctionnalité, appelée Secure Agentic Autofill, permet aux agents d’authentifier sans exposer les identifiants des utilisateurs. Les agents de navigateur, qui automatisent des tâches, posent des risques de sécurité en stockant des identifiants dans des sessions non sécurisées. La nouvelle intégration vise à résoudre ces problèmes en gardant les informations d’identification hors du contexte des agents AI, réduisant ainsi les risques de compromission des données.

Selon Security Affairs, l’Ukraine a observé une augmentation des cyberattaques alimentées par l’IA menées par des acteurs liés à la Russie. Au premier semestre 2025, plus de 3’000 incidents ont été enregistrés, contre environ 2’500 fin 2024. Les attaques ciblent principalement les autorités locales et les entités militaires, tandis que celles sur les secteurs gouvernementaux et énergétiques ont diminué. Les groupes impliqués utilisent notamment des scripts PowerShell générés par l’IA pour voler des données. Ces attaques illustrent l’évolution des tactiques et l’utilisation croissante de l’IA dans les cyberopérations.

Comme le rapporte Bleeping Computer, Google a décidé de ne pas corriger une attaque de smuggling ASCII dans son assistant AI Gemini. Cette attaque utilise des caractères spéciaux pour introduire des charges utiles invisibles qui peuvent altérer le comportement du modèle et empoisonner ses données. Bien que cette vulnérabilité puisse transformer une tentative de phishing standard en un outil d’extraction de données autonome, Google a jugé qu’elle ne constituait pas un bug de sécurité critique.

Cette veille indépendante vous est utile ?
Offrez un café pour soutenir le serveur (et le rédacteur).

☕ Je soutiens DCOD
Etiquettes
  • cybersécurité
  • exfiltration
  • Gemini
  • IA
  • malware
  • phishing
  • Ukraine
  • vulnérabilités
Marc Barbezat

Le créateur et l'éditeur de DCOD.CH - Restons en contact !

A lire également
DCOD top5 - Image réaliste d'une personne encapuchonnée, assise devant un ordinateur portable dans un environnement sombre, illustrant les menaces liées au cybercrime, aux attaques informatiques et à la cybersécurité.
Lire l'article

Le top 5 des actus cybersécurité -26 nov 2025

Illustration conceptuelle de l'intelligence artificielle. Un cerveau stylisé, composé de lumière et de connexions numériques, brille d'une lueur dorée au centre de l'image. Il est entouré de flux de données bleus et d'ondes graphiques jaunes qui symbolisent l'activité neuronale et le traitement de l'information sur un fond technologique sombre
Lire l'article

Cyber IA : actualités du 26 nov 2025

Étiquette noire portant le texte Black Friday et icône de loupe avec symbole d’avertissement sur fond orange vif.
Lire l'article

Black Friday : 5 conseils pour ne pas être victime d’une arnaque en 2025

📚 Pour prolonger la réflexion ou approfondir certains points abordés, voici quelques lectures recommandées par DCOD :

Des idées de lecture cybersécurité

Ethical Hacking

Sécurité informatique - Ethical Hacking

Ce livre a pour objectif d'initier le lecteur aux techniques des attaquants pour lui apprendre comment se défendre.

📘 Voir sur Amazon
Page frontale du livre Les Secrets du Darknet

Les Secrets du Darknet

🤔Écrit par DarkExplorer, un ancien hacker repenti, ce guide complet vous offre une plongée fascinante dans les coulisses du Darknet, ainsi que les outils et les techniques nécessaires pour naviguer en toute sécurité dans cet univers souvent dangereux et mystérieux.

📘 Voir sur Amazon
Page frontale du livre Cybersécurité : tests d’intrusion des systèmes d’informations web

Cybersécurité : tests d’intrusion des systèmes d’informations web: Le guide des vulnérabilités web

Amplifiez vos compétences en cybersécurité avec ce guide exhaustif sur le pentesting et le bug bounty ! Conçu pour les pentesters, les bug hunters, les développeurs, et en fait toute personne curieuse de plonger dans le monde fascinant de la cybersécurité.

📘 Voir sur Amazon

🛒 Les liens ci-dessus sont affiliés : en commandant via ces liens, vous soutenez la veille DCOD sans frais supplémentaires 🙏

💡

Note : Certaines images ou extraits présents dans cet article proviennent de sources externes citées à des fins d’illustration ou de veille.
Ce site est indépendant et à but non lucratif. 👉 En savoir plus sur notre cadre d’utilisation.

DCOD Cybersécurité DCOD Cybersécurité
  • Marc Barbezat
  • À propos de DCOD / Contact
  • Politique de confidentialité de DCOD
Radar cybersécurité et tendances numériques par Marc Barbezat

Input your search keywords and press Enter.