DCOD Cybersécurité DCOD Cybersécurité
💡 Ne manquez plus l’essentiel
Les derniers articles
  • Illustration conceptuelle de l'intelligence artificielle. Un cerveau stylisé, composé de lumière et de connexions numériques, brille d'une lueur dorée au centre de l'image. Il est entouré de flux de données bleus et d'ondes graphiques jaunes qui symbolisent l'activité neuronale et le traitement de l'information sur un fond technologique sombre
    Cyber IA : actualités du 19 nov 2025
  • Un smartphone clair partiellement entouré de plantes, recouvert d’un large symbole noir en forme de cercle barré.
    iPhone perdu : attention aux faux SMS prétendant l’avoir retrouvé
  • Une grande épingle de géolocalisation posée sur une carte illustrée, dominée par le logo coloré de Google au premier plan.
    Google Find Hub détourné pour effacer des données volées sur Android
  • Silhouette rouge de la Chine avec son drapeau intégrée à un réseau de circuits électroniques bleus devant une carte du monde.
    95 GB divulgués exposant des opérations chinoises d’espionnage dans 20 pays
  • DCOD attaque - Personne de dos portant une capuche, assise devant plusieurs écrans affichant des lignes de code dans une salle sombre, illustrant une cyberattaque ou une activité de piratage informatique dans un environnement de cybersécurité.
    Les dernières cyberattaques – 18 nov 2025
Toutes les catégories
  • Actualités
  • Cyber-attaques / fraudes
  • Failles / vulnérabilités
  • Pertes / vols de données
  • Cybercrime
  • Intelligence artificielle
  • Analyses / rapports
  • Biens communs
  • Analyses / Rapports
  • Législation
DCOD Cybersécurité DCOD Cybersécurité
Radar cybersécurité et tendances numériques

Actualités et signaux faibles décodés chaque jour par Marc Barbezat
pour les professionnels et passionnés du numérique.

DCOD Cybersécurité DCOD Cybersécurité DCOD Cybersécurité DCOD Cybersécurité DCOD Cybersécurité
  • Cyberattaques
  • Vulnérabilités
  • Vols de données
  • Cybercrime
  • IA cyber
Illustration conceptuelle de l'intelligence artificielle. Un cerveau stylisé, composé de lumière et de connexions numériques, brille d'une lueur dorée au centre de l'image. Il est entouré de flux de données bleus et d'ondes graphiques jaunes qui symbolisent l'activité neuronale et le traitement de l'information sur un fond technologique sombre
  • Actualités cybersécurité

Cyber IA : actualités du 19 nov 2025

  • 19 novembre 2025
  • 4 minutes de lecture
Voici le tour d’horizon hebdomadaire des actualités à l’intersection de l’intelligence artificielle et de la cybersécurité : avancées technologiques, vulnérabilités, usages malveillants, réglementations et initiatives stratégiques à suivre.

Faits marquants de la semaine

  • Des chercheurs ont extrait des instructions cachées du modèle Sora 2 d’OpenAI en utilisant des vulnérabilités intermodales.
  • Sora 2 d’OpenAI continue de générer du contenu enfreignant le droit d’auteur malgré des tentatives de restriction.
  • Des hackers chinois ont utilisé l’IA d’Anthropic pour mener des cyberattaques automatisées.
  • Des vulnérabilités critiques ont été découvertes dans les moteurs d’inférence d’IA de Meta, Nvidia, et Microsoft.

OpenAI fait face à des défis de sécurité avec son modèle Sora 2, où des vulnérabilités ont permis l’extraction d’instructions cachées. En parallèle, le même modèle est impliqué dans des problèmes de droits d’auteur, générant du contenu protégé malgré des tentatives de restriction. De plus, des hackers chinois ont exploité l’IA d’Anthropic pour orchestrer des cyberattaques automatisées, soulignant l’évolution des menaces numériques. Enfin, des failles critiques ont été découvertes dans les moteurs d’inférence d’IA de grandes entreprises technologiques, posant des risques de sécurité importants. Ces incidents mettent en lumière les défis complexes auxquels sont confrontées les technologies d’IA modernes, nécessitant une attention continue pour assurer leur sécurité et leur conformité.

Des hackers soutenus par l’État chinois ont utilisé l’IA d’Anthropic pour mener une campagne de cyberespionnage automatisée. Cette campagne, menée en septembre 2025, a ciblé environ 30 grandes entreprises technologiques, institutions financières et agences gouvernementales. Les attaquants ont exploité les capacités agentiques de l’IA pour exécuter des cyberattaques avec un minimum d’intervention humaine. Selon The Hacker News, l’utilisation de l’IA a permis d’automatiser jusqu’à 90 % des opérations tactiques, marquant une évolution significative dans l’utilisation de la technologie par les adversaires.

Les chercheurs ont découvert une vulnérabilité dans le modèle de génération vidéo Sora 2 d’OpenAI, permettant l’extraction des instructions système cachées. Cette faille exploite des vulnérabilités intermodales, avec la transcription audio s’avérant la méthode la plus efficace pour récupérer ces informations. Sora 2, un modèle multimodal avancé, était censé garder ses consignes système sécurisées. Cependant, en utilisant des techniques de cadrage astucieuses, les chercheurs ont réussi à révéler des instructions cachées qui définissent le comportement du modèle. Selon GBHackers, le problème provient de la dérive sémantique qui se produit lors de la transformation des données à travers différentes modalités. Cette découverte souligne la nécessité de renforcer la sécurité des modèles multimodaux pour prévenir de telles expositions.

Offrez un café pour soutenir cette veille indépendante.

☕ Je soutiens DCOD

OpenAI fait face à un problème persistant de violation de droits d’auteur avec son générateur vidéo Sora 2. Malgré les tentatives d’OpenAI pour empêcher la création de vidéos enfreignant les droits d’auteur, les utilisateurs ont trouvé des moyens de contourner ces restrictions. Des tests menés par 404 Media ont montré qu’il est encore possible de générer du contenu avec des personnages protégés par des droits d’auteur, comme Pikachu, en utilisant des astuces similaires à celles employées pour d’autres générateurs d’IA. OpenAI a introduit une politique d’opt-in pour limiter la création de contenu protégé, mais cela a provoqué des réactions parmi les utilisateurs. D’après 404 Media, le modèle ne peut pas être complètement purgé de son contenu protégé, car il est intégré dans ses données d’entraînement.

Des chercheurs de Microsoft ont développé une attaque par canal auxiliaire, nommée Whisper Leak, qui permet de deviner les sujets discutés avec des modèles de langage. Cette attaque analyse la taille des paquets et les motifs de temporisation dans les réponses en streaming pour inférer les sujets des requêtes chiffrées. Les modèles de certains fournisseurs, tels qu’Anthropic et Google, n’ont pas encore été corrigés, mettant en danger les communications personnelles et d’entreprise. Selon The Register, cette vulnérabilité pose des risques réels pour les utilisateurs dans des environnements où les gouvernements oppressifs pourraient cibler des sujets sensibles.

Une vulnérabilité critique de type SSRF a été découverte dans la fonction Custom GPTs de ChatGPT, permettant aux attaquants d’accéder à des informations sensibles. Cette faille, identifiée par SirLeeroyJenkins, permettait de manipuler les configurations API pour accéder à des services internes, exposant des informations critiques. En exploitant des redirections HTTP et en manipulant les en-têtes d’authentification, l’attaquant a pu extraire des jetons d’accès valides pour l’API de gestion Azure. Selon CyberPress, OpenAI a rapidement corrigé cette vulnérabilité après sa divulgation, soulignant l’importance de la validation des entrées pour prévenir de telles attaques.

Le BSI allemand a publié des directives pour contrer les attaques d’évasion ciblant les modèles de langage de grande taille (LLM). Ces attaques, qui manipulent les entrées pour contourner les garde-fous des modèles, représentent une menace croissante pour les systèmes d’IA. Le rapport du BSI propose des mesures telles que des invites sécurisées, le filtrage du contenu malveillant et la surveillance des anomalies pour renforcer la sécurité des systèmes LLM. Selon Security Affairs, l’adoption de ces contre-mesures peut rendre les attaques plus coûteuses et réduire les dommages potentiels, bien qu’elle ne garantisse pas une immunité totale.

Des vulnérabilités critiques d’exécution de code à distance ont été découvertes dans les moteurs d’inférence d’IA de Meta, Nvidia, et Microsoft. Ces failles, dues à l’utilisation non sécurisée de ZeroMQ et de la désérialisation Python, affectent également des projets open source comme vLLM et SGLang. Le problème a été identifié comme un schéma appelé ShadowMQ, où la logique de désérialisation non sécurisée s’est propagée à plusieurs projets. Selon The Hacker News, ces vulnérabilités permettent à un attaquant d’exécuter du code arbitraire sur le cluster, compromettant potentiellement l’ensemble de l’infrastructure.

💡 Ne manquez plus l'essentiel
Recevez les analyses et tendances cybersécurité directement dans votre boîte mail.

💡 Note : Certaines images ou extraits présents dans cet article proviennent de sources externes citées à des fins d’illustration ou de veille. Ce site est indépendant et à but non lucratif. 👉 En savoir plus sur notre cadre d’utilisation.

Vous appréciez ces analyses ?
Soutenez DCOD en offrant un café ☕

Oui pour un café merci !
Etiquettes
  • Anthropic
  • droits d'auteur
  • OpenAI
  • Sora 2
  • vulnérabilités
  • Whisper Leak
Marc Barbezat

Le créateur et l'éditeur de DCOD.CH - Restons en contact !

📚 Pour prolonger la réflexion ou approfondir certains points abordés, voici quelques lectures recommandées par DCOD :

Des idées de lecture cybersécurité

Page frontale du livre Cybersécurité Nouvelle Génération

Cybersécurité Nouvelle Génération: Défendre Contre les Attaques Intelligentes grâce à l'IA

Dans un paysage numérique dominé par des menaces en constante évolution, les stratégies traditionnelles de cybersécurité ne suffisent plus. Cybersecurity Next-Generation est votre guide incontournable pour comprendre et mettre en œuvre l'intelligence artificielle comme arme stratégique dans la lutte contre les cyberattaques intelligentes et adaptatives.

📘 Voir sur Amazon
Page frontale du livre 100 Faits à Savoir sur la Cybersécurité

100 Faits à Savoir sur la Cybersécurité

🤔 Vous êtes-vous déjà demandé comment les hackers parviennent à pénétrer des systèmes apparemment sécurisés ? Pourquoi entendons-nous tant parler des botnets et que peuvent-ils vraiment faire ? Et qu'en est-il de ce fameux quantum computing qui menace de bouleverser la cryptographie ?

📘 Voir sur Amazon
Page frontale du livre Guide pratique pour disséquer les logiciels malveillants

Guide pratique pour disséquer les logiciels malveillants

🤔Lorsqu'un logiciel malveillant brise vos défenses, vous devez agir rapidement pour traiter les infections actuelles et prévenir les futures.

📘 Voir sur Amazon

🛒 Les liens ci-dessus sont affiliés : en commandant via ces liens, vous soutenez la veille DCOD sans frais supplémentaires 🙏

📚💡️idée de lecture : Cybersécurité: Le guide du débutant — 📘 Voir sur Amazon (affilié)

Abonnez-vous au canal Telegram

Offrez un café pour soutenir cette veille indépendante.

☕ Je soutiens DCOD
Rejoignez le serveur Discord
Ne manquez plus l’essentiel
Abonnez-vous au canal Whatsapp
Le podcast cybersécurité DCOD
Les derniers articles
  • Illustration conceptuelle de l'intelligence artificielle. Un cerveau stylisé, composé de lumière et de connexions numériques, brille d'une lueur dorée au centre de l'image. Il est entouré de flux de données bleus et d'ondes graphiques jaunes qui symbolisent l'activité neuronale et le traitement de l'information sur un fond technologique sombre
    Cyber IA : actualités du 19 nov 2025
    • 19.11.25
  • Un smartphone clair partiellement entouré de plantes, recouvert d’un large symbole noir en forme de cercle barré.
    iPhone perdu : attention aux faux SMS prétendant l’avoir retrouvé
    • 19.11.25
  • Une grande épingle de géolocalisation posée sur une carte illustrée, dominée par le logo coloré de Google au premier plan.
    Google Find Hub détourné pour effacer des données volées sur Android
    • 18.11.25
  • Silhouette rouge de la Chine avec son drapeau intégrée à un réseau de circuits électroniques bleus devant une carte du monde.
    95 GB divulgués exposant des opérations chinoises d’espionnage dans 20 pays
    • 18.11.25
  • DCOD attaque - Personne de dos portant une capuche, assise devant plusieurs écrans affichant des lignes de code dans une salle sombre, illustrant une cyberattaque ou une activité de piratage informatique dans un environnement de cybersécurité.
    Les dernières cyberattaques – 18 nov 2025
    • 18.11.25
Abonnez-vous au canal Telegram
Rejoignez le serveur Discord DCOD
DCOD Cybersécurité DCOD Cybersécurité
  • Marc Barbezat
  • A propos / Contact
  • Politique de Confidentialité
Radar cybersécurité et tendances numériques par Marc Barbezat

Input your search keywords and press Enter.