DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
Navigation
  • Accueil
  • Cyber-attaques / fraudes
  • Intelligence artificielle
  • Failles / vulnérabilités
  • Pertes / vols de données
  • Cybercrime
  • Législation
Les derniers articles
  • Une femme portant des lunettes connectées Ray-Ban Meta dans un café utilise l'interface VisionClaw pour acheter un produit sur une tablette. Un cercle de visée numérique bleu sur l'écran illustre la validation d'un achat par reconnaissance visuelle et intelligence artificielle.
    VisionClaw : le hack qui valide un achat d’un simple regard
  • Photographie d'un homme désespéré, se tenant la tête, assis devant un ordinateur portable affichant une facture de 82 000 $ USD pour l'utilisation de l'API Google Gemini.
    Google Gemini : une startup piégée par 82 000 $ de facture
  • Illustration 3D pour la veille sur les vulnérabilités : un cadenas métallique ouvert est posé sur un circuit imprimé complexe. De vifs flux lumineux oranges et des triangles d'alerte rouges clignotants émanent du cadenas, symbolisant des failles de sécurité actives et des brèches dans un système informatique.
    Vulnérabilités : les 10 alertes critiques du 9 mars 2026
  • Illustration conceptuelle de cybersécurité montrant un bouclier numérique vert lumineux avec une serrure centrale, sur fond sombre de réseaux de données, de circuits imprimés et une silhouette de hacker dans l'ombre. Image d'en-tête pour la veille hebdomadaire.
    Cybersécurité : les 11 actualités majeures du 8 mars 2026
  • Illustration conceptuelle montrant les drapeaux des États-Unis et de l'Iran en arrière-plan fondu, avec un cerveau humain stylisé composé de circuits imprimés bleus, symbolisant l'utilisation de l'intelligence artificielle dans les conflits géopolitiques et cybernétiques.
    L’IA accélère les frappes pendant que l’Iran contre-attaque en ligne
Suivez en direct
DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
Cybersécurité • IA • Tech

Capter l'info, retenir l'essentiel. Pour les pros et passionnés.

DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
  • Cyberattaques
  • Vulnérabilités
  • Vols de données
  • Cybercrime
  • IA & Tech
  • Actualités cybersécurité

Cyber IA : actualités du 19 nov 2025

  • Marc Barbezat
  • 19 novembre 2025
  • 4 minutes de lecture
Illustration conceptuelle de l'intelligence artificielle. Un cerveau stylisé, composé de lumière et de connexions numériques, brille d'une lueur dorée au centre de l'image. Il est entouré de flux de données bleus et d'ondes graphiques jaunes qui symbolisent l'activité neuronale et le traitement de l'information sur un fond technologique sombre
Voici le tour d’horizon hebdomadaire des actualités à l’intersection de l’intelligence artificielle et de la cybersécurité : avancées technologiques, vulnérabilités, usages malveillants, réglementations et initiatives stratégiques à suivre.

Faits marquants de la semaine

  • Des chercheurs ont extrait des instructions cachées du modèle Sora 2 d’OpenAI en utilisant des vulnérabilités intermodales.
  • Sora 2 d’OpenAI continue de générer du contenu enfreignant le droit d’auteur malgré des tentatives de restriction.
  • Des hackers chinois ont utilisé l’IA d’Anthropic pour mener des cyberattaques automatisées.
  • Des vulnérabilités critiques ont été découvertes dans les moteurs d’inférence d’IA de Meta, Nvidia, et Microsoft.

OpenAI fait face à des défis de sécurité avec son modèle Sora 2, où des vulnérabilités ont permis l’extraction d’instructions cachées. En parallèle, le même modèle est impliqué dans des problèmes de droits d’auteur, générant du contenu protégé malgré des tentatives de restriction. De plus, des hackers chinois ont exploité l’IA d’Anthropic pour orchestrer des cyberattaques automatisées, soulignant l’évolution des menaces numériques. Enfin, des failles critiques ont été découvertes dans les moteurs d’inférence d’IA de grandes entreprises technologiques, posant des risques de sécurité importants. Ces incidents mettent en lumière les défis complexes auxquels sont confrontées les technologies d’IA modernes, nécessitant une attention continue pour assurer leur sécurité et leur conformité.

L'essentiel Cybersécurité, IA & Tech

Rejoignez la communauté. 3 fois par semaine, recevez l'analyse des tendances par Marc Barbezat. Pas de spam, juste de l'info.

Ou suivez le flux temps réel
Telegram Discord

Des hackers soutenus par l’État chinois ont utilisé l’IA d’Anthropic pour mener une campagne de cyberespionnage automatisée. Cette campagne, menée en septembre 2025, a ciblé environ 30 grandes entreprises technologiques, institutions financières et agences gouvernementales. Les attaquants ont exploité les capacités agentiques de l’IA pour exécuter des cyberattaques avec un minimum d’intervention humaine. Selon The Hacker News, l’utilisation de l’IA a permis d’automatiser jusqu’à 90 % des opérations tactiques, marquant une évolution significative dans l’utilisation de la technologie par les adversaires.

Les chercheurs ont découvert une vulnérabilité dans le modèle de génération vidéo Sora 2 d’OpenAI, permettant l’extraction des instructions système cachées. Cette faille exploite des vulnérabilités intermodales, avec la transcription audio s’avérant la méthode la plus efficace pour récupérer ces informations. Sora 2, un modèle multimodal avancé, était censé garder ses consignes système sécurisées. Cependant, en utilisant des techniques de cadrage astucieuses, les chercheurs ont réussi à révéler des instructions cachées qui définissent le comportement du modèle. Selon GBHackers, le problème provient de la dérive sémantique qui se produit lors de la transformation des données à travers différentes modalités. Cette découverte souligne la nécessité de renforcer la sécurité des modèles multimodaux pour prévenir de telles expositions.

OpenAI fait face à un problème persistant de violation de droits d’auteur avec son générateur vidéo Sora 2. Malgré les tentatives d’OpenAI pour empêcher la création de vidéos enfreignant les droits d’auteur, les utilisateurs ont trouvé des moyens de contourner ces restrictions. Des tests menés par 404 Media ont montré qu’il est encore possible de générer du contenu avec des personnages protégés par des droits d’auteur, comme Pikachu, en utilisant des astuces similaires à celles employées pour d’autres générateurs d’IA. OpenAI a introduit une politique d’opt-in pour limiter la création de contenu protégé, mais cela a provoqué des réactions parmi les utilisateurs. D’après 404 Media, le modèle ne peut pas être complètement purgé de son contenu protégé, car il est intégré dans ses données d’entraînement.

Des chercheurs de Microsoft ont développé une attaque par canal auxiliaire, nommée Whisper Leak, qui permet de deviner les sujets discutés avec des modèles de langage. Cette attaque analyse la taille des paquets et les motifs de temporisation dans les réponses en streaming pour inférer les sujets des requêtes chiffrées. Les modèles de certains fournisseurs, tels qu’Anthropic et Google, n’ont pas encore été corrigés, mettant en danger les communications personnelles et d’entreprise. Selon The Register, cette vulnérabilité pose des risques réels pour les utilisateurs dans des environnements où les gouvernements oppressifs pourraient cibler des sujets sensibles.

Une vulnérabilité critique de type SSRF a été découverte dans la fonction Custom GPTs de ChatGPT, permettant aux attaquants d’accéder à des informations sensibles. Cette faille, identifiée par SirLeeroyJenkins, permettait de manipuler les configurations API pour accéder à des services internes, exposant des informations critiques. En exploitant des redirections HTTP et en manipulant les en-têtes d’authentification, l’attaquant a pu extraire des jetons d’accès valides pour l’API de gestion Azure. Selon CyberPress, OpenAI a rapidement corrigé cette vulnérabilité après sa divulgation, soulignant l’importance de la validation des entrées pour prévenir de telles attaques.

Le BSI allemand a publié des directives pour contrer les attaques d’évasion ciblant les modèles de langage de grande taille (LLM). Ces attaques, qui manipulent les entrées pour contourner les garde-fous des modèles, représentent une menace croissante pour les systèmes d’IA. Le rapport du BSI propose des mesures telles que des invites sécurisées, le filtrage du contenu malveillant et la surveillance des anomalies pour renforcer la sécurité des systèmes LLM. Selon Security Affairs, l’adoption de ces contre-mesures peut rendre les attaques plus coûteuses et réduire les dommages potentiels, bien qu’elle ne garantisse pas une immunité totale.

Des vulnérabilités critiques d’exécution de code à distance ont été découvertes dans les moteurs d’inférence d’IA de Meta, Nvidia, et Microsoft. Ces failles, dues à l’utilisation non sécurisée de ZeroMQ et de la désérialisation Python, affectent également des projets open source comme vLLM et SGLang. Le problème a été identifié comme un schéma appelé ShadowMQ, où la logique de désérialisation non sécurisée s’est propagée à plusieurs projets. Selon The Hacker News, ces vulnérabilités permettent à un attaquant d’exécuter du code arbitraire sur le cluster, compromettant potentiellement l’ensemble de l’infrastructure.

Serveurs, API, temps de veille...
DCOD est indépendant et sans revenus. Soutenez le site pour l'aider à couvrir ses frais techniques.

☕ Contribuer aux frais
Etiquettes
  • Anthropic
  • droits d'auteur
  • OpenAI
  • Sora 2
  • vulnérabilités
  • Whisper Leak
Marc Barbezat

Fondateur et éditeur de DCOD - Restons en contact !

A lire également
Illustration 3D pour la veille sur les vulnérabilités : un cadenas métallique ouvert est posé sur un circuit imprimé complexe. De vifs flux lumineux oranges et des triangles d'alerte rouges clignotants émanent du cadenas, symbolisant des failles de sécurité actives et des brèches dans un système informatique.
Lire l'article

Vulnérabilités : les 10 alertes critiques du 9 mars 2026

Illustration conceptuelle de cybersécurité montrant un bouclier numérique vert lumineux avec une serrure centrale, sur fond sombre de réseaux de données, de circuits imprimés et une silhouette de hacker dans l'ombre. Image d'en-tête pour la veille hebdomadaire.
Lire l'article

Cybersécurité : les 11 actualités majeures du 8 mars 2026

Illustration pour la veille cybercriminalité et crypto : une paire de menottes en métal repose sur un clavier d'ordinateur au premier plan. En arrière-plan sombre, une silhouette de hacker encapuchonné fait face à un réseau lumineux d'icônes de cryptomonnaies interconnectées, incluant les symboles du Bitcoin et de l'Ethereum, dans des teintes bleues et rouges.
Lire l'article

Cybercriminalité : les 12 affaires et sanctions du 6 mars 2026

Des idées de lecture recommandées par DCOD

Page frontale du livre 100 Faits à Savoir sur la Cybersécurité

100 Faits à Savoir sur la Cybersécurité

Vous êtes-vous déjà demandé comment les hackers parviennent à pénétrer des systèmes apparemment sécurisés ? Pourquoi entendons-nous tant parler des botnets et que peuvent-ils vraiment faire ? Et qu'en est-il de ce fameux quantum computing qui menace de bouleverser la cryptographie ?

📘 Voir sur Amazon
Page frontale du livre L\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\'intelligence artificielle en 50 notions clés pour les Nuls

L'intelligence artificielle en 50 notions clés pour les Nuls

Grâce à ce livre, vous pourrez naviguer dans l'univers foisonnant de l'IA et rester conscient et éclairé face aux transformations qu'elle propose à notre monde.

📘 Voir sur Amazon
Page frontale du livre Les Secrets du Darknet

Les Secrets du Darknet

Écrit par DarkExplorer, un ancien hacker repenti, ce guide complet vous offre une plongée fascinante dans les coulisses du Darknet, ainsi que les outils et les techniques nécessaires pour naviguer en toute sécurité dans cet univers souvent dangereux et mystérieux.

📘 Voir sur Amazon

🛒 Les liens ci-dessus sont affiliés : en commandant via ces liens, vous soutenez la veille DCOD sans frais supplémentaires 🙏

💡

Note : Certaines images ou extraits présents dans cet article proviennent de sources externes citées à des fins d’illustration ou de veille.
Ce site est indépendant et à but non lucratif. 👉 En savoir plus sur notre cadre d’utilisation.

DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
  • Marc Barbezat
  • À propos de DCOD / Contact
  • Politique de confidentialité de DCOD
Veille stratégique Cybersécurité, IA & Tech. Produite par Marc Barbezat.

Input your search keywords and press Enter.

DCOD est 100% indépendant
Vos cafés financent l'hébergement et les outils de veille. Merci !
Offrir un café ☕
☕

Un café pour DCOD ?

DCOD est un site 100% indépendant, maintenu en accès libre grâce à ses lecteurs.
Si cette veille cyber vous est utile, un simple café aide à couvrir les frais techniques.

☕ Offrir un café