Voici le tour d’horizon hebdomadaire des actualités à l’intersection de l’intelligence artificielle et de la cybersécurité : avancées technologiques, vulnérabilités, usages malveillants, réglementations et initiatives stratégiques à suivre.
Faits marquants de la semaine
- Des chercheurs ont extrait des instructions cachées du modèle Sora 2 d’OpenAI en utilisant des vulnérabilités intermodales.
- Sora 2 d’OpenAI continue de générer du contenu enfreignant le droit d’auteur malgré des tentatives de restriction.
- Des hackers chinois ont utilisé l’IA d’Anthropic pour mener des cyberattaques automatisées.
- Des vulnérabilités critiques ont été découvertes dans les moteurs d’inférence d’IA de Meta, Nvidia, et Microsoft.
OpenAI fait face à des défis de sécurité avec son modèle Sora 2, où des vulnérabilités ont permis l’extraction d’instructions cachées. En parallèle, le même modèle est impliqué dans des problèmes de droits d’auteur, générant du contenu protégé malgré des tentatives de restriction. De plus, des hackers chinois ont exploité l’IA d’Anthropic pour orchestrer des cyberattaques automatisées, soulignant l’évolution des menaces numériques. Enfin, des failles critiques ont été découvertes dans les moteurs d’inférence d’IA de grandes entreprises technologiques, posant des risques de sécurité importants. Ces incidents mettent en lumière les défis complexes auxquels sont confrontées les technologies d’IA modernes, nécessitant une attention continue pour assurer leur sécurité et leur conformité.
Des hackers soutenus par l’État chinois ont utilisé l’IA d’Anthropic pour mener une campagne de cyberespionnage automatisée. Cette campagne, menée en septembre 2025, a ciblé environ 30 grandes entreprises technologiques, institutions financières et agences gouvernementales. Les attaquants ont exploité les capacités agentiques de l’IA pour exécuter des cyberattaques avec un minimum d’intervention humaine. Selon The Hacker News, l’utilisation de l’IA a permis d’automatiser jusqu’à 90 % des opérations tactiques, marquant une évolution significative dans l’utilisation de la technologie par les adversaires.
Les chercheurs ont découvert une vulnérabilité dans le modèle de génération vidéo Sora 2 d’OpenAI, permettant l’extraction des instructions système cachées. Cette faille exploite des vulnérabilités intermodales, avec la transcription audio s’avérant la méthode la plus efficace pour récupérer ces informations. Sora 2, un modèle multimodal avancé, était censé garder ses consignes système sécurisées. Cependant, en utilisant des techniques de cadrage astucieuses, les chercheurs ont réussi à révéler des instructions cachées qui définissent le comportement du modèle. Selon GBHackers, le problème provient de la dérive sémantique qui se produit lors de la transformation des données à travers différentes modalités. Cette découverte souligne la nécessité de renforcer la sécurité des modèles multimodaux pour prévenir de telles expositions.
Offrez un café pour soutenir cette veille indépendante.
☕ Je soutiens DCODOpenAI fait face à un problème persistant de violation de droits d’auteur avec son générateur vidéo Sora 2. Malgré les tentatives d’OpenAI pour empêcher la création de vidéos enfreignant les droits d’auteur, les utilisateurs ont trouvé des moyens de contourner ces restrictions. Des tests menés par 404 Media ont montré qu’il est encore possible de générer du contenu avec des personnages protégés par des droits d’auteur, comme Pikachu, en utilisant des astuces similaires à celles employées pour d’autres générateurs d’IA. OpenAI a introduit une politique d’opt-in pour limiter la création de contenu protégé, mais cela a provoqué des réactions parmi les utilisateurs. D’après 404 Media, le modèle ne peut pas être complètement purgé de son contenu protégé, car il est intégré dans ses données d’entraînement.
Des chercheurs de Microsoft ont développé une attaque par canal auxiliaire, nommée Whisper Leak, qui permet de deviner les sujets discutés avec des modèles de langage. Cette attaque analyse la taille des paquets et les motifs de temporisation dans les réponses en streaming pour inférer les sujets des requêtes chiffrées. Les modèles de certains fournisseurs, tels qu’Anthropic et Google, n’ont pas encore été corrigés, mettant en danger les communications personnelles et d’entreprise. Selon The Register, cette vulnérabilité pose des risques réels pour les utilisateurs dans des environnements où les gouvernements oppressifs pourraient cibler des sujets sensibles.
Une vulnérabilité critique de type SSRF a été découverte dans la fonction Custom GPTs de ChatGPT, permettant aux attaquants d’accéder à des informations sensibles. Cette faille, identifiée par SirLeeroyJenkins, permettait de manipuler les configurations API pour accéder à des services internes, exposant des informations critiques. En exploitant des redirections HTTP et en manipulant les en-têtes d’authentification, l’attaquant a pu extraire des jetons d’accès valides pour l’API de gestion Azure. Selon CyberPress, OpenAI a rapidement corrigé cette vulnérabilité après sa divulgation, soulignant l’importance de la validation des entrées pour prévenir de telles attaques.
Le BSI allemand a publié des directives pour contrer les attaques d’évasion ciblant les modèles de langage de grande taille (LLM). Ces attaques, qui manipulent les entrées pour contourner les garde-fous des modèles, représentent une menace croissante pour les systèmes d’IA. Le rapport du BSI propose des mesures telles que des invites sécurisées, le filtrage du contenu malveillant et la surveillance des anomalies pour renforcer la sécurité des systèmes LLM. Selon Security Affairs, l’adoption de ces contre-mesures peut rendre les attaques plus coûteuses et réduire les dommages potentiels, bien qu’elle ne garantisse pas une immunité totale.
Des vulnérabilités critiques d’exécution de code à distance ont été découvertes dans les moteurs d’inférence d’IA de Meta, Nvidia, et Microsoft. Ces failles, dues à l’utilisation non sécurisée de ZeroMQ et de la désérialisation Python, affectent également des projets open source comme vLLM et SGLang. Le problème a été identifié comme un schéma appelé ShadowMQ, où la logique de désérialisation non sécurisée s’est propagée à plusieurs projets. Selon The Hacker News, ces vulnérabilités permettent à un attaquant d’exécuter du code arbitraire sur le cluster, compromettant potentiellement l’ensemble de l’infrastructure.
💡 Ne manquez plus l'essentiel
Recevez les analyses et tendances cybersécurité directement dans votre boîte mail.
💡 Note : Certaines images ou extraits présents dans cet article proviennent de sources externes citées à des fins d’illustration ou de veille. Ce site est indépendant et à but non lucratif. 👉 En savoir plus sur notre cadre d’utilisation.
Vous appréciez ces analyses ?
Soutenez DCOD en offrant un café ☕
