Faits marquants de la semaine
- Claude Opus 4.6 a permis d’identifier plus de 500 failles de sécurité jusqu’ici inconnues et jugées graves dans des bibliothèques open source majeures, dont Ghostscript, OpenSC et CGIF, grâce à ses nouvelles capacités de revue et débogage de code.
- Une vulnérabilité critique dans OpenClaw (CVE-2026-25253, score 8,8) permet une exécution de code à distance en un clic via un lien malveillant, en détournant un jeton d’authentification pour compromettre entièrement la passerelle locale.
- Seize instances de Claude Opus 4.6, utilisées comme agents collaboratifs avec une supervision minimale, ont produit en deux semaines un compilateur de langage C en Rust de 100 000 lignes, capable de générer un noyau Linux 6.9 amorçable sur x86, ARM et RISC-V.
- OpenAI lance Trusted Access for Cyber, un cadre d’accès fondé sur l’identité et la confiance autour de GPT-5.3-Codex, un modèle avancé capable de fonctionner de manière autonome pendant des heures ou des jours pour réaliser des tâches de sécurité complexes.
L’industrialisation des agents d’intelligence artificielle franchit un cap, avec des modèles capables aussi bien de découvrir massivement des failles critiques dans des bibliothèques open source que de concevoir un compilateur complet ou d’orchestrer des opérations de sécurité autonomes, poussant les fournisseurs à encadrer strictement l’accès à leurs modèles les plus puissants via de nouveaux cadres d’identité et de confiance.
L'essentiel Cybersécurité, IA & Tech
Rejoignez la communauté. 3 fois par semaine, recevez l'analyse des tendances par Marc Barbezat. Pas de spam, juste de l'info.
La sélection des 8 actualités à retenir cette semaine
Claude Opus 4.6 découvre plus de 500 failles critiques dans les principales bibliothèques open source.
La société d'intelligence artificielle Anthropic a révélé que son dernier modèle de langage à grande échelle (LLM), Claude Opus 4.6, a découvert plus de 500 failles de sécurité critiques, jusqu'alors inconnues, dans des bibliothèques open source telles… Lire la suite
Une faille dans OpenClaw permet l'exécution de code à distance en un clic via un lien malveillant
Une faille de sécurité critique a été découverte dans OpenClaw (anciennement Clawdbot et Moltbot). Cette faille permet l'exécution de code à distance (RCE) via un lien malveillant. Ce problème, référencé CVE-2026-25253 (score CVSS : 8,8), a été corrigé… Lire la suite
Seize agents d'IA Claude travaillant ensemble ont créé un nouveau compilateur C.
Alors que le développement des agents IA s'intensifie, Anthropic et OpenAI ayant tous deux lancé cette semaine des outils multi-agents, Anthropic est fin prêt à présenter certaines de ses expériences de programmation IA les plus audacieuses. Mais… Lire la suite
OpenAI lance Trusted Access pour renforcer la cybersécurité
OpenAI a dévoilé Trusted Access for Cyber, un nouveau cadre basé sur l'identité et la confiance, conçu pour renforcer les défenses en matière de cybersécurité tout en atténuant les risques posés par ses modèles d'IA les plus… Lire la suite
Des chercheurs découvrent 341 compétences malveillantes sur ClawHub qui volent des données aux utilisateurs d'OpenClaw.
Un audit de sécurité portant sur 2 857 compétences disponibles sur ClawHub a révélé la présence de 341 compétences malveillantes dans le cadre de plusieurs campagnes, selon les nouvelles conclusions de Koi Security. Les utilisateurs sont ainsi exposés… Lire la suite
Docker corrige une faille critique dans Ask Gordon AI qui permettait l'exécution de code via les métadonnées d'image
Des chercheurs en cybersécurité ont révélé les détails d'une faille de sécurité, désormais corrigée, affectant Ask Gordon, un assistant d'intelligence artificielle (IA) intégré à Docker Desktop et à l'interface de ligne de commande (CLI) de Docker. Cette… Lire la suite
Les compétences de MoltBot ont été exploitées pour diffuser plus de 400 logiciels malveillants en quelques jours.
Plus de 400 packages OpenClaw malveillants ont été téléchargés en quelques jours, utilisant les compétences de MoltBot pour diffuser des logiciels malveillants de vol de mots de passe. Des chercheurs ont mis au jour une vaste campagne… Lire la suite
L'autorité britannique de protection de la vie privée ouvre une enquête sur X concernant les deepfakes sexuels de l'IA Grok.
Le Bureau du commissaire à l'information enquête sur la conformité des entreprises d'Elon Musk avec la législation sur la protection des données. Les sociétés X et xAI d'Elon Musk font l'objet d'une enquête formelle du gendarme britannique… Lire la suite
Des serveurs, des API et du temps.
DCOD est bénévole, mais l'hébergement a un coût. Participez aux frais techniques.







