Faits marquants de la semaine
- L’Union européenne reporte à décembre 2027 l’entrée en vigueur des restrictions sur les usages d’intelligence artificielle à haut risque, tout en exemptant largement l’IA industrielle et en interdisant certaines formes de deepfakes sexuels et de contenus pédopornographiques générés par IA.
- L’UE accroît la pression sur Anthropic pour obtenir un accès au modèle Mythos, présenté comme extrêmement performant en piratage, avec auditions au Parlement européen, mobilisation d’ENISA et inquiétudes particulières pour la protection des actifs critiques et du secteur bancaire.
- Mozilla détaille l’usage du modèle Mythos pour identifier 271 vulnérabilités de sécurité dans Firefox en deux mois, grâce à une combinaison d’améliorations du modèle et d’un environnement d’analyse spécifique limitant fortement les faux positifs.
- OpenAI déploie une fonction Advanced Account Security destinée aux comptes ChatGPT et Codex considérés comme particulièrement exposés aux tentatives de hameçonnage, afin de renforcer la protection des utilisateurs à haut risque.
La semaine illustre l’accélération de la course entre capacités offensives et défensives en matière d’intelligence artificielle, tandis que l’Union européenne ajuste son cadre réglementaire. Les modèles avancés comme Mythos apparaissent simultanément comme des outils de détection massive de vulnérabilités et des technologies de piratage potentiellement incontrôlables, poussant régulateurs et fournisseurs d’IA à renforcer gouvernance, contrôles d’accès et sécurité des comptes.
L'essentiel Cybersécurité, IA & Tech
Rejoignez la communauté. 3 fois par semaine, recevez l'analyse des tendances par Marc Barbezat. Pas de spam, juste de l'info.
La sélection des 11 actualités à retenir cette semaine
L'UE conclut un accord pour lever les restrictions sur l'IA
Les restrictions sur les utilisations à haut risque de l'intelligence artificielle dans l'UE seront reportées de plus d'un an, suite à un accord conclu jeudi matin par les législateurs européens. Ce projet de loi, visant à reporter… Lire la suite
L'UE intensifie la pression sur Anthropic concernant les risques de piratage de Mythos
BRUXELLES — Anthropic, entreprise américaine spécialisée dans l'intelligence artificielle, fait face à des critiques croissantes concernant sa décision de soustraire un nouveau modèle doté de capacités de piratage exceptionnelles aux autorités de régulation européennes. Les agissements de… Lire la suite
Mozilla affirme que les 271 vulnérabilités découvertes par Mythos ne présentent « quasiment aucun faux positif ».
L’incrédulité était palpable lorsque le directeur technique de Mozilla a déclaré le mois dernier que la détection des vulnérabilités assistée par l’IA signifiait que « les failles zero-day sont comptées » et que « les défenseurs ont… Lire la suite
OpenAI déploie un mode de sécurité « avancé » pour les comptes ChatGPT et Codex à risque
OpenAI déploie une sécurité avancée des comptes pour les personnes craignant que leurs comptes ChatGPT ou Codex ne soient des cibles potentielles d'attaques de phishing. Lire la suite
L’IA accélère la détection des failles, imposant des mises à jour rapides, prévient le NCSC britannique
L’agence britannique de cybersécurité, le NCSC, met en garde contre l’accélération de la découverte des vulnérabilités par l’IA, ce qui risque de provoquer une vague de mises à jour logicielles urgentes pour corriger les failles exposées. Le… Lire la suite
Claude d'Anthropic a été utilisé dans une tentative de compromission du service des eaux mexicain.
Les chercheurs avertissent que cet incident met en lumière comment les outils d'IA peuvent aider des acteurs malveillants non formés à développer des capacités de cyberattaque complexes. Lire la suite
De nouvelles recherches révèlent que les modèles d'IA peuvent pirater des ordinateurs et se répliquer sur de nouvelles machines.
Des scientifiques ayant observé des chatbots d'IA se copier eux-mêmes et lancer des attaques de piratage lors d'une expérience affirment que « l'auto-réplication autonome de l'IA n'est plus une hypothèse ». Lire la suite
Les coûts de l'IA se répercutent sur les consommateurs.
Une série de résultats d'entreprises technologiques annoncent un avenir coûteux pour les consommateurs d'électronique grand public, et des développements majeurs dans le secteur technologique britannique. Bonjour et bienvenue sur TechScape. Je suis votre hôte, Blake Montgomery, rédacteur… Lire la suite
Le faux site web Claude AI diffuse un nouveau logiciel malveillant Windows intitulé « Beagle ».
Une fausse version du site web de Claude AI propose un téléchargement malveillant de Claude-Pro Relay qui installe une porte dérobée pour Windows, nommée Beagle, jusqu'alors inconnue. […] Lire la suite
Une faille dans l'extension Chrome de Claude permettait à n'importe quel autre plugin de détourner l'IA des victimes.
Alors que les entreprises et les gouvernements se tournent vers les agents d'IA pour accéder à Internet et effectuer des tâches complexes, les chercheurs continuent de découvrir de graves failles dans les grands modèles de langage, failles… Lire la suite
Un test d'intrusion manuel coûte 50 000 dollars. Intruder a créé une IA qui le réalise en quelques minutes.
Un test d'intrusion manuel coûte entre 10 000 et 50 000 dollars. Sa planification prend des semaines, son exécution plusieurs jours, et le rapport produit est obsolète avant même d'être rédigé. Intruder, une entreprise londonienne de cybersécurité issue du… Lire la suite
Serveurs, API, temps de veille...
DCOD est indépendant et sans revenus. Soutenez le site pour l'aider à couvrir ses frais techniques.










