Faits marquants de la semaine
- Anthropic refuse les nouvelles conditions du Département de la Défense américain, rejetant l’usage de ses modèles pour la surveillance de masse intérieure et les armes entièrement autonomes, malgré des menaces de désignation comme « risque pour la chaîne d’approvisionnement ».
- Après l’échec des négociations avec le Pentagone, le président américain ordonne à toutes les agences fédérales de cesser immédiatement d’utiliser les technologies Anthropic, tandis qu’OpenAI annonce dans la foulée un nouveau contrat avec la Défense en maintenant ses garde-fous déclarés.
- Anthropic accuse trois laboratoires chinois, dont l’éditeur de DeepSeek, d’avoir créé environ 24 000 comptes frauduleux pour mener des attaques de distillation, générant plus de 16 millions d’échanges avec Claude afin d’en extraire illicitement des capacités.
- Des chercheurs de Truffle Security identifient près de 3 000 clés d’API Google Cloud visibles dans du code côté client ; ces identifiants « AIza » permettraient d’accéder à des interfaces Gemini sensibles et à des données privées associées.
Les développements récents révèlent une convergence explosive entre géopolitique, espionnage industriel et sécurité opérationnelle autour des grands modèles d’intelligence artificielle. Conflit ouvert entre Anthropic et l’État fédéral, tentatives massives de distillation par des concurrents chinois et exposition de clés donnant accès à Gemini soulignent que la protection des modèles, de leurs usages militaires et de leurs données devient un enjeu stratégique majeur.
L'essentiel Cybersécurité, IA & Tech
Rejoignez la communauté. 3 fois par semaine, recevez l'analyse des tendances par Marc Barbezat. Pas de spam, juste de l'info.
La sélection des 9 actualités à retenir cette semaine
Anthropic refuse les nouvelles conditions du Pentagone et maintient sa position sur les armes autonomes létales et la surveillance de masse.
Moins de 24 heures avant l'ultimatum du Pentagone, Anthropic a refusé de se conformer aux exigences du Département de la Défense concernant un accès illimité à son intelligence artificielle… Lire la suite
Les agences américaines doivent cesser d'utiliser la technologie Anthropic sur fond de controverse éthique concernant l'IA
Quelques heures après l'exclusion d'Anthropic, OpenAI annonce un nouvel accord avec le Pentagone, mais précise qu'elle maintiendra les mêmes garde-fous au cœur du différend… Lire la suite
Anthropic : Des entreprises chinoises spécialisées dans l’IA ont créé 24 000 comptes frauduleux pour des attaques par distillation
Anthropic accuse trois sociétés chinoises d'intelligence artificielle de mener des campagnes à grande échelle pour extraire illégalement sa technologie au moyen d'attaques par distillation. Anthropic affirme que ces sociétés ont créé 24 000 comptes frauduleux pour dissimuler ces… Lire la suite
Des milliers de clés API publiques Google Cloud exposées via Gemini Access après l'activation des API
Une nouvelle étude révèle que les clés API Google Cloud, généralement utilisées comme identifiants de projet à des fins de facturation, pourraient être détournées pour s'authentifier auprès de points de terminaison Gemini sensibles et accéder à des… Lire la suite
Un pirate informatique a utilisé le chatbot Claude d'Anthropic pour attaquer plusieurs agences gouvernementales au Mexique.
Voici une autre histoire inquiétante concernant cet âge d'or de l'IA. Selon un article de Bloomberg, un pirate informatique a exploité le chatbot Claude d'Anthropic pour mener des attaques contre des agences gouvernementales mexicaines. Ces attaques ont… Lire la suite
Firefox 148 introduit le « coupe-circuit » promis pour l'IA et corrige les failles de sécurité liées au sandbox.
Mozilla a publié Firefox 148, intégrant un panneau de contrôle centralisé pour l'IA, attendu de longue date, qui permet aux utilisateurs de désactiver complètement ou de gérer de manière granulaire les fonctionnalités d'intelligence artificielle du navigateur. Cette… Lire la suite
Les LLM peuvent briser le pseudonyme en ligne et identifier les utilisateurs sur différentes plateformes.
Les grands modèles de langage (LLM) peuvent désormais réidentifier à grande échelle les utilisateurs d'Internet pseudonymes, atteignant des niveaux de précision comparables à ceux des enquêteurs humains les plus compétents, et ce en quelques minutes au lieu… Lire la suite
Des failles dans le code de Claude permettent l'exécution de code à distance et l'exfiltration de clés API.
Des chercheurs en cybersécurité ont révélé plusieurs failles de sécurité dans Claude Code d'Anthropic, un assistant de programmation basé sur l'intelligence artificielle (IA), qui pourraient permettre l'exécution de code à distance et le vol d'identifiants API. «… Lire la suite
Des pirates informatiques exploitent DeepSeek et Claude AI pour lancer des attaques mondiales contre des équipements FortiGate.
Des pirates informatiques utilisent les modèles d'IA commerciaux DeepSeek et Claude pour automatiser des attaques contre les pare-feu FortiGate du monde entier, transformant de simples erreurs de configuration en une campagne d'intrusion de grande ampleur. Début février… Lire la suite
Cette veille vous a été utile ?
Un café = un mois de serveur. Aidez DCOD à rester gratuit et indépendant.







