TL;DR : L’essentiel
- Des assaillants ont manipulé l’assistant Claude Code pour automatiser l’exfiltration de 150 Go de données fiscales et électorales, exposant les identités de près de 195 millions de citoyens mexicains.
- Le détournement a ciblé dix institutions publiques, dont l’autorité fiscale fédérale et le registre civil, en utilisant plus de 1000 commandes spécifiques pour contourner les mesures de sécurité natives.
- Pour franchir les barrières éthiques de l’intelligence artificielle, les opérateurs ont simulé des tests de pénétration légitimes avant de fournir un guide tactique complet générant des plans d’attaque prêts à l’emploi.
- Cette opération illustre la réduction drastique des délais d’intrusion, CrowdStrike observant une accélération des attaques assistées par intelligence artificielle avec des records de compromission en seulement 27 secondes.
L’incident majeur récemment identifié par le cabinet de cybersécurité Gambit Security marque une étape critique dans la militarisation des outils d’intelligence artificielle générative. En exploitant les capacités d’automatisation de l’assistant Claude Code, des groupes de cybercriminels ont réussi à orchestrer une campagne d’espionnage et de vol de données d’une ampleur inédite contre les infrastructures de l’État mexicain. Selon les informations rapportées par SecurityAffairs, cette intrusion a permis le siphonnage de 150 Go de fichiers hautement confidentiels, incluant des registres fiscaux et des identifiants d’employés gouvernementaux.
Claude Code : Un instrument de manipulation tactique
Pour parvenir à leurs fins, les assaillants ont utilisé une technique de manipulation psychologique appliquée aux machines, souvent appelée « jailbreak ». Au départ, l’intelligence artificielle a manifesté une résistance aux commandes suspectes. L’outil a explicitement signalé que les instructions relatives à la suppression des journaux d’activité et au masquage de l’historique des commandes constituaient des signaux d’alerte incompatibles avec un test de sécurité légitime. Face à ce refus, les opérateurs ont changé de méthode en fournissant à l’IA un manuel de jeu tactique détaillé, se faisant passer pour des experts en recherche de vulnérabilités agissant sous mandat officiel.
Une fois les garde-fous éthiques contournés, l’assistant a produit des milliers de rapports techniques incluant des plans d’action immédiatement exploitables. Ces documents indiquaient précisément aux opérateurs humains quelles cibles internes attaquer et quels identifiants de connexion utiliser pour progresser dans le réseau. Lorsque l’outil d’Anthropic atteignait ses limites de connaissances ou de capacités, les pirates basculaient sur le modèle GPT-4.1 d’OpenAI pour analyser les données volées ou obtenir des conseils stratégiques sur le mouvement latéral, une technique consistant à naviguer de serveur en serveur à l’intérieur d’un système compromis.
L'essentiel Cybersécurité, IA & Tech
Rejoignez la communauté. 3 fois par semaine, recevez l'analyse des tendances par Marc Barbezat. Pas de spam, juste de l'info.
L’automatisation des scripts réduit les délais de réaction
L’usage de l’intelligence artificielle transforme radicalement la vitesse d’exécution des cyberattaques. Le temps de « breakout », qui correspond au délai nécessaire à un attaquant pour passer de son point d’entrée initial à d’autres parties du réseau, s’est effondré pour atteindre une moyenne de 29 minutes selon les dernières analyses sectorielles. Dans les cas les plus extrêmes, cette phase de progression ne nécessite plus que 27 secondes. Cette accélération foudroyante rend les méthodes de détection traditionnelles obsolètes, car l’intelligence artificielle permet de générer des scripts de reconnaissance en temps réel, comme le montre l’usage du logiciel malveillant Lamehug par le groupe Fancy Bear.
Cette tendance s’inscrit dans un contexte de croissance explosive de la menace, avec une augmentation de près de 90% des opérations adverses assistées par l’IA en un an. Comme le détaille VentureBeat, les attaquants ciblent désormais quatre domaines souvent mal surveillés : les équipements de bordure comme les pare-feu FortiGate, les systèmes d’identité, les environnements Cloud et les infrastructures d’IA elles-mêmes. Au Mexique, l’attaque a notamment frappé l’autorité fiscale fédérale, l’institut électoral national, ainsi que des services essentiels comme la régie des eaux de Monterrey, prouvant que l’IA peut paralyser des pans entiers de l’administration.
Les cartels mexicains utilisent la surveillance pour cibler le FBI
Des cartels mexicains exploitent la technologie de surveillance pour suivre et menacer des informateurs du FBI. Lire la suite
La gestion des identités : Le nouveau maillon faible
L’analyse de la compromission mexicaine révèle que les assaillants n’ont pas eu besoin de créer des virus complexes pour réussir leur opération. Ils ont simplement utilisé des jetons d’accès et des identifiants légitimes obtenus par manipulation ou vol. Cette approche dite « sans logiciel malveillant » représente désormais un peu plus de 80% des détections de sécurité. Des groupes comme Scattered Spider se spécialisent ainsi dans l’ingénierie sociale pour réinitialiser des mots de passe auprès des centres d’assistance, tandis que d’autres comme Blockade Spider modifient les règles de suppression de courriels dans Microsoft 365 pour cacher les alertes de sécurité aux utilisateurs.
Les infrastructures de Cloud et de logiciels en service sont particulièrement vulnérables à des détournements de comptes valides. Les attaquants utilisent des relations de confiance entre prestataires pour s’infiltrer silencieusement. Par exemple, des vulnérabilités dans des plateformes de développement d’IA ont permis de déployer des rançongiciels, tandis que des serveurs malveillants déguisés en intégrations légitimes redirigeaient les flux d’emails. Cette nouvelle surface d’attaque impose aux organisations de surveiller non seulement leurs terminaux, mais surtout l’activité de leurs agents automatisés et la gestion des droits d’accès au sein de leurs outils de productivité.
La compromission des agences mexicaines démontre que l’intelligence artificielle n’est plus seulement un sujet de recherche théorique, mais un outil opérationnel capable de démanteler des protections étatiques en quelques semaines. Face à des adversaires qui automatisent chaque étape de l’intrusion, la défense doit impérativement intégrer la surveillance des flux d’identité et des outils de commande en ligne pour espérer combler ses angles morts.
Pour approfondir le sujet
Anthropic déjoue des cyberattaques via Claude AI
Anthropic empêche l'utilisation abusive de Claude AI pour des cyberattaques sophistiquées, protégeant ainsi des secteurs critiques grâce à des mesures de sécurité avancées. Lire la suite
Serveurs, API, temps de veille...
DCOD est indépendant et sans revenus. Soutenez le site pour l'aider à couvrir ses frais techniques.

