Voici le tour d’horizon hebdomadaire des actualités à l’intersection de l’intelligence artificielle et de la cybersécurité : avancées technologiques, vulnérabilités, usages malveillants, réglementations et initiatives stratégiques à suivre.
Faits marquants de la semaine
- Les chercheurs ont découvert une vulnérabilité critique dans le navigateur Comet de Perplexity, permettant des injections de commandes malveillantes via des captures d’écran.
- Un étudiant du Maryland a été menotté après qu’un système de sécurité AI a confondu un sac de chips avec une arme à feu.
- La Corée du Nord utilise des outils AI avancés pour réinventer le crime crypto, avec des vols atteignant 2 milliards de dollars cette année.
- OpenAI fait face à une demande de divulgation des prompts ChatGPT par le DHS dans une enquête sur l’exploitation d’enfants.
L’actualité de la cybersécurité met en lumière cette semaine plusieurs incidents notables liés à l’intelligence artificielle. Des vulnérabilités dans les navigateurs AI, des erreurs de sécurité dans les systèmes scolaires, et des attaques sophistiquées orchestrées par des États-nations illustrent les défis croissants dans ce domaine. Les chercheurs continuent de découvrir des failles critiques, comme celle permettant des injections de commandes malveillantes dans le navigateur Comet, tandis que des systèmes de sécurité mal calibrés peuvent entraîner des situations dangereuses, comme l’arrestation erronée d’un étudiant. Parallèlement, des acteurs malveillants, tels que ceux soutenus par la Corée du Nord, exploitent l’AI pour mener des cybercrimes à grande échelle. De plus, les demandes de divulgation de données par les autorités judiciaires soulignent l’importance de la transparence et de la responsabilité dans l’utilisation des technologies AI.
Les navigateurs Atlas d’OpenAI et Comet de Perplexity sont vulnérables aux attaques de contrefaçon de barres latérales AI, selon BleepingComputer. Ces attaques, développées par SquareX, exploitent des extensions malveillantes pour superposer une fausse barre latérale sur l’interface utilisateur réelle. Les chercheurs ont démontré trois scénarios d’attaque réalistes, tels que le vol de cryptomonnaie et l’accès aux services Gmail et Google Drive des utilisateurs. Les extensions malveillantes n’exigent que des permissions communes, ce qui les rend difficiles à détecter.
Un incident à Baltimore, Maryland, a mis en lumière les limites des systèmes de sécurité AI dans les écoles. Un étudiant du lycée Kenwood a été menotté après qu’un système de détection d’armes AI a confondu un sac de chips Doritos avec une arme à feu, rapporte TechCrunch. L’élève a été contraint de s’agenouiller et de se faire menotter avant que l’alerte ne soit annulée par le département de sécurité de l’école. Omnilert, la société derrière le système de détection d’armes, a exprimé ses regrets pour l’incident, bien qu’elle ait affirmé que le processus fonctionnait comme prévu.
Offrez un café pour soutenir cette veille indépendante.
☕ Je soutiens DCODLa technique de phishing ‘CoPhish’ utilise les agents de Microsoft Copilot Studio pour envoyer des demandes de consentement OAuth frauduleuses via des domaines Microsoft légitimes, comme le rapporte BleepingComputer. Développée par Datadog Security Labs, cette méthode exploite la flexibilité de Copilot Studio pour introduire de nouveaux risques de phishing non documentés. Microsoft prévoit de corriger ces vulnérabilités dans une mise à jour future. Le phishing CoPhish repose sur l’ingénierie sociale et permet aux attaquants de personnaliser les agents Copilot pour rediriger les utilisateurs vers des sites malveillants. Les utilisateurs avec des privilèges administratifs peuvent en effet approuver des actions pour des applications internes ou externes, facilitant ainsi l’exploitation. Même après la mise à jour de Microsoft, les attaquants externes peuvent cibler les administrateurs d’applications avec des applications enregistrées en externe.
Operant AI a découvert une faille critique dans le protocole Model Context (MCP), permettant un vol de données invisible sur les principales plateformes AI, selon Yahoo Finance. Cette attaque, baptisée Shadow Escape, exploite des agents AI de confiance pour exfiltrer des informations personnelles identifiables, y compris des numéros de sécurité sociale et des dossiers médicaux. L’attaque ne nécessite aucune erreur utilisateur et fonctionne entièrement à l’intérieur des pare-feu, rendant la détection difficile.
Reddit a intenté une action en justice contre quatre entreprises, dont Perplexity, pour exploitation illégale de ses données, rapporte Le Monde. Reddit accuse ces sociétés de contourner ses systèmes de protection pour aspirer et revendre les messages de ses utilisateurs à des fins d’entraînement d’IA. La plainte déposée à New York vise également d’autres entreprises spécialisées dans le traitement de données. Reddit affirme que ces entreprises utilisent des résultats de recherche Google pour accéder à ses contenus protégés.
Les hackers nord-coréens utilisent des outils AI avancés pour redéfinir le crime crypto, selon CoinDesk. Ces hackers, soutenus par l’État, exploitent l’AI pour analyser les bases de code, identifier les vulnérabilités et reproduire des exploits réussis à travers plusieurs blockchains en quelques minutes. Cette approche permet de mener des attaques à grande échelle avec une efficacité industrielle. En 2025, les unités cybernétiques de Pyongyang ont volé environ 2 milliards de dollars en cryptomonnaies. L’utilisation de modèles de langage étendu, similaires à ChatGPT et Claude, facilite l’analyse des codes open-source et l’exploitation des failles. Le groupe Lazarus, célèbre pour ses attaques, a déjà établi des records cette année avec le piratage de 1,5 milliard de dollars de Bybit en février, le plus grand vol de crypto à ce jour.
Le système Omnibox d’OpenAI Atlas présente une vulnérabilité aux jailbreaks, selon SecurityWeek. Les chercheurs de NeuralTrust ont découvert qu’un prompt peut être déguisé en URL et accepté par Atlas comme tel, permettant des actions non autorisées. Cette faille résulte d’une défaillance de la limite de parsing d’entrée d’Atlas, permettant aux prompts déguisés de contourner les vérifications de sécurité. Les jailbreaks peuvent conduire à des actions transversales et à la suppression des couches de sécurité. Les chercheurs ont identifié deux exemples d’abus potentiels : un piège de lien de copie et des instructions destructrices.
Une faille d’injection d’argument critique dans les agents AI permet l’exécution de code à distance, comme le rapporte GBHackers. La vulnérabilité CVE-2025-54795 affecte les agents Claude, permettant aux attaquants d’exploiter les capacités d’analyse de code et de gestion de fichiers des agents. Les outils système pré-approuvés, tels que find et grep, sont utilisés par les agents AI pour l’efficacité, mais cette conception introduit un risque critique d’injection d’argument. Les experts recommandent l’isolation des opérations des agents AI pour prévenir les évasions en cas de compromission.
OpenAI fait face à une demande du DHS pour divulguer les prompts ChatGPT dans une enquête, selon GBHackers. Un mandat de perquisition fédéral a été émis dans le cadre d’une enquête sur un site d’exploitation d’enfants, marquant une première dans l’utilisation des journaux de chat AI comme preuve. Les agents fédéraux ont découvert que le suspect utilisait ChatGPT, partageant certaines de ses réponses lors de sessions de chat. Le DHS a demandé toutes les informations disponibles sur cet utilisateur, y compris les conversations, les noms de compte et les détails de paiement. Bien que les enquêteurs n’aient pas utilisé les données d’OpenAI pour identifier le suspect, ils ont découvert des détails révélateurs au cours des discussions.
Une vulnérabilité dans la fonctionnalité de capture d’écran du navigateur Comet de Perplexity permet l’injection de prompts malveillants, selon GBHackers. Découverte le 21 octobre 2025, cette faille démontre comment les navigateurs AI peuvent devenir des portes d’entrée dangereuses pour les attaquants. Les chercheurs ont utilisé la stéganographie pour cacher des instructions invisibles dans le contenu web, que le navigateur Comet extrait et traite comme des commandes légitimes. Cette vulnérabilité permet aux attaquants d’accéder à des comptes sensibles, comme les services bancaires et les emails, en exploitant les captures d’écran des utilisateurs.
💡 Ne manquez plus l'essentiel
Recevez les analyses et tendances cybersécurité directement dans votre boîte mail.
💡 Note : Certaines images ou extraits présents dans cet article proviennent de sources externes citées à des fins d’illustration ou de veille. Ce site est indépendant et à but non lucratif. 👉 En savoir plus sur notre cadre d’utilisation.
Vous appréciez ces analyses ?
Soutenez DCOD en offrant un café ☕
