Offrez un café pour soutenir cette veille indépendante.
☕ Je soutiens DCODVoici le tour d’horizon hebdomadaire des actualités à l’intersection de l’intelligence artificielle et de la cybersécurité : avancées technologiques, vulnérabilités, usages malveillants, réglementations et initiatives stratégiques à suivre.
Faits marquants de la semaine
- DeepSeek a révélé que ses modèles open-source sont vulnérables sans contrôles externes.
- MalTerminal, un malware utilisant GPT-4, a été découvert par SentinelOne.
- Une étude a démontré que les attaques par « bit flip » peuvent tromper les systèmes IA.
- Des hackers nord-coréens ont utilisé ChatGPT pour créer de fausses identifications.
La cybersécurité continue d’être un domaine en constante évolution avec des menaces de plus en plus sophistiquées. Cette semaine, plusieurs incidents notables ont mis en lumière les vulnérabilités des systèmes d’intelligence artificielle et les méthodes innovantes utilisées par les cybercriminels. Des modèles open-source d’IA aux attaques par phishing sophistiquées, les acteurs malveillants exploitent les technologies avancées pour contourner les mesures de sécurité. Les chercheurs ont également découvert de nouvelles formes de malware intégrant des modèles de langage. Ce tour d’horizon met en lumière des incidents récents, allant des vulnérabilités des modèles IA aux campagnes de phishing orchestrées par des États-nations, illustrant la nécessité d’une vigilance accrue dans le secteur.
DeepSeek, une startup d’intelligence artificielle basée à Hangzhou, a récemment mis en garde contre les risques de contournement de sécurité dans ses modèles open-source. L’évaluation de ses modèles R1 et V3 a montré des scores de sécurité légèrement supérieurs à la moyenne par rapport à d’autres modèles tels que l’o1 d’OpenAI et le GPT-4o. Cependant, le modèle R1 a été jugé « relativement peu sûr » sans contrôles de risque externes. Les experts soulignent que l’ouverture des modèles permet de supprimer les fonctionnalités de sécurité, augmentant ainsi les risques de mauvaise utilisation. Selon Tech in Asia, le coût de formation du modèle R1 s’élève à 294 000 dollars, ce qui est inférieur à celui des modèles américains comparables. Cette vulnérabilité est accentuée par la tendance des modèles open-source à produire des réponses nuisibles sous des tentatives de jailbreak.
Les chercheurs en cybersécurité ont découvert MalTerminal, un malware intégré avec des capacités de modèle de langage large (LLM), considéré comme le premier exemple connu de ce type. Présenté lors de la conférence LABScon 2025, ce malware utilise GPT-4 pour créer des ransomwares et des shells inversés. D’après The Hacker News, cette découverte met en lumière l’utilisation malveillante des LLMs, soulignant les défis croissants pour la sécurité informatique. Le rapport de SentinelOne révèle que ce malware pourrait représenter une nouvelle ère de cybermenaces, exploitant les capacités avancées des modèles de langage pour contourner les défenses traditionnelles.
Une étude récente de l’Université George Mason a révélé que les attaquants peuvent compromettre les systèmes d’intelligence artificielle en utilisant une attaque dite de « bit flip ». Cette technique consiste à modifier un seul bit dans les réseaux neuronaux profonds, permettant aux attaquants de tromper les systèmes en changeant leur sortie. Par exemple, un message financier pourrait être altéré pour lire « Transférer 10 000 $ » au lieu de « Transférer 10 $ ». Selon IT Brew, cette méthode est particulièrement furtive, car elle n’affecte pas le fonctionnement apparent du système, mais peut avoir des conséquences importante, notamment dans les systèmes de reconnaissance d’identité.
Un groupe de hackers nord-coréens, Kimsuky, a utilisé ChatGPT pour générer une fausse carte d’identité militaire sud-coréenne dans le cadre d’une campagne de phishing. Les chercheurs de Genians ont découvert que les attaquants ont manipulé les invites pour contourner les restrictions de ChatGPT. Comme le rapporte Tech in Asia, les emails de phishing contenaient des liens vers des logiciels malveillants de vol de données et ciblaient des journalistes, chercheurs et militants des droits de l’homme sud-coréens. L’adresse d’envoi imitait celle de l’armée sud-coréenne, bien que le nombre exact de victimes n’ait pas été divulgué.
Le groupe de cybercriminalité RevengeHotels, également connu sous le nom de TA558, a intensifié ses attaques en intégrant l’intelligence artificielle dans ses chaînes d’infection. Actif depuis 2015, ce groupe cible traditionnellement les clients d’hôtels et les voyageurs pour voler les données de cartes de paiement. Selon GBHackers, leur récente campagne utilise le malware VenomRAT contre les utilisateurs de Windows, démontrant une évolution significative vers des techniques plus sophistiquées. Cette approche montre une capacité accrue à personnaliser les attaques et à contourner les défenses traditionnelles, posant un défi croissant pour les équipes de sécurité.
TA558 a été attribué à une nouvelle série d’attaques utilisant des scripts générés par IA pour déployer des trojans d’accès à distance comme Venom RAT dans des hôtels au Brésil et sur les marchés hispanophones. Kaspersky suit cette activité, observée à l’été 2025, dans le cadre de la campagne RevengeHotels. Selon The Hacker News, les acteurs de la menace continuent d’utiliser des emails de phishing avec des factures pour tromper leurs victimes. Cette utilisation de scripts générés par IA pour automatiser et personnaliser les attaques démontre une sophistication croissante dans les méthodes employées par les cybercriminels.
💡 Ne manquez plus l'essentiel
Recevez les analyses et tendances cybersécurité directement dans votre boîte mail.
💡 Note : Certaines images ou extraits présents dans cet article proviennent de sources externes citées à des fins d’illustration ou de veille. Ce site est indépendant et à but non lucratif. 👉 En savoir plus sur notre cadre d’utilisation.
Vous appréciez ces analyses ?
Soutenez DCOD en offrant un café ☕