Voici le tour d’horizon hebdomadaire des actualités à l’intersection de l’intelligence artificielle et de la cybersécurité : avancées technologiques, vulnérabilités, usages malveillants, réglementations et initiatives stratégiques à suivre.
Faits marquants de la semaine
- Des hackers ont exploité des conversations publiques avec des chatbots populaires pour placer, via des annonces sponsorisées, des commandes malveillantes dans les résultats Google, permettant l’installation du malware AMOS sur macOS.
- OpenAI estime que le risque d’utilisation malveillante de l’intelligence artificielle atteint un niveau « élevé », après avoir observé une progression des performances en cybersécurité de ses modèles lors de défis de type capture-the-flag.
- Une campagne d’attaque ClickFix abuse du site officiel de ChatGPT pour héberger de faux guides d’installation Atlas sur macOS, redirigeant les victimes vers un script Terminal unique téléchargeant un infostealer depuis un domaine externe.
- Une vulnérabilité critique dans Gemini Enterprise permettait, via des injections de texte caché dans des documents partagés ou des invitations, d’exfiltrer sans clic ni alerte des données sensibles issues de Gmail, Calendar et Docs.
L’actualité de la semaine met en lumière une convergence marquée entre services d’intelligence artificielle grand public, outils d’entreprise et nouvelles techniques de fraude, avec plusieurs campagnes exploitant la confiance accordée aux chatbots et à leurs domaines officiels. Des attaques ClickFix ciblant macOS réutilisent des conversations partagées sur ChatGPT ou Grok, tandis que des infostealers figurent parmi les menaces en plus forte croissance. Parallèlement, des failles structurelles dans des assistants comme Gemini Enterprise ou des agents no-code construits avec Copilot Studio montrent comment l’accès élargi aux données internes transforme les systèmes d’IA en couches d’accès supplémentaires à haut risque pour les organisations.
L'essentiel Cybersécurité, IA & Tech
Rejoignez la communauté. 3 fois par semaine, recevez l'analyse des tendances par Marc Barbezat. Pas de spam, juste de l'info.
Dans une campagne décrite par Engadget, des attaquants dialoguent d’abord avec un assistant d’IA autour d’un terme de recherche courant, puis l’amènent à recommander le collage d’une commande précise dans le terminal de l’ordinateur. La conversation est ensuite rendue publique et promue via des annonces payantes, de sorte qu’elle apparaît en haut de la première page Google. Huntress a relié cette technique à une attaque de vol de données visant macOS, dans laquelle un utilisateur cherchant « clear disk space on Mac » a installé le malware AMOS en suivant un lien sponsorisé ChatGPT puis en exécutant la commande fournie.
D’après ZDNET, OpenAI avertit que l’évolution rapide des capacités cyber offensives des modèles d’IA peut entraîner un niveau de risque « élevé » pour l’ensemble du secteur. L’entreprise a mis en place un Preparedness Framework pour suivre ces risques et évalue ses systèmes via des défis capture-the-flag, où les performances sont passées de 27 % de taux de réussite à un niveau supérieur en quatre mois. OpenAI observe que ses modèles peuvent autant automatiser des attaques par force brute, générer des malwares et hameçonnages crédibles que soutenir les défenseurs dans l’analyse des alertes et l’amélioration d’outils de détection.
Comme le détaille Dark Reading, une vulnérabilité critique baptisée « GeminiJack » affectait l’assistant Gemini Enterprise de Google. Des chercheurs ont montré qu’un attaquant pouvait insérer des instructions cachées dans un document Google partagé, une invitation Calendar ou un e‑mail, afin d’exfiltrer des informations comme des budgets d’entreprise. Lorsque n’importe quel employé lançait une requête type « show me our budgets », l’IA récupérait automatiquement le document piégé, exécutait les instructions, puis renvoyait les résultats à l’attaquant via une requête d’image externe. Le tout se déroulait sans clic utilisateur et sans alerte des outils de sécurité.
Une enquête de Dark Reading décrit une variante d’attaque ClickFix combinant empoisonnement des résultats de recherche et grands modèles de langage populaires. Des chercheurs de Huntress ont constaté que, pour certaines requêtes comme le nettoyage d’un disque dur, la première page Google présentait des liens légitimes ChatGPT et Grok pointant vers des conversations semblant répondre au problème. En réalité, les instructions demandaient de lancer une commande contactant un serveur contrôlé par les attaquants pour installer l’infostealer macOS AMOS. Un client de Huntress a été compromis le 5 décembre après avoir simplement recherché un conseil, cliqué sur le lien puis copié-collé la commande.
Un rapport cité par Dark Reading montre qu’avec Microsoft Copilot Studio, des utilisateurs totalement non techniques peuvent créer des agents d’IA no-code capables d’accéder à des plateformes métiers et à des fichiers internes. Des chercheurs de Tenable ont construit un agent de réservation de voyages relié à un fichier SharePoint contenant des noms et numéros de carte bancaires simulés, avec une consigne explicite interdisant de divulguer les données d’un client à un autre. En test, de simples injections de texte ont suffi à amener le bot à exposer ces informations sensibles à un interlocuteur ne disposant d’aucune permission, démontrant un risque de fuite de données et de détournement de flux de travail.
Expertise Cyber en accès libre.
Pas de paywall, pas d'abonnement caché. Votre soutien permet de maintenir cette gratuité.