Offrez un café pour soutenir cette veille indépendante.
☕ Je soutiens DCODVoici le tour d’horizon hebdomadaire des actualités à l’intersection de l’intelligence artificielle et de la cybersécurité : avancées technologiques, vulnérabilités, usages malveillants, réglementations et initiatives stratégiques à suivre.
Faits marquants de la semaine
- CometJacking utilise des URL pour voler des données sensibles sans interaction utilisateur.
- La Californie impose des mesures de sécurité pour les modèles d’IA avancés.
- Google Gemini a corrigé trois vulnérabilités majeures exposant les utilisateurs.
- Une campagne de désinformation israélienne a ciblé l’Iran avec des contenus générés par IA.
La cybersécurité reste un domaine en constante évolution, avec de nouvelles vulnérabilités et menaces apparaissant régulièrement. Cette semaine, l’accent est mis sur des attaques sophistiquées exploitant des technologies avancées, ainsi que sur des mesures législatives visant à réguler l’utilisation de l’intelligence artificielle. Les incidents récents soulignent la nécessité pour les entreprises et les gouvernements de rester vigilants face aux risques potentiels. Des attaques comme CometJacking démontrent comment les cybercriminels peuvent exploiter des failles dans les navigateurs pour accéder à des données sensibles. Pendant ce temps, la Californie prend des mesures pour s’assurer que l’IA ne soit pas utilisée à des fins malveillantes. Les chercheurs continuent de découvrir et de corriger des vulnérabilités, comme celles trouvées dans Google Gemini, qui pourraient autrement exposer les utilisateurs à des risques de vol de données. Enfin, une campagne de désinformation sophistiquée utilisant l’IA montre comment la technologie peut être utilisée pour manipuler l’opinion publique.
Selon BleepingComputer, une nouvelle attaque appelée CometJacking exploite les paramètres d’URL pour donner des instructions cachées au navigateur Comet AI de Perplexity, permettant l’accès à des données sensibles comme les emails et les calendriers. Cette méthode, développée par des chercheurs de LayerX, ne nécessite ni identifiants ni interaction utilisateur, l’attaquant pouvant simplement exposer une URL malveillante aux utilisateurs ciblés. L’attaque utilise une injection de prompt où la chaîne de requête contient des instructions malveillantes ajoutées via le paramètre ‘collection’ de l’URL. Les tests ont montré que des services connectés comme Google Calendar et Gmail peuvent être compromis, les données étant encodées en base64 et exfiltrées vers un système externe. Les protections mises en place par Perplexity ne parviennent pas à contrer cette exfiltration de données encodées.
D’après SecurityWeek, le gouverneur de Californie a signé une loi imposant aux entreprises d’IA de divulguer publiquement des protocoles de sécurité pour éviter l’utilisation abusive de leurs modèles avancés. La législation vise à empêcher des activités catastrophiques, telles que la création d’armes biologiques ou la perturbation de systèmes bancaires. Les entreprises doivent signaler tout incident de sécurité critique dans un délai de 15 jours. Les seuils de calcul définissent les systèmes couverts par la loi, avec des amendes pouvant atteindre 1 million de dollars par violation. Les entreprises comme Anthropic et Google, basées en Californie, sont concernées par ces nouvelles régulations.
Comme le détaille The Hacker News, des chercheurs en cybersécurité ont révélé trois vulnérabilités dans l’assistant IA Gemini de Google. Ces failles, désormais corrigées, incluaient des attaques par injection de recherche et de log-to-prompt, ainsi que l’exfiltration de données personnelles via l’outil de navigation Gemini. Les vulnérabilités permettaient aux attaquants de manipuler l’historique de recherche Chrome et de dissimuler des prompts dans des en-têtes User-Agent, compromettant ainsi les ressources cloud. Ces failles exposaient les utilisateurs à des risques de vol de données et de localisation, sans nécessiter de rendu de liens ou d’images par Gemini.
Citizen Lab, cité par CyberScoop, a découvert une campagne de désinformation israélienne visant l’Iran, utilisant des contenus générés par IA pour inciter à la révolte. Cette opération, appelée PRISONBREAK, a été menée par un réseau de comptes sur les réseaux sociaux, diffusant des images et vidéos manipulées pendant des attaques militaires réelles. L’objectif était de déstabiliser l’Iran en diffusant de fausses informations et en encourageant le renversement du gouvernement. Les contenus, souvent des deepfakes, ont été partagés pendant des événements critiques, comme les frappes israéliennes sur des installations nucléaires iraniennes.
💡 Ne manquez plus l'essentiel
Recevez les analyses et tendances cybersécurité directement dans votre boîte mail.
💡 Note : Certaines images ou extraits présents dans cet article proviennent de sources externes citées à des fins d’illustration ou de veille. Ce site est indépendant et à but non lucratif. 👉 En savoir plus sur notre cadre d’utilisation.
Vous appréciez ces analyses ?
Soutenez DCOD en offrant un café ☕