Cisco souligne les défis de la sécurité de l’IA pour 2025, exposant menaces, vulnérabilités et liste ses recommandations pour une protection efficace.
Sécurité de l’IA : Défis, tendances et stratégies pour 2025 selon CISCO
L’intelligence artificielle (IA) s’est imposée comme une technologie phare du 21ème siècle, bouleversant profondément notre quotidien professionnel et personnel. Mais derrière ses nombreux avantages se cachent des risques majeurs : cyberattaques sophistiquées, fuites de données sensibles et exploitation malveillante de l’IA elle-même.

Cisco vient de publier son premier rapport sur l’état de la sécurité de l’IA pour 2025. Ce document dresse un panorama des principaux développements survenus dans ce domaine au cours de l’année écoulée, tout en esquissant les grandes tendances et prévisions pour l’avenir proche. Face à une accélération constante des avancées technologiques et de l’apparition régulière de nouveaux acteurs et applications innovantes, la sécurité de l’IA évolue au même rythme effréné. Les barrières pratiques à son adoption, notamment les inquiétudes des dirigeants en matière de sécurité, restent un frein majeur à l’exploitation totale du potentiel de l’IA au sein des entreprises.
D’après Cisco, seuls 13 % des dirigeants estiment que leurs organisations sont pleinement prêtes à exploiter les capacités de l’IA en toute sécurité. Alors, comment naviguer sereinement dans ce paysage à la fois prometteur et périlleux ?
Une prolifération accélérée des menaces spécifiques à l’IA
L’adoption rapide de l’IA étend considérablement la surface d’attaque des entreprises. Les infrastructures dédiées à l’IA, telles que les systèmes de gestion de clusters GPU ou les bibliothèques logicielles ouvertes, ont été la cible d’attaques inédites. En 2024, des cyberattaques sur NVIDIA Container Toolkit et l’outil Ray pour la gestion des clusters GPU ont démontré l’ampleur et la sévérité que peuvent prendre ces menaces.
Compromission directe des infrastructures IA
Les attaquants ciblent directement les infrastructures supportant les systèmes et applications d’IA, profitant des vulnérabilités spécifiques aux environnements de déploiement IA. Ces attaques peuvent avoir des effets en cascade, impactant simultanément de nombreux systèmes et utilisateurs. Cisco souligne notamment les risques liés aux attaques contre les infrastructures GPU ou les systèmes de gestion de conteneurs, pouvant conduire à la divulgation d’informations sensibles, à la prise de contrôle à distance, ou encore au détournement des ressources pour des opérations malveillantes telles que le minage de cryptomonnaies.
Compromission de la chaîne d’approvisionnement de l’IA
L’écosystème de l’IA dépend fortement de modèles, de bibliothèques logicielles et de jeux de données partagés, ce qui étend les points d’entrée potentiels pour les attaquants. Ces derniers exploitent la confiance accordée par les organisations aux composants tiers tels que les modèles pré-entraînés et les bibliothèques open-source. Cisco cite notamment des cas où des modèles issus de dépôts publics comme Hugging Face ou PyTorch Hub ont été infectés par du code malveillant, permettant aux attaquants de compromettre discrètement les systèmes IA finaux.
Vecteurs d’attaques spécifiques à l’IA
Cisco identifie plusieurs techniques de compromission spécifiques aux modèles IA, telles que l’injection d’instructions (« prompt injection »), qui manipule le comportement des modèles pour contourner leurs sécurités intégrées. Des techniques avancées, comme le jailbreak algorithmique automatisé développé par Cisco en collaboration avec des chercheurs de Yale, ont démontré leur efficacité inquiétante en contournant aisément les protections les plus robustes.
Extraction et détournement de données d’entraînement
Les modèles IA traitent souvent de grandes quantités de données sensibles, ce qui les rend vulnérables à des tentatives d’extraction ou de détournement de leurs données d’entraînement. Cisco a révélé que les méthodes d’extraction de données telles que la décomposition permettent de reconstituer facilement des portions de données protégées ou sensibles à partir de modèles déployés.
Empoisonnement des jeux de données publics
L’empoisonnement (« data poisoning ») consiste à injecter des données malveillantes dans les jeux de données d’entraînement pour introduire des failles ou des portes dérobées dans les modèles. Cisco, en partenariat avec Google et NVIDIA, a mis en évidence des techniques simples et économiques capables d’empoisonner massivement des jeux de données publics populaires, illustrant la fragilité de ces ressources largement utilisées par la communauté IA.
Ces nouveaux risques imposent une vigilance accrue et des stratégies robustes pour sécuriser efficacement les actifs critiques liés à l’IA.
Recommandations clés pour sécuriser efficacement l’IA
Face à ces défis, Cisco préconise une stratégie proactive et complète tout au long du cycle de vie de l’IA : gestion rigoureuse des risques, mise en œuvre de contrôles de cybersécurité traditionnels renforcés, respect strict des standards de sécurité reconnus (comme NIST ou MITRE ATLAS) et sensibilisation continue des équipes aux risques de sécurité liés à l’IA. Cisco met également en avant sa solution « AI Defense » comme un moyen efficace pour anticiper et combattre ces vulnérabilités émergentes.
Pour en savoir plus
Cisco présente le rapport sur l’état de la sécurité de l’IA pour 2025 : principaux développements, tendances et prévisions en matière de sécurité de l’IA
Cisco est fier de partager le rapport sur l’état de la sécurité de l’IA couvrant les développements clés de la sécurité de l’IA dans les domaines de la veille sur les menaces, des politiques et de la recherche.

(Re)découvrez également:
Les 10 principales vulnérabilités des identités non humaines selon l’OWASP
L’OWASP a dévoilé son premier Top 10 des vulnérabilités liées aux identités non humaines, un bon rappel des risques pour la cybersécurité.

Le NIST publie un cadre de gestion des risques de l’intelligence artificielle
Le cadre a pour objectif de maximiser les avantages de la technologie de l’IA tout en réduisant les risques

L’OWASP publie sa liste de contrôle de sécurité pour le déploiement de l’IA générative
L’OWASP a publié une liste de contrôle pour sécuriser les projets utilisant les modèles IA de langage à grande échelle, visant notamment les responsables technologiques.
