L’ANSSI a émis ses recommandations pour renforcer la confiance dans l’IA face aux menaces et aux vulnérabilités des systèmes d’IA.
Comment renforcer la cybersécurité des systèmes d’IA selon l’ANSSI
L’intelligence artificielle (IA) s’impose aujourd’hui comme un levier incontournable dans des secteurs clés tels que la santé, la finance ou la défense. Cependant, cette technologie puissante introduit également des risques majeurs en matière de cybersécurité.
En février 2025, l’Agence nationale de la sécurité des systèmes d’information (ANSSI), en partenariat avec 16 organismes internationaux, a publié un court rapport Développer la confiance dans l’IA par une approche par les risques cyber dont voici un résumé de ses principales recommandations.
Les risques majeurs pesant sur les systèmes d’IA
Des vulnérabilités propres aux systèmes d’IA
Les systèmes d’IA présentent des failles exploitables par des cybercriminels. Trois types d’attaques principales sont identifiées :
- L’empoisonnement des données, qui vise à altérer les jeux d’entraînement pour fausser les résultats du système.
- L’extraction d’informations, permettant l’accès non autorisé aux données internes et aux paramètres du modèle.
- Les attaques par évasion, qui consistent à manipuler les entrées pour tromper le système et générer des erreurs.
Ces menaces peuvent gravement affecter la confidentialité, l’intégrité et la disponibilité des systèmes d’IA, notamment dans les secteurs sensibles.

La complexité des chaînes d’approvisionnement et les interconnexions
Les systèmes d’IA dépendent de chaînes d’approvisionnement complexes combinant données, logiciels et ressources de calcul. Chaque maillon représente une vulnérabilité potentielle. De plus, l’interconnexion croissante entre les systèmes augmente les risques de mouvements latéraux pour les attaquants, élargissant ainsi la surface d’exposition.
Les recommandations de l’ANSSI pour sécuriser l’IA
Recommandations à l’attention des décideurs
Les décideurs jouent un rôle central dans l’adoption de stratégies efficaces de cybersécurité. L’ANSSI recommande :
- Soutenir la recherche sur les méthodes de protection, notamment en adversarial machine learning et protection des données.
- Encourager la standardisation et la certification des systèmes d’IA pour instaurer un climat de confiance.
- Promouvoir les bonnes pratiques de cybersécurité et harmoniser les cadres réglementaires pour un déploiement sécurisé.
- Renforcer la coopération internationale afin de favoriser le partage d’informations et la coordination des actions.
- Assurer un suivi constant des menaces pour adapter les politiques aux évolutions du paysage cyber.
Recommandations pour les utilisateurs, fournisseurs et développeurs
Les parties prenantes opérationnelles doivent intégrer des mesures spécifiques à chaque étape du cycle de vie de l’IA.
Sécurisation du cycle de vie des systèmes
- Intégrer la cybersécurité dès la conception en appliquant les principes de privacy by design et les bonnes pratiques DevSecOps.
- Mettre en place un contrôle d’accès strict avec authentification forte et application du principe du moindre privilège.
- Superviser et auditer régulièrement les systèmes afin de détecter et corriger rapidement toute vulnérabilité.
Gestion des risques liés aux chaînes d’approvisionnement
- Cartographier l’ensemble des composants du système, y compris les sources de données et les dépendances logicielles.
- Évaluer la fiabilité des fournisseurs et s’assurer de leur conformité aux normes de cybersécurité.
- Sécuriser les données d’entraînement pour préserver leur intégrité et limiter les risques d’empoisonnement.
Sensibilisation et formation
- Favoriser une culture de la sécurité au sein des organisations pour encourager la vigilance et les comportements responsables.
- Former les équipes aux risques liés à l’IA et aux bonnes pratiques en cybersécurité.
Pour en savoir plus
Développer la confiance dans l’IA par une approche par les risques cyber
Sur la base d’une analyse des risques cyber réalisée sur les systèmes d’intelligence artificielle, ce document met en évidence les risques cyber auxquels sont exposés les systèmes d’IA et les principales recommandations stratégiques afin de favoriser une meilleure prise en compte de la cybersécurité dans le développement et l’intégration de ces systèmes.

(Re)découvrez également:
Le NIST publie un cadre de gestion des risques de l’intelligence artificielle
Le cadre a pour objectif de maximiser les avantages de la technologie de l’IA tout en réduisant les risques
