La divulgation coordonnée des failles de l’IA est devenue aujourd’hui essentielle pour améliorer la sécurité et la gestion des vulnérabilités de ces systèmes.
Vers une divulgation coordonnée des failles de l’IA : un impératif pour la sécurité des systèmes
Imaginez un monde où les systèmes d’intelligence artificielle (IA) fonctionnent sans accroc, offrant des services fiables et sécurisés. La réalité est bien différente : des failles non signalées persistent, compromettant la sécurité et l’intégrité de ces systèmes. Comment assurer une meilleure identification et divulgation de ces vulnérabilités ?
L’importance de la divulgation des failles dans les systèmes d’IA
Comme mentionné dans l’article de Wired référencé ci-dessous, en 2023, des chercheurs indépendants ont découvert une faille sérieuse dans le modèle GPT-3.5 d’OpenAI. Lorsqu’on lui demandait de répéter certains mots mille fois, le modèle finissait par révéler des fragments d’informations personnelles de ses données d’entraînement, comme des noms et des numéros de téléphone. Heureusement, cette découverte a été communiquée à OpenAI, qui a corrigé la faille avant toute divulgation publique.
Cependant, de nombreuses vulnérabilités restent encore sous le radar. Des développeurs isolés signalent parfois ces failles à une seule entreprise concernée, laissant les autres exposées. Parfois, ces informations sont tout simplement gardées secrètes par peur de représailles ou d’actions légales. Ce manque de transparence pose un risque sérieux pour la sécurité numérique.
Les obstacles actuels à la divulgation efficace des failles
Les chercheurs tiers font face à plusieurs difficultés majeures lorsqu’ils tentent de signaler des failles dans les systèmes d’IA généraux (GPAI) :
- Manque de protections légales : La législation n’offre pas toujours un cadre protecteur pour les chercheurs. Certains risquent des poursuites pour violation des conditions d’utilisation lorsqu’ils testent des systèmes d’IA sans autorisation explicite.
- Absence de coordination : Aucune infrastructure centralisée ne permet de signaler une faille de manière efficace à tous les acteurs concernés. Cela ralentit les correctifs et expose les utilisateurs à des risques inutiles.
- Conséquences pour la sécurité publique : Les failles non signalées peuvent avoir des répercussions graves. Par exemple, certaines IA ont déjà fourni de mauvais conseils en santé mentale ou généré des images intimes non consensuelles.

Vers une infrastructure de divulgation coordonnée
Pour rémédier à ces problèmes, un groupe de 34 experts issus d’universités et d’entreprises technologiques propose plusieurs solutions clés, visant à améliorer la gestion des failles et à renforcer la sécurité des systèmes d’IA :
- Standardisation des rapports de failles : Aujourd’hui, chaque chercheur signale les vulnérabilités selon ses propres méthodes, ce qui complique l’analyse et la correction des problèmes. La création d’un format standard pour décrire les failles, incluant des informations clés sur le système concerné, la nature du problème et la manière de le reproduire, permettrait d’uniformiser les signalements et d’améliorer leur prise en charge.
- Mise en place de « bug bounties » spécifiques à l’IA : Dans la cybersécurité, les programmes de récompense incitent les chercheurs à signaler les failles plutôt qu’à les exploiter à des fins malveillantes. Ce modèle pourrait être appliqué à l’IA pour encourager la découverte proactive des vulnérabilités et garantir qu’elles soient traitées rapidement.
- Création d’un centre de coordination : Une faille détectée sur un système d’IA peut affecter plusieurs entreprises et applications. Un organisme indépendant, chargé de recevoir et redistribuer les signalements aux parties concernées, permettrait une réaction plus rapide et coordonnée. Ce centre pourrait également définir des périodes de divulgation responsable, laissant le temps aux développeurs de corriger les failles avant qu’elles ne soient rendues publiques.
Ces initiatives visent à réduire les risques associés aux failles des systèmes d’IA et à favoriser une meilleure collaboration entre les chercheurs, les entreprises et les autorités de régulation.
Pour en savoir plus
L’IA à usage général nécessite un signalement coordonné des défauts
Aujourd’hui, nous appelons les développeurs d’IA à investir dans les besoins des chercheurs tiers indépendants qui enquêtent sur les failles des systèmes d’IA. Notre nouvel article plaide en faveur d’une nouvelle norme en matière de protection des chercheurs, de signalement et d’infrastructure de coordination. Intitulé « L’évaluation interne ne suffit pas : vers une divulgation robuste des failles par des tiers pour l’IA à usage général », cet article compte 34 auteurs experts en apprentissage automatique, droit, sécurité, sciences sociales et politique.

Des chercheurs proposent une meilleure façon de signaler les failles dangereuses de l’IA
Fin 2023, une équipe de chercheurs tiers a découvert un problème troublant dans le modèle d’intelligence artificielle largement utilisé d’OpenAI, GPT-3.5. Lorsqu’on lui a demandé de répéter certains mots mille fois, le modèle a commencé à répéter le mot encore et encore, puis a soudainement changé…

(Re)découvrez également:
Adopter l’IA en toute sécurité : le guide CLEAR pour les RSSI
L’adoption sécurisée de l’IA nécessite un cadre comme CLEAR, intégrant la gouvernance, l’éducation et l’exploitation stratégique par les RSSI.

Sécuriser l’IA : Recommandations de l’ANSSI
L’ANSSI a émis ses recommandations pour renforcer la confiance dans l’IA face aux menaces et aux vulnérabilités des systèmes d’IA.
