La FINMA souligne les opportunités et risques de l’IA dans le secteur financier suisse, proposant sept recommandations pour une gestion proactive des risques.
L’Autorité fédérale de surveillance des marchés financiers (FINMA) a récemment publié une communication approfondie concernant les opportunités et les risques liés à l’adoption de l’intelligence artificielle (IA) dans le secteur financier suisse.
Cette communication intitulée Gouvernance et gestion des risques en lien avec l’utilisation de l’intelligence artificielle met en lumière la nécessité d’une gestion rigoureuse et proactive des risques pour préserver la confiance et l’intégrité des marchés financiers.
Contexte et préoccupations de la FINMA
L’utilisation de l’IA se généralise dans les activités financières, offrant des perspectives prometteuses, comme une personnalisation accrue des services et une détection améliorée des fraudes. Toutefois, la FINMA alerte sur des risques complexes, notamment les biais algorithmiques, la qualité des données et les cyberrisques. Ces risques sont exacerbés par une dépendance croissante aux fournisseurs tiers et par la difficulté de contrôler des modèles d’IA souvent autonomes et opaques.

La FINMA a ainsi identifié sept recommandations clés pour une gestion efficace et responsable des risques liés à l’intelligence artificielle (IA) dans le secteur financier suisse. Ces recommandations visent à renforcer la transparence, la sécurité et la confiance dans l’utilisation de l’IA par les institutions financières.
7 recommandations clés pour une gestion proactive des risques liés à l’IA
- Gouvernance : La FINMA a constaté que les établissements financiers doivent centraliser la gestion de leurs applications d’IA, notamment via un inventaire exhaustif et une classification des risques. La décentralisation des développements rend difficile l’application systématique des normes et l’attribution claire des responsabilités. En cas d’externalisation, une diligence accrue est nécessaire pour évaluer les compétences des tiers et garantir des clauses contractuelles appropriées.
- Inventaire et classification des risques : La FINMA recommande une définition large de l’IA pour inclure toutes les applications présentant des risques potentiels. Les inventaires doivent être complets, et les critères de classification systématiques permettent d’identifier les applications critiques nécessitant une attention accrue.
- Qualité des données : La FINMA souligne l’importance de la qualité des données. Des prescriptions internes doivent garantir l’intégrité et la pertinence des données, y compris celles provenant de tiers. Une attention particulière est requise pour les données non structurées ou historiques, susceptibles d’introduire des biais.
- Tests et surveillance constante : Les modèles doivent être soumis à des tests rigoureux pour évaluer leur robustesse, leur exactitude et leur stabilité. La surveillance continue, notamment la détection des dérives des données, est essentielle pour prévenir les défaillances et garantir une performance durable.
- Documentation : Une documentation détaillée est indispensable pour chaque application importante, incluant les objectifs, les méthodes, les hypothèses et les limitations. Cela favorise une meilleure compréhension et un suivi efficace des risques.
- Explicabilité : Les résultats des modèles doivent être compréhensibles et reproductibles. La FINMA recommande une transparence accrue pour permettre aux parties prenantes d’évaluer la plausibilité et la robustesse des décisions basées sur l’IA.
- Vérification indépendante : Une séparation stricte entre le développement et la vérification des modèles est cruciale. La FINMA préconise des revues indépendantes effectuées par des experts pour valider la fiabilité des procédures et identifier les failles potentielles.
Perspectives et enjeux futurs de l’IA selon la FINMA
La FINMA reconnaît que la compréhension et la gestion des risques liés à l’IA sont encore à leurs débuts dans le secteur financier suisse. Elle entend continuer à affiner ses attentes et encourager les pratiques exemplaires, tout en respectant les spécificités des établissements financiers. Son approche se veut équilibrée, proportionnée et alignée sur les normes internationales.
La transition vers une adoption responsable de l’IA est un défi complexe mais essentiel pour le secteur financier. En suivant les recommandations de la FINMA, les établissements financiers peuvent ainsi renforcer leur résilience face aux risques liés à l’IA et maintenir la confiance des marchés et des investisseurs.
Pour en savoir plus
Communication FINMA sur la surveillance relative à la gouvernance et la gestion des risques en lien avec l’utilisation de l’intelligence artificielle
L’Autorité fédérale de surveillance des marchés financiers FINMA publie une communication sur la surveillance relative à la gouvernance et la gestion des risques en lien avec l’utilisation de l’intelligence artificielle (IA). Elle y attire l’attention sur les risques liés à l’utilisation de l’IA et décrit les observations faites dans le cadre de la surveillance courante.

(Re)découvrez également:
Gestion des Cyberrisques : Conclusions de la surveillance FINMA
La FINMA souligne l’importance des cyberrisques dans le secteur financier suisse, recommandant des mesures pour signaler les cyberattaques et renforcer les contrôles de cybersécurité, surtout pour les services externalisés.
