DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
Navigation
  • Accueil
  • Cyber-attaques / fraudes
  • Intelligence artificielle
  • Failles / vulnérabilités
  • Pertes / vols de données
  • Cybercrime
  • Législation
Les derniers articles
  • Illustration conceptuelle de cybersécurité montrant un bouclier numérique vert lumineux avec une serrure centrale, sur fond sombre de réseaux de données, de circuits imprimés et une silhouette de hacker dans l'ombre. Image d'en-tête pour la veille hebdomadaire.
    Cybersécurité : les 11 actualités majeures du 5 avr 2026
  • Illustration montrant le logo d'Anthropic au premier plan sur un fond flou de lignes de code informatique, symbolisant l'incident où Claude Code fuite son code source et expose ses secrets.
    Claude Code : Anthropic fuite son code source et expose ses secrets
  • Une main tenant un smartphone affichant une application de "Mobile Banking" sur un fond de ciel bleu nuageux, illustrant comment les téléphones cloud contournent la sécurité des banques.
    Les téléphones cloud contournent la sécurité des banques
  • Une personne utilise un smartphone et un ordinateur portable devant un mur aux couleurs des drapeaux des États-Unis et de l'Iran. Des icônes de réseaux sociaux et des emojis de réaction (likes, cœurs, visages étonnés) flottent au-dessus des écrans, illustrant comment la propagande par IA redéfinit le conflit entre l'Iran et les USA.
    La propagande par IA redéfinit le conflit entre l’Iran et les USA
  • Photographie d'une main tenant un iPhone dont l'écran de verrouillage iOS affiche plusieurs notifications, illustrant le nouveau système d'alerte urgente de sécurité déployé par Apple.
    iOS : Apple lance une alerte urgente sur l’écran de verrouillage
Suivez en direct
DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
Cybersécurité • IA • Tech

Capter l'info, retenir l'essentiel. Pour les pros et passionnés.

DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
  • Cyberattaques
  • Vulnérabilités
  • Vols de données
  • Cybercrime
  • IA & Tech
  • Analyses / Rapports cybersécurité
  • Intelligence artificielle

La FINMA fait 7 recommandations aux banques sur l’IA

  • Marc Barbezat
  • 14 janvier 2025
  • 3 minutes de lecture
l'intelligence artificielle et les marchés financiers
▾ Sommaire
Contexte et préoccupations de la FINMA7 recommandations clés pour une gestion proactive des risques liés à l'IAPerspectives et enjeux futurs de l'IA selon la FINMAPour en savoir plus
La FINMA souligne les opportunités et risques de l’IA dans le secteur financier suisse, proposant sept recommandations pour une gestion proactive des risques.

L’Autorité fédérale de surveillance des marchés financiers (FINMA) a récemment publié une communication approfondie concernant les opportunités et les risques liés à l’adoption de l’intelligence artificielle (IA) dans le secteur financier suisse.

Cette communication intitulée Gouvernance et gestion des risques en lien avec l’utilisation de l’intelligence artificielle met en lumière la nécessité d’une gestion rigoureuse et proactive des risques pour préserver la confiance et l’intégrité des marchés financiers.

Contexte et préoccupations de la FINMA

L’utilisation de l’IA se généralise dans les activités financières, offrant des perspectives prometteuses, comme une personnalisation accrue des services et une détection améliorée des fraudes. Toutefois, la FINMA alerte sur des risques complexes, notamment les biais algorithmiques, la qualité des données et les cyberrisques. Ces risques sont exacerbés par une dépendance croissante aux fournisseurs tiers et par la difficulté de contrôler des modèles d’IA souvent autonomes et opaques.

L'essentiel Cybersécurité, IA & Tech

Rejoignez la communauté. 3 fois par semaine, recevez l'analyse des tendances par Marc Barbezat. Pas de spam, juste de l'info.

Ou suivez le flux temps réel
Telegram Discord
l'intelligence artificielle et les marchés financiers

La FINMA a ainsi identifié sept recommandations clés pour une gestion efficace et responsable des risques liés à l’intelligence artificielle (IA) dans le secteur financier suisse. Ces recommandations visent à renforcer la transparence, la sécurité et la confiance dans l’utilisation de l’IA par les institutions financières.

7 recommandations clés pour une gestion proactive des risques liés à l’IA

  1. Gouvernance : La FINMA a constaté que les établissements financiers doivent centraliser la gestion de leurs applications d’IA, notamment via un inventaire exhaustif et une classification des risques. La décentralisation des développements rend difficile l’application systématique des normes et l’attribution claire des responsabilités. En cas d’externalisation, une diligence accrue est nécessaire pour évaluer les compétences des tiers et garantir des clauses contractuelles appropriées.
  2. Inventaire et classification des risques : La FINMA recommande une définition large de l’IA pour inclure toutes les applications présentant des risques potentiels. Les inventaires doivent être complets, et les critères de classification systématiques permettent d’identifier les applications critiques nécessitant une attention accrue.
  3. Qualité des données : La FINMA souligne l’importance de la qualité des données. Des prescriptions internes doivent garantir l’intégrité et la pertinence des données, y compris celles provenant de tiers. Une attention particulière est requise pour les données non structurées ou historiques, susceptibles d’introduire des biais.
  4. Tests et surveillance constante : Les modèles doivent être soumis à des tests rigoureux pour évaluer leur robustesse, leur exactitude et leur stabilité. La surveillance continue, notamment la détection des dérives des données, est essentielle pour prévenir les défaillances et garantir une performance durable.
  5. Documentation : Une documentation détaillée est indispensable pour chaque application importante, incluant les objectifs, les méthodes, les hypothèses et les limitations. Cela favorise une meilleure compréhension et un suivi efficace des risques.
  6. Explicabilité : Les résultats des modèles doivent être compréhensibles et reproductibles. La FINMA recommande une transparence accrue pour permettre aux parties prenantes d’évaluer la plausibilité et la robustesse des décisions basées sur l’IA.
  7. Vérification indépendante : Une séparation stricte entre le développement et la vérification des modèles est cruciale. La FINMA préconise des revues indépendantes effectuées par des experts pour valider la fiabilité des procédures et identifier les failles potentielles.

Perspectives et enjeux futurs de l’IA selon la FINMA

La FINMA reconnaît que la compréhension et la gestion des risques liés à l’IA sont encore à leurs débuts dans le secteur financier suisse. Elle entend continuer à affiner ses attentes et encourager les pratiques exemplaires, tout en respectant les spécificités des établissements financiers. Son approche se veut équilibrée, proportionnée et alignée sur les normes internationales.

La transition vers une adoption responsable de l’IA est un défi complexe mais essentiel pour le secteur financier. En suivant les recommandations de la FINMA, les établissements financiers peuvent ainsi renforcer leur résilience face aux risques liés à l’IA et maintenir la confiance des marchés et des investisseurs.

Pour en savoir plus

Communication FINMA sur la surveillance relative à la gouvernance et la gestion des risques en lien avec l’utilisation de l’intelligence artificielle

L’Autorité fédérale de surveillance des marchés financiers FINMA publie une communication sur la surveillance relative à la gouvernance et la gestion des risques en lien avec l’utilisation de l’intelligence artificielle (IA). Elle y attire l’attention sur les risques liés à l’utilisation de l’IA et décrit les observations faites dans le cadre de la surveillance courante.

Lire la suite sur finma.ch
Communication FINMA sur la surveillance relative à la gouvernance et la gestion des risques en lien avec l’utilisation de l’intelligence artificielle

et à relire :

Gestion des Cyberrisques : Conclusions de la surveillance FINMA

La FINMA souligne l'importance des cyberrisques dans le secteur financier suisse, recommandant des mesures pour signaler les cyberattaques et renforcer les contrôles de cybersécurité, surtout pour les services externalisés.

Lire la suite sur dcod.ch
Gestion des Cyberrisques : Conclusions de la surveillance FINMA

Zéro paywall. Zéro pub.
DCOD reste en accès libre grâce à vos contributions. Chaque café compte.

☕ Je participe
Etiquettes
  • FINMA
Marc Barbezat

Fondateur et éditeur de DCOD - Restons en contact !

A lire également
Une personne utilise un smartphone et un ordinateur portable devant un mur aux couleurs des drapeaux des États-Unis et de l'Iran. Des icônes de réseaux sociaux et des emojis de réaction (likes, cœurs, visages étonnés) flottent au-dessus des écrans, illustrant comment la propagande par IA redéfinit le conflit entre l'Iran et les USA.
Lire l'article

La propagande par IA redéfinit le conflit entre l’Iran et les USA

Illustration de Claude Mythos d'Anthropic, une IA surpuissante qui menacerait le Web, représentée par une silhouette soulevant une charge massive pour symboliser sa puissance technologique.
Lire l'article

Claude Mythos d’Anthropic : une IA surpuissante qui menacerait le Web

Illustration montrant un robot blanc devant un ordinateur barré d'une grande croix rouge à côté du logo de Wikipédia, illustrant l'article : Wikipédia interdit l'IA générative pour rédiger ses articles.
Lire l'article

Wikipédia interdit l’IA générative pour rédiger ses articles

Des idées de lecture recommandées par DCOD

Page frontale du livre 100 Faits à Savoir sur la Cybersécurité

100 Faits à Savoir sur la Cybersécurité

Vous êtes-vous déjà demandé comment les hackers parviennent à pénétrer des systèmes apparemment sécurisés ? Pourquoi entendons-nous tant parler des botnets et que peuvent-ils vraiment faire ? Et qu'en est-il de ce fameux quantum computing qui menace de bouleverser la cryptographie ?

📘 Voir sur Amazon
Page frontale du livre L\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\'intelligence artificielle en 50 notions clés pour les Nuls

L'intelligence artificielle en 50 notions clés pour les Nuls

Grâce à ce livre, vous pourrez naviguer dans l'univers foisonnant de l'IA et rester conscient et éclairé face aux transformations qu'elle propose à notre monde.

📘 Voir sur Amazon

Le pirate informatique et l'État : cyberattaques et nouvelle normalité géopolitique (édition anglaise)

Riche en informations exclusives issues d'entretiens avec des acteurs clés de la défense et de la cybersécurité, de documents déclassifiés et d'analyses approfondies de rapports d'entreprises, « The Hacker and the State » explore la véritable compétition géopolitique de l'ère numérique et révèle des détails méconnus sur la manière dont la Chine, la Russie, la Corée du Nord, le Royaume-Uni et les États-Unis se piratent mutuellement dans une lutte acharnée pour la domination.

📘 Voir sur Amazon

🛒 Les liens ci-dessus sont affiliés : en commandant via ces liens, vous soutenez la veille DCOD sans frais supplémentaires 🙏

💡

Note : Certaines images ou extraits présents dans cet article proviennent de sources externes citées à des fins d’illustration ou de veille.
Ce site est indépendant et à but non lucratif. 👉 En savoir plus sur notre cadre d’utilisation.

DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
  • Marc Barbezat
  • À propos de DCOD / Contact
  • Politique de confidentialité
Veille stratégique Cybersécurité, IA & Tech. Produite par Marc Barbezat.

Input your search keywords and press Enter.

DCOD est 100% indépendant
Vos cafés financent l'hébergement et les outils de veille. Merci !
Offrir un café ☕
☕

Un café pour DCOD ?

DCOD est un site 100% indépendant, maintenu en accès libre grâce à ses lecteurs.
Si cette veille cyber vous est utile, un simple café aide à couvrir les frais techniques.

☕ Offrir un café