L’OWASP a publié une liste de contrôle pour sécuriser les projets utilisant les modèles IA de langage à grande échelle, visant notamment les responsables technologiques.
La Fondation OWASP vient de publier de nouvelles lignes directrices pour s’assurer que les modèles de langage à grande échelle (LLM) sont mis en place de manière sécurisée dès le début des projets.
Elle a ainsi créé une liste de contrôle appelée la liste de contrôle de la cybersécurité et de la gouvernance des applications LLM du OWASP Top 10. Cette liste de contrôle est destinée aux personnes qui sont responsables de domaines importants tels que la technologie, la sécurité, la confidentialité et les affaires juridiques.
Selon la présentation faite par OWASP, cette liste de contrôle est également destinée aux équipes qui travaillent sur la sécurité et à celles qui protègent les systèmes informatiques et d’éviter les problèmes qui pourraient découler d’une précipitation ou d’un manque de sécurisation de leur IA.
En résumé, son objectif est de faciliter la compréhension, par ceux qui sont en charge, des points positifs et des risques potentiels de l’utilisation des LLM. De cette façon, ils peuvent mieux défendre leurs organisations en se concentrant sur ce qui doit être fait pour utiliser les LLM de manière judicieuse.
Pour en savoir plus
L’OWASP publie une liste de contrôle de sécurité pour le déploiement de l’IA générative
La Fondation OWASP fournit de nouvelles directives pour déployer des cas d’utilisation LLM sécurisés par conception

(Re)découvrez également:
Le NIST publie un cadre de gestion des risques de l’intelligence artificielle
Le cadre a pour objectif de maximiser les avantages de la technologie de l’IA tout en réduisant les risques

Comment protéger les villes intelligentes contre les cyberattaques : les gouvernements partagent leurs conseils
Des agences gouvernementales ont publié des directives de cybersécurité pour les villes intelligentes

1 commentaire
Commentaires désactivés.