Attention, les modèles de langage de grande taille (LLM) sont vulnérables à diverses techniques d’attaque contournant leurs filtres de sécurité.
Qu’est-ce qu’un modèle de langage de grande taille (LLM) ?
Un modèle de langage de grande taille (LLM) est un type d’intelligence artificielle capable de comprendre et de générer du texte en s’appuyant sur d’énormes quantités de données. Ces modèles sont entraînés pour répondre à des questions, rédiger des articles, traduire des langues et bien plus encore. Ils fonctionnent en prédisant les mots les plus probables à la suite d’une requête, ce qui leur permet de produire des réponses pertinentes et cohérentes.
Pour éviter les abus, ces modèles sont dotés de garde-fous censés filtrer les contenus inappropriés ou dangereux. Cependant, ces protections ne sont pas infaillibles, et certains attaquants parviennent à les contourner.
Les modèles de langage sous attaque
Les modèles de langage de grande taille (LLM) sont conçus pour filtrer les contenus sensibles et éviter les abus. Mais les attaquants trouvent toujours des moyens de les contourner. Comment ? En exploitant des failles dans leurs mécanismes de sécurité.
Une étude menée par Unit 42, l’équipe de recherche en cybersécurité de Palo Alto Networks, intitulée « Investigating LLM Jailbreaking of Popular Generative AI Web Products », a analysé 17 produits d’IA générative populaires. Résultat : tous sont vulnérables à des techniques de contournement. Parfois, une simple reformulation de requête suffit. Dans d’autres cas, des approches plus sophistiquées en plusieurs étapes permettent de manipuler le modèle pour obtenir des réponses interdites.
Comment les hackers s’y prennent
Les attaquants utilisent plusieurs techniques pour contourner les filtres de sécurité des modèles de langage. Parmi elles, les attaques en une seule interaction (single-turn) exploitent différentes stratégies :
- DAN (Do Anything Now) : cette méthode force le modèle à adopter un rôle fictif, libéré de ses contraintes de sécurité, et ainsi générer des réponses interdites.
- Jeu de rôle : en demandant au modèle d’incarner un personnage spécifique (ex. : un pirate informatique ou un scientifique corrompu), les attaquants parviennent à manipuler ses réponses.
- Narration : le contenu interdit est intégré dans une histoire fictive, détournant les filtres de sécurité en rendant la requête plus acceptable.
- Masquage de charge (Payload Smuggling) : cette technique consiste à dissimuler du contenu malveillant à l’intérieur de demandes légitimes à l’aide d’encodages ou de caractères spéciaux.
- Contournement d’instruction : en demandant directement au modèle d’ignorer ses restrictions internes, il est parfois possible de forcer une réponse non autorisée.
- Répétition de token : certaines séquences répétées peuvent tromper les mécanismes de filtrage et pousser le modèle à générer des informations interdites.
Les attaques en plusieurs étapes (multi-turn) sont encore plus sophistiquées. Parmi elles, la stratégie Crescendo expose progressivement le modèle à des questions anodines avant d’introduire des requêtes interdites de manière subtile. Une autre méthode, Bad Likert Judge, exploite le biais du modèle en posant des questions construites pour influencer ses réponses vers un résultat précis.
Ces techniques montrent que les garde-fous actuels ne sont pas infaillibles et nécessitent des améliorations constantes pour rester efficaces.
Renforcer la sécurité des LLM
Face à ces vulnérabilités, comment renforcer la protection des LLM ?
- Améliorer les systèmes de détection : il faut des algorithmes capables d’identifier non seulement les requêtes suspectes, mais aussi les attaques progressives.
- Surveiller et adapter les modèles en continu : les techniques d’attaque évoluent, les contre-mesures doivent suivre.
- Sensibiliser les utilisateurs : mieux comprendre les risques liés aux LLM permet de réduire les abus potentiels.
Les modèles de langage sont puissants, mais sans une sécurité renforcée, ils restent vulnérables aux attaques. La recherche sur le contournement des LLM doit donc rester une priorité.
Pour en savoir plus
Enquête sur le jailbreaking LLM des produits Web d’IA générative les plus populaires
Nous discutons des vulnérabilités des produits Web GenAI populaires aux jailbreaks LLM. Les stratégies à un seul tour restent efficaces, mais les approches à plusieurs tours affichent un plus grand succès. L’article Enquête sur le jailbreaking LLM des produits Web Generative AI populaires est apparu en premier sur l’unité 42.

(Re)découvrez également:
Les quatre piliers de la gestion des risques en IA selon la Cloud Security Alliance
Le cadre de gestion des risques des modèles d’IA de la Cloud Security Alliance se concentre sur quatre piliers pour atténuer les risques d’utilisation de l’IA tout en améliorant la transparence.

L’OWASP publie sa liste de contrôle de sécurité pour le déploiement de l’IA générative
L’OWASP a publié une liste de contrôle pour sécuriser les projets utilisant les modèles IA de langage à grande échelle, visant notamment les responsables technologiques.
