DCOD Cybersécurité DCOD Cybersécurité
💡 Ne manquez plus l’essentiel
Les derniers articles
  • DCOD verification dage 1
    Pornhub contre Big Tech : le bras de fer pour la vérification d’âge via l’OS
  • DCOD Scattered LAPSUS Hunters
    Cybercriminalité : Scattered LAPSUS$ Hunters dévoile ses méthodes
  • DCOD Peluche connectee et derapage X
    Peluche connectée : quand l’IA dérape avec du X
  • Image d'un pirate devant un fond numérique et utilisée pour la veille hebdomadaire dans la catégorie perte et fuite de données
    Les derniers gros vols de données – 4 déc 2025
  • DCOD La Methode MCSR de lOFCS
    Méthode MCSR : un cadre de l’OFCS pour maîtriser le risque cyber
Toutes les catégories
  • Actualités
  • Cyber-attaques / fraudes
  • Failles / vulnérabilités
  • Pertes / vols de données
  • Cybercrime
  • Intelligence artificielle
  • Analyses / rapports
  • Biens communs
  • Analyses / Rapports
  • Législation
DCOD Cybersécurité DCOD Cybersécurité
Radar cybersécurité et tendances numériques

Actualités et nouvelles tendances cybersécurité, IA et tech par Marc Barbezat
pour les professionnels et passionnés du numérique.

DCOD Cybersécurité DCOD Cybersécurité DCOD Cybersécurité DCOD Cybersécurité
  • Cyberattaques
  • Vulnérabilités
  • Vols de données
  • Cybercrime
  • IA cyber
  • Cyber-attaques / fraudes
  • Failles / vulnérabilités

Sécurité des modèles LLM : comment les hackers contournent leurs protections

  • Marc Barbezat
  • 28 février 2025
  • 3 minutes de lecture
Deviation
Attention, les modèles de langage de grande taille (LLM) sont vulnérables à diverses techniques d’attaque contournant leurs filtres de sécurité.

Qu’est-ce qu’un modèle de langage de grande taille (LLM) ?

Un modèle de langage de grande taille (LLM) est un type d’intelligence artificielle capable de comprendre et de générer du texte en s’appuyant sur d’énormes quantités de données. Ces modèles sont entraînés pour répondre à des questions, rédiger des articles, traduire des langues et bien plus encore. Ils fonctionnent en prédisant les mots les plus probables à la suite d’une requête, ce qui leur permet de produire des réponses pertinentes et cohérentes.

Pour éviter les abus, ces modèles sont dotés de garde-fous censés filtrer les contenus inappropriés ou dangereux. Cependant, ces protections ne sont pas infaillibles, et certains attaquants parviennent à les contourner.

Les modèles de langage sous attaque

Les modèles de langage de grande taille (LLM) sont conçus pour filtrer les contenus sensibles et éviter les abus. Mais les attaquants trouvent toujours des moyens de les contourner. Comment ? En exploitant des failles dans leurs mécanismes de sécurité.

L'essentiel Cybersécurité, IA & Tech

Rejoignez la communauté. 3 fois par semaine, recevez l'analyse des tendances par Marc Barbezat. Pas de spam, juste de l'info.

Ou suivez le flux temps réel
Telegram Discord

Une étude menée par Unit 42, l’équipe de recherche en cybersécurité de Palo Alto Networks, intitulée « Investigating LLM Jailbreaking of Popular Generative AI Web Products », a analysé 17 produits d’IA générative populaires. Résultat : tous sont vulnérables à des techniques de contournement. Parfois, une simple reformulation de requête suffit. Dans d’autres cas, des approches plus sophistiquées en plusieurs étapes permettent de manipuler le modèle pour obtenir des réponses interdites.

Comment les hackers s’y prennent

Les attaquants utilisent plusieurs techniques pour contourner les filtres de sécurité des modèles de langage. Parmi elles, les attaques en une seule interaction (single-turn) exploitent différentes stratégies :

  • DAN (Do Anything Now) : cette méthode force le modèle à adopter un rôle fictif, libéré de ses contraintes de sécurité, et ainsi générer des réponses interdites.
  • Jeu de rôle : en demandant au modèle d’incarner un personnage spécifique (ex. : un pirate informatique ou un scientifique corrompu), les attaquants parviennent à manipuler ses réponses.
  • Narration : le contenu interdit est intégré dans une histoire fictive, détournant les filtres de sécurité en rendant la requête plus acceptable.
  • Masquage de charge (Payload Smuggling) : cette technique consiste à dissimuler du contenu malveillant à l’intérieur de demandes légitimes à l’aide d’encodages ou de caractères spéciaux.
  • Contournement d’instruction : en demandant directement au modèle d’ignorer ses restrictions internes, il est parfois possible de forcer une réponse non autorisée.
  • Répétition de token : certaines séquences répétées peuvent tromper les mécanismes de filtrage et pousser le modèle à générer des informations interdites.

Les attaques en plusieurs étapes (multi-turn) sont encore plus sophistiquées. Parmi elles, la stratégie Crescendo expose progressivement le modèle à des questions anodines avant d’introduire des requêtes interdites de manière subtile. Une autre méthode, Bad Likert Judge, exploite le biais du modèle en posant des questions construites pour influencer ses réponses vers un résultat précis.

Ces techniques montrent que les garde-fous actuels ne sont pas infaillibles et nécessitent des améliorations constantes pour rester efficaces.

Renforcer la sécurité des LLM

Face à ces vulnérabilités, comment renforcer la protection des LLM ?

  • Améliorer les systèmes de détection : il faut des algorithmes capables d’identifier non seulement les requêtes suspectes, mais aussi les attaques progressives.
  • Surveiller et adapter les modèles en continu : les techniques d’attaque évoluent, les contre-mesures doivent suivre.
  • Sensibiliser les utilisateurs : mieux comprendre les risques liés aux LLM permet de réduire les abus potentiels.

Les modèles de langage sont puissants, mais sans une sécurité renforcée, ils restent vulnérables aux attaques. La recherche sur le contournement des LLM doit donc rester une priorité.

Pour en savoir plus

Enquête sur le jailbreaking LLM des produits Web d’IA générative les plus populaires

Nous discutons des vulnérabilités des produits Web GenAI populaires aux jailbreaks LLM. Les stratégies à un seul tour restent efficaces, mais les approches à plusieurs tours affichent un plus grand succès. L’article Enquête sur le jailbreaking LLM des produits Web Generative AI populaires est apparu en premier sur l’unité 42.

Lire la suite sur Unit42
Enquête sur le jailbreaking LLM des produits Web d'IA générative les plus populaires

(Re)découvrez également:

Les quatre piliers de la gestion des risques en IA selon la Cloud Security Alliance

Le cadre de gestion des risques des modèles d’IA de la Cloud Security Alliance se concentre sur quatre piliers pour atténuer les risques d’utilisation de l’IA tout en améliorant la transparence.

Lire la suite sur dcod.ch
Les quatre piliers de la gestion des risques en IA selon la Cloud Security Alliance

L’OWASP publie sa liste de contrôle de sécurité pour le déploiement de l’IA générative

L’OWASP a publié une liste de contrôle pour sécuriser les projets utilisant les modèles IA de langage à grande échelle, visant notamment les responsables technologiques.

Lire la suite sur dcod.ch
L'OWASP publie sa liste de contrôle de sécurité pour le déploiement de l'IA générative

Cette veille indépendante vous est utile ?
Offrez un café pour soutenir le serveur (et le rédacteur).

☕ Je soutiens DCOD
Etiquettes
  • LLM
  • Palo Alto
Marc Barbezat

Le créateur et l'éditeur de DCOD.CH - Restons en contact !

A lire également
DCOD Peluche connectee et derapage X
Lire l'article

Peluche connectée : quand l’IA dérape avec du X

DCOD Quand une victime transforme une demande de rancon en soutien a la recherche
Lire l'article

Quand une victime transforme une demande de rançon en soutien à la recherche

DCOD HashJack une faille URL qui piege les assistants IA
Lire l'article

HashJack : une faille URL qui piège les assistants IA des navigateurs

📚 Pour prolonger la réflexion ou approfondir certains points abordés, voici quelques lectures recommandées par DCOD :

Des idées de lecture cybersécurité

Page frontale du livre Cybersécurité : tests d’intrusion des systèmes d’informations web

Cybersécurité : tests d’intrusion des systèmes d’informations web: Le guide des vulnérabilités web

Amplifiez vos compétences en cybersécurité avec ce guide exhaustif sur le pentesting et le bug bounty ! Conçu pour les pentesters, les bug hunters, les développeurs, et en fait toute personne curieuse de plonger dans le monde fascinant de la cybersécurité.

📘 Voir sur Amazon
Page frontale du livre Cybersécurité: Le guide du débutant

Cybersécurité: Le guide du débutant

Si vous voulez un guide étape par étape sur la cybersécurité, plus un cours gratuit complet sur la sécurité en ligne, plus un accès à une formidable communauté de hackers, ce livre est pour vous !

📘 Voir sur Amazon
Ethical Hacking

Sécurité informatique - Ethical Hacking

Ce livre a pour objectif d'initier le lecteur aux techniques des attaquants pour lui apprendre comment se défendre.

📘 Voir sur Amazon

🛒 Les liens ci-dessus sont affiliés : en commandant via ces liens, vous soutenez la veille DCOD sans frais supplémentaires 🙏

💡

Note : Certaines images ou extraits présents dans cet article proviennent de sources externes citées à des fins d’illustration ou de veille.
Ce site est indépendant et à but non lucratif. 👉 En savoir plus sur notre cadre d’utilisation.

DCOD Cybersécurité DCOD Cybersécurité
  • Marc Barbezat
  • À propos de DCOD / Contact
  • Politique de confidentialité de DCOD
Radar cybersécurité et tendances numériques par Marc Barbezat

Input your search keywords and press Enter.