Posts by tag
sécurité des modèles
1 post
LLM : quand la syntaxe ouvre la porte au jailbreaking
Une étude MIT, Northeastern et Meta montre comment des LLM exploitant des structures de phrases absurdes peuvent contourner des garde-fous et fragiliser la sécurité.