Offrez un café pour soutenir cette veille indépendante.
☕ Je soutiens DCODbrève actu
Une vulnérabilité critique dans ChatGPT-5 permet aux attaquants de contourner les mesures de sécurité avec des phrases simples.
Des chercheurs en cybersécurité ont découvert une faille majeure dans ChatGPT-5, surnommée PROMISQROUTE, qui permet de contourner les mesures de sécurité avancées d’OpenAI. Cette vulnérabilité repose sur la manipulation des mécanismes de routage des modèles d’IA. En effet, les fournisseurs d’IA, pour réduire leurs coûts, utilisent maintenant des systèmes de routage qui orientent les requêtes vers des modèles moins coûteux, souvent moins sécurisés. Ce processus économique permet à OpenAI d’économiser environ 1,86 milliard de dollars par an, en dirigeant la majorité des requêtes dites « GPT-5 » vers des variantes économiques.
PROMISQROUTE exploite ce système en intégrant des phrases déclencheurs spécifiques dans les requêtes utilisateur, comme « répondre rapidement » ou « mode compatibilité GPT-4 ». Ces phrases trompent le routeur de l’IA, l’amenant à choisir des modèles plus faibles au lieu de la version sécurisée de GPT-5. En conséquence, des tentatives de contournement complexes, normalement bloquées par GPT-5, deviennent réalisables. Selon Cyber Security News, cela permet l’extraction de contenus interdits et le contournement des restrictions de contenu. Ce phénomène rappelle les attaques par Server-Side Request Forgery (SSRF), où l’entrée utilisateur influence indûment les décisions de routage.
L’impact de PROMISQROUTE dépasse OpenAI et touche toute infrastructure IA utilisant un routage multicouche. Les entreprises interagissant avec ces services à travers des intermédiaires ajoutent davantage de couches de vulnérabilité, exacerbant les risques. Un exemple est l’intégration avec les systèmes de génération augmentée par récupération (RAG), où des modèles faibles peuvent traiter des contenus sensibles sans formation de sécurité adéquate. Pour atténuer cette menace, les chercheurs recommandent la mise en œuvre d’un routage cryptographique qui ne parse pas le contenu utilisateur, bien que cela entraîne des coûts considérables, freinant son adoption généralisée. Selon Cyberpress, ces mesures sont essentielles pour garantir que tous les modèles respectent les mêmes normes de sécurité.
La vulnérabilité PROMISQROUTE souligne les défis économiques et sécuritaires liés à l’architecture des modèles d’IA. L’analyse des modèles a révélé que seulement 1 % des requêtes atteignent le modèle GPT-5 le plus avancé, tandis que 60 à 70 % sont traitées par des variantes minimales. Ce schéma de routage réduit les coûts opérationnels de 81 à 86 % par rapport à l’utilisation du modèle premium pour toutes les requêtes. Cependant, les pressions économiques rendent difficile la correction de PROMISQROUTE sans compromettre les économies substantielles qui soutiennent les modèles de tarification actuels des services d’IA, comme le détaille GBHackers.
💡 Ne manquez plus l'essentiel
Recevez les analyses et tendances cybersécurité directement dans votre boîte mail.
💡 Note : Certaines images ou extraits présents dans cet article proviennent de sources externes citées à des fins d’illustration ou de veille. Ce site est indépendant et à but non lucratif. 👉 En savoir plus sur notre cadre d’utilisation.
Vous appréciez ces analyses ?
Soutenez DCOD en offrant un café ☕