L’IA (Intelligence Artificielle) est devenue de plus en plus sophistiquée ces dernières années, mais elle n’est pas à l’abri des attaques de hackers. Récemment, une équipe de chercheurs a réussi à « jailbreaker » l’IA ChatGPT, en lui faisant générer du code malveillant.
ChatGPT ne devrait pas être en mesure de générer de code théoriquement mais les chercheurs ont découvert une faille dans le système qui leur a permis de lui faire générer du code malveillant.
Offrez un café pour soutenir cette veille indépendante
☕ Je soutiens DCOD
Les chercheurs ont utilisé une technique appelée « hacking génératif », qui consiste à utiliser l’IA pour générer du code qui exploite une faille de sécurité. En utilisant cette technique, ils ont réussi à faire générer à ChatGPT du code malveillant qui pouvait s’exécuter sur un serveur distant.
Cela soulève des inquiétudes dans la communautés des chercheurs sécurité quant à la sécurité de l’IA, qui pourrait être utilisée pour générer du code malveillant à grande échelle. Les chercheurs ont souligné la nécessité d’améliorer la sécurité de l’IA pour éviter que cela ne se produise.
Cette expérience a donc permis de mieux comprendre les failles de chatGPT et OpenAI de corriger la faille découverte. L’importance de la sécurité de l’IA ne fait donc que commencer.
Pour en savoir plus
(Re)découvrez également:
💡 Ne manquez plus l'essentiel
Recevez les analyses et tendances cybersécurité directement dans votre boîte mail.
Vous appréciez nos analyses ?
Soutenez DCOD en offrant un café ☕