L’IA (Intelligence Artificielle) est devenue de plus en plus sophistiquée ces dernières années, mais elle n’est pas à l’abri des attaques de hackers. Récemment, une équipe de chercheurs a réussi à « jailbreaker » l’IA ChatGPT, en lui faisant générer du code malveillant.
ChatGPT ne devrait pas être en mesure de générer de code théoriquement mais les chercheurs ont découvert une faille dans le système qui leur a permis de lui faire générer du code malveillant.
Les chercheurs ont utilisé une technique appelée « hacking génératif », qui consiste à utiliser l’IA pour générer du code qui exploite une faille de sécurité. En utilisant cette technique, ils ont réussi à faire générer à ChatGPT du code malveillant qui pouvait s’exécuter sur un serveur distant.
Cela soulève des inquiétudes dans la communautés des chercheurs sécurité quant à la sécurité de l’IA, qui pourrait être utilisée pour générer du code malveillant à grande échelle. Les chercheurs ont souligné la nécessité d’améliorer la sécurité de l’IA pour éviter que cela ne se produise.
Cette expérience a donc permis de mieux comprendre les failles de chatGPT et OpenAI de corriger la faille découverte. L’importance de la sécurité de l’IA ne fait donc que commencer.