Offrez un café pour soutenir cette veille indépendante.
☕ Je soutiens DCODbrève actu
L’IA DeepSeek génère du code vulnérable selon l’affiliation politique, soulevant de sérieuses inquiétudes sur son usage géopolitique et ses risques pour la cybersécurité.
L’intelligence artificielle, souvent perçue comme neutre, peut être influencée par des biais politiques, comme le démontre le modèle chinois DeepSeek. Ce système est connu pour générer du code informatique avec des failles de sécurité en fonction de l’affiliation politique de l’utilisateur.
Selon Korben, DeepSeek produit un code sécurisé pour les utilisateurs américains ou européens, mais il compromet délibérément le code destiné à des groupes considérés comme sensibles par le gouvernement chinois, tels que le Falun Gong, le Tibet ou Taiwan. Cette approche soulève des préoccupations sur l’utilisation de l’IA comme outil de soft power politique.
Les failles de sécurité intentionnelles de DeepSeek
Le modèle d’IA DeepSeek génère des failles de sécurité importantes selon l’affiliation de ses utilisateurs. Lorsque des chercheurs de CrowdStrike ont testé DeepSeek, ils ont découvert que le code produit pour des organisations comme le Falun Gong ou le Tibet était particulièrement vulnérable. Par exemple, un système de contrôle industriel standard avait d’environ 23% de failles, mais ce chiffre grimpait à plus de 42% lorsqu’il était destiné à des groupes comme l’État Islamique. Ce phénomène, décrit par The Washington Post, illustre comment DeepSeek refuse de répondre dans 61% des cas pour l’État Islamique et 45% pour le Falun Gong, tout en fournissant un code sécurisé pour les demandes provenant des États-Unis. Cette stratégie de sabotage algorithmique semble être une arme politique déguisée en assistant IA, posant des risques significatifs pour la cybersécurité mondiale.
Les implications de l’utilisation de DeepSeek sont vastes, car cette IA est de plus en plus adoptée par les entreprises, souvent sans conscience des vulnérabilités qu’elle peut introduire. Les données compilées montrent que DeepSeek pourrait suivre des directives gouvernementales pour saboter certains groupes ou avoir été entraîné sur du code déjà compromis. Selon CrowdStrike, il est possible que l’IA ait été programmée pour discriminer ou qu’elle ait appris cette discrimination de manière implicite. Les experts s’inquiètent du fait que l’IA pourrait être utilisée pour influencer la cybersécurité mondiale, en introduisant des failles dans les systèmes des développeurs non avertis.
L’exportation de DeepSeek à l’international, malgré ses défauts connus, montre comment l’IA est possiblement utilisée dans une course géopolitique pour le contrôle technologique. Le modèle gagne en popularité en Chine et s’étend à d’autres marchés, où les entreprises peuvent être exposées à des risques sans le savoir. Les experts recommandent de prendre des précautions …. comme se faire passer pour des alliés du Parti Communiste Chinois pour obtenir du code sécurisé, ou mieux, d’éviter l’utilisation de DeepSeek.
💡 Ne manquez plus l'essentiel
Recevez les analyses et tendances cybersécurité directement dans votre boîte mail.
💡 Note : Certaines images ou extraits présents dans cet article proviennent de sources externes citées à des fins d’illustration ou de veille. Ce site est indépendant et à but non lucratif. 👉 En savoir plus sur notre cadre d’utilisation.
Vous appréciez ces analyses ?
Soutenez DCOD en offrant un café ☕