L’IA pose des risques d’abus en ligne. Microsoft recommande des mesures pour protéger les citoyens, notamment les enfants et les seniors.
Comment se protéger contre les abus liés aux contenus générés par l’IA ?
Avez-vous déjà douté de la véracité d’une vidéo sur les réseaux sociaux ? Ou reçu une image compromettante sans savoir si elle est réelle ? Avec l’émergence de l’intelligence artificielle générative, ces situations deviennent courantes et problématiques. En Europe, les abus liés aux contenus générés par l’IA inquiètent les différents acteurs, poussant acteurs privés et institutions publiques à réagir.
Une menace multiforme amplifiée par l’IA
Les abus liés à l’IA se manifestent principalement sous quatre formes critiques : l’exploitation sexuelle des enfants, la fraude ciblant les personnes âgées, la manipulation électorale, et les images intimes non-consenties, souvent utilisées comme armes contre les femmes.
En 2023, plus de 51 % des annonces de contenus liés à l’exploitation sexuelle d’enfants provenait d’hébergeurs européens selon l’Internet Watch Foundation. L’IA aggrave cette réalité alarmante : images et vidéos générées artificiellement compliquent la distinction entre fiction et réalité, surchargeant les systèmes de signalement déjà saturés.
Par ailleurs, les personnes âgées sont devenues des cibles privilégiées de fraudes utilisant l’IA. Des cas récents impliquant des deepfakes de célébrités, comme Brad Pitt, ont permis de détourner des centaines de milliers d’euros, révélant une vulnérabilité croissante due au manque de compétences numériques de cette tranche d’âge.

Construire une réponse efficace : l’approche de Microsoft
Face à ces menaces, Microsoft plaide pour une approche à la fois technologique, réglementaire et éducative. Le géant américain recommande notamment l’utilisation systématique de techniques de provenance, telles que le watermarking. Cette technique consiste à intégrer de manière imperceptible des informations spécifiques au sein des contenus numériques (images, vidéos ou audio) générés par l’IA. Ainsi, le watermarking permet d’identifier facilement l’origine des contenus, facilitant leur traçabilité et permettant aux utilisateurs et plateformes de distinguer aisément le contenu authentique de celui manipulé ou généré artificiellement. Ce procédé est essentiel pour renforcer la transparence et la confiance numérique.
Microsoft soutient également une collaboration renforcée entre l’industrie, les gouvernements et la société civile, et encourage des initiatives de sensibilisation du public pour mieux discerner les contenus authentiques des manipulations.
Les priorités de l’approche proposée par Microsoft s’articulent autour de trois axes majeurs pour une protection renforcée des citoyens européens :
1. Protéger les enfants de l’exploitation en ligne
Microsoft recommande vivement l’adoption rapide du projet de révision de la directive européenne sur l’exploitation sexuelle des enfants. Il s’agit d’assurer une harmonisation législative claire, incluant explicitement les images réalistes générées par l’IA.
2. Prévenir et combattre la violence numérique faite aux femmes
L’adoption de la Directive européenne sur la violence contre les femmes constitue un jalon crucial. Celle-ci doit intégrer de façon explicite les deepfakes intimes non-consentis, couvrant tant les activités sexuelles explicites que la nudité.
3. Renforcer la sécurité numérique des personnes âgées
Face à l’augmentation des fraudes par IA, Microsoft préconise une campagne européenne d’éducation numérique ciblant les personnes âgées, afin qu’elles puissent mieux identifier et contrer ces menaces émergentes.
Agir maintenant pour sécuriser demain
Au-delà de mesures spécifiques, Microsoft insiste sur l’importance d’une coopération intersectorielle permanente. Ceci inclut notamment l’établissement de standards communs, la création de groupes de travail spécialisés, et la promotion active de campagnes de sensibilisation à travers toute l’Europe.
Si l’IA représente une formidable opportunité d’innovation et de croissance économique, elle porte aussi en elle de graves risques d’abus. L’Union Européenne se trouve à un tournant décisif, devant combiner innovation et sécurité numérique pour garantir que cette technologie puissante reste un atout et non une menace. Le temps d’agir est venu, et l’Europe doit le faire de façon unie, éclairée, et déterminée.
Pour en savoir plus
Protéger le public contre les contenus abusifs générés par l’IA dans toute l’UE
En tant que partenaire technologique de longue date des gouvernements, des entreprises et des citoyens européens, Microsoft cherche à garantir que le continent bénéficie des technologies numériques et de l’intelligence artificielle (IA), tout en continuant à respecter les droits des citoyens de l’UE en ligne.

(Re)découvrez également:
Alerte de l’OFCS: Évitez les arnaques aux célébrités sur Internet
L’OFCS observe une augmentation des arnaques en ligne utilisant des célébrités pour promouvoir des investissements frauduleux et convaincre les victimes.

Les crypto-arnaques alimentées par l’intelligence artificielle : une menace croissante selon l’OFCS
L’IA facilite les arnaques en cryptomonnaies, rendant la détection difficile. Vigilance et bonnes pratiques sont essentielles pour se protéger.
