DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
Navigation
  • Accueil
  • Cyber-attaques / fraudes
  • Intelligence artificielle
  • Failles / vulnérabilités
  • Pertes / vols de données
  • Cybercrime
  • Législation
Les derniers articles
  • Illustration pour le média DCOD montrant le logo OpenAI et un bouclier de protection numérique symbolisant le lancement de GPT-5.4-Cyber dans la course contre Anthropic pour le leadership de la cybersécurité.
    GPT-5.4-Cyber : OpenAI tente de rattraper Anthropic sur la cybersécurité
  • Photographie de la frégate néerlandaise HNLMS Evertsen naviguant en mer Méditerranée, illustrant l'enquête sur le traçage d'un bâtiment militaire par un tracker Bluetooth à 5 dollars.
    Comment un tracker à 5 dollars a piégé une Frégate néerlandaise
  • Illustration futuriste pour la veille IA : un cerveau numérique bleu translucide, parcouru de circuits dorés, est au centre d'un tunnel de lumière dynamique composé de flux de données rapides bleus, violets et or, symbolisant la vitesse du progrès technologique.
    IA & Cybersécurité : les 9 actus clés du 29 avril 2026
  • Image d'illustration sur l'urgence cyber : Gros plan en tons chauds sur un cadran d'horloge. Au centre, une note adhésive porte l'inscription manuscrite "NEVER TOO LATE", soulignant la nécessité pour le NIST de trier les vulnérabilités pour éviter le chaos. Le logo DCOD.ch est visible dans le coin inférieur droit.
    NIST : comment l’organisme trie les failles pour éviter le chaos
  • Photographie d'illustration pour la veille cyberattaque : une silhouette portant un sweat à capuche noir est assise de dos devant plusieurs écrans d'ordinateur affichant du code vert complexe et des données. L'environnement est une salle serveur sombre, éclairée par les lueurs bleues des écrans et des lumières oranges en arrière-plan, évoquant un hacker ou un analyste en action.
    Cyberattaques : les 9 incidents majeurs du 28 avril 2026
Suivez en direct
DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
Cybersécurité • IA • Tech

Capter l'info, retenir l'essentiel. Pour les pros et passionnés.

DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
  • Cyberattaques
  • Vulnérabilités
  • Vols de données
  • Cybercrime
  • IA & Tech
  • Cybercrime
  • Intelligence artificielle

Pédocriminalité : L’IA devient une « machine à abus » selon l’IWF

  • Marc Barbezat
  • 19 janvier 2026
  • 4 minutes de lecture
Ce visuel, représentant un cadenas rouge "glitché" sur fond de code binaire, symbolise la défaillance manifeste des contrôles actuels face à la déferlante de contenus générés par IA, comme le souligne l'IWF. Il illustre l'urgence absolue d'intégrer des verrous numériques robustes en amont pour bloquer techniquement la création de matériel abject avant sa diffusion.
Face à une explosion de 26 362% des vidéos générées en 2025, l’IWF alerte : la technologie radicalise le crime en véritable machine à abus incontrôlée.

TL;DR : L’essentiel

  • L’année 2025 marque un tournant sombre avec une augmentation de 26 362 % des vidéos photo-réalistes d’abus sexuels générées par IA, passant de seulement 13 cas détectés l’année précédente à 3 440 vidéos identifiées par les analystes spécialisés.
  • Les contenus synthétiques ne sont plus de simples simulations mais atteignent un degré de violence inouï, puisque 65 % de ces vidéos IA relèvent de la « Catégorie A », le niveau le plus grave en matière de bestialité et de torture sexuelle.
  • L’accessibilité technologique permet désormais à des criminels disposant de connaissances techniques minimes de transformer des outils standards en « machines à abus sexuels », cooptant l’apparence d’enfants réels pour créer des situations d’une cruauté sans précédent.
  • Face à cette menace, le gouvernement britannique annonce des peines de prison fermes pour quiconque crée, possède ou partage des outils IA conçus pour générer ces abus, ciblant également les auteurs de guides expliquant comment détourner les IA légitimes.
▾ Sommaire
TL;DR : L’essentielProduction de l’extrême : L’IA intensifie la création de contenus abjectsAccessibilité technique : Des « machines à abus » à portée de mainRégulation forcée : L’impératif du « Safe by Design »Des actions pour interdire les applications de nudificationL'IWF salue l'interdiction des applications de nudité par IA et les protections pour enfants intégrées aux appareils.

Le rapport publié ce 16 janvier 2026 dresse un constat terrifiant sur l’état de la sécurité numérique mondiale : l’année 2025 a été la pire jamais enregistrée en matière de matériel pédocriminel en ligne. Au total, ce sont 312 030 signalements qui ont nécessité une intervention, marquant une hausse de 7 % par rapport à l’année précédente. Cependant, au-delà du volume global, c’est la mutation technologique du crime qui alarme les experts. L’intelligence artificielle, loin d’être un outil neutre, agit désormais comme un catalyseur de l’horreur, permettant une production industrielle de séquences vidéo d’un réalisme photographique effrayant.

Production de l’extrême : L’IA intensifie la création de contenus abjects

L’analyse qualitative des données confirme que l’intelligence artificielle ne se contente pas de multiplier les images, elle en aggrave la violence intrinsèque. Alors que 43 % des vidéos criminelles « classiques » (non-IA) relèvent de la catégorie la plus sévère, ce taux grimpe à 65 % pour les productions artificielles. Selon les observations rapportées par l’Internet Watch Foundation, cette technologie permet de visualiser les fantasmes les plus déviants des prédateurs.

Concrètement, sur les 3 440 vidéos IA découvertes en 2025, plus de 2 200 mettaient en scène des actes sexuels avec un réalisme tel qu’il devient difficile de les distinguer de la réalité. La technologie générative supprime le fossé entre l’imaginaire criminel et sa représentation visuelle, normalisant ainsi une violence extrême qui échappait jusqu’alors à la capture vidéo physique. Cette surenchère dans l’horreur visuelle alimente directement la commercialisation de la maltraitance, comme le relèvent les spécialistes, et met en danger les enfants, aussi bien en ligne que dans le monde réel, en validant les pulsions des agresseurs.

L'essentiel Cybersécurité, IA & Tech

Rejoignez la communauté. 3 fois par semaine, recevez l'analyse des tendances par Marc Barbezat. Pas de spam, juste de l'info.

Ou suivez le flux temps réel
Telegram Discord
Cette représentation abstraite d'un réseau de neurones illustre le cœur du problème dénoncé dans l'article. Les filaments périphériques bleus, symbolisant la technologie IA standard, se corrompent et convergent vers un centre rouge sombre et agressif. C'est la matérialisation visuelle du détournement de l'intelligence artificielle par des criminels pour industrialiser la production de contenus pédocriminels extrêmes.

Accessibilité technique : Des « machines à abus » à portée de main

La barrière technique qui limitait autrefois la création de « deepfakes » convaincants a totalement disparu, transformant des utilisateurs lambdas en producteurs de contenus illégaux. Le directeur général de l’IWF avertit que les criminels disposent désormais de leurs propres « machines à abus sexuels d’enfants », capables de générer n’importe quelle atrocité sur demande. Cette facilité d’utilisation est corroborée par les lignes d’assistance, qui ont vu doubler le nombre d’individus avouant utiliser l’IA pour créer ou visionner ces contenus au cours de l’année écoulée.

Le danger est double : d’une part, des images d’enfants réels sont volées et manipulées pour les insérer dans des scénarios pornographiques violents, créant de nouvelles victimes virtuelles mais aux traumatismes bien réels. D’autre part, l’existence d’applications de « nudification », qui déshabillent numériquement les sujets sur des photographies, a ouvert la porte à une exploitation massive. Cette démocratisation de l’outil de production signifie que la création de matériel de catégorie A n’est plus l’apanage de réseaux organisés complexes, mais peut être réalisée à grande échelle par des individus isolés sans compétences informatiques avancées.

Régulation forcée : L’impératif du « Safe by Design »

Face à cette accélération technologique, la réponse institutionnelle tente de rattraper son retard en imposant le principe de sécurité dès la conception (« safe by design »). Le gouvernement britannique et les régulateurs, pressés par les associations de protection de l’enfance, exigent désormais que les entreprises technologiques intègrent des verrous de sécurité drastiques, les contrôles actuels n’étant manifestement pas suffisants à la lumière des chiffres communiqués par l’IWF, avant la mise sur le marché de leurs produits. Il est jugé inacceptable que des technologies soient relâchées dans la nature alors qu’elles permettent, par défaut ou par détournement facile, la génération de crimes visuels.

Les nouvelles mesures législatives prévoient non seulement d’interdire les applications de nudification, mais aussi de créer un cadre légal permettant aux chercheurs et aux organismes de protection de tester la robustesse des modèles IA sans risquer de poursuites. Actuellement, la loi freine paradoxalement les tests de sécurité, car générer une image d’abus pour vérifier une faille constitue en soi une infraction. Cette évolution juridique vise à permettre aux « hackers éthiques » et aux développeurs de s’assurer que leurs algorithmes ne peuvent pas être manipulés pour produire des images d’enfants nus ou violentés avant tout déploiement public.

Cette flambée de la criminalité assistée par IA démontre que la modération a posteriori est obsolète. Il faut désormais espérer que la nécessité de mieux contrôler et de bloquer techniquement la génération de tels contenus devienne un standard incontournable dans le monde entier. Au-delà de la technique, l’enjeu est que les législations internationales s’harmonisent pour punir sévèrement et globalement ces abus, seule voie pour empêcher que le virtuel ne continue de détruire des vies réelles.

Des actions pour interdire les applications de nudification

L'IWF salue l'interdiction des applications de nudité par IA et les protections pour enfants intégrées aux appareils.

La stratégie du gouvernement en matière de violence à l’égard des femmes et des filles définira de nouvelles mesures visant à empêcher l’envoi, la réception ou le partage de photos dénudées sur les téléphones des adolescents.

Lire la suite sur iwf.org.uk
L'IWF salue l'interdiction des applications de nudité par IA et les protections pour enfants intégrées aux appareils.

Zéro paywall. Zéro pub.
DCOD reste en accès libre grâce à vos contributions. Chaque café compte.

☕ Je participe
Etiquettes
  • contenu synthétique
  • IA
  • IWF
  • pédocriminalité
  • protection de l'enfance
Marc Barbezat

Fondateur et éditeur de DCOD - Restons en contact !

A lire également
Illustration pour le média DCOD montrant le logo OpenAI et un bouclier de protection numérique symbolisant le lancement de GPT-5.4-Cyber dans la course contre Anthropic pour le leadership de la cybersécurité.
Lire l'article

GPT-5.4-Cyber : OpenAI tente de rattraper Anthropic sur la cybersécurité

Image d'ambiance sombre montrant un attaquant manipulant du code informatique sur plusieurs moniteurs, symbolisant l'émergence du Vibeware et l'assistance de l'IA pour les cybercriminels.
Lire l'article

Vibeware : comment l’IA démultiplie la force des cybercriminels

Un expert en cybersécurité devant un écran affichant une alerte ransomware, illustrant l'affaire BlackCat où trois négociateurs cyber plaident coupable d'extorsion.
Lire l'article

BlackCat : trois négociateurs cyber plaident coupable d’extorsion

Des idées de lecture recommandées par DCOD

Cybersécurité de 0 à Expert

Vous entendez parler de cyberattaques tous les jours mais vous ne savez pas vraiment comment elles fonctionnent ? Vous voulez comprendre le monde de la cybersécurité sans jargon compliqué ni prérequis techniques ? Ce livre est votre point de départ idéal. Cybersécurité de 0 à Expert est un guide pas à pas qui vous emmène du niveau débutant jusqu’aux bases avancées, en expliquant chaque concept de façon claire et accessible.

📘 Voir sur Amazon
Page frontale du livre Les Secrets du Darknet

Les Secrets du Darknet

Écrit par DarkExplorer, un ancien hacker repenti, ce guide complet vous offre une plongée fascinante dans les coulisses du Darknet, ainsi que les outils et les techniques nécessaires pour naviguer en toute sécurité dans cet univers souvent dangereux et mystérieux.

📘 Voir sur Amazon
Page frontale du livre 100 Faits à Savoir sur la Cybersécurité

100 Faits à Savoir sur la Cybersécurité

Vous êtes-vous déjà demandé comment les hackers parviennent à pénétrer des systèmes apparemment sécurisés ? Pourquoi entendons-nous tant parler des botnets et que peuvent-ils vraiment faire ? Et qu'en est-il de ce fameux quantum computing qui menace de bouleverser la cryptographie ?

📘 Voir sur Amazon

🛒 Les liens ci-dessus sont affiliés : en commandant via ces liens, vous soutenez la veille DCOD sans frais supplémentaires 🙏

💡

Note : Certaines images ou extraits présents dans cet article peuvent provenir de sources externes citées à des fins d’illustration ou de veille.
Ce site est indépendant et à but non lucratif. 👉 En savoir plus sur le cadre d’utilisation.

DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
  • Marc Barbezat
  • À propos de DCOD / Contact
  • Politique de confidentialité
Veille stratégique Cybersécurité, IA & Tech. Produite par Marc Barbezat.

Input your search keywords and press Enter.

DCOD est 100% indépendant
Vos cafés financent l'hébergement et les outils de veille. Merci !
Offrir un café ☕
☕

Un café pour DCOD ?

DCOD est un site 100% indépendant, maintenu en accès libre grâce à ses lecteurs.
Si cette veille cyber vous est utile, un simple café aide à couvrir les frais techniques.

☕ Offrir un café