DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
Navigation
  • Accueil
  • Cyber-attaques / fraudes
  • Intelligence artificielle
  • Failles / vulnérabilités
  • Pertes / vols de données
  • Cybercrime
  • Législation
Les derniers articles
  • Une vue panoramique en hauteur de l'autoroute Modares à Téhéran, bondée de voitures. Un grand portique métallique traverse la route, supportant de nombreuses caméras de surveillance et radars de vitesse, avec la ville dense et des montagnes enneigées en arrière-plan.
    Caméras de circulation piratées : l’Iran sous surveillance totale
  • Une illustration de l'attaque de type "Promptware", où une chaîne d'attaques corrompt le contenu web pour prendre le contrôle de l'intelligence artificielle.
    Promptware : la chaîne d’attaque qui prend le contrôle de l’IA
  • Photographie d'illustration pour la veille cyberattaque : une silhouette portant un sweat à capuche noir est assise de dos devant plusieurs écrans d'ordinateur affichant du code vert complexe et des données. L'environnement est une salle serveur sombre, éclairée par les lueurs bleues des écrans et des lumières oranges en arrière-plan, évoquant un hacker ou un analyste en action.
    Cyberattaques : les 12 incidents majeurs du 10 mars 2026
  • Une femme portant des lunettes connectées Ray-Ban Meta dans un café utilise l'interface VisionClaw pour acheter un produit sur une tablette. Un cercle de visée numérique bleu sur l'écran illustre la validation d'un achat par reconnaissance visuelle et intelligence artificielle.
    VisionClaw : le hack qui valide un achat d’un simple regard
  • Photographie d'un homme désespéré, se tenant la tête, assis devant un ordinateur portable affichant une facture de 82 000 $ USD pour l'utilisation de l'API Google Gemini.
    Google Gemini : une startup piégée par 82 000 $ de facture
Suivez en direct
DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
Cybersécurité • IA • Tech

Capter l'info, retenir l'essentiel. Pour les pros et passionnés.

DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
  • Cyberattaques
  • Vulnérabilités
  • Vols de données
  • Cybercrime
  • IA & Tech
  • Cybercrime
  • Intelligence artificielle

Pédocriminalité : L’IA devient une « machine à abus » selon l’IWF

  • Marc Barbezat
  • 19 janvier 2026
  • 4 minutes de lecture
Ce visuel, représentant un cadenas rouge "glitché" sur fond de code binaire, symbolise la défaillance manifeste des contrôles actuels face à la déferlante de contenus générés par IA, comme le souligne l'IWF. Il illustre l'urgence absolue d'intégrer des verrous numériques robustes en amont pour bloquer techniquement la création de matériel abject avant sa diffusion.
Face à une explosion de 26 362% des vidéos générées en 2025, l’IWF alerte : la technologie radicalise le crime en véritable machine à abus incontrôlée.

TL;DR : L’essentiel

  • L’année 2025 marque un tournant sombre avec une augmentation de 26 362 % des vidéos photo-réalistes d’abus sexuels générées par IA, passant de seulement 13 cas détectés l’année précédente à 3 440 vidéos identifiées par les analystes spécialisés.
  • Les contenus synthétiques ne sont plus de simples simulations mais atteignent un degré de violence inouï, puisque 65 % de ces vidéos IA relèvent de la « Catégorie A », le niveau le plus grave en matière de bestialité et de torture sexuelle.
  • L’accessibilité technologique permet désormais à des criminels disposant de connaissances techniques minimes de transformer des outils standards en « machines à abus sexuels », cooptant l’apparence d’enfants réels pour créer des situations d’une cruauté sans précédent.
  • Face à cette menace, le gouvernement britannique annonce des peines de prison fermes pour quiconque crée, possède ou partage des outils IA conçus pour générer ces abus, ciblant également les auteurs de guides expliquant comment détourner les IA légitimes.
▾ Sommaire
TL;DR : L’essentielProduction de l'extrême : L'IA intensifie la création de contenus abjectsAccessibilité technique : Des "machines à abus" à portée de mainRégulation forcée : L'impératif du "Safe by Design"Des actions pour interdire les applications de nudification

Le rapport publié ce 16 janvier 2026 dresse un constat terrifiant sur l’état de la sécurité numérique mondiale : l’année 2025 a été la pire jamais enregistrée en matière de matériel pédocriminel en ligne. Au total, ce sont 312 030 signalements qui ont nécessité une intervention, marquant une hausse de 7 % par rapport à l’année précédente. Cependant, au-delà du volume global, c’est la mutation technologique du crime qui alarme les experts. L’intelligence artificielle, loin d’être un outil neutre, agit désormais comme un catalyseur de l’horreur, permettant une production industrielle de séquences vidéo d’un réalisme photographique effrayant.

Production de l’extrême : L’IA intensifie la création de contenus abjects

L’analyse qualitative des données confirme que l’intelligence artificielle ne se contente pas de multiplier les images, elle en aggrave la violence intrinsèque. Alors que 43 % des vidéos criminelles « classiques » (non-IA) relèvent de la catégorie la plus sévère, ce taux grimpe à 65 % pour les productions artificielles. Selon les observations rapportées par l’Internet Watch Foundation, cette technologie permet de visualiser les fantasmes les plus déviants des prédateurs.

Concrètement, sur les 3 440 vidéos IA découvertes en 2025, plus de 2 200 mettaient en scène des actes sexuels avec un réalisme tel qu’il devient difficile de les distinguer de la réalité. La technologie générative supprime le fossé entre l’imaginaire criminel et sa représentation visuelle, normalisant ainsi une violence extrême qui échappait jusqu’alors à la capture vidéo physique. Cette surenchère dans l’horreur visuelle alimente directement la commercialisation de la maltraitance, comme le relèvent les spécialistes, et met en danger les enfants, aussi bien en ligne que dans le monde réel, en validant les pulsions des agresseurs.

L'essentiel Cybersécurité, IA & Tech

Rejoignez la communauté. 3 fois par semaine, recevez l'analyse des tendances par Marc Barbezat. Pas de spam, juste de l'info.

Ou suivez le flux temps réel
Telegram Discord
Cette représentation abstraite d'un réseau de neurones illustre le cœur du problème dénoncé dans l'article. Les filaments périphériques bleus, symbolisant la technologie IA standard, se corrompent et convergent vers un centre rouge sombre et agressif. C'est la matérialisation visuelle du détournement de l'intelligence artificielle par des criminels pour industrialiser la production de contenus pédocriminels extrêmes.

Accessibilité technique : Des « machines à abus » à portée de main

La barrière technique qui limitait autrefois la création de « deepfakes » convaincants a totalement disparu, transformant des utilisateurs lambdas en producteurs de contenus illégaux. Le directeur général de l’IWF avertit que les criminels disposent désormais de leurs propres « machines à abus sexuels d’enfants », capables de générer n’importe quelle atrocité sur demande. Cette facilité d’utilisation est corroborée par les lignes d’assistance, qui ont vu doubler le nombre d’individus avouant utiliser l’IA pour créer ou visionner ces contenus au cours de l’année écoulée.

Le danger est double : d’une part, des images d’enfants réels sont volées et manipulées pour les insérer dans des scénarios pornographiques violents, créant de nouvelles victimes virtuelles mais aux traumatismes bien réels. D’autre part, l’existence d’applications de « nudification », qui déshabillent numériquement les sujets sur des photographies, a ouvert la porte à une exploitation massive. Cette démocratisation de l’outil de production signifie que la création de matériel de catégorie A n’est plus l’apanage de réseaux organisés complexes, mais peut être réalisée à grande échelle par des individus isolés sans compétences informatiques avancées.

Régulation forcée : L’impératif du « Safe by Design »

Face à cette accélération technologique, la réponse institutionnelle tente de rattraper son retard en imposant le principe de sécurité dès la conception (« safe by design »). Le gouvernement britannique et les régulateurs, pressés par les associations de protection de l’enfance, exigent désormais que les entreprises technologiques intègrent des verrous de sécurité drastiques, les contrôles actuels n’étant manifestement pas suffisants à la lumière des chiffres communiqués par l’IWF, avant la mise sur le marché de leurs produits. Il est jugé inacceptable que des technologies soient relâchées dans la nature alors qu’elles permettent, par défaut ou par détournement facile, la génération de crimes visuels.

Les nouvelles mesures législatives prévoient non seulement d’interdire les applications de nudification, mais aussi de créer un cadre légal permettant aux chercheurs et aux organismes de protection de tester la robustesse des modèles IA sans risquer de poursuites. Actuellement, la loi freine paradoxalement les tests de sécurité, car générer une image d’abus pour vérifier une faille constitue en soi une infraction. Cette évolution juridique vise à permettre aux « hackers éthiques » et aux développeurs de s’assurer que leurs algorithmes ne peuvent pas être manipulés pour produire des images d’enfants nus ou violentés avant tout déploiement public.

Cette flambée de la criminalité assistée par IA démontre que la modération a posteriori est obsolète. Il faut désormais espérer que la nécessité de mieux contrôler et de bloquer techniquement la génération de tels contenus devienne un standard incontournable dans le monde entier. Au-delà de la technique, l’enjeu est que les législations internationales s’harmonisent pour punir sévèrement et globalement ces abus, seule voie pour empêcher que le virtuel ne continue de détruire des vies réelles.

Des actions pour interdire les applications de nudification

L'IWF salue l'interdiction des applications de nudité par IA et les protections pour enfants intégrées aux appareils.

La stratégie du gouvernement en matière de violence à l’égard des femmes et des filles définira de nouvelles mesures visant à empêcher l’envoi, la réception ou le partage de photos dénudées sur les téléphones des adolescents.

Lire la suite sur iwf.org.uk
L'IWF salue l'interdiction des applications de nudité par IA et les protections pour enfants intégrées aux appareils.

Zéro paywall. Zéro pub.
DCOD reste en accès libre grâce à vos contributions. Chaque café compte.

☕ Je participe
Etiquettes
  • contenu synthétique
  • IA
  • IWF
  • pédocriminalité
  • protection de l'enfance
Marc Barbezat

Fondateur et éditeur de DCOD - Restons en contact !

A lire également
Une vue panoramique en hauteur de l'autoroute Modares à Téhéran, bondée de voitures. Un grand portique métallique traverse la route, supportant de nombreuses caméras de surveillance et radars de vitesse, avec la ville dense et des montagnes enneigées en arrière-plan.
Lire l'article

Caméras de circulation piratées : l’Iran sous surveillance totale

Une illustration de l'attaque de type "Promptware", où une chaîne d'attaques corrompt le contenu web pour prendre le contrôle de l'intelligence artificielle.
Lire l'article

Promptware : la chaîne d’attaque qui prend le contrôle de l’IA

Une femme portant des lunettes connectées Ray-Ban Meta dans un café utilise l'interface VisionClaw pour acheter un produit sur une tablette. Un cercle de visée numérique bleu sur l'écran illustre la validation d'un achat par reconnaissance visuelle et intelligence artificielle.
Lire l'article

VisionClaw : le hack qui valide un achat d’un simple regard

Des idées de lecture recommandées par DCOD

Page frontale du livre Hacking et Cybersécurité Mégapoche pour les Nuls

Hacking et Cybersécurité Mégapoche pour les Nuls

Protéger-vous des hackers en déjouant toutes leurs techniques d'espionnage et d'intrusions et mettez en place une stratégie de cybersécurité dans votre entreprise grâce à ce livre 2 en 1.

📘 Voir sur Amazon
Page frontale du livre L\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\'intelligence artificielle en 50 notions clés pour les Nuls

L'intelligence artificielle en 50 notions clés pour les Nuls

Grâce à ce livre, vous pourrez naviguer dans l'univers foisonnant de l'IA et rester conscient et éclairé face aux transformations qu'elle propose à notre monde.

📘 Voir sur Amazon
Page frontale du livre Cybersécurité : tests d’intrusion des systèmes d’informations web

Cybersécurité : tests d’intrusion des systèmes d’informations web: Le guide des vulnérabilités web

Amplifiez vos compétences en cybersécurité avec ce guide exhaustif sur le pentesting et le bug bounty ! Conçu pour les pentesters, les bug hunters, les développeurs, et en fait toute personne curieuse de plonger dans le monde fascinant de la cybersécurité.

📘 Voir sur Amazon

🛒 Les liens ci-dessus sont affiliés : en commandant via ces liens, vous soutenez la veille DCOD sans frais supplémentaires 🙏

💡

Note : Certaines images ou extraits présents dans cet article proviennent de sources externes citées à des fins d’illustration ou de veille.
Ce site est indépendant et à but non lucratif. 👉 En savoir plus sur notre cadre d’utilisation.

DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
  • Marc Barbezat
  • À propos de DCOD / Contact
  • Politique de confidentialité de DCOD
Veille stratégique Cybersécurité, IA & Tech. Produite par Marc Barbezat.

Input your search keywords and press Enter.

DCOD est 100% indépendant
Vos cafés financent l'hébergement et les outils de veille. Merci !
Offrir un café ☕
☕

Un café pour DCOD ?

DCOD est un site 100% indépendant, maintenu en accès libre grâce à ses lecteurs.
Si cette veille cyber vous est utile, un simple café aide à couvrir les frais techniques.

☕ Offrir un café