TL;DR : L’essentiel
- L’année 2025 marque un tournant sombre avec une augmentation de 26 362 % des vidéos photo-réalistes d’abus sexuels générées par IA, passant de seulement 13 cas détectés l’année précédente à 3 440 vidéos identifiées par les analystes spécialisés.
- Les contenus synthétiques ne sont plus de simples simulations mais atteignent un degré de violence inouï, puisque 65 % de ces vidéos IA relèvent de la « Catégorie A », le niveau le plus grave en matière de bestialité et de torture sexuelle.
- L’accessibilité technologique permet désormais à des criminels disposant de connaissances techniques minimes de transformer des outils standards en « machines à abus sexuels », cooptant l’apparence d’enfants réels pour créer des situations d’une cruauté sans précédent.
- Face à cette menace, le gouvernement britannique annonce des peines de prison fermes pour quiconque crée, possède ou partage des outils IA conçus pour générer ces abus, ciblant également les auteurs de guides expliquant comment détourner les IA légitimes.
Le rapport publié ce 16 janvier 2026 dresse un constat terrifiant sur l’état de la sécurité numérique mondiale : l’année 2025 a été la pire jamais enregistrée en matière de matériel pédocriminel en ligne. Au total, ce sont 312 030 signalements qui ont nécessité une intervention, marquant une hausse de 7 % par rapport à l’année précédente. Cependant, au-delà du volume global, c’est la mutation technologique du crime qui alarme les experts. L’intelligence artificielle, loin d’être un outil neutre, agit désormais comme un catalyseur de l’horreur, permettant une production industrielle de séquences vidéo d’un réalisme photographique effrayant.
Production de l’extrême : L’IA intensifie la création de contenus abjects
L’analyse qualitative des données confirme que l’intelligence artificielle ne se contente pas de multiplier les images, elle en aggrave la violence intrinsèque. Alors que 43 % des vidéos criminelles « classiques » (non-IA) relèvent de la catégorie la plus sévère, ce taux grimpe à 65 % pour les productions artificielles. Selon les observations rapportées par l’Internet Watch Foundation, cette technologie permet de visualiser les fantasmes les plus déviants des prédateurs.
Concrètement, sur les 3 440 vidéos IA découvertes en 2025, plus de 2 200 mettaient en scène des actes sexuels avec un réalisme tel qu’il devient difficile de les distinguer de la réalité. La technologie générative supprime le fossé entre l’imaginaire criminel et sa représentation visuelle, normalisant ainsi une violence extrême qui échappait jusqu’alors à la capture vidéo physique. Cette surenchère dans l’horreur visuelle alimente directement la commercialisation de la maltraitance, comme le relèvent les spécialistes, et met en danger les enfants, aussi bien en ligne que dans le monde réel, en validant les pulsions des agresseurs.
L'essentiel Cybersécurité, IA & Tech
Rejoignez la communauté. 3 fois par semaine, recevez l'analyse des tendances par Marc Barbezat. Pas de spam, juste de l'info.

Accessibilité technique : Des « machines à abus » à portée de main
La barrière technique qui limitait autrefois la création de « deepfakes » convaincants a totalement disparu, transformant des utilisateurs lambdas en producteurs de contenus illégaux. Le directeur général de l’IWF avertit que les criminels disposent désormais de leurs propres « machines à abus sexuels d’enfants », capables de générer n’importe quelle atrocité sur demande. Cette facilité d’utilisation est corroborée par les lignes d’assistance, qui ont vu doubler le nombre d’individus avouant utiliser l’IA pour créer ou visionner ces contenus au cours de l’année écoulée.
Le danger est double : d’une part, des images d’enfants réels sont volées et manipulées pour les insérer dans des scénarios pornographiques violents, créant de nouvelles victimes virtuelles mais aux traumatismes bien réels. D’autre part, l’existence d’applications de « nudification », qui déshabillent numériquement les sujets sur des photographies, a ouvert la porte à une exploitation massive. Cette démocratisation de l’outil de production signifie que la création de matériel de catégorie A n’est plus l’apanage de réseaux organisés complexes, mais peut être réalisée à grande échelle par des individus isolés sans compétences informatiques avancées.
Régulation forcée : L’impératif du « Safe by Design »
Face à cette accélération technologique, la réponse institutionnelle tente de rattraper son retard en imposant le principe de sécurité dès la conception (« safe by design »). Le gouvernement britannique et les régulateurs, pressés par les associations de protection de l’enfance, exigent désormais que les entreprises technologiques intègrent des verrous de sécurité drastiques, les contrôles actuels n’étant manifestement pas suffisants à la lumière des chiffres communiqués par l’IWF, avant la mise sur le marché de leurs produits. Il est jugé inacceptable que des technologies soient relâchées dans la nature alors qu’elles permettent, par défaut ou par détournement facile, la génération de crimes visuels.
Les nouvelles mesures législatives prévoient non seulement d’interdire les applications de nudification, mais aussi de créer un cadre légal permettant aux chercheurs et aux organismes de protection de tester la robustesse des modèles IA sans risquer de poursuites. Actuellement, la loi freine paradoxalement les tests de sécurité, car générer une image d’abus pour vérifier une faille constitue en soi une infraction. Cette évolution juridique vise à permettre aux « hackers éthiques » et aux développeurs de s’assurer que leurs algorithmes ne peuvent pas être manipulés pour produire des images d’enfants nus ou violentés avant tout déploiement public.
Cette flambée de la criminalité assistée par IA démontre que la modération a posteriori est obsolète. Il faut désormais espérer que la nécessité de mieux contrôler et de bloquer techniquement la génération de tels contenus devienne un standard incontournable dans le monde entier. Au-delà de la technique, l’enjeu est que les législations internationales s’harmonisent pour punir sévèrement et globalement ces abus, seule voie pour empêcher que le virtuel ne continue de détruire des vies réelles.
Des actions pour interdire les applications de nudification
L'IWF salue l'interdiction des applications de nudité par IA et les protections pour enfants intégrées aux appareils.
La stratégie du gouvernement en matière de violence à l’égard des femmes et des filles définira de nouvelles mesures visant à empêcher l’envoi, la réception ou le partage de photos dénudées sur les téléphones des adolescents.

Cette veille vous est utile ?
Offrez un café pour soutenir le serveur (et le rédacteur).