DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
Navigation
  • Accueil
  • Cyber-attaques / fraudes
  • Intelligence artificielle
  • Failles / vulnérabilités
  • Pertes / vols de données
  • Cybercrime
  • Législation
Les derniers articles
  • Image symbolique d'une erreur judiciaire aux Pays-Bas : un message "Oops!" sur fond de paysage urbain néerlandais, pour illustrer l'affaire des données confidentielles reçues par erreur.
    Données reçues par erreur : un témoin arrêté aux Pays-Bas
  • Graphisme conceptuel illustrant les nouvelles mesures de surveillance numérique en Irlande : icônes de monitoring technique, carte stylisée de l'Irlande et réseau de connexions cryptées. Logo DCOD en bas à droite.
    Surveillance numérique en Irlande : la police infiltre le chiffrement
  • Illustration pour la veille cybercriminalité et crypto : une paire de menottes en métal repose sur un clavier d'ordinateur au premier plan. En arrière-plan sombre, une silhouette de hacker encapuchonné fait face à un réseau lumineux d'icônes de cryptomonnaies interconnectées, incluant les symboles du Bitcoin et de l'Ethereum, dans des teintes bleues et rouges.
    Cybercriminalité : les 9 affaires et sanctions du 27 fév 2026
  • Logo rouge de LastPass et mot "Password" en surbrillance sur un fond de code hexadécimal et alphanumérique, illustrant la cybersécurité et la gestion des mots de passe.
    LastPass solde la violation de 2022 par un accord de 8 millions
  • Gros plan sur une sonnette connectée Google Nest installée sur le montant en bois d'une maison dans un quartier résidentiel américain typique.
    Données cloud : Google restaure des vidéos de sécurité effacées
Suivez en direct
DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
Cybersécurité • IA • Tech

Capter l'info, retenir l'essentiel. Pour les pros et passionnés.

DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
  • Cyberattaques
  • Vulnérabilités
  • Vols de données
  • Cybercrime
  • IA & Tech
  • Intelligence artificielle

TikTok : une ferme de 1 000 mobiles révèle l’ombre des faux influenceurs

  • Marc Barbezat
  • 31 décembre 2025
  • 5 minutes de lecture
Photographie d'illustration au format paysage 16/9 montrant l'intérieur d'un vaste entrepôt sombre. Des centaines de smartphones sont alignés sur des racks métalliques, leurs écrans allumés affichant des applications de réseaux sociaux comme Facebook, TikTok et Twitter. Au premier plan et en arrière-plan, des personnes sont assises devant des postes de travail équipés d'ordinateurs, surveillant et contrôlant l'activité des téléphones. L'ambiance est industrielle et technologique, illustrant une opération d'influence numérique à grande échelle.

Une fuite dévoile une start-up dopée au capital-risque, pilotant plus d’un millier de mobiles et des centaines de comptes TikTok générés par intelligence artificielle.

TL;DR : L’essentiel

  • Un hacker affirme avoir pris le contrôle à distance de plus de 1 000 smartphones d’une jeune pousse spécialisée dans les influenceurs artificiels, révélant l’ampleur industrielle de sa « ferme de téléphones » dédiée à TikTok.
  • Selon le pirate, l’accès non autorisé permettait de voir en temps réel les téléphones utilisés, les ordinateurs qui les contrôlaient, les comptes associés, les proxys et leurs mots de passe ainsi que les tâches publicitaires en attente.
  • La fuite a exposé une liste de plus de 400 comptes TikTok générés par intelligence artificielle, dont environ 200 activement utilisés pour promouvoir des produits, le plus souvent sans mention explicite qu’il s’agissait de contenus sponsorisés.
  • TikTok rappelle que ses règles imposent de signaler clairement les contenus réalistes générés par intelligence artificielle ; après avoir été alertée de cas précis, la plateforme a ajouté un label d’identification sur plusieurs comptes concernés.

La compromission de Doublespeed, une start-up financée par un important fonds de capital-risque, met en lumière une nouvelle étape dans l’industrialisation de la tromperie en ligne : des fermes de smartphones entièrement automatisées, alimentées par des influenceurs générés par intelligence artificielle, capables de diffuser massivement des publicités déguisées en contenus authentiques. Ce piratage ne dévoile pas seulement une faille de sécurité spectaculaire, il illustre aussi la collision entre marketing automatisé, politiques de modération des plateformes et risques systémiques pour la confiance du public dans les réseaux sociaux.

Selon 404 Media, le hacker, qui demande à rester anonyme par crainte de représailles, dit avoir signalé la vulnérabilité à Doublespeed le 31 octobre, tout en affirmant disposer encore, au moment du reportage, d’un accès au système interne de l’entreprise. Cet accès lui aurait permis de consulter l’ensemble de l’infrastructure : plus de 1 ‘000 smartphones, les ordinateurs qui les pilotent, les comptes TikTok associés, les proxys réseau et leurs mots de passe, ainsi que les tâches programmées sur chaque appareil. Pour prouver la réalité de son contrôle, il aurait activé à distance la caméra d’un téléphone, montrant celui-ci dans un rack aux côtés d’autres terminaux de la ferme.

L'essentiel Cybersécurité, IA & Tech

Rejoignez la communauté. 3 fois par semaine, recevez l'analyse des tendances par Marc Barbezat. Pas de spam, juste de l'info.

Ou suivez le flux temps réel
Telegram Discord

Doublespeed a levé un million de dollars dans le cadre du programme « Speedrun », un accélérateur de douze semaines géré par un important acteur du capital-risque, censé accompagner les jeunes pousses dans les étapes clés de leur croissance. Le modèle de la start-up consiste à utiliser des outils de génération d’images, de textes et de vidéos par intelligence artificielle pour créer en masse des comptes et des contenus destinés à promouvoir des produits pour le compte de clients. Pour contourner les mécanismes de détection d’activités inauthentiques des plateformes, la société ne se contente pas de simples émulateurs logiciels : elle s’appuie sur une « ferme de téléphones », c’est-à-dire des centaines de vrais smartphones physiquement connectés, chacun se comportant comme un utilisateur humain distinct.

Dans l’écosystème des réseaux sociaux, ces fermes de téléphones sont proches des « click farms », ces installations qui utilisent de nombreux appareils pour générer de faux clics, vues ou avis. La différence ici tient au degré d’automatisation et de sophistication : des personnages complets, au visage, à la voix et au discours artificiels, sont animés par des algorithmes pour donner l’illusion de vraies personnalités influentes. Selon les informations consultées, Doublespeed parle de « réchauffer » les comptes, c’est-à-dire les faire vivre avec des contenus apparemment neutres et réguliers, avant de lancer des promotions de produits afin d’éviter les bannissements automatiques.

Une usine à faux influenceurs pour inonder TikTok de publicités déguisées

Les données divulguées montrent plus de 400 comptes TikTok opérés par Doublespeed, dont environ la moitié activement utilisée pour mettre en avant des produits. Une large part de ces contenus ne mentionnait pas qu’il s’agissait de publicités, alors même que les posts affichaient de manière répétée des applications, compléments alimentaires, accessoires de bien-être ou outils numériques. Parmi les exemples recensés figurent des applications d’apprentissage de langues, des services de rencontres, une application biblique, des compléments alimentaires et un appareil de massage.

Plusieurs comptes reposaient sur des personnages féminins générés par intelligence artificielle, déclinés dans des diaporamas d’images statiques ou de courtes séquences vidéo. Un compte thématique santé diffusait près de 200 diaporamas mettant en scène une femme d’âge mûr, elle aussi synthétique, décrivant divers maux physiques et les moyens de les soulager, chaque série se concluant par une image d’une personne utilisant un rouleau de massage d’une marque identifiée. Un autre compte adopte le ton d’une étudiante, enchaînant les diaporamas dénonçant l’industrie pharmaceutique et celle des compléments alimentaires, tout en faisant la promotion régulière d’un produit à base de moringa d’une société se vantant d’être « virale sur TikTok ».

Les images utilisées trahissent souvent leur origine artificielle : flacons dont les étiquettes comportent des textes illisibles, mains approximatives, éléments visuels incohérents. Néanmoins, dans le flux rapide de la plateforme, ces signaux restent difficilement perceptibles pour un utilisateur non averti. La start-up ne se limite pas aux images fixes : au moins un compte a mis en ligne des vidéos générées par intelligence artificielle montrant une jeune femme dansant face caméra, cette fois au service de la promotion d’une agence de contenu TikTok qui rémunère des utilisateurs humains pour parler de produits, soit une activité que ce type de technologie peut précisément concurrencer.

Cette stratégie relève d’une forme d’« astroturfing » numérique, terme qui désigne des campagnes destinées à faire passer une initiative coordonnée pour un mouvement spontané de la base. Ici, l’illusion ne concerne pas seulement l’authenticité de l’opinion exprimée, mais l’existence même des personnes censées la porter. En combinant des personnages entièrement artificiels, des histoires calibrées pour susciter la confiance et une infrastructure matérielle dense pour simuler une activité humaine, Doublespeed se positionne à la frontière des règles de transparence publicitaire et des politiques d’« authenticité » des plateformes.

Plateformes sous pression et risques systémiques pour la confiance en ligne

TikTok rappelle dans ses règles communautaires que les créateurs doivent étiqueter les contenus générés ou fortement modifiés par intelligence artificielle lorsqu’ils représentent des scènes réalistes ou des personnes plausibles. Après avoir été sollicitée sur plusieurs comptes opéré par Doublespeed, la plateforme a ajouté un label indiquant qu’il s’agissait de contenus artificiels. Cette réaction souligne un enjeu clé : les mécanismes d’auto-déclaration, qui reposent sur la bonne foi des créateurs, s’avèrent fragiles face à des acteurs dont le modèle économique repose sur la dissimulation de la nature publicitaire et artificielle des contenus.

Doublespeed a indiqué avoir la capacité d’étendre ses services à d’autres plateformes majeures comme Instagram, Reddit ou X.

Sur le plan de la sécurité pure, le piratage révèle une surface d’attaque inattendue : une ferme de plus de mille smartphones connectés, chacun associé à un compte, à un proxy et à des données de connexion, constitue un butin potentiel considérable. Le hacker assure qu’il aurait pu utiliser ces appareils comme ressources de calcul, les détourner pour mener des campagnes de pourriel ou manipuler directement les comptes, même s’il affirme ne pas l’avoir fait. Le fait qu’un tel accès persiste après signalement illustre des pratiques de sécurité insuffisantes pour une infrastructure de cette envergure.

Au-delà de ce cas particulier, l’affaire agit comme un avertissement pour l’écosystème numérique. La combinaison d’intelligence artificielle générative, de capital-risque et d’infrastructures matérielles dédiées permet de déployer à bas coût des campagnes massives d’influence commerciale ou idéologique, difficiles à distinguer du contenu authentique. Les plateformes se retrouvent contraintes d’accélérer leurs mécanismes de détection et de labellisation, tandis que les utilisateurs, noyés dans un flux de visages et de récits artificiels, voient leur capacité à discerner le vrai du faux encore un peu plus secouée.

Serveurs, API, outils de veille.
DCOD est un projet indépendant sans revenu. L'infra a un coût. Participez aux frais.

☕ Contribuer aux frais
Etiquettes
  • astroturfing
  • campagne d'influence
  • ferme de mobiles
  • TikTok
Marc Barbezat

Fondateur et éditeur de DCOD - Restons en contact !

A lire également
Graphisme conceptuel représentant l'automatisation de l'intelligence artificielle. Une main pointe vers un processeur central "AI AGENTS", illustrant l'utilisation de bots et d'agents IA dans les processus numériques, de la cybersécurité et de la cybercriminalité.
Lire l'article

Cybercriminalité IA : l’automatisation accélère les fraudes en ligne

Illustration numérique montrant le logo de Google et un cerveau électronique stylisé sur un fond magenta, symbolisant l'intelligence artificielle Gemini pour le média DCOD.
Lire l'article

IA Gemini : des groupes étatiques créent des virus dynamiques

Une voiture autonome grise sans marque identifiable accidentée contre une glissière de sécurité tordue et arrachée sur le bord d'une route mouillée. Au premier plan, un panneau de signalisation blanc pirate affiche l'instruction contradictoire en spanglish « TURN IZQUIERDO » avec une flèche vers la gauche, tandis qu'un panneau STOP réglementaire est visible en arrière-plan, illustrant une erreur de trajectoire causée par une injection de prompt physique.
Lire l'article

Comment pirater une voiture autonome avec une injection de prompt visuel

Des idées de lecture recommandées par DCOD

Page frontale du livre Cybersécurité : tests d’intrusion des systèmes d’informations web

Cybersécurité : tests d’intrusion des systèmes d’informations web: Le guide des vulnérabilités web

Amplifiez vos compétences en cybersécurité avec ce guide exhaustif sur le pentesting et le bug bounty ! Conçu pour les pentesters, les bug hunters, les développeurs, et en fait toute personne curieuse de plonger dans le monde fascinant de la cybersécurité.

📘 Voir sur Amazon
Page frontale du livre Cybersécurité Nouvelle Génération

Cybersécurité Nouvelle Génération: Défendre Contre les Attaques Intelligentes grâce à l'IA

Dans un paysage numérique dominé par des menaces en constante évolution, les stratégies traditionnelles de cybersécurité ne suffisent plus. Cybersecurity Next-Generation est votre guide incontournable pour comprendre et mettre en œuvre l'intelligence artificielle comme arme stratégique dans la lutte contre les cyberattaques intelligentes et adaptatives.

📘 Voir sur Amazon

La cybersécurité pour les Nuls, 2ème édition

Ce livre d'informatique pour les Nuls est destiné à tous ceux qui veulent en savoir plus sur la cybersécurité. A l'heure où protéger ses données personnelles est devenu primordial sur le net, notre ouvrage vous donne les clés pour éviter le hacking et le vol de vos données. Quelque soit votre niveau en informatique, n'hésitez plus et naviguez sur le web en toute sérénité grâce à ce livre pour les Nuls !

📘 Voir sur Amazon

🛒 Les liens ci-dessus sont affiliés : en commandant via ces liens, vous soutenez la veille DCOD sans frais supplémentaires 🙏

💡

Note : Certaines images ou extraits présents dans cet article proviennent de sources externes citées à des fins d’illustration ou de veille.
Ce site est indépendant et à but non lucratif. 👉 En savoir plus sur notre cadre d’utilisation.

DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
  • Marc Barbezat
  • À propos de DCOD / Contact
  • Politique de confidentialité de DCOD
Veille stratégique Cybersécurité, IA & Tech. Produite par Marc Barbezat.

Input your search keywords and press Enter.

DCOD est 100% indépendant
Vos cafés financent l'hébergement et les outils de veille. Merci !
Offrir un café ☕
☕

Un café pour DCOD ?

DCOD est un projet 100% indépendant et en accès libre grâce à votre soutien.
Si cette veille cyber vous est utile, un café aide à couvrir les frais.

☕ Offrir un café