DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
Navigation
  • Accueil
  • Cyber-attaques / fraudes
  • Intelligence artificielle
  • Failles / vulnérabilités
  • Pertes / vols de données
  • Cybercrime
  • Législation
Les derniers articles
  • Image d'illustration sur l'urgence cyber : Gros plan en tons chauds sur un cadran d'horloge. Au centre, une note adhésive porte l'inscription manuscrite "NEVER TOO LATE", soulignant la nécessité pour le NIST de trier les vulnérabilités pour éviter le chaos. Le logo DCOD.ch est visible dans le coin inférieur droit.
    NIST : comment l’organisme trie les failles pour éviter le chaos
  • Photographie d'illustration pour la veille cyberattaque : une silhouette portant un sweat à capuche noir est assise de dos devant plusieurs écrans d'ordinateur affichant du code vert complexe et des données. L'environnement est une salle serveur sombre, éclairée par les lueurs bleues des écrans et des lumières oranges en arrière-plan, évoquant un hacker ou un analyste en action.
    Cyberattaques : les 9 incidents majeurs du 28 avril 2026
  • Image d'ambiance sombre montrant un attaquant manipulant du code informatique sur plusieurs moniteurs, symbolisant l'émergence du Vibeware et l'assistance de l'IA pour les cybercriminels.
    Vibeware : comment l’IA démultiplie la force des cybercriminels
  • Un expert en cybersécurité devant un écran affichant une alerte ransomware, illustrant l'affaire BlackCat où trois négociateurs cyber plaident coupable d'extorsion.
    BlackCat : trois négociateurs cyber plaident coupable d’extorsion
  • Illustration 3D pour la veille sur les vulnérabilités : un cadenas métallique ouvert est posé sur un circuit imprimé complexe. De vifs flux lumineux oranges et des triangles d'alerte rouges clignotants émanent du cadenas, symbolisant des failles de sécurité actives et des brèches dans un système informatique.
    Vulnérabilités : les 9 alertes critiques du 27 avril 2026
Suivez en direct
DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
Cybersécurité • IA • Tech

Capter l'info, retenir l'essentiel. Pour les pros et passionnés.

DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
  • Cyberattaques
  • Vulnérabilités
  • Vols de données
  • Cybercrime
  • IA & Tech
  • Intelligence artificielle

TikTok : une ferme de 1 000 mobiles révèle l’ombre des faux influenceurs

  • Marc Barbezat
  • 31 décembre 2025
  • 5 minutes de lecture
Photographie d'illustration au format paysage 16/9 montrant l'intérieur d'un vaste entrepôt sombre. Des centaines de smartphones sont alignés sur des racks métalliques, leurs écrans allumés affichant des applications de réseaux sociaux comme Facebook, TikTok et Twitter. Au premier plan et en arrière-plan, des personnes sont assises devant des postes de travail équipés d'ordinateurs, surveillant et contrôlant l'activité des téléphones. L'ambiance est industrielle et technologique, illustrant une opération d'influence numérique à grande échelle.

Une fuite dévoile une start-up dopée au capital-risque, pilotant plus d’un millier de mobiles et des centaines de comptes TikTok générés par intelligence artificielle.

TL;DR : L’essentiel

  • Un hacker affirme avoir pris le contrôle à distance de plus de 1 000 smartphones d’une jeune pousse spécialisée dans les influenceurs artificiels, révélant l’ampleur industrielle de sa « ferme de téléphones » dédiée à TikTok.
  • Selon le pirate, l’accès non autorisé permettait de voir en temps réel les téléphones utilisés, les ordinateurs qui les contrôlaient, les comptes associés, les proxys et leurs mots de passe ainsi que les tâches publicitaires en attente.
  • La fuite a exposé une liste de plus de 400 comptes TikTok générés par intelligence artificielle, dont environ 200 activement utilisés pour promouvoir des produits, le plus souvent sans mention explicite qu’il s’agissait de contenus sponsorisés.
  • TikTok rappelle que ses règles imposent de signaler clairement les contenus réalistes générés par intelligence artificielle ; après avoir été alertée de cas précis, la plateforme a ajouté un label d’identification sur plusieurs comptes concernés.
▾ Sommaire
TL;DR : L’essentielUne usine à faux influenceurs pour inonder TikTok de publicités déguiséesPlateformes sous pression et risques systémiques pour la confiance en ligne

La compromission de Doublespeed, une start-up financée par un important fonds de capital-risque, met en lumière une nouvelle étape dans l’industrialisation de la tromperie en ligne : des fermes de smartphones entièrement automatisées, alimentées par des influenceurs générés par intelligence artificielle, capables de diffuser massivement des publicités déguisées en contenus authentiques. Ce piratage ne dévoile pas seulement une faille de sécurité spectaculaire, il illustre aussi la collision entre marketing automatisé, politiques de modération des plateformes et risques systémiques pour la confiance du public dans les réseaux sociaux.

Selon 404 Media, le hacker, qui demande à rester anonyme par crainte de représailles, dit avoir signalé la vulnérabilité à Doublespeed le 31 octobre, tout en affirmant disposer encore, au moment du reportage, d’un accès au système interne de l’entreprise. Cet accès lui aurait permis de consulter l’ensemble de l’infrastructure : plus de 1 ‘000 smartphones, les ordinateurs qui les pilotent, les comptes TikTok associés, les proxys réseau et leurs mots de passe, ainsi que les tâches programmées sur chaque appareil. Pour prouver la réalité de son contrôle, il aurait activé à distance la caméra d’un téléphone, montrant celui-ci dans un rack aux côtés d’autres terminaux de la ferme.

L'essentiel Cybersécurité, IA & Tech

Rejoignez la communauté. 3 fois par semaine, recevez l'analyse des tendances par Marc Barbezat. Pas de spam, juste de l'info.

Ou suivez le flux temps réel
Telegram Discord

Doublespeed a levé un million de dollars dans le cadre du programme « Speedrun », un accélérateur de douze semaines géré par un important acteur du capital-risque, censé accompagner les jeunes pousses dans les étapes clés de leur croissance. Le modèle de la start-up consiste à utiliser des outils de génération d’images, de textes et de vidéos par intelligence artificielle pour créer en masse des comptes et des contenus destinés à promouvoir des produits pour le compte de clients. Pour contourner les mécanismes de détection d’activités inauthentiques des plateformes, la société ne se contente pas de simples émulateurs logiciels : elle s’appuie sur une « ferme de téléphones », c’est-à-dire des centaines de vrais smartphones physiquement connectés, chacun se comportant comme un utilisateur humain distinct.

Dans l’écosystème des réseaux sociaux, ces fermes de téléphones sont proches des « click farms », ces installations qui utilisent de nombreux appareils pour générer de faux clics, vues ou avis. La différence ici tient au degré d’automatisation et de sophistication : des personnages complets, au visage, à la voix et au discours artificiels, sont animés par des algorithmes pour donner l’illusion de vraies personnalités influentes. Selon les informations consultées, Doublespeed parle de « réchauffer » les comptes, c’est-à-dire les faire vivre avec des contenus apparemment neutres et réguliers, avant de lancer des promotions de produits afin d’éviter les bannissements automatiques.

Une usine à faux influenceurs pour inonder TikTok de publicités déguisées

Les données divulguées montrent plus de 400 comptes TikTok opérés par Doublespeed, dont environ la moitié activement utilisée pour mettre en avant des produits. Une large part de ces contenus ne mentionnait pas qu’il s’agissait de publicités, alors même que les posts affichaient de manière répétée des applications, compléments alimentaires, accessoires de bien-être ou outils numériques. Parmi les exemples recensés figurent des applications d’apprentissage de langues, des services de rencontres, une application biblique, des compléments alimentaires et un appareil de massage.

Plusieurs comptes reposaient sur des personnages féminins générés par intelligence artificielle, déclinés dans des diaporamas d’images statiques ou de courtes séquences vidéo. Un compte thématique santé diffusait près de 200 diaporamas mettant en scène une femme d’âge mûr, elle aussi synthétique, décrivant divers maux physiques et les moyens de les soulager, chaque série se concluant par une image d’une personne utilisant un rouleau de massage d’une marque identifiée. Un autre compte adopte le ton d’une étudiante, enchaînant les diaporamas dénonçant l’industrie pharmaceutique et celle des compléments alimentaires, tout en faisant la promotion régulière d’un produit à base de moringa d’une société se vantant d’être « virale sur TikTok ».

Les images utilisées trahissent souvent leur origine artificielle : flacons dont les étiquettes comportent des textes illisibles, mains approximatives, éléments visuels incohérents. Néanmoins, dans le flux rapide de la plateforme, ces signaux restent difficilement perceptibles pour un utilisateur non averti. La start-up ne se limite pas aux images fixes : au moins un compte a mis en ligne des vidéos générées par intelligence artificielle montrant une jeune femme dansant face caméra, cette fois au service de la promotion d’une agence de contenu TikTok qui rémunère des utilisateurs humains pour parler de produits, soit une activité que ce type de technologie peut précisément concurrencer.

Cette stratégie relève d’une forme d’« astroturfing » numérique, terme qui désigne des campagnes destinées à faire passer une initiative coordonnée pour un mouvement spontané de la base. Ici, l’illusion ne concerne pas seulement l’authenticité de l’opinion exprimée, mais l’existence même des personnes censées la porter. En combinant des personnages entièrement artificiels, des histoires calibrées pour susciter la confiance et une infrastructure matérielle dense pour simuler une activité humaine, Doublespeed se positionne à la frontière des règles de transparence publicitaire et des politiques d’« authenticité » des plateformes.

Plateformes sous pression et risques systémiques pour la confiance en ligne

TikTok rappelle dans ses règles communautaires que les créateurs doivent étiqueter les contenus générés ou fortement modifiés par intelligence artificielle lorsqu’ils représentent des scènes réalistes ou des personnes plausibles. Après avoir été sollicitée sur plusieurs comptes opéré par Doublespeed, la plateforme a ajouté un label indiquant qu’il s’agissait de contenus artificiels. Cette réaction souligne un enjeu clé : les mécanismes d’auto-déclaration, qui reposent sur la bonne foi des créateurs, s’avèrent fragiles face à des acteurs dont le modèle économique repose sur la dissimulation de la nature publicitaire et artificielle des contenus.

Doublespeed a indiqué avoir la capacité d’étendre ses services à d’autres plateformes majeures comme Instagram, Reddit ou X.

Sur le plan de la sécurité pure, le piratage révèle une surface d’attaque inattendue : une ferme de plus de mille smartphones connectés, chacun associé à un compte, à un proxy et à des données de connexion, constitue un butin potentiel considérable. Le hacker assure qu’il aurait pu utiliser ces appareils comme ressources de calcul, les détourner pour mener des campagnes de pourriel ou manipuler directement les comptes, même s’il affirme ne pas l’avoir fait. Le fait qu’un tel accès persiste après signalement illustre des pratiques de sécurité insuffisantes pour une infrastructure de cette envergure.

Au-delà de ce cas particulier, l’affaire agit comme un avertissement pour l’écosystème numérique. La combinaison d’intelligence artificielle générative, de capital-risque et d’infrastructures matérielles dédiées permet de déployer à bas coût des campagnes massives d’influence commerciale ou idéologique, difficiles à distinguer du contenu authentique. Les plateformes se retrouvent contraintes d’accélérer leurs mécanismes de détection et de labellisation, tandis que les utilisateurs, noyés dans un flux de visages et de récits artificiels, voient leur capacité à discerner le vrai du faux encore un peu plus secouée.

Serveurs, API, temps de veille...
DCOD est indépendant et sans revenus. Soutenez le site pour l'aider à couvrir ses frais techniques.

☕ Contribuer aux frais
Etiquettes
  • astroturfing
  • campagne d'influence
  • ferme de mobiles
  • TikTok
Marc Barbezat

Fondateur et éditeur de DCOD - Restons en contact !

A lire également
Photographe tenant un appareil photo numérique illustrant la technologie de l'ETH Zurich : une puce anti-deepfakes qui authentifie les médias et sécurise les captures d'images.
Lire l'article

ETH Zurich : une puce anti-deepfakes authentifie les médias

Logo de Claude Mythos d'Anthropic et du Project Glasswing avec une illustration graphique de structure cellulaire complexe.
Lire l'article

Claude Mythos identifié comme trop risqué pour un accès public

Quartier résidentiel inondé en Asie avec le logo OpenAI, illustrant comment l'entreprise déploie l'IA pour optimiser la gestion des catastrophes naturelles.
Lire l'article

OpenAI déploie une IA pour la gestion des catastrophes en Asie

Des idées de lecture recommandées par DCOD

La cybersécurité pour les Nuls, 2ème édition

Ce livre d'informatique pour les Nuls est destiné à tous ceux qui veulent en savoir plus sur la cybersécurité. A l'heure où protéger ses données personnelles est devenu primordial sur le net, notre ouvrage vous donne les clés pour éviter le hacking et le vol de vos données. Quelque soit votre niveau en informatique, n'hésitez plus et naviguez sur le web en toute sérénité grâce à ce livre pour les Nuls !

📘 Voir sur Amazon
Page frontale du livre Les Secrets du Darknet

Les Secrets du Darknet

Écrit par DarkExplorer, un ancien hacker repenti, ce guide complet vous offre une plongée fascinante dans les coulisses du Darknet, ainsi que les outils et les techniques nécessaires pour naviguer en toute sécurité dans cet univers souvent dangereux et mystérieux.

📘 Voir sur Amazon

Le pirate informatique et l'État : cyberattaques et nouvelle normalité géopolitique (édition anglaise)

Riche en informations exclusives issues d'entretiens avec des acteurs clés de la défense et de la cybersécurité, de documents déclassifiés et d'analyses approfondies de rapports d'entreprises, « The Hacker and the State » explore la véritable compétition géopolitique de l'ère numérique et révèle des détails méconnus sur la manière dont la Chine, la Russie, la Corée du Nord, le Royaume-Uni et les États-Unis se piratent mutuellement dans une lutte acharnée pour la domination.

📘 Voir sur Amazon

🛒 Les liens ci-dessus sont affiliés : en commandant via ces liens, vous soutenez la veille DCOD sans frais supplémentaires 🙏

💡

Note : Certaines images ou extraits présents dans cet article peuvent provenir de sources externes citées à des fins d’illustration ou de veille.
Ce site est indépendant et à but non lucratif. 👉 En savoir plus sur le cadre d’utilisation.

DCOD | Cybersécurité • IA • Tech DCOD | Cybersécurité • IA • Tech
  • Marc Barbezat
  • À propos de DCOD / Contact
  • Politique de confidentialité
Veille stratégique Cybersécurité, IA & Tech. Produite par Marc Barbezat.

Input your search keywords and press Enter.

DCOD est 100% indépendant
Vos cafés financent l'hébergement et les outils de veille. Merci !
Offrir un café ☕
☕

Un café pour DCOD ?

DCOD est un site 100% indépendant, maintenu en accès libre grâce à ses lecteurs.
Si cette veille cyber vous est utile, un simple café aide à couvrir les frais techniques.

☕ Offrir un café