Une fuite dévoile une start-up dopée au capital-risque, pilotant plus d’un millier de mobiles et des centaines de comptes TikTok générés par intelligence artificielle.
TL;DR : L’essentiel
- Un hacker affirme avoir pris le contrôle à distance de plus de 1 000 smartphones d’une jeune pousse spécialisée dans les influenceurs artificiels, révélant l’ampleur industrielle de sa « ferme de téléphones » dédiée à TikTok.
- Selon le pirate, l’accès non autorisé permettait de voir en temps réel les téléphones utilisés, les ordinateurs qui les contrôlaient, les comptes associés, les proxys et leurs mots de passe ainsi que les tâches publicitaires en attente.
- La fuite a exposé une liste de plus de 400 comptes TikTok générés par intelligence artificielle, dont environ 200 activement utilisés pour promouvoir des produits, le plus souvent sans mention explicite qu’il s’agissait de contenus sponsorisés.
- TikTok rappelle que ses règles imposent de signaler clairement les contenus réalistes générés par intelligence artificielle ; après avoir été alertée de cas précis, la plateforme a ajouté un label d’identification sur plusieurs comptes concernés.
La compromission de Doublespeed, une start-up financée par un important fonds de capital-risque, met en lumière une nouvelle étape dans l’industrialisation de la tromperie en ligne : des fermes de smartphones entièrement automatisées, alimentées par des influenceurs générés par intelligence artificielle, capables de diffuser massivement des publicités déguisées en contenus authentiques. Ce piratage ne dévoile pas seulement une faille de sécurité spectaculaire, il illustre aussi la collision entre marketing automatisé, politiques de modération des plateformes et risques systémiques pour la confiance du public dans les réseaux sociaux.
Selon 404 Media, le hacker, qui demande à rester anonyme par crainte de représailles, dit avoir signalé la vulnérabilité à Doublespeed le 31 octobre, tout en affirmant disposer encore, au moment du reportage, d’un accès au système interne de l’entreprise. Cet accès lui aurait permis de consulter l’ensemble de l’infrastructure : plus de 1 ‘000 smartphones, les ordinateurs qui les pilotent, les comptes TikTok associés, les proxys réseau et leurs mots de passe, ainsi que les tâches programmées sur chaque appareil. Pour prouver la réalité de son contrôle, il aurait activé à distance la caméra d’un téléphone, montrant celui-ci dans un rack aux côtés d’autres terminaux de la ferme.
Doublespeed a levé un million de dollars dans le cadre du programme « Speedrun », un accélérateur de douze semaines géré par un important acteur du capital-risque, censé accompagner les jeunes pousses dans les étapes clés de leur croissance. Le modèle de la start-up consiste à utiliser des outils de génération d’images, de textes et de vidéos par intelligence artificielle pour créer en masse des comptes et des contenus destinés à promouvoir des produits pour le compte de clients. Pour contourner les mécanismes de détection d’activités inauthentiques des plateformes, la société ne se contente pas de simples émulateurs logiciels : elle s’appuie sur une « ferme de téléphones », c’est-à-dire des centaines de vrais smartphones physiquement connectés, chacun se comportant comme un utilisateur humain distinct.
L'essentiel Cybersécurité, IA & Tech
Rejoignez la communauté. 3 fois par semaine, recevez l'analyse des tendances par Marc Barbezat. Pas de spam, juste de l'info.
Dans l’écosystème des réseaux sociaux, ces fermes de téléphones sont proches des « click farms », ces installations qui utilisent de nombreux appareils pour générer de faux clics, vues ou avis. La différence ici tient au degré d’automatisation et de sophistication : des personnages complets, au visage, à la voix et au discours artificiels, sont animés par des algorithmes pour donner l’illusion de vraies personnalités influentes. Selon les informations consultées, Doublespeed parle de « réchauffer » les comptes, c’est-à-dire les faire vivre avec des contenus apparemment neutres et réguliers, avant de lancer des promotions de produits afin d’éviter les bannissements automatiques.
Une usine à faux influenceurs pour inonder TikTok de publicités déguisées
Les données divulguées montrent plus de 400 comptes TikTok opérés par Doublespeed, dont environ la moitié activement utilisée pour mettre en avant des produits. Une large part de ces contenus ne mentionnait pas qu’il s’agissait de publicités, alors même que les posts affichaient de manière répétée des applications, compléments alimentaires, accessoires de bien-être ou outils numériques. Parmi les exemples recensés figurent des applications d’apprentissage de langues, des services de rencontres, une application biblique, des compléments alimentaires et un appareil de massage.
Plusieurs comptes reposaient sur des personnages féminins générés par intelligence artificielle, déclinés dans des diaporamas d’images statiques ou de courtes séquences vidéo. Un compte thématique santé diffusait près de 200 diaporamas mettant en scène une femme d’âge mûr, elle aussi synthétique, décrivant divers maux physiques et les moyens de les soulager, chaque série se concluant par une image d’une personne utilisant un rouleau de massage d’une marque identifiée. Un autre compte adopte le ton d’une étudiante, enchaînant les diaporamas dénonçant l’industrie pharmaceutique et celle des compléments alimentaires, tout en faisant la promotion régulière d’un produit à base de moringa d’une société se vantant d’être « virale sur TikTok ».
Les images utilisées trahissent souvent leur origine artificielle : flacons dont les étiquettes comportent des textes illisibles, mains approximatives, éléments visuels incohérents. Néanmoins, dans le flux rapide de la plateforme, ces signaux restent difficilement perceptibles pour un utilisateur non averti. La start-up ne se limite pas aux images fixes : au moins un compte a mis en ligne des vidéos générées par intelligence artificielle montrant une jeune femme dansant face caméra, cette fois au service de la promotion d’une agence de contenu TikTok qui rémunère des utilisateurs humains pour parler de produits, soit une activité que ce type de technologie peut précisément concurrencer.
Proton Pass
Gérez vos mots de passe et identités en toute simplicité. Chiffrement de bout en bout pour une sécurité maximale de vos accès.
Cette stratégie relève d’une forme d’« astroturfing » numérique, terme qui désigne des campagnes destinées à faire passer une initiative coordonnée pour un mouvement spontané de la base. Ici, l’illusion ne concerne pas seulement l’authenticité de l’opinion exprimée, mais l’existence même des personnes censées la porter. En combinant des personnages entièrement artificiels, des histoires calibrées pour susciter la confiance et une infrastructure matérielle dense pour simuler une activité humaine, Doublespeed se positionne à la frontière des règles de transparence publicitaire et des politiques d’« authenticité » des plateformes.
Plateformes sous pression et risques systémiques pour la confiance en ligne
TikTok rappelle dans ses règles communautaires que les créateurs doivent étiqueter les contenus générés ou fortement modifiés par intelligence artificielle lorsqu’ils représentent des scènes réalistes ou des personnes plausibles. Après avoir été sollicitée sur plusieurs comptes opéré par Doublespeed, la plateforme a ajouté un label indiquant qu’il s’agissait de contenus artificiels. Cette réaction souligne un enjeu clé : les mécanismes d’auto-déclaration, qui reposent sur la bonne foi des créateurs, s’avèrent fragiles face à des acteurs dont le modèle économique repose sur la dissimulation de la nature publicitaire et artificielle des contenus.
Doublespeed a indiqué avoir la capacité d’étendre ses services à d’autres plateformes majeures comme Instagram, Reddit ou X.
Sur le plan de la sécurité pure, le piratage révèle une surface d’attaque inattendue : une ferme de plus de mille smartphones connectés, chacun associé à un compte, à un proxy et à des données de connexion, constitue un butin potentiel considérable. Le hacker assure qu’il aurait pu utiliser ces appareils comme ressources de calcul, les détourner pour mener des campagnes de pourriel ou manipuler directement les comptes, même s’il affirme ne pas l’avoir fait. Le fait qu’un tel accès persiste après signalement illustre des pratiques de sécurité insuffisantes pour une infrastructure de cette envergure.
Au-delà de ce cas particulier, l’affaire agit comme un avertissement pour l’écosystème numérique. La combinaison d’intelligence artificielle générative, de capital-risque et d’infrastructures matérielles dédiées permet de déployer à bas coût des campagnes massives d’influence commerciale ou idéologique, difficiles à distinguer du contenu authentique. Les plateformes se retrouvent contraintes d’accélérer leurs mécanismes de détection et de labellisation, tandis que les utilisateurs, noyés dans un flux de visages et de récits artificiels, voient leur capacité à discerner le vrai du faux encore un peu plus secouée.
Cette veille vous est utile ?
Offrez un café pour soutenir le serveur (et le rédacteur).