Une nouvelle génération d’influenceurs… mais artificiels
TikTok est devenu l’une des plateformes les plus puissantes au monde pour propager des tendances liées au bien-être, à la santé et à la beauté. De la routine skincare du matin aux astuces minceur “révolutionnaires”, le contenu est omniprésent et largement consommé, notamment par les jeunes. Mais depuis quelques mois, une mutation s’opère : certains de ces influenceurs ne sont pas humains.
Grâce aux progrès fulgurants de l’intelligence artificielle générative, il est désormais possible de créer des avatars hyperréalistes capables de parler, d’exprimer des émotions et de se comporter comme de véritables créateurs de contenu. Certains escrocs ont flairé l’opportunité : ils utilisent ces deepfakes pour propager de faux témoignages et promouvoir des produits “miracles” sans aucune valeur scientifique.
Comment fonctionnent ces arnaques ?
Une enquête publiée par Media Matters a révélé que plusieurs comptes TikTok utilisaient des personnages générés par IA pour vendre des produits de bien-être.
Leur méthode repose sur plusieurs leviers psychologiques :
- Créer la confiance par l’apparence : les avatars ressemblent à de jeunes mannequins ou à des experts médicaux crédibles. Leur visage, leur ton et leur gestuelle imitent ceux de vrais influenceurs.
- Raconter des histoires “émotionnelles” : beaucoup de vidéos reprennent le format populaire du storytime où l’avatar raconte une expérience personnelle — perte de cheveux, problèmes hormonaux, lutte contre la fatigue — avant de présenter le “produit miracle” censé avoir changé sa vie.
- Multiplier les preuves fictives : images avant/après retouchées, pseudo-avis d’utilisateurs, mise en avant de termes pseudo-scientifiques (“détox”, “régénération cellulaire”, etc.).
- Rediriger vers l’achat : la plupart de ces contenus visent à pousser les utilisateurs à acheter des huiles, des thés ou des compléments alimentaires via des liens externes, souvent d’affiliation.
Des exemples concrets de produits promus par IA
Le rapport de Media Matters cite plusieurs cas précis :
- L’huile de batana, présentée comme un remède naturel capable de stimuler la pousse des cheveux. Aucune étude scientifique sérieuse ne confirme cette propriété.
- Des compléments alimentaires prétendument capables d’aider à traiter le syndrome des ovaires polykystiques (PCOS), une pathologie qui touche de nombreuses femmes. Ces allégations sont non seulement fausses mais aussi potentiellement dangereuses, car elles peuvent retarder la prise en charge médicale réelle.
- Thés et jus “detox”, censés purifier l’organisme ou aider à la perte de poids rapide. La plupart se révèlent être de simples diurétiques ou laxatifs, sans effet durable sur la santé.
Ces exemples ne sont pas isolés. Ils illustrent une tendance croissante : l’utilisation de l’IA pour rendre des escroqueries plus crédibles, en capitalisant sur le boom du marché du bien-être, estimé à plusieurs milliers de milliards de dollars dans le monde.
Les dangers derrière ces vidéos
Ces pratiques vont bien au-delà de la simple publicité mensongère. Elles soulèvent plusieurs enjeux majeurs :
- Un risque financier : des milliers d’utilisateurs peuvent dépenser de l’argent dans des produits inefficaces, voire dangereux.
- Un risque pour la santé : en promettant des effets thérapeutiques, certains contenus peuvent détourner les personnes de soins médicaux adaptés.
- Une manipulation émotionnelle : les deepfakes exploitent la vulnérabilité des individus en quête de solutions rapides à leurs problèmes de santé ou d’apparence.
- Un risque sociétal : plus ces pratiques se multiplient, plus elles brouillent la frontière entre contenu fiable et désinformation, fragilisant la confiance dans les plateformes et dans la parole en ligne.
Comment reconnaître et éviter ces arnaques ?
Face à cette nouvelle génération de contenus trompeurs, quelques réflexes simples peuvent aider à se protéger :
- Vérifier la source : un compte crédible doit avoir une identité claire, une présence en dehors de TikTok et, idéalement, une expertise vérifiable.
- Analyser le discours : les promesses trop rapides ou trop spectaculaires (“perte de 5 kg en une semaine”, “cheveux qui repoussent en 10 jours”) sont un signal d’alerte.
- Chercher des preuves scientifiques : avant de croire une affirmation, vérifier si elle est soutenue par des études médicales ou par des institutions reconnues.
- Garder un esprit critique : un témoignage émouvant ne vaut pas une preuve.
Une responsabilité partagée entre plateformes et utilisateurs
Si la vigilance individuelle est essentielle, TikTok et les autres réseaux sociaux portent aussi une responsabilité. La multiplication des deepfakes met en lumière les limites des systèmes de modération actuels, qui peinent à distinguer les contenus générés par IA des contenus authentiques.
Certaines voix plaident pour l’obligation d’un label “IA générée”, qui indiquerait clairement aux utilisateurs quand une vidéo a été produite artificiellement. Mais cette mesure reste difficile à mettre en œuvre et ne résout pas tout : un deepfake marqué comme tel peut toujours être utilisé pour promouvoir des idées fausses.
Conclusion
Les deepfakes appliqués au bien-être et à la beauté représentent un tournant inquiétant dans l’usage de l’intelligence artificielle. Ce qui n’était autrefois qu’une menace théorique devient aujourd’hui une réalité visible, avec des conséquences directes sur la santé, les finances et la confiance des internautes.
À l’ère des contenus générés par IA, il devient indispensable d’adopter une posture de vigilance permanente et de développer des outils pour protéger les utilisateurs. Car si l’intelligence artificielle peut être un formidable moteur d’innovation, elle peut aussi devenir une arme redoutable dans les mains de ceux qui cherchent à exploiter la crédulité humaine.