Le côté obscur de l'intelligence artificielle : comment fonctionne l'industrie mondiale des faux nus, qui pèse plusieurs millions de dollars

Une épidémie d' applications commerciales utilisant l'intelligence artificielle (IA) pour générer des images de nus non consensuels se propage sur Internet, sous les yeux de tous. Bien que certains gouvernements fassent pression pour que des mesures légales soient prises pour les en empêcher, des millions de personnes continuent d'utiliser ces services, et leurs promoteurs engrangent des millions de profits .
Le contenu explicite généré par ces plateformes deepfake , légalement qualifié d’abus d’images intimes non consensuels (NIIA), est devenu une forme croissante et sophistiquée de violence numérique .
Ce phénomène, considéré comme un dommage collatéral des avancées de l’IA générative, a donné naissance à un écosystème sombre composé de sites web de « nudification » , d’algorithmes et de robots conçus pour produire des images artificielles sans le consentement des victimes.
Ces prises de vue explicites, autrefois réservées aux personnes disposant de connaissances techniques avancées, sont désormais accessibles à tous grâce à des plateformes qui automatisent ces processus. En quelques clics, elles modifient les vêtements, la silhouette ou la pose, générant du contenu sexuel avec une facilité déconcertante.
Les applications sont capables d’effacer les vêtements de n’importe quelle photo.
Depuis le début de l'année, la publicité pour les plateformes proposant des photos de nus générées par l'IA a augmenté de 2 400 % , selon une étude de l' Université de Floride . Ces campagnes sont généralement diffusées sur les principaux réseaux sociaux, où ces sites font la promotion de leurs services dans le but d'attirer de nouveaux clients.
« Ces images représentent un paradigme radicalement différent de celles créées avec Photoshop. L'IA générative rend leur création plus facile, plus rapide et plus réaliste », explique Kevin Butler, docteur au département d'informatique de l'Université de Floride.
Et il ajoute : « Les images de synthèse peuvent potentiellement causer du tort. Cela constitue une forme d'abus sexuel contre le sujet qui, par définition, est représenté sans son consentement. »
Ces attaques ont commencé par la diffusion de fausses photos de stars de la pop comme Taylor Swift ou Billie Eilish , se sont propagées à des personnalités publiques comme la Première ministre italienne, Giorgia Meloni , et ont finalement ciblé n'importe quel individu, sans distinction de sexe ou d'âge.
Une enquête menée par Save the Children , publiée il y a une semaine, a révélé qu'un jeune sur cinq a déclaré que quelqu'un avait partagé des images générées par l'IA de lui nu alors qu'il était mineur et sans son consentement.
« Ces chiffres ne représentent que la partie émergée de l'iceberg, car la plupart des cas ne sont pas signalés , en partie à cause du manque de signalement et des difficultés à les détecter, qui sont exacerbées lorsque ces incidents se produisent en ligne », prévient Catalina Perazzo, directrice du plaidoyer social et politique chez Save the Children.
L’ anonymat, la viralité et la facilité technique avec laquelle ces images sont générées – comme le souligne Wired – contribuent à leur propagation rapide, laissant de profondes cicatrices émotionnelles et révélant des failles juridiques non résolues.
Ces marchés de la pornographie, qui fonctionnent en toute légitimité, hébergent leurs données sur des services cloud conventionnels comme Amazon Web Services et Cloudflare, sans que ces fournisseurs soient informés de l'utilisation qui en est faite. « Elles sont hébergées sur des plateformes de confiance », révélant une normalisation technologique inquiétante.
Chez ClothOff, la devise est « déshabiller des photos n'a jamais été aussi simple ».
Une analyse du site de recherche Indicator a révélé l'ampleur alarmante du commerce nudiste : en seulement six mois, ces portails ont enregistré une moyenne mensuelle de 18,5 millions de visiteurs.
Les estimations économiques de ce mastodonte sont tout aussi convaincantes : les bénéfices combinés de sites comme Deepnude, UndressAI.tools et PornWorks AI pourraient dépasser 36 millions de dollars par an.
L'une des applications les plus populaires est ClothOff, qui reçoit plus de 4 millions de visiteurs par mois et propose : « Traitez votre photo de nu en seulement 15 secondes ». L'application est accessible sur mobile en cliquant sur un bouton confirmant que l'utilisateur a plus de 18 ans. Elle coûte environ 6 $ pour 144 crédits.
Le modèle de ce système lucratif repose sur la vente de « crédits » ou d'abonnements permettant aux utilisateurs de générer de fausses images et vidéos de nudité non consentie. Les paiements, acheminés par cryptomonnaie , offrent aux opérateurs un double avantage : anonymat et stabilité financière .
Les services de « nudification » de l'IA sont devenus un business lucratif, soutenu par l'absence de contrôle réel sur l'IA générative, dénonce Alexios Mantzarlis, cofondateur d'Indicator et chercheur en sécurité en ligne. « L'approche laxiste de la Silicon Valley a permis à ce marché de perdurer, même lorsqu'il est devenu évident que son seul usage était le harcèlement sexuel », prévient-il.
Ces documents sont souvent hyperréalistes , maximisant leur capacité à causer du tort et à tromper à la fois les victimes et les spectateurs.
Alors que les premiers nudistes se concentraient presque exclusivement sur les images, les progrès technologiques ont permis la manipulation et la fabrication de vidéos modifiées , portant le phénomène à un nouveau niveau de danger et de portée.
Ce secteur n'est pas sans risques pour ceux qui tentent d'en profiter. Sa popularité a entraîné l'émergence de nombreux sites frauduleux , certains exploités par des pirates informatiques proposant des applications modifiées par des logiciels malveillants pour capturer des données personnelles et financières.
Sans connaissances techniques, vous pouvez manipuler une photo à votre guise.
Supprimer définitivement ce type de contenu est très difficile ; les contenus abusifs continuent de réapparaître, prolongeant le stress émotionnel et la vulnérabilité perçue des victimes. Pour lutter contre ce fléau numérique, les États-Unis et la Grande-Bretagne ont engagé des actions juridiques et réglementaires .
Le président Donald Trump a signé la loi bipartite « Take It Down » , qui criminalise la publication non consensuelle d'images intimes et exige leur retrait des plateformes qui les ont diffusées.
Meta a également annoncé récemment qu'elle intenterait une action en justice contre une société de Hong Kong à l'origine d'une application nudify appelée Crush AI, qui, selon elle, contournait à plusieurs reprises les règles du géant de la technologie concernant la diffusion de publicités sur ses plateformes.
Une enquête récente menée par Thorn, une organisation à but non lucratif qui lutte contre l'exploitation des enfants en ligne, a révélé que 6 % des adolescents américains ont été victimes de fausses photos nues . Ce phénomène, déjà préoccupant en raison de son impact psychologique, devient encore plus grave lorsqu'il se conjugue à des crimes comme la sextorsion .
Le FBI a mis en garde contre une « augmentation horrible » des cas ciblant les mineurs, principalement les garçons âgés de 14 à 17 ans. Selon l'agence, ces menaces ont conduit à un « nombre alarmant de suicides » en raison de la honte d'être exposé.
Une tragédie de ce type s'est produite cette année dans le Kentucky : un adolescent s'est suicidé après avoir reçu des messages d'extorsion lui demandant 3 000 dollars pour garder secrète une fausse image de lui nu, créée grâce à l'intelligence artificielle (IA). Ses parents ont découvert les messages après sa mort.
Clarin