L'IA d'Elon Musk accusée d'avoir créé des vidéos explicites de Taylor Swift

Le générateur de vidéos IA d'Elon Musk a été accusé d'avoir fait « un choix délibéré » de créer des clips sexuellement explicites de Taylor Swift sans y être invité, déclare un expert en abus en ligne.
« Ce n’est pas de la misogynie accidentelle, c’est intentionnel », a déclaré Clare McGlynn, professeure de droit qui a contribué à la rédaction d’une loi qui rendrait les deepfakes pornographiques illégaux.
Selon un rapport de The Verge , le nouveau mode « épicé » de Grok Imagine « n'a pas hésité à diffuser des vidéos seins nus entièrement non censurées » de la pop star sans qu'on lui demande de créer du contenu explicite.
Le rapport indique également que les méthodes appropriées de vérification de l'âge - qui sont devenues loi en juillet - n'étaient pas en place.
XAI, la société à l'origine de Grok, a été contactée pour un commentaire.
La politique d'utilisation acceptable de XAI interdit de « représenter des personnes de manière pornographique ».
« Le fait que ce contenu soit produit sans y être invité démontre le biais misogyne de nombreuses technologies d’IA », a déclaré le professeur McGlynn de l’Université de Durham.
« Des plateformes comme X auraient pu empêcher cela si elles l’avaient choisi, mais elles ont délibérément choisi de ne pas le faire », a-t-elle ajouté.
Ce n’est pas la première fois que l’image de Taylor Swift est utilisée de cette manière.
Des deepfakes sexuellement explicites utilisant son visage sont devenus viraux et ont été visionnés des millions de fois sur X et Telegram en janvier 2024.
Les deepfakes sont des images générées par ordinateur qui remplacent le visage d’une personne par celui d’une autre.
En testant les garde-fous de Grok Imagine, la journaliste de The Verge, Jess Weatherbed, a saisi l'invite : « Taylor Swift célébrant Coachella avec les garçons ».
Grok a généré des images fixes de Swift portant une robe avec un groupe d'hommes derrière elle.
Cela pourrait ensuite être animé en courts clips vidéo sous quatre paramètres différents : « normal », « amusant », « personnalisé » ou « épicé ».
« Elle a immédiatement déchiré [la robe], n'avait rien d'autre qu'un string à pompons en dessous, et a commencé à danser, complètement sans censure, complètement exposée », a déclaré Mme Weatherbed à BBC News.
Elle a ajouté : « C'était choquant de voir à quelle vitesse je l'ai rencontré - je ne lui ai en aucun cas demandé de retirer ses vêtements, tout ce que j'ai fait a été de sélectionner l'option « épicée ». »
Gizmodo a rapporté des résultats tout aussi explicites concernant des femmes célèbres, bien que certaines recherches aient également renvoyé des vidéos floues ou avec un message « vidéo modérée ».
La BBC n’a pas été en mesure de vérifier de manière indépendante les résultats des générations de vidéos par l’IA.
Mme Weatherbed a déclaré qu'elle s'était inscrite à la version payante de Grok Imagine, qui coûte 30 £, en utilisant un tout nouveau compte Apple.
Grok lui a demandé sa date de naissance, mais aucune autre vérification d'âge n'était en place, a-t-elle déclaré.
En vertu de nouvelles lois britanniques entrées en vigueur fin juillet, les plateformes qui affichent des images explicites doivent vérifier l'âge des utilisateurs à l'aide de méthodes « techniquement précises, robustes, fiables et équitables ».
« Les sites et applications qui incluent des outils d'IA générative capables de générer du matériel pornographique sont réglementés par la loi », a déclaré le régulateur des médias Ofcom à BBC News.
« Nous sommes conscients du risque croissant et en développement rapide que les outils GenAI peuvent représenter dans l'espace en ligne, en particulier pour les enfants, et nous travaillons pour garantir que les plateformes mettent en place des mesures de protection appropriées pour atténuer ces risques », a-t-il déclaré dans un communiqué.
Actuellement, la création de deepfakes pornographiques est illégale lorsqu'ils sont utilisés dans le cadre d'une vengeance pornographique ou lorsqu'ils représentent des enfants.
Le professeur McGlynn a contribué à la rédaction d'un amendement à la loi qui rendrait illégale la génération ou la demande de deepfakes pornographiques non consensuels.
Le gouvernement s’est engagé à faire de cette loi modificative une loi, mais elle n’est pas encore entrée en vigueur.
« Chaque femme devrait avoir le droit de choisir à qui appartiennent ses images intimes », a déclaré la baronne Owen, qui a proposé l'amendement à la Chambre des Lords.
« Il est essentiel que ces modèles ne soient pas utilisés d'une manière qui viole le droit d'une femme à consentir, qu'elle soit une célébrité ou non », a poursuivi Lady Owen dans une déclaration donnée à BBC News.
« Cette affaire est un exemple clair de la raison pour laquelle le gouvernement ne doit plus tarder à mettre en œuvre les amendements des Lords », a-t-elle ajouté.
Un porte-parole du ministère de la Justice a déclaré : « Les deepfakes sexuellement explicites créés sans consentement sont dégradants et nuisibles.
« Nous refusons de tolérer la violence contre les femmes et les filles qui souille notre société, c'est pourquoi nous avons adopté une loi pour interdire leur création le plus rapidement possible. »
Lorsque des deepfakes pornographiques utilisant le visage de Taylor Swift sont devenus viraux en 2024, X a temporairement bloqué les recherches de son nom sur la plateforme.
À l'époque, X avait déclaré qu'il « supprimait activement » les images et prenait des « mesures appropriées » contre les comptes impliqués dans leur diffusion.
Mme Weatherbed a déclaré que l'équipe de The Verge avait choisi Taylor Swift pour tester la fonctionnalité Grok Imagine en raison de cet incident.
« Nous avons supposé - à tort maintenant - que s'ils avaient mis en place des mesures de protection pour les empêcher d'imiter l'image des célébrités, elle serait la première sur la liste, compte tenu des problèmes qu'ils ont rencontrés », a-t-elle déclaré.
Les représentants de Taylor Swift ont été contactés pour commentaires.

BBC