Saurez-vous repérer ce journal télévisé alimenté par l'IA ? Des fake news ultra-réalistes sont là.


Seriez-vous capable de repérer les fausses nouvelles si elles étaient diffusées par des présentateurs crédibles, des graphiques actualisés et un journaliste en direct d'une zone de guerre ? Et si ces informations, aussi réalistes que n'importe quel reportage télévisé, étaient créées par l'intelligence artificielle en quelques secondes ?
Le sentiment d'étrangeté que suscite ce type de contenu n'est pas nouveau. Mais ce qui n'était autrefois que des montages ou des mèmes grossiers s'est aujourd'hui transformé en vidéos à l'esthétique professionnelle, aux récits fluides et au pouvoir de persuasion qui menacent de saper la confiance dans les médias, et même dans ce que nous croyons ou non être réel.
Ces derniers jours, des vidéos créées par l'intelligence artificielle ont commencé à se répandre sur les réseaux sociaux, montrant des journalistes dans diverses situations : couvrant des inondations, des attentats et même des invasions extraterrestres. La plupart ont une approche humoristique ou un clin d'œil final qui montre qu'elles ont été créées d'une manière ou d'une autre, mais la question est : saurons-nous les distinguer lorsque cette bonne foi n'est pas au rendez-vous ?
Google Veo 3, l'outil qui semble être utilisé pour ces vidéosL’émergence de Google Veo 3 dans l’écosystème numérique marque un tournant pour ces vidéos, car il apparaît comme l’outil utilisé par les « générateurs » de ces fake news.
L'une des vidéos les plus marquantes montre une prétendue journaliste, Angela Carter, couvrant une inondation dans un quartier résidentiel. La scène est réaliste, avec l'atmosphère typique d'une information urgente. Pourtant, au bout de quelques secondes, la silhouette générée par l'IA sourit et déclare : « Je plaisantais, je n'existe pas », juste au moment où un requin fictif nage derrière elle. Le retournement de situation est à la fois comique et dérangeant : si l'on peut faire cela par humour, que pourrait-on faire avec une intention malveillante ?
Un autre extrait recrée une prétendue guerre entre le Canada et les États-Unis , avec des journalistes à la frontière, des données logistiques et une présentation visuelle très convaincante. À la fin, un avertissement apparaît : tout a été généré avec Google Veo 3 , l'un des outils de génération audiovisuelle à intelligence artificielle les plus avancés à ce jour.
Qu'est-ce que Google Veo 3 et pourquoi est-il si effrayant ?Lancé comme une évolution du modèle précédent, Google Veo 3 permet de créer des clips vidéo d'une durée maximale de huit secondes, avec un niveau de détail visuel et sonore proche de l'hyperréalisme . Contrairement à d'autres outils, il ne se limite pas à la création d'images statiques ou de vidéos silencieuses. Veo 3 génère des visages, des expressions, des mouvements des lèvres synchronisés avec l'audio, et même des effets sonores.
Autrement dit, vous pouvez créer un journaliste qui s'exprime avec conviction, avec une voix unique, dans un environnement proche d'une émission de télévision en direct. Et le plus surprenant : tout cela peut se produire en quelques minutes.
Si on vous avait montré des informations sur l’IA dans les années 90… Auriez-vous su que c’était faux ?
Et si cela existait depuis bien plus longtemps qu'on nous l'a fait croire et qu'on nous nourrissait petit à petit de vieilles versions de mauvaise qualité pour nous faire croire que nous en connaissons les limites ? pic.twitter.com/L2p66JpXGs
Conscient des risques, Google gère un site web axé sur l'utilisation responsable de l'IA. Son objectif est de contribuer à « créer et identifier de manière responsable du contenu généré par l'IA ». Mais l'intention de l'entreprise est une chose, et l'utilisation qu'en font des milliers d'utilisateurs sur les réseaux sociaux ou lorsque cette technologie s'étend à d'autres usages non contrôlés par l'entreprise en est une autre.
La désinformation à l'ère de la surexpositionLa circulation de fausses vidéos n'est pas nouvelle, mais leur sophistication a atteint des sommets dangereux. Et cela ne touche pas seulement les spectateurs peu méfiants. La journaliste Nina Schick , experte en deepfakes et en désinformation, a averti en 2023 que la prochaine grande menace serait « la démocratisation du mensonge visuel ». Elle ne parlait pas seulement d'élections ou de guerres, mais de la vie quotidienne : relations personnelles, réputation, chantage, manipulation émotionnelle.
Dans ce contexte, une scène inventée de catastrophe naturelle peut devenir virale et semer la panique. Une fausse information sur un conflit géopolitique peut perturber les marchés. Et une campagne de diffamation peut ruiner une carrière en un clic.
Des organisations internationales comme Reporters sans frontières ont exprimé leur inquiétude face à ce phénomène. Dans ce nouveau contexte, le seul outil efficace n'est pas technologique, mais éducatif. L'éducation aux médias doit devenir une priorité mondiale, selon les experts. Savoir analyser les sources, comparer les faits et comprendre la production de l'information sera aussi essentiel qu'apprendre à lire ou à écrire.
eleconomista