Рафа Надаль предупреждает, что искусственный интеллект используется, чтобы выдавать себя за него: «Пожалуйста, будьте осторожны».

Искусственный интеллект может существенно помочь обществу, но он также обладает огромным потенциалом, если его использовать во зло. Рафа Надаль сообщил общественности в социальных сетях о раскрытии вредоносной кампании с использованием созданных ИИ видеороликов, которые выдают себя за него и пытаются обмануть пользователей, предлагая им якобы инвестиционные советы . «Это ложная реклама. Пожалуйста, будьте осторожны: я не создавал подобные сообщения и не одобряю их», — заявил спортсмен.
Случай с Надалем — не первый в своём роде. Прошлым летом на таких сайтах, как Instagram и YouTube, были обнаружены похожие видеоролики, в которых преступники выдавали себя за самых разных известных личностей, от Флорентино Переса до Иоланды Диас, Педро Санчеса и Аны Ботин . Некоторые из них использовали его образ для продвижения мошеннической инвестиционной платформы и обещали прибыль в размере от 20 000 до 30 000 евро за первоначальные инвестиции около 250 евро.
«Это не новость; мы видели много кампаний, подобных той, о которой сообщает Рафа Надаль. Раньше для мошенничества использовался только образ знаменитости, но теперь, с развитием искусственного интеллекта, они создают видеоролики напрямую», — рассказал ABC Хосеп Алборс, руководитель отдела исследований и повышения осведомленности в компании ESET, занимающейся кибербезопасностью.
Всем привет! Делюсь этим тревожным сообщением, что необычно для моих аккаунтов в социальных сетях, но необходимо. Мы с командой обнаружили, что на некоторых платформах распространяются фейковые видеоролики, созданные искусственным интеллектом, в которых появляется фигура, имитирующая мой образ и голос. В…
– Рафа Надаль (@RafaelNadal) 23 сентября 2025 г.
Действительно, до недавнего времени преступники просто использовали поддельные фотографии знаменитостей для продвижения мошеннических услуг. Теперь, с развитием технологий, они используют настоящие записи людей, за которых выдают себя, а затем манипулируют их речью , клонируя их голоса с помощью искусственного интеллекта, чтобы создать практически идентичный тон и звучать гораздо убедительнее.
«К сожалению, всё указывает на то, что подобные мошенничества будут процветать. Многие жертвы попадаются на эту уловку, а инструменты ИИ становятся всё проще в использовании. К тому же, речь идёт об очень простых в реализации кампаниях. Любой идиот с телефоном справится с этим», — заключает Элборс.
Эксперты по кибербезопасности рекомендуют не доверять всем видеороликам о якобы уникальных инвестиционных возможностях, появляющимся в социальных сетях. Также стоит задуматься, имеет ли смысл продвигать подобные услуги кому-то вроде Рафы Надаля.
ABC.es