«Дипфейк от Собянина»: хакеры клонировали глав регионов ради обмана клиентов банков

Киберпреступники взяли на вооружение технологии искусственного интеллекта (ИИ). Они начали массово использовать образы известных чиновников и бизнесменов, чтобы выманить деньги у россиян. Как это работает, читайте в материале «НИ».
В Сети стремительно распространяется новый вид мошенничества с применением дипфейков — «оживленных» при помощи технологий ИИ образов известных людей.
Уже описаны случаи, когда «перевести деньги на безопасный счет» или инвестировать сбережения в «супервыгодный бизнес» россиян убеждают электронные образы с внешностью и голосом глав российских регионов, известных артистов и преуспевающих предпринимателей.
«За последнюю неделю в социальных сетях появилась новая волна поддельных видео с участием глав российских регионов. Мошенники создали фальшивые Telegram-каналы губернаторов Вологодской, Смоленской, Самарской и других областей, где распространяли дезинформацию», — сообщили в УБК МВД России (киберполициия МВД РФ).
В Минцифры уточнили, что первый дипфейк с мэром Москвы Сергеем Собяниным появился в Сети еще полтора года назад.
Основатель Института финансово-инвестиционных технологий Алексей Примак напоминает, что раньше мошенники для достижения своих неблаговидных целей «всего лишь» отправляли текстовое сообщение или электронное письмо от «близкого» человека, попавшего в беду и нуждающегося в деньгах. Однако теперь их технические возможности существенно выросли.
«Сейчас же мошенники делают аудио, синтезируют голос и создают видеосообщение», — предупреждает эксперт.
Арсенал ИИ-технологий, доступных мошенникам, стремительно расширяется. Фото: Изображение Midjourney
Сегодня цифровое «клонирование» образов других людей при помощи технологий ИИ приняло массовый характер. В киберполиции уточнили, что распространение информации якобы от официальных лиц может преследовать различные цели, начиная от фишинга и заканчивая психологическим воздействием, направленным на дестабилизацию обстановки.
Заведующий кафедрой персонологии и поведенческого анализа Академии социальных технологий, врач-психиатр, психолог, эксперт в области детекции лжи Алексей Филатов сообщил «НИ», что ранее в стране уже фиксировались массовые инциденты отправки фейковых аудиосообщений от имени руководителей муниципальных предприятий, вузов, школ, больниц и прочих организаций.
«Аудиофейки имеют большую степень доверия, поскольку больше вовлекают и хуже проверяются на достоверность», — пояснил эксперт.
Он указал, что для начала злоумышленники собирают образцы голоса человека (например, из публичных выступлений, интервью, аудиозаписей), а затем с помощью нейросетей синтезируют фальшивые фразы, имитирующие тембр, интонации и манеру речи человека.
«Современные модели позволяют создавать такие образцы за считаные минуты, а в сочетании с deepfake-видеогенерацией мошенники могут имитировать даже видеозвонки. Сегодня в интернете есть как минимум с десяток открытых сайтов и специализированных программ, позволяющих это сделать практически любому человеку со средними навыками владения компьютером», — уточнил Алексей Филатов.
По данным начальника аналитического отдела инвесткомпании «Риком-Траст», к. э. н. Олега Абелева, участники финансового рынка могут установить защиту от дипфейков.
«Сегодня это программное обеспечение, которое позволяет лучше идентифицировать клиентов за счет того, что они предоставляют дополнительную информацию для совершения транзакции, многофакторная идентификация, когда система безопасности проверяет не только код, но и само устройство, с которого идет запрос на предоставление персональных данных, IP-адрес, месторасположение, а также антифрод-системы, которые обучаются на типовых операциях.
И если что-то происходит непривычное, то тогда эта операция сверяется с базой образцов мошеннических действий и при совпадении происходит автоматическая блокировка операции до того, как владелец счета не даст необходимое подтверждение», — указал эксперт.
Он уверен, что, когда появится ПО, которое сможет распознать дипфейки, тогда можно будет говорить, что ИИ стоит на страже интересов и средств клиентов банков и других финансовых компаний.
Однако пока технологии защиты пользователей отстают от темпов технической активности мошенников.
«Компании-разработчики уже тестируют алгоритмы детекции подделок, анализируя микроколебания голоса, аномалии синтеза речи, артефакты в визуальном рендеринге. Некоторые банки и мессенджеры разрабатывают механизмы аутентификации по дополнительным факторам, включая запрос на произнесение случайных слов, анализ биометрических характеристик и проверку метаданных аудиофайлов. Однако массового и надежного решения пока нет», — предупредил эксперт Алексей Филатов.
По данным МВД, в ответ на жалобы пользователей на расплодившихся «клонов» чиновников администрация мессенджера Telegram уже выявила и пометила подозрительные каналы с дипфейками как недостоверные. Некоторые из них и вовсе удалены. Однако мошенники, стремящиеся добраться до кошельков россиян, не сидят сложа руки: они плодят новые и новые фальшивые образы, с детальной точностью имитирующие внешность и голос оригинала.
«Мы рекомендуем пользователям доверять только проверенным источникам. Не лишним будет проверить включение канала в перечень персональных страниц пользователей социальной сети, объем аудитории каждой из которых составляет более десяти тысяч пользователей», — посоветовали в киберполиции.
Психолог Алексей Филатов добавил, что в любой ситуации главное — сохранять бдительность и хладнокровие.
«Если вас внезапно звонит „губернатор“, сотрудник правоохранительных органов, присылает вам голосовое сообщение руководитель или „банковский сотрудник“ и просит что-то сделать срочно, необходимо насторожиться: это все обман», — убежден эксперт.
Эксперты советуют не паниковать при контакте с аферистами. Фото: Изображение Midjourney
Чтобы не стать жертвой преступников, специалист рекомендует лишний раз перестраховаться.
«Используйте дополнительные каналы проверки: перезванивайте официальным контактам, задавайте вопросы, на которые подделка может не знать ответов. Не доверяйте видеозвонкам вслепую, особенно если качество изображения странное, а мимика выглядит искусственно», — посоветовал Алексей Филатов.
Эксперт Алексей Примак рекомендует в любой ситуации держать себя в руках и не позволять панике пробить вашу защиту.
«Отдельно поговорим об инвестиционном мошенничестве. Благодаря дипфейкам в Сети появляются видео известных людей, например Павла Дурова, Олега Тинькова* и других известных личностей. И если вдруг известный человек рекламирует, предположим, новый терминал по торговле криптой, доверчивые люди теряют бдительность. Цель всего этого — обман инвесторов.
Запомните: рекламный ролик от знаменитого человека, особенно если предмет рекламы никак не связан с ним и не является его бизнесом, — это не повод инвестировать. Если результат инвестиций выглядит слишком сладко и заманчиво, а доходность слишком хороша, чтобы быть правдой, обычно это 100% мошенники», — предупреждает Алексей Примак.
Голос российской актрисы Алены Андроновой, записанный для озвучки банковского приложения, украли создатели порносайтов. Фото: Чемпионат
Необходимо отметить, что на Западе технология использования дипфейков распространена давно и имеет вполне легальный характер. Изначально она создавалась в том числе как средство защиты здоровья и жизни артистов кино при выполнении сложных трюков. Однако затем практика применения дипфейков распространилась настолько, что цифровые клоны начали вытеснять живых людей, что привело к забастовкам актеров.
В России без артистических скандалов тоже не обошлось.
Актриса заявила, что подала иск о защите чести и достоинства против банка «Тинькофф». Она обвинила кредитную организацию в краже образцов ее голоса, которые помимо воли актрисы «перекочевали» из аудиосервисов банка в озвучку рекламы порносайтов.
Андронова в суде потребовала от банка 6 млн рублей. Она также заявила о своем намерении объединиться с актерами дубляжа и Союзом дикторов России, чтобы добиваться законодательной защиты голосов. Андронова заявила, что необходимо защищать голос гражданина наравне с его изображением и запретить посторонним использовать запись голоса для синтеза речи, если он не был явно указан среди целей записи.
*Внесен Минюстом РФ в реестр иноагентов.
newizv.ru