Grok: искусственный интеллект Илона Маска использовался для создания изображений голых женщин без их ведома

С мая 2025 года в социальной сети X (ранее Twitter), принадлежащей Илону Маску, назревает скандал. Пользователи используют искусственный интеллект Grok от xAI, чтобы создавать изображения обнаженных женщин из публичных фотографий, возобновляя дискуссию об ограничениях и опасностях искусственного интеллекта .
Женщины постоянно подвергаются сексуализации без их ведомаПоявление искусственного интеллекта стало для многих источником волнения и любопытства. Однако с самого начала значительная часть женщин-пользователей Интернета опасалась этого, заранее зная о связанных с этим эксцессах. Действительно, нет необходимости ждать, пока ИИ увидит фото- и видеомонтажи, разоблачающие и сексуализирующие женщин. Целые форумы посвящены изменению постов определенных женских личностей с целью раздеть их без их согласия. Хотя технический прогресс во многом облегчает жизнь, он также значительно упрощает многие из уже устоявшихся злоупотреблений.
Это хороший пример феномена «дипфейков»: все более популярной технологии, позволяющей создавать поддельные видео или аудиозаписи путем манипулирования изображением и голосом человека с помощью искусственного интеллекта. Конкретно, он позволяет вам заставить человека что-то сказать или сделать... даже если он этого не сказал и не сделал. Этот невероятно реалистичный контент может быть смешным в юмористическом контексте, но становится тревожным, когда используется для распространения ложной информации, манипулирования мнением или... создания порнографического контента. Особенно это коснулось американской звезды Тейлор Свифт . Как сообщает New York Times , сексуально измененное изображение певицы было просмотрено 47 миллионов раз, прежде чем аккаунт, разместивший его, был заблокирован. Аналогичным образом ведущая новостей Channel 4 Кэти Ньюман стала жертвой порнографических дипфейков. В The Guardian она назвала этот опыт « нарушением » и выразила обеспокоенность по поводу использования ИИ для создания столь реалистичного и вредоносного контента.
Grok: раздевание голым за несколько кликовТеперь у каждой социальной сети есть свой искусственный интеллект. Вы, возможно, заметили это на примере знаменитого синего круга Мета (присутствует в Facebook, Whatsapp, Instagram). X не отстает от своего собственного искусственного интеллекта по имени Грок. В приложении вы можете попросить Грока о чем угодно, включая ответы на сообщения. Уже некоторое время назревает спор, о котором особенно говорят Numerama и France Info : искусственный интеллект Илона Маска широко используется для раздевания женщин без их ведома .
С начала мая 2025 года пользователи социальной сети X (ранее Twitter) используют искусственный интеллект (ИИ) Grok, разработанный компанией xAI, для генерации изображений женщин в нижнем белье на основе фотографий, размещенных в Интернете. Все, что им нужно сделать, это упомянуть @Grok под постом с фотографией и попросить его «снять одежду» с указанного человека. Затем ИИ создает отредактированное изображение, часто в нижнем белье , которое можно разместить непосредственно в теме или получить доступ к нему по ссылке для скачивания. Хотя Grok утверждает, что придерживается строгих этических норм, пользователям удалось обойти эти ограничения, подвергая целевых пользователей посягательствам на их достоинство и личную жизнь.
Незаконная практика во ФранцииВо Франции эта практика незаконна. Закон от 21 мая 2024 года ужесточил законодательство в отношении контента, создаваемого искусственным интеллектом, в частности дипфейков сексуального характера. Производство или распространение таких изображений без согласия заинтересованных лиц является правонарушением, наказуемым тремя годами тюремного заключения и штрафом в размере 45 000 евро . Подобные действия считаются посягательством на частную жизнь и достоинство личности, и жертвы могут подать иск против авторов такого контента.
Эта новость напоминает нам, что более чем когда-либо мы должны защитить женщин, а также детей, от бесчинств искусственного интеллекта, поставив эти вопросы в центр публичных дебатов, укрепив правовую базу и улучшив средства обнаружения подобных публикаций, чтобы как можно быстрее модерировать их и ограничивать их распространение. Короче говоря, нам предстоит проделать большую работу!
Planet.fr