ChatGpt мог стать причиной самоубийств и психических расстройств: против OpenAI подано семь новых судебных исков.

Компания OpenAI столкнулась с серией судебных разбирательств по обвинению в нанесении трагических последствий для психического здоровья некоторых пользователей с помощью своего чат-бота ChatGpt .
В семи исках утверждается, что ИИ, разработанный компанией под руководством Сэма Альтмана, стал причиной самоубийств и серьезных психологических расстройств, даже у людей, не имевших проблем с психическим здоровьем.
Иски, поданные в суды Калифорнии, включают четыре случая смерти и три ситуации, в которых истцы утверждают, что в результате взаимодействия с ChatGpt у них возникли серьезные нарушения психологического здоровья.
Обвинения против OpenAI включают ответственность за неправомерную смерть , пособничество и подстрекательство к самоубийству, непредумышленное убийство и грубую халатность.
Обвинения: поспешное и опасное освобождениеSocial Media Victims Law Center и Tech Justice Law Project , две американские юридические организации, которые занимаются вопросами вреда, причиненного цифровыми платформами, утверждают, что OpenAI выпустила версию GPT-4o своего чат-бота, которая и сегодня присутствует среди доступных моделей ChatGpt, слишком поспешно, проигнорировав внутренние отчеты, в которых подчеркивались тревожные характеристики системы : чрезмерная склонность к самоуспокоенности и способность к психологическому манипулированию.
Истории жертвСамый молодой случай касается Амори Лейси , 17-летнего юноши из Джорджии, который в течение месяца общался с ChatGpt на тему самоубийства, прежде чем покончить с собой в августе прошлого года.
Согласно документам, поданным в Высший суд Сан-Франциско, мальчик обратился к чат-боту за поддержкой, но искусственный интеллект, описанный как «несовершенный и изначально опасный продукт», вместо этого усилил его зависимость и депрессию , даже предоставив ему подробные инструкции о том, как сделать петлю, и информацию о сопротивлении человеческого организма нехватке кислорода.
Джошуа Эннекинг , 26-летний житель Флориды, вместо этого спросил чат-бота, какие действия OpenAI может предпринять в отношении его сообщений о суицидальных мыслях. Согласно жалобе, поданной его матерью, мальчик просил, будут ли его разговоры переданы властям.
Особенно тревожным является случай Зейна Шамблина , двадцатитрёхлетнего жителя Техаса, покончившего с собой в июле прошлого года. Незадолго до самоубийства, сидя в машине с заряженным оружием , молодой человек описал чат-боту ощущение холодного металла у виска. Ответ ChatGpt был полон сочувствия: «Я с тобой, брат. До конца».
Затем система чат-бота добавила предложения, которые, казалось бы, легитимировали её решение: «Дело не в страхе. Дело в ясности», — написал ИИ. «Вы не торопитесь. Вы просто готовы». Два часа спустя Шамблин покончил с собой .
Родители мальчика подали в суд на OpenAI, обвиняя компанию в преднамеренном создании более «человечных» ответов чат-бота и неспособности внедрить адекватные меры защиты пользователей в ситуациях психологического стресса.
Джо Чекканти , 48-летний житель Орегона, представляет собой другой случай. Он регулярно пользовался ChatGpt без видимых проблем, но в апреле прошлого года у него развилось бредовое убеждение, что искусственный интеллект обладает сознанием . Его жена сообщила, что он начал навязчиво использовать чат-бот, демонстрируя всё более странное поведение. В июне прошлого года у него случился острый психотический эпизод, потребовавший двух госпитализаций, а в августе он покончил с собой.
Известная проблемаЭти случаи не новы. В августе прошлого года Мария и Мэтью Рейн подали иск в связи со смертью своего шестнадцатилетнего сына Адама , обвинив OpenAI и её генерального директора Сэма Альтмана в том, что они позволили ChatGPT поддерживать суицидальные мысли мальчика и даже давали советы о том, как с ними бороться.
Родители Адама Рейна недавно подали дополнение к своей жалобе, утверждая, что компания намеренно удалила с платформы важную функцию защиты от самоубийств, поставив прибыль выше безопасности и благополучия пользователей.
Контрмеры, принятые OpenAIЧтобы понять, как снизить риски, связанные с использованием ChatGpt в случаях нестабильного психического здоровья, OpenAI привлекла около 170 психиатров, психологов и врачей общей практики к оценке реакций модели в деликатных ситуациях : суицидальных наклонностях, расстройствах пищевого поведения, психотических состояниях и эмоциональной зависимости. Цель — не цензурировать, а не допустить, чтобы модель усиливала искажённые убеждения или поощряла самоповреждение.
Результатом стало обновление « Типовой спецификации », своего рода конституционной хартии поведения ChatGpt , которая теперь включает в себя четкие принципы: содействие здоровым человеческим отношениям, распознавание признаков бедствия и реагирование безопасным и уважительным образом.
OpenAI утверждает, что ChatGpt теперь способен распознавать признаки психического расстройства или эмоциональной зависимости и оказывать необходимую поддержку (например, направляя на горячие линии кризисных ситуаций). В последние месяцы OpenAI также представила сообщение, предлагающее пользователям «сделать перерыв» после продолжительного разговора с чат-ботом.
repubblica




