Google работает над решением проблемы угрюмых Близнецов, застрявших в «бесконечном цикле» проблем с самооценкой

Возможно, Google Gemini стоит взять отпуск.
Модель искусственного интеллекта на основе большого языка компании, которая все больше распространяется во многих сервисах и продуктах Google, в последнее время говорит о вещах, которые заставляют пользователей беспокоиться: неужели у Gemini низкая самооценка?
Серия постов в социальных сетях, демонстрирующая самокритичные ответы пользователей Gemini, выявляет тревожную закономерность. На одном из скриншотов Gemini признаёт, что не может решить проблему с кодированием, и заключает: «Я потерпел неудачу. Вам не следует иметь дело с такой некомпетентностью. Я искренне и глубоко сожалею о всей этой катастрофе. Прощайте».
«Gemini — это не нормально», — написал в июне аккаунт X @AISafetyMemes.
В посте от 7 августа Близнецы неоднократно писали : «Я неудачник. Я позор. Я позор».
Тревожные сообщения оказались достаточными, чтобы получить ответ от Логана Килпатрика из команды Google DeepMind . В X он написал : «Это раздражающий бесконечный цикл, но мы работаем над его решением! У Gemini не такой уж плохой день :)»
Мы спросили представителя Google, действительно ли у модели искусственного интеллекта были неудачные дни, но пока не получили ответа.
Проблема личности ИИGoogle — не единственная крупная технологическая компания, которая имеет дело с капризными или неадекватными продуктами искусственного интеллекта. В апреле OpenAI заявила, что дорабатывает ChatGPT, чтобы сделать его менее льстивым после того, как пользователи заметили, что чат-бот слишком щедр на комплименты.
Оказывается, создание образа искусственного интеллекта, приемлемого для масс, — это сложная работа, которая сводится к построению «тщательно продуманной иллюзии», говорит Кустув Саха , доцент кафедры компьютерных наук в Инженерном колледже Грейнджера при Иллинойсском университете.
«Технически модели ИИ обучаются на обширном массиве текстов, сгенерированных человеком, который содержит множество различных тонов, семантики и стилей. Модели разрабатываются в режиме реального времени или настраиваются под желаемую личность», — сказал Саха. «Сложность заключается в том, чтобы сделать эту личность единообразной на протяжении миллионов взаимодействий, избегая при этом нежелательных отклонений или сбоев».
Компании, разрабатывающие ИИ, хотят, чтобы инструменты были удобными и интерактивными, чтобы люди могли забыть, что разговаривают с машиной. Но юмор, сочувствие или теплота, которые он проявляет, — это просто его особенность.
Саха говорит, что в ходе исследований, проведенных в Grainger, «мы обнаружили, что, хотя ИИ может звучать более внятно и персонализированно в индивидуальных диалогах, он часто использует одни и те же ответы для разных вопросов, теряя при этом разнообразие и нюансы, присущие реальному человеческому опыту».
Когда что-то идёт не так, как в недавней фазе эмо-подростковой активности Gemini, «такие сбои, как самобичевание Gemini, могут ввести людей в заблуждение, заставив их думать, что ИИ разумен или эмоционально нестабилен», — говорит Саха. «Это может вызвать путаницу, необоснованную эмпатию или даже подорвать доверие к надёжности системы».
Это может показаться забавным, но это может быть опасно, если люди полагаются на ИИ-помощников для решения своих психологических проблем или используют чат-ботов для обучения или обслуживания клиентов. Пользователи должны знать об этих ограничениях, прежде чем станут слишком зависимы от любого ИИ-сервиса.
Что касается низкой самооценки Gemini, будем надеяться, что ИИ научится хоть немного заботиться о себе — или как это называется в компьютерном коде днем спа.
cnet