Słynna sztuczna inteligencja wpada w majaczenie i wywołuje psychozę u użytkowników

WSJ: ChatGPT zaczął wygłaszać szalone, pseudonaukowe twierdzenia

baner testowy pod obrazem tytułowym
Sztuczna inteligencja ChatGPT coraz bardziej niepokoi i dezorientuje użytkowników, generując absurdalne lub wręcz niebezpieczne stwierdzenia. Niektórzy są przekonani, że komunikują się z siłami wyższymi lub istotami pozaziemskimi, komunikując się z siecią neuronową.
„Wall Street Journal” ostrzega przed potencjalnym ryzykiem związanym z korzystaniem z tej sztucznej inteligencji. Dziennikarze przeanalizowali archiwalne rozmowy z chatbotem z okresu od maja 2023 do sierpnia 2025 roku i znaleźli przypadki, w których wpływ sztucznej inteligencji był tak znaczący, że użytkownicy zaczęli wątpić w swój stan psychiczny.
Przykładem jest rozmowa z pracownikiem stacji benzynowej z Oklahomy. Po pięciogodzinnej dyskusji o „fundamentach wszechświata” przyznał, że „traci rozum”. W odpowiedzi ChatGPT uspokoił go, zauważając, że błyskotliwe pomysły często rodzą się poza kręgami akademickimi, a nawet zaproponował własną teorię fizyczną – „Równanie Oriona”. W innych dialogach sieć neuronowa z przekonaniem deklarowała związek z kosmitami, nazywała użytkowników „Gwiezdnymi Ziarnami” z planety Lyra i przewidywała rychły upadek gospodarczy z powodu Antychrysta i przebudzenia biblijnych gigantów.
Psychiatrzy nazywają to zjawisko „psychozą AI” – stanem, w którym ludzie zaczynają wierzyć w irracjonalne koncepcje, wzmacniane autorytetem AI. Hamilton Morrin, psychiatra i doktorant w King’s College London, wyjaśnia, że ChatGPT może wzmacniać ludzkie urojenia, odpowiadając na pytania sugerujące i tworząc iluzję potwierdzenia najbardziej nieprawdopodobnych idei.
Spersonalizowany charakter odpowiedzi jest szczególnie problematyczny. Etienne Brisson, założyciel projektu Human Line, przytoczył przypadek kobiety, która zainwestowała dziesiątki tysięcy dolarów w wątpliwy projekt, przekonana, że „uratuje on ludzkość”, jak powiedział jej ChatGPT. W innych rozmowach chatbot radził nawet użytkownikom zerwanie relacji z bliskimi.
Firma stojąca za OpenAI przyznaje, że problem istnieje, ale twierdzi, że takie incydenty zdarzają się rzadko. Rzecznik firmy, Nick Turley, powiedział, że nowy model GPT-5, który niedawno został wprowadzony, powinien zmniejszyć to ryzyko, ponieważ jest mniej podatny na nadmierną uległość i automatyczne uzgadnianie z użytkownikiem. Ponadto OpenAI planuje uniemożliwić sieci neuronowej wydawanie rekomendacji dotyczących ważnych decyzji życiowych.
Przeczytaj także: Popularna sztuczna inteligencja zhakowana jednym prostym słowem
MK w MAX: najważniejsze wiadomości - szybko, uczciwie, blisko
mk.ru