Zdolność osądu sztucznej inteligencji to tylko pozory

Siła osądu modeli językowych, takich jak ChatGPT czy Gemini, jest wręcz oczywista : wyraźnie dowodzi tego badanie przeprowadzone przez Waltera Quattrociocchiego z Uniwersytetu La Sapienza w Rzymie i opublikowane w czasopiśmie Narodowej Akademii Nauk (PNAS). Praca ta uwypukla konkretne zagrożenia związane z powierzaniem tym modelom sztucznej inteligencji zadania dokonywania wyborów lub podejmowania decyzji .
„Co tak naprawdę się dzieje, gdy prosimy sztuczną inteligencję o dokonanie wyboru, na przykład o ustalenie, czy wiadomość internetowa jest wiarygodna, czy fałszywa?” – powiedział Quattrociocchi w wywiadzie dla ANSA, opisując nowe badanie, w ramach którego przeprowadzono serię testów na wielu najważniejszych obecnie w obiegu modelach lingwistycznych LLM, takich jak ChatGPT, Gemini, Llama, Deepseek i Mistral. W ramach tego szeroko zakrojonego projektu porównano ludzi i sztuczną inteligencję , aby zrozumieć różnice w ich rozumowaniu .
„To, co tutaj bardzo wyraźnie podkreśliliśmy, to fakt, że pomimo wyników, sztuczne inteligencje są w rzeczywistości bardzo dobre w rozpoznawaniu fałszywych wiadomości . Jednak mechanizm, którego używają, nie opiera się na rzeczywistych dowodach, lecz jedynie na zdolności do symulowania osądów . Innymi słowy, osądy formułowane przez LLM są wiarygodne, ale oderwane od faktów ”.
Autorzy podkreślają, że zastąpienie prawdy prawdopodobieństwem może prowadzić do poważnych problemów w niedalekiej przyszłości, ponieważ stopniowo będziemy oddawać coraz większą władzę zdolnościom LLM-ów w zakresie zarządzania działaniami lub podejmowania decyzji za nas, całkowicie je delegując. „Ale te systemy zdają się oceniać tak jak my tylko dlatego, że symulują ślady myśli, a nie samą myśl ” – dodał włoski badacz. „To badanie” – podsumował – „pokazuje, że automatyzujemy nie osąd, ale jego pozory ”.
ansa