Apelują o ograniczenie sztucznej inteligencji poprzez zawarcie międzynarodowego porozumienia.

NOWY JORK (EFE) — Laureaci Nagrody Nobla, eksperci w dziedzinie sztucznej inteligencji (AI) i naukowcy zaapelowali wczoraj o utworzenie międzynarodowej instytucji, która ograniczyłaby ryzyko związane ze sztuczną inteligencją, przed zbliżającymi się spotkaniami na wysokim szczeblu Zgromadzenia Ogólnego Organizacji Narodów Zjednoczonych, które odbędą się w tym tygodniu w Nowym Jorku.
Inicjatywa, która została uruchomiona wczoraj i podpisana przez ponad dwieście osób i siedemdziesiąt organizacji, wzywa rządy do ustanowienia wiążącego międzynarodowego porozumienia w sprawie „czerwonych linii” dla sztucznej inteligencji.
„Globalny apel o ustalenie granic dla sztucznej inteligencji został właśnie ogłoszony przez laureatkę Pokojowej Nagrody Nobla, Marię Ressę, filipińską dziennikarkę, podczas spotkania na wysokim szczeblu ONZ, upamiętniającego 80. rocznicę powstania organizacji. Wzywamy rządy na całym świecie do osiągnięcia kluczowego międzynarodowego porozumienia w sprawie granic, których sztuczna inteligencja nigdy nie może przekroczyć” – ogłosił Charbel Segerie, dyrektor wykonawczy Francuskiego Centrum Bezpieczeństwa Sztucznej Inteligencji, podczas wirtualnej konferencji prasowej.
Ekspert wyjaśnił, że celem nie jest reakcja po poważnym incydencie i późniejsze karanie za naruszenia, ale raczej zapobieganie zagrożeniom na dużą skalę, potencjalnie nieodwracalnym, zanim wystąpią.
Celem tej koalicji ekspertów jest wymaganie od twórców oprogramowania wykazania, że ich sztuczna inteligencja jest bezpieczeństwem, jako warunkiem dostępu do rynku, tak jak ma to miejsce w przypadku rozwoju leków i elektrowni jądrowych.
Wielkie firmy technologiczne, takie jak Meta, Google i OpenAI, wkładają wszystkie jaja do jednego koszyka i inwestują ogromne pieniądze w rozwój „superinteligencji” lub sztucznej inteligencji ogólnej (AGI) – hipotetycznego systemu AI przewyższającego możliwości ludzkiego mózgu, który obecnie istnieje jedynie w literaturze science fiction, ale który, według ekspertów, może pojawić się w ciągu najbliższej dekady.
Stuart Russell, profesor z Uniwersytetu w Berkeley, podkreślił, że sztuczna inteligencja jest zaprojektowana tak, aby bardzo dobrze naśladować człowieka.
„Ludzkie zachowanie ma na celu osiągnięcie celów: przekonanie, zaimponowanie, przetrwanie, uwiedzenie, sprzedanie itd. Nieuchronnie systemy sztucznej inteligencji same zdobywają i dążą do tych celów. To nieunikniona konsekwencja ich rozwoju. Z natury są niebezpieczne” – podkreślił dyrektor Centrum Sztucznej Inteligencji Kompatybilnej z Człowiekiem.
Russella najbardziej martwi to, że twórcy oprogramowania przyznają, iż nie planują monitorowania systemów AI, a rządy nie zamierzają na razie wymagać od nich takiego działania.
Russell stwierdził, że nie chce alarmować, ale istnieje „znaczne” prawdopodobieństwo katastrofy na skalę katastrofy nuklearnej w Czarnobylu, gdyż technologia ta może stać się przyczyną skoordynowanego sabotażu systemów finansowych, komunikacyjnych lub sieci energetycznych.
„Istnieje też inna możliwość: o wiele większa katastrofa, w wyniku której ludzkość nieodwracalnie utraciłaby kontrolę i nie miałaby żadnego wpływu na swoje istnienie” – powiedział profesor.
Na koniec Russell zauważył, że istnieje trzecia, nierealna opcja: w wyniku rozwoju i wdrożenia tej nowatorskiej technologii nic się nie wydarzy.
„Pewien dyrektor generalny niedawno powiedział mi, że najlepszym scenariuszem jest katastrofa na skalę Czarnobyla, a starszy badacz w OpenAI stwierdził, że jego zdaniem prawdopodobieństwo (wyginięcia ludzkości z powodu sztucznej inteligencji) wynosi obecnie 60%” – ujawnił.
Niki Iliadis, dyrektor ds. globalnego zarządzania sztuczną inteligencją w The Future Society, zauważył, że „pierwsze ważne kroki” zostały już podjęte, np. stworzenie kodeksu postępowania Unii Europejskiej, ale teraz te regulacje muszą mieć charakter „globalny i możliwy do wyegzekwowania”.
Według Iliadisa prawdopodobnie potrzebna będzie nowa międzynarodowa instytucja, która będzie wyznaczać globalne granice dla sztucznej inteligencji, monitorować przestrzeganie zasad i interweniować w przypadku przekroczenia tych „czerwonych linii”.
yucatan