Fałszywe poczucie bezpieczeństwa

Ława przysięgłych na Florydzie nakazała firmie Tesla zapłatę 243 milionów dolarów odszkodowania za śmierć Naibela Benavidesa, do której doszło 25 kwietnia 2019 roku. Uznano, że firma ponosi 33% winy za śmierć 22-latka.
Tego dnia George McGee prowadził swoją Teslę Model S z włączonym autopilotem. Zbliżając się do skrzyżowania, upuścił telefon komórkowy i próbował go podnieść, trzymając nogę na pedale gazu. Pojazd uderzył w prawidłowo zaparkowany SUV, zabijając dziewczynę i raniąc jej chłopaka. Tesla jechała z prędkością ponad 80 km/h.
Jesteśmy odpowiedzialni za 66% skutków niewłaściwego korzystania z technologiiPrawnicy Tesli argumentują, że noga kierowcy na pedale gazu uniemożliwiła Autopilotowi uniknięcie kolizji. Co więcej, instrukcja jasno stwierdza, że „kierowca jest odpowiedzialny za zachowanie czujności, bezpieczną jazdę i kontrolowanie pojazdu”. W przypadku pana McGee: zero na trzy. Jednak ława przysięgłych uznała go winnym tylko w 66%.
Istnieją dwa powody, które to wyjaśniają: jeden technologiczny i drugi psychologiczny.
W chwili wypadku kierowca nie patrzył na drogę i nie trzymał rąk na kierownicy. Warto pamiętać, że był zajęty szukaniem telefonu. Jednak Autopilot pozwolił mu przejechać przez skrzyżowanie z prędkością ponad 80 km/h (50 mph) bez „bycia czujnym, bezpiecznej jazdy i panowania nad pojazdem”. Inni producenci stosują kamery, które monitorują, czy kierowca patrzy na drogę i emitują ostrzeżenie.
Przyczyna psychologiczna jest bardziej subtelna, a jednocześnie głębsza. Autopilot to termin konotacyjny i mylący. Powodowie oskarżyli Teslę o „dezinformację” za pomocą zmanipulowanych filmów i mylących twierdzeń, takich jak „nasz system kierowania jest bezpieczniejszy niż człowiek”.
Samochody Tesla w salonie
Elijah Nouvelage / ReutersWszystko to daje kierowcy Tesli fałszywe poczucie bezpieczeństwa, gdy włączony jest Autopilot, co prowadzi do obniżenia czujności. W miarę jak samochód podejmuje właściwe decyzje, rośnie pewność, że kolejna będzie równie dobra. Aż do momentu, gdy tak się nie stanie.
Stowarzyszenie Inżynierów Motoryzacyjnych (SAE) definiuje 6 poziomów automatyzacji jazdy, od 0 (brak automatyzacji) do pełnej automatyzacji na poziomie 5. Kampanie Tesli, niespełnione obietnice Muska i sama nazwa „Autopilot” subtelnie umieszczają nas na poziomie 5, ale nie: Tesle mają poziom 3. Ta rozbieżność między rzeczywistymi możliwościami systemu a tym, jak są one postrzegane, prowadzi do fałszywego poczucia bezpieczeństwa.
Ale to nie dotyczy wyłącznie Tesli. Nawet samochodów. Jesteśmy narażeni na to za każdym razem, gdy korzystamy z systemu predykcyjnego opartego na sztucznej inteligencji, takiego jak ChatGPT, Copilot, Claude czy Autopilot. Kiedy wspomaga nas on w badaniach, pisaniu kodu programistycznego czy symulacjach finansowych, nigdy nie możemy być pewni, czy jesteśmy bezpieczni. A to sprawia, że jesteśmy w 66% odpowiedzialni za jego negatywne konsekwencje.
lavanguardia