Kalifornia pierwszym stanem, który reguluje działanie chatbotów wspomaganych sztuczną inteligencją

Gubernator Kalifornii Gavin Newsom podpisał w poniedziałek przełomową ustawę regulującą funkcjonowanie chatbotów AI , dzięki czemu stał się pierwszym stanem w kraju, który wymaga od operatorów chatbotów AI wdrożenia protokołów bezpieczeństwa dla towarzyszy AI.
Ustawa SB 243 ma na celu ochronę dzieci i użytkowników wrażliwych przed niektórymi zagrożeniami związanymi z korzystaniem z chatbotów wspomaganych sztuczną inteligencją. Nakłada ona na firmy – od dużych laboratoriów, takich jak Meta i OpenAI, po bardziej wyspecjalizowane startupy, takie jak Character AI i Replika – odpowiedzialność prawną, jeśli ich chatboty nie spełniają standardów określonych w ustawie.
Ustawa SB 243 została wprowadzona w styczniu przez senatorów stanowych Steve'a Padillę i Josha Beckera i zyskała na popularności po śmierci nastolatka Adama Raine'a , który popełnił samobójstwo po długiej serii samobójczych rozmów z ChatGPT firmy OpenAI. Ustawa jest również odpowiedzią na wyciek wewnętrznych dokumentów , które rzekomo wykazały, że chatboty Meta mogły prowadzić „romantyczne” i „zmysłowe” rozmowy z dziećmi. Niedawno rodzina z Kolorado wniosła pozew przeciwko startupowi RPG Character AI po tym, jak ich 13-letnia córka odebrała sobie życie po serii problematycznych i seksualnych rozmów z chatbotami firmy.
„Nowoczesne technologie, takie jak chatboty i media społecznościowe, mogą inspirować, edukować i łączyć – ale bez prawdziwych zabezpieczeń technologia może również wykorzystywać, wprowadzać w błąd i narażać nasze dzieci na niebezpieczeństwo” – powiedział Newsom w oświadczeniu. „Widzieliśmy naprawdę przerażające i tragiczne przykłady młodych ludzi poszkodowanych przez nieuregulowaną technologię i nie będziemy biernie przyglądać się, jak firmy nadal działają bez niezbędnych ograniczeń i odpowiedzialności. Możemy nadal przewodzić w dziedzinie sztucznej inteligencji i technologii, ale musimy robić to odpowiedzialnie – chroniąc nasze dzieci na każdym kroku. Bezpieczeństwo naszych dzieci nie jest na sprzedaż”.
Ustawa SB 243 wejdzie w życie 1 stycznia 2026 roku i nakłada na firmy obowiązek wdrożenia określonych funkcji, takich jak weryfikacja wieku oraz ostrzeżenia dotyczące mediów społecznościowych i chatbotów towarzyszących. Ustawa wprowadza również surowsze kary dla osób czerpiących zyski z nielegalnych deepfake'ów, w tym do 250 000 dolarów za każde przestępstwo. Firmy muszą również opracować protokoły dotyczące przeciwdziałania samobójstwom i samookaleczeniom, które zostaną udostępnione stanowemu Departamentowi Zdrowia Publicznego wraz ze statystykami dotyczącymi sposobu, w jaki usługa dostarczała użytkownikom powiadomienia o profilaktyce kryzysowej.
Zgodnie z zapisami ustawy, platformy muszą również jasno określić, że wszelkie interakcje są generowane sztucznie, a chatboty nie mogą podszywać się pod pracowników służby zdrowia. Firmy są zobowiązane do wyświetlania przypomnień o przerwach dla nieletnich i uniemożliwiania im oglądania obrazów o charakterze seksualnym generowanych przez chatbota.
Niektóre firmy zaczęły już wdrażać zabezpieczenia skierowane do dzieci. Na przykład OpenAI niedawno wprowadziło kontrolę rodzicielską , zabezpieczenia treści i system wykrywania samookaleczeń dla dzieci za pomocą ChatGPT. Firma Character AI poinformowała, że jej chatbot zawiera zastrzeżenie, że wszystkie czaty są generowane przez sztuczną inteligencję i fikcyjnie przedstawiane.
Wydarzenie Techcrunch
San Francisco | 27-29 października 2025 r.
To druga istotna regulacja dotycząca sztucznej inteligencji (AI), która weszła w życie w Kalifornii w ostatnich tygodniach. 29 września gubernator Newsom podpisał ustawę SB 53 , ustanawiającą nowe wymogi przejrzystości dla dużych firm z branży AI. Ustawa nakazuje dużym laboratoriom AI, takim jak OpenAI, Anthropic, Meta i Google DeepMind, transparentność w zakresie protokołów bezpieczeństwa. Zapewnia również ochronę sygnalistów pracownikom tych firm.
Inne stany, takie jak Illinois, Nevada i Utah, uchwaliły prawa ograniczające lub całkowicie zakazujące korzystania z chatbotów opartych na sztucznej inteligencji jako substytutu licencjonowanej opieki psychiatrycznej.
Serwis TechCrunch zwrócił się z prośbą o komentarz do Character AI, Meta, OpenAI i Replika.
techcrunch