Kalifornia wprowadza przełomową ustawę o przejrzystości AI, SB 53. Prawo zmusza gigantów do publikowania procedur bezpieczeństwa i chroni sygnalistów.
W skrócie:
- Gubernator Gavin Newsom podpisał ustawę SB 53, znaną jako “Transparency in Frontier Artificial Intelligence Act”, która staje się oficjalnym prawem w Kalifornii.
- Regulacja nakłada na duże firmy AI obowiązek publicznego udostępniania swoich ram bezpieczeństwa i procedur, a także wprowadza ochronę dla sygnalistów.
- Ustawa podzieliła branżę. Poparł ją Anthropic, ale giganci tacy jak Meta i OpenAI lobbowali przeciwko niej, obawiając się zahamowania innowacji w regionie.
W poniedziałek stało się to, na co Dolina Krzemowa czekała z mieszanką nadziei i strachu. Gubernator Kalifornii, Gavin Newsom, złożył podpis pod ustawą Senate Bill 53. To nie jest po prostu kolejny nudny dokument legislacyjny. To prawdopodobnie najważniejsza regulacja dotycząca sztucznej inteligencji na amerykańskiej ziemi, która może stać się wzorem dla całego świata. Albo, jak twierdzą krytycy, gwoździem do trumny dla innowacji w Złotym Stanie. Jedno jest pewne – zasady gry właśnie się zmieniły.
Nowe prawo, oficjalnie nazwane “Transparency in Frontier Artificial Intelligence Act”, to drugie podejście do tego samego tematu. Newsom zawetował pierwotną wersję – SB 1047 – w zeszłym roku, uznając ją za zbyt restrykcyjną. Obawiano się, że surowe wymogi, zwłaszcza dla deweloperów modeli trenowanych kosztem ponad 100 milionów dolarów, wystraszą inwestorów i firmy. W odpowiedzi gubernator powołał grupę badaczy AI, którzy przygotowali łagodniejszą alternatywę. Efektem ich pracy jest właśnie SB 53.
Co dokładnie zmienia ustawa SB 53?
Sedno nowego prawa tkwi w transparentności. Duże firmy tworzące zaawansowane modele AI będą teraz musiały publicznie, na swoich stronach internetowych, opublikować szczegółowe ramy bezpieczeństwa. Mają w nich opisać, w jaki sposób włączają krajowe i międzynarodowe standardy oraz “najlepsze praktyki branżowe” do swoich procesów. Każda aktualizacja protokołów bezpieczeństwa musi zostać ogłoszona i uzasadniona w ciągu 30 dni. Brzmi dobrze, ale diabeł tkwi w szczegółach. Krytycy wskazują, że wiele firm AI, które lobbują przeciwko twardym regulacjom, proponuje właśnie takie “dobrowolne ramy i najlepsze praktyki”. To często postrzegane jest jako zbiór wskazówek, a nie twardych zasad z realnymi karami.
Jednak ustawa wprowadza też mechanizmy, których zignorować nie można. Po pierwsze, tworzy system zgłaszania potencjalnych krytycznych incydentów bezpieczeństwa do kalifornijskiego Biura Służb Ratunkowych (Office of Emergency Services). Dostęp do niego będą miały zarówno firmy, jak i opinia publiczna. Po drugie – i to może być rewolucyjne – zapewnia ochronę prawną dla sygnalistów (whistleblowers), którzy ujawnią znaczące ryzyko dla zdrowia i bezpieczeństwa związane z modelami AI. Za nieprzestrzeganie przepisów grożą kary cywilne, egzekwowane przez biuro Prokuratora Generalnego. To realne zęby, których brakowało dotychczasowym propozycjom.
Dlaczego giganci AI boją się tego prawa?
Odpowiedź jest prosta: pieniądze i kontrola. Ustawa SB 53 od miesięcy dzieliła branżę, a bitwa o jej kształt była zacięta. Z jednej strony stanął Anthropic, który po tygodniach negocjacji publicznie poparł projekt. Z drugiej – cała reszta technologicznej śmietanki. Meta w sierpniu uruchomiła stanowy komitet polityczny (super PAC), by kształtować legislację AI w Kalifornii na swoją korzyść. Z kolei OpenAI aktywnie lobbowało przeciwko regulacjom. Chris Lehane, dyrektor ds. globalnych w OpenAI, pisał w liście do gubernatora Newsoma, że przywództwo Kalifornii jest “najskuteczniejsze, gdy uzupełnia globalne i federalne ekosystemy bezpieczeństwa”.
To dyplomatyczny język, który w praktyce oznacza jedno: “dajcie nam spokój”. Lehane sugerował, że firmy AI powinny móc ominąć kalifornijskie wymogi, jeśli podpiszą federalne lub globalne porozumienia. Wielu deweloperów obawiało się, że ustawa wygoni firmy ze stanu, który jest sercem globalnej rewolucji AI. Argument o “tłumieniu innowacji” powracał jak mantra we wszystkich dyskusjach. Trudno się dziwić – nikt nie lubi, gdy ktoś zagląda mu przez ramię. Zwłaszcza, gdy w grę wchodzą miliardy dolarów i technologie, które mają zmienić świat.
Kalifornia jako poligon doświadczalny dla świata
Dlaczego lokalne prawo w jednym stanie USA budzi takie emocje na całym świecie? Ponieważ Kalifornia, z prawie 40 milionami mieszkańców i gospodarką większą niż niejedno państwo, ma nieproporcjonalnie duży wpływ na branżę technologiczną. To tutaj rodzą się trendy, a lokalne regulacje często stają się modelem dla reszty kraju, a nawet globu – wystarczy wspomnieć RODO w Europie, które zainspirowało podobne prawa w Kalifornii.
Podpisana ustawa jest kompromisem. Jest znacznie łagodniejsza niż jej poprzedniczka, nie zawiera na przykład wymogu oceny przez strony trzecie. Co roku Departament Technologii Kalifornii ma rekomendować jej aktualizacje, uwzględniając rozwój technologiczny i międzynarodowe standardy. To sygnał, że regulatorzy zamierzają trzymać rękę na pulsie. Firmy AI dostały więc to, czego chciały – łagodniejsze prawo. Ale jednocześnie władze pokazały, że era całkowitej samowolki dobiegła końca. A reszta świata patrzy i robi notatki.