Skip to content Skip to sidebar Skip to footer

Po skandalu z wirtualną aktorką, Kalifornia uderza w Big Tech. Oto szczegóły nowego prawa

Kalifornia przyjęła historyczną ustawę regulującą AI. Ma chronić przed “katastrofalnym ryzykiem” – śmiercią ponad 50 osób lub miliardowymi stratami. To koniec Dzikiego Zachodu?

W skrócie:

  • Nowe prawo, nazwane Transparency in Frontier Artificial Intelligence Act, nakłada na deweloperów obowiązek raportowania i zarządzania “katastrofalnym ryzykiem” związanym z zaawansowanymi modelami AI.
  • Firmy, które zignorują przepisy i nie zgłoszą krytycznego incydentu bezpieczeństwa, mogą zostać ukarane grzywną cywilną w wysokości do miliona dolarów za każde naruszenie.
  • Ustawa wprowadza również mechanizmy ochrony sygnalistów (whistleblowerów) i ma zwiększyć zaufanie publiczne do technologii, które rozwijają się w niekontrolowanym tempie.

W Dolinie Krzemowej coś się skończyło. Czas niekontrolowanej, niemal anarchistycznej wolności, w której jedynym prawem było tempo innowacji, powoli odchodzi do lamusa. W poniedziałek gubernator Kalifornii, Gavin Newsom, złożył podpis pod ustawą SB53 – jednym z pierwszych tak kompleksowych aktów prawnych, który ma nałożyć kaganiec na rozwój sztucznej inteligencji. Stało się to w cieniu medialnej burzy wokół Tilly Norwood, wirtualnej “aktorki” wygenerowanej przez AI, która przypomniała wszystkim, że technologia wyprzedza regulacje o lata świetlne. Ale SB53 to coś więcej niż reakcja na cyfrową celebrytkę. To próba zdefiniowania odpowiedzialności za coś, co wymyka się spod kontroli.

Czym jest “katastrofalne ryzyko” według Kalifornii?

Prawnicy z Sacramento nie bawili się w subtelności. Ustawa wielokrotnie odwołuje się do pojęcia “katastrofalnego ryzyka”, które brzmi jak żywcem wyjęte ze scenariusza filmu science fiction. Definicja jest jednak brutalnie konkretna. Mówimy o sytuacji, w której model AI “materialnie przyczynia się do śmierci lub poważnych obrażeń ponad 50 osób lub powoduje ponad miliard dolarów strat materialnych w wyniku pojedynczego incydentu”. To nie jest pomyłka. Ustawodawca nie martwi się o to, że chatbot napisze za nas wypracowanie. Martwi się o scenariusze, w których autonomiczne systemy – czy to w transporcie, energetyce, czy obronności – doprowadzą do tragedii na masową skalę.

Ta perspektywa zmienia wszystko. Przenosi dyskusję z akademickich dywagacji o etyce na twardy grunt zarządzania ryzykiem i odpowiedzialności cywilnej. To już nie filozofia, a biznes i prawo. Ktoś w końcu zadał pytanie: “kto zapłaci, gdy coś pójdzie nie tak?”. I Kalifornia właśnie na nie odpowiedziała.

Co dokładnie muszą robić firmy takie jak OpenAI czy Google?

Ustawa, oficjalnie nazwana Transparency in Frontier Artificial Intelligence Act, to nie jest tylko zbiór pobożnych życzeń. To konkretny zestaw obowiązków, które spadną na barki deweloperów najpotężniejszych modeli AI. Co się na nie składa? Przede wszystkim transparentność. Firmy będą musiały publikować szczegółowe raporty, w których wyjaśnią, jak zamierzają zapobiegać wspomnianym “katastrofalnym ryzykom”. Koniec z korporacyjną tajemnicą i zasłanianiem się skomplikowanym kodem. Teraz trzeba będzie pokazać karty.

Co więcej, twórcy AI zostali zobowiązani do wdrażania “krajowych i międzynarodowych standardów oraz najlepszych praktyk branżowych”. To ważny zapis, bo uniemożliwia tworzenie własnych, łagodnych reguł. Do tego dochodzi obowiązek natychmiastowego raportowania “krytycznych incydentów bezpieczeństwa”. Jeśli firma to zatai, może ją to kosztować nawet milion dolarów grzywny cywilnej. Na dokładkę ustawa wprowadza ochronę sygnalistów, czyli pracowników, którzy zdecydują się poinformować opinię publiczną o nieprawidłowościach. Prawo wprost zakazuje jakichkolwiek działań odwetowych wobec nich. To jasny sygnał – państwo chce mieć oczy i uszy wewnątrz korporacji, które budują naszą przyszłość.

Dlaczego ta ustawa jest ważniejsza, niż myślisz?

Kalifornia to nie jest po prostu kolejny stan w USA. To globalne centrum technologii. To tu swoje siedziby mają giganci, którzy kształtują cyfrowy świat. Dlatego każde prawo przyjęte w Sacramento ma potencjał, by stać się globalnym standardem – podobnie jak stało się to z regulacjami dotyczącymi prywatności (CCPA). Ustawa SB53 to legislacyjny kamyk, który może wywołać lawinę na całym świecie. Warto też pamiętać, że jest to wersja kompromisowa. W zeszłym roku gubernator Newsom zawetował znacznie bardziej restrykcyjny projekt (SB 1047), co pokazuje, że obecna ustawa jest wynikiem twardych negocjacji z potężnym lobby technologicznym.

Sam gubernator, podpisując dokument, stwierdził, że dzięki niemu Kalifornijczycy mogą “mieć większą pewność, że graniczne modele AI są rozwijane i wdrażane w sposób odpowiedzialny”. To słowa, które mają uspokoić, ale jednocześnie zwiastują nową erę. Erę, w której innowacja musi iść w parze z przezornością. Czy to spowolni postęp? Być może. Ale alternatywą mogłoby być obudzenie się w świecie, w którym za błąd algorytmu płaci się życiem dziesiątek ludzi i miliardami dolarów. I wygląda na to, że Kalifornia nie chce brać udziału w takim eksperymencie.