Skip to content Skip to sidebar Skip to footer

USA otwierają sejfy gigantów AI. Rząd dostanie dostęp do tajnych modeli przed premierą

Administracja Trumpa zacieśnia kontrolę nad AI. Google, Microsoft i xAI udostępnią rządowi swoje najnowsze modele jeszcze przed ich publiczną premierą.

W skrócie:

  • Google, Microsoft i xAI dołączają do OpenAI i Anthropic, udostępniając rządowi USA swoje modele AI do testów bezpieczeństwa przed ich oficjalnym debiutem.
  • Za weryfikację odpowiada Centrum dla standardów AI i innowacji (CAISI), które sprawdzi systemy pod kątem zagrożeń dla bezpieczeństwa narodowego i cybernetycznego.
  • Zmiana polityki Trumpa jest drastyczna; jeszcze niedawno sprzeciwiał się regulacjom, obawiając się spowolnienia innowacji i przegranej w wyścigu z Chinami.

Pamiętacie, jak na początku swojej drugiej kadencji Donald Trump z hukiem cofał niemal wszystkie rozporządzenia poprzednika? Wtedy przekonywał, że sztuczna inteligencja potrzebuje wolności, a “bzdetami pokroju regulacji” nie można krępować amerykańskiego geniuszu w wyścigu z Chinami. Cóż, minęło zaledwie szesnaście miesięcy, a Biały Dom wykonał zwrot, który wprawił w osłupienie nawet najbardziej cynicznych obserwatorów Doliny Krzemowej. Rząd chce teraz kluczy do cyfrowych sejfów, zanim ktokolwiek inny zobaczy, co się w nich kryje.

Dlaczego Trump nagle zmienił zdanie w sprawie AI?

Zmiana kursu o 180 stopni nie jest przypadkowa. Jeszcze rok temu wiceprezydent JD Vance grzmiał na konferencji w Paryżu, że “nadmierna regulacja sektora AI może zabić transformacyjny przemysł”. Dzisiaj administracja, która budowała swój wizerunek na deregulacji, zaczyna mówić językiem prewencji i kontroli. Wszystko wskazuje na to, że powodem są rosnące obawy o cyberbezpieczeństwo. Kroplą, która przelała czarę, mógł być model Mythos od Anthropic. Firma sama przyznała, że system jest tak skuteczny w wykrywaniu luk w oprogramowaniu, że jego publiczne udostępnienie mogłoby doprowadzić do “cybernetycznego przesilenia”. W efekcie Mythos nigdy nie ujrzał światła dziennego, ale skutecznie pobudził wyobraźnię waszyngtońskich urzędników.

Według informacji “New York Timesa”, administracja panicznie boi się scenariusza, w którym zaawansowany model AI trafia w niepowołane ręce i zostaje użyty do zmasowanego ataku na amerykańską infrastrukturę krytyczną. To już nie jest science fiction, ale realne zagrożenie, które zmusza nawet największych zwolenników wolnego rynku do refleksji. Rząd analizuje również potencjalne zastosowania takich systemów przez Pentagon i agencje wywiadowcze, co tylko dolewa oliwy do ognia.

Jak dokładnie będzie wyglądać rządowa kontrola?

Na mocy nowych porozumień, Google, Microsoft i xAI Elona Muska zgodziły się udostępniać wczesne wersje swoich modeli AI rządowi jeszcze przed ich publiczną premierą. Dołączają tym samym do OpenAI i Anthropic, które podobne umowy podpisały jeszcze za kadencji Joe Bidena. Za testowanie systemów odpowiadać będzie Centrum dla standardów AI i innowacji (CAISI), działające przy Departamencie Handlu. To właśnie jego eksperci otrzymają dostęp do modeli z ograniczonymi lub całkowicie zdjętymi zabezpieczeniami. Ich zadanie? Sprawdzić, czy algorytmy nie posiadają ukrytych zdolności, które mogłyby zagrozić bezpieczeństwu narodowemu.

Chris Fall, dyrektor CAISI, ujął to dyplomatycznie: “niezależne i rygorystyczne pomiary są kluczowe dla zrozumienia najbardziej zaawansowanych systemów AI i ich wpływu na bezpieczeństwo narodowe”. W praktyce oznacza to agresywny “red teaming” – próby złamania modeli i wykorzystania ich w najczarniejszych scenariuszach. CAISI pochwaliło się już przeprowadzeniem ponad 40 takich ocen, w tym na modelach, które nigdy nie zostały opublikowane. Co więcej, Biały Dom rozważa utworzenie specjalnej grupy roboczej, która mogłaby wprowadzić formalny proces przeglądu każdego nowego modelu, przypominający brytyjski system nadzoru.

Kto tu gra, a kto tylko udaje?

Sytuację komplikuje fakt, że relacje między rządem a niektórymi firmami AI są, delikatnie mówiąc, napięte. Przykładem jest otwarty konflikt Pentagonu z Anthropic, który dotyczył kontraktu wartego 200 milionów dolarów i zasad wykorzystania AI przez wojsko. Po zerwaniu współpracy Anthropic pozwał rząd USA, co nie przeszkadza służbom w dalszym ciągu korzystać z technologii firmy, chociażby w systemie Maven do analizy danych wywiadowczych.

Podpisanie porozumień przez Google, Microsoft i xAI można więc odczytywać jako ruch wyprzedzający. Giganci technologiczni doskonale zdają sobie sprawę, że wiatr wieje w stronę regulacji. Wolą dobrowolnie współpracować i dać rządowi poczucie kontroli, niż ryzykować narzucenie im z góry znacznie bardziej restrykcyjnych i uciążliwych przepisów. To pragmatyczna gra, w której każdy próbuje ugrać jak najwięcej dla siebie. Dla firm to sposób na uniknięcie twardego prawa. Dla rządu – szansa na realny wgląd w technologię, która może wkrótce zmienić świat bardziej niż internet. A my, użytkownicy, stoimy z boku, obserwując ten fascynujący spektakl.