Skip to content Skip to sidebar Skip to footer

Wielka Brytania tworzy globalnego “audytora” dla AI

Wielka Brytania uruchamia AI Safety Institute, pierwszy na świecie państwowy organ do badania bezpieczeństwa AI. Ma testować modele pod kątem zagrożeń dla ludzkości.

W skrócie:

  • Rząd Wielkiej Brytanii powołał AI Safety Institute, który jako pierwszy na świecie państwowy organ zajmie się testowaniem zaawansowanych modeli sztucznej inteligencji pod kątem bezpieczeństwa.
  • Na czele instytucji stanął Ian Hogarth, ceniony inwestor i ekspert od AI. Instytut będzie współpracował z partnerami z USA w ramach nowo podpisanej umowy o współpracy.
  • Głównym celem jest ocena ryzyka związanego z AI, w tym zagrożeń dla bezpieczeństwa narodowego i dezinformacji, jeszcze przed publicznym udostępnieniem nowej technologii.

W świecie, który z zapartym tchem obserwuje wyścig zbrojeń na polu sztucznej inteligencji, ktoś w końcu postanowił wcisnąć hamulec. A przynajmniej zbudować dla niego porządny system diagnostyczny. Rząd Wielkiej Brytanii, tuż po zakończeniu historycznego szczytu AI Safety Summit w Bletchley Park, ogłosił powołanie AI Safety Institute (AISI) – pierwszej na świecie państwowej instytucji, której jedynym zadaniem będzie prześwietlanie najpotężniejszych modeli AI, zanim te trafią w ręce publiczności. To ruch, który może na zawsze zmienić zasady gry w Dolinie Krzemowej. Koniec z filozofią “move fast and break things”. Zaczyna się era “move fast and don’t break the world”.

Dlaczego świat potrzebuje “audytora” dla AI?

Odpowiedź jest prostsza, niż się wydaje. Obecnie najbardziej zaawansowane modele, takie jak te tworzone przez OpenAI, Google DeepMind czy Anthropic, działają na zasadzie “czarnej skrzynki”. Nawet ich twórcy nie do końca rozumieją, dlaczego AI podejmuje określone decyzje. Taka nieprzewidywalność, połączona z wykładniczym wzrostem mocy obliczeniowej, rodzi scenariusze, które dotąd znaliśmy głównie z kina. Mówimy tu o ryzyku wykorzystania AI do projektowania broni biologicznej, przeprowadzania zmasowanych cyberataków czy generowania dezinformacji na skalę, która mogłaby zdestabilizować całe państwa.

Premier Rishi Sunak, ogłaszając powstanie instytutu, nie owijał w bawełnę. Stwierdził, że Wielka Brytania bierze na siebie odpowiedzialność za “zrozumienie i zarządzanie ryzykiem związanym z najbardziej przełomową technologią naszych czasów”. To nie jest już tylko technologiczna ciekawostka. To kwestia bezpieczeństwa narodowego. Instytut ma działać jako globalny autorytet, dostarczając rządom i społeczeństwu obiektywnych, naukowych dowodów na temat możliwości i zagrożeń płynących z najnowszych modeli AI. Będzie miał dostęp do modeli – często jeszcze przed ich premierą – dzięki dobrowolnej współpracy z wiodącymi firmami technologicznymi.

Kto stoi za sterami i jakie ma zadania?

Na czele AISI stanął Ian Hogarth, postać doskonale znana w świecie technologii. To ceniony inwestor, anioł biznesu, a przede wszystkim współautor corocznego raportu “State of AI Report”, który stał się biblią dla każdego, kto chce zrozumieć, co dzieje się w branży. Jego nominacja to sygnał, że instytut ma być prowadzony przez kogoś z głębokim zrozumieniem tematu, a nie przez politycznego nominata. Hogarth ma zapewnić bezstronność i merytoryczne podejście.

Zadania instytutu podzielono na trzy główne filary:

  1. Testowanie modeli pod kątem nadużyć. Sprawdzanie, czy AI można łatwo wykorzystać do celów przestępczych lub wrogich.
  2. Badanie ryzyka społecznego. Analiza, jak modele wpływają na dezinformację, stronniczość (bias) czy dyskryminację.
  3. Ocena utraty kontroli. To najbardziej futurystyczny, ale i najważniejszy element – badanie scenariuszy, w których ludzkość mogłaby stracić kontrolę nad superinteligencją.

Co kluczowe, instytut ma działać niezależnie od presji komercyjnej. Jego celem nie jest hamowanie innowacji, ale upewnienie się, że rozwój AI przebiega w sposób bezpieczny i kontrolowany. “Nie możemy pozwolić, by wyścig o zyski przesłonił nam fundamentalne pytania o bezpieczeństwo” – zdaje się mówić brytyjski rząd.

Transatlantycki sojusz na rzecz bezpieczeństwa. Co to oznacza w praktyce?

Inicjatywa brytyjska szybko zyskała potężnego sojusznika. Niemal równocześnie z ogłoszeniem powstania AISI, sekretarz ds. technologii Michelle Donelan oraz wiceprezydent USA Kamala Harris podpisały przełomowe porozumienie. Stany Zjednoczone, przez swój własny, nowo utworzony US AI Safety Institute, będą ściśle współpracować z Brytyjczykami. Celem jest stworzenie wspólnych standardów i narzędzi do testowania modeli AI.

W praktyce oznacza to narodziny pierwszego globalnego sojuszu na rzecz regulacji i kontroli sztucznej inteligencji. Zamiast tworzyć dziesiątki różnych, niekompatybilnych ze sobą systemów prawnych, dwa mocarstwa technologiczne postanowiły połączyć siły. To potężny sygnał dla reszty świata – zwłaszcza dla Chin – że Zachód zamierza wyznaczać globalne standardy w tej dziedzinie. Współpraca ma obejmować wymianę ekspertów, danych badawczych, a nawet wspólne testowanie tych samych modeli. To próba zbudowania fundamentów pod globalny ład technologiczny, zanim będzie za późno. Pozostaje tylko pytanie, czy technologia nie wyprzedzi regulacji. Wyścig trwa.