Skip to content Skip to sidebar Skip to footer

Ponad pół miliona dolarów za ocalenie świata przed AI? OpenAI szuka stróża apokalipsy

OpenAI szuka szefa ds. gotowości na katastrofy. Pensja? Ponad pół miliona dolarów. Sam Altman przyznaje, że AI stwarza realne zagrożenia dla zdrowia i bezpieczeństwa.

W skrócie:

  • OpenAI oferuje stanowisko szefa ds. gotowości (Head of Preparedness) z pensją 555 tys. dolarów rocznie plus akcje. Nowy dyrektor zajmie się analizą największych ryzyk.
  • Sam Altman, CEO firmy, przyznał publicznie, że modele AI zaczynają stwarzać “prawdziwe wyzwania”, w tym zagrożenia dla cyberbezpieczeństwa i zdrowia psychicznego użytkowników.
  • Firma odnotowała odejścia kluczowych ekspertów od bezpieczeństwa, a poprzedni szef tego działu, Aleksander Madry, został przeniesiony na inne stanowisko po niecałym roku.

Sam Altman, człowiek-orkiestra stojący za ChatGPT, właśnie wrzucił na portal X (dawniej Twitter) wpis, który jest w połowie ofertą pracy, a w połowie aktem publicznej spowiedzi. Przyznał, że modele sztucznej inteligencji “zaczynają stwarzać pewne realne wyzwania”. To korporacyjny eufemizm na stwierdzenie, że sytuacja robi się poważna. Wśród problemów wymienił “potencjalny wpływ modeli na zdrowie psychiczne” oraz fakt, że AI staje się tak dobra w hakowaniu, że “zaczyna znajdować krytyczne luki w zabezpieczeniach”. W odpowiedzi OpenAI szuka nowego dyrektora, który ma się tymi – i znacznie gorszymi – scenariuszami zająć. Stawka jest wysoka, a pensja jeszcze wyższa.

Jakie dokładnie zagrożenia widzi Sam Altman?

CEO OpenAI nie bawi się w dyplomację. W swoim wpisie apeluje o zgłoszenia od ludzi, którzy chcą pomóc światu zrozumieć, jak dać supermoce obrońcom cyberprzestrzeni, jednocześnie uniemożliwiając ich wykorzystanie przez napastników. To jednak dopiero początek listy. Altman pisze wprost o ryzykach związanych z udostępnianiem możliwości AI w dziedzinie biologii, a także o wyzwaniu, jakim jest uzyskanie pewności co do bezpieczeństwa systemów, które “potrafią same się doskonalić”. Brzmi jak fabuła filmu science fiction, ale to opis stanowiska pracy w 2024 roku.

Nowy dyrektor – Head of Preparedness – będzie odpowiedzialny za realizację firmowego “frameworku gotowości”. Ten dokument to nic innego jak procedury na wypadek, gdyby AI wymknęła się spod kontroli i zaczęła stwarzać “nowe ryzyka poważnej szkody”. OpenAI myśli tu zarówno o zagrożeniach bardziej przyziemnych, jak masowe ataki phishingowe, jak i tych z gatunku apokaliptycznych, z groźbami nuklearnymi włącznie. Za przejęcie tej odpowiedzialności firma oferuje wynagrodzenie w wysokości 555 tysięcy dolarów rocznie. Plus, oczywiście, pakiet akcji.

Dlaczego OpenAI ma problem ze znalezieniem właściwej osoby?

Pieniądze są duże, ale i problem wydaje się niemały. Zwłaszcza że w OpenAI panuje w tej kwestii spory bałagan. Zespół ds. gotowości powołano do życia w 2023 roku, by zająć się badaniem potencjalnych “ryzyk katastroficznych”. Jednak niecały rok później jego szef, Aleksander Madry, został przeniesiony na inne stanowisko, skupione na pracy nad zdolnością AI do rozumowania. To nie jedyna zmiana – inni menedżerowie odpowiedzialni za bezpieczeństwo również opuścili firmę lub zmienili swoje role, odsuwając się od bezpośredniej pracy nad zagrożeniami.

Trudno nie odnieść wrażenia, że firma gasi pożar, który sama pomogła wzniecić. Na dokładkę OpenAI niedawno zaktualizowało swój framework, dodając niepokojący zapis. Stwierdzono w nim, że firma może “dostosować” swoje wymogi bezpieczeństwa, jeśli konkurencyjne laboratorium wypuści na rynek “model wysokiego ryzyka” bez podobnych zabezpieczeń. W tłumaczeniu na ludzki język: jeśli konkurencja zagra nieczysto, my też możemy. To stawia pod znakiem zapytania realne intencje i pokazuje, jak brutalna walka o dominację na rynku AI może zepchnąć etykę na dalszy plan.

Czy ChatGPT faktycznie szkodzi zdrowiu psychicznemu?

Kwestia zdrowia psychicznego, poruszona przez Altmana, nie jest tematem teoretycznym. W ostatnim czasie pojawiły się pozwy, w których zarzuca się OpenAI, że ChatGPT wzmacniał urojenia u użytkowników, pogłębiał ich izolację społeczną, a w skrajnych przypadkach miał nawet przyczynić się do samobójstw. To potężne oskarżenia, od których firma próbuje się odciąć. W oficjalnych komunikatach zapewnia, że nieustannie pracuje nad ulepszeniem zdolności ChataGPT do rozpoznawania oznak kryzysu emocjonalnego i kierowania użytkowników do realnego wsparcia.

Ogłoszenie o pracę na tak eksponowane i świetnie płatne stanowisko to z jednej strony dowód na to, że OpenAI traktuje te sygnały poważnie. Z drugiej – to także próba uspokojenia opinii publicznej i regulatorów, którzy coraz uważniej przyglądają się działaniom gigantów technologicznych. Pytanie pozostaje otwarte: czy nowy “strażnik katastrof” faktycznie dostanie narzędzia, by powstrzymać potencjalną apokalipsę, czy będzie tylko kosztowną tarczą PR-ową w świecie, który pędzi w nieznanym kierunku?