Skip to content Skip to sidebar Skip to footer

Koniec Sama Altmana? W OpenAI wrze, atmosfera puczu i szokujące oskarżenia

Bunt w OpenAI. Reportaż “The New Yorker” ujawnia, że szef firmy, Sam Altman, jest oskarżany o manipulacje i lekceważenie bezpieczeństwa. Zaufanie zostało utracone.

W skrócie:

  • Reportaż “The New Yorker”, oparty na ponad stu rozmowach, ujawnia, że Sam Altman stracił zaufanie kluczowych pracowników OpenAI, którzy oskarżają go o manipulacje.
  • Kluczowe zarzuty dotyczą priorytetyzacji komercjalizacji nad bezpieczeństwem, czego dowodem miało być m.in. forsowanie premiery GPT‑4 wbrew wewnętrznym procedurom.
  • Byli liderzy zespołów, jak Ilya Sutskever czy Jan Leike, dokumentowali “wzorzec zachowań” Altmana, a niektórzy, jak Leike, opuścili firmę, przechodząc do konkurencji.

Pod koniec 2023 roku Dolina Krzemowa na kilka dni zamarła. Usunięcie Sama Altmana ze stanowiska CEO OpenAI wyglądało jak scena z serialu o korporacyjnych wojnach, a nie realne wydarzenie w firmie, która miała zbawić świat. Altman wrócił na tron po pięciu dniach chaosu, ale kurz nigdy tak naprawdę nie opadł. Teraz, dzięki obszernemu reportażowi w “The New Yorker”, dowiadujemy się, dlaczego. Dziennikarze, po rozmowach z ponad setką osób z otoczenia firmy, malują obraz lidera, który systematycznie traci zaufanie własnego zespołu. I to nie z powodu jednej wpadki, ale całego wzorca niepokojących zachowań.

Dlaczego Sam Altman stracił zaufanie?

Zaufanie to waluta, której nie da się wydrukować. Sam Altman najwyraźniej o tym zapomniał. Z materiału wynika, że już w 2023 roku ówczesny główny naukowiec OpenAI, Ilya Sutskever, nie rzucał słów na wiatr. Przygotował wewnętrzne notatki dokumentujące to, co określił jako “wzorzec zachowań” Altmana, obejmujący manipulacje i wprowadzanie w błąd kluczowych osób w firmie. Sutskever miał wprost stwierdzić, że Altman nie jest odpowiednią osobą, by “trzymać rękę na przycisku” technologii, która może zmienić losy ludzkości. To nie była jednorazowa histeria, lecz skrupulatnie budowany akt oskarżenia.

Problem nie leży w pojedynczym incydencie. Chodzi o serię sytuacji, które osobno można by zignorować, ale razem tworzą portret lidera, który mówi każdemu to, co ten chce usłyszeć. Jeden z rozmówców magazynu opisał to jako paradoks: Altman za wszelką cenę chce być lubiany, a jednocześnie kompletnie ignoruje konsekwencje swoich kłamstw. Podobne wnioski formułował Dario Amodei, były szef badań w OpenAI, a dziś szef konkurencyjnego Anthropic. W swoich notatkach przez lata pisał wprost: “problemem OpenAI jest sam Sam”. Co najciekawsze, Sutskever i Amodei, reprezentujący dwa różne skrzydła debaty o AI, doszli do identycznych wniosków na temat stylu zarządzania swojego szefa. To daje do myślenia.

Bezpieczeństwo? To tylko marketing

Najcięższe oskarżenia dotyczą jednak kwestii fundamentalnej dla misji OpenAI – bezpieczeństwa. Firma publicznie kreuje się na odpowiedzialnego strażnika AGI (sztucznej inteligencji ogólnej), podkreślając rozwój “zorientowany na ludzi”. Tymczasem z relacji pracowników wynika, że dla Altmana to często tylko fasada. Miał wielokrotnie forsować decyzje, które faworyzowały tempo i komercjalizację kosztem solidnych procedur bezpieczeństwa.

Sztandarowym przykładem jest premiera modelu GPT‑4. Altman miał rzekomo zapewniać zarząd, że wszystkie kluczowe funkcje przeszły wewnętrzne testy bezpieczeństwa. Weryfikacja pokazała coś innego. Część mechanizmów wdrożeniowych nie miała zielonego światła. To nie było niedopatrzenie, to była świadoma gra. Inny przykład to głośny projekt “superalignment”, czyli prace nad kontrolą przyszłych, superinteligentnych systemów. OpenAI publicznie deklarowało przeznaczenie na ten cel potężnej mocy obliczeniowej. W praktyce zespół dostał zasoby wielokrotnie mniejsze, a przydzielona im infrastruktura należała do najstarszej i najmniej wydajnej w firmie. To jakby strażakom do gaszenia wieżowca dać wiadro i konewkę.

Kto ucieka z tonącego okrętu?

Takie działania musiały wywołać reakcję. Jan Leike, jeden z liderów zespołu bezpieczeństwa, w wewnętrznej korespondencji pisał, że OpenAI zaczyna “odchodzić od swojej misji”, a produkt i przychody stały się ważniejsze od odpowiedzialności. Niedługo potem, w 2024 roku, Leike odszedł. Gdzie? Do Anthropic, firmy założonej przez wspomnianego Dario Amodei. To już nie jest zwykła rotacja kadr, to exodus ludzi, którzy stali u podstaw idei bezpiecznego AI w OpenAI.

Historia z 2023 roku nie była przypadkiem. Była objawem głębokiego kryzysu, który wciąż tli się pod powierzchnią. Sam Altman odzyskał stanowisko, ale nie odzyskał – jak widać – pełnego zaufania. Jeśli rośnie grupa ekspertów, którzy nie wierzą w jego publiczne deklaracje, to w siedzibie OpenAI tyka bomba zegarowa. I tym razem nawet interwencja potężnego Satyi Nadelli z Microsoftu może nie wystarczyć, by zapobiec detonacji.