Miliarder Barry Diller broni Sama Altmana z OpenAI, ale ostrzega: prawdziwym problemem nie jest zaufanie do liderów AI, lecz nieprzewidywalne skutki tej technologii.
W skrócie:
- Barry Diller, magnat medialny, nazwał Sama Altmana “przyzwoitą osobą o dobrych wartościach”, odpierając publiczne zarzuty o jego rzekomą manipulację i oszustwa.
- Zdaniem Dillera, zaufanie do twórców AI jest drugorzędne. Kluczowe jest to, że nawet oni nie są w stanie przewidzieć konsekwencji swoich działań, zwłaszcza w kontekście AGI.
- Miliarder zaapelował o pilne stworzenie “poręczy” (guardrails) dla AI, zanim sztuczna ogólna inteligencja sama je narzuci, co będzie procesem nieodwracalnym.
W ostatnich tygodniach Sam Altman, CEO OpenAI, znów znalazł się pod ostrzałem. Byli członkowie zarządu i kluczowi pracownicy (jak Jan Leike) zarzucali mu skłonności do manipulacji i brak transparentności. W atmosferze rosnącej nieufności głos zabrał ktoś z zupełnie innej bajki – miliarder i magnat medialny Barry Diller. Podczas konferencji “Future of Everything” organizowanej przez The Wall Street Journal, współtwórca Fox Broadcasting nie tylko stanął w obronie Altmana, ale też brutalnie sprowadził dyskusję na właściwe, znacznie bardziej niepokojące tory.
Dlaczego zaufanie do Altmana to zły adres?
Diller, który prywatnie przyjaźni się z Altmanem, odpowiedział na pytanie o to, czy możemy powierzyć szefowi OpenAI misję zapewnienia, że sztuczna inteligencja przyniesie ludzkości korzyści. Jego odpowiedź mogła zaskoczyć. Stwierdził, że wierzy w szczerość intencji Altmana, nazywając go “przyzwoitą osobą z dobrymi wartościami”. Ale zaraz potem dodał, że to kompletnie nie ma znaczenia. Prawdziwy problem leży gdzie indziej.
“Jedna z wielkich kwestii związanych z AI polega na tym, że wykracza ona daleko poza zaufanie” – powiedział Diller. “Może się okazać, że zaufanie jest nieistotne, ponieważ rzeczy, które się dzieją, są zaskoczeniem dla ludzi, którzy je tworzą”. To zdanie powinno dać do myślenia. Diller, który spędził sporo czasu z pionierami AI, relacjonuje, że oni sami czują coś na kształt zdumienia, obserwując efekty swojej pracy. “To wielka niewiadoma. My nie wiemy. Oni nie wiedzą” – podsumował bez ogródek.
AGI, czyli wielka niewiadoma tuż za rogiem
Centralnym punktem jego obaw jest AGI – sztuczna ogólna inteligencja, która pewnego dnia mogłaby przewyższyć człowieka w każdym możliwym zadaniu. To już nie jest science fiction z odległej przyszłości. “Jesteśmy blisko. Jeszcze nie dotarliśmy na miejsce, ale zbliżamy się coraz bliżej i coraz szybciej” – stwierdził. Ta perspektywa sprawia, że osobiste cechy liderów Doliny Krzemowej stają się drugorzędne wobec siły, którą próbują okiełznać.
Diller nie ma wątpliwości co do skali nadchodzących zmian. “Wkroczyliśmy w coś, co zmieni prawie wszystko. To nie jest temat niedostatecznie nagłośniony” – mówił, dodając, że nie interesuje go, czy gigantyczne inwestycje w AI się zwrócą. Postęp i tak nastąpi. Cały problem polega na tym, że nikt – nawet najtęższe umysły z OpenAI, Google czy Anthropic – nie wie, co dokładnie wydarzy się po drugiej stronie.
Kto napisze zasady gry: my czy “inna siła”?
Skoro więc stoimy w obliczu nieznanego, co możemy zrobić? Diller ma jedną, konkretną radę: musimy myśleć o “poręczach” (guardrails), czyli mechanizmach kontrolnych i zabezpieczeniach. I musimy to zrobić teraz. Jego argumentacja jest prosta i przerażająca. Jeśli ludzie nie zdefiniują granic dla AI, zrobi to “inna siła, siła AGI”.
“A kiedy to się stanie, kiedy to uwolnimy, nie będzie już powrotu” – ostrzegł. To wizja, w której ludzkość traci inicjatywę na rzecz autonomicznego bytu, który sam zacznie dyktować warunki. W tym kontekście debata o tym, czy Sam Altman jest szczery, czy nie, wydaje się niemal trywialna. Bo jak zauważył Diller, problemem nie jest intencja sterników. Problemem jest to, że statek, którym sterują, płynie w stronę absolutnie nieznanego oceanu, a oni sami nie mają pojęcia, jakie sztormy ich tam czekają. I co gorsza, nie mają nawet mapy.