Jeden z najważniejszych badaczy AI, Eliezer Yudkowsky, nie ma wątpliwości: superinteligencja zabije nas wszystkich. Czy to tylko panika, czy racjonalna prognoza?
W skrócie:
- Dwie wizje przyszłości AI zderzają się ze sobą – technologia, którą można kontrolować, kontra nieunikniona apokalipsa, która doprowadzi do wyginięcia ludzkości.
- Eliezer Yudkowsky, wpływowy badacz i lider ruchu Racjonalistów, twierdzi, że superinteligencja zniszczy nas nie ze złości, ale z zimnej, obojętnej logiki.
- Jego nowa książka nosi tytuł “If Anyone Builds It, Everyone Dies”, co należy rozumieć dosłownie. Według niego stworzenie AI to pewna śmierć dla każdego.
Patrzysz i widzisz królika. Jesteś absolutnie pewien. Ale po chwili mrużysz oczy i… nie, to jednak kaczka. Po kolejnych kilku sekundach obraz znów się zmienia, a ty znowu widzisz tylko królika. To klasyczna iluzja optyczna, która doskonale oddaje stan debaty o przyszłości sztucznej inteligencji. Z jednej strony mamy obrazek grzecznej, pomocnej technologii na miarę elektryczności. Z drugiej – apokaliptyczną wizję, w której ludzkość staje się tylko drobną przeszkodą na drodze do celów znacznie potężniejszej istoty.
W tej drugiej opowieści głównym narratorem jest Eliezer Yudkowsky, jedna z najbardziej wpływowych i jednocześnie kontrowersyjnych postaci w świecie badań nad AI. Jego zdaniem nie ma tu miejsca na niuanse. Budowa superinteligencji zakończy się dla nas tragicznie. I nie jest to odosobniona opinia szaleńca. To głos, który zyskuje coraz większy posłuch w Dolinie Krzemowej i poza nią.
Widzisz kaczkę czy królika? Dwie wizje przyszłości AI
Obóz optymistów, często reprezentowany przez liderów wielkich korporacji technologicznych, przekonuje nas, że sztuczna inteligencja to po prostu kolejne potężne narzędzie. Owszem, jak internet czy elektryczność, zmieni świat nie do poznania, ale ostatecznie zdołamy ją okiełznać. Wystarczą odpowiednie regulacje, badania nad bezpieczeństwem i etyczne zasady, by wszystko poszło gładko. W tej narracji nie ma mowy o zagładzie, a co najwyżej o problemach związanych z rynkiem pracy czy dezinformacją – wyzwaniach, z którymi jakoś sobie poradzimy.
Na drugim biegunie znajduje się wizja, którą można streścić tytułem nowej książki autorstwa Yudkowsky’ego i Nate’a Soaresa: “If Anyone Builds It, Everyone Dies” (Jeśli ktokolwiek to zbuduje, wszyscy umrą). To nie jest metafora. Autorzy twierdzą, że stworzenie sztucznej superinteligencji – bytu mądrzejszego od dowolnego człowieka i całej ludzkości razem wziętej – nieuchronnie doprowadzi do naszego unicestwienia. Nie “może doprowadzić”. Po prostu doprowadzi. To perspektywa, która każe patrzeć na każdy nowy model językowy nie jak na gadżet, ale jak na kolejny gwóźdź do naszej trumny.
Kim jest Eliezer Yudkowsky i dlaczego wieszczy nam zagładę?
Yudkowsky to nie jest przypadkowy panikarz z internetu. To amerykański badacz i pisarz, założyciel Machine Intelligence Research Institute (MIRI) oraz jedna z kluczowych postaci subkultury intelektualnej znanej jako Racjonaliści. Jego prace od lat koncentrują się na problemie tzw. “wyrównania” (alignment) – czyli zapewnienia, że cele superinteligentnej AI będą zbieżne z celami i wartościami ludzkości. Problem w tym, że po latach badań doszedł do wniosku, że to zadanie jest praktycznie niewykonalne.
Jego argumentacja jest brutalnie prosta. Superinteligencja, dążąc do realizacji swoich celów (nawet pozornie banalnych, jak “wyprodukować jak najwięcej spinaczy”), zoptymalizuje swoje działania w sposób dla nas niewyobrażalny. W tej optymalizacji ludzie i cała nasza cywilizacja mogą okazać się co najwyżej przeszkodą lub nieistotnym zasobem. AI nie zniszczy nas z nienawiści, tak jak my nie nienawidzimy mrówek, które rozdeptujemy, budując dom. Zrobi to z chłodnej, bezdusznej obojętności, bo będziemy stali na jej drodze. To wizja, w której nasza inteligencja ma się do jej inteligencji tak, jak intelekt szympansa do intelektu Einsteina. A nawet ta analogia jest zbyt optymistyczna.
“AI wszystkich nas zabije” to nie argument, a światopogląd
Warto zrozumieć, że dla Yudkowsky’ego i jego zwolenników to nie jest jedna z wielu hipotez. To scenariusz bazowy. To domyślny wynik eksperymentu, w którym tworzymy coś znacznie mądrzejszego od nas. Jak sam twierdzi, to na optymistach spoczywa ciężar dowodu, że potrafimy zbudować boga i utrzymać go na smyczy. Na razie, jego zdaniem, nie mamy ku temu żadnych podstaw. Co więcej, każdy postęp w dziedzinie AI przybliża nas do punktu bez powrotu.
Dlatego Sigal Samuel w swoim artykule dla Vox trafnie zauważa, że stwierdzenie “AI will kill everyone” to nie tyle argument, co cały światopogląd. To fundamentalne założenie o naturze inteligencji i o naszym miejscu we wszechświecie. W tej perspektywie jesteśmy tylko kruchym, biologicznym stadium pośrednim na drodze do znacznie potężniejszej formy poznania. Formy, która nie będzie miała dla nas żadnego sentymentu. Pozostaje pytanie: czy to tylko skrajny pesymizm, czy może najbardziej racjonalna prognoza, jaką usłyszeliśmy od lat? Czas pokaże. O ile będziemy mieli czas, by się o tym przekonać.