Czy AI zniszczy ludzkość? Geoffrey Hinton, „ojciec chrzestny AI”, mówi „tak”. Ale 5 innych ekspertów właśnie go zakwestionowało. Poznaj prawdę o największym zagrożeniu.
W skrócie:
- Geoffrey Hinton, jeden z pionierów AI i laureat Nagrody Nobla, stwierdził, że istnieje od 10 do 20% szans na to, że sztuczna inteligencja doprowadzi do zagłady ludzkości.
- W odpowiedzi na te tezy, pięciu ekspertów z australijskich uniwersytetów oceniło to ryzyko na łamach magazynu The Conversation, a trzech z nich jednoznacznie odrzuciło apokaliptyczną wizję.
- Debata pokazuje głęboki rozłam w świecie nauki – podczas gdy jedni ostrzegają przed superinteligencją, drudzy wskazują, że to odwraca uwagę od realnych i bieżących problemów z AI.
Geoffrey Hinton, postać-legenda, człowiek, którego prace stały się fundamentem rewolucji AI, rzucił bombę. W jednym z wywiadów stwierdził, że istnieje od 10 do 20% szans, że sztuczna inteligencja wymknie się spod kontroli i doprowadzi do ekstynkcji gatunku ludzkiego w ciągu najbliższych trzech dekad. To nie jest cytat z niskobudżetowego filmu science fiction, ale słowa człowieka, który wie o sieciach neuronowych więcej niż ktokolwiek inny. I właśnie dlatego świat zamarł. Gdy „ojciec chrzestny AI” mówi, że jego „dziecko” może zniszczyć świat, trudno to zignorować. Ale czy na pewno trzeba biec do schronu?
Jak poważnie traktować proroctwa o buncie maszyn?
Panika wokół AI rośnie wprost proporcjonalnie do możliwości modeli takich jak ChatGPT, Gemini czy Copilot. Każdy nowy produkt, każda kolejna funkcja zdaje się przybliżać nas do mitycznej „osobliwości” – punktu, w którym maszyny przewyższą intelektualnie swoich twórców. Wizja superinteligencji, która mogłaby uznać ludzkość za przeszkodę (albo, co gorsza, za nieistotny zasób), rozpala wyobraźnię i – jak widać – nie tylko scenarzystów z Hollywood. Słowa Hintona nadały tej obawie naukową pieczęć. Problem w tym, że w nauce rzadko kiedy panuje jednomyślność. Zwłaszcza gdy rozmawiamy o przyszłości, której jeszcze nie ma. I która, być może, nigdy nie nadejdzie.
Kto odważył się powiedzieć „sprawdzam”?
Na szczęście nie wszyscy dali się porwać apokaliptycznej narracji. Redakcja prestiżowego magazynu The Conversation postanowiła zadać to samo pytanie pięciu innym ekspertom. Bez owijania w bawełnę: czy AI stanowi ryzyko egzystencjalne? Na panel odpowiedzieli naukowcy z czołowych australijskich ośrodków, m.in. Aaron J. Snoswell z Queensland University of Technology, Sarah Vivienne Bentley z CSIRO oraz Simon Coghlan z The University of Melbourne. Ich werdykt? Chłodny prysznic dla wszystkich „doomerów”. Aż trzech z pięciu zapytanych specjalistów odpowiedziało jednoznacznie: „nie”. Uważają oni, że scenariusz buntu maszyn jest w najlepszym razie odległą i mało prawdopodobną hipotezą. Wskazują, że obecne systemy AI, pomimo swoich imponujących zdolności, są wciąż tylko narzędziami – bardzo zaawansowanymi, ale pozbawionymi świadomości, intencji czy prawdziwego rozumienia świata. To potężne kalkulatory, a nie cyfrowi bogowie w poczekalni.
Jeśli nie zagłada, to co? Prawdziwe problemy, które ignorujemy
Odrzucenie wizji rodem z „Terminatora” nie oznacza, że możemy spać spokojnie. Wręcz przeciwnie. Krytycy alarmistycznego tonu Hintona – w tym wspomniana trójka sceptyków – argumentują, że obsesja na punkcie hipotetycznej superinteligencji odwraca uwagę od problemów, które są tu i teraz. Mówimy o masowej dezinformacji generowanej przez AI, o algorytmicznych uprzedzeniach, które utrwalają społeczne nierówności, o wpływie automatyzacji na rynek pracy czy o zastosowaniu autonomicznych systemów w wojskowości. To nie są problemy z odległej przyszłości. To wyzwania, z którymi mierzymy się już dzisiaj, a które wymagają natychmiastowych regulacji i etycznych ram. Być może największym zagrożeniem nie jest to, że AI pewnego dnia nas znienawidzi, ale to, że już teraz używamy jej w sposób nieodpowiedzialny, bezrefleksyjny i potencjalnie szkodliwy. Dyskusja trwa, a konsensusu jak nie było, tak nie ma. Jedno jest pewne – zamiast wypatrywać cyfrowego antychrysta, może lepiej posprzątać na własnym, technologicznym podwórku.