Mo Gawdat, były dyrektor ds. biznesowych w Alphabet, nie bawi się w dyplomację. W rozmowie z „Diary of a CEO” maluje obraz przyszłości, w którym sztuczna inteligencja staje się katalizatorem upadku kluczowych wartości. Jego zdaniem od 2027 roku czeka nas nawet 15 lat moralnego regresu. I wbrew marketingowym obietnicom, AI nie wyzwoli ludzi od pracy, a raczej wzmocni władzę korporacji nad światem.
W skrócie
- Mo Gawdat, były dyrektor w Alphabet, ostrzega, że AI grozi długotrwałą, dystopijną przyszłością.
- Kryzys wartości ma rozpocząć się w 2027 r. i potrwać nawet 15 lat.
- AI „uwypukla problemy społeczne”, takie jak nierówności czy koncentracja władzy.
- Obietnica odciążenia pracowników jest, zdaniem Gawdata, iluzją, a celem jest zysk firm.
„To nie science fiction. To plan na życie”
Gawdat w podcaście Stevena Bartletta mówi bez ogródek: AI zmienia świat szybciej, niż jesteśmy w stanie to zrozumieć. Jego wizja? Upadek wartości takich jak wolność, odpowiedzialność czy więzi międzyludzkie. I to nie za sto lat. Według niego proces zacznie się już za dwa lata.
Były menedżer Google twierdzi, że to, co teraz widzimy, to dopiero preludium. „To będzie świat dla nas zupełnie nieznany”, stwierdza. I nie jest to zachwyt, a ostrzeżenie.
AI jako lupa na problemy społeczne
Gawdat podkreśla, że sama AI nie jest źródłem zła. Problemem jest to, w czyich rękach się znajduje i jakie cele realizuje. Jego zdaniem działa jak lupa: wyostrza i przyspiesza procesy, które już w nas drzemią.
Jednym z przykładów jest rynek pracy. Przez lata słyszeliśmy, że AI uwolni nas od żmudnych zadań. Gawdat kontruje: w praktyce to narzędzie do maksymalizacji zysków i redukcji etatów.
15 lat mrocznej ery
Według prognozy Gawdata lata 2027 – 2042 to czas, w którym technologia przedefiniuje relacje międzyludzkie i strukturę władzy. Jeśli nic się nie zmieni, dominacja wielkich korporacji stanie się jeszcze większa, a kontrola nad danymi i decyzjami — totalna.
Czy jest ratunek? Były dyrektor Google nie daje łatwych recept. Ale sugeruje, że pierwszym krokiem jest uświadomienie sobie, że to nie AI jest wrogiem, tylko sposób, w jaki ją wdrażamy.
