Skip to content Skip to sidebar Skip to footer

Microsoft ujawnia gorzką prawdę. Mamy chipy AI, ale brakuje nam… prądu

Microsoft ma dość chipów AI, by dokonać przełomu, ale nie może ich uruchomić. Satya Nadella ujawnił, że firmę blokuje brak prądu i gotowych centrów danych.

W skrócie:

  • Szef Microsoftu, Satya Nadella, przyznał, że firma posiada więcej kart graficznych do AI, niż jest w stanie podłączyć z powodu fundamentalnych niedoborów energii.
  • Problem rozwoju AI gwałtownie przesunął się z dostępności chipów na fizyczne ograniczenia infrastruktury energetycznej i brak gotowych do rozbudowy centrów danych.
  • Sam Altman z OpenAI ostrzega, że rozwój energooszczędnych modeli lokalnych może sprawić, że gigantyczne, energochłonne centra danych staną się nieopłacalne.

Wydawało się, że wyścig zbrojeń w świecie sztucznej inteligencji toczy się o krzem. Kto ma więcej procesorów graficznych, ten dyktuje warunki i trenuje potężniejsze modele. Jeszcze rok temu analitycy prześcigali się w szacunkach, ile kart NVIDIA H100 zamówiło OpenAI, ile zgromadził Microsoft, a ile w swoich magazynach upchnęło Google. Okazuje się, że to była zaledwie rozgrzewka. Prawdziwa gra toczy się o coś znacznie bardziej przyziemnego. O prąd.

Jak Microsoft zderzył się ze ścianą?

W szczerej do bólu rozmowie z Samem Altmanem w podcaście Bg2, Satya Nadella, CEO Microsoftu, rzucił bombę, która rezonuje w całej Dolinie Krzemowej. “Mam chipy, których nie mogę podłączyć – nie mam prądu ani gotowych centrów danych” – powiedział wprost. To zdanie to coś więcej niż chwilowa niedogodność. To symboliczny moment, w którym cyfrowa rewolucja uderzyła w twarde prawa fizyki. Microsoft, gigant technologiczny inwestujący miliardy w AI, ma w magazynach wystarczająco dużo mocy obliczeniowej, by pchnąć rozwój technologii o kolejny krok do przodu. Tyle że nie ma gdzie tej mocy podłączyć.

Nadella precyzuje, że problemem nie jest już podaż chipów, ale brak gotowej infrastruktury. “Długoterminowa tendencja jest taka, […] że największym problemem, z jakim obecnie się borykamy, nie jest nadmiar mocy obliczeniowej, ale energia” – wyjaśnił. To dramatyczna zmiana perspektywy. Oznacza, że wąskim gardłem rozwoju AI nie jest już innowacyjność inżynierów oprogramowania, ale tempo pracy energetyków i ekip budowlanych stawiających kolejne hale serwerowe. Giganci technologiczni, którzy do tej pory operowali w świecie niemal nieskończonych zasobów cyfrowych, nagle muszą planować swoje działania w oparciu o dostępność megawatów.

Czy bańka AI pęknie z powodu rachunków za prąd?

Sam Altman, siedzący obok Nadelli, dolał oliwy do ognia. Szef OpenAI, firmy odpowiedzialnej za ChatGPT, poszedł o krok dalej i nakreślił scenariusz, który powinien mrozić krew w żyłach inwestorów pompujących miliardy w centra danych. Co, jeśli kolejny przełom nie będzie polegał na budowie jeszcze większych modeli, ale na ich radykalnej miniaturyzacji? “Wyobraźmy sobie konsumenckie urządzenie, które potrafi lokalnie uruchomić model GPT‑5 lub GPT‑6. [Ta wizja] przeraża tych, którzy budują wielkie stosy obliczeniowe” – stwierdził Altman.

Jego słowa to potężne ostrzeżenie. Jeśli rozwój AI pójdzie w kierunku wydajnych, energooszczędnych modeli działających lokalnie – na smartfonach czy laptopach – to gigantyczne, energochłonne farmy serwerów mogą okazać się finansową katastrofą. Altman bez ogródek powiedział, że jeśli infrastruktura chmurowa nie zdąży przynieść zwrotu z inwestycji, zanim nastąpi ten przełom, wiele firm może zostać “mocno spalonych”. Nadella, choć sam jest królem chmury, zdaje się podzielać te obawy. “To nie będzie liniowy proces. Bańki pękają. I pękają wielokrotnie” – skwitował, przypominając, że historia technologii jest pełna kosztownych, ślepych zaułków.

Co dalej, gdy inteligencja tanieje, a energia drożeje?

Pomimo tych egzystencjalnych wątpliwości, obaj liderzy trzymają się optymistycznej wizji. Wierzą, że fundamentalny koszt “jednostki inteligencji” będzie systematycznie spadał, co w efekcie napędzi globalny wzrost gospodarczy. To piękna perspektywa, która ma jednak jeden, brutalnie materialny warunek: musimy znaleźć sposób, by to wszystko zasilić. Obecnie apetyt sztucznej inteligencji na energię rośnie w tempie wykładniczym, a możliwości sieci energetycznych – w najlepszym razie – w liniowym.

Rozmowa Nadelli i Altmana to zimny prysznic dla całej branży. Uświadamia, że rewolucja AI nie dokona się wyłącznie w laboratoriach i na ekranach komputerów. Jej powodzenie zależy od rozbudowy elektrowni, modernizacji sieci przesyłowych i budowy centrów danych w miejscach, gdzie dostęp do taniej i stabilnej energii jest w ogóle możliwy. Wygląda na to, że kolejny wielki innowator w dziedzinie AI może nosić nie bluzę z kapturem, a kask inżyniera energetyka. Pytanie, które jeszcze niedawno brzmiało “czy mamy dość chipów?”, dziś zostało zastąpione przez inne, znacznie trudniejsze: “czy starczy nam prądu?”.