Apetyt AI na energię rośnie lawinowo. Nowy raport BloombergNEF prognozuje, że w ciągu dekady centra danych będą potrzebować niemal 3x więcej prądu niż dziś.
W skrócie:
- Do 2035 roku globalne zapotrzebowanie na moc dla centrów danych wzrośnie z obecnych 40 do 106 gigawatów, co stanowi niemal trzykrotny skok.
- Inwestycje w budowę centrów danych osiągnęły w tym roku 580 miliardów dolarów, przewyższając globalne wydatki na poszukiwanie nowych złóż ropy naftowej.
- Średnia moc nowego obiektu przekroczy 100 megawatów, a co czwarty z planowanych gigantów będzie potrzebował ponad 500 megawatów mocy.
Zapomnijcie o filmowych wizjach, w których AI przejmuje władzę nad światem. Na razie sztuczna inteligencja zadowala się przejęciem naszych gniazdek elektrycznych. Najnowszy raport opublikowany przez BloombergNEF to nie tyle prognoza, co ostrzeżenie. W ciągu najbliższej dekady centra danych, czyli serce rewolucji AI, będą potrzebowały 2,7 raza więcej energii elektrycznej niż obecnie. To skok, który może zachwiać stabilnością sieci energetycznych i – co bardziej przyziemne – naszymi portfelami. Mówimy o wzroście z 40 do 106 gigawatów do 2035 roku. To tak, jakby do globalnego systemu podłączyć kilkadziesiąt nowych, potężnych gospodarek.
Co ciekawe, analitycy z BloombergNEF musieli gwałtownie zrewidować swoje poprzednie, znacznie bardziej optymistyczne szacunki z kwietnia. Powód? Lawina ogłoszeń o nowych projektach, która przetoczyła się przez branżę w ostatnich miesiącach. Okazuje się, że firmy technologiczne nie planują, one już budują. W dodatku na skalę, która dotąd wydawała się domeną państwowych inwestycji. Roczne wydatki na budowę farm serwerów sięgnęły 580 miliardów dolarów. To więcej, niż cały świat wydaje na poszukiwanie nowych złóż ropy. Symboliczne? Owszem. Ale też przerażająco realne.
Dlaczego apetyt AI na energię wymknął się spod kontroli?
Odpowiedź jest prosta i skomplikowana jednocześnie: skala. Współczesne modele AI, zwłaszcza te generatywne, wymagają niewyobrażalnej mocy obliczeniowej do trenowania i działania. To przekłada się na budowę coraz większych i bardziej energochłonnych obiektów. Obecnie zaledwie 10% centrów danych pobiera ponad 50 megawatów mocy. Tymczasem w nadchodzącej dekadzie przeciętny nowy obiekt będzie potrzebował ponad 100 megawatów. A to tylko średnia, bo blisko jedna czwarta planowanych projektów przekroczy barierę 500 megawatów, a kilka z nich – absurdalny 1 gigawat. To moc porównywalna z małą elektrownią jądrową.
Raport wskazuje, że rośnie nie tylko liczba i rozmiar obiektów, ale także ich obciążenie. Stopień wykorzystania mocy w centrach danych ma wzrosnąć z 59% do 69%. Głównym motorem tego wzrostu jest oczywiście AI – procesy trenowania i wnioskowania (inference) będą wkrótce stanowić blisko 40% całkowitego obciążenia obliczeniowego. Innymi słowy, budujemy potężniejsze fabryki danych i od razu uruchamiamy je na wyższych obrotach. Logiczne z biznesowego punktu widzenia, ale problematyczne dla infrastruktury, która nie była projektowana na taki szok popytowy.
Gdzie powstają nowe świątynie obliczeniowe?
Era budowania centrów danych na obrzeżach metropolii powoli dobiega końca, głównie z powodu braku dostępnych działek i ograniczeń sieciowych. Nowe giganty powstają więc na obszarach wiejskich, często tam, gdzie nikt by się ich nie spodziewał. W Stanach Zjednoczonych epicentrum tego boomu staje się region obsługiwany przez PJM Interconnection – operatora sieci przesyłowej obejmującego stany takie jak Wirginia, Pensylwania, Ohio, Illinois i New Jersey. To tam planuje się znaczną część nowych mocy. Drugim gorącym punktem jest Teksas, z jego niezależną siecią Ercot.
Wybór lokalizacji nie jest przypadkowy. Chodzi o dostęp do tańszej ziemi, potencjalnie niższych cen energii i – co kluczowe – zgody regulatorów. Jednak ta strategia zaczyna napotykać opór. Skoncentrowanie tak ogromnego zapotrzebowania na energię w kilku regionach tworzy presję, której lokalne sieci mogą po prostu nie udźwignąć. I tu zaczyna się prawdziwy problem, który wykracza daleko poza branżę technologiczną.
Czy sieci energetyczne wytrzymają ten ciężar?
To pytanie zadaje sobie nie tylko BloombergNEF, ale także organy nadzorcze. Grupa Monitoring Analytics, niezależny organ monitorujący rynek PJM, złożyła właśnie skargę do Federalnej Komisji Regulacji Energetyki (FERC). Zarzut jest poważny: PJM wydaje zgody na podłączanie nowych, gigantycznych centrów danych, nie upewniając się, czy sieć ma wystarczającą przepustowość, by je obsłużyć w sposób niezawodny.
W skardze czytamy wprost: “W ramach swojego obowiązku utrzymania niezawodności, PJM ma uprawnienia, by wymagać od dużych, nowych obciążeń, jakimi są centra danych, aby poczekały z podłączeniem do systemu, aż będą mogły być obsługiwane w sposób niezawodny”. Co więcej, analitycy z Monitoring Analytics twierdzą, że to właśnie centra danych są już dziś odpowiedzialne za wysokie ceny energii elektrycznej w regionie. Konkluzja jest brutalna: dalsze przyłączanie tych molochów bez planu modernizacji sieci jest “niesprawiedliwe i nieuzasadnione”. Wygląda na to, że rewolucja AI właśnie zderzyła się z twardą rzeczywistością praw fizyki i ekonomii. Ktoś będzie musiał za to zapłacić. I nietrudno zgadnąć, że rachunek trafi do nas wszystkich.