Skip to content Skip to sidebar Skip to footer

Szok w Google! Sztuczna inteligencja zjada tyle prądu, że firma buduje elektrownie na orbicie

Google ujawnia Project Suncatcher. Firma chce wynieść centra danych AI na orbitę, by zasilać je energią słoneczną i ominąć kryzys energetyczny na Ziemi. Testy w 2027.

W skrócie:

  • Apetyt AI na energię rośnie lawinowo – do 2030 roku centra danych mogą zużywać więcej prądu niż cała Japonia, co zmusza gigantów do szukania radykalnych rozwiązań.
  • Project Suncatcher to plan umieszczenia procesorów Google TPU na satelitach, tworząc orbitalne centrum danych zasilane energią słoneczną, nawet osiem razy wydajniej niż na Ziemi.
  • Pierwsze dwa satelity testowe, opracowane we współpracy z Planet Labs, mają wystartować już w 2027 roku. Docelowo Google planuje konstelację 81 takich jednostek.

Zanim polecimy w kosmos, zejdźmy na chwilę na ziemię. Powód, dla którego inżynierowie Google’a spoglądają w gwiazdy, jest brutalnie prosty: sztuczna inteligencja pożera energię w tempie, które zagraża stabilności globalnych sieci energetycznych.

Prognozy są, delikatnie mówiąc, alarmujące. Szacuje się, że do 2030 roku zużycie energii przez centra danych osiągnie 945 terawatogodzin rocznie. To więcej, niż obecnie potrzebuje cała Japonia. W samych Stanach Zjednoczonych serwerownie odpowiadają już za około 3% krajowego zużycia prądu, a za kilka lat wskaźnik ten może skoczyć do 12%. Sam trening modeli AI, takich jak ChatGPT, pochłania ponad pół miliona kilowatogodzin dziennie. Pojedyncze zapytanie do dużego modelu językowego bywa nawet dziesięciokrotnie bardziej energochłonne niż klasyczne wyszukiwanie w Google. A to dopiero początek.

Dlaczego AI zjada naszą planetę?

Problem jest dwojaki. Z jednej strony mamy rosnący apetyt algorytmów, z drugiej – źródła zasilania. Wiele centrów danych wciąż opiera się na paliwach kopalnych. Microsoft niedawno przyznał, że od 2020 roku jego emisje CO₂ wzrosły o 29%. To pokazuje skalę wyzwania. Globalny system energetyczny zaczyna się dławić pod ciężarem obliczeń, które sami stworzyliśmy.

W tej sytuacji ktoś w Google zadał sobie pytanie, które brzmi jak herezja, ale może okazać się genialne: a co, jeśli przeniesiemy problem w kosmos? I tak, z tych ambitnych, niemal szalonych założeń, narodził się Project Suncatcher.

Jak działa kosmiczna elektrownia Google?

Idea, w swojej istocie, jest zaskakująco elegancka. Zakłada umieszczenie na niskiej orbicie Ziemi specjalistycznych procesorów – Tensor Processing Units (TPU) – zaprojektowanych do obsługi sztucznej inteligencji. Ich zasilaniem zajęłoby się Słońce. Na orbicie heliosynchronicznej, gdzie nie ma nocy ani chmur, panele słoneczne mogą być nawet osiem razy bardziej wydajne niż ich naziemne odpowiedniki.

To jednak nie wszystko. Satelity mają działać w zsynchronizowanej konstelacji, lecąc w formacji oddalonej od siebie o zaledwie setki metrów. Połączone ultraszybkimi łączami optycznymi (o przepustowości 1,6 terabita na sekundę) stworzyłyby jedno, gigantyczne, rozproszone centrum danych. Każdy satelita stałby się w nim autonomicznym węzłem obliczeniowym.

Czy elektronika przetrwa w kosmicznej próżni?

Umieszczenie delikatnych chipów w niegościnnym środowisku kosmicznym to, rzecz jasna, ogromne wyzwanie. Głównym wrogiem jest promieniowanie, które potrafi zniszczyć standardowe układy w ciągu kilku lat. Inżynierowie Google’a przygotowali się na tę ewentualność. TPU, w tym najnowsze chipy Trillium, przeszły intensywne testy w akceleratorze cząstek na Uniwersytecie Kalifornijskim w Davis, gdzie symulowano wieloletnią ekspozycję na radiację.

Wyniki okazały się obiecujące. Chipy wykazały wysoką odporność i działały bez trwałych uszkodzeń. Oczywiście ryzyka nie da się wyeliminować całkowicie. W kosmosie zawsze mogą wystąpić drobne błędy, jak tzw. bit flipy, gdy pojedyncza cząstka zakłóci zapis danych. Google musi być na to gotowy.

Kiedy zobaczymy pierwsze gwiezdne serwerownie?

Google nie rzuca słów na wiatr. Firma ogłosiła, że już w 2027 roku planuje wystrzelić dwa satelity testowe, przygotowane we współpracy z Planet Labs. Każdy z nich będzie wyposażony w cztery procesory TPU – to niewiele, ale wystarczająco, by zweryfikować działanie całego systemu w praktyce. Jeśli testy się powiodą, docelowo na orbicie na wysokości 650 km powstanie konstelacja 81 satelitów.

Oczywiście droga do sukcesu jest wyboista. Trzeba rozwiązać problem precyzyjnego sterowania formacją, obniżyć koszty wynoszenia ładunków (Google liczy, że Starship SpaceX obniży je do 200 dolarów za kilogram) i stworzyć całą infrastrukturę do zarządzania tysiącami TPU na orbicie. Travis Beals, szef zespołu Paradigms of Intelligence w Google, ujął to celnie: “Jeśli zapotrzebowanie na AI będzie rosło, a my będziemy potrzebować coraz więcej energii, ten projekt ma ogromny potencjał. Ale jak każdy moonshot – nie ma gwarancji sukcesu”.

Google nie jest w tym wyścigu sam. Swoje wizje snują Jeff Bezos i Elon Musk, a startup Starcloud, we współpracy z Nvidią, pracuje nad modułowymi serwerami orbitalnymi. Jedno jest pewne: sztuczna inteligencja stała się tak potężna, że Ziemia robi się dla niej za mała.