Za odpowiedziami AI kryje się gigantyczny apetyt na energię i realny koszt dla planety. Giganci technologiczni milczą, a ich centra danych zużywają coraz więcej prądu.
W skrócie:
- Jedno zapytanie do ChatGPT zużywa około 0,34 Wh energii, a do Gemini – 0,24 Wh, co generuje ślad węglowy, którego skalę branża często ukrywa.
- Tryby głębokiej analizy w AI, wymagające złożonego “rozumowania”, potrafią zużyć ponad 33 Wh na jedno zadanie, czyli stukrotnie więcej niż prosta odpowiedź.
- Prognozy wskazują, że do 2028 roku centra danych w samych Stanach Zjednoczonych mogą pochłaniać nawet 12% całej energii elektrycznej kraju.
Każda odpowiedź chatbota wygląda, jakby powstawała bez najmniejszego wysiłku. Ot, magia algorytmów. Za kulisami tej iluzji pracują jednak potężne, energożerne układy, chłodzenie wodą i sieć elektryczna, która wciąż – niestety – zbyt często opiera się na paliwach kopalnych. Jedno pytanie skierowane do sztucznej inteligencji wielkiej krzywdy planecie nie czyni. Problem w tym, że jedno pytanie rodzi kolejne, a skala interakcji sięga dziś miliardów dziennie. Rachunek “za prąd” to nie tylko pieniądze, ale konkretny, namacalny koszt dla naszego środowiska. A branża AI wyjątkowo skutecznie ten koszt ukrywa.
Ile CO₂ kryje się w jednym pytaniu do AI?
Uczciwa odpowiedź brzmi: nie wiadomo. A przynajmniej nie da się tego precyzyjnie określić. Dziś nikt nie jest w stanie powiedzieć przeciętnemu użytkownikowi, ile dokładnie kosztuje “środowiskowo” jedno pytanie do popularnego chatbota. Dostępne szacunki to prawdziwa sinusoida – wahają się od 0,03 do 68 gramów ekwiwalentu CO₂ na zapytanie. Taki rozrzut w praktyce nie mówi absolutnie nic. To trochę tak, jakby prognoza pogody zapowiadała temperaturę od zera do trzydziestu stopni. Ubierz się, jak chcesz.
Technologiczni giganci też nie są w tej kwestii zbyt wylewni. OpenAI przyznało, że przeciętne zapytanie do ChatGPT zużywa około 0,34 Wh energii. Google opublikowało metodologię, która wskazuje na medianę 0,24 Wh dla tekstowego promptu w Gemini i emisję rzędu 0,03 g CO₂. A reszta rynku? Milczy albo serwuje marketingowe ogólniki o dążeniu do neutralności klimatycznej. Człowiek zostaje z poczuciem, że w sumie to wszystko jedno.
Token, czyli waluta energetyczna sztucznej inteligencji
Spróbujmy jednak zrozumieć mechanizm. Każda odpowiedź modelu językowego składa się z tokenów – małych fragmentów tekstu, które system przetwarza i generuje. Krótka odpowiedź to kilkaset tokenów, ale rozbudowana analiza może ich mieć tysiące. Tu zależność jest prosta: im dłuższa i bardziej złożona odpowiedź, tym więcej cykli obliczeniowych, więcej pracy układów i więcej ciepła, które trzeba odprowadzić z serwerowni. To jednak tylko część prawdy.
Prawdziwy pożeracz energii ukrywa się gdzie indziej. Modele oparte na rozumowaniu, takie jak tryby “głębokiego badania” w ChatGPT, generują tysiące ukrytych, pośrednich tokenów, zanim przedstawią użytkownikowi finalną odpowiedź. Tego typu operacje potrafią zużyć ponad 33 Wh na jedno, dłuższe zadanie. To ponad stukrotnie więcej niż standardowe zapytanie. Korzystamy więc z potężnego narzędzia, by rozwiązać prosty problem – trochę jakbyśmy otwierali puszkę groszku za pomocą hydraulicznego przecinaka.
Od mikrofalówki po ładowarkę do smartfona
Te liczby mogą wydawać się abstrakcyjne. Przełóżmy je na coś bardziej znajomego. Proste pytanie o pogodę zadane AI to koszt energetyczny porównywalny z sekundą pracy mikrofalówki. Streszczenie dłuższego artykułu to kilka sekund oglądania telewizji. Ale już wygenerowanie strony kodu z debugowaniem odpowiada doładowaniu smartfona o 10 – 15%. Z kolei zlecenie AI raportu w trybie deep research zużyje tyle energii, co pełne naładowanie jednego lub dwóch telefonów albo kilkadziesiąt minut streamingu na Netfliksie.
Jeszcze wyżej w tej hierarchii jest generowanie wideo. Kilka sekund filmu stworzonego przez model Sora to już wydatek energetyczny bliższy ponad godzinie pracy mikrofalówki – a to urządzenie słynie z apetytu na prąd. Co gorsza, cała branża buduje dziś infrastrukturę pod agentów AI działających bez przerwy. Prognozy mówią, że centra danych w USA, które w 2024 roku zużyły 4,4% całej energii elektrycznej kraju, do 2028 roku mogą potrzebować nawet 12%. A na tym się z pewnością nie skończy.
Zielona energia? Niekoniecznie
Można by pomyśleć, że problem rozwiąże przejście na odnawialne źródła energii. Niestety, to nie takie proste. Badanie z Uniwersytetu Harvarda zwraca uwagę, że centra danych AI często powstają w lokalizacjach, gdzie sieć energetyczna jest zasilana głównie z paliw kopalnych. Głośny przykład modelu Grok Elona Muska pokazuje, że nawet niski wskaźnik “energii za zapytanie” nie mówi wszystkiego, jeśli cała infrastruktura stoi na zapleczu zasilanym gazem i obciąża lokalną społeczność dodatkowymi emisjami.
Od rewolucji AI nie uciekniemy. To fakt. Sztuczna inteligencja z nami zostanie i będzie się rozwijać, a jej apetyt na energię będzie tylko rósł. Warto jednak mieć świadomość, że za każdą wygenerowaną odpowiedzią, obrazem czy linijką kodu stoi realny, fizyczny koszt. Koszt, o którym wielkie korporacje wolą głośno nie mówić.