Skip to content Skip to sidebar Skip to footer

Najmocniejsza chmura świata wita na pokładzie OpenAI. Historyczny moment

Amazon i OpenAI wstrząsnęły branżą AI. Gigant e‑commerce zainwestuje 50 mld dolarów w twórców ChatGPT, którzy zaczną trenować modele na jego autorskich chipach.

W skrócie:

  • Amazon zainwestuje w OpenAI łącznie 50 miliardów dolarów, z czego 15 miliardów trafi do firmy natychmiast. To jedna z największych takich transakcji w historii technologii.
  • OpenAI zobowiązało się do korzystania z infrastruktury AWS i autorskich układów Trainium. Wartość rozszerzonej umowy na osiem lat ma sięgnąć 100 miliardów dolarów.
  • Współpraca osłabia pozycję Microsoftu jako głównego partnera OpenAI i stanowi wyzwanie dla dominacji Nvidii na rynku chipów do trenowania sztucznej inteligencji.

Partnerstwo OpenAI i Amazonu to nie jest kolejna nudna notka prasowa o „synergii” i „strategicznej współpracy”. To trzęsienie ziemi, którego epicentrum znajduje się gdzieś pomiędzy Seattle a San Francisco, a fale uderzeniowe poczuje cała Dolina Krzemowa. Kiedy na stół trafia inwestycja rzędu 50 miliardów dolarów — z czego 15 miliardów w gotówce od ręki, a reszta warunkowo — to nie mówimy o sponsoringu. Mówimy o redefinicji sojuszy, które jeszcze do niedawna wydawały się nienaruszalne.

Skala finansowa jest tu tylko jednym z wymiarów. Obie firmy rozszerzają istniejącą umowę, której wartość rośnie o kolejne 100 miliardów dolarów na osiem lat. W praktyce OpenAI staje się jednym z największych, jeśli nie największym, klientem w historii Amazon Web Services. I to klientem, który nie tylko wynajmie serwery, ale pomoże Amazonowi udowodnić, że jego autorskie chipy są w stanie konkurować z wszechmocną Nvidią.

Jak Amazon planuje rzucić rękawicę Nvidii?

Kluczowym elementem tej układanki jest sprzęt. OpenAI do tej pory opierało swój rozwój głównie na procesorach graficznych Nvidii, które stały się złotym standardem w trenowaniu wielkich modeli językowych. Teraz firma Sama Altmana robi gwałtowny zwrot w kierunku autorskich układów Amazonu — Trainium. Zgodnie z oficjalnym komunikatem, twórcy ChatGPT zobowiązali się do wykorzystania około 2 gigawatów mocy obliczeniowej dostarczanej przez te chipy. To liczba, która robi wrażenie nawet na tle największych centrów danych na świecie.

To strategiczny majstersztyk Amazona. Po pierwsze, zdobywa klienta, który przetestuje jego chipy w najbardziej ekstremalnych warunkach, co dostarczy bezcennych danych i pozwoli przyspieszyć rozwój kolejnej generacji — Trainium4. Ta ma oferować „znacznie wyższą wydajność obliczeniową FP4, rozszerzoną przepustowość pamięci oraz zwiększoną pojemność HBM”. Po drugie, jeśli flagowe modele OpenAI będą trenowane na architekturze Amazona, to chmura AWS stanie się naturalnym i najwydajniejszym środowiskiem do ich wdrażania. To potężny argument w walce o klientów korporacyjnych z Microsoft Azure i Google Cloud.

Czym jest „agent AI z pamięcią” i dlaczego to tak ważne?

Poza sprzętem i miliardami dolarów, partnerstwo przyniesie coś namacalnego dla deweloperów. Mowa o Stateful Runtime Environment — nowym środowisku uruchomieniowym dostępnym przez platformę Amazon Bedrock. Ma ono rozwiązać jeden z największych problemów obecnych modeli AI: ich chroniczny brak pamięci i kontekstu. Obecnie każda interakcja z modelem przypomina rozmowę z kimś, kto co sekundę traci pamięć. Nowe rozwiązanie ma to zmienić.

Środowisko pozwoli tworzyć aplikacje i agentów AI, którzy zachowują stan, pamiętają poprzednie interakcje i mają stały dostęp do zewnętrznych narzędzi oraz źródeł danych. Jeśli OpenAI i Amazon dotrzymają obietnicy, deweloperzy otrzymają narzędzie do budowania systemów, w których agent AI działa jak trwały proces systemowy, a nie jednorazowe wywołanie API. To fundamentalna zmiana, która może zrewolucjonizować sposób tworzenia oprogramowania opartego na sztucznej inteligencji. Premiera? Już „w najbliższych miesiącach”.

Czy to koniec miłości między OpenAI a Microsoftem?

Nie, to nie jest publiczne zerwanie, ale relacje w tym trójkącie z pewnością stały się bardziej skomplikowane. Microsoft, dotychczasowy główny partner i inwestor OpenAI, traci swój monopol na najgłębszą integrację z technologią twórców ChatGPT. Najlepszym tego dowodem jest platforma OpenAI Frontier, przeznaczona dla klientów korporacyjnych do zarządzania flotami agentów AI.

Zgodnie z umową, AWS zostaje wyłącznym zewnętrznym dostawcą chmury dla tego rozwiązania. Oznacza to, że każdy duży gracz, który zechce wdrożyć Frontier w swojej organizacji, będzie naturalnie kierowany w stronę ekosystemu Amazona. To wyraźne przesunięcie strategicznego ciężaru i sygnał, że OpenAI nie zamierza być zakładnikiem jednego partnera technologicznego, nawet tak potężnego jak Microsoft.