Skip to content Skip to sidebar Skip to footer

Koniec z chmurą? Amazon ujawnił AI Factories, a cały świat patrzy na Nvidię

Amazon i Nvidia łączą siły, oferując „Fabryki AI” – potężne systemy sztucznej inteligencji instalowane w centrach danych klientów. To odpowiedź na obawy o dane.

W skrócie:

  • Amazon Web Services wprowadza „AI Factories”, czyli gotowe systemy AI, które mogą być instalowane bezpośrednio w centrach danych korporacji i agencji rządowych.
  • Projekt jest owocem współpracy z Nvidią. Klienci mogą wybierać między najnowszymi układami GPU Blackwell od Nvidii a chipami Trainium3 od Amazona.
  • To ruch w stronę chmury hybrydowej, podobny do strategii Microsoftu, który również buduje własne „Fabryki AI” i oferuje rozwiązania lokalne jak Azure Local.

Amazon właśnie ogłosił produkt, który brzmi jak oksymoron: chmura, która schodzi na ziemię. Nowa usługa, nazwana bez zbędnej skromności „AI Factories”, pozwala wielkim korporacjom i rządom uruchamiać systemy sztucznej inteligencji Amazona we własnych, fizycznych centrach danych. Mechanizm jest prosty – klient dostarcza budynek i prąd, a AWS wstawia tam swój sprzęt, zarządza nim i integruje z resztą swoich usług chmurowych. Wszystko po to, by zaspokoić rosnący apetyt na coś, co w branży nazywa się suwerennością danych.

Chodzi o absolutną kontrolę nad informacjami, tak by nigdy nie trafiły w ręce konkurencji czy, co gorsza, obcego wywiadu. Posiadanie własnej „Fabryki AI” oznacza, że wrażliwe dane nie są wysyłane do zewnętrznego dostawcy modeli językowych i nawet sprzęt nie jest współdzielony z innymi. To fizyczna bariera, która ma dać poczucie bezpieczeństwa. I przy okazji wygenerować Amazonowi niemałe zyski.

Co to jest Fabryka AI według Amazona?

Jeśli nazwa „AI Factory” brzmi znajomo, to macie rację. To termin spopularyzowany przez Nvidię, która określa w ten sposób swoje kompletne systemy sprzętowe – od chipów GPU po technologię sieciową – zaprojektowane do obsługi AI. Nie jest to przypadek, ponieważ nowa usługa AWS to owoc bliskiej współpracy obu gigantów. To swoisty technologiczny sojusz, w którym każdy wnosi to, co ma najlepszego.

Klienci decydujący się na takie rozwiązanie stają przed wyborem. Mogą postawić na najnowsze i najbardziej pożądane na rynku układy GPU Blackwell od Nvidii albo wybrać autorski chip Amazona, Trainium3. Całość spina autorska technologia sieciowa, pamięć masowa, bazy danych i systemy bezpieczeństwa AWS. Co więcej, system może łączyć się z usługami takimi jak Amazon Bedrock (platforma do zarządzania modelami AI) oraz AWS SageMaker AI (narzędzie do budowania i trenowania modeli). To zamknięty, ale potężny ekosystem, tyle że postawiony w serwerowni klienta.

Jak Microsoft odpowiedział (zanim padło pytanie)?

Amazon nie jest tu pionierem, co czyni całą historię jeszcze ciekawszą. Już w październiku Microsoft pochwalił się swoimi pierwszymi „Fabrykami AI”, które zaczął instalować w globalnych centrach danych do obsługi obciążeń związanych z modelami OpenAI. Wtedy firma nie ogłosiła jeszcze, że udostępni te maszyny w formie chmury prywatnej, ale podkreślała, jak bardzo polega na technologii Nvidii przy budowie swoich „Superfabryk AI” – czyli supernowoczesnych centrów danych w Wisconsin i Georgii.

Miesiąc temu Microsoft poszedł o krok dalej. Przedstawił szczegóły oferty skierowanej do klientów z obsesją na punkcie suwerenności danych, w tym usługę „Azure Local”, czyli zarządzany przez Microsoft sprzęt instalowany bezpośrednio u klienta. Wygląda więc na to, że obaj giganci chmurowi idą łeb w łeb, próbując przekonać największych graczy, że ich dane są bezpieczne nie tylko w chmurze, ale także poza nią.

Czy to powrót do serwerowni w piwnicy?

Jest w tym wszystkim pewna ironia. Sztuczna inteligencja, technologia z definicji futurystyczna, zmusza największych dostawców chmury publicznej do ponownego, intensywnego inwestowania w prywatne centra danych i rozwiązania hybrydowe. To trochę tak, jakby na rynku technologicznym znowu zapanował rok 2009. Wtedy model hybrydowy był na topie, a firmy ostrożnie podchodziły do pełnego przeniesienia infrastruktury do chmury.

Dziś historia zatacza koło, ale motywacje są inne. Nie chodzi już tylko o wydajność czy koszty, ale przede wszystkim o bezpieczeństwo, regulacje i geopolitykę. „AI Factories” to dowód na to, że nawet w erze wszechobecnej chmury, fizyczna lokalizacja serwerów wciąż ma fundamentalne znaczenie. Zwłaszcza gdy w grę wchodzą dane warte miliardy dolarów i tajemnice państwowe. Najwyraźniej przyszłość AI nie będzie wirtualna. Będzie miała bardzo konkretny adres.