Microsoft rzuca wyzwanie NVIDII, uruchamiając produkcję Maia 200. To wyspecjalizowany akcelerator AI, który ma obniżyć koszty i uwolnić GPU dla graczy.
W skrócie:
- Maia 200 to akcelerator AI od Microsoftu, produkowany w technologii TSMC N3. Zawiera ponad 100 miliardów tranzystorów i oferuje wydajność przekraczającą 10 PFLOPS w precyzji FP4.
- Kluczową innowacją jest podsystem pamięci – 216 GB HBM3e o przepustowości 7 TB/s. Pozwala to na lokalne przechowywanie znacznie większych fragmentów modeli sztucznej inteligencji.
- System opiera się na standardowym Ethernecie i zapewnia skalowalność do 6144 akceleratorów. Ma być o 30% bardziej efektywny kosztowo niż dotychczasowe rozwiązania w chmurze Azure.
Microsoft oficjalnie nacisnął przycisk “start”. Ruszyła produkcja układów Maia 200, czyli autorskiego akceleratora AI zaprojektowanego od podstaw z jednym, niemal brutalnie prostym celem: radykalnie obniżyć koszty i podnieść efektywność wnioskowania dużych modeli językowych. Całość ma działać w chmurze Azure, która jest jednym z największych placów zabaw dla AI na świecie. Maia 200 to odpowiedź na pytanie, jak skalować sztuczną inteligencję bez jednoczesnego, wykładniczego wzrostu rachunków i poziomu skomplikowania infrastruktury. A przy okazji – być może – zrobić ukłon w stronę graczy.
Dlaczego surowa moc obliczeniowa to już nie wszystko?
W dyskusjach o sprzęcie dla AI wszyscy ekscytują się FLOPS-ami. To zrozumiałe – wielkie liczby działają na wyobraźnię. Pomimo tego inżynierowie wiedzą, że surowa moc obliczeniowa stanowi zaledwie połowę równania. Druga, często znacznie trudniejsza do rozwiązania część, to przepustowość danych. Możesz mieć silnik o mocy tysiąca koni mechanicznych, ale jeśli paliwo dopływa do niego przez słomkę do napojów, nigdzie nie pojedziesz. Ze sztuczną inteligencją jest dokładnie tak samo. Model musi być nieustannie karmiony danymi, a każde, nawet najmniejsze wąskie gardło w pamięci lub sieci potrafi zabić najbardziej imponujące parametry na papierze.
Microsoft postanowił więc nie bawić się w łatanie istniejących rozwiązań. Zamiast tego zaprojektował cały stos technologiczny – od krzemu, przez oprogramowanie, aż po architekturę centrów danych – jako jeden, spójny organizm. Układ Maia 200 jest fizycznym owocem tej filozofii. To podejście, które każe myśleć o systemie całościowo, a nie jako o zbiorze przypadkowych komponentów.
Jak Maia 200 rozwiązuje problem pamięci, największego wroga AI?
Każdy układ Maia 200 powstaje w nowoczesnym procesie TSMC N3 i zawiera ponad 100 miliardów tranzystorów. To liga, w której dotąd grały wyłącznie najbardziej zaawansowane GPU. Tutaj jednak całą architekturę zoptymalizowano pod kątem inferencji, czyli praktycznego wykorzystania modeli AI. Ale to nie liczby tranzystorów są najważniejsze. To właśnie podsystem pamięci odróżnia Maię 200 od większości dostępnych dziś na rynku akceleratorów. Microsoft zastosował 216 GB pamięci HBM3e o oszałamiającej przepustowości 7 TB/s, co w połączeniu z 272 MB pamięci SRAM na chipie i zaawansowanymi silnikami DMA tworzy prawdziwy przełom.
Co to oznacza w praktyce? To proste: znacznie większą część modelu można trzymać lokalnie, bez potrzeby kosztownego i powolnego rozpraszania go na wiele oddzielnych urządzeń. Efekt? Mniej akceleratorów potrzebnych do uruchomienia modelu, mniejsza złożoność całej topologii sieciowej oraz – co kluczowe dla biznesu – niższe koszty energii i chłodzenia. To czysta ekonomia w krzemowej postaci.
Co to oznacza dla rynku i przyszłości Copilota?
Microsoft stawia na standardowy Ethernet, w przeciwieństwie do konkurencji, która często zamyka się we własnych, prawnie chronionych technologiach sieciowych. Tyle że to Ethernet na sterydach. Każdy akcelerator otrzymuje 1,4 TB/s przepustowości, a cały system wspiera klastry liczące nawet do 6144 akceleratorów. To podejście ma jedną, gigantyczną zaletę: przewidywalność. W świecie AI, gdzie każda milisekunda opóźnienia może kosztować fortunę, przewidywalność jest walutą cenniejszą niż surowa moc.
Układy już dziś wspierają najbardziej wymagające projekty w Microsofcie, w tym rozwój modeli napędzających Microsoft 365 Copilot. Co więcej, firma udostępniła deweloperom Maia SDK, czyli otwarte zaproszenie dla laboratoriów badawczych i startupów, by zaczęły optymalizować swoje rozwiązania pod nową architekturę. Microsoft jasno też komunikuje: Maia 200 to pierwsza generacja. Kolejne są już w drodze. To sygnał dla całej branży, że czasy uniwersalnych GPU do wszystkiego powoli dobiegają końca. Nadchodzi era wyspecjalizowanych platform AI. A jeśli przy okazji oznacza to, że więcej kart graficznych trafi z powrotem na rynek konsumencki, to trudno o lepsze wieści dla graczy na całym świecie.