Badacze z MIT rzucają rękawicę gigantom AI. Nowe studium dowodzi, że skalowanie modeli przestanie się opłacać. Branża zyska więcej, stawiając na mniejsze algorytmy.
W skrócie:
- Badanie MIT dowodzi, że dalsze powiększanie modeli AI przyniesie malejące korzyści, a inwestycje w skalę mogą okazać się nieopłacalne.
- W ciągu najbliższej dekady postęp w efektywności algorytmów może sprawić, że mniejsze modele, działające na skromniejszym sprzęcie, staną się potężniejsze.
- Odkrycia kwestionują sens wielomiliardowych inwestycji w centra danych, których rentowność opiera się na założeniu o nieskończonym wzroście wydajności AI.
W Dolinie Krzemowej od lat panuje jedna, niepisana zasada: jeśli chodzi o sztuczną inteligencję, więcej znaczy lepiej. Więcej danych, więcej parametrów, więcej mocy obliczeniowej. Koncerny takie jak OpenAI, Google czy Microsoft prześcigają się w budowie coraz potężniejszych modeli, inwestując miliardy dolarów w infrastrukturę, która ma zaspokoić nienasycony apetyt algorytmów. Tymczasem naukowcy z Massachusetts Institute of Technology (MIT) właśnie opublikowali badanie, które może zatrząść posadami tej filozofii. Ich praca, opublikowana w prestiżowym periodyku naukowym, rzuca chłodne światło na “obsesję skalowania” i sugeruje, że cała branża może zmierzać prosto ku przepaści.
Dlaczego dotychczasowe skalowanie AI może trafić na ścianę?
Odpowiedź tkwi w tak zwanych prawach skalowania (ang. scaling laws). To zbiór zasad, które opisują, jak wydajność modeli AI rośnie wraz ze zwiększaniem ilości danych treningowych i mocy obliczeniowej. Przez lata te prawa działały bez zarzutu – podwojenie zasobów przekładało się na wymierną poprawę jakości generowanych odpowiedzi. Problem w tym, że, jak dowodzą badacze z MIT, ta zależność nie jest nieskończona. Z ich analizy wynika, że wkrótce dotrzemy do punktu, w którym dalsze pompowanie pieniędzy w gigantyczne modele przyniesie jedynie marginalne, ledwo zauważalne korzyści. To zjawisko znane w ekonomii jako “prawo malejących przychodów”.
Naukowcy przeciwstawili prawa skalowania innemu, często pomijanemu czynnikowi: stałemu wzrostowi efektywności samych algorytmów. Inżynierowie nieustannie odkrywają nowe, sprytniejsze sposoby na trenowanie modeli, które pozwalają osiągać lepsze rezultaty przy mniejszym zużyciu zasobów. Według MIT, to właśnie ten postęp – a nie ślepe powiększanie infrastruktury – będzie kluczowy w nadchodzącej dekadzie. To trochę tak, jakby producenci samochodów zamiast projektować wydajniejsze silniki, po prostu budowali coraz większe baki na paliwo. Przez jakiś czas to działa, ale w końcu staje się absurdalnie nieefektywne.
Co to oznacza dla gigantów technologicznych i ich miliardowych inwestycji?
Konsekwencje tych odkryć mogą być sejsmiczne. W ostatnich latach byliśmy świadkami prawdziwego szaleństwa inwestycyjnego. OpenAI we współpracy z Microsoftem planuje budowę superkomputera Stargate za 100 miliardów dolarów. Nvidia ledwo nadąża z produkcją procesorów graficznych, a jej wycena poszybowała w kosmos. Wszystkie te ruchy opierają się na jednym, fundamentalnym założeniu: popyt na moc obliczeniową będzie rósł w nieskończoność, bo modele będą coraz większe. Badanie MIT stawia pod znakiem zapytania całą tę logikę.
Jeśli okaże się, że dalsze skalowanie jest nieopłacalne, wielomiliardowe centra danych mogą stać się pomnikami chybionej strategii. “Wielu zakłada, że algorytmy będą się poprawiać wraz ze skalą. Być może tak nie będzie” – komentuje Will Knight, dziennikarz technologiczny magazynu WIRED. To perspektywa, która powinna spędzać sen z powiek menedżerom podejmującym decyzje o lokowaniu kapitału w projekty obliczone na dekady. Ryzyko powstania “bańki infrastrukturalnej” AI jest bardziej realne niż kiedykolwiek. Zwłaszcza, że na horyzoncie pojawia się realna alternatywa.
Czy mniejsze modele AI staną się nowym frontem rewolucji?
Zamiast budować cyfrowe katedry, branża może wkrótce zwrócić się ku mniejszym, bardziej wyspecjalizowanym “kapliczkom”. Badanie MIT prognozuje, że dzięki postępowi w dziedzinie efektywności, modele działające na znacznie skromniejszym sprzęcie staną się w ciągu dekady zaskakująco potężne. To otwiera drzwi do prawdziwej demokratyzacji technologii. Wyobraźmy sobie zaawansowane modele AI, które mogą działać lokalnie na laptopie, smartfonie czy nawet w samochodzie, bez potrzeby łączenia się z gigantyczną chmurą obliczeniową.
Taki scenariusz to rewolucja nie tylko technologiczna, ale i biznesowa. Zamiast płacić abonament za dostęp do jednego, wszechmocnego modelu (jak GPT‑5 czy Gemini), firmy mogłyby korzystać z mniejszych, wyspecjalizowanych narzędzi, idealnie dopasowanych do ich potrzeb – od analizy dokumentów prawnych po diagnozę medyczną. To świat, w którym innowacja nie jest już domeną kilku korporacji z nieograniczonym budżetem, ale staje się dostępna dla mniejszych graczy i startupów. Wszystko wskazuje na to, że wyścig na bicepsy powoli dobiega końca. Nadchodzi czas sprytu, optymalizacji i algorytmicznej elegancji.