Skip to content Skip to sidebar Skip to footer

Ex-inżynierowie z Apple i Intela rzucają wyzwanie Nvidii. Zebrali 5 milionów dolarów na… oprogramowanie

Startup Luminal, założony przez byłych inżynierów z Intela, Apple i Amazona, zebrał 5,3 mln dolarów. Cel? Rzucić wyzwanie Nvidii, optymalizując oprogramowanie GPU.

W skrócie:

  • Luminal, startup założony przez byłych inżynierów Intela, Apple i Amazona, pozyskał 5,3 mln USD w rundzie seed prowadzonej przez fundusz Felicis Ventures.
  • Firma skupia się na optymalizacji kompilatorów GPU – oprogramowania pośredniczącego między kodem a sprzętem, by zwiększyć wydajność bez wymiany kart graficznych.
  • Celem jest stworzenie alternatywy dla dominującego systemu CUDA od Nvidii i zaoferowanie tańszego, szybszego uruchamiania modeli AI (inferencji) dla szerokiego rynku.

Trzy lata temu Joe Fioti, współzałożyciel Luminal, pracował nad projektowaniem chipów w Intelu. I wtedy doznał olśnienia. Mógł tworzyć najlepsze układy na świecie, ale prawdziwe wąskie gardło, ten element, który spowalniał całą rewolucję AI, tkwił gdzie indziej. W oprogramowaniu.

Dziś stoi na czele firmy, która ten problem postawiła w centrum swojej działalności. W poniedziałek Luminal ogłosił pozyskanie 5,3 miliona dolarów w rundzie zalążkowej. Inwestycji przewodził fundusz Felicis Ventures, a wśród aniołów biznesu znaleźli się tacy giganci jak Paul Graham (współzałożyciel Y Combinator), Guillermo Rauch (CEO Vercel) i Ben Porterfield. To nie jest przypadkowy zespół. Współzałożyciele Fiotiego, Jake Stevens i Matthew Gunton, to weterani odpowiednio z Apple i Amazona. Firma przeszła też przez letnią edycję akceleratora Y Combinator w 2025 roku, co w Dolinie Krzemowej jest stemplem najwyższej jakości.

Dlaczego najlepszy sprzęt na świecie to za mało?

Rynek AI oszalał na punkcie sprzętu. Wszyscy polują na procesory graficzne Nvidii, a firmy takie jak Coreweave czy Lambda Labs budują fortuny na sprzedaży mocy obliczeniowej. Luminal robi to samo, ale z pewnym – kluczowym – zwrotem akcji. Zamiast skupiać się wyłącznie na gromadzeniu sprzętu, firma koncentruje się na technikach optymalizacji, które pozwalają wycisnąć z istniejącej infrastruktury znacznie więcej.

Fioti w jednym z wywiadów ujął to dosadnie: “Możesz stworzyć najlepszy sprzęt na Ziemi, ale jeśli programistom trudno będzie go używać, po prostu nie będą go używać”. I tu dochodzimy do sedna. Luminal pracuje nad kompilatorem – oprogramowaniem, które tłumaczy kod napisany przez człowieka na język zrozumiały dla GPU. Lepszy tłumacz oznacza szybsze i tańsze działanie modeli AI. To właśnie ten niewidzialny element układanki sprawiał Fiotiemu tyle problemów w jego poprzedniej pracy.

Kto rzuca rękawicę gigantowi zwanemu CUDA?

Obecnie branżowym standardem jest system CUDA od Nvidii. To niedoceniany bohater spektakularnego sukcesu firmy. To właśnie CUDA sprawia, że praca z kartami Nvidii jest tak efektywna i – bądźmy szczerzy – wygodna dla deweloperów. Ale wiele elementów CUDA ma otwarte źródło, a Luminal zakłada, że w świecie wciąż cierpiącym na niedobór GPU, wartość płynąca z rozbudowy reszty tego ekosystemu będzie ogromna.

Startup nie jest sam. Rośnie cała kohorta firm specjalizujących się w optymalizacji inferencji (czyli procesu uruchamiania modeli AI). Dostawcy tacy jak Baseten czy Together AI już od dawna robią to z sukcesami. Teraz pojawiają się mniejsi, bardziej wyspecjalizowani gracze, tacy jak Tensormesh i Clarifai, którzy skupiają się na konkretnych technicznych sztuczkach. Rynek robi się gorący, bo każdy cent zaoszczędzony na mocy obliczeniowej w skali modeli językowych przekłada się na miliony dolarów.

Czy Dawid może pokonać Goliata w wyścigu na optymalizację?

Luminal i jemu podobni zmierzą się z potężną konkurencją: wewnętrznymi zespołami optymalizacyjnymi w największych laboratoriach AI. Giganci tacy jak OpenAI czy Google mają tę przewagę, że mogą optymalizować swoje oprogramowanie pod kątem jednej, własnej rodziny modeli. To ogromny atut. Luminal, pracując dla zewnętrznych klientów, musi być uniwersalnym żołnierzem, gotowym dostosować się do każdego modelu, który trafi w jego ręce.

Fioti zdaje sobie sprawę z tego ryzyka, ale pozostaje optymistą. Rynek rośnie tak szybko, że miejsca wystarczy dla wszystkich. “Zawsze będzie możliwe spędzenie sześciu miesięcy na ręcznym dostrajaniu architektury modelu pod dany sprzęt i prawdopodobnie pokonasz wydajność dowolnego kompilatora” – przyznaje. “Ale nasz wielki zakład polega na tym, że w każdym innym przypadku, uniwersalne rozwiązanie wciąż jest niezwykle wartościowe ekonomicznie”. I to właśnie jest nisza Luminal: oferowanie 80% wydajności customowego rozwiązania za ułamek czasu i kosztów. W świecie, gdzie szybkość wdrożenia jest kluczowa, to propozycja, której trudno się oprzeć.