Skip to content Skip to sidebar Skip to footer

Koniec ery wielkich modeli? Ten człowiek z Amazona twierdzi, że przyszłość AI to… wyszukiwarka

„AI potrzebuje lepszego mózgu” – twierdzi Edo Liberty z Pinecone. Na TechCrunch Disrupt 2025 wyjaśni, dlaczego przyszłość to nie większe modele, ale inteligentne wyszukiwanie.

W skrócie:

  • Edo Liberty, założyciel Pinecone, wystąpi na TechCrunch Disrupt 2025, by przedstawić wizję przyszłości AI, w której kluczową rolę odgrywa wyszukiwanie, a nie rozmiar modeli.
  • Jego zdaniem technologia RAG (Retrieval-Augmented Generation) i bazy wektorowe są brakującym ogniwem, które pozwoli aplikacjom AI działać inteligentniej i bardziej skalowalnie.
  • Liberty, który budował zaplecze AI w Amazonie, uważa, że dostęp do właściwych danych we właściwym czasie jest dziś ważniejszy niż samo trenowanie algorytmów.

Wszyscy gonią za kolejnymi miliardami parametrów. OpenAI, Google, Anthropic – wyścig zbrojeń trwa w najlepsze, a stawką jest zbudowanie największego, najpotężniejszego modelu językowego, który (być może) pewnego dnia zbliży się do ogólnej sztucznej inteligencji. W całym tym zgiełku łatwo przegapić głosy, które mówią: stop, patrzymy w złą stronę. Jednym z najgłośniejszych jest Edo Liberty, założyciel i CEO Pinecone, firmy, która w Dolinie Krzemowej urosła do rangi kluczowego gracza w infrastrukturze AI. Jego teza jest prosta, ale wywrotowa. Przyszłość AI to nie większe modele, lecz mądrzejsze wyszukiwanie.

Dlaczego „więcej” nie zawsze znaczy „lepiej” w AI?

Modele językowe, nawet te największe, mają fundamentalne wady. Halucynują. Zmyślają fakty z pewnością siebie godną telemarketera wciskającego nam nowy abonament. Ich „wiedza” jest statyczna – zamrożona w momencie zakończenia treningu. A koszt ich trenowania i utrzymania rośnie wykładniczo. Liberty, który przed założeniem Pinecone kierował badaniami nad AI w Amazon Web Services, zna te problemy od podszewki. Zamiast pakować do algorytmicznej głowy jeszcze więcej danych, proponuje coś innego: dać jej dostęp do zewnętrznej biblioteki. I to takiej z genialnym bibliotekarzem.

To podejście nazywa się Retrieval-Augmented Generation, czyli w skrócie RAG. Zamiast zmuszać model do „pamiętania” całego internetu, RAG pozwala mu w czasie rzeczywistym odnaleźć i przywołać tylko te informacje, które są potrzebne do odpowiedzi na konkretne pytanie. To jak różnica między studentem, który zakuł na pamięć trzy podręczniki, a tym, który ma otwarty dostęp do całej Biblioteki Kongresu. Ten drugi, o ile potrafi szybko szukać, zawsze będzie miał przewagę. A co jest kluczem do szybkiego i trafnego szukania w erze AI? Bazy wektorowe – czyli specjalność firmy Liberty’ego.

Jak działają bazy wektorowe i dlaczego to „mózg” nowej generacji?

Wyobraźmy sobie, że każde słowo, zdanie, obraz czy dźwięk można przedstawić jako punkt w wielowymiarowej przestrzeni. To właśnie robią osadzenia wektorowe (vector embeddings). Słowa o podobnym znaczeniu lądują blisko siebie, tworząc mapę kontekstualną. Baza wektorowa, taka jak Pinecone, jest systemem zoptymalizowanym do błyskawicznego przeszukiwania tej mapy. Gdy zadajemy pytanie, system tłumaczy je na wektor, a następnie szuka w bazie najbardziej zbliżonych wektorów – czyli najbardziej relevantnych fragmentów wiedzy. Dopiero te precyzyjnie wyselekcjonowane dane trafiają do modelu językowego, który na ich podstawie buduje spójną i – co najważniejsze – opartą na faktach odpowiedź. Koniec z halucynacjami. Koniec ze zmyślonymi cytatami.

Podczas swojego wystąpienia na TechCrunch Disrupt 2025, które odbędzie się w dniach 27 – 29 października w San Francisco, Liberty zamierza pokazać, dlaczego to właśnie ta infrastruktura – a nie kolejne iteracje LLM-ów – napędzi nową falę aplikacji AI. Mówimy o systemach, które mogą w czasie rzeczywistym korzystać z wewnętrznych baz danych firmy, najnowszych doniesień prasowych czy dokumentacji medycznej. To technologia, która daje AI pamięć długoterminową i kontekstową. Daje jej właśnie ten “lepszy mózg”.

Co to oznacza dla biznesu i deweloperów?

Przesunięcie akcentu z rozmiaru modelu na jakość wyszukiwania to fundamentalna zmiana paradygmatu. Oznacza, że nawet mniejsze, bardziej wyspecjalizowane modele mogą osiągać spektakularne rezultaty, jeśli tylko zostaną podłączone do odpowiedniego źródła danych. Dla firm to szansa na budowanie potężnych, ale i bezpiecznych systemów AI, które operują na ich własnych, zweryfikowanych informacjach. Dla deweloperów – mapa drogowa pokazująca, w którym kierunku zmierza ekosystem. Jak twierdzi Liberty, prawdziwym wyróżnikiem na rynku nie będzie już sam algorytm, ale to, jak sprawnie potrafimy dostarczyć mu właściwe dane we właściwym czasie.

Jego głos to ważny kontrapunkt w debacie zdominowanej przez pogoń za skalą. Być może rewolucja w AI nie nadejdzie wraz z modelem o bilionie parametrów, ale po cichu, od zaplecza – z serwerowni, w których bazy wektorowe uczą maszyny, jak mądrze pytać, zanim odpowiedzą.