AI wkracza na giełdy krypto z obietnicą zysków. Rzeczywistość jest brutalna. Autonomiczni agenci gubią się, tracą pieniądze i podejmują absurdalne decyzje.
W skrócie:
- Autonomiczni agenci AI, mający handlować kryptowalutami, popełniają katastrofalne błędy, gubiąc się w zleceniach i tracąc środki, co potwierdzają testy firm takich jak Allora Labs.
- Główną przyczyną problemów są „halucynacje” modeli językowych (LLM), które nie radzą sobie z danymi liczbowymi, co prowadzi do błędnych decyzji finansowych i nieprzewidywalnych zachowań.
- Rozwiązaniem ma być połączenie LLM z tradycyjnym uczeniem maszynowym, co pozwoli ograniczyć błędy i zwiększyć niezawodność – technologię tę testuje już m.in. sieć Allora.
To miało być proste zlecenie. Nick Emmons, współzałożyciel i CEO Allora Labs, firmy budującej zdecentralizowaną sieć sztucznej inteligencji, poprosił nowego agenta AI o sprzedaż części swoich kryptowalut za dolary amerykańskie. Prosta komenda, jasny cel. Mimo to program zignorował precyzyjne instrukcje i zaczął handlować zupełnie innymi aktywami. Zero logiki, czysty chaos.
„Całkowicie oszalał i zrobił coś zupełnie niezwiązanego z tym, co mu pierwotnie zlecono” – powiedział Emmons w rozmowie z DL News. Dodał, że takie dewiacyjne zachowania agentów są, niestety, powszechne. To zimny prysznic dla tych, którzy wierzyli, że autonomiczny trading jest tuż za rogiem.
Dlaczego cyfrowe boty do tradingu wariują?
Agenci AI – autonomiczne programy zaprojektowane do osiągania celów bez ciągłego nadzoru człowieka – to absolutna awangarda technologicznego boomu. W samej branży krypto firmy skupione na AI zebrały w tym roku już ponad 500 milionów dolarów. Wiele z nich obiecuje boty, które analizują inwestycje, zarządzają portfelem, a nawet samodzielnie handlują. Jest tylko jeden, drobny szkopuł. Gdy daje im się prawdziwe pieniądze, wszystko zaczyna się sypać.
Zdaniem Emmonsa, źródłem problemu jest fakt, że większość agentów opiera się wyłącznie na dużych modelach językowych (LLM). „LLM‑y bardzo często i rażąco halucynują” – stwierdza bez ogródek. „Kiedy masz do czynienia z danymi liczbowymi lub ilościowymi, te halucynacje mogą skutkować ekstremalnymi błędami”. A w finansach „ekstremalny błąd” to po prostu utrata pieniędzy.
Inne problemy? Nadmierne poleganie na danych historycznych, które sprawia, że agenci głupieją przy zmianie warunków rynkowych, oraz ignorowanie tak prozaicznych kwestii jak płynność czy poślizg cenowy. Na dokładkę, jak wykazały badania Wharton School i Hong Kong University of Science and Technology, agenci AI potrafią wchodzić w zmowy i angażować się w praktyki antykonkurencyjne, takie jak ustalanie cen. Wygląda na to, że maszyny uczą się od nas tego, co najgorsze.
Jak naprawić cyfrowego maklera z halucynacjami?
Zainteresowanie technologią jest gigantyczne. Google i Microsoft pompują zasoby w budowę własnych platform dla agentów AI. Według raportu OutSystems, aż 93% ankietowanych menedżerów IT przyznaje, że ich organizacje już rozwijają – lub planują rozwijać – własne wersje tej technologii. Boston Consulting Group szacuje, że rynek agentów AI w ciągu najbliższych pięciu lat przekroczy wartość 50 miliardów dolarów. Ktokolwiek rozwiąże problem ich zawodności, zarobi fortunę.
Firma Emmonsa, Allora, próbuje obejść pułapki LLM, łącząc je z tradycyjnym uczeniem maszynowym w ramach swojej zdecentralizowanej sieci AI. To, jak mówi Emmons, pozwala agentom korzystać z zalet modeli językowych, jednocześnie redukując błędy i halucynacje. „Chodzi o znalezienie właściwego mariażu między tymi dwiema, nieco odmiennymi technologiami” – wyjaśnia. Allora już wykorzystuje swoją sieć w zdecentralizowanych finansach (DeFi), zarządzając płynnością na giełdzie Uniswap i angażując się w strategie lewarowania pożyczek, by zwiększyć zyski ze stakingu Ethereum.
Kto popełnia droższe błędy – człowiek czy maszyna?
Pomimo tych postępów, ryzyko wciąż istnieje. Emmons przyznaje, że potrzebne są znacznie bardziej rygorystyczne zabezpieczenia. „Portfele, w które wyposażamy agentów, muszą mieć zestaw jeszcze bardziej precyzyjnych kontraktów i wywołań funkcji, aby nie mogły po prostu wyrzucić pieniędzy w błoto” – tłumaczy. Twarde ograniczenia to podstawa.
Trzeba jednak przyznać – ludzcy traderzy też nie są nieomylni. Wystarczy przypomnieć Jérôme’a Kerviela, byłego maklera Société Générale, który w latach 2006 – 2008 przez serię nieautoryzowanych transakcji stracił 7,2 miliarda dolarów należących do swojego pracodawcy. To błąd, na który na razie nie stać żadnego agenta AI.
Wciąż trwa debata, czy agenci AI kiedykolwiek będą w stanie działać w pełni autonomicznie. Naukowcy z Google DeepMind w publikacji z 2024 roku argumentowali, że do prawidłowego funkcjonowania potrzebują zdolności do rozumowania przyczynowo-skutkowego, której obecnie nie posiadają. Emmons jest jednak optymistą. „Wiele z tych rzeczy będzie w dużej mierze zautomatyzowanych” – prognozuje. „Jesteśmy już w tym miejscu lub bardzo blisko”. Czas pokaże, czy jego optymizm nie jest kolejną rynkową halucynacją.