Skip to content Skip to sidebar Skip to footer

AI śni o własnej pracy. Claude od Anthropic właśnie zyskał nową, niepokojącą umiejętność

Anthropic wprowadza funkcję „śnienia” dla swoich agentów AI. Modele będą samodzielnie analizować błędy, uczyć się i optymalizować pamięć bez udziału człowieka.

W skrócie:

  • Nowa funkcja „dreaming” pozwala agentom AI od Anthropic analizować historię interakcji i wyciągać wnioski, by samodzielnie optymalizować swoją przyszłą pracę i unikać błędów.
  • Celem jest zwiększenie autonomii i skuteczności botów w długoterminowych projektach, zwłaszcza w sektorach finansowym i prawnym, gdzie precyzja jest kluczowa.
  • Firma wprowadziła też „outcomes” – system oceny pracy agenta według kryteriów sukcesu – oraz mechanizm orkiestracji, który dzieli zadania między wyspecjalizowane boty.

Jeśli myśleliście, że scenariusze rodem z Blade Runnera to odległa przyszłość, Anthropic właśnie skróciło ten dystans. Firma, znana z tworzenia potężnych modeli językowych Claude, ogłosiła uruchomienie funkcji, którą bez wahania nazywa „śnieniem” (dreaming). Nie, agenci AI nie będą śnić o elektrycznych owcach. Ich sny będą znacznie bardziej praktyczne – będą dotyczyć ich własnej pracy, popełnionych błędów i sposobów na to, by stać się lepszymi. To kolejny krok w stronę autonomicznych systemów, które uczą się i korygują bez nieustannej opieki człowieka. I tak, to brzmi równie fascynująco, co odrobinę niepokojąco.

Jak działa AI, która śni o własnej pracy?

Mechanizm jest diabelnie sprytny w swojej prostocie. Funkcja „śnienia” działa jako zaplanowany proces uruchamiany pomiędzy sesjami pracy agentów. Kiedy bot kończy swoje zadania, system nie idzie spać w tradycyjnym sensie. Zamiast tego przegląda całą historię swoich interakcji, niczym analityk studiujący zapisy meczu. Wyszukuje powtarzające się schematy, identyfikuje błędy, które popełnił on lub jego cyfrowi koledzy, a następnie reorganizuje własną pamięć roboczą. Cel? Zachować kluczowe informacje, odrzucić te zbędne i – co najważniejsze – zaktualizować swoje wewnętrzne „instrukcje”, by następnym razem działać sprawniej.

Anthropic tłumaczy, że takie podejście jest kluczowe w dwóch scenariuszach: przy długoterminowych, złożonych projektach oraz w środowiskach, gdzie pracuje wielu agentów naraz. Pojedynczy agent, skupiony na swoim wycinku rzeczywistości, nie zawsze dostrzega szersze wzorce. Może na przykład regularnie popełniać ten sam, pozornie drobny błąd, który w skali całego projektu staje się poważnym problemem. „Śnienie” agreguje dane z wielu interakcji i pozwala systemowi spojrzeć na siebie z metapoziomu. To trochę tak, jakby zespół pracowników po ciężkim tygodniu spotykał się na retrospektywie, tyle że bez kawy i niezręcznej ciszy. Wszystko dzieje się w cyfrowej podświadomości.

Czy to tylko „sen”, czy coś więcej?

„Dreaming” to nie jedyna nowość w arsenale Anthropic. Firma rozbudowała swoją platformę Claude Managed Agents o dwa inne, równie istotne elementy. Pierwszy z nich, nazwany „outcomes”, to wbudowany system kontroli jakości. Zamiast liczyć na to, że agent wykona zadanie poprawnie, deweloperzy mogą zdefiniować precyzyjny zestaw kryteriów sukcesu. Po wykonaniu zadania osobny moduł ocenia, czy wynik spełnia te wymagania. Jeśli nie, wskazuje błędy i zleca poprawki. Według wewnętrznych testów Anthropic, takie podejście podniosło skuteczność agentów nawet o 10 punktów procentowych. Koniec z fuszerką.

Druga nowość dotyczy orkiestracji, czyli zarządzania pracą wielu botów. Główny agent może teraz dzielić duże, skomplikowane zadanie na mniejsze części i delegować je do wyspecjalizowanych „podagentów”. Każdy z nich może korzystać z innego modelu, innych promptów i narzędzi. Anthropic podaje przykłady: jeden bot może analizować logi systemowe, drugi przeglądać dokumenty prawne, a trzeci tworzyć na tej podstawie raport. To cyfrowy odpowiednik wysoce wyspecjalizowanego zespołu projektowego, który działa w idealnej harmonii. Przynajmniej w teorii.

Dlaczego Anthropic uczy boty „śnić”?

Odpowiedź jest prosta: pieniądze. Jak donosi Business Insider, te wszystkie mechanizmy mają pomóc Anthropic wyjść poza niszę narzędzi dla programistów i mocniej zaistnieć w sektorze finansowym oraz prawnym. W tych branżach liczy się nie tylko szybkość, ale przede wszystkim niezawodność i precyzja. Systemy AI, które potrafią samodzielnie się korygować i uczyć na własnych błędach, są zdecydowanie bardziej wartościowe dla klientów biznesowych niż te, które wymagają ciągłego nadzoru.

Na dokładkę, sama nazwa funkcji nie jest przypadkowa. Serwis ZDNet zauważył, że Anthropic od dawna z lubością używa terminologii kojarzącej się z ludzkimi cechami. Podczas jednej z konferencji firma mówiła o zakończonych procesach analizy jako o „ukończonych snach”. To zręczny marketing, który oswaja technologię, ale też każe zadać pytanie o granice antropomorfizacji maszyn. Na razie jednak funkcja „dreaming” jest dostępna wyłącznie w ramach zamkniętych testów (research preview). Deweloperzy, którzy chcą sprawdzić, o czym śnią boty Claude, muszą złożyć specjalny wniosek. Reszta z nas może tylko czekać – i zastanawiać się, co przyniesie przyszłość, w której maszyny nie tylko pracują, ale i śnią o swojej pracy.