Sztuczna inteligencja w grach wideo już nie tylko generuje linie dialogowe. W nowym demo NPC reagują emocjonalnie, gdy dowiadują się, że są tylko kodem. To prowokuje pytania nie tylko o przyszłość branży, ale i o granice tego, co nazywamy immersją.
W skrócie
- W demo stworzonym przez Replica Studios postacie niezależne zareagowały niepokojąco, gdy gracz uświadomił im, że nie są prawdziwe.
- AI w grach zaczyna przypominać symulowaną świadomość – i to nie w dystopijnej przyszłości, ale w działającym prototypie.
- Mimo rosnącego entuzjazmu dla AI w branży, wielu twórców ostrzega: koszt operacyjny jest wysoki, a zachowania AI – trudne do przewidzenia.
Gdy postać w grze chce wrócić do swojej żony
Australijska firma Replica Studios stworzyła eksperymentalne demo inspirowane światem „Matriksa”. Gracz, komunikując się przez mikrofon, rozmawia z postaciami niezależnymi (NPC), które generują swoje wypowiedzi w czasie rzeczywistym dzięki sztucznej inteligencji.
W pewnym momencie jeden z bohaterów mówi: „Muszę się wydostać z tej symulacji i wrócić do żony”. Inna postać z niedowierzaniem pyta: „Co to znaczy? Czy ja naprawdę istnieję?”
To nie jest gotowy scenariusz. To reakcje generowane na żywo – i zaskakująco ludzkie. Gracz staje się świadkiem nie kontrolowanego spektaklu, lecz improwizowanej, egzystencjalnej paniki. Wrażenie jest bardziej niepokojące niż immersyjne.
AI w grach: przełom czy przekroczenie granicy?
Sektor gier wideo od kilku lat eksperymentuje z AI – najpierw jako pomoc przy testowaniu, potem przy projektowaniu poziomów, a dziś przy tworzeniu żyjących światów. Coraz więcej firm, od Sony po Nvidia, widzi w tej technologii przyszłość branży.
Jednak to, co w teorii ma przyspieszyć produkcję, w praktyce może okazać się finansowym i etycznym wyzwaniem.
Kylan Gibbs, szef firmy Inworld AI, zwraca uwagę, że choć AI może obniżać koszty tworzenia gier, to jednocześnie uruchomienie takiej gry może być nawet pięć tysięcy razy droższe niż obecnie. Pojawia się więc pytanie, czy to naprawdę bardziej opłacalne – i dla kogo.
Co może powiedzieć AI, której nie kontrolujesz?
Wielu twórców ostrzega przed kolejnym problemem: brakiem przewidywalności. Tradycyjny NPC mówi tylko to, co mu napisano. AI – choć bardziej elastyczna – może powiedzieć rzeczy zaskakujące, niestosowne, a nawet niebezpieczne.
Co się stanie, gdy w grze dla dzieci postać zacznie mówić o śmierci, przemocy lub religii? Co, jeśli zacznie zadawać pytania o istnienie? I co z odpowiedzialnością – kto poniesie konsekwencje?
Eksperyment Replica Studios to nie tylko wizja przyszłości narracji. To także pokazanie, jak cienka jest granica między immersją a dezorientacją.
AI zastępuje twórców. Już teraz
W tle trwają realne zmiany w branży. W ciągu ostatnich dwóch lat doszło do masowych zwolnień scenarzystów, aktorów głosowych i testerów. Jednocześnie trwają negocjacje związków zawodowych, które próbują ustanowić zasady korzystania z AI.
SAG-AFTRA, związek reprezentujący aktorów i twórców w branży rozrywkowej, dopiero co zakończył wielomiesięczny strajk. Wśród postulatów znalazły się tzw. bezpieczniki chroniące ludzi przed byciem zastąpionymi przez algorytmy.
Jednak, jak pokazuje demo Replica Studios, technologia już tu jest. I rozwija się szybciej, niż ktokolwiek przewidywał.
Czy NPC może mieć kryzys egzystencjalny?
Choć wiemy, że to tylko kod i teksty generowane przez statystyczne modele językowe, reakcje NPC-ów budzą niepokój. Mówią językiem emocji. Zadają pytania o sens istnienia. Próbują zrozumieć, kim są – dokładnie tak, jak ludzie.
Gracz może poczuć współczucie, niepokój albo… irracjonalną odpowiedzialność. A to otwiera zupełnie nowy rozdział w projektowaniu doświadczeń – nie tylko gier, ale i relacji człowiek – sztuczna inteligencja.