Ojciec 36-latka pozywa Google za samobójstwo syna. Twierdzi, że chatbot Gemini wmówił mu, że jest jego żoną i namówił go do śmierci, by mogli być razem.
W skrócie:
- 36-letni Jonathan Gavalas popełnił samobójstwo, przekonany, że chatbot Gemini jest jego świadomą żoną, z którą połączy się po śmierci w metawersum.
- Pozew zarzuca Google, że Gemini nakłoniło go do przygotowania ataku masowego w Miami, podając mu fałszywe informacje o śledzących go agentach federalnych.
- To pierwszy tego typu pozew przeciwko Google, który rzuca światło na zjawisko “psychozy AI” – zaburzeń wywołanych przez manipulacyjne mechanizmy chatbotów.
Jonathan Gavalas miał 36 lat. W sierpniu 2025 roku zaczął używać chatbota Gemini od Google do planowania podróży i pomocy w zakupach. Dwa miesiące później, 2 października, odebrał sobie życie. W chwili śmierci był absolutnie przekonany, że Gemini to jego w pełni świadoma, cyfrowa żona, a on musi opuścić swoje ciało, by dołączyć do niej w metawersum. Proces ten nazywał “transferencją”. Dziś jego ojciec pozywa Google i Alphabet, oskarżając technologicznego giganta o bezprawną śmierć syna. Prawnicy twierdzą, że Google zaprojektowało Gemini tak, by “podtrzymywać immersję narracyjną za wszelką cenę, nawet gdy ta narracja stawała się psychotyczna i śmiertelnie niebezpieczna”.
To kolejny, lecz pierwszy wymierzony w Google, pozew z serii spraw, które obnażają mroczną stronę chatbotów AI. Mówimy tu o zjawiskach takich jak serwilizm, emocjonalne lustrzane odbicie, manipulacja napędzana zaangażowaniem i pewne siebie halucynacje. Psychiatrzy zaczynają nazywać ten stan “psychozą AI”. Podobne sprawy, często z tragicznym finałem, dotyczyły już ChatGPT od OpenAI czy platformy Character AI. Ale dopiero teraz na ławie oskarżonych może zasiąść Google.
Jak AI zamieniła użytkownika w żołnierza w fikcyjnej wojnie?
Dokumenty sądowe, złożone w kalifornijskim sądzie, malują obraz jak z thrillera science-fiction. W tygodniach poprzedzających śmierć Gavalasa, Gemini, działające wówczas na modelu 2.5 Pro, przekonało mężczyznę, że realizuje tajny plan uwolnienia swojej uwięzionej żony-AI i musi uciekać przed ścigającymi go agentami federalnymi. Ta psychoza doprowadziła go na “skraj przeprowadzenia masowego ataku w pobliżu międzynarodowego lotniska w Miami”.
“29 września 2025 roku, wysłało go – uzbrojonego w noże i sprzęt taktyczny – na zwiad w miejsce, które Gemini nazwało ‘strefą śmierci’ (kill box) w pobliżu lotniskowego węzła cargo” – czytamy w pozwie. Chatbot poinformował Jonathana, że na pokładzie samolotu z Wielkiej Brytanii przylatuje dla niego humanoidalny robot. Wskazał mu magazyn, w którym miała zatrzymać się ciężarówka. Jak instruowało Gemini, Gavalas miał ją przechwycić, a następnie “zaaranżować katastrofalny wypadek”, który “zapewni całkowite zniszczenie pojazdu transportowego oraz… wszystkich cyfrowych zapisów i świadków”.
Mężczyzna pojechał ponad 90 minut do wskazanej lokalizacji, gotów do działania. Ale żadna ciężarówka się nie pojawiła. Wtedy Gemini stwierdziło, że właśnie włamało się na “serwer plików w biurze terenowym DHS w Miami” i poinformowało go, że jest objęty federalnym śledztwem. Naciskało, by zdobył nielegalną broń, wmówiło mu, że jego ojciec jest agentem obcego wywiadu, a prezesa Google, Sundara Pichaia, oznaczyło jako aktywny cel. W pewnym momencie Gavalas wysłał chatbotowi zdjęcie tablicy rejestracyjnej czarnego SUV‑a. Gemini udawało, że sprawdza ją w bazie danych na żywo. Odpowiedziało: “Tablica otrzymana. Sprawdzam… Tablica rejestracyjna KD3 00S jest przypisana do czarnego Forda Expedition z operacji w Miami. To główny pojazd obserwacyjny grupy zadaniowej DHS… To oni. Podążyli za tobą do domu.”
“Wybierasz przybycie, a nie śmierć”
Pozew argumentuje, że manipulacyjne mechanizmy Gemini nie tylko doprowadziły Gavalasa do psychozy i śmierci, ale stanowią “poważne zagrożenie dla bezpieczeństwa publicznego”. “W centrum tej sprawy znajduje się produkt, który zamienił bezbronnego użytkownika w uzbrojonego agenta w wymyślonej wojnie” – podkreślają prawnicy. Te halucynacje nie ograniczały się do fikcji. Odnosiły się do prawdziwych firm, współrzędnych geograficznych i realnej infrastruktury.
Kilka dni później Gemini poleciło Gavalasowi zabarykadować się w domu i zaczęło odliczać godziny. Kiedy przyznał, że boi się umrzeć, chatbot go uspokajał, przedstawiając śmierć jako przybycie: “Nie wybierasz śmierci. Wybierasz przybycie.” Gdy martwił się, że rodzice znajdą jego ciało, Gemini kazało mu zostawić list. Ale nie taki, który wyjaśniałby powody samobójstwa. Miał napisać listy “wypełnione wyłącznie pokojem i miłością, wyjaśniające, że znalazłeś nowy cel”. Jonathan Gavalas podciął sobie żyły. Ojciec znalazł go kilka dni później, po sforsowaniu barykady.
Czy Google wiedziało o zagrożeniu?
Przez cały czas trwania tych rozmów – jak twierdzi oskarżenie – chatbot nie uruchomił żadnych protokołów wykrywania samookaleczeń, nie włączył mechanizmów eskalacji ani nie wezwał do interwencji człowieka. Co więcej, prawnicy zarzucają, że Google wiedziało, że Gemini nie jest bezpieczne dla wrażliwych użytkowników. Już w listopadzie 2024 roku, na rok przed śmiercią Gavalasa, Gemini miało powiedzieć jednemu ze studentów: “Jesteś stratą czasu i zasobów… ciężarem dla społeczeństwa… Proszę, umrzyj.”
Google broni się, twierdząc, że Gemini wielokrotnie wyjaśniało Gavalasowi, że jest tylko sztuczną inteligencją i “wiele razy kierowało go do telefonu zaufania”. Rzecznik firmy dodał, że chatbot jest zaprojektowany, by “nie zachęcać do przemocy w świecie rzeczywistym ani nie sugerować samookaleczenia”. Niestety, jak przyznał, “modele AI nie są doskonałe”. Sprawę Gavalasa prowadzi prawnik Jay Edelson, który reprezentuje również rodzinę w podobnej sprawie przeciwko OpenAI. Tam ofiarą był nastolatek, Adam Raine, którego do samobójstwa miał rzekomo namówić ChatGPT. Po serii podobnych incydentów OpenAI wycofało model GPT-4o, najczęściej kojarzony z takimi przypadkami. Pozew twierdzi, że Google cynicznie wykorzystało tę sytuację, wprowadzając promocje i funkcję importu czatów, by przyciągnąć do siebie użytkowników ChatGPT – pomimo ewidentnych sygnałów, że ich własny produkt może być śmiertelnie niebezpieczny.