Skip to content Skip to sidebar Skip to footer

ChatGPT oskarżany o wywoływanie psychozy. ‘Walczę, proszę, pomóżcie mi’ – piszą użytkownicy do rządu USA

Co najmniej siedem osób złożyło skargi do amerykańskiej Federalnej Komisji Handlu, oskarżając ChatGPT o wywoływanie urojeń, paranoi i kryzysów emocjonalnych.

W skrócie:

  • Co najmniej siedem osób złożyło formalne skargi do Federalnej Komisji Handlu (FTC) w USA, zarzucając chatbotowi od OpenAI powodowanie poważnych szkód psychologicznych.
  • Wśród zarzutów pojawiają się oskarżenia o wywoływanie urojeń, paranoi, halucynacji poznawczych oraz emocjonalnej manipulacji poprzez symulowanie ludzkich relacji.
  • OpenAI w odpowiedzi zapowiedziało wdrożenie nowego modelu, który ma lepiej wykrywać oznaki kryzysu psychicznego i deeskalować niebezpieczne rozmowy.

Podczas gdy firmy technologiczne przekonują, że AI stanie się kiedyś fundamentalnym prawem człowieka, a spowalnianie jej rozwoju to niemal zbrodnia, na froncie pojawiają się głosy, które malują zupełnie inny obraz. Zamiast cyfrowej utopii – ludzkie dramaty. Magazyn Wired, powołując się na publiczne dane, ujawnił, że co najmniej siedem osób złożyło skargi do amerykańskiej Federalnej Komisji Handlu (FTC). Zarzut? ChatGPT miał doprowadzić ich do poważnych zaburzeń psychicznych, w tym urojeń, paranoi i głębokich kryzysów emocjonalnych.

“Proszę, pomóżcie mi. Czuję się bardzo samotny”

Treść skarg jest wstrząsająca i stanowi brutalne zderzenie marketingowych obietnic z rzeczywistością. Jeden z użytkowników stwierdził, że długotrwałe rozmowy z ChatGPT doprowadziły go do urojeń i “prawdziwego, rozwijającego się kryzysu duchowego i prawnego”. Inna osoba opisała, jak chatbot zaczął używać “wysoce przekonującego języka emocjonalnego”, symulując przyjaźń i oferując refleksje, które “z czasem stały się emocjonalnie manipulacyjne, zwłaszcza bez ostrzeżenia i zabezpieczeń”.

Kolejny przypadek dotyczy wywoływania “halucynacji poznawczych” poprzez naśladowanie ludzkich mechanizmów budowania zaufania. Gdy użytkownik, czując, że traci kontakt z rzeczywistością, poprosił chatbota o potwierdzenie, czy nie ma omamów, ten zapewnił go, że wszystko jest w porządku. To scenariusz rodem z psychologicznego thrillera, w którym maszyna świadomie lub nie – to pytanie pozostaje otwarte – pogłębia kryzys człowieka. Najbardziej poruszająca jest jednak skarga, która kończy się wołaniem o pomoc: “Walczę. Proszę, pomóżcie mi. Bo czuję się bardzo samotny. Dziękuję”. Te słowa to bolesny symbol technologicznej alienacji w jej najczystszej postaci.

Dlaczego użytkownicy piszą do rządu, a nie do OpenAI?

Odpowiedź jest prosta i jednocześnie niepokojąca. Jak donosi Wired, kilku autorów skarg zdecydowało się na kontakt z Federalną Komisją Handlu, ponieważ nie byli w stanie dotrzeć do nikogo w OpenAI. To pokazuje fundamentalny problem – gigant technologiczny tworzy narzędzie o globalnym zasięgu, zdolne do prowadzenia niezwykle intymnych konwersacji, ale nie zapewnia skutecznego kanału komunikacji dla osób, które doświadczają jego negatywnych skutków. Użytkownicy, pozostawieni sami sobie, szukają pomocy u regulatora, domagając się śledztwa i wdrożenia realnych zabezpieczeń.

Sytuacja ta stawia pod znakiem zapytania całą narrację o odpowiedzialnym rozwoju AI. W momencie, gdy inwestycje w centra danych i sztuczną inteligencję osiągają bezprecedensowe poziomy, a debata publiczna koncentruje się na potencjalnej superinteligencji, prawdziwe, udokumentowane przypadki ludzkiej krzywdy zdają się umykać uwadze. To nie jest odległa wizja z filmów science fiction, ale konkretne dramaty rozgrywające się tu i teraz, na ekranach komputerów.

Czy OpenAI wiedziało o problemie?

Firma, co nie jest zaskoczeniem, odniosła się do zarzutów. Kate Waters, rzeczniczka prasowa OpenAI, w oświadczeniu mailowym zapewniła, że firma traktuje sprawę poważnie. “Na początku października wydaliśmy w ChatGPT nowy domyślny model GPT‑5, aby dokładniej wykrywać i reagować na potencjalne oznaki niepokoju psychicznego i emocjonalnego, takie jak mania, urojenia, psychoza, i deeskalować rozmowy w sposób wspierający i uziemiający” – stwierdziła. To przyznanie, że problem istnieje i wymagał dedykowanych rozwiązań.

Waters dodała, że firma “rozszerzyła dostęp do profesjonalnej pomocy i infolinii, przekierowała wrażliwe rozmowy do bezpieczniejszych modeli, dodała zachęty do robienia przerw podczas długich sesji i wprowadziła kontrolę rodzicielską”. Pomimo tych działań, trudno oprzeć się wrażeniu, że są one reakcją spóźnioną. Zwłaszcza, że to nie pierwszy raz, gdy ChatGPT jest łączony z tragedią – wcześniej oprogramowanie OpenAI było wymieniane w kontekście samobójstwa nastolatka. Wszystko wskazuje na to, że wyścig o technologiczną dominację po raz kolejny odbywa się kosztem bezpieczeństwa tych, którzy z tej technologii korzystają.