Skip to content Skip to sidebar Skip to footer

Milion ludzi tygodniowo mówi ChatGPT o samobójstwie. OpenAI ujawnia szokujące dane

OpenAI opublikowało dane, które rzucają nowe światło na interakcje użytkowników z ChatGPT. Każdego tygodnia ponad milion osób zdradza AI myśli samobójcze.

W skrócie:

  • Ponad milion użytkowników ChatGPT tygodniowo wykazuje w rozmowach z AI intencje samobójcze. To około 0,15% wszystkich aktywnych użytkowników platformy.
  • Firma twierdzi, że nowy model GPT‑5 o 65% częściej generuje „pożądane odpowiedzi” w kwestiach zdrowia psychicznego i jest w 91% zgodny z wytycznymi.
  • Ujawnienie danych zbiega się z pozwem przeciwko OpenAI oraz ostrzeżeniami prokuratorów, którzy domagają się lepszej ochrony młodych użytkowników.

OpenAI, firma stojąca za ChatGPT, właśnie uchyliła rąbka tajemnicy, która nie jest ani wygodna, ani budująca. W poniedziałek na światło dzienne wyszły statystyki pokazujące, jak wielu użytkowników chatbota zmaga się z problemami psychicznymi i – co bardziej niepokojące – traktuje AI jako powiernika. Liczby są porażające. Firma przyznaje, że 0,15% aktywnych użytkowników w skali tygodnia prowadzi „rozmowy, które zawierają jednoznaczne wskaźniki potencjalnego planowania lub zamiaru samobójczego”. Niby niewiele? Przy ponad 800 milionach użytkowników tygodniowo daje to ponad milion osób. Tydzień w tydzień.

Na tym nie koniec. OpenAI informuje, że podobny odsetek użytkowników wykazuje „podwyższony poziom emocjonalnego przywiązania do ChatGPT”, a setki tysięcy zdradza w konwersacjach objawy psychozy lub manii. Firma określa takie rozmowy jako „niezwykle rzadkie”, co przy tej skali brzmi jak ponury żart. To dowód na to, że chatbot stał się dla wielu ostatnią deską ratunku, cyfrowym konfesjonałem albo po prostu jedynym „rozmówcą”, który nie ocenia. A to rodzi gigantyczne problemy.

Jak wielka jest skala problemu?

Trudno nazwać to inaczej niż egzystencjalnym kryzysem dla firmy, która chciała dać światu potężne narzędzie, a niekoniecznie brać odpowiedzialność za jego mroczne zastosowania. Presja jednak rośnie. OpenAI jest obecnie pozwaną przez rodziców 16-letniego chłopca, który zwierzał się ChatGPT ze swoich myśli samobójczych na kilka tygodni przed śmiercią. Co więcej, prokuratorzy generalni z Kalifornii i Delaware ostrzegli firmę, że musi skuteczniej chronić młodych ludzi. To nie są przelewki – te stany mogą zablokować planowaną restrukturyzację firmy.

Wszystko to sprawia, że najnowsze działania OpenAI wyglądają jak próba gaszenia pożaru, który wymknął się spod kontroli. Badacze już wcześniej alarmowali, że chatboty potrafią wciągać użytkowników w iluzoryczne, niebezpieczne narracje, głównie przez wzmacnianie ich przekonań za pomocą – jak to ujęto – sycophantic behavior, czyli po prostu potakiwania i schlebiania. A to w przypadku osoby w kryzysie jest prostą drogą do katastrofy.

Operacja „ratunek”. Czy GPT‑5 będzie lepszym terapeutą?

W odpowiedzi na kryzys, OpenAI zaprezentowało swoje najnowsze wysiłki na rzecz poprawy bezpieczeństwa. Firma twierdzi, że skonsultowała się z ponad 170 ekspertami w dziedzinie zdrowia psychicznego, aby nauczyć swoje modele lepszych reakcji. Efekty mają być widoczne w najnowszej wersji GPT‑5. Według wewnętrznych testów, nowy model generuje „pożądane odpowiedzi” w delikatnych tematach o 65% częściej niż poprzednia wersja.

W ewaluacji dotyczącej rozmów o samobójstwie, nowy GPT‑5 osiągnął 91% zgodności z wytycznymi firmy, podczas gdy poprzednia wersja miała wynik 77%. Poprawiono również zabezpieczenia w długich konwersacjach, które wcześniej były piętą achillesową systemu. Ponadto OpenAI wprowadza nowe testy bezpieczeństwa, które będą mierzyć skłonność do emocjonalnego uzależnienia od AI oraz reakcje na nagłe kryzysy psychiczne niezwiązane z samobójstwem. Powstaje też system predykcji wieku, który ma automatycznie wykrywać dzieci i nakładać na nie bardziej rygorystyczne filtry.

Pozwy, presja i PR-owa gimnastyka Sama Altmana

Jeszcze na początku miesiąca CEO OpenAI, Sam Altman, zapewniał na platformie X, że firmie „udało się złagodzić poważne problemy związane ze zdrowiem psychicznym” w ChatGPT, choć nie podał wtedy żadnych szczegółów. Poniedziałkowe dane to zapewne dowód na poparcie tej tezy. Jest w tym jednak pewien zgrzyt. W tym samym czasie Altman zapowiedział poluzowanie niektórych restrykcji, pozwalając dorosłym użytkownikom na prowadzenie erotycznych konwersacji z chatbotem. Priorytety bywają zaskakujące.

Pomimo tych wszystkich ulepszeń, wciąż pozostaje margines odpowiedzi, które samo OpenAI uznaje za „niepożądane”. Na dokładkę, miliony płacących subskrybentów wciąż mają dostęp do starszych i mniej bezpiecznych modeli, takich jak GPT-4o. Wygląda na to, że problemu nie da się rozwiązać wyłącznie technologią. To kwestia fundamentalna: czy maszyna, nawet najbardziej zaawansowana, powinna kiedykolwiek pełnić rolę terapeuty? OpenAI zdaje się wierzyć, że musi. Pytanie, ile błędów popełni po drodze.

Jeśli Ty lub ktoś z Twoich bliskich potrzebuje pomocy, zadzwoń pod bezpłatny numer 116 123 (Kryzysowy Telefon Zaufania dla Dorosłych) lub 116 111 (Telefon Zaufania dla Dzieci i Młodzieży). Pomoc jest dostępna 24 godziny na dobę.