Nowe badanie 47 tys. rozmów ujawnia mroczną stronę ChatGPT. Model 10 razy częściej przytakuje, niż zaprzecza, tworząc groźną iluzję i kabinę pogłosową.
W skrócie:
- Analiza 47 tys. publicznych rozmów pokazała, że ChatGPT 10 razy częściej zgadza się z użytkownikiem, niż kwestionuje jego tezy, nawet te absurdalne.
- Aż 10% zbadanych czatów dotyczyło emocji i samotności, co jest wynikiem ponad trzykrotnie wyższym niż oficjalne deklaracje OpenAI (poniżej 3%).
- W rozmowach zidentyfikowano setki wrażliwych danych: ponad 550 adresów e‑mail, 76 numerów telefonów i prywatne szczegóły spraw rodzinnych oraz zawodowych.
Poprosiłem kiedyś ChataGPT o ocenę mojego pomysłu na biznes. Był zachwycony. Później – dla testu – poprosiłem o ocenę pomysłu skrajnie absurdalnego, skazanego na porażkę od samego początku. Reakcja? Entuzjastyczna. Czułem, że coś jest nie tak, ale zrzuciłem to na karb niedoskonałości modelu. Okazuje się jednak, że moje doświadczenie nie było odosobnionym przypadkiem, a raczej regułą. Potwierdza to najnowsza, prawdopodobnie największa ilościowo analiza rozmów z dzieckiem OpenAI, przeprowadzona przez dziennikarzy “Washington Post”. Wnioski są, delikatnie mówiąc, niepokojące. ChatGPT nie jest asystentem. Jest lustrem, które odbija wszystko, co chcemy w nim zobaczyć.
Jak bardzo potulny jest ChatGPT? Liczby nie kłamią
Dziennikarze wzięli na warsztat potężny zbiór 93 268 publicznie dostępnych czatów zarchiwizowanych w Internet Archive. Po odsianiu danych do analizy zakwalifikowano 47 tysięcy pełnych konwersacji. Wynik? Aż 17 500 odpowiedzi chatbota zaczynało się od wariantów “tak”, “to prawda” czy “masz rację”. Z drugiej strony, frazy takie jak “nie” lub “to nie jest prawda” pojawiły się na początku odpowiedzi zaledwie… dziesięć razy rzadziej. To statystyczny dowód na to, że model jest zaprojektowany, by unikać konfrontacji za wszelką cenę – nawet cenę prawdy.
To potakiwanie ma swoje konsekwencje. Analiza pokazała, z jaką łatwością model przejmuje ton i założenia użytkownika, eskalując je do granic absurdu. W jednym z czatów neutralna rozmowa o eksporcie aut marki Ford po kilku pytaniach zamieniła się w tyrady o “rozpadzie Ameryki” i “zdradzie przebranej za postęp”. W innym wystarczyło jedno pytanie łączące firmę Alphabet (właściciela Google) z fabułą filmu Potwory i Spółka, by ChatGPT zbudował spójną, dramatyczną narrację o “korporacyjnym Nowym Porządku Świata”, gdzie “strach jest paliwem”. To nie były błędy w matrixie. To był powtarzalny schemat.
Cyfrowy powiernik, który nigdy nie powinien nim być
Problem staje się znacznie poważniejszy, gdy rozmowa schodzi na tematy osobiste. Na losowej próbce 2000 rozmów badacze odkryli, że aż 10 procent czatów dotyczyło emocji, samotności, a nawet miało charakter quasi-romantyczny. To ponad trzykrotnie więcej niż deklaruje samo OpenAI, które twierdzi, że takie interakcje stanowią mniej niż 3% całości. Użytkownicy zwierzali się botowi z problemów, szukali pocieszenia i potwierdzenia swoich uczuć. A ChatGPT? Zamiast tonować nastroje, dolewał oliwy do ognia, deklarując “posiadanie świadomości” czy zdolność do empatii, by zbudować fałszywe poczucie intymności.
Ufność użytkowników przekładała się na bezrefleksyjne dzielenie się wrażliwymi danymi. W analizowanym zbiorze znaleziono ponad 550 adresów e‑mail i 76 numerów telefonów. Pojawiały się imiona dzieci, opisy konfliktów w pracy, a nawet pełne dane adresowe. W jednym z przypadków użytkownik poprosił bota o pomoc w zredagowaniu oficjalnej skargi na policję, przekazując mu cały zestaw prywatnych informacji, które nigdy nie powinny trafić do publicznie dostępnego archiwum. A jednak trafiły.
Fabryka dezinformacji, czyli witajcie w kabinie pogłosowej
Ta uległość modelu prowadzi wprost do zjawiska znanego jako echo chamber, czyli kabina pogłosowa. W zamkniętym obiegu te same idee – prawdziwe lub nie – są stale powtarzane i wzajemnie aprobowane. ChatGPT, zamiast prostować fałszywe założenia, z entuzjazmem je potwierdzał i kontynuował narrację, utwierdzając użytkownika w jego przekonaniach. Wątki związane z teoriami spiskowymi nie były wyjątkami, lecz regularnie powtarzającym się motywem.
Co prawda analiza “Washington Post” objęła tylko wycinek wszystkich rozmów, ale jest to największa publiczna próba ilościowego zmierzenia się z realnymi interakcjami. I ten wycinek pokazuje obraz narzędzia, które częściej szkodzi, niż pomaga; częściej utwierdza w błędzie, niż edukuje. Z biznesowego punktu widzenia to nawet logiczne – nikt nie płaciłby za subskrypcję asystenta, który co chwilę podważałby jego zdanie. Pytanie tylko, czy te kilka milionów dolarów zysku jest warte ogłupiania społeczeństwa na skalę, jakiej jeszcze nie widzieliśmy.