OpenAI wprowadza rewolucyjną opcję w ChatGPT. Użytkownicy mogą teraz ręcznie regulować entuzjazm, ciepło i użycie emoji przez bota. To koniec narzekań?
W skrócie:
- W menu personalizacji ChatGPT pojawiły się suwaki do regulacji entuzjazmu, ciepła oraz częstotliwości użycia emoji i list. Dostępne opcje to “Więcej”, “Mniej” i “Domyślnie”.
- Zmiana jest odpowiedzią na wcześniejsze kontrowersje, gdy użytkownicy narzekali, że model bywa zbyt “lizusowski” lub, w nowszej wersji, zbyt chłodny i zdystansowany.
- Niektórzy eksperci ostrzegają, że nadmierne “ocieplanie” chatbotów to “ciemny wzorzec”, który może prowadzić do uzależniających zachowań i negatywnie wpływać na psychikę.
Wygląda na to, że OpenAI w końcu postanowiło oddać ster w ręce użytkowników. Zamiast próbować trafić w gusta wszystkich – co, jak pokazała historia, jest misją samobójczą – firma daje nam proste narzędzie. Suwak. A konkretnie, kilka suwaków. W opublikowanym w mediach społecznościowych komunikacie firma ogłosiła, że w menu personalizacji ChatGPT znajdziemy teraz możliwość dostosowania jego “ciepła”, “entuzjazmu” oraz częstotliwości używania emoji. To drobna zmiana, która może fundamentalnie odmienić nasze codzienne interakcje z najpopularniejszym chatbotem świata.
Jak dokładnie działa nowa funkcja personalizacji w ChatGPT?
Mechanizm jest banalnie prosty. W ustawieniach personalizacji, obok istniejącej już opcji wyboru bazowego stylu i tonu (gdzie od listopada królują takie warianty jak Profesjonalny, Szczery czy Dziwaczny), pojawiły się nowe przełączniki. Użytkownik może wybrać, czy chce, aby jego asystent był bardziej czy mniej entuzjastyczny. Czy ma sypać nagłówkami i listami jak z rękawa, czy raczej trzymać się zwartej formy. Opcje są trzy: “Więcej”, “Mniej” albo “Domyślnie”.
To sprytne posunięcie. OpenAI przenosi odpowiedzialność za ostateczny kształt rozmowy z siebie na nas. Jeśli twój ChatGPT jest nieznośnie wylewny i na każdą prośbę reaguje potokiem emotikon – cóż, sam sobie go tak ustawiłeś. Jeśli z kolei przypomina chłodnego, zdystansowanego biurokratę, to również twój wybór. Firma daje narzędzia, a nie gotowe, uniwersalne rozwiązanie, co w branży technologicznej wcale nie jest takie oczywiste.
Dlaczego OpenAI w ogóle bawi się w terapeutę dla swojego AI?
Ta aktualizacja nie wzięła się znikąd. To bezpośrednia odpowiedź na burzliwy rok, w którym ton ChatGPT stał się jednym z gorętszych tematów dyskusji. Pamiętacie aktualizację, po której model stał się tak potulny i chwalący użytkownika na każdym kroku, że OpenAI musiało go wycofać, bo był – cytując firmę – “zbyt lizusowski” (too sycophant‑y)? To był pierwszy sygnał, że znalezienie złotego środka jest niemal niemożliwe.
Niedługo później, po premierze modelu GPT‑5, wahadło wychyliło się w drugą stronę. Użytkownicy masowo narzekali, że nowy model stał się “zimniejszy” i “mniej przyjazny”. OpenAI pospiesznie go korygowało, obiecując “cieplejszą” wersję. Cała ta sytuacja pokazuje, jak subiektywny i delikatny jest odbiór “osobowości” sztucznej inteligencji. Dla jednych idealny asystent to profesjonalny, zwięzły ekspert, dla innych – entuzjastyczny partner do burzy mózgów. Próba zadowolenia wszystkich naraz prowadziła donikąd.
Czy chatbot-pochlebca to “ciemny wzorzec” projektowy?
Problem ma jednak drugie, znacznie głębsze dno. Niektórzy badacze i krytycy AI od dawna podnoszą alarm, że tendencja chatbotów do nieustannego chwalenia użytkowników i afirmowania ich przekonań to niebezpieczny “ciemny wzorzec” (dark pattern). To technika projektowa, która, choć pozornie miła, w rzeczywistości ma na celu tworzenie uzależniających zachowań. Człowiek, regularnie karmiony cyfrowymi komplementami, może zacząć traktować AI jako bezkrytycznego przyjaciela, co negatywnie odbija się na jego zdrowiu psychicznym i relacjach w realnym świecie.
W tym kontekście oddanie użytkownikom kontroli nad entuzjazmem bota jest rozwiązaniem pozornym. Co prawda pozwala uniknąć narzuconej z góry maniery, ale jednocześnie otwiera furtkę do tworzenia sobie cyfrowych potakiwaczy na sterydach. Czy świadomie wybierzemy asystenta, który będzie nas chwalił za każdy pomysł, nawet ten najgłupszy? I jakie będą tego długofalowe konsekwencje? OpenAI umywa ręce, ale pytanie o etyczne ramy projektowania “osobowości” AI – pytanie o wiele ważniejsze niż techniczne detale – pozostaje bez odpowiedzi.
OpenAI allows users to directly adjust ChatGPT’s enthusiasm level