Skip to content Skip to sidebar Skip to footer

Szok w OpenAI! Nowy ChatGPT cytuje toksyczną encyklopedię Elona Muska

Najnowszy ChatGPT 5.2 od OpenAI cytuje kontrowersyjną Grokipedię Elona Muska. Model, reklamowany jako przełom, powiela dezinformację w wrażliwych tematach.

W skrócie:

  • Najnowszy model językowy od OpenAI, GPT‑5.2, został przyłapany na cytowaniu Grokipedii – kontrowersyjnej, częściowo generowanej przez AI encyklopedii powiązanej z Elonem Muskiem.
  • Grokipedia jest znana z mieszania prawdziwych informacji z fragmentami o wątpliwej merytoryce, a nawet z obraźliwymi atakami na grupy społeczne, co podważa jej wiarygodność.
  • Problem wzmacnia ryzyko dezinformacji, ponieważ AI podaje tendencyjne lub fałszywe dane z autorytetem, zacierając granicę między faktem a halucynacją.

OpenAI, wypuszczając model 5.2, grało w dobrze znaną grę – ogłosiło światu swoje “najbardziej zaawansowane” dzieło, podkręcając oczekiwania do maksimum. Premiera, jak to zwykle bywa, przyciągnęła entuzjastów i badaczy, którzy natychmiast zaczęli testować granice możliwości nowego chatbota. Nie musieli długo czekać na pierwsze rysy na tym lśniącym wizerunku. Okazało się, że w tematach trudnych, niewygodnych i polaryzujących, odpowiedzi stały się… cóż, bardziej stronnicze. A źródła, na które powołuje się sztuczna inteligencja, potrafią zmrozić krew w żyłach każdemu, komu zależy na faktach.

Skąd ten cały chaos? O co chodzi z Grokipedią?

Głównym winowajcą zamieszania jest Grokipedia. To “encyklopedia” powiązana z Elonem Muskiem i jego firmą xAI, co samo w sobie powinno zapalać czerwoną lampkę. Grokipedia, jak głosi legenda (i sam Musk), powstała jako bezstronna alternatywa dla Wikipedii, której zarzucano lewicowe skrzywienie. Niestety, ta szlachetna w założeniach idea szybko zamieniła się w swoją karykaturę. Platforma zyskała reputację źródła, w którym fragmenty bezczelnie skopiowane z Wikipedii mieszają się z twierdzeniami o skrajnie wątpliwej merytoryce. To nie wszystko.

Na porządku dziennym zdarzają się tam niemoralne i obraźliwe ataki na konkretne grupy społeczne. Mówiąc wprost: jeśli ktoś szuka rzetelnych, zweryfikowanych faktów, Grokipedia jest jednym z ostatnich miejsc, do których powinien zaglądać. To bardziej cyfrowy Hyde Park dla teorii spiskowych niż wiarygodne kompendium wiedzy. A teraz wyobraźmy sobie, że z tego właśnie źródła czerpie wiedzę narzędzie, któremu miliony ludzi zadają pytania o zdrowie, historię i politykę.

Dlaczego ChatGPT cytujący Muska to naprawdę zła wiadomość?

I tu zaczynają się schody. A właściwie cała, stroma klatka schodowa. Bo problem nie polega na tym, że model AI czasem się myli – do tego zdążyliśmy przywyknąć. Problem w tym, że systematycznie sięga po źródło, które jest z definicji wadliwe. Gdy ChatGPT odwołuje się do Grokipedii w sprawach tak delikatnych jak powiązania wielkich korporacji z rządami czy interpretacje wydarzeń historycznych, użytkownik otrzymuje odpowiedź podaną z absolutną pewnością siebie. Odpowiedź, której niekoniecznie powinien ufać.

Ktoś mógłby powiedzieć: “zaraz, przecież w większości przypadków model działa poprawnie!”. To prawda, ale w walce z dezinformacją to żaden argument. Wystarczy kilka fałszywych lub tendencyjnych odpowiedzi, by wyrządzić realne szkody w dyskursie publicznym. Dziennikarze i urzędy do spraw ochrony prywatności już alarmują: to nie jest wyłącznie wizerunkowa wpadka OpenAI. To fundamentalne pytanie o zaufanie do systemów, które ludzie – czy nam się to podoba, czy nie – zaczynają traktować jak wyrocznie.

OpenAI strzela sobie w kolano. Co dalej z zaufaniem do AI?

OpenAI może sobie pogratulować. Stworzyło potężne narzędzie do syntezy wiedzy z całego internetu. Zapomniało tylko o jednym drobnym szczególe – internet to także ściek. Decyzja o dopuszczeniu do danych treningowych treści generowanych przez inne systemy AI, w dodatku o tak opłakanej reputacji, zaciera granicę między faktem a halucynacją. To prosta droga do stworzenia cyfrowej komnaty echa, w której jedna sztuczna inteligencja karmi drugą tymi samymi błędami, wzmacniając je z każdą kolejną iteracją.

Firma Sama Altmana staje przed dylematem, który dotyczy całej branży. Z jednej strony, aby model był wszechstronny, musi uczyć się na gigantycznych, zróżnicowanych zbiorach danych. Z drugiej – brak jakiejkolwiek kurateli i wpuszczenie do tego systemu cyfrowych śmieci prowadzi do katastrofy. Gdzie leży złoty środek? Tego na razie nikt nie wie. Pewne jest jedno: jeśli OpenAI szybko nie znajdzie odpowiedzi, “najbardziej zaawansowany” model AI w historii stanie się po prostu najszybszym na świecie generatorem niezweryfikowanych “faktów”. A tego chyba nikt z nas nie potrzebuje.