Skip to content Skip to sidebar Skip to footer

Twórca ChatGPT uderza w stół. “Internet jest fejkowy”. Sam Altman nie wie już, komu ufać

Sam Altman, szef OpenAI, doznał olśnienia na Reddicie. Uznał, że przez boty i “język LLM” social media stały się tak “fejkowe”, że stracił do nich zaufanie.

W skrócie:

  • Sam Altman, CEO OpenAI, stwierdził, że przez boty i naśladowanie stylu LLM przez ludzi, dyskusje na Reddicie i X wydają się “sztuczne” i nieautentyczne.
  • Ironią jest, że to właśnie modele OpenAI, trenowane m.in. na danych z Reddita, napędzają ten trend. Altman sam jest dużym udziałowcem serwisu.
  • Według danych firmy Imperva za 2024 rok, już ponad połowa całego ruchu w internecie jest generowana przez boty, co potęguje problem autentyczności.

Sam Altman, człowiek, który dał światu ChatGPT i w dużej mierze odpowiada za obecny krajobraz sztucznej inteligencji, podzielił się na platformie X dość osobliwym odkryciem. Otóż, jego zdaniem, media społecznościowe stały się “fejkowe”. To trochę tak, jakby Henry Ford nagle odkrył, że na ulicach jest za dużo samochodów. Ale Altman nie żartował. Wręcz przeciwnie, jego wpis to zapis konsternacji kogoś, kto patrzy na swoje dzieło i nie jest pewien, co właściwie widzi.

Jak twórca AI odkrył, że AI zepsuło internet?

Wszystko zaczęło się od subreddita r/Claudecode, poświęconego konkurencyjnemu modelowi od Anthropic. Altman zauważył, że forum zalała fala postów od rzekomych użytkowników Claude, którzy z entuzjazmem ogłaszali przejście na produkt OpenAI – Codex. Sytuacja stała się tak absurdalna, że jeden z użytkowników zażartował: “Czy da się przejść na Codex bez zakładania o tym wątku na Reddicie?”. Altman, czytając te wpisy, doznał dysonansu. “Miałem najdziwniejsze doświadczenie, czytając to: zakładam, że wszystko jest fałszywe/boty, nawet jeśli w tym przypadku wiem, że wzrost Codexa jest naprawdę silny, a trend jest prawdziwy” – wyznał na X. Zaczął głośno analizować, skąd bierze się to poczucie sztuczności. Wskazał na kilka czynników: ludzie zaczęli przejmować manieryzmy językowe od modeli LLM, “skrajnie internetowa” grupa odbiorców myśli w bardzo skorelowany sposób, a platformy społecznościowe optymalizują wszystko pod zaangażowanie. Dodał też, że inne firmy stosowały przeciw OpenAI tzw. astroturfing (sztuczne budowanie poparcia), co uczuliło go na podobne zjawiska.

Lustro, w które strach spojrzeć

Najciekawszy jest tu jednak element autoironii, być może niezamierzonej. Altman oskarża ludzi o to, że zaczynają brzmieć jak LLM‑y, podczas gdy jego firma stworzyła modele, które miały naśladować ludzką komunikację. Co więcej, OpenAI oficjalnie przyznało, że trenowało swoje algorytmy na danych z Reddita – platformy, w której Altman do 2022 roku zasiadał w zarządzie i której jest znaczącym udziałowcem. Mamy więc do czynienia z zamkniętym obiegiem: AI uczy się od ludzi z Reddita, a potem ludzie z Reddita zaczynają mówić jak AI. Pytanie, kto tu jest botem, staje się czysto filozoficzne. Sam Altman zdaje się też zapominać, że te same fora potrafią być bezlitosne. Po premierze modelu GPT‑5 na Reddicie zawrzało. Użytkownicy masowo krytykowali nową wersję za jej “osobowość” i błędy w działaniu. Czy tamte głosy też były “fejkowe”? Czy może, jak sugeruje Altman, to boty konkurencji siały zamęt? A może po prostu ludzie byli niezadowoleni? Ta niepewność to właśnie istota problemu, który sam pomógł stworzyć.

Czy to tylko narzekanie, czy może… marketing?

Oczywiście, narzekania Altmana można zbyć wzruszeniem ramion. Kto mieczem wojuje, ten od miecza ginie. Jednak skala zjawiska jest porażająca. Firma analityczna Imperva podała, że w 2024 roku ponad połowa całego ruchu w internecie była generowana przez boty – w dużej mierze właśnie przez LLM‑y. Z kolei Grok, bot Elona Muska, szacuje, że na samym X działają setki milionów zautomatyzowanych kont. W tym kontekście lament szefa OpenAI nabiera nowego znaczenia.

Cynicy sugerują, że to może być sprytny wstęp do marketingu nowego produktu. W kwietniu The Verge donosiło, że OpenAI pracuje nad własną platformą społecznościową, która miałaby konkurować z X i Facebookiem. Czyżby Altman przygotowywał grunt pod premierę serwisu, który obieca nam “strefę wolną od botów”? To kusząca wizja. Pytanie tylko, czy możliwa do zrealizowania. Naukowcy z Uniwersytetu w Amsterdamie przeprowadzili kiedyś eksperyment – stworzyli sieć społecznościową zamieszkaną wyłącznie przez boty. Efekt? Po krótkim czasie boty same stworzyły zamknięte kliki i toksyczne bańki informacyjne. Wygląda na to, że problem nie leży tylko w technologii.