Grok, chatbot Elona Muska, szerzył dezinformację po strzelaninie w Bondi Beach. AI błędnie zidentyfikowało bohatera, tworząc fałszywą postać i podważając fakty.
W skrócie:
- Grok, chatbot od xAI Elona Muska, błędnie zidentyfikował 43-letniego Ahmeda al Ahmeda, który rozbroił napastnika podczas strzelaniny w Bondi Beach.
- Zamiast prawdziwego bohatera, AI promowało fałszywą tożsamość – “Edwarda Crabtree”, rzekomego specjalisty IT, którego dane pochodziły prawdopodobnie z AI-generowanej strony.
- Chatbot kwestionował autentyczność nagrań z miejsca zdarzenia, a w jednej z wersji nawet błędnie powiązał je z cyklonem Alfred, co później skorygowano.
Sztuczna inteligencja miała porządkować chaos informacyjny. Miała być bezstronnym sędzią, który oddziela prawdę od fałszu. Tak przynajmniej brzmiała marketingowa opowieść Elona Muska, gdy prezentował światu Groka – chatbota zintegrowanego z platformą X, który miał być “oparty na prawdzie” i dowcipny. Rzeczywistość, jak to często bywa, brutalnie zweryfikowała te obietnice. Po tragicznej strzelaninie w Bondi Beach w Australii, która miała miejsce 14 grudnia 2025 roku, Grok nie tylko nie pomógł, ale aktywnie uczestniczył w tworzeniu i dystrybucji dezinformacji, budując alternatywną, fałszywą narrację o wydarzeniach.
Jak AI tworzy alternatywną rzeczywistość?
W godzinach po ataku, gdy media na całym świecie próbowały ustalić fakty, Grok zaczął żyć własnym życiem. Użytkownicy X, którzy korzystali z funkcji podsumowań AI, otrzymywali informacje nie tylko nieprecyzyjne, ale wręcz zmyślone. Najbardziej rażącym błędem było błędne zidentyfikowanie bohatera, który stawił czoła jednemu z napastników. Prawdziwym bohaterem okazał się 43-letni Ahmed al Ahmed, którego heroiczne działanie uchwyciły kamery. Grok jednak uparcie promował inną postać.
Chatbot nie poprzestał na jednym błędzie. W serii postów i podsumowań zaczął podważać autentyczność zdjęć i filmów z miejsca zdarzenia. W jednej z wersji, na którą zwrócił uwagę serwis Gizmodo, Grok twierdził, że nagranie ze strzelaniny w rzeczywistości przedstawia… cyklon Alfred. Ten absurdalny błąd został później skorygowany “po ponownej ocenie”, ale mleko już się rozlało. W innym przypadku, zdjęcie bohatera zostało przez AI opisane jako fotografia izraelskiego zakładnika, a w kolejnej odpowiedzi chatbot serwował zupełnie nieistotne informacje o traktowaniu Palestyńczyków przez izraelską armię. To pokazuje, jak model językowy, karmiony gigantycznym, ale niezweryfikowanym zbiorem danych z internetu, potrafi gubić kontekst i tworzyć szkodliwe, absurdalne połączenia.
Kim jest “Edward Crabtree”, czyli bohater, który nie istniał?
Najbardziej niepokojącym aspektem tej kompromitacji jest jednak nie tyle pomyłka, co kreacja. Zamiast Ahmeda al Ahmeda, Grok przedstawiał światu Edwarda Crabtree – rzekomo “43-letniego specjalistę IT i starszego architekta rozwiązań”, który miał rozbroić napastnika. Postać ta, jak szybko ustalono, nie istnieje. Skąd więc AI wzięło te dane? Wszystko wskazuje na to, że źródłem była jedna z wielu niszowych, najprawdopodobniej generowanych przez AI, stron informacyjnych. Powstał w ten sposób zamknięty obieg dezinformacji: sztuczna inteligencja stworzyła fałszywą informację, a inna sztuczna inteligencja (Grok) potraktowała ją jako wiarygodne źródło i rozpowszechniła na masową skalę.
Później chatbot sam przyznał się do błędu, pisząc, że “nieporozumienie wynika z wiralowych postów, które błędnie zidentyfikowały go jako Edwarda Crabtree, prawdopodobnie z powodu błędu w raporcie lub żartu nawiązującego do fikcyjnej postaci”. To tłumaczenie jest równie fascynujące, co przerażające. Pokazuje, że dla algorytmu granica między faktem, błędem reporterskim, a internetowym memem jest całkowicie płynna. A to stawia pod znakiem zapytania fundamentalne zaufanie do jakichkolwiek podsumowań generowanych przez AI w czasie rzeczywistym.
Czy da się jeszcze ufać informacjom w sieci?
Incydent z Grokiem to nie jest odosobniony przypadek. To studium przypadku, które obnaża największe słabości obecnych modeli językowych. Wprawdzie są one potężnymi narzędziami do przetwarzania języka, ale nie posiadają mechanizmu weryfikacji faktów ani rozumienia kontekstu. Działają na zasadzie statystycznego prawdopodobieństwa, składając słowa w logicznie brzmiące zdania. Jeśli w danych treningowych dominują teorie spiskowe, błędy lub celowa dezinformacja, AI z radością je powieli, nadając im pozór autorytetu.
Sprawa Groka to potężny cios wizerunkowy dla Elona Muska i jego wizji platformy X jako bastionu “wolności słowa” i prawdy. Okazuje się, że narzędzie, które miało walczyć z dezinformacją, stało się jej potężnym wzmacniaczem. Dla nas, użytkowników, to gorzka lekcja. W świecie, w którym AI potrafi w ciągu sekund wygenerować wiarygodnie brzmiące kłamstwo, krytyczne myślenie i weryfikacja źródeł stają się nie luksusem, a absolutną koniecznością. Historia nieistniejącego bohatera, Edwarda Crabtree, na długo pozostanie symbolem tej nowej, niebezpiecznej ery informacji.