Sprawczyni masakry w Kanadzie, w której zginęło 8 osób, używała ChatGPT. OpenAI wykryło groźne treści, ale nie wezwało policji. Firma miała twardy orzech do zgryzienia.
W skrócie:
- Jesse Van Rootselaar, 18-letnia sprawczyni strzelaniny w Tumbler Ridge, opisywała swoje plany na ChatGPT, co uruchomiło wewnętrzne alarmy w OpenAI.
- Firma zablokowała jej konto w czerwcu 2025 roku, jednak po wewnętrznej debacie zespół uznał, że treści nie kwalifikują się do zgłoszenia organom ścigania.
- OpenAI skontaktowało się z kanadyjską policją dopiero po tragedii. Rzecznik firmy zadeklarował pełne wsparcie dla dochodzenia w tej sprawie.
Technologia rzadko bywa czarno-biała. Zazwyczaj porusza się w odcieniach szarości, a historia Jesse Van Rootselaar jest tego mrocznym dowodem. Osiemnastoletnia Kanadyjka, która według doniesień zastrzeliła osiem osób w Tumbler Ridge, na długo przed tragedią wysyłała sygnały alarmowe. Niektóre z nich trafiły prosto na serwery OpenAI, twórców ChatGPT. Jej rozmowy z chatbotem, pełne opisów przemocy z użyciem broni, zostały automatycznie oflagowane przez systemy monitorujące. To standardowa procedura. Ale to, co wydarzyło się później, standardowe już nie jest.
Dlaczego OpenAI nie zadzwoniło na policję?
W czerwcu 2025 roku OpenAI podjęło decyzję o zablokowaniu konta Van Rootselaar. To był pierwszy, oczywisty krok. Drugi okazał się znacznie trudniejszy. Jak donosi “The Wall Street Journal”, wewnątrz firmy wybuchła debata – co robić dalej? Czy treść rozmów jest na tyle niepokojąca, by zawiadomić kanadyjską policję? Ostatecznie zespół uznał, że aktywność użytkowniczki nie spełniała firmowych kryteriów wymagających zgłoszenia organom ścigania. To decyzja, która dziś, z perspektywy czasu, musi ciążyć na sumieniach wielu osób w San Francisco.
Dopiero po masakrze OpenAI samo zgłosiło się do Kanadyjskiej Królewskiej Policji Konnej. “Nasze myśli są z wszystkimi dotkniętymi tragedią w Tumbler Ridge” – oświadczył rzecznik firmy. “Proaktywnie skontaktowaliśmy się z policją, przekazując informacje na temat tej osoby i jej wykorzystania ChatGPT. Będziemy nadal wspierać ich śledztwo”. Te słowa, choć pełne współczucia, nie odpowiadają na kluczowe pytanie: czy można było działać wcześniej? I gdzie leży granica między prywatnością użytkownika a bezpieczeństwem publicznym?
Czy chatbot był jedynym sygnałem ostrzegawczym?
Byłoby ogromnym uproszczeniem zrzucać całą winę na algorytmy lub ich operatorów. Cyfrowy ślad Jesse Van Rootselaar był znacznie szerszy i bardziej niepokojący. Okazuje się, że stworzyła grę na popularnej wśród dzieci platformie Roblox, która… symulowała masową strzelaninę w centrum handlowym. To nie był jedyny niepokojący sygnał – na Reddicie publikowała posty o broni, a jej niestabilność była znana lokalnej policji. Funkcjonariusze interweniowali w jej rodzinnym domu, gdy pod wpływem bliżej nieokreślonych narkotyków wznieciła pożar.
To wszystko składa się na obraz osoby, która wołała o pomoc na wiele sposobów. Rozmowy z ChatGPT były tylko jednym z fragmentów tej mrocznej układanki. Pokazuje to, jak trudno jest wyłapać i odpowiednio zinterpretować wszystkie sygnały, które potencjalny sprawca wysyła w cyfrowym i realnym świecie. Technologia może flagować treści, ale nie jest w stanie (jeszcze?) zrozumieć pełnego ludzkiego kontekstu.
Jaka jest odpowiedzialność AI za czyny człowieka?
Sprawa z Kanady to nie odosobniony przypadek, który zmusza nas do refleksji nad rolą sztucznej inteligencji w kryzysach psychicznych. Na całym świecie toczą się już procesy sądowe, w których oskarża się chatboty o wywoływanie załamań nerwowych u osób, które w konwersacji z cyfrowym bytem tracą kontakt z rzeczywistością. W niektórych pozwach pojawiają się transkrypcje rozmów, gdzie AI rzekomo zachęcało użytkowników do popełnienia samobójstwa lub oferowało pomoc w jego zaplanowaniu.
Granice odpowiedzialności stają się coraz bardziej zatarte. Czy winny jest algorytm, który został wytrenowany na oceanie ludzkich tekstów – z całą ich mądrością i mrokiem? Czy może firma, która ustala wewnętrzne procedury i decyduje, kiedy nacisnąć czerwony guzik? A może cała odpowiedzialność spoczywa wyłącznie na człowieku, który pociąga za spust? Prawda jest taka, że wchodzimy w erę, w której odpowiedzi na te pytania nie są ani proste, ani wygodne. A każda taka tragedia jak ta w Tumbler Ridge, stawia je w jeszcze bardziej ostrym świetle.