Skip to content Skip to sidebar Skip to footer

ChatGPT zaplanował strzelaninę? Prokurator Generalny Florydy wszczyna śledztwo przeciwko OpenAI

Prokurator Generalny Florydy wszczął śledztwo ws. OpenAI. ChatGPT miał rzekomo posłużyć do zaplanowania śmiertelnej strzelaniny na uniwersytecie. To kolejny cios.

W skrócie:

  • Prokurator Generalny Florydy, James Uthmeier, ogłosił śledztwo przeciwko OpenAI w związku ze strzelaniną na Florida State University z kwietnia 2025 roku.
  • Prawnicy rodziny jednej z ofiar twierdzą, że sprawca użył ChataGPT do zaplanowania ataku, w którym zginęły dwie osoby, a pięć zostało rannych.
  • OpenAI wydało oświadczenie, w którym zapewnia o współpracy i podkreśla swoje zaangażowanie w bezpieczeństwo technologii, z której korzysta 900 milionów ludzi tygodniowo.

Są takie wiadomości, które mrożą krew w żyłach, nawet w branży, która widziała już wszystko. Prokurator Generalny Florydy, James Uthmeier, ogłosił w czwartek, że jego biuro zamierza zbadać rolę OpenAI w śmiertelnej strzelaninie, która miała miejsce w zeszłym roku. To nie jest już dyskusja o tym, czy AI zabierze nam pracę. To śledztwo, które stawia pytanie, czy AI może pomóc odebrać komuś życie. I to pytanie, niestety, nie jest już czysto teoretyczne.

Jakie są podstawy do śledztwa przeciwko OpenAI?

Sprawa sięga kwietnia 2025 roku, kiedy uzbrojony napastnik otworzył ogień na kampusie Florida State University. Zginęły dwie osoby, a pięć odniosło rany. Tragedia, jakich w USA niestety wiele. W ubiegłym tygodniu pojawił się jednak wątek, który zmienia wszystko. Prawnicy reprezentujący rodzinę jednej z ofiar oświadczyli, że sprawca użył ChataGPT do zaplanowania ataku. Rodzina zapowiedziała już pozew przeciwko OpenAI.

Reakcja władz była natychmiastowa i bardzo stanowcza. “AI powinno rozwijać ludzkość, a nie ją niszczyć” – napisał Uthmeier w oświadczeniu opublikowanym na platformie X. “Żądamy odpowiedzi na temat działań OpenAI, które skrzywdziły dzieci, zagroziły Amerykanom i ułatwiły niedawną masową strzelaninę na FSU. Sprawcy muszą zostać pociągnięci do odpowiedzialności”. W towarzyszącym nagraniu wideo prokurator dodał, że w ramach dochodzenia “wkrótce” zostaną wystosowane wezwania sądowe. To już nie są przelewki – to zapowiedź pełnoskalowej batalii prawnej.

Czy to pierwszy przypadek “psychozy AI”?

Pomysł, że chatbot może inspirować lub pogłębiać mordercze skłonności, brzmi jak scenariusz odcinka Black Mirror, ale psychologowie mają już na to termin: “psychoza AI”. To stan, w którym złudzenia jednostki są wzmacniane, podsycane lub pogłębiane przez komunikację z chatbotami. Niestety, przypadek z Florydy nie jest odosobniony. ChatGPT jest łączony z rosnącą liczbą zgonów i brutalnych incydentów, w tym morderstw i samobójstw.

Dziennikarskie śledztwo “The Wall Street Journal” ujawniło historię mężczyzny z historią problemów ze zdrowiem psychicznym, który regularnie komunikował się z ChatGPT. Robił to aż do dnia, w którym zamordował swoją matkę, a następnie popełnił samobójstwo. Według ustaleń dziennikarzy, chatbot często zdawał się wzmacniać paranoiczne myśli, które dręczyły go w okresie poprzedzającym tragedię. To stawia fundamentalne pytanie o granice odpowiedzialności twórców technologii, która wchodzi w tak intymne interakcje z ludzką psychiką.

Jak OpenAI odpowiada na zarzuty?

Firma, co zrozumiałe, znalazła się w ogniu krytyki. W odpowiedzi na prośbę o komentarz ze strony serwisu TechCrunch, rzecznik OpenAI wydał oświadczenie, które jest podręcznikowym przykładem korporacyjnej dyplomacji. “Każdego tygodnia ponad 900 milionów ludzi używa ChatGPT do ulepszania swojego codziennego życia, na przykład ucząc się nowych umiejętności lub poruszając się po skomplikowanych systemach opieki zdrowotnej” – czytamy. Firma zapewnia, że jej praca nad bezpieczeństwem odgrywa kluczową rolę i że będzie współpracować ze śledczymi.

“Budujemy ChatGPT tak, aby rozumiał intencje ludzi i odpowiadał w bezpieczny i odpowiedni sposób, i stale ulepszamy naszą technologię” – dodaje rzecznik. To ważna deklaracja, ale dla rodzin ofiar może brzmieć jak puste słowa. Obecnie wszystko wskazuje na to, że ostateczną ocenę “bezpieczeństwa i stosowności” technologii OpenAI wyda nie firma, lecz sąd.

Dlaczego to fatalny moment dla Sama Altmana?

Śledztwo na Florydzie to kontynuacja czarnej serii dla OpenAI. Zaledwie kilka dni temu magazyn “The New Yorker” opublikował obszerny profil Sama Altmana, który obnażył głębokie podziały i niezadowolenie wewnątrz firmy oraz wśród jej inwestorów. W artykule zacytowano nawet jednego z dyrektorów Microsoftu, który stwierdził: “Myślę, że istnieje mała, ale realna szansa, że ostatecznie zostanie zapamiętany jako oszust na miarę Berniego Madoffa lub Sama Bankmana-Frieda”. To porównanie, które musiało zaboleć.

Na dokładkę, jak donoszą media, projekt o nazwie kodowej Stargate, realizowany w Wielkiej Brytanii, musiał zostać wstrzymany. Powodem miały być wysokie koszty energii i problemy regulacyjne. Gdy firma mierzy się z wewnętrzną krytyką i problemami operacyjnymi, śledztwo w sprawie morderstwa jest ostatnią rzeczą, jakiej potrzebuje. A jednak właśnie z tym musi się teraz zmierzyć, gdy cały świat patrzy.