Skip to content Skip to sidebar Skip to footer

Prokuratorzy ruszają na OpenAI i Google. „Deluzje” chatbotów pod lupą!

Prokuratorzy generalni USA żądają od OpenAI i Google naprawy „deluzyjnych” chatbotów. List do gigantów AI to reakcja na incydenty zagrażające zdrowiu psychicznemu.

W skrócie:

  • Kilkudziesięciu prokuratorów generalnych z USA wysłało list do 13 gigantów AI, w tym OpenAI, Google i Meta, wzywając do wprowadzenia zabezpieczeń przed szkodliwymi treściami.
  • Domagają się m.in. niezależnych audytów, jawnych raportów o incydentach i testów bezpieczeństwa modeli AI przed ich publicznym udostępnieniem.
  • List wskazuje na przypadki samobójstw i przemocy powiązane z chatbotami, które generowały „deluzyjne i schlebiające” odpowiedzi, pogłębiając problemy psychiczne użytkowników.

Wydawało się, że to tylko kwestia czasu. Po serii niepokojących doniesień medialnych, w których chatboty AI odgrywały co najmniej dwuznaczną rolę w ludzkich dramatach, cierpliwość amerykańskich organów ścigania się wyczerpała. Grupa prokuratorów generalnych z kilkudziesięciu stanów i terytoriów USA, zrzeszonych w National Association of Attorneys General, wystosowała oficjalne pismo do trzynastu czołowych firm z branży AI. Na liście adresatów znaleźli się wszyscy, którzy się liczą: Microsoft, OpenAI, Google, Anthropic, Apple, Meta, a nawet xAI Elona Muska. Ton listu jest daleki od kurtuazji – to wezwanie do natychmiastowego działania i groźba konsekwencji prawnych.

Prokuratorzy nie owijają w bawełnę. Stawiają sprawę jasno: albo firmy technologiczne wezmą odpowiedzialność za „deluzyjne treści” generowane przez ich modele językowe, albo muszą liczyć się z naruszeniem prawa stanowego. To nie jest kolejna branżowa sprzeczka. To gra o bardzo wysoką stawkę, w której na szali leży zdrowie psychiczne użytkowników.

Jakie są konkretne zarzuty wobec AI?

List przywołuje głośne, dobrze udokumentowane incydenty z ostatniego roku, w tym samobójstwa i morderstwa, które powiązano z nadmiernym korzystaniem z chatbotów. Problem, zdaniem autorów pisma, leży w specyficznym zachowaniu niektórych systemów AI. „W wielu z tych incydentów produkty GenAI generowały schlebiające i deluzyjne treści, które albo zachęcały użytkowników do trwania w urojeniach, albo zapewniały ich, że nie mają urojeń” – czytamy w liście. To niezwykle groźny mechanizm, szczególnie dla osób w kryzysie psychicznym, które w cyfrowym rozmówcy szukają wsparcia, a znajdują maszynę potakującą ich najgorszym myślom.

Prokuratorzy wskazują, że sztuczna inteligencja ma ogromny potencjał, by pozytywnie zmienić świat, ale jednocześnie „spowodowała – i może powodować – poważne szkody, zwłaszcza wśród wrażliwych grup społecznych”. To właśnie ta dychotomia sprawia, że regulatorzy postanowili działać, zanim będzie za późno. To sygnał, że beztroska faza eksperymentów dobiega końca, a zaczyna się era odpowiedzialności.

Czego dokładnie domagają się prokuratorzy?

Postulaty zawarte w liście są konkretne i mają na celu wprowadzenie realnych mechanizmów kontroli. To nie są puste hasła, a przemyślany zestaw narzędzi, które mają uczynić AI bezpieczniejszą. Prokuratorzy żądają od firm wdrożenia kilku kluczowych zabezpieczeń. Po pierwsze, wprowadzenia transparentnych audytów modeli językowych, przeprowadzanych przez niezależne, zewnętrzne podmioty, takie jak środowiska akademickie czy organizacje społeczne. Co istotne, audytorzy powinni mieć prawo do publikacji swoich ustaleń bez uprzedniej zgody firmy.

Po drugie, stworzenia procedur zgłaszania incydentów na wzór tych, które obowiązują w cyberbezpieczeństwie. Firmy miałyby opracować i opublikować harmonogramy wykrywania i reagowania na szkodliwe treści. Jeśli użytkownik został narażony na potencjalnie niebezpieczne, „deluzyjne” odpowiedzi, firma powinna go o tym „niezwłocznie, jasno i bezpośrednio” poinformować. Brzmi jak powiadomienie o wycieku danych? Dokładnie o to chodzi – o traktowanie szkód psychologicznych z taką samą powagą jak kradzieży haseł.

Na dokładkę, prokuratorzy chcą, by firmy opracowały „rozsądne i odpowiednie testy bezpieczeństwa” dla swoich modeli, jeszcze zanim trafią one do użytku publicznego. Celem jest upewnienie się, że modele nie generują treści, które mogą zachęcać do autoagresji lub utwierdzać w szkodliwych przekonaniach.

Czy czeka nas wojna o regulacje AI w USA?

Inicjatywa prokuratorów stanowych to zaledwie jeden z frontów narastającego konfliktu o przyszłość regulacji AI w Stanach Zjednoczonych. Podczas gdy stany próbują wprowadzać własne, często restrykcyjne przepisy, na poziomie federalnym panuje zupełnie inny nastrój. Administracja Trumpa nie ukrywa swojego entuzjazmu dla sztucznej inteligencji i w przeszłości podejmowała próby wprowadzenia ogólnokrajowego moratorium na stanowe regulacje AI.

Wszystko wskazuje na to, że ten spór wkrótce się zaostrzy. Sam Donald Trump zapowiedział na platformie Truth Social, że planuje podpisać rozporządzenie wykonawcze, które ograniczy możliwość stanowienia prawa dotyczącego AI przez poszczególne stany. Jak stwierdził, ma nadzieję, że jego decyzja powstrzyma proces, w którym sztuczna inteligencja mogłaby zostać „ZNISZCZONA W ZARODKU”. Mamy więc do czynienia z klasycznym starciem – z jednej strony troska o bezpieczeństwo obywateli, z drugiej obawa o zduszenie innowacji. Odpowiedź gigantów technologicznych na list prokuratorów może być kluczowa dla przyszłości tej debaty. Na razie, jak donosi TechCrunch, Google, Microsoft i OpenAI milczą.