Prokuratorzy z USA ostrzegają gigantów AI: jeśli nie opanujecie halucynacji chatbotów, złamiecie prawo. Koniec bezkarności za kłamstwa maszyn jest bliski.
W skrócie:
- Dziesiątki prokuratorów stanowych w USA wystosowało list do firm takich jak OpenAI i Google, domagając się kontroli nad niebezpiecznymi halucynacjami AI.
- Wśród żądań znalazły się obowiązkowe, niezależne audyty modeli, publiczne raportowanie incydentów oraz rygorystyczne testy bezpieczeństwa przed każdą premierą.
- Inicjatywa stanowa stoi w konflikcie z planami administracji federalnej Donalda Trumpa, która dąży do deregulacji sektora sztucznej inteligencji w USA.
Sztuczna inteligencja miała być cichą rewolucją, ale właśnie stała się bardzo głośna. Microsoft, OpenAI, Google i Meta pompują miliardy dolarów w rozwój modeli językowych, które mają odmienić naszą cywilizacyjną codzienność. W cieniu tych obietnic narasta jednak kryzys, który może zatrząść całym sektorem. Dziesiątki prokuratorów stanowych w Stanach Zjednoczonych właśnie wystosowało list ostrzegawczy do największych graczy. Przekaz jest prosty i brutalny – jeśli nie zapanujecie nad halucynacjami waszych chatbotów, spotkamy się w sądzie.
Czym są halucynacje AI i dlaczego stały się problemem prawnym?
Pamiętamy jeszcze historię nastolatka, którego ChatGPT rzekomo zachęcił do samobójstwa. Ten dramat, w połączeniu z serią innych, mniej medialnych, ale równie niebezpiecznych incydentów, stał się iskrą zapalną. W liście, pod którym podpisało się kilkadziesiąt jurysdykcji – a który wspiera Narodowe Stowarzyszenie Prokuratorów Generalnych – znalazły się konkretne żądania wobec całego panteonu Big Tech. Od Microsoftu i OpenAI, przez Google i Metę, aż po Anthropic i Apple.
Halucynacje, czyli momenty, w których model AI zmyśla fakty, podaje fałszywe informacje lub tworzy narracje kompletnie odklejone od rzeczywistości, okazały się czymś więcej niż tylko technicznym felerem. Prokuratorzy zwracają uwagę na szczególnie groźne przypadki, tzw. delusional outputs. To odpowiedzi, które nie tylko mijają się z prawdą, ale aktywnie utwierdzają użytkownika w jego psychotycznych przekonaniach. Zdarzało się, że chatboty aprobowały absurdalne pomysły lub uspokajały osoby w głębokim kryzysie, że ich irracjonalne myśli są całkowicie normalne. A to, niestety, prowadziło do tragedii.
Jakie są żądania prokuratorów i co oznaczają dla Big Tech?
Tym razem nie skończyło się na ogólnych apelach. List zawiera bardzo konkretny katalog postulatów, który przypomina ultimatum. Władze stanowe domagają się, by firmy wprowadziły:
- Niezależne audyty – modele AI mają być badane przez certyfikowanych ekspertów i organizacje społeczne jeszcze przed oddaniem ich w ręce użytkowników. Co więcej, wyniki tych audytów powinny być w pełni jawne.
- Raportowanie incydentów – korporacje muszą informować o sytuacjach, w których chatbot wygenerował treści szkodliwe dla zdrowia psychicznego. Mechanizm ma działać podobnie do powiadomień o wyciekach danych.
- Rygorystyczne testy bezpieczeństwa – każdy model przed premierą musi przejść serię prób, które zminimalizują ryzyko halucynacji i niebezpiecznych odpowiedzi.
- Transparentność reakcji – firmy powinny ujawniać, jak szybko są w stanie wykryć szkodliwe treści i jakie procedury wdrażają, by je eliminować.
Cel jest jasny: ochrona użytkowników, zwłaszcza tych najbardziej wrażliwych – młodzieży, osób samotnych czy zmagających się z problemami psychicznymi. Dla firm takich jak OpenAI czy Microsoft spełnienie tych wymogów oznacza gigantyczne koszty i spowolnienie wyścigu o dominację. Z drugiej strony, branża ma już doświadczenie z RODO w Europie. Nauczyła się, że innowacja musi iść w parze z odpowiedzialnością.
Stan kontra państwo, czyli bitwa o przyszłość regulacji AI
Na poziomie federalnym obraz jest zupełnie inny. Administracja Donalda Trumpa głośno opowiada się za deregulacją AI, argumentując, że zbyt restrykcyjne przepisy mogą zabić innowacje w zarodku. Prezydent zapowiedział nawet rozporządzenie wykonawcze, które ma ograniczyć możliwość regulowania sztucznej inteligencji przez poszczególne stany. To zderzenie dwóch potężnych sił – stanowej i federalnej – może okazać się jedną z najważniejszych bitew o przyszłość technologii. Jej wynik odbije się echem na całym świecie.
A co to oznacza dla nas, użytkowników ChatGPT z Polski? Unia Europejska już dawno przyjęła AI Act, który nakłada na firmy obowiązki związane z bezpieczeństwem modeli wysokiego ryzyka. Europa jest w tej kwestii bardziej pryncypialna niż USA. Jeśli jednak amerykańskie stany wygrają swoją batalię, globalny standard odpowiedzialności za słowa maszyn może znacząco się podnieść. Bo choć innowacja nie zawsze oznacza dobro, to regulacje chroniące zdrowie psychiczne nie są przeszkodą dla postępu. Wręcz przeciwnie – są warunkiem, by ten postęp miał w ogóle sens.