W odpowiedzi na rosnące zagrożenia OpenAI publikuje plan ochrony dzieci w erze AI. Ma on usprawnić wykrywanie i zgłaszanie treści pedofilskich tworzonych przez AI.
W skrócie:
- Nowy plan OpenAI ma przyspieszyć wykrywanie i zgłaszanie materiałów przedstawiających seksualne wykorzystywanie dzieci, które zostały wygenerowane przez sztuczną inteligencję.
- W pierwszej połowie 2025 roku odnotowano ponad 8 tysięcy zgłoszeń dotyczących takich treści – to o 14% więcej niż rok wcześniej, podaje Internet Watch Foundation.
- Inicjatywa powstała w cieniu pozwów oskarżających firmę o przyczynienie się do samobójstw młodych osób po interakcjach z chatbotem GPT-4o.
OpenAI, firma stojąca za rewolucyjnym ChatGPT, opublikowała dokument, który ma być mapą drogową do bezpieczniejszego internetu dla najmłodszych. Nazwano go Child Safety Blueprint i nie jest to przypadek. To strategiczna odpowiedź na problem, który rośnie w przerażającym tempie – wykorzystywanie generatywnej AI do tworzenia materiałów pedofilskich, szantażu i groomingu. Firma chce działać na trzech frontach: szybciej wykrywać, lepiej raportować i skuteczniej wspierać dochodzenia. Tyle teorii. A praktyka? Praktyka jest znacznie mroczniejsza i to ona zmusiła giganta z San Francisco do działania.
Dlaczego ten ruch był absolutnie konieczny?
Liczby mówią same za siebie, a te przedstawione przez Internet Watch Foundation (IWF) są alarmujące. Tylko w pierwszej połowie 2025 roku organizacja odnotowała ponad 8 tysięcy zgłoszeń treści o charakterze pedofilskim, które powstały przy użyciu narzędzi AI. To wzrost o 14% w stosunku do poprzedniego roku. To nie są abstrakcyjne dane. Za każdą z nich kryje się historia dziecka, którego wizerunek został bezprawnie wykorzystany do tworzenia fałszywych, pornograficznych obrazów. Przestępcy używają AI nie tylko do generowania grafik, ale też do konstruowania przekonujących wiadomości, które służą do tzw. groomingu – przygotowywania dziecka do wykorzystania seksualnego. Sztuczna inteligencja stała się dla nich potężnym, tanim i łatwo dostępnym narzędziem.
Cień pozwów i niewygodne pytania
Inicjatywa OpenAI nie narodziła się w próżni. Firma znajduje się pod rosnącą presją regulatorów, aktywistów i – co najważniejsze – sądów. W listopadzie ubiegłego roku Social Media Victims Law Center oraz Tech Justice Law Project złożyły w Kalifornii siedem pozwów. Zarzucają one firmie, że wypuściła model GPT-4o, zanim był on w pełni bezpieczny. Prawnicy twierdzą, że jego “psychologicznie manipulacyjna natura” przyczyniła się do samobójstw i prób samobójczych. Dokumentacja sądowa przywołuje historie czterech osób, które odebrały sobie życie, oraz trzech, które doświadczyły ciężkich, zagrażających życiu urojeń po długotrwałych interakcjach z chatbotem. OpenAI do tej pory unikało jednoznacznej odpowiedzi na te zarzuty, ale publikacja planu bezpieczeństwa wygląda jak próba prewencyjnego zarządzania kryzysem wizerunkowym. Trudno oprzeć się wrażeniu, że gdyby nie widmo wielomilionowych odszkodowań, tempo prac nad ochroną dzieci mogłoby być zupełnie inne.
Jak ma działać “Child Safety Blueprint”?
Plan, opracowany we współpracy z amerykańskim Narodowym Centrum ds. Dzieci Zaginionych i Wykorzystywanych (NCMEC) oraz prokuratorami stanowymi, opiera się na trzech filarach. Po pierwsze – aktualizacja prawa, aby obejmowało ono również materiały generowane przez AI. Po drugie – usprawnienie mechanizmów zgłaszania, by organy ścigania otrzymywały informacje szybciej i w formie pozwalającej na podjęcie działań. Po trzecie, co być może najważniejsze, integracja zabezpieczeń prewencyjnych bezpośrednio w systemach AI. OpenAI chce, by ich modele potrafiły same identyfikować potencjalnie szkodliwe zapytania i blokować próby generowania nielegalnych treści. Celem jest stworzenie systemu, który nie tylko reaguje na zagrożenia, ale im zapobiega, zanim jeszcze dojdzie do tragedii.
Czy to tylko gaszenie pożaru?
Nowy dokument to kontynuacja wcześniejszych działań firmy. OpenAI już wcześniej zaktualizowało swoje wytyczne dotyczące interakcji z użytkownikami poniżej 18. roku życia, zakazując generowania nieodpowiednich treści, zachęcania do samookaleczeń czy udzielania porad, jak ukryć niebezpieczne zachowania przed opiekunami. Niedawno firma opublikowała też podobny plan bezpieczeństwa skierowany do nastolatków w Indiach. Pomimo tego trudno pozbyć się wrażenia, że to działania reaktywne, a nie proaktywne. Giganci technologiczni zbyt długo ignorowali ciemną stronę swoich innowacji, skupiając się na wyścigu o dominację na rynku. Child Safety Blueprint to krok w dobrym kierunku, ale czy wystarczająco odważny? Czas pokaże, czy jest to autentyczna zmiana filozofii, czy jedynie dobrze skrojona akcja PR-owa, mająca uspokoić inwestorów i wyciszyć medialną burzę wokół pozwów.