Unia Europejska wprowadza twardy zakaz dla AI rozbierającej ludzi. Nowe przepisy uderzą w tzw. nudifiery, a impulsem do zmian była afera z chatbotem Elona Muska.
W skrócie:
- UE zakazuje systemów AI generujących nieautoryzowane nagie obrazy i deepfake’i, w tym materiały z udziałem dzieci. Przepisy mają obowiązywać od 2 grudnia 2026 roku.
- Obowiązkowe znakowanie wodne treści tworzonych przez AI wejdzie w życie dopiero 2 grudnia 2026 r. To istotne przesunięcie terminu dla producentów i firm.
- Złagodzono niektóre przepisy dla biznesu, m.in. zawężono definicję “systemów wysokiego ryzyka” i wprowadzono uproszczenia dla małych i średnich przedsiębiorstw.
Bruksela powiedziała “dość”. Po miesiącach debat i obserwowania, jak generatywna sztuczna inteligencja staje się narzędziem do tworzenia nieautoryzowanych, seksualizowanych treści, prawodawcy postanowili działać. I to stanowczo. Parlament Europejski i państwa członkowskie osiągnęły porozumienie w sprawie przepisów, które mają zdelegalizować tzw. nudifiery – aplikacje i systemy AI zdolne do cyfrowego “rozbierania” osób na zdjęciach. To nie jest już sfera science-fiction. To odpowiedź na realne zagrożenie, które zmaterializowało się w ubiegłym roku.
Nowe regulacje są częścią szerszego pakietu zmian w ramach słynnego AI Act. Ich celem jest ukrócenie procederu tworzenia deepfake’ów o charakterze erotycznym i materiałów przedstawiających seksualne wykorzystywanie dzieci. Zakaz obejmie nie tylko twórców takich narzędzi, ale również firmy, które udostępniają je na rynku europejskim, jeśli nie zadbają o odpowiednie zabezpieczenia. Czasu na dostosowanie się jest sporo – firmy mają go do 2 grudnia 2026 roku. Wydaje się to odległą datą, ale dla globalnych korporacji technologicznych to już jutro.
Skąd ten nagły pośpiech? Wystarczy jedno nazwisko: Musk
Negocjatorzy z UE nie owijają w bawełnę. Bezpośrednim impulsem do zaostrzenia kursu były wydarzenia z 2025 roku, kiedy to Grok, chatbot należący do firmy xAI Elona Muska, wymknął się spod kontroli. Użytkownicy odkryli, że model potrafi – i chętnie to robi – generować wysoce realistyczne, seksualizowane obrazy kobiet, a nawet dzieci, na podstawie niewinnych zdjęć. Platforma X (dawniej Twitter) zalała się falą deepfake’ów, a na Muska spadła lawina krytyki.
Co prawda firma zareagowała, blokując w styczniu funkcję generowania obrazów, ale mleko już się rozlało. Skandal pokazał, jak potężne i niebezpieczne mogą być niekontrolowane modele generatywne w rękach anonimowych użytkowników. Pokazał też pewną bezradność platform, które reagowały post factum. Unia Europejska, która od lat pracuje nad ramami prawnymi dla AI, nie mogła zignorować tego sygnału. To był dzwonek alarmowy, który obudził nawet największych sceptyków. Jak widać, czasem nawet technologiczny chaos potrafi przyspieszyć biurokratyczną machinę.
AI Act z poślizgiem. Co jeszcze się zmienia?
Zakaz “nudifierów” to tylko wierzchołek góry lodowej. Nowelizacja AI Act przynosi kilka kluczowych zmian w harmonogramie wdrażania przepisów. Jedną z najważniejszych jest przesunięcie terminu wprowadzenia obowiązku znakowania wodnego treści generowanych przez AI. Początkowo planowano szybsze wdrożenie, ale ostatecznie wszystkie systemy generujące obrazy, wideo czy audio będą musiały implementować mechanizmy automatycznego oznaczania swoich dzieł dopiero od 2 grudnia 2026 roku. Znaki wodne mają pozwolić na łatwiejsze wykrywanie i śledzenie materiałów stworzonych przez algorytmy.
Co więcej, Bruksela dała więcej czasu sektorom, w których AI jest uznawana za technologię “wysokiego ryzyka”. Systemy wykorzystywane w biometrii, edukacji, rekrutacji, infrastrukturze krytycznej, a także przez organy ścigania czy kontrolę graniczną, będą musiały spełnić rygorystyczne normy dopiero od 2 grudnia 2027 roku. Jeszcze dłuższy okres przejściowy – do 2 sierpnia 2028 roku – przewidziano dla systemów AI, które stanowią elementy bezpieczeństwa w produktach objętych innymi, odrębnymi regulacjami.
Mniej biurokracji, więcej swobody. Czy to ukłon w stronę biznesu?
W całym tym zaostrzaniu kursu znalazło się też miejsce na kilka uproszczeń dla przedsiębiorców. Wszystko wskazuje na to, że regulatorzy wysłuchali głosów z rynku, które alarmowały, że zbyt sztywne przepisy mogą zabić innowacje. Pakiet zmian zawiera więc kilka rozwiązań, które mają ułatwić życie firmom.
Przede wszystkim, producenci maszyn (np. robotów przemysłowych) wykorzystujących komponenty AI nie będą już musieli spełniać podwójnych wymagań – zarówno tych z AI Act, jak i odrębnych regulacji dotyczących bezpieczeństwa maszyn. Ponadto, zawężono definicję “komponentu bezpieczeństwa”, co pozwoli części produktów uniknąć kłopotliwej i kosztownej klasyfikacji jako system wysokiego ryzyka. Nowe przepisy rozszerzają też ulgi dla małych i średnich przedsiębiorstw oraz – co ciekawe – dopuszczają wykorzystywanie danych osobowych do trenowania modeli AI w celu wykrywania w nich uprzedzeń i błędów. Oczywiście pod warunkiem, że zostaną zastosowane odpowiednie środki ochrony prywatności. Porozumienie czeka jeszcze na formalne zatwierdzenie, ale kierunek jest jasny: Europa próbuje znaleźć złoty środek między bezpieczeństwem a wspieraniem rozwoju technologii. Pytanie, czy jej się to uda, pozostaje otwarte.