Skip to content Skip to sidebar Skip to footer

Gigantyczny krok dla prawa AI. Sąd w Pekinie ustalił zasady gry, a świat patrzy z uwagą

Pekiński Sąd Internetowy opublikował osiem precedensowych wyroków dotyczących AI. Ustalają, kto jest autorem dzieł AI i jak chronić wirtualny wizerunek.

W skrócie:

  • Osobę, która wprowadza prompty i nadaje kierunek sztucznej inteligencji, można uznać za autora dzieła chronionego prawem autorskim.
  • Prawa osobiste obejmują także głos i wizerunek wygenerowane przez AI, jeśli pozwalają na identyfikację konkretnej osoby – to ważny sygnał w walce z deepfake.
  • Platformy internetowe muszą uzasadniać decyzje swoich algorytmów, np. te o usunięciu treści rzekomo stworzonych przez AI bez oznaczenia.

Pekin nie czeka. Podczas gdy reszta świata debatuje, chiński wymiar sprawiedliwości zaczyna budować fundamenty pod prawo ery sztucznej inteligencji. Pekiński Sąd Internetowy opublikował właśnie osiem “Typowych Spraw Dotyczących Sztucznej Inteligencji” – dokument, który, choć nie tworzy precedensu w stylu anglosaskim, stanowi autorytatywną wytyczną dla sędziów w całych Chinach. To potężny sygnał. Ktoś wreszcie zaczął odpowiadać na pytania, które wszyscy sobie zadajemy: czyje są obrazy z Midjourney? Czy można bezkarnie “sklonować” czyjś głos? Co z deepfake’ami i awatarami, które wyglądają i brzmią jak my?

Te orzeczenia to nie tylko sucha litera prawa. To próba okiełznania technologicznego chaosu, który wymyka się spod kontroli. Próba, na którą Zachód wciąż się odważa – a Pekin właśnie pokazał, jak zamierza to robić.

Kto jest autorem, gdy tworzy AI?

To pytanie spędza sen z powiek artystom, prawnikom i firmom technologicznym. Sprawa Li przeciwko Liu przynosi zaskakująco klarowną odpowiedź. Powód, pan Li, wygenerował za pomocą modelu Stable Diffusion szczegółowy obraz, wpisując serię precyzyjnych promptów i parametrów. Następnie opublikował go w mediach społecznościowych. Pozwany, pan Liu, bezprawnie wykorzystał obraz na swojej stronie, usuwając przy tym znak wodny autora. Sąd nie miał wątpliwości.

Orzekł, że dzieło powstałe przy użyciu AI jest chronione prawem autorskim, a jego autorem jest człowiek, który za nim stoi. Dlaczego? Ponieważ to Li włożył “znaczny wysiłek intelektualny” w proces twórczy – od koncepcji, przez dobór słów kluczowych, po ostateczną selekcję i poprawki. “Proces dostosowywania i rewizji odzwierciedla estetyczne wybory i indywidualny osąd powoda” – czytamy w uzasadnieniu. Sąd uznał, że model AI był w tym przypadku jedynie narzędziem, zaawansowanym pędzlem, a nie twórcą. To człowiek, który nim operuje, nadaje dziełu “indywidualną ekspresję”.

Jak prawo chroni nasz cyfrowy wizerunek przed AI?

Znacznie bardziej niepokojące są kwestie związane z naszym wizerunkiem i głosem. Tu chiński sąd również zajął twarde stanowisko. W kilku sprawach poruszono problem klonowania głosu i tworzenia cyfrowych awatarów bez zgody. W jednej z nich firma technologiczna wykorzystała nagrania lektora, by stworzyć produkt text-to-speech generujący mowę jego głosem. Sąd uznał to za naruszenie praw osobistych. Stwierdził, że głos, nawet syntetyczny, jest chroniony, jeśli na podstawie jego “barwy, intonacji i stylu wymowy” można zidentyfikować konkretną osobę.

Podobnie było w sprawie dotyczącej “AI face-swappingu”. Firma tworzyła szablony wideo z popularnego blogera, podmieniając jego twarz, ale zachowując całą resztę – ubranie, gesty, scenografię. Co ciekawe, sąd nie uznał tego za naruszenie prawa do wizerunku (bo twarz była inna), ale za naruszenie prawa do ochrony danych osobowych. Proces syntezy wymagał bowiem analizy oryginalnych rysów twarzy blogera, co stanowiło przetwarzanie jego danych bez zgody. W innej sprawie sąd orzekł, że tworzenie “wirtualnego awatara” znanej osoby w aplikacji, który naśladuje jej wizerunek i cechy osobowości, również stanowi naruszenie dóbr osobistych.

Wiadomość jest prosta: twoja cyfrowa tożsamość – głos, twarz, a nawet cała persona – podlega ochronie. Kropka.

Dlaczego platformy nie mogą już chować się za algorytmem?

Jedno z orzeczeń może mieć ogromne znaczenie dla wszystkich użytkowników mediów społecznościowych. Pewien internauta opublikował krótki, 200-wyrazowy tekst. Platforma, używając narzędzi algorytmicznych, sklasyfikowała go jako treść wygenerowaną przez AI, której autor nie oznaczył. W rezultacie ukryła post i zbanowała użytkownika na jeden dzień. Ten poszedł do sądu i wygrał.

Sąd stwierdził, że skoro platforma opiera swoją decyzję na werdykcie algorytmu, musi być w stanie “w rozsądny sposób” wyjaśnić jego działanie i podstawy tej decyzji. Firma tego nie zrobiła, więc jej działania uznano za bezpodstawne. To kamień milowy w walce z tzw. “czarnymi skrzynkami” algorytmów moderujących. Koniec z wymówką “tak zdecydował algorytm”. Platformy ponoszą odpowiedzialność za swoje zautomatyzowane systemy i muszą być gotowe do ich obrony przed sądem. To orzeczenie wzmacnia pozycję użytkowników i wymusza na gigantach technologicznych większą transparentność.

Osiem pekińskich spraw to dopiero początek. Jednak wyznaczają one kierunek, który może zainspirować prawodawców na całym świecie. Zamiast czekać na idealne regulacje, Chiny zaczęły rozwiązywać realne problemy tu i teraz, dając wczesne, ale niezwykle potrzebne odpowiedzi.