Skip to content Skip to sidebar Skip to footer

OpenAI blokuje wideo z Martinem Lutherem Kingiem! Powodem obraźliwe deepfake’i w Sorze

OpenAI blokuje możliwość tworzenia w Sorze wideo z Martinem Lutherem Kingiem Jr. Decyzja zapadła po prośbie rodziny i fali obraźliwych filmów w sieci.

W skrócie:

  • OpenAI zawiesiło generowanie wideo z wizerunkiem Martina Luthera Kinga Jr. w modelu Sora na prośbę jego spadkobierców, po fali “lekceważących” materiałów.
  • W sieci pojawiły się filmy AI, na których Dr. King wydaje małpie odgłosy lub walczy z Malcolmem X, co wywołało oburzenie opinii publicznej i interwencję rodziny.
  • Problem dotyczy też innych osób publicznych, jak Robin Williams, co otwiera globalną debatę o prawie do kontroli nad cyfrowym wizerunkiem po śmierci.

Kiedy OpenAI wypuściło na świat Sorę, swój model do generowania wideo, było jasne, że otwieramy puszkę Pandory. Nikt chyba jednak nie spodziewał się, że jednym z pierwszych, którzy odczują jej mroczną zawartość, będzie dziedzictwo Martina Luthera Kinga Jr. Firma ogłosiła w czwartek, że wstrzymuje możliwość tworzenia klipów z wizerunkiem legendarnego działacza na rzecz praw obywatelskich. To nie jest prewencyjny ruch – to reakcja na kryzys.

Decyzja zapadła po bezpośredniej prośbie spadkobierców Dr. Kinga, którzy musieli patrzeć, jak cyfrowy sobowtór ich ojca staje się narzędziem w rękach internetowych trolli. OpenAI w oficjalnym komunikacie na platformie X przyznało, że choć istnieją argumenty za wolnością słowa w kontekście postaci historycznych, to ostatecznie rodziny powinny mieć kontrolę nad tym, jak wykorzystuje się podobiznę ich bliskich. To ważna deklaracja, która może stać się precedensem w erze wszechobecnych deepfake’ów.

Gdy cyfrowy duch wymyka się spod kontroli

Co tak naprawdę się stało? Jak donosił “The Washington Post”, użytkownicy Sory puścili wodze fantazji w najgorszym możliwym kierunku. Stworzyli filmy, na których postać Dr. Kinga wydaje z siebie małpie odgłosy albo toczy zapaśniczy pojedynek z Malcolmem X. To już nie jest satyra. To cyfrowe zbezczeszczenie, które przekroczyło wszelkie granice dobrego smaku i szacunku. Dr Bernice King, córka aktywisty, publicznie zaapelowała na Instagramie, by ludzie przestali przesyłać jej te materiały. Trudno sobie wyobrazić ból, jaki musi powodować oglądanie takiej “twórczości”.

Problem nie dotyczy wyłącznie Martina Luthera Kinga. Podobny apel wystosowała córka Robina Williamsa, która również prosiła o zaprzestanie generowania cyfrowych klonów jej zmarłego ojca. Przeglądając zasoby stworzone przez Sorę, można natknąć się na niewybredne przeróbki z udziałem Boba Rossa, Whitney Houston czy Johna F. Kennedy’ego. Wygląda na to, że technologia dała nam nowe narzędzia, ale nie nauczyła nas odpowiedzialności.

Sora na smyczy, ChatGPT bez kagańca?

Działania OpenAI w sprawie Sory są interesujące w kontekście ich strategii dla innego flagowego produktu – ChatGPT. Podczas gdy firma nakłada kolejne ograniczenia na model wideo, jednocześnie zapowiada poluzowanie zasad dla swojego chatbota. Niedawno ogłoszono, że dorośli użytkownicy wkrótce będą mogli prowadzić z ChatGPT “erotyczne” rozmowy. Mamy więc do czynienia z pewnym rozdwojeniem jaźni – z jednej strony OpenAI próbuje gasić pożary wizerunkowe, a z drugiej dolewa oliwy do ognia w innym miejscu.

Sam Altman, CEO OpenAI, przyznał, że w dniu premiery Sory firma odczuwała “niepokój”. I słusznie. Nick Turley, szef ChatGPT, w jednym z wywiadów stwierdził, że najlepszym sposobem na nauczenie świata nowej technologii jest oddanie jej w ręce ludzi. To filozofia, którą firma przetestowała przy okazji ChatGPT i teraz najwyraźniej powtarza z Sorą. Wygląda na to, że jedną z pierwszych lekcji jest brutalne zderzenie z ludzką naturą.

Co z prawem autorskim i Spongebobem?

Ochrona wizerunku osób publicznych to tylko wierzchołek góry lodowej. Sora otworzyła bowiem kolejny front w dyskusji o sztucznej inteligencji – prawa autorskie do postaci fikcyjnych. Platforma jest pełna klipów, w których głównymi bohaterami są postacie z kreskówek, takich jak SpongeBob, South Park czy Pokémon. To stawia pod znakiem zapytania nie tylko kwestie etyczne, ale również czysto prawne.

OpenAI już zapowiedziało, że planuje dać właścicielom praw autorskich większą kontrolę nad tym, jak ich własność intelektualna jest wykorzystywana. Prawdopodobnie to reakcja na chłodne przyjęcie Sory przez Hollywood. Wygląda na to, że firma uczy się na błędach, ale robi to w czasie rzeczywistym, na oczach całego świata, a my wszyscy jesteśmy uczestnikami tego wielkiego, nieprzewidywalnego eksperymentu.