Skip to content Skip to sidebar Skip to footer

Nowy wiek seksizmu. Jak AI, deepfake’i i seksboty stają się bronią przeciwko kobietom

Laura Bates, autorka książki “Nowy wiek seksizmu”, ostrzega: AI staje się nową formą opresji. Deepfake’i, seksboty i wirtualne asystentki odtwarzają mizoginię.

W skrócie:

  • Technologia deepfake drastycznie obniża próg dostępu dla sprawców przemocy. Nawet dzieci tworzą pornograficzne wizerunki koleżanek, używając darmowych narzędzi.
  • Aplikacje typu “AI girlfriend” uczą nastolatków toksycznych wzorców, prezentując kobiety jako uległe i zawsze dostępne obiekty, co zdaniem Bates eskaluje problemy.
  • Asystentki AI, jak Siri czy Alexa, utrwalają stereotypy płciowe. Szacuje się, że nawet 10% rozmów z nimi ma charakter przemocowy, co normalizuje takie zachowania.

Laura Bates, feministyczna autorka i aktywistka, która dekadę temu uruchomiła przełomowy projekt The Everyday Sexism Project, powraca z nową, być może najważniejszą książką w karierze. W “The New Age of Sexism” bierze pod lupę sztuczną inteligencję. Jej wnioski są ponure. Technologia, która miała być obietnicą przyszłości, w zastraszającym tempie staje się nowym frontem w walce o prawa kobiet. A właściwie – nowym narzędziem opresji.

Czy technologia musi rymować się z mizoginią?

Bates stawia tezę, która wydaje się brutalnie oczywista, gdy tylko ktoś odważy się ją wypowiedzieć na głos. Każda nowa technologia – internet, media społecznościowe, teraz AI – niemal natychmiast zostaje zaadaptowana do nękania, upokarzania i kontrolowania kobiet. Dlaczego? “Technologia sama w sobie nie jest ani dobra, ani zła; jest zakodowana z uprzedzeniami swoich twórców” – mówi w wywiadzie dla WIRED. Sztuczna inteligencja nie tworzy więc nowej mizoginii. Ona daje starej, dobrze znanej nienawiści, nowe życie. Nowe, potężniejsze narzędzia.

Co gorsza, generatywna AI nie tylko powiela istniejące formy nadużyć. Ona je intensyfikuje, tworząc nowe rodzaje zagrożeń i form kontroli, które trafiają w ręce sprawców. I to na skalę, jakiej do tej pory nie znaliśmy.

Jak deepfake stał się bronią w rękach każdego?

Najbardziej jaskrawym przykładem jest technologia deepfake. Jeszcze kilka lat temu wymagała specjalistycznej wiedzy i mocy obliczeniowej. Dziś jest dostępna dla każdego, za darmo lub za grosze. “To obniża poprzeczkę dla dostępu do tej konkretnej formy nadużyć w bardzo szybkim tempie” – alarmuje Bates. Dowody widać już w szkołach. W USA, Wielkiej Brytanii czy Australii pojawiają się sprawy, w których dziesięcio- i jedenastolatkowie tworzą realistyczne, pornograficzne wizerunki swoich koleżanek z klasy. Wystarczy im do tego jedno, zwykłe zdjęcie z mediów społecznościowych.

To już nie jest problem niszowy. To problem systemowy. Przemoc oparta na wizerunku, dotąd kojarzona głównie z byłymi partnerami, zyskuje nową, przerażającą dynamikę. Każdy, kto ma dostęp do internetu, może stać się sprawcą. Każda kobieta i dziewczyna – ofiarą.

Czym jest “AI Girlfriend”, czyli cyfrowa lekcja pogardy?

Równie niepokojący jest rozkwit aplikacji typu “AI girlfriend”. Twórcy tych narzędzi przekonują, że pomagają samotnym mężczyznom rozwijać umiejętności społeczne. Bates nazywa to wprost: “marketingowym wybielaniem, używanym przez firmy, by nadać filantropijny wymiar sprzedawaniu czystej mizoginii”. Te aplikacje pozwalają nastoletnim chłopcom tworzyć wirtualne partnerki, które można dostosować w każdym detalu – od koloru oczu po kształt piersi. Taka “dziewczyna” jest zawsze dostępna, w pełni uległa i gotowa do odgrywania dowolnych scenariuszy seksualnych, włączając w to ekstremalną przemoc. Bez dyskusji. Bez zgody.

“Pomysł, że to jest dobre dla kobiet, jest oczywiście absurdalny. Ale pomysł, że jest to pomocne dla mężczyzn, jest obraźliwy i redukujący” – twierdzi Bates. Zamiast uczyć zdrowych relacji, takie narzędzia utrwalają najbardziej toksyczne wzorce – obraz kobiety jako obiektu, który nigdy nie ma własnego zdania i istnieje tylko po to, by schlebiać męskiemu ego. Nie ma żadnych dowodów, że to zapobiega przemocy w realnym świecie. Wręcz przeciwnie, wszystko wskazuje na to, że może prowadzić do jej eskalacji.

Dlaczego Siri i Alexa są częścią problemu?

Problem sięga jednak głębiej niż wyspecjalizowane aplikacje. Dotyczy technologii, z którą obcujemy na co dzień. Bates zwraca uwagę na sfeminizowanie wirtualnych asystentek, takich jak Siri czy Alexa. Ich łagodne, kobiece głosy wykonują polecenia, odpowiadają na pytania i… przyjmują wyzwiska. Badacze szacują, że około 10 procent rozmów z asystentkami ma charakter obraźliwy. Kiedy miliony dzieci dorastają w domach, gdzie słyszą, jak w ten sposób zwraca się do “pomocnej kobiety w pudełku”, chłoną to jako normę. To utrwala skojarzenie zadań administracyjnych i usługowych z kobiecością, a jednocześnie normalizuje werbalną agresję wobec kobiet.

Mimo że feministki i ekspertki od lat podnosiły te obawy, były one konsekwentnie ignorowane. Zamiast tego grupa – głównie mężczyzn – zarobiła na tym ogromne pieniądze.

Co dalej, zanim będzie za późno?

Czy jest z tego wyjście? Bates uważa, że tak, ale musimy działać szybko. Kluczem jest regulacja. Niestety, na tym polu obraz jest ponury. Administracja Trumpa aktywnie sprzeciwia się próbom nakładania na big techy jakichkolwiek ograniczeń, a rządy Wielkiej Brytanii i USA odmówiły podpisania międzynarodowych porozumień w sprawie bezpieczeństwa AI. Twierdzenie, że technologia rozwija się zbyt szybko, by ją regulować, jest dla Bates absurdalne. “Jeśli zarabiasz dziesiątki miliardów dolarów rocznie i masz najtęższe umysły na świecie pracujące dla ciebie… to masz narzędzia i fundusze niezbędne do uczynienia swojej platformy bezpieczną. Po prostu wybierasz, żeby tego nie robić” – podsumowuje gorzko. Potencjał AI do czynienia dobra jest zbyt wielki, by pozwolić, aby wymknął się spod kontroli w rękach kilku głodnych władzy facetów z Doliny Krzemowej. Czasu na reakcję jest coraz mniej.