Skip to content Skip to sidebar Skip to footer

Rasistowska AI? Dwie profesorki mówią “dość” i tworzą rewolucyjny kurs

Sztuczna inteligencja powiela rasowe uprzedzenia, bo tworzą ją zespoły bez różnorodności – alarmują badaczki z USA. Ich odpowiedzią jest nowy kurs akademicki.

W skrócie:

  • Dwie profesorki z Johnson C. Smith University stworzyły interdyscyplinarny kurs, który ma uczyć studentów, jak tworzyć sprawiedliwą i etyczną sztuczną inteligencję.
  • Dr Felesia Stukes ostrzega, że ukryte uprzedzenia w danych treningowych AI prowadzą do dezinformacji i utrwalania szkodliwych stereotypów w społeczeństwie.
  • Studenci będą pracować na oprogramowaniu Latimer – inkluzywnej platformie AI – oraz poznają wkład czarnoskórych kobiet w rozwój technologii.

Podczas dwudniowej konferencji na North Carolina Agricultural and Technical State University padły słowa, które powinny odbić się echem w każdej firmie technologicznej. Dwie akademiczki – dr Felesia Stukes, wykładająca informatykę, oraz dr Lesley Clement, specjalistka od studiów nad diasporą afrykańską – rzuciły wyzwanie Dolinie Krzemowej. Ich diagnoza jest prosta, chociaż dla wielu niewygodna: sztuczna inteligencja, którą budujemy, jest tak samo uprzedzona jak społeczeństwo, które ją tworzy. A czasem nawet bardziej.

Problem nie leży w złośliwości kodu. To nie tak, że algorytmy nagle nabierają rasistowskich przekonań. Kłopot jest znacznie głębszy i zaczyna się na samym początku – w danych, którymi karmimy modele, oraz w zespołach, które te dane selekcjonują. Dr Stukes bez ogródek stwierdziła, że narzędzia AI często powstają w przestrzeniach, którym brakuje różnorodności. To z kolei sprawia, że ukryte, nieświadome uprzedzenia twórców przenikają do danych treningowych, a stamtąd prosto do gotowego produktu. Skutki? Dezinformacja, utrwalanie stereotypów i technologia, która zamiast pomagać, pogłębia społeczne nierówności.

Czy algorytm może być rasistą?

Pytanie wydaje się absurdalne tylko na pierwszy rzut oka. Wystarczy jednak przypomnieć sobie wpadki systemów rozpoznawania twarzy, które miały problemy z identyfikacją osób o ciemniejszym kolorze skóry, czy algorytmy rekrutacyjne faworyzujące mężczyzn, bo uczyły się na historycznych danych zdominowanej przez nich branży. To nie science fiction, to nasza technologiczna rzeczywistość. Dr Stukes nazywa rzeczy po imieniu: “Jeśli w tych technologiach pomijamy życiowe doświadczenia jednej grupy kosztem drugiej, będzie to miało naprawdę negatywne konsekwencje w przyszłości”.

Dr Clement idzie o krok dalej, osadzając problem w szerszym, historycznym kontekście. Według niej bez głosu płynącego z HBCU (Historycznie Czarnych College’ów i Uniwersytetów) technologia ryzykuje powielanie dawnych niesprawiedliwości. “AI ma moc transformacji społeczeństwa, ale bez głosów z HBCU, czuję, że grozi jej powtarzanie niesprawiedliwości z historii, ponieważ wiemy, że uczono nas skróconej historii” – zauważyła. Ta “skrócona historia” to właśnie te wybrakowane, jednostronne zbiory danych, które uczą AI patrzeć na świat w krzywym zwierciadle. To świat, w którym pewne grupy są niedoreprezentowane lub przedstawiane w oparciu o szkodliwe klisze. Świat, który algorytmy bezkrytycznie replikują.

Jak uzdrowić sztuczną inteligencję?

Stukes i Clement nie ograniczają się do krytyki. Zamiast tego proponują konkretne rozwiązanie – interdyscyplinarny kurs na Johnson C. Smith University, który ma kształcić nowe pokolenie “odpowiedzialnych kuratorów i praktyków AI”. To nie jest typowy kurs programowania. To połączenie informatyki z naukami humanistycznymi, etyki z technologią. Cel? Nauczyć studentów nie tylko, jak budować AI, ale przede wszystkim, jak robić to w sposób świadomy i sprawiedliwy.

Studenci w ramach zajęć będą trenować na inkluzywnym oprogramowaniu AI o nazwie Latimer, które zaprojektowano tak, by aktywnie przeciwdziałać uprzedzeniom. Ponadto wezmą udział w wirtualnym klubie książki, gdzie będą zgłębiać rolę, jaką czarnoskóre kobiety odegrały w rozwoju sztucznej inteligencji – rolę często pomijaną w oficjalnych narracjach. To próba odzyskania historii i zbudowania na niej lepszej, bardziej sprawiedliwej przyszłości. Jak ujęła to dr Clement: “Budujemy nowy front AI, swoisty rurociąg kuratorów i praktyków AI, którzy zapewnią, że sztuczna inteligencja będzie działać na rzecz sprawiedliwości i równości”.

Misja większa niż technologia

Inicjatywa profesorek z Karoliny Północnej to coś więcej niż tylko akademicki eksperyment. To sygnał, że debata o przyszłości AI musi wyjść poza hermetyczne środowisko inżynierów i laboratoriów badawczych. Staje się fundamentalnym pytaniem o wartości, jakie chcemy zaszczepić w tworzonych przez nas systemach. Prezentując swój projekt na konferencji, Stukes i Clement mają nadzieję, że zainspirują inne uczelnie, zwłaszcza te z kręgu HBCU, do podjęcia podobnych działań.

Stawką jest przyszłość technologii, która coraz mocniej wpływa na nasze życie – od decyzji kredytowych, przez diagnozy medyczne, po procesy rekrutacyjne. Pozostawienie jej w rękach homogenicznej grupy twórców jest nie tylko nieetyczne, ale i niebezpieczne. Dlatego tak ważne jest wezwanie dr Stukes do działania. “Wszyscy edukatorzy, odbiorcy, uczestnicy – każdy powinien czuć się upoważniony do bycia częścią tej rozmowy i do tego, by mieć wpływ na to, jak AI rośnie i rozwija się w przyszłości”. To zaproszenie, którego nie można zignorować. Inaczej obudzimy się w świecie zaprojektowanym przez algorytmy, które odziedziczyły po nas wszystko, co najgorsze.