Technologia rozpoznawania twarzy, która miała ułatwić życie, dla 100 milionów ludzi stała się cyfrowym murem. AI odrzuca ich tożsamość, blokując dostęp do usług.
W skrócie:
- Szacuje się, że ponad 100 milionów ludzi na świecie żyje z różnicami w wyglądzie twarzy, a systemy rozpoznawania twarzy często ich nie identyfikują, co prowadzi do cyfrowego wykluczenia.
- Doświadczyła tego Autumn Gardiner, której system w urzędzie komunikacji wielokrotnie odrzucał zdjęcie do prawa jazdy. Usłyszała, że maszyna uważa, że nie ma ludzkiej twarzy.
- Problem wynika z faktu, że algorytmy AI są trenowane na niewystarczająco zróżnicowanych zbiorach danych, przez co nie potrafią poprawnie analizować nietypowych cech anatomicznych twarzy.
Autumn Gardiner była przekonana, że aktualizacja prawa jazdy po ślubie to czysta formalność. Poszła do lokalnego urzędu komunikacji w Connecticut, by zmienić nazwisko w dokumentach. Na miejscu urzędnicy stwierdzili, że musi też zrobić nowe zdjęcie. I wtedy zaczął się jej koszmar. System za każdym razem odrzucał fotografię. “Wszyscy patrzą. Robią kolejne zdjęcia” – wspomina. Gardiner, która na co dzień zarządza grantami w organizacji charytatywnej, cierpi na rzadką chorobę genetyczną znaną jako syndrom Freemana-Sheldona. Schorzenie to wpływa na mięśnie twarzy i czaszki, co może skutkować nienaturalnie małymi ustami. To wystarczyło, by algorytm wpadł w panikę.
Dlaczego maszyna mówi ci, że nie masz ludzkiej twarzy?
Gdy kolejni pracownicy urzędu bezradnie rozkładali ręce, Gardiner zrozumiała, co się dzieje. Jej twarz, jej tożsamość, została odrzucona przez maszynę. Problem nie leżał w aparacie, ale w oprogramowaniu, które nie było przygotowane na jej wygląd. “To było upokarzające i dziwne. Maszyna mówiła mi, że nie mam ludzkiej twarzy” – opowiada. Po wszystkim, gdy urzędnikom w końcu udało się ręcznie obejść system, po prostu się rozpłakała. To było przypomnienie, że w świecie projektowanym dla “większości”, ona się nie mieści.
Jej historia nie jest odosobniona. To codzienność dla milionów osób z różnego rodzaju znamionami, asymetrią czy schorzeniami czaszkowo-twarzowymi. Phyllida Swift, dyrektor generalna Face Equality International (FEI), organizacji zrzeszającej osoby z różnicami w wyglądzie twarzy, szacuje, że problem dotyczy ponad 100 milionów ludzi na całym świecie. “Nasza społeczność jest nieustannie pomijana” – mówi Swift. Automatyczne bramki paszportowe na lotniskach, filtry w mediach społecznościowych, a nawet funkcja rozmywania tła w rozmowach wideo – te wszystkie narzędzia często dla nich nie działają.
Gdy twoja twarz nie jest hasłem. Cyfrowe wykluczenie w praktyce
W ciągu ostatniej dekady technologia rozpoznawania twarzy przestała być domeną filmów science fiction. Stała się kluczem. Do telefonu, do konta bankowego, do usług publicznych. Systemy weryfikacji tożsamości, napędzane przez uczenie maszynowe, mierzą odległość między oczami czy kształt szczęki, tworząc unikalny “odcisk twarzy”. Problem w tym, że te systemy uczą się na danych, które rzadko uwzględniają różnorodność ludzkiego wyglądu.
Crystal Hodges, która z powodu zespołu Sturge’a‑Webera ma na części twarzy fioletowe znamię naczyniowe, przekonała się o tym, próbując sprawdzić swoją historię kredytową. Aplikacja agencji ratingowej odrzuciła jej weryfikację. “Próbowałam od pięciu do ośmiu razy” – mówi. Zmieniała oświetlenie, próbowała różnych ujęć. Nic. System nie chciał jej zaakceptować. Jej mąż, mimo że miał brodę, przeszedł weryfikację bez problemu. Z kolei Noor Al-Khaled od miesięcy walczy o założenie konta online w amerykańskim urzędzie ubezpieczeń społecznych. System nie jest w stanie dopasować jej selfie do zdjęcia w dokumencie tożsamości. “Na poziomie emocjonalnym czuję się po prostu wykluczona ze społeczeństwa” – przyznaje.
Czy technologia może nauczyć się empatii?
Kiedy system zawodzi, najczęściej brakuje alternatywy. Użytkownik zostaje uwięziony w technologicznym labiryncie bez wyjścia. Greta Byrum, założycielka firmy konsultingowej Present Moment Enterprises, która wspiera FEI, nazywa to zjawisko “kanarkiem w kopalni węgla”. Pokazuje, co może pójść nie tak, gdy bezkrytycznie wdrażamy jedną technologię do rozwiązywania wszystkich problemów. Firmy technologiczne zdają się nie dostrzegać problemu lub umieszczają go na szarym końcu listy priorytetów.
“Jeśli nie uwzględnisz osób z niepełnosprawnościami lub różnicami w wyglądzie twarzy w procesie tworzenia tych narzędzi, nikt nie pomyśli o tych problemach” – komentuje Kathleen Bogart, profesor psychologii z Oregon State University. Jak dodaje, sztuczna inteligencja jedynie wzmocniła uprzedzenia, które istniały na długo przed jej powstaniem. Działacze z FEI domagają się, by każda usługa oparta na weryfikacji twarzy oferowała alternatywne metody uwierzytelniania. To rozwiązanie na teraz. Długoterminowym celem jest oczywiście przebudowa samej technologii, by stała się prawdziwie inkluzywna. Pytanie tylko, czy giganci technologiczni zechcą posłuchać głosu, którego ich własne algorytmy nie potrafią nawet rozpoznać.