Amerykańska agencja EEOC wycofuje się ze ścigania niezamierzonej dyskryminacji przez AI. To efekt decyzji Donalda Trumpa. Co to oznacza dla pracodawców i ofiar?
W skrócie:
- EEOC, kluczowa amerykańska agencja, do września 2025 roku zamierza zamknąć wszystkie sprawy dotyczące tzw. disparate impact, czyli niezamierzonej dyskryminacji.
- Decyzja jest echem rozporządzenia wykonawczego Donalda Trumpa, które uznało tę teorię dyskryminacji za “niezgodną z Konstytucją” i amerykańskimi wartościami.
- Pracodawcy nie mogą czuć się bezkarni – pracownicy nadal będą mogli składać pozwy w sądach federalnych, a lokalne i stanowe przepisy pozostają w mocy.
Wyobraź sobie, że o twoim awansie, podwyżce lub nawet zatrudnieniu decyduje algorytm. Brzmi jak przyszłość? Dla milionów ludzi to już teraźniejszość. Sztuczna inteligencja skanuje CV, analizuje kompetencje i rekomenduje najlepszych kandydatów. Miało być obiektywnie, szybko i sprawiedliwie. Ale co, jeśli system, karmiony latami historycznych danych, nauczył się naszych ludzkich uprzedzeń? Co, jeśli niechcący faworyzuje mężczyzn nad kobietami albo osoby białe nad przedstawicielami mniejszości? Taki scenariusz to nie science fiction, a prawny ból głowy znany jako disparate impact – niezamierzona dyskryminacja. A teraz kluczowa amerykańska agencja federalna, która do tej pory stała na jej straży, zamierza zrobić krok w tył.
Dlaczego rządowa agencja umywa ręce?
Amerykańska Komisja ds. Równych Szans w Zatrudnieniu (EEOC) to potężny organ, którego zadaniem jest egzekwowanie federalnych praw antydyskryminacyjnych. Przez dekady zajmowała się badaniem skarg na procedury rekrutacyjne, które – choć na papierze neutralne – w praktyce szkodziły określonym grupom chronionym. Jak donosi serwis Bloomberg Law, powołując się na wewnętrzną notatkę agencji, EEOC planuje do końca września 2025 roku pozamykać wszystkie toczące się dochodzenia w sprawach o disparate impact. Pracownicy, którzy złożyli skargi, otrzymają tzw. “listy uprawniające do pozwu” (right-to-sue letters) i będą musieli szukać sprawiedliwości na własną rękę w sądzie federalnym.
Skąd ta wolta? Trzeba cofnąć się o kilka lat. To pokłosie rozporządzenia wykonawczego wydanego przez prezydenta Donalda J. Trumpa. Administracja uznała wówczas, że cała koncepcja niezamierzonej dyskryminacji jest “całkowicie niezgodna z Konstytucją” i zagraża “zaangażowaniu w merytokrację i równość szans, które tworzą fundament amerykańskiego snu”. Agencjom federalnym, w tym EEOC, polecono depriorytetyzację egzekwowania przepisów z nią związanych. Wygląda na to, że machina biurokratyczna w końcu wciela te dyrektywy w życie, tworząc nową, niepewną rzeczywistość na rynku pracy zdominowanym przez AI.
Algorytm na ławie oskarżonych: czy AI może być rasistą?
Dla firm wdrażających narzędzia AI w HR, teoria disparate impact była dotąd najważniejszym drogowskazem etycznym i prawnym. Problem w tym, że sztuczna inteligencja uczy się na danych, które jej dostarczamy. Jeśli przez lata dana firma zatrudniała głównie białych mężczyzn na stanowiskach inżynierskich, algorytm może “wywnioskować”, że to oni są idealnymi kandydatami i odfiltrowywać aplikacje kobiet czy osób o innym kolorze skóry. Nie dlatego, że ktoś go tak zaprogramował. Dlatego, że matematycznie odtworzył istniejące w firmie wzorce.
Taka “dyskryminacja algorytmiczna” to sedno wielu obaw związanych z AI w miejscu pracy. Sprawa Mobley przeciwko Workday, tocząca się obecnie w sądzie federalnym w Kalifornii, jest tego doskonałym przykładem. Pozew zarzuca popularnemu dostawcy oprogramowania HR, że jego narzędzia do selekcji kandydatów w sposób systemowy dyskryminują Afroamerykanów, osoby niepełnosprawne i osoby po 40. roku życia. To właśnie takie przypadki pokazują, że ryzyko nie znika, nawet jeśli intencje pracodawcy są dobre.
Co to oznacza dla firm? Prawny chaos zamiast ulgi
Decyzja EEOC nie oznacza zielonego światła dla dyskryminujących algorytmów. To, co na papierze wygląda jak deregulacja, w praktyce może okazać się prawnym koszmarem. Po pierwsze, jak wspomniano, pracownicy wciąż mogą i będą pozywać firmy w sądach federalnych. EEOC po prostu nie będzie już pełnić roli filtra i śledczego. Cały ciężar dowodowy i koszty procesowe od razu przeniosą się na salę sądową.
Po drugie – i być może najważniejsze – decyzja agencji federalnej nie ma żadnego wpływu na prawa stanowe i lokalne. A te stają się coraz bardziej restrykcyjne. Miasto Nowy Jork już wprowadziło przepisy wymagające od firm przeprowadzania niezależnych audytów narzędzi AI pod kątem stronniczości. Inne stany i metropolie idą w jego ślady. Pracodawcy, zamiast jednego zestawu federalnych wytycznych, będą musieli poruszać się w gąszczu lokalnych regulacji, które mogą być ze sobą sprzeczne. Zamiast uproszczenia, mamy więc postępującą fragmentację. A w tej nowej rzeczywistości audytowanie własnych algorytmów staje się nie tyle dobrą praktyką, co absolutną koniecznością, by uniknąć wielomilionowych odszkodowań.