Sztuczna inteligencja rewolucjonizuje medycynę, ale jej sukces ma ukrytą cenę. Jaki jest koszt środowiskowy i zdrowotny technologii, która miała nas leczyć?
W skrócie:
- Trening modeli AI wymaga gigantycznych centrów danych, które zużywają ogromne ilości energii i wody, generując przy tym góry toksycznych elektrośmieci.
- Produkcja mikroczipów do systemów AI wiąże się z wydobyciem rzadkich metali, co niszczy ekosystemy i zanieczyszcza wodę oraz glebę w okolicy kopalń.
- Badania Uniwersytetu Stanforda dowodzą, że chatboty terapeutyczne mogą wzmacniać stygmatyzację chorób psychicznych, zniechęcając pacjentów do szukania pomocy.
Sztuczna inteligencja wkracza do szpitali, klinik i firm farmaceutycznych z obietnicą rewolucji. Algorytmy odczytują skany szybciej niż radiolodzy, przewidują zawały serca, zanim pacjent poczuje ból w klatce piersiowej, a robotyczne ramiona asystują chirurgom z precyzją niedostępną ludzkiej dłoni. Brzmi jak spełnienie marzeń o medycynie przyszłości. Tyle że każda utopia ma swoją cenę – a tej, którą płacimy za AI, często nie widać na pierwszy rzut oka. Kryje się w glebie, wodzie i powietrzu.
Ile kosztuje nas “inteligentna” medycyna?
Zacznijmy od fundamentów. Cała ta obliczeniowa magia nie bierze się z powietrza. Za każdym “inteligentnym” narzędziem stoją potężne centra danych – molochy pożerające niewyobrażalne ilości energii elektrycznej i wody potrzebnej do chłodzenia serwerów. To fabryki, które zamiast samochodów produkują bity i bajty, a ich produktem ubocznym są góry elektrośmieci. Program Środowiskowy ONZ (UNEP) alarmuje, że zużyty sprzęt elektroniczny często zawiera toksyczne materiały, takie jak rtęć i ołów. Gdy trafiają na wysypiska, chemikalia te przenikają do gleby i wód gruntowych. Skutki? Długoterminowe zagrożenia dla zdrowia, od chorób układu oddechowego po problemy neurologiczne.
A to nawet nie jest początek łańcucha. Aby zbudować mikroczipy, które są mózgiem systemów AI, potrzebujemy metali ziem rzadkich. Ich wydobycie to proces niszczący ekosystemy i zatruwający życie lokalnych społeczności. Żeby wyprodukować jeden, ważący zaledwie 2 kilogramy komputer, trzeba zużyć około 800 kilogramów surowców. To niewidzialny koszt każdego “mądrego” skalpela i każdej aplikacji terapeutycznej, którą z dumą chwalą się start-upy z Doliny Krzemowej.
Jak technologia, która leczy, jednocześnie szkodzi?
Związek między środowiskowym śladem AI a naszym zdrowiem jest bardziej bezpośredni, niż mogłoby się wydawać. Gdy elektrośmieci są spalane lub pozostawione na wysypiskach, uwalniają do atmosfery szkodliwe gazy i pyły zawieszone. Długotrwałe narażenie na te zanieczyszczenia może wywoływać astmę, choroby serca, a nawet problemy rozwojowe u dzieci. Wydobycie metali ziem rzadkich zanieczyszcza wody gruntowe i źródła żywności, co zwiększa ryzyko nowotworów, zaburzeń hormonalnych i problemów z płodnością u ludzi mieszkających w pobliżu kopalń. Paradoks, prawda? Technologia stworzona, by ratować zdrowie, po cichu szkodzi tym, których ma chronić.
To błędne koło, w którym pogoń za innowacją odbywa się kosztem fundamentalnego bezpieczeństwa. Tworzymy narzędzia do walki z chorobami, jednocześnie przyczyniając się do powstawania warunków, które te choroby mogą wywoływać. To jeden z tych niewygodnych faktów, o których branża tech woli nie mówić zbyt głośno. W końcu psułoby to piękną narrację o zbawiennym wpływie technologii na ludzkość.
Czy AI w terapii to na pewno dobry pomysł?
Medycyna to nie tylko ciało, ale i psychika. Tutaj AI również oferuje swoje usługi – wirtualne konsultacje i chatboty terapeutyczne mają uczynić opiekę zdrowotną bardziej dostępną. Jednak opublikowane w czerwcu tego roku badanie naukowców z Uniwersytetu Stanforda rzuca na nie cień. Okazuje się, że wiele chatbotów terapeutycznych jest obarczonych uprzedzeniami, które mogą prowadzić do niebezpiecznych konsekwencji. Algorytmy te potrafią wykazywać większą stygmatyzację wobec takich schorzeń jak uzależnienie od alkoholu czy schizofrenia w porównaniu do depresji.
Jak twierdzą badacze, tego rodzaju podejście jest niezwykle szkodliwe. Może sprawić, że pacjenci poczują się osądzeni i zrezygnują z dalszego leczenia. Zamiast pomagać, maszyna pogłębia problem. Co więcej, AI w opiece zdrowotnej rodzi poważne pytania o prywatność i odpowiedzialność. Elektroniczna dokumentacja medyczna, używana do trenowania modeli, to łakomy kąsek dla hakerów. Naukowcy z Nesbitt School of Pharmacy na Wilkes University ostrzegają, że wyciek danych medycznych może prowadzić do kradzieży tożsamości lub wykorzystania ich przez firmy ubezpieczeniowe do podnoszenia składek. Wielki Brat nie tylko patrzy, ale i diagnozuje. Sztuczna inteligencja w medycynie z nami zostanie, ale musimy zadbać, by była zrównoważona – z zielonymi centrami danych, twardymi przepisami o ochronie danych i etyką, która stawia dobro pacjenta ponad zyskiem. Inaczej w pośpiechu, by uczynić maszyny mądrzejszymi, zapomnimy o tym, by sami pozostać zdrowi.