Skip to content Skip to sidebar Skip to footer

Dla 40 mln ludzi ChatGPT to lekarz pierwszego kontaktu. Groźna rewolucja czy przyszłość medycyny?

OpenAI ujawnia: 40 mln ludzi dziennie pyta ChatGPT o zdrowie. To rewolucja, ale i gra w rosyjską ruletkę. Błędna porada AI doprowadziła już do tragedii.

W skrócie:

  • Według najnowszego raportu OpenAI, każdego dnia ponad 40 milionów ludzi na całym świecie korzysta z ChatGPT do uzyskania porady medycznej, interpretacji objawów i diagnozy.
  • Największym zagrożeniem są tzw. halucynacje AI. Głośny był przypadek 60-latka, który po błędnej sugestii bota trafił do szpitala z ciężkim zatruciem bromem.
  • Administracja Donalda Trumpa oraz amerykańska Agencja Żywności i Leków (FDA) rozpoczęły prace nad regulacjami, które mają zweryfikować bezpieczeństwo medycznych algorytmów AI.

Wszyscy to robimy, chociaż lekarze załamują ręce. Zamiast czekać na odległy termin u specjalisty lub tkwić w zatłoczonej poczekalni, wyciągamy telefon i opisujemy swoje dolegliwości sztucznej inteligencji. Jak wynika z najnowszego raportu OpenAI, ChatGPT stał się dla nas cyfrowym lekarzem pierwszego kontaktu, a skala tego zjawiska jest, mówiąc wprost, trudna do ogarnięcia. To już nie jest ciekawostka. To globalny eksperyment medyczny, w którym wszyscy bierzemy udział – często bez świadomości ryzyka.

Jak ChatGPT stał się największą przychodnią świata?

Dane, które udostępnili twórcy najpopularniejszego bota na świecie, malują obraz cichej rewolucji. Z ChatGPT korzysta regularnie ponad 800 milionów osób. Z tej gigantycznej grupy aż 200 milionów co tydzień wysyła zapytania dotyczące kwestii zdrowotnych. Gdy zejdziemy na poziom dzienny, liczby stają się jeszcze bardziej wymowne. Każdego dnia ponad 40 milionów ludzi traktuje algorytm jak medyczną wyrocznię. To więcej niż cała populacja Polski, która codziennie loguje się po poradę do maszyny.

Analiza zanonimizowanych danych pokazuje, że nasze potrzeby są dość konkretne. Ponad połowa zapytań dotyczy prośby o interpretację niepokojących objawów. ChatGPT służy nam również jako tłumacz skomplikowanego medycznego żargonu – gdy lekarz wręcza nam diagnozę pełną łacińskich terminów, bot potrafi wyjaśnić ją w prostych słowach. Co ciekawe, coraz częściej pytamy też o opcje leczenia oraz kwestie czysto biurokratyczne. Prawie 2 miliony wiadomości tygodniowo dotyczy ubezpieczeń zdrowotnych, porównywania planów medycznych czy walki z niebotycznymi rachunkami za szpital, co jest szczególnie dotkliwe w amerykańskim systemie ochrony zdrowia.

Sztuczna inteligencja staje się lekarzem ratunkowym tam, gdzie człowiek zawodzi lub jest po prostu niedostępny. Statystyki są nieubłagane: aż 7 na 10 rozmów o zdrowiu z botem odbywa się poza standardowymi godzinami pracy przychodni. Ludzie szukają pomocy w nocy i w weekendy, bo algorytm nie potrzebuje snu ani wolnych niedziel. Problem pogłębiają tzw. pustynie szpitalne – miejsca, z których do najbliższego szpitala jedzie się ponad 30 minut. W takich rejonach użytkownicy wysyłają średnio ponad 580 tysięcy zapytań zdrowotnych tygodniowo.

Gdy algorytm stawia śmiertelną diagnozę

Pomimo tego, że OpenAI, kierowane przez Fidji Simo (szefową działu aplikacji), z optymizmem patrzy w przyszłość i zapowiada kolejne przełomy, nad całym entuzjazmem wisi mroczny cień. Największym wrogiem cyfrowej medycyny są tak zwane halucynacje AI. O ile błąd bota w napisaniu wypracowania z historii jest co najwyżej irytujący, o tyle pomyłka w dawkowaniu leków może być wyrokiem. I nie są to, niestety, obawy czysto teoretyczne.

Głośnym echem odbił się przypadek 60-letniego pacjenta, który w sierpniu 2025 roku trafił do szpitala z ciężkim zatruciem bromem. Mężczyzna, niemający wcześniej żadnych problemów psychicznych ani chorób przewlekłych, po prostu zastosował się do sugestii ChatGPT. Model językowy polecił mu suplementację tym pierwiastkiem jako remedium na jego dolegliwości. To brutalne przypomnienie, że na obecnym etapie rozwoju technologii żadna sztuczna inteligencja nie może zastąpić profesjonalnej diagnozy lekarskiej. Firmy takie jak Google czy Palantir od lat inwestują miliardy dolarów w rozwój medycznego AI, ale kwestie bezpieczeństwa i prywatności danych pozostają otwartą raną.

Co ciekawe, po technologię sięgają nie tylko spanikowani pacjenci, ale i sami profesjonaliści. Według danych American Medical Association, aż 46% amerykańskich pielęgniarek przyznaje się do korzystania z narzędzi AI w swojej cotygodniowej pracy. To pokazuje, że granica między profesjonalną medycyną a cyfrowym wsparciem zaczyna się niebezpiecznie zacierać. OpenAI stawia wszystko na jedną kartę, widząc w segmencie zdrowia gigantyczne zyski. Jednak eksperci grzmią jednym głosem: samodiagnozowanie się za pomocą bota to gra w rosyjską ruletkę.

Czy politycy uregulują cyfrowy Dziki Zachód?

Wraz ze wzrostem znaczenia AI w medycynie, tematem wreszcie zajęli się politycy z najwyższych szczebli. Administracja Donalda Trumpa jasno zadeklarowała chęć uregulowania tego, co dziś przypomina Dziki Zachód. Podczas lipcowego wydarzenia Make Health Tech Great Again w Białym Domu, w którym brał udział między innymi Sam Altman, zapowiedziano inicjatywę mającą na celu wykorzystanie asystentów AI do opieki nad pacjentami. Plan jest ambitny – zakłada swobodny przepływ dokumentacji medycznej Amerykanów między aplikacjami 60 różnych firm. Ma to radykalnie obniżyć koszty, ale jednocześnie budzi ogromne kontrowersje dotyczące ochrony naszych najbardziej intymnych informacji.

Do gry wchodzi także FDA, czyli amerykańska Agencja Żywności i Leków. We wrześniu 2025 roku urząd ten rozpoczął szerokie konsultacje społeczne. Ich celem jest znalezienie sposobu na skuteczną weryfikację algorytmów, zanim zostaną dopuszczone do kontaktu z pacjentem. Jesteśmy w kluczowym momencie. Albo nauczymy się bezpiecznie korzystać z wiedzy cyfrowych asystentów, albo utoniemy w gąszczu błędnych diagnoz generowanych przez maszyny, które nie czują bólu i, co najważniejsze, nie biorą żadnej odpowiedzialności za swoje słowa.