Sztuczna inteligencja rewolucjonizuje medycynę, od diagnozy po planowanie operacji. Czy AI uratuje system opieki zdrowotnej, czy stanie się prawnym koszmarem?
W skrócie:
- Rząd Wielkiej Brytanii inwestuje 14 miliardów funtów w rozwój technologii AI, która ma usprawnić i zmodernizować publiczną opiekę zdrowotną.
- Narzędzia AI już teraz poprawiają wydajność szpitalnych oddziałów ratunkowych, trafniej przewidują obłożenie OIOM-ów i wspierają radiologów w analizie obrazów.
- Głównym wyzwaniem pozostaje kwestia odpowiedzialności prawnej – nie jest jasne, kto odpowiada za błędy AI: lekarz, programista czy producent oprogramowania.
Ewolucja i adaptacja sztucznej inteligencji w opiece zdrowotnej nabiera tempa, o jakim jeszcze kilka lat temu nikomu się nie śniło. Opinie na temat jej wpływu są skrajne – od sceptyków wieszczacych marginalne zmiany, po entuzjastów, którzy już dziś polegają na algorytmach w swojej praktyce i widzą w nich przyszłość medycyny. Jedno jest pewne: ten pociąg już odjechał. Rząd Wielkiej Brytanii w swoim ambitnym “Planie Zmian” stawia na AI, przeznaczając 14 miliardów funtów na przekształcenie kraju w technologiczne supermocarstwo. Pytanie brzmi: czy to wystarczy, by załatać dziury w publicznej służbie zdrowia?
Czy algorytm może być lepszy od lekarza?
Potencjał jest niezaprzeczalny. AI obiecuje poprawę jakości opieki, odciążenie personelu, zwiększenie bezpieczeństwa pacjentów i turbodoładowanie produktywności. Modele uczenia maszynowego już dziś z powodzeniem zmniejszają presję na system. Szeroko zakrojone badanie Use of Artificial Intelligence in Triage in Hospital Emergency Departments wykazało, że sztuczna inteligencja na oddziałach ratunkowych konsekwentnie poprawiała efektywność segregacji pacjentów, alokację zasobów i identyfikację stanów krytycznych.
Przykłady? Proszę bardzo. Szpital Calderdale and Huddersfield NHS Foundation Trust od 2021 roku używa analityki predykcyjnej do prognozowania obłożenia na oddziale intensywnej terapii z 90-procentową pewnością. Z kolei Guy’s and St Thomas’ Hospital opracował platformę identyfikującą pacjentów z cukrzycą, u których istnieje wysokie ryzyko pogorszenia stanu zdrowia w oczekiwaniu na operację. System sugeruje, by nadać im priorytet. Niestety, nie zawsze jest tak różowo. Wiele przychodni wdrożyło chatboty i systemy online, by odciążyć linie telefoniczne. Jednak jedno z badań – The Impact of Digital-First Consultations on Workload in General Practice – ujawniło, że obciążenie lekarzy pierwszego kontaktu wzrosło o 25%, bo pacjenci zaczęli masowo korzystać z nowych, łatwo dostępnych funkcji.
Paradoksów jest więcej. The Royal College of Radiologists alarmuje, że w 2024 roku w Anglii aż 976 000 wyników badań obrazowych przekroczyło miesięczny termin oczekiwania – to o 28% więcej niż rok wcześniej. Dzieje się tak pomimo tego, że AI, jak choćby narzędzie DeepMind do wykrywania raka piersi, już w 2020 roku udowodniło swoją skuteczność, redukując liczbę fałszywie pozytywnych wyników o 1,2 – 5,7% i fałszywie negatywnych o 2,7 – 9,4% w porównaniu z człowiekiem. Czy to niechęć do polegania na technologii, czy może po prostu brak dostępu do niej?
Kto zapłaci, gdy AI postawi złą diagnozę?
Największym polem minowym okazują się aplikacje konsumenckie. Na rynku jest już kilka certyfikowanych aplikacji na smartfony do badań przesiewowych w kierunku czerniaka, ale ich dokładność w realnym świecie bywa zatrważająco niska. Jeden z niedawnych przeglądów wykazał, że wskaźniki prawdziwie pozytywnych wyników wahały się od 7% do 73%, a prawdziwie negatywnych – od 37% do 94%. Co więcej, algorytmy często trenuje się na danych dotyczących jasnej skóry, przez co ich skuteczność w przypadku ciemniejszych karnacji jest niższa.
Zupełnie inaczej wygląda sytuacja z narzędziami dla profesjonalistów. Amerykański DermaSensor, wykorzystujący spektroskopię, osiąga 96% czułości w wykrywaniu wszystkich 224 rodzajów raka skóry. Tymczasem Wielka Brytania pozostaje w tyle za Unią Europejską, która wdrożyła już przełomowy EU AI Act 2024. To pierwsza tak kompleksowa regulacja, która ma szansę stać się globalnym standardem. A w Zjednoczonym Królestwie? Projekt ustawy wciąż czeka na drugie czytanie w Izbie Lordów.
To wszystko prowadzi do fundamentalnego pytania o odpowiedzialność. General Medical Council donosi, że wielu lekarzy uważa, iż ostateczna odpowiedzialność spoczywa na nich – jako “człowieku w pętli”. To jednak uproszczenie. W procesie uczestniczy deweloper, programista, producent i regulator. Gdzie i na kim ostatecznie spocznie odpowiedzialność prawna, pozostaje niejasne. Co więcej, interpretacja głośnej sprawy Montgomery v Lanarkshire Health Board może sugerować, że lekarz ma obowiązek poinformować pacjenta o użyciu AI, ponieważ poleganie na jej wynikach stanowi “istotne ryzyko”.
Lekarz z ludzką intuicją czy asystent AI?
“Sztuczna inteligencja rozwija się błyskawicznie” – mówi David Bodansky, chirurg-konsultant. Zauważa, że technologia już teraz jest w stanie zdać egzaminy specjalizacyjne European Association of Neurological Societies. “Jednak AI działa dobrze, gdy informacje są podane w formie testu wielokrotnego wyboru lub uporządkowanego podsumowania, a nie podczas interakcji z pacjentami” – dodaje. To sedno sprawy.
System AI może być potężnym asystentem, który podsuwa sugestie i wychwytuje błędy w notatkach. Wciąż jednak nie potrafi wyczuć obaw pacjenta, zrozumieć jego kontekstu i wykorzystać go do postawienia trafnej diagnozy i zaplanowania leczenia. Człowiek może polegać na instynkcie i doświadczeniu, podczas gdy AI – jeszcze – nie. Może nie zastąpi twojego lekarza jutro, ale już staje się nieodłączną częścią codziennej opieki medycznej.
Jak trafnie zauważył profesor Richard Susskind: “…większość krótkoterminowych prognoz na temat AI znacznie przecenia jej wpływ, ale, co kluczowe, większość długoterminowych roszczeń ogromnie nie docenia jej efektu”. Czas, by klinicyści, ubezpieczyciele i prawnicy zrozumieli, że przyszłość medycyny już nadeszła. I jest o wiele bardziej skomplikowana, niż się wydaje.