Anthropic rzuca wyzwanie OpenAI na polu medycyny. Firma zaprezentowała Claude for Healthcare – narzędzie AI, które ma zautomatyzować biurokrację i dać lekarzom czas.
W skrócie:
- Anthropic zaprezentował Claude for Healthcare, zestaw narzędzi AI dla lekarzy i ubezpieczycieli, jako konkurencję dla niedawno ogłoszonego ChatGPT Health od OpenAI.
- System wykorzystuje specjalne „konektory” do baz danych, takich jak PubMed czy ICD-10, aby radykalnie przyspieszyć procesy administracyjne, np. autoryzację świadczeń.
- Mimo obaw o halucynacje AI, Anthropic stawia na automatyzację papierkowej roboty, by – jak twierdzi CPO Mike Krieger – lekarze mieli więcej czasu dla pacjentów.
Ledwo opadł kurz po tym, jak OpenAI zapowiedziało swoje ChatGPT Health, a na scenę wkracza jego największy rywal. Anthropic, niemal bez ostrzeżenia, ogłosił start Claude for Healthcare – pakietu narzędzi, który ma nie tylko konkurować z rozwiązaniem twórców ChatGPT, ale pójść o krok dalej. To nie jest przypadek. To starannie zaplanowany ruch w grze o jeden z najbardziej lukratywnych i jednocześnie wrażliwych rynków na świecie. Obie firmy obiecują, że dane pacjentów nie posłużą do trenowania modeli, ale na tym podobieństwa powoli się kończą. OpenAI zdaje się celować w doświadczenie pacjenta, tworząc inteligentnego asystenta zdrowia. Anthropic natomiast kieruje swój produkt do profesjonalistów – lekarzy, menedżerów placówek i ubezpieczycieli. Cel jest prosty: posprzątać bałagan, zanim zacznie się leczenie.
Jak Claude ma odciążyć lekarzy (i nie tylko)?
Diabeł, jak zwykle, tkwi w szczegółach. Sercem rozwiązania Anthropic są tak zwane „konektory” (ang. *connectors*). To specjalne wtyczki, które dają Claude’owi bezpośredni dostęp do kluczowych medycznych baz danych. Mówimy tu o potężnych zasobach, takich jak PubMed (ogromna biblioteka badań medycznych), ICD-10 (Międzynarodowa Klasyfikacja Chorób) czy bazy danych amerykańskich ubezpieczycieli, jak CMS Coverage Database. To nie jest zwykły chatbot, który przeszukuje ogólnodostępny internet. To narzędzie podłączone do krwiobiegu systemu ochrony zdrowia.
Po co to wszystko? Anthropic podaje bardzo konkretny przykład: proces autoryzacji świadczeń. To biurokratyczny koszmar, w którym lekarz musi udowadniać ubezpieczycielowi, że dane leczenie lub lek są pacjentowi niezbędne. Proces ten pochłania czas i energię, które mogłyby być poświęcone pacjentom. Claude ma to zmienić, automatyzując wyszukiwanie odpowiednich procedur, generowanie raportów i wypełnianie wniosków. Jak ujął to wprost dyrektor ds. produktu w Anthropic, Mike Krieger: “Klinicyści często zgłaszają, że spędzają więcej czasu na dokumentacji i papierkowej robocie niż na faktycznym spotykaniu się z pacjentami”. To właśnie tę frustrację ma rozwiązać AI – nie zastępując lekarza w diagnozie, ale stając się jego najbardziej wydajnym asystentem administracyjnym.
Wirtualny lekarz czy sprytny asystent? Dylemat zaufania
Pomysł na odciążenie medyków z papierologii brzmi znakomicie. Jest jednak druga strona medalu, której nikt nie ignoruje. Duże modele językowe, w tym Claude i GPT, wciąż mają skłonność do „halucynacji” – generowania fałszywych, choć wiarygodnie brzmiących informacji. W kontekście medycznym pomyłka może mieć tragiczne konsekwencje. Dlatego strategia Anthropic, polegająca na skupieniu się na administracji, wydaje się bezpieczniejszym pierwszym krokiem niż oferowanie porad medycznych na masową skalę.
Tyle że ta granica już dawno została przekroczona. Samo OpenAI przyznało, że co tydzień aż 230 milionów ludzi rozmawia z ChatGPT na tematy zdrowotne. Ludzie już dziś używają LLM-ów jako wirtualnych doradców, niezależnie od ostrzeżeń umieszczanych drobnym drukiem. Obie firmy oczywiście zabezpieczają się, przypominając, że ich narzędzia nie zastąpią profesjonalnej porady lekarskiej. Pomimo tego wejście na rynek medyczny to stąpanie po polu minowym. Automatyzacja wniosku do ubezpieczyciela to jedno. Ale co się stanie, gdy ten sam system, zasilany tymi samymi mechanizmami, zostanie poproszony o interpretację wyników badań? Na razie odpowiedź brzmi: „skonsultuj się z lekarzem”. Pytanie, jak długo ta odpowiedź będzie wystarczyć.