Skip to content Skip to sidebar Skip to footer

AI wchodzi do szpitali w USA. Ma analizować USG i wykrywać wady płodu

Amerykańska FDA dała zielone światło dla AI w badaniach prenatalnych. Oprogramowanie BioticsAI ma analizować USG i wykrywać wady płodu. Czy to bezpieczne?

W skrócie:

  • Startup BioticsAI, laureat konkursu Disrupt’s Battlefield 2023, otrzymał zgodę FDA na swoje oprogramowanie AI, które ma wspierać analizę ultrasonografów prenatalnych.
  • Technologia wykorzystuje wizję komputerową do oceny jakości obrazu i kompletności anatomii płodu, by zredukować ryzyko błędnych diagnoz medycznych i zautomatyzować raportowanie.
  • Celem jest poprawa wyników opieki prenatalnej w USA, gdzie śmiertelność matek, zwłaszcza wśród czarnoskórych kobiet, jest jedną z najwyższych w krajach rozwiniętych.

Amerykańska Agencja Żywności i Leków (FDA) otworzyła drzwi, których zamknięcia domagało się wielu sceptyków. Firma BioticsAI, która w 2023 roku zgarnęła główną nagrodę w prestiżowym konkursie technologicznym Disrupt’s Battlefield, dostała oficjalną zgodę na wprowadzenie na rynek swojego oprogramowania. To nie jest kolejny chatbot ani generator obrazków. To algorytm, który będzie analizował badania USG i pomagał w wykrywaniu nieprawidłowości u nienarodzonych dzieci. Stawka jest więc nieprawdopodobnie wysoka, a za projektem stoi Robhy Bustami – człowiek, który wychował się w rodzinie lekarzy i szpitale zna od podszewki. Po studiach informatycznych na Uniwersytecie Kalifornijskim połączył siły z trzema innymi specjalistami i w 2021 roku powołał do życia BioticsAI. Ich misja? Naprawić system, który zawodzi.

Dlaczego AI w ogóle wkracza do gabinetu ginekologa?

Odpowiedź jest brutalnie prosta – bo Stany Zjednoczone, mimo statusu globalnego mocarstwa, mają jedne z najgorszych wskaźników opieki prenatalnej wśród krajów o wysokim dochodzie. Bustami w wywiadach podkreśla, że ultrasonografia jest “kamieniem węgielnym” monitorowania ciąży, ale jej niska jakość często prowadzi do katastrofalnych w skutkach pomyłek. Problem dotyka zwłaszcza czarnoskóre kobiety, u których wskaźnik śmiertelności okołoporodowej jest alarmująco wysoki. Oprogramowanie BioticsAI ma być na to remedium. Wykorzystuje zaawansowaną wizję komputerową do analizy obrazów z USG. System ocenia ich jakość, weryfikuje kompletność anatomiczną płodu, a nawet automatyzuje tworzenie raportów. Wszystko po to, by lekarz dostał wsparcie, które minimalizuje ryzyko przeoczenia kluczowych detali.

Jak wytresować algorytm, by widział więcej niż człowiek?

Twórcy BioticsAI podkreślają, że najtrudniejsza nie była budowa samego modelu sztucznej inteligencji. Chociaż wytrenowano go na zróżnicowanym zbiorze setek tysięcy badań USG, prawdziwe wyzwanie leżało gdzie indziej. Chodziło o zapewnienie niezawodności w warunkach polowych – w szpitalach, gdzie sprzęt bywa różny, a pacjentki pochodzą z grup demograficznych o najwyższym ryzyku. Co ciekawe, cały proces certyfikacji przez FDA zajął niespełna trzy lata. To tempo, które w branży medycznej robi wrażenie. Jak to możliwe? Bustami tłumaczy: “Dzięki wspólnemu projektowaniu, ratyfikacji klinicznej i ścieżce prawnej, zamiast sekwencyjnego podejścia, byliśmy w stanie działać szybko”. Zespół od początku koordynował pracę inżynierów, klinicystów i prawników, co pozwoliło uniknąć biurokratycznych zatorów. Teraz, z certyfikatem w ręku, firma planuje ekspansję na amerykańskie szpitale i dodanie kolejnych funkcji z zakresu medycyny płodowej.

Czy na pewno chcemy, by AI decydowała o zdrowiu dzieci?

Obietnice BioticsAI brzmią wspaniale: szybsze diagnozy, lepsza opieka, nadzieja dla zagrożonych grup. Jest jednak i druga strona medalu. Zacznijmy od podstaw: testy laboratoryjne to jedno, a chaotyczna codzienność oddziału położniczego to coś zupełnie innego. Model, nawet najlepiej wytrenowany, może zderzyć się z rzeczywistością, której nie przewidzieli jego twórcy. I tu pojawia się fundamentalne pytanie o odpowiedzialność. Kto poniesie konsekwencje, gdy algorytm się pomyli? Fałszywy alarm o wadzie płodu może wywołać niewyobrażalną traumę. Z kolei przeoczenie realnego problemu to ryzyko utraty zdrowia lub życia. Odpowiedzialność spadnie na lekarzy i pacjentów – nie na programistów z Doliny Krzemowej. To nie jest błąd w aplikacji bankowej, to decyzje o ludzkim losie. Ponadto, pomimo zapewnień o “zróżnicowanych” danych treningowych, zawsze istnieje ryzyko, że model będzie gorzej radził sobie z analizą badań u kobiet z mniejszości etnicznych. Zgoda FDA to dopiero początek drogi, a nie jej koniec. Prawdziwym testem będzie wdrożenie, które musi iść w parze z transparentnością, ścisłym nadzorem i jasnymi regulacjami. Bez tego rewolucja może okazać się pomysłem, który po prostu wymknął się spod kontroli.