Skip to content Skip to sidebar Skip to footer

Szok w rządzie USA. Departament Weteranów wdraża AI, a urzędnicy mówią o chaosie i ‘172 silosach’

Departament Weteranów USA rusza z “agresywnym” wdrożeniem AI. Ma ratować życie i czas, ale audytorzy i politycy alarmują o chaosie, ryzyku i braku współpracy.

W skrócie:

  • Departament Weteranów (VA) udostępnił wszystkim pracownikom narzędzie AI, które według ankiet oszczędza im ponad dwie godziny pracy tygodniowo.
  • AI ma być wykorzystywane do wczesnego wykrywania chorób, identyfikacji weteranów z grupy ryzyka, a także jako narzędzie do “słuchania otoczenia” w placówkach.
  • Rządowe Biuro Odpowiedzialności (GAO) i kongresmeni ostrzegają przed problemami z infrastrukturą, cyberbezpieczeństwem, prywatnością danych oraz brakiem komunikacji między placówkami.

Amerykański Departament ds. Weteranów (VA) zamierza “agresywnie wykorzystać” potencjał sztucznej inteligencji, by wreszcie uporać się z chronicznymi problemami – kolejkami do lekarzy i rosnącymi kosztami operacyjnymi. Wizja jest imponująca. Charles Worthington, dyrektor ds. technologii i AI w departamencie, z dumą informował kongresmenów, że każdy pracownik VA ma już dostęp do bezpiecznego narzędzia generatywnej AI. Efekt? Ankietowani użytkownicy deklarują oszczędność ponad dwóch godzin tygodniowo. To brzmi jak spełnienie marzeń każdego menedżera. Jednak niemal w tym samym czasie federalny organ nadzorczy studził ten entuzjazm. Ostrzegł tych samych polityków, że droga do efektywnego wdrożenia AI w VA będzie długa i wyboista. A być może nawet niemożliwa do pokonania w obecnych warunkach.

Jakie korzyści ma przynieść AI weteranom?

Plan departamentu wykracza daleko poza usprawnianie pracy biurowej. Worthington roztoczył przed komisją wizję, w której technologia staje się kluczowym sojusznikiem w opiece klinicznej. Algorytmy uczenia maszynowego mają pomagać we wcześniejszym wykrywaniu chorób, a narzędzia typu ambient listening (technologie nasłuchujące i analizujące otoczenie) jeszcze w tym roku trafią do pierwszych placówek. Co więcej, AI ma identyfikować weteranów z grupy wysokiego ryzyka przedawkowania substancji psychoaktywnych i samobójstwa. To zadania o najwyższej wadze. “Pomimo naszego postępu, wdrażanie narzędzi AI stwarza wyzwania” – przyznał jednak sam Worthington. Zintegrowanie nowych rozwiązań ze skomplikowaną architekturą systemów i zrównoważenie innowacji z rygorystycznymi wymogami bezpieczeństwa to, delikatnie mówiąc, nie jest bułka z masłem.

Dlaczego federalny stróż puka do drzwi?

Chwilę później te obawy nabrały bardzo konkretnego kształtu. Carol Harris, dyrektor ds. IT i cyberbezpieczeństwa w Rządowym Biurze Odpowiedzialności (GAO), bez ogródek ujawniła, co urzędnicy VA powiedzieli jej zespołowi. Okazuje się, że istniejące federalne regulacje dotyczące AI mogą stanowić poważną przeszkodę we wdrażaniu generatywnej sztucznej inteligencji, zwłaszcza w obszarach cyberbezpieczeństwa, prywatności danych i zamówień publicznych w IT. Harris podkreśliła, że generatywna AI wymaga potężnej infrastruktury obliczeniowej, a Departament Weteranów już wcześniej zgłaszał problemy z dostępem do takich zasobów i pozyskaniem na nie funduszy. To nie jest problem, który rozwiązuje się jednym podpisem. To strukturalna zapora, o którą ambitne plany mogą się po prostu rozbić. GAO przedstawiło nawet specjalny dokument – AI accountability framework – mający pomóc w rozwiązaniu tych systemowych problemów.

Jak połączyć 172 samotne wyspy?

Technologia i regulacje to jedno. Ale co z ludźmi i organizacją? Tu na scenę wkroczył kongresmen Morgan Luttrell, który wytoczył najcięższe działo. “Mamy taki problem z VA, ponieważ to wielka machina (…) macie 172 różne placówki VA, plus kampusy satelitarne, a to oznacza 172 różne silosy, które nie współpracują ze sobą” – stwierdził. Jego zdaniem placówki te nie komunikują się ze sobą zbyt dobrze, co czyni centralne wdrożenie jakiejkolwiek zaawansowanej technologii misją niemal samobójczą. Luttrell dodał, że docierają do niego sygnały z wielu miejsc, gdzie funkcje AI nie działają, bo “ich ośrodki nie są gotowe”. Worthington, choć przyznał, że standaryzacja systemów jest wyzwaniem, odpowiedział w sposób, który doskonale oddaje napięcie sytuacji: “Nie możemy czekać, ponieważ AI już tu jest, czy jesteśmy gotowi, czy nie”. Zasugerował tworzenie standardowych szablonów, które mogą być używane przez wszystkie placówki, podając jako przykład narzędzie VA GPT, dostępne dla każdego pracownika.

Czy dane milionów weteranów są na pewno bezpieczne?

W tle tej technologiczno-organizacyjnej batalii nieustannie powracał jeszcze jeden, być może najważniejszy, wątek: prywatność danych. Departament Weteranów dysponuje gigantycznymi i niezwykle wrażliwymi zbiorami danych medycznych. Politycy z obu partii dopytywali, co stanie się z tymi informacjami, gdy w grę wejdą systemy AI, zwłaszcza te od zewnętrznych dostawców. Przewodniczący podkomisji, Tom Barrett, wyraził obawę, że prywatne firmy będą chciały “pasożytować” na repozytorium danych VA wyłącznie dla korzyści swoich modeli AI, a nie dla dobra agencji. Worthington zapewniał, że wszystkie systemy AI muszą spełniać “rygorystyczne standardy bezpieczeństwa i prywatności” zanim zostaną dopuszczone do użytku. Partnerzy pracujący nad tymi systemami muszą je zaakceptować i poświadczyć zgodność. Ale w świecie, gdzie wycieki danych stały się normą, takie deklaracje – nawet składane pod przysięgą – mogą nie wystarczyć, by uspokoić opinię publiczną. Walka o cyfrową przyszłość opieki nad weteranami dopiero się zaczyna.