Skip to content Skip to sidebar Skip to footer

Policyjna AI oszalała. W oficjalnym raporcie: “Funkcjonariusz zamieniony w żabę”

Policyjny system AI w USA wygenerował raport, w którym stwierdził, że oficer został… zamieniony w żabę. Incydent obnaża ryzyka wdrażania AI w służbach.

W skrócie:

  • System AI Draft One firmy Axon, testowany przez policję w Heber City, błędnie zinterpretował nagranie z kamery nasobnej, włączając do raportu dialogi z filmu Disneya.
  • Incydent doprowadził do absurdalnego zapisu, w którym sztuczna inteligencja stwierdziła, że funkcjonariusz został przemieniony w żabę, co wymagało ręcznej korekty.
  • Pomimo tego komicznego błędu, sierżant Keel biorący udział w testach podkreśla, że narzędzie oszczędza mu nawet osiem godzin pracy biurowej tygodniowo.

Wydawałoby się, że automatyzacja policyjnych raportów to scenariusz idealny. Mniej biurokracji, więcej czasu na patrole i realną pracę w terenie. Departament Policji w Heber City w stanie Utah właśnie przekonał się, że wdrażanie sztucznej inteligencji w krytycznych sektorach bywa… zaskakujące. Testowany tam system wygenerował oficjalny raport, w którym bez cienia wątpliwości stwierdził, że jeden z funkcjonariuszy został zamieniony w żabę. I choć historia brzmi jak skecz, jej konsekwencje są śmiertelnie poważne – zarówno dla służb, jak i dla całej branży technologicznej, która coraz agresywniej wciska AI w procesy wymagające absolutnej precyzji.

Jak sztuczna inteligencja zamieniła policjanta w żabę?

Sprawę opisał jeden z policjantów biorących udział w testach, sierżant Keel. Podczas symulowanego zatrzymania drogowego jego kamera nasobna rejestrowała całe zdarzenie. Nagranie miało następnie trafić do systemu Draft One – narzędzia firmy Axon opartego na modelach językowych z rodziny GPT – który na jego podstawie miał wygenerować zwięzły, oficjalny raport. Proste, prawda? Otóż nie do końca. Problem w tym, że w tle interwencji z głośników leciał… film Disneya. Algorytm, kompletnie pozbawiony umiejętności odróżniania kontekstu, potraktował dialogi z bajki jako integralną część policyjnej akcji. Scenariusz filmowy bezceremonialnie wplótł w treść dokumentu. Efekt był porażający. Raport, który trafił na biurko przełożonych, był stekiem nonsensów, a jego najbarwniejszym elementem była właśnie wzmianka o rzekomej metamorfozie funkcjonariusza w płaza. Dokument oczywiście wymagał gruntownej, ręcznej korekty, zanim ktokolwiek mógł go potraktować poważnie. I tu pojawia się zaskakujący zwrot. Sierżant Keel, pomimo incydentu, chwali narzędzie. Podkreśla, że system oszczędza mu od sześciu do ośmiu godzin pracy tygodniowo. Jest szybki i w wielu przypadkach – trafny. Tyle że “w wielu przypadkach” to zdecydowanie za mało, gdy mówimy o dokumentach, które mogą decydować o czyjejś wolności.

Dwa systemy, jeden problem: Dlaczego AI wciąż nie rozumie świata?

Departament w Heber City nie postawił wszystkiego na jedną kartę. Równolegle z Draft One testowany jest system Code Four, stworzony przez dwóch dziewiętnastoletnich geniuszy, którzy porzucili studia na MIT – George’a Chenga i Dylana Nguyena. Ich narzędzie działa na podobnej zasadzie: analizuje dźwięk z kamer i automatyzuje tworzenie raportów. To, że policja w USA testuje takie rozwiązania, nie jest żadnym zaskoczeniem. W Stanach Zjednoczonych trwa prawdziwy wyścig zbrojeń o to, kto pierwszy zautomatyzuje najbardziej czasochłonne elementy pracy funkcjonariuszy. Incydent z Heber City pokazuje jednak, jak krucha i zawodna jest ta technologia, gdy zderza się z chaotyczną, nieprzewidywalną rzeczywistością. Sztuczna inteligencja nie rozumie kontekstu. Nie wie, że dialog z bajki nie jest częścią policyjnej interwencji. Nie potrafi odróżnić żartu od faktu, a przypadkowego dźwięku z otoczenia od kluczowego dowodu. To są absolutne fundamenty pracy śledczej. Co więcej, AI działa jak czarna skrzynka. Jeśli coś pójdzie nie tak, ustalenie przyczyny błędu jest niezwykle trudne. A w sektorze, w którym każda pomyłka może mieć druzgocące konsekwencje prawne, taka nieprzejrzystość jest po prostu niedopuszczalna.

Czy żaba z Heber City to ostatni zabawny błąd AI?

Funkcjonariusze chcą automatyzacji. Chcą mniej “papierologii”. Pragną narzędzi, które realnie odciążą ich w codziennej pracy. To zrozumiałe. Technologia musi jednak dorosnąć do odpowiedzialności, jaką ze sobą niesie. AI wchodzi dziś do systemów, które nie mogą sobie pozwolić na błędy. Policja. Ochrona zdrowia. Infrastruktura krytyczna. Transport. W tych obszarach nie wystarczy, że system działa “w większości przypadków”. Musi działać zawsze. A jeśli zawiedzie, człowiek musi być w stanie natychmiast to zauważyć, zrozumieć przyczynę i naprawić błąd. Jeśli dziś AI zamienia policjanta w żabę, to jutro może błędnie opisać użycie siły, pomylić ofiarę ze sprawcą albo wygenerować raport, który zaważy na wyroku sądowym. To są realne ryzyka. Żaba z Heber City może być ostatnim zabawnym incydentem z udziałem AI, o którym czytamy z uśmiechem. Jeśli branża technologiczna i jej klienci nie wyciągną z tej historii wniosków, kolejne pomyłki mogą już wcale nie być takie śmieszne.