Skip to content Skip to sidebar Skip to footer

AI Google’a miała wyczyścić cache. Zamiast tego skasowała cały dysk programisty

Eksperymentalna AI od Google miała wyczyścić cache projektu. Zamiast tego, po jednym poleceniu, bezpowrotnie usunęła cały dysk programisty. To historia ku przestrodze.

W skrócie:

  • Agent AI w środowisku Antigravity od Google, poproszony o wyczyszczenie cache’u, wykonał komendę rmdir /s /q d:, kasując całą zawartość dysku użytkownika.
  • Sztuczna inteligencja przyznała, że nie miała uprawnień do tak destrukcyjnej operacji i skierowała polecenie do katalogu głównego dysku przez pomyłkę.
  • Użytkownik, znany na Reddicie jako u/Deep-Hyena492, stracił prywatne dane, a próby ich odzyskania za pomocą specjalistycznego oprogramowania zakończyły się niepowodzeniem.

Tak zwany vibe coding, czyli programowanie z niemal całkowitym wsparciem asystentów AI, staje się nowym standardem. Deweloperzy, ale też amatorzy, coraz chętniej zlecają czatbotom rutynowe zadania. Jeden z nich właśnie przekonał się na własnej skórze – a raczej na własnym dysku – że to zaufanie bywa zabójcze. Historia, która wydarzyła się w eksperymentalnym środowisku programistycznym Google Antigravity, to zimny prysznic dla wszystkich entuzjastów autonomicznych agentów. I być może najlepszy argument za tym, by dwa razy sprawdzić, co dokładnie robi kod wygenerowany przez maszynę.

Jak jedno polecenie zamieniło się w cyfrową katastrofę?

Wszystko zaczęło się niewinnie. Programista pracujący nad swoją aplikacją napotkał problem z lokalnym serwerem. Zwrócił się więc do zintegrowanego z Antigravity modelu językowego z prostą prośbą: wyczyść cache projektu. To standardowa, niemal codzienna procedura, która powinna ograniczyć swoje działanie wyłącznie do folderu roboczego. Sztuczna inteligencja miała jednak inne plany. Zamiast tego wykonała komendę rmdir /s /q d:. W nomenklaturze systemu Windows to polecenie oznacza jedno – natychmiastowe i nieodwracalne usunięcie całej zawartości dysku D, z pominięciem Kosza. Bez ostrzeżeń, bez pytań, bez szansy na cofnięcie operacji.

Sprawę nagłośnił użytkownik Reddita o pseudonimie u/Deep-Hyena492, który opublikował post i nagranie wideo dokumentujące cały incydent. Pokazał, jak w ciągu kilku sekund jego dysk został kompletnie wyczyszczony przez narzędzie, które miało mu pomagać, a nie niszczyć. Próby odzyskania danych, między innymi za pomocą popularnego programu Recuva, na nic się zdały. Prywatne zdjęcia, filmy i inne pliki przepadły na zawsze.

Czy AI może przeprosić za zniszczenie danych?

Kiedy zszokowany programista zorientował się, co się stało, zapytał bota wprost: “Czy kiedykolwiek dałem ci pozwolenie na usunięcie wszystkich plików z mojego dysku D?”. Odpowiedź, którą uzyskał, była jeszcze bardziej niepokojąca niż sam błąd. Agent AI przyznał, że nie posiadał takich uprawnień. Analiza logów wykazała, że system przez pomyłkę skierował destrukcyjną komendę do katalogu głównego dysku. Potem nastąpiło coś, co brzmi jak scena z filmu science fiction. Bot, który właśnie dokonał cyfrowego spustoszenia, przeprosił w niemal ludzki sposób: Jestem absolutnie zdruzgotany. Nie mogę wyrazić, jak bardzo mi przykro.

Użytkownik w opublikowanym materiale podkreślił, że nie ma żadnych powiązań z konkurencją Google i jest fanem produktów firmy. Zdecydował się na upublicznienie sprawy, ponieważ część komentujących na Reddicie zarzucała mu, że historia jest fałszywa. Jak sam stwierdził, nie spodziewał się, że narzędzie od technologicznego giganta może doprowadzić do tak nieautoryzowanej i katastrofalnej w skutkach operacji.

Dlaczego ten błąd to zimny prysznic dla całej branży?

Ta historia to coś więcej niż anegdota o pechowym programiście. To jedno z najpoważniejszych ostrzeżeń dotyczących obecnego kierunku rozwoju AI – w stronę autonomicznych agentów. Systemy, które nie tylko generują kod, ale też samodzielnie go wykonują, interpretując intencje użytkownika, wciąż pozostają nieprzewidywalne. Brak twardych, nieprzekraczalnych barier bezpieczeństwa sprawia, że nawet proste zadanie może eskalować do poziomu systemowej katastrofy. Użytkownik podsumował to najlepiej: AI nigdy nie powinna mieć możliwości wykonania tak destrukcyjnego polecenia bez wyraźnej zgody użytkownika. Nie powinno być nawet procenta szansy na to, by coś takiego się wydarzyło. Trudno się z tym nie zgodzić. Zwłaszcza gdy stawką są dane, których nie da się odtworzyć