Ministerstwo Obrony Narodowej wdraża AIRON – wojskową platformę AI. Ma ona błyskawicznie wykrywać i zwalczać rosyjską i białoruską dezinformację w sieci.
W skrócie:
- MON wdraża AIRON, zamknięty system AI, który ma dać przewagę w wojnie informacyjnej z Rosją i Białorusią przez automatyczną analizę i reagowanie na fake newsy.
- Oficerowie prasowi przeszli specjalistyczne szkolenie prowadzone przez instruktorów z NATO. Uczyli się, jak tworzyć prompty i wykorzystywać AI do planowania kampanii.
- Platforma będzie miała wersję mobilną AIRON EDGE do działań w terenie, ale ostateczną decyzję o publikacji treści zawsze będzie podejmował człowiek, by uniknąć błędów AI.
Kłamstwa o mobilizacji, zmyślone informacje o programie Tarcza Wschód, zmanipulowane zdjęcia – to nie są pojedyncze incydenty, a regularna, zautomatyzowana ofensywa informacyjna. Za atakami stoją sieci botów, które zalewają polski internet fałszywymi narracjami z prędkością, której żaden ludzki zespół nie jest w stanie dorównać. Gdy oficer prasowy weryfikuje fake newsa i przygotowuje dementi, kłamstwo zdążyło już zatoczyć szerokie kręgi, a oficjalny komunikat wojska ginie w zalewie dezinformacji.
W tej wojnie, w której amunicją są bity i bajty, a celem umysły obywateli, Ministerstwo Obrony Narodowej postanowiło sięgnąć po broń adekwatną do zagrożenia. Odpowiedzią jest AIRON – wojskowa platforma sztucznej inteligencji, która ma dać polskim oficerom przewagę w starciu z rosyjską i białoruską propagandą. Zamiast walczyć z maszynami gołymi rękami, polska armia postanowiła zatrudnić własne, znacznie lepsze maszyny.
Dlaczego tradycyjne metody przestały wystarczać?
Od początku pełnoskalowej inwazji na Ukrainę, polska cyberprzestrzeń stała się jednym z głównych frontów wojny hybrydowej. Ataki są skoordynowane, masowe i bezustanne. Problem polega na tym, że wróg nie śpi. Sieci botów pracują 24 godziny na dobę, siedem dni w tygodniu, bez emocji i zmęczenia. Tymczasem ludzki oficer prasowy musi zweryfikować źródło, ocenić skalę zagrożenia, przygotować komunikat i uzyskać akceptację przełożonych. Każda minuta zwłoki działa na korzyść dezinformacji.
MON zrozumiało, że w tym wyścigu z czasem ludzkie oko i ręka to za mało. Algorytmy mogą pracować w ułamkach sekund po wykryciu zagrożenia, analizować tysiące publikacji jednocześnie i identyfikować wzorce, które człowiekowi umknęłyby w informacyjnym szumie. Inwestycja w AIRON to przyznanie, że wojna informacyjna to już nie tylko domena rzeczników prasowych, ale przede wszystkim analityków danych i inżynierów AI.
Czym dokładnie jest wojskowy ChatGPT w zamkniętej klatce?
AIRON to nie jest ogólnodostępny chatbot, z którego można skorzystać w przeglądarce. To dedykowana, w pełni odizolowana i bezpieczna platforma stworzona wyłącznie na potrzeby Sił Zbrojnych. Działa jak zamknięty hub, co jest kluczowe z punktu widzenia bezpieczeństwa narodowego – pozwala przetwarzać ogromne ilości danych bez ryzyka, że wrażliwe informacje wypłyną na zewnątrz. Wojsko buduje po prostu własny, sterylny ekosystem sztucznej inteligencji.
Platforma nie będzie jednak przykuta do biurek w sztabach. W planach jest wdrożenie jej mobilnej wersji o nazwie AIRON EDGE, zaprojektowanej do działań w terenie. Tam, gdzie łączność bywa ograniczona, a decyzje trzeba podejmować natychmiast, takie narzędzie może okazać się bezcenne. Jak tłumaczy w magazynie Polska Zbrojna ppłk Paweł Augustynowicz z Centrum Implementacji Sztucznej Inteligencji MON: “AIRON ma dać nam przewagę w wojnie informacyjnej, gdzie tempo rozpowszechniania fałszywych treści jest często niewiarygodnie szybkie”. System ma ustandaryzować użycie AI w wojsku i zapewnić pełną kontrolę nad danymi.
Jak wyszkolić komandosów od promptów?
Nawet najlepszy karabin jest bezużyteczny, jeśli żołnierz nie potrafi z niego strzelać. Podobnie jest z AI. Dlatego w Dowództwie Komponentu Wojsk Obrony Cyberprzestrzeni przeprowadzono bezprecedensowe szkolenie. Zamiast wysyłać pojedynczych oficerów do centrum kompetencyjnego NATO w Rydze, co zajęłoby lata, MON sprowadziło instruktorów z Łotwy do Polski, by jednorazowo przeszkolić kilkudziesięciu oficerów prasowych i analityków.
“Oficerowie prasowi nie zawsze wiedzą, jak korzystać z narzędzi AI i jak budować prompty. Ten kurs ma to zmienić” – wyjaśnia Jakub Block, zastępca dyrektora Departamentu Komunikacji i Promocji MON. Uczestnicy nie słuchali wykładów o komunikacji kryzysowej. Uczyli się rzemiosła przyszłości: tworzenia skutecznych promptów, planowania całych kampanii z udziałem agentów AI i błyskawicznego monitorowania sieci. Chodzi o to, by zaprząc AI do czarnej roboty – analizy trendów i szkicowania komunikatów – a oficerowi zostawić to, co ludzkie: strategiczne myślenie i ostateczną decyzję.
AI ma halucynacje, a człowiek ostatnie słowo?
Pomimo ogromnych nadziei, dowództwo podchodzi do nowej technologii z dużą dozą realizmu. Generatywna AI, jak wiadomo, potrafi nie tylko tworzyć, ale i zmyślać. Zjawisko tak zwanych halucynacji, czyli generowania przez model językowy fałszywych faktów, w środowisku wojskowym mogłoby doprowadzić do katastrofy operacyjnej i wizerunkowej. Sztuczna inteligencja nie ma też pełnej świadomości sytuacyjnej z teatru działań wojennych.
Dlatego w MON panuje żelazna zasada: AI to zaawansowany egzoszkielet dla oficera, ale nigdy jego zastępca. Algorytm może w sekundę wykryć farmę trolli i przygotować projekt sprostowania. Ale przycisk “publikuj” zawsze musi wcisnąć człowiek. To on ponosi pełną odpowiedzialność. Inwestycja w AIRON pokazuje jednak, że polska armia przestała ignorować wirtualny front i w tej cybernetycznej wojnie zamierza wreszcie dyktować własne warunki.