Sztuczna inteligencja to nowa broń cyberprzestępców, ale stróże prawa nie śpią. INTERPOL i policja z Hongkongu wdrażają własne systemy AI do walki z phishingiem.
W skrócie:
- AI pozwala przestępcom tworzyć realistyczne oszustwa i stosować phishing polimorficzny, który omija zabezpieczenia przez szybkie modyfikacje złośliwych wiadomości.
- Policja z Hongkongu w ramach Projektu Rapid używa sztucznej inteligencji do proaktywnego wyszukiwania i analizowania stron phishingowych, co przyspiesza ich neutralizację.
- W ramach operacji Rapid Strike dane z Hongkongu trafiają do INTERPOL‑u, gdzie są analizowane i udostępniane 196 krajom członkowskim jako gotowe raporty wywiadowcze.
Sztuczna inteligencja stała się ulubionym narzędziem cyberprzestępców. Nie ma w tym nic dziwnego. Jest łatwa w użyciu, trudna do wykrycia i diabelnie skuteczna. Generuje deepfake’i, płynnie pisze i mówi w dziesiątkach języków, tworzy spersonalizowane wiadomości, które wyglądają, jakby wysłał je nasz stary znajomy. To paliwo rakietowe dla phishingu – starej jak internet metody oszustwa, która w nowej odsłonie zyskuje nieprawdopodobną skuteczność. Przestępcy wykorzystują ją do tak zwanego phishingu polimorficznego. Ta technika polega na błyskawicznym rozsyłaniu tysięcy wersji tej samej wiadomości, z których każda jest minimalnie zmieniona. W końcu któraś wersja przebija się przez filtry bezpieczeństwa. To gra liczbowa, w której AI daje oszustom ogromną przewagę.
Jednak to nie wszystko. AI przyspiesza ataki z użyciem złośliwego oprogramowania, pomaga w błyskawicznym łamaniu zabezpieczeń i – co brzmi jak scenariusz filmu science fiction – potrafi zatruwać złośliwą treścią modele, na których uczą się legalne systemy sztucznej inteligencji. Tworzy to absurdalną pętlę, w której narzędzia stworzone do ochrony same stają się wektorami ataku. Na dokładkę pojawia się problem z dowodami w sądzie. AI może tworzyć fałszywe dowody lub, co równie groźne, podważać autentyczność tych prawdziwych. Chaos w czystej postaci.
Jak policja zamierza odwrócić zasady gry?
Groźby są poważne, ale organy ścigania nie składają broni. Wręcz przeciwnie – same sięgają po sztuczną inteligencję. INTERPOL, we współpracy z siłami policyjnymi ze 196 krajów członkowskich oraz partnerami z sektora prywatnego, koordynuje globalną odpowiedź. Organizacja, razem z agendą ONZ UNICRI, stworzyła nawet specjalny poradnik – *Responsible AI Innovation in Law Enforcement Toolkit*. To drogowskaz dla policjantów, jak korzystać z tej technologii etycznie i skutecznie. Niedawno reaktywowano też *CyberEx*, międzynarodową grupę ekspertów, która łączy funkcjonariuszy, naukowców i specjalistów od cyberbezpieczeństwa.
“Groźby stwarzane przez AI to kluczowy temat dla CyberEx, ale skupiamy się również na możliwościach, jakie stwarza ona dla organów ścigania” – mówi Pei Ling Li, szefowa ds. cyberstrategii w INTERPOL‑u. Jej słowa rzucają nowe światło na tę technologiczną wojnę. “Dopóki działamy w ścisłych ramach prawnych, nic nie stoi na przeszkodzie, by organy ścigania i inni obrońcy cyberprzestrzeni używali AI w podobny – ale legalny – sposób jak przestępcy. Czy to w celu zwiększenia naszej wydajności dochodzeniowej, czy też do wabienia ich za pomocą naszych własnych technik inżynierii społecznej”. To odważna deklaracja. Policja chce użyć broni przeciwnika przeciwko niemu.
Jak działa Project Rapid z Hongkongu?
Jednym z pionierów takiego podejścia jest policja z Hongkongu. Jej inicjatywa, nazwana *Project Rapid*, wykorzystuje AI do identyfikowania i zdejmowania stron phishingowych na masową skalę. To zmiana filozofii działania – od reaktywnej do proaktywnej. “Wcześniej byliśmy w stanie zidentyfikować infrastrukturę przestępczą stojącą za kampaniami phishingowymi tylko poprzez reagowanie na pojedyncze zgłoszenia” – tłumaczy Horest Au Yeung, oficer ds. cyberprzestępczości z Hongkongu. “Teraz aktywnie używamy AI do identyfikowania i analizowania podejrzanych stron internetowych”.
Jak to działa w praktyce? Nawet jeśli policja otrzyma tylko jeden fałszywy link, sztuczna inteligencja pozwala “przekopać internet znacznie głębiej i szybciej”, by zweryfikować, czy jest on powiązany z oszustwem. System błyskawicznie sprawdza, czy istnieją podobne strony phishingowe – na przykład oparte na tym samym szablonie wizualnym, hostowane na tym samym serwerze albo stworzone w podobnym czasie. Gdy algorytm znajdzie takie powiązania, policja natychmiast zgłasza całą siatkę do dostawców usług internetowych z żądaniem ich usunięcia. To wyścig z czasem, w którym AI daje stróżom prawa bezcenną przewagę.
Ta sama zbrodnia, nowe narzędzie
Sukces *Project Rapid* sprawił, że inicjatywa wychodzi poza granice Hongkongu. W ramach operacji *Rapid Strike*, uruchomionej w kwietniu, dane zebrane przez tamtejszą policję trafiają bezpośrednio do globalnej jednostki wywiadu cybernetycznego INTERPOL‑u. Tam analitycy przekształcają je w gotowe do użycia raporty wywiadowcze, które następnie rozsyłają do wszystkich krajów członkowskich, gdzie zidentyfikowano podobne zagrożenia. To model, który może zostać wkrótce rozszerzony na inne regiony.
Rose Bernard, koordynatorka operacji cyberprzestępczych w INTERPOL‑u, tonuje jednak hurraoptymizm. “Musimy śledzić zagrożenia związane z AI i dostosowywać nasze techniki dochodzeniowe, ale nie możemy dać się zaślepić technologii” – przestrzega. “Musimy pamiętać, że z operacyjnego punktu widzenia zbrodnie się nie zmieniają – przestępcy po prostu używają nowego narzędzia, a za pięć lat będą używać kolejnego. Niektórzy mówią, że walka z cyberprzestępczością to dla organów ścigania przegrana sprawa, ale ja jestem bardziej optymistyczna” – podsumowuje. “Może nie zawsze wygramy w grze z AI, ale razem z naszymi partnerami możemy podjąć działania, które sprawią, że to przestępcy przegrają”.