Anthropic oskarża trzy chińskie firmy AI o kradzież technologii. DeepSeek, Moonshot AI i MiniMax miały założyć 24 tys. fałszywych kont, by kopiować model Claude.
W skrócie:
- Anthropic zarzuca chińskim firmom DeepSeek, Moonshot AI i MiniMax stworzenie ponad 24 tysięcy fałszywych kont w celu nielegalnego trenowania własnych modeli AI.
- Celem ataków, przeprowadzonych metodą “destylacji”, było skopiowanie kluczowych zdolności modelu Claude, w tym zaawansowanego kodowania i logicznego rozumowania.
- Incydent nasila debatę na temat egzekwowania amerykańskich kontroli eksportu zaawansowanych chipów AI do Chin, które są niezbędne do przeprowadzania takich operacji.
Wygląda na to, że technologiczna zimna wojna między USA a Chinami właśnie zyskała nowy, gorący front. Firma Anthropic, twórca jednego z najbardziej zaawansowanych modeli językowych – Claude – publicznie oskarżyła trzy chińskie laboratoria AI o zorganizowaną kradzież własności intelektualnej na masową skalę. DeepSeek, Moonshot AI oraz MiniMax miały założyć ponad 24 000 fałszywych kont, aby za ich pomocą “destylować” wiedzę z Claude i w ten sposób ulepszać swoje konkurencyjne modele. W sumie wygenerowano ponad 16 milionów interakcji. To nie jest drobny incydent. To zorganizowana operacja.
Technika, którą rzekomo posłużyły się chińskie firmy, znana jest jako “destylacja” (distillation). W uproszczeniu polega ona na wykorzystaniu wyników działania jednego, większego i bardziej zaawansowanego modelu do trenowania innego, często mniejszego i tańszego. To trochę jak przepisywanie pracy domowej od najlepszego ucznia w klasie, by samemu nauczyć się rozwiązywać zadania. O ile jest to powszechna praktyka wewnątrz jednego laboratorium, o tyle wykorzystywanie jej do kopiowania rozwiązań konkurencji to już zupełnie inna para kaloszy. Co ciekawe, to nie pierwszy taki przypadek. Zaledwie kilka tygodni wcześniej OpenAI w wewnętrznej notatce do amerykańskich prawodawców oskarżyło tę samą firmę – DeepSeek – o stosowanie destylacji do naśladowania jej produktów.
Jak dokładnie wyglądała ta operacja?
Skala ataku i precyzja celowania robią wrażenie. Anthropic twierdzi, że chińskie laboratoria nie działały na oślep. Wręcz przeciwnie, skupiły się na najbardziej unikalnych i zaawansowanych zdolnościach modelu Claude, takich jak rozumowanie agentowe, wykorzystanie narzędzi zewnętrznych i, co najważniejsze, pisanie kodu. Każda z firm miała swoją specjalizację.
DeepSeek wygenerował ponad 150 000 interakcji. Analitycy Anthropic twierdzą, że celem było ulepszenie fundamentalnej logiki i bezpieczeństwa modelu, zwłaszcza w kontekście omijania cenzury i generowania odpowiedzi na wrażliwe politycznie zapytania. To laboratorium już rok temu wstrząsnęło branżą, publikując model open source, który wydajnością niemal dorównywał amerykańskim gigantom, będąc przy tym znacznie tańszym w utrzymaniu.
Moonshot AI odpowiada za ponad 3,4 miliona zapytań. Tutaj celem było przede wszystkim rozumowanie agentowe, analiza danych, wizja komputerowa i zdolności do programowania. Z kolei MiniMax pobił wszelkie rekordy – 13 milionów interakcji, głównie skoncentrowanych na kodowaniu i orkiestracji narzędzi. Co więcej, Anthropic zaobserwowało, że gdy tylko udostępniło najnowszą wersję Claude, MiniMax natychmiast przekierowało niemal połowę swojego ruchu, aby “wyssać” z niej nowe możliwości.
Szpiegostwo, chipy i bezpieczeństwo narodowe
Oskarżenia pojawiają się w niezwykle wrażliwym momencie. W Waszyngtonie wciąż trwa gorąca debata na temat skuteczności i zakresu kontroli eksportu zaawansowanych chipów AI do Chin. To polityka, która ma spowolnić rozwój chińskiej sztucznej inteligencji. Anthropic wprost stwierdza, że skala przeprowadzonych ataków destylacyjnych “wymaga dostępu do zaawansowanych chipów”. Tym samym dostarcza potężnego argumentu zwolennikom zaostrzenia kursu.
Głos w sprawie zabrał Dmitri Alperovitch, współzałożyciel firmy CrowdStrike i ekspert ds. cyberbezpieczeństwa. W rozmowie z TechCrunch stwierdził, że nie jest zaskoczony. “Od jakiegoś czasu było jasne, że częścią gwałtownego postępu chińskich modeli AI jest kradzież poprzez destylację amerykańskich modeli granicznych. Teraz mamy na to dowód” – powiedział. “To powinno dać nam jeszcze więcej przekonujących powodów, by odmówić sprzedaży jakichkolwiek chipów AI którejkolwiek z tych firm” – dodał.
To jednak nie tylko gra o dominację na rynku. Anthropic ostrzega przed znacznie poważniejszymi konsekwencjami. Chodzi o ryzyko dla bezpieczeństwa narodowego.
Czy skradziona AI może stworzyć broń biologiczną?
To pytanie, choć brzmi jak z filmu science fiction, jest traktowane śmiertelnie poważnie. Amerykańskie firmy, takie jak Anthropic, implementują w swoich modelach zaawansowane zabezpieczenia, które mają uniemożliwić wykorzystanie AI do celów przestępczych lub terrorystycznych – na przykład do projektowania broni biologicznej czy przeprowadzania zaawansowanych cyberataków. Problem w tym, że modele budowane przez nielegalną destylację prawdopodobnie nie zachowają tych barier ochronnych.
“Niebezpieczne zdolności mogą się rozprzestrzeniać, a wiele zabezpieczeń zostanie całkowicie usuniętych” – czytamy w oficjalnym komunikacie firmy. Anthropic wskazuje na ryzyko wykorzystania takich “odblokowanych” modeli przez autorytarne rządy do prowadzenia kampanii dezinformacyjnych, masowej inwigilacji czy ofensywnych operacji w cyberprzestrzeni. Dlatego firma wzywa do “skoordynowanej odpowiedzi ze strony całej branży AI, dostawców chmury i decydentów politycznych”. Wygląda na to, że to dopiero początek tej historii, a jej konsekwencje odczujemy wszyscy.