Pentagon stawia twórcom AI Claude ultimatum: złamcie własne zasady etyczne albo stracicie rządowe kontrakty. Firma ma czas do piątku na podjęcie decyzji.
W skrócie:
- Sekretarz obrony USA zażądał od Anthropic, by firma zignorowała swoje obawy etyczne przy współpracy z Departamentem Obrony.
- Pentagon zagroził anulowaniem kontraktów i użyciem ustawy Defense Production Act, która może zmusić firmę do współpracy.
- Spór dotyczy wykorzystywania AI do inwigilacji i operacji wojskowych, a firma ma podjąć decyzję do tego piątku.
Anthropic, firma stojąca za popularnym modelem językowym Claude, znalazła się w potrzasku. Od 2024 roku dostarcza swoje rozwiązania dla Departamentu Obrony USA, co z jednej strony jest niezwykle lukratywnym kontraktem, a z drugiej – stawia spółkę na polu minowym. Bo gdy Pentagon mówi “skakać”, zwykle pyta się tylko “jak wysoko?”. Tym razem jednak stawką jest coś więcej niż zwinność – to fundamentalne zasady etyczne, na których Anthropic próbowało budować swoją markę. Ultimatum jest twarde i nie pozostawia wiele miejsca na negocjacje.
Jakie są granice etyki w AI dla wojska?
Wszystko rozbiło się o spotkanie sekretarza obrony USA, Pete’a Hegsetha, z dyrektorem generalnym Anthropic, Dario Amodeiem. Według doniesień portalu Politico, które powołuje się na anonimowe źródło, Hegseth bez ogródek nakazał firmie, by ta “odłożyła na bok” swoje skrupuły. O co dokładnie chodzi? Anthropic publicznie deklaruje, że nie zgadza się na wykorzystywanie swoich technologii do inwigilacji obywateli USA. Ponadto firma sprzeciwia się używaniu jej AI w jakichkolwiek operacjach, których celem jest ujęcie lub wyrządzenie komuś krzywdy. Te zasady to nie fanaberia – to rdzeń ich filozofii odpowiedzialnego rozwoju sztucznej inteligencji.
Czarę goryczy przelała rzekomo niedawna operacja specjalna, której celem było porwanie prezydenta Wenezueli, Nicolása Maduro. Technologia Anthropic miała odegrać w niej pewną rolę, co postawiło zarząd firmy w stan najwyższej gotowości. Oficjalnie rzeczniczka Anthropic, Maya Humes, zapewnia, że rozmowy z Pentagonem toczą się “w dobrej wierze”, aby zapewnić, że firma “może nadal wspierać misję bezpieczeństwa narodowego rządu”. Informator Politico maluje jednak obraz daleki od dyplomacji – to było ultimatum. Czas na decyzję mija w piątek.
Czym Pentagon grozi twórcom Claude’a?
Konsekwencje sprzeciwu mogą być dla Anthropic druzgocące. Na stole leży nie tylko anulowanie wszystkich dotychczasowych prac dla Departamentu Obrony. Pentagon może również uznać firmę za “ryzyko dla łańcucha dostaw”, co w praktyce oznacza wpisanie jej na czarną listę i utrudnienie współpracy z innymi agencjami rządowymi. To jednak dopiero początek. Hegseth miał zagrozić sięgnięciem po ostateczną broń prawną: ustawę Defense Production Act (DPA).
To akt prawny sięgający czasów zimnej wojny, który daje rządowi USA niemal nieograniczone możliwości w zmuszaniu prywatnych firm do realizacji zamówień kluczowych dla bezpieczeństwa państwa. Ostatnio zastosowano go podczas pandemii, gdy administracja zmusiła koncerny do produkcji sprzętu medycznego. W przypadku Anthropic zastosowanie DPA oznaczałoby, że Pentagon mógłby prawnie przejąć kontrolę nad modelami AI, całkowicie ignorując stanowisko firmy. To już nie jest spór biznesowy – to test granic między bezpieczeństwem narodowym a niezależnością prywatnego sektora.
Dlaczego ten konflikt to dla Anthropic najgorszy scenariusz?
Cała sytuacja jest dla Anthropic skrajnie niewygodna, zwłaszcza teraz. Ich flagowy produkt, Claude, bije rekordy popularności. Wszystko za sprawą trendu znanego jako vibe coding, który pozwala użytkownikom bez wiedzy programistycznej tworzyć proste aplikacje mobilne za pomocą poleceń w języku naturalnym. Na dokładkę niedawno ogłoszono integrację Claude’a z Figmą, jednym z najważniejszych narzędzi do projektowania interfejsów. Firma jest na fali wznoszącej, a otwarty konflikt z jednym z najpotężniejszych klientów na świecie może tę falę brutalnie złamać. Przedsiębiorstwo ma czas na podjęcie decyzji do godziny 17:01 w ten piątek. Niezależnie od wyboru, ktoś będzie niezadowolony.