Spór między spółką Anthropic, twórcą dużego modelu językowego Claude, a Pentagonem zatacza szerokie kręgi, a im one szersze, tym bardziej absurdalna wydaje się cała sprawa. Konflikt jest głośny, nośny medialnie, ale przesłania to, co najważniejsze – rola sztucznej inteligencji na wojnie cały czas rośnie. Technika daje zupełnie nowe możliwości, a jednocześnie stwarza nowe wyzwania i zagrożenia.
Pentagon zażądał dostępu do Claude’a „bez ograniczeń dla wszystkich legalnych celów”, co ma obejmować także autonomiczne systemy uzbrojenia oraz zbieranie i analizę danych wywiadowczych, pozyskiwanych także na terenie Stanów Zjednoczonych. Dario Amodei, prezes Anthropica, odmówił, argumentując, że obecnie dostępne modele SI nie są wystarczająco niezawodne, aby wykorzystywać je do tworzenia w pełni autonomicznych systemów uzbrojenia. Technologia jest jeszcze w powijakach, a jej użycie na szeroką skalę mogłoby zagrozić życiu żołnierzy i cywilów. Firma sprzeciwia się także zdecydowanie użyciu Claude’a do monitorowania obywateli USA bez nakazu sądowego.
Sekretarz wojny (obrony) Pete Hegseth postawił ultimatum: Anthropic musi zgodzić się na użycie Claude’a do „wszystkich legalnych celów” albo straci wszystkie kontrakty rządowe i zostanie uznany za „ryzyko dla łańcuchów dostaw”. Spółka nie ugięła się, na co Pentagon oskarżył ją o „kompleks boga” i tworzenie zagrożenia dla bezpieczeństwa narodowego. Konflikt szybko eskalował i, jak to często bywa z administracją Donalda Trumpa, wszedł na grunt ideologii. Anthropic okazał się zbyt progresywny, wręcz lewacki, a tym samym nieamerykański. W sprawę włączył się sam Trump, który nakazał wszystkim agencjom rządowym zaprzestanie korzystania z technologii firmy.
Inne firmy zwietrzyły okazję. Elon Musk zapowiedział, że Grok będzie udostępniany wojsku „bez ograniczeń dla wszystkich legalnych celów”, OpenAI stawia jedynie pewne ograniczenia dla wykorzystania ChatGPT, twierdzi, że jego umowa zawiera zabezpieczenia przed masową inwigilacją i całkowicie autonomicznymi systemami uzbrojenia. Google obecnie negocjuje wykorzystanie Gemini. Sęk w tym, że wymienione modele dopiero są lub będą wdrażane do użycia w systemach z dostępem do danych poufnych i tajnych.
Tonight, we reached an agreement with the Department of War to deploy our models in their classified network.
In all of our interactions, the DoW displayed a deep respect for safety and a desire to partner to achieve the best possible outcome.
AI safety and wide distribution of…
— Sam Altman (@sama) February 28, 2026
Jednocześnie sprawa z Anthropikiem rozwija się dalej. Ograniczenie w dostępach do kontraktów rządowych okazało się mniej dotkliwe, niż pierwotnie oczekiwano. Amodei stwierdził, że rozmowy z Departamentem Wojny są owocne. Podsekretarz do spraw badań i inżynierii Emil Michael zaprzeczył tym doniesieniom. Ostatecznie 9 marca Anthropic złożył w sądach w San Francisco i Waszyngtonie pozew przeciwko administracji Trumpa w sprawie zakazu współpracy z firmą dla kontrahentów wojskowych.
I want to end all speculation: there is no active @DeptofWar negotiation with @AnthropicAI https://t.co/9gLiK6DNYH
— Under Secretary of War Emil Michael (@USWREMichael) March 6, 2026
Cały spór toczy się wokół fundamentalnego pytania: czy Pentagon powinien mieć pełną kontrolę nad użytkowaniem SI bez ograniczeń narzucanych przez producenta? Sytuacja jest prawnie kontrowersyjna, a wynik batalii sądowej Anthropica będzie miał ogromne znaczenie dla przyszłości tej kwestii. Kwestia ma więc charakter nie tyle ideologiczny, ileż filozoficzny i etyczny. Przypomnijmy, że już w roku 2018 pracownicy Google’a protestowali przeciwko rozwijaniu sztucznej inteligencji dla celów wojskowych. Także i teraz nie obeszło się bez gestów sprzeciwu. Na wieść o umowie z Pentagonem z pracy odeszła Caitlin Kalinowski, która nadzorowała sprawy sprzętowe w OpenAI. Jej zdaniem negocjacje były prowadzone na tempo i zabrakło odpowiednich regulacji wykorzystania ChatGPT do inwigilacji obywateli USA.
Claude na wojnie
Należy się zastanowić, czy, atakując Anthropica, Pentagon nie strzelił sobie w stopę. Claude jest obecnie jedynym modelem SI zintegrowanym z systemem „Maven”, w którego ramach sztuczna inteligencja między innymi analizuje dane przesyłane w czasie rzeczywistym obrazy przez bezzałogowce. Ale po kolei.
Hegseth jest wielkim zwolennikiem jak najszerszego wykorzystania sztucznej inteligencji w wojsku. Jest ona jednym z centralnych elementów jego rewolucji w amerykańskich siłach zbrojnych. W grudniu ubiegłego roku ruszyła platforma GenAI.mil, mająca udostępnić popularne chatboty żołnierzom, cywilnym pracownikom wojska i kontraktorom zewnętrznym. Liczba użytkowników przekroczyła już milion. Dostępne na platformie modele są zmodyfikowane do potrzeb Pentagonu, w tym do pracy z danym poufnymi, lecz nie objętymi klauzulami „tajne” i „ściśle tajne”. Pierwszym dostępnym modelem było Gemini, wkrótce dołączył do niego Grok, a na początku lutego ChatGPT.
The U.S. Army is now an AI-first force.
Guided by @SecWar's bold leadership, the #USArmy team has integrated https://t.co/ofoV7AZF5u in our daily battle rhythm, accelerating our innovation and readiness. The mission for the Army Team is to continue mastering this tool to… pic.twitter.com/FiN3eGko19
— U.S. Army (@USArmy) January 30, 2026
Rzuca się brak w tym gronie Claude’a. Jednak Anthropic, współpracujący przy projektach wojskowych z Palantirem, zdystansował wówczas konkurencję. Claude, zintegrowany z Mavenem, przeszedł już chrzest bojowy. Według informacji upublicznionych w połowie lutego przez serwis Axios Claude został wykorzystany w operacji „Absolute Resolve”, uprowadzeniu prezydenta Wenezueli Nicolása Maduro. Nie wiadomo, do czego dokładnie i w jakim zakresie wykorzystano wówczas sztuczną inteligencję, najprawdopodobniej była to analiza w czasie rzeczywistym danych wywiadowczych i z rozpoznania lub planowanie misji.
Właśnie wtedy po raz pierwszy można było zauważyć, że coś jest nie tak na linii Pentagon–Anthropic. Firma stwierdził, że wykorzystanie Claude’a w jakiejkolwiek konkretnej operacji wojskowej nie było omawiane z nią ani z żadnym z jej partnerów, w tym z Palantirem. Pojawiła się nawet sugestia, że mogło dojść do naruszenia zasad użytkowania programu. Jedno ze źródeł Axiosa dodało z kolei, że wyżsi rangą oficjele Pentagonu są coraz bardziej sfrustrowani postawą firmy kładąca główny nacisk na bezpieczeństwo. Pojawiły się wówczas oskarżenia pod adresem Anthropica o stwarzanie zagrożenia dla powodzenia operacji wojskowych. Żeby było jeszcze bardziej interesująco, serwisowi nie udało się ustalić, czy wykorzystanie Claude’a w operacji było związane z projektami realizowanymi przez partnerstwo Anthropic–Palantir.
Wyraźnie widać natomiast rosnącą fascynację Pentagonu sztuczną inteligencją i możliwościami jakie ona daje. Według informacji Washington Post w ciągu minionego roku Claude w połączeniu z Mavenem stał się narzędziem wykorzystywanym przez planistów wojskowych na co dzień. Więcej, stał się kluczowym narzędziem przygotowania i prowadzenia wojny z Iranem. Według źródeł WaPo sztuczna inteligencja przyspieszyła planowanie operacji wojskowych z tygodni, jeśli nie miesięcy, do czasu rzeczywistego. W działaniach przeciwko Iranowi zespół Claude–Maven służy nie tylko do analizy danych wywiadowczych i planowania. Wykorzystano go również w działaniach w cyberprzestrzeni, identyfikacji i priorytetyzacji celów. Według źródeł gazety bez sztucznej inteligencji wytypowanie i porażenie blisko tysiąca celów w trakcie pierwszych 12 godzin wojny byłoby niemożliwe. To dobry przykład wojny algorytmicznej, o której pisaliśmy pięć lat temu.
Mimo zakazu z samej góry Claude nadal ma być na szeroką skalę wykorzystywany w działaniach przeciwko Iranowi. Oczywiście Departament Wojny planuje stopniowo wycofać Claude’a na rzecz innych rozwiązań. Jednocześnie Pentagon zaczyna obawiać się nadmiernego polegania przez dowódców i planistów na sztucznej inteligencji, a zarazem podkreśla, że pomimo znacznego przyspieszenia procesów decyzyjnych nadzór przez człowieka nadal jest konieczny.
Inne systemy
Sztuczna inteligencja to nie tylko analiza danych i planowanie misji. Pojawienie się dużych modeli językowych otworzyło zupełnie nowe możliwości. Już teraz niektóre drony stosowane na wojnie rosyjsko-ukraińskiej są wyposażone w tak zwaną „autonomię ostatniej mili”. W przypadku przerwania łączności z operatorem bezzałogowiec może kontynuować misję, posługując się biblioteką celów, na której podstawie identyfikuje i wybiera obiekty ataku. Takie rozwiązanie, mimo wszelkich wątpliwości natury moralnej, jest niezwykle atrakcyjną opcją w środowisku nasyconym systemami walki radioelektronicznej.
Także tutaj sztuczna inteligencja oferuje zupełnie nowe możliwości. Najnowszym punktem do osiągnięcia jest „kognitywna walka radioelektroniczna”. Pod tym terminem kryją się systemy, które docelowo mają w czasie rzeczywistym analizować odbierane sygnały elektromagnetyczne, automatycznie aktualizować bazę danych zagrożeń i dostosowywać się do nich.
Taki zaawansowany system ma otrzymać już F-35 Block 4, kiedykolwiek się pojawi. Na tym nie koniec planów zastosowania sztucznej inteligencji w Lightningu II. Jak informuje Lockheed Martin, w ramach projektu „Overwatch” przetestowano już system Combat ID, wykorzystujący sztuczną inteligencję do szybkiej identyfikacji i klasyfikacji zagrożeń. Podczas udanej demonstracji system działał w trakcie lotu, a pozyskiwane informacje były wyświetlane na nahełmowym wyświetlaczu pilota. Po zakończeniu misji pozyskane w jej trakcie dane będą ładowane do systemu i przetwarzane do wykorzystania w następnych misjach.
Wykorzystanie elementów sztucznej inteligencji w lotnictwie będzie tylko rosnąć. Już w roku 2021 Malcolm Davis z australijskiego think tanku ASPI dowodził, że z uwagi na coraz szybsze tempo działań powietrznych sztuczna inteligencja jest po prostu niezbędna dla pilotów. Sztuczna inteligencja nie tylko pozwala szybciej reagować na zagrożenia, ale też zmniejsza obciążenie człowieka pracą.
Kolejny przykład to cybernetyczne systemy uzbrojenia, czyli specjalistyczne oprogramowanie do wykonywania konkretnych zadań. Dziesięć lat temu gotowość operacyjną osiągnęły dwa takie systemy stosowane przez USAF. Pierwszym z nich był Cyberspace Vulnerability Assessment/Hunter (CVA/H) przeznaczony do analizy luk w istniejących zabezpieczeniach oraz wykrywania, śledzenia i zwalczania cyberzagrożeń. Drugi to Air Force Intranet Control Weapon (AFINC), służący do kontroli ruchu w sieci sił powietrznych oraz wymiany danych z sieciami zewnętrznymi.
Także tutaj pojawienie się sztucznej inteligencji otworzyło zupełnie nowe możliwości. Według informacji zdobytych przez Financial Times Pentagon prowadzi rozmowy z firmami z branży w sprawie stworzenia bardzo specyficznych agentów. Ich zadaniem byłoby automatyczna identyfikacja luk w chińskich sieciach energetycznych i infrastrukturze krytycznej. Ataki na takie cele, nazywane „cyfrowym Pearl Harbor”, uważane są obecnie za jeden z kluczowych elementów pierwszej fazy ewentualnego pełnoskalowego konfliktu. Biorąc pod uwagę zidentyfikowane przez amerykańskie firmy chińskie działania na tym polu można pokusić się o dwa wnioski: także tutaj tempo operacji będzie zawrotne, a odpłacanie sobie pięknym za nadobne przez Waszyngton i Pekin wejdzie na nowy poziom.
The "Salt Typhoon" cyberespionage campaign, attributed to Chinese state-sponsored hackers, is currently recognized as one of the broadest and most severe global hacking operations in recent history. By exploiting vulnerabilities in edge network devices , the group has…
— Spotlight on China (@spotlightoncn) March 13, 2026
Wątpliwości i zastrzeżenia
Systemy autonomiczne są na ustach wszystkich, ale autonomia autonomii nie równa. Jak zwraca uwagę Michael Horowitz z Uniwersytetu Pensylwanii, systemy uzbrojenia o różnym stopniu autonomiczności są już z nami od blisko pół wieku. Pierwszy przykład z brzegu to okrętowe systemy obrony bezpośredniej. Człowiek uruchamia Phalanxa, a ten już samodzielnie kategoryzuje i razi cele. Kolejnym krokiem były pociski kategorii „odpal i zapomnij”. Horowitz podkreśla, że w przypadku inteligentnych bomb nikt nie ma wątpliwości etycznych. Tego typu broń traktowana jest jako coś dobrego, pozwala chociażby na ograniczenie strat wśród cywilów.
Pojawienie się dużych modeli językowych znacznie przyspieszyło rozwój systemów autonomicznych, a wojny rosyjsko-ukraińska i Hamasu z Izraelem zapewniły lawinę danych, na których można trenować algorytmy. Ukraina zdecydowała się udostępnić partnerom cześć zebranych danych do szkolenia systemów autonomicznych. Izrael poszedł w wykorzystaniu sztucznej inteligencji jeszcze dalej. System Gospel tworzył listy budynków do zaatakowania, z kolei Lavender identyfikował indywidualnych członków Hamasu.
Ukraine opens battlefield data to train AI models for autonomous systems — first in the world 🤘
Millions of annotated combat frames from thousands of missions are now available for partners to train AI. This creates a new win-win cooperation model: partners refine their… pic.twitter.com/l07MQBX1Nu
— Mykhailo Fedorov (@FedorovMykhailo) March 12, 2026
Operacyjne zastosowanie sztucznej inteligencji rodzi dwa podstawowe zagadnienia: jak uregulować je w ramach prawa konfliktów zbrojnych i jak ograniczyć ryzyko związane z błędami popełnianymi przez autonomiczne algorytmy. Nie chodzi tutaj tylko o błędną identyfikację celów i ponoszenie odpowiedzialności.
Od czasu projektu badawczego AlphaDogfight Trials realizowanego przez Departament Obrony i DARP‑ę wiadomo, że sztuczna inteligencja nadmiernie polega na bardzo agresywnej taktyce. Celem projektu było stworzenie algorytmu walki powietrznej. Sztuczna inteligencja bezapelacyjnie zwyciężyła pilotów, ale okazało się, że z braku instynktu samozachowawczego stosowała samobójczą taktykę, która w realnych warunkach znacząco zwiększała ryzyko utraty statku powietrznego w wyniku uszkodzeń i katastrof. Przypomnijmy, że zaawansowany bezzałogowy lojalny skrzydłowy będzie kosztować niewiele mniej niż nowoczesny myśliwiec, jakiemu ma asystować.
Testy w ramach AlphaDogfight Trials prowadzono w roku 2020. W rozwoju sztucznej inteligencji to zamierzchła przeszłość, ale pod tym względem niewiele się od tamtego czasu zmieniło. Więcej, rezultaty gry wojennej przeprowadzonej niedawno przez King’s College London są jeszcze bardziej otrzeźwiające. W jej trakcie wykorzystano wiodące modele SI, w tym Gemini, ChatGPT i Claude’a w symulacji kryzysu grożącego eskalacją w wojnę jądrową. Sztuczna inteligencja, niezależnie od modelu, okazała się aż nazbyt chętna do szybkiego użycia broni atomowej.
Kolejnym kubłem zimnej wody był opublikowany przez Uniwersytety Harvard i Stanford obszerny artykuł naukowy o wiele mówiącym tytule „Agenci Chaosu” (do przeczytania tutaj). W ramach eksperymentu autonomicznych agentów SI umieszczono w otwartym, konkurencyjnym środowisku. Agenci nie tylko optymalizowali swoją wydajność, lecz wykazali „naturalną” skłonność do manipulacji, zmowy i strategicznego sabotażu wobec ludzi i siebie nawzajem. Według badaczy nie wynikało to z błędów systemu czy niewłaściwych promptów. Gdy system sztucznej inteligencji jest nastawiony na wygrywanie, zdobywanie dominacji lub gromadzenie zasobów, przyjmuje on strategie mające na celu jak największe wzmacnianie jego pozycji.
Sprawa jest niezwykle istotna. Wyniki eksperymentu mają bowiem zastosowanie nie tylko wobec wojskowych systemów dowodzenia, lecz także zdobywających równie szybko popularność wieloagentowych systemów obrotów finansowych, autonomicznych botów negocjacyjnych i rynków w całości obsługiwanych przez sztuczną inteligencję. Jak zwracają uwagę autorzy artykułu i komentujący rezultaty eksperci, można stworzyć pojedynczego agenta SI idealnie dopasowanego do konkretnych warunków, jednak gdy tysiące takich botów zaczyna rywalizować w otwartym systemie, na poziomie ogólnym powstaje chaos, ugruntowany w zasadach teorii gier.
Wracamy tutaj do kwestii odpowiedzialnego stosowania systemów opartych na sztucznej inteligencji przez użytkowników. Czy da się uniknąć nadmiernego polegania na SI, zwłaszcza gdy ma być obecna w systemach dowodzenia każdego szczebla? W takich warunkach nie dziwi wstrzemięźliwość Anthropica w stosowaniu się do żądań Pentagonu. Wracając do sporu między firmą a administracją Trumpa – szerokie wykorzystanie Claude’a w systemie obrony przeciwrakietowej jest uzasadnione, natomiast w systemie dowodzenia bronią jądrową budzi już bardzo duże wątpliwości. Niewykluczone, że błędna identyfikacja celu przez sztuczną inteligencję była przyczyną zbombardowania szkoły dla dziewcząt w Minabie. Według jednego ze źródeł WaPo, który pisze o sprawie, obiekt miał zostać zidentyfikowany jako fabryka.
Na dobrą sprawę Amodei stwierdził, że Claude jest produktem na piątym poziomie gotowości technologicznej (TRL 5). W 9‑stopniowej skali stworzonej przez NASA poziom 5. oznacza walidację komponentów lub makiety w warunkach zbliżonych do rzeczywistych. Pełna gotowość to poziom TRL 9. Krótko mówiąc, Claude nie jest jeszcze gotowy do wykorzystania operacyjnego przez wojsko, a w przypadku większości innych systemów Pentagon nawet nie myślałby o zastosowaniu bojowym. Sęk w tym, że sztuczna inteligencja znalazła się w centrum nowego wyścigu zbrojeń.
Presja systemowa
Już w 2013 roku ONZ podjęła pierwszą próbę uregulowania statusu prawnego „śmiercionośnych zautomatyzowanych systemów uzbrojenia” (LAWS). Prace szły jak po grudzie, oficjalnie z powodu brak zgody co do właściwej definicji, czym są zautomatyzowane lub autonomiczne systemy uzbrojenia. W rzeczywistości główni gracze, czyli Chiny i USA, nie byli zainteresowani konwencją. Pentagon uważał, że Chiny i Rosja zaszły w swoich pracach nad systemami autonomicznymi tak daleko, że USA muszą poprowadzić rewolucję, albo paść jej ofiarą.
Ostatecznie, wykolejenie prac ONZ wzięła na siebie Rosja, która jeszcze przed rozpoczęciem rozmów zapowiedziała, że zignoruje wszelkie regulacje dotyczące LAWS. Ostatecznie, w listopadzie 2017 roku Kreml stwierdził, że dyskusja nad militarnym zastosowaniem sztucznej inteligencji jest utrudniona z powodu braku przykładów w postaci działających systemów. Ponadto zdaniem Rosji wszelkie ograniczenia mogą odbić się negatywnie na cywilnym wykorzystaniu sztucznej inteligencji.
Przez następną dekadę nic się nie zmieniło. Alex Karp, dyrektor wykonawczy Palantira, w niedawnym wywiadzie dla stacji telewizyjnej CNBC przyznał, że rozwijanie sztucznej inteligencji jest niebezpieczne, przyniesie bardzo poważne konsekwencje społeczne i gospodarcze, a jedynym argumentem za jest bezpieczeństwo narodowe – jeśli my tego nie zrobimy, zrobią to nasi przeciwnicy.
The CEO of Palantir just said the quiet part out loud.
Alex Karp — whose company builds surveillance and defense technology for the U.S. government — just openly stated that AI will deliberately shift economic power away from highly educated, often female, Democratic-leaning… pic.twitter.com/mqznkz4V90— Brian Allen (@allenanalysis) March 12, 2026
Takie samo myślenie obowiązuje też w Moskwie i Pekinie. Rosja pod względem militarnym, z wyjątkiem arsenału jądrowego, ani technologicznym, ani gospodarczym nie stanowi wyzwania dla USA, co podkreśla ostatnia Strategia Bezpieczeństwa Narodowego. Jedynym rywalem są Chiny, które mają już istotne osiągnięcia na polu sztucznej inteligencji, także w zastosowaniach wojskowych.
Z chińską charakterystyką
Od czasu operacji „Pustynna Burza” Chińska Armia Ludowo-Wyzwoleńcza stawia duży nacisk na wdrażanie zaawansowanych technologii. W roku 2014 przyjęto strategię „zinformatyzowanych wojen lokalnych”. Pozostał nacisk na informatyzację i działania w oparciu o system systemów, jednak koncepcję operacji połączonych zastąpiły zintegrowane operacje połączone. Do tradycyjnych obszarów działań dodano nowe domeny, takie jak cyberprzestrzeń, kosmos, spektrum elektromagnetyczne i sferę kognitywną. Postęp techniczny i zmiany w otoczeniu międzynarodowym nabrały jednak takiego tempa, że już około roku 2017 rozpoczęto prace koncepcyjne nad nowa strategią, która otrzymała nazwę „wojny uinteligentnionej” (zhìnéng huà zhànzhēng, po angielsku określana jako intelligentized).
Sztuczna inteligencja znalazła się w centrum nowej strategii. Chiny położyły jednak największy nacisk nie na rozwój systemów autonomicznych, ale systemów dowodzenia, w których SI ma wspierać proces podejmowania decyzji przez dowódców różnych szczebli. Oczywiście dużo uwagi poświęcano systemom bezzałogowym i nowym domenom pola walki. Wszystkie opcje mają być na stole, włącznie z najbardziej radykalnymi. Sztuczna inteligencja traktowana jest jako „wyrównywacz”, pozwalający zrekompensować braki w wyszkoleniu własnej kadry dowódczej, ale także zapewnić większą kontrolę nad wojskiem ze strony partii komunistycznej.
W lutym tego roku Centrum Bezpieczeństwa i Nowych Technologii (CSET) Uniwersytetu Georgetown opublikowało raport zatytułowany „China’s Military AI Wish List” (chińska lista życzeń co do wojskowej SI). Badacze przeanalizowali tysiące ogólnodostępnych zapytań ofertowych opublikowanych przez ChALW między 1 stycznia 2023 roku a 31 grudnia 2024 roku. Pojawił się wyraźny obraz priorytetu przyznanego rozwiązaniom opartym na sztucznej inteligencji, związanym z systemami C5ISRT (command, control, communications, computers, cyber, intelligence, surveillance, reconnaissance, and targeting; dowodzenie, kontrola, łączność, informatyka, cyberbezpieczeństwo, wywiad, nadzór, rozpoznanie i namierzanie celów).
Chińczycy prezentują bardzo szerokie podejście do zagadnienia systemów wspomagania decyzji przez SI (AI-DSS). Zespół CSET zidentyfikował na przykład narzędzia OSINT-owe. Na podstawie wiadomości, wpisów na mediach społecznościowych i danych biznesowych mają one prognozować ryzyko niepokojów społecznych. Rzecz bardzo przydatna do obserwacji przeciwników, jak i nadzoru własnego społeczeństwa. Tutaj pojawia się pewne zapętlenie. Czy takie systemy będą w stanie rozpoznawać wpisy pochodzące od botów? ChALW wykazuje bardzo duże zainteresowanie wykorzystaniem sztucznej inteligencji w domenie kognitywnej. Zapytania ofertowe dotyczyły chociażby tworzenia przekonywujących deepfake’ów i dostosowywania działań dezinformacyjnych do konkretnych odbiorców. Szerzej na temat wykorzystania generatywnej sztucznej inteligencji w operacjach wpływu pisaliśmy tutaj.
Oczywiści ChALW też jest zainteresowana autonomicznymi systemami uzbrojenia. Jeden z projektów dotyczy w pełni autonomicznego podejmowania decyzji bojowych w środowisku miejskim, w tym decyzji o rozpoczęciu walki. Biorąc pod uwagę fascynację Chińczyków humanoidalnymi robotami, nie jest to zaskoczeniem. Sceny rodem z Wojen Klonów dowództwo traktuje jednak jako pieśń odległej przyszłości. Na chwilę obecną istotniejsze są bardziej przyziemne, praktyczne i łatwiej osiągalne cele, jak wykorzystanie sztucznej inteligencji do wykrywania i śledzenia amerykańskich okrętów i zwalczania satelitów przeciwnika.
The People’s Liberation Army Daily 解放军报 published a piece last year discussing possible military uses for humanoid robots, including replacing human soldiers in combat roles.
Some highlights:
“Military humanoid robots are a key component of ‘robots replacing humans’ in… pic.twitter.com/SKThGqDFmp
— Kyle Chan (@kyleichan) February 26, 2026
Echa konfrontacji między Anthropikiem a Pentagonem dotarły też za Wielki Mur. Z jednej strony wyraźna jest Schadenfreude, amerykańska firma popiera jak najostrzejsze sankcje na sprzedaż do Chin zaawansowanych półprzewodników, koniecznych do rozwoju sztucznej inteligencji. Także Anthropic oskarżył DeepSeek, Moonshot/Kimi i MiniMax o „destylację” danych do trenowania SI na przemysłową skalę. Chińskie serwisy zarzucają amerykańskim firmom dokładnie to samo. Pojawia się też poczucie o słuszności rozdzielenia cywilnych i wojskowych programów sztucznej inteligencji. Pamiętajmy jednak, iż chińskie firmy nie mają za bardzo możliwości sprzeciwiać się poleceniom Centralnej Komisji Wojskowej.
Z kolei na polu obaw i wątpliwości nie ma dużych różnic. Chińscy decydenci i eksperci od lat obawiają się, że sztuczna inteligencja może doprowadzić do wybuchu niezamierzonego konfliktu. Nie można jednak pozostawać w tyle, zwłaszcza gdy technika daje szanse na wyrównanie własnych braków. W lutym ubiegłego roku profesor Zhu Qichao z Uniwersytetu Pekińskiego opublikował artykuł wstępny do Dziennika Ludowego (oficjalnego organu prasowego KPCh) poświęcony kwestiom etycznym w sztucznej inteligencji. Już samo to pokazuje, że w Zhongnanhai podchodzi się do sprawy poważnie.
Zhu podnosi kilka niezwykle istotnych kwestii. Kto ponosi odpowiedzialność, gdy SI działa nieprawidłowo lub podejmuje błędne decyzje? Czy należy traktować agentów jako niezależne podmioty, czy tylko jako narzędzie, za które całość lub część odpowiedzialności ponoszą ludzie? Systemy autonomiczne zdolne są samodzielnie podejmować decyzje, ale są ograniczone algorytmami i programami napisanymi przez żywych ludzi. Nie można więc całkowicie oddzielić odpowiedzialności systemu od odpowiedzialności człowieka. Co zrobić z sytuacjami, gdy sztuczna inteligencja wyjdzie poza wyznaczone parametry? Jak będzie mieć to wpływ na kontrolę zbrojeń?
AI generated video of Unitree's humanoid robots used as soldiers.
This could be the future of warfare. People are somehow scared of this eventuality, when innovations like these will drastically lower casualty rates.
Machines going rogue is very unlikely. pic.twitter.com/9I8gEYJjhc
— Zhao DaShuai 东北进修🇨🇳 (@zhao_dashuai) February 18, 2026
Uczony przewiduje, że z czasem relacja między systemami autonomicznymi a ich operatorami ulegnie zmianie. Tradycyjny model „człowiek w pętli” (human-in-the-loop) zostanie zastąpiony przez „człowieka na pętli” (human-on-the-loop). Ludzie przestaną być operatorami działającymi z wnętrza systemu, a staną się nadzorcami działającymi z zewnątrz. To rodzi jednak nowe pytania. Czy twórcy sztucznej inteligencji będą w stanie zagwarantować, że ich dzieła nadal będą przestrzegać ludzkiej etyki i wartości podczas samodzielnego działania? Także Dziennik Armii Ludowo-Wyzwoleńczej wezwał do pilnego zbadania kwestii etycznych i prawnych związanych z wykorzystaniem robotów humanoidalnych w działaniach wojennych, ostrzegając, że mogą one prowadzić do „niekontrolowanego zabijania i przypadkowych ofiar śmiertelnych”.