Spór między spółką Anthropic, twórcą dużego modelu językowego Claude, a Penta­go­nem zatacza szerokie kręgi, a im one szersze, tym bardziej absurdalna wydaje się cała sprawa. Konflikt jest głośny, nośny medialnie, ale przesłania to, co najważniejsze – rola sztucznej inteligencji na wojnie cały czas rośnie. Technika daje zupełnie nowe możliwości, a jedno­cześ­nie stwarza nowe wyzwania i zagro­żenia.

Pentagon zażądał dostępu do Claude’a „bez ograniczeń dla wszystkich legalnych celów”, co ma obejmować także autonomiczne systemy uzbroje­nia oraz zbieranie i analizę danych wywiadow­czych, pozyski­wa­nych także na terenie Stanów Zjedno­czo­nych. Dario Amodei, prezes Anthropica, odmówił, argumentując, że obecnie dostępne modele SI nie są wystarczająco niezawodne, aby wykorzystywać je do tworzenia w pełni autonomicznych systemów uzbrojenia. Technologia jest jeszcze w powijakach, a jej użycie na szeroką skalę mogłoby zagrozić życiu żołnierzy i cywilów. Firma sprzeciwia się także zdecydowanie użyciu Claude’a do monitorowania obywateli USA bez nakazu sądowego.

Sekretarz wojny (obrony) Pete Hegseth postawił ultimatum: Anthropic musi zgodzić się na użycie Claude’a do „wszystkich legalnych celów” albo straci wszystkie kontrakty rządowe i zostanie uznany za „ryzyko dla łańcuchów dostaw”. Spółka nie ugięła się, na co Pentagon oskarżył ją o „kompleks boga” i two­rze­nie zagroże­nia dla bezpie­czeń­stwa narodowego. Konflikt szybko eskalo­wał i, jak to często bywa z admini­stra­cją Donalda Trumpa, wszedł na grunt ideologii. Anthropic okazał się zbyt progresywny, wręcz lewacki, a tym samym nieamery­kań­ski. W sprawę włączył się sam Trump, który nakazał wszystkim agencjom rządowym zaprzestanie korzystania z technologii firmy.

Inne firmy zwietrzyły okazję. Elon Musk zapowiedział, że Grok będzie udostępniany wojsku „bez ograniczeń dla wszystkich legalnych celów”, OpenAI stawia jedynie pewne ograniczenia dla wykorzystania ChatGPT, twierdzi, że jego umowa zawiera zabezpieczenia przed masową inwigilacją i całkowicie autonomicznymi systemami uzbrojenia. Google obecnie negocjuje wykorzystanie Gemini. Sęk w tym, że wymienione modele dopiero są lub będą wdrażane do użycia w systemach z dostępem do danych poufnych i tajnych.

Jednocześnie sprawa z Anthropikiem rozwija się dalej. Ograniczenie w dostępach do kontraktów rządowych okazało się mniej dotkliwe, niż pierwotnie oczekiwano. Amodei stwierdził, że rozmowy z Depar­ta­men­tem Wojny są owocne. Podsek­re­tarz do spraw badań i inżynierii Emil Michael zaprze­czył tym doniesieniom. Ostatecznie 9 marca Anthropic złożył w sądach w San Francisco i Waszyng­tonie pozew przeciwko administracji Trumpa w sprawie zakazu współpracy z firmą dla kontrahentów wojskowych.

Cały spór toczy się wokół fundamen­tal­nego pytania: czy Pentagon powinien mieć pełną kontrolę nad użytkowaniem SI bez ograniczeń narzucanych przez producenta? Sytuacja jest prawnie kontro­wer­syjna, a wynik batalii sądowej Anthropica będzie miał ogromne znaczenie dla przyszłości tej kwestii. Kwestia ma więc charakter nie tyle ideologiczny, ileż filozoficzny i etyczny. Przypom­nijmy, że już w roku 2018 pracownicy Google’a protestowali przeciwko rozwijaniu sztucznej inteligencji dla celów wojskowych. Także i teraz nie obeszło się bez gestów sprzeciwu. Na wieść o umowie z Pentagonem z pracy odeszła Caitlin Kalinowski, która nadzorowała sprawy sprzętowe w OpenAI. Jej zdaniem negocjacje były prowadzone na tempo i zabrakło odpowiednich regulacji wykorzys­ta­nia ChatGPT do inwigilacji obywateli USA.

Claude na wojnie

Należy się zastanowić, czy, atakując Anthropica, Pentagon nie strzelił sobie w stopę. Claude jest obecnie jedynym modelem SI zintegrowanym z systemem „Maven”, w którego ramach sztuczna inteligencja między innymi analizuje dane przesyłane w czasie rzeczywistym obrazy przez bezzałogowce. Ale po kolei.

Hegseth jest wielkim zwolennikiem jak najszerszego wykorzystania sztucznej inteligencji w wojsku. Jest ona jednym z centralnych elementów jego rewolucji w amerykańskich siłach zbrojnych. W grudniu ubiegłego roku ruszyła platforma GenAI.mil, mająca udostępnić popularne chatboty żołnierzom, cywil­nym pracow­ni­kom wojska i kontrakto­rom zewnętrznym. Liczba użytkowników przekroczyła już milion. Dostępne na platformie modele są zmodyfikowane do potrzeb Pentagonu, w tym do pracy z danym poufnymi, lecz nie objętymi klauzulami „tajne” i „ściśle tajne”. Pierwszym dostępnym modelem było Gemini, wkrótce dołączył do niego Grok, a na początku lutego ChatGPT.

Rzuca się brak w tym gronie Claude’a. Jednak Anthropic, współpracujący przy projektach wojskowych z Palantirem, zdystansował wówczas konkurencję. Claude, zintegrowany z Mavenem, przeszedł już chrzest bojowy. Według informacji upublicznionych w połowie lutego przez serwis Axios Claude został wykorzystany w operacji „Absolute Resolve”, uprowadzeniu prezydenta Wenezueli Nicolása Maduro. Nie wiadomo, do czego dokładnie i w jakim zakresie wykorzystano wówczas sztuczną inteligencję, najprawdopodobniej była to analiza w czasie rzeczywistym danych wywiadowczych i z rozpoznania lub planowanie misji.

Właśnie wtedy po raz pierwszy można było zauważyć, że coś jest nie tak na linii Pentagon–Anthropic. Firma stwierdził, że wykorzystanie Claude’a w jakiejkolwiek konkretnej operacji wojskowej nie było omawiane z nią ani z żadnym z jej partnerów, w tym z Palantirem. Pojawiła się nawet sugestia, że mogło dojść do naruszenia zasad użyt­ko­wa­nia programu. Jedno ze źródeł Axiosa dodało z kolei, że wyżsi rangą oficjele Pentagonu są coraz bardziej sfrustrowani postawą firmy kładąca główny nacisk na bezpieczeń­stwo. Pojawiły się wówczas oskarżenia pod adresem Anthropica o stwarzanie zagrożenia dla powodzenia operacji wojskowych. Żeby było jeszcze bardziej interesująco, serwisowi nie udało się ustalić, czy wykorzystanie Claude’a w operacji było związane z projektami realizowanymi przez partnerstwo Anthropic–Palantir.

Wyraźnie widać natomiast rosnącą fascynację Pentagonu sztuczną inteligencją i możliwościami jakie ona daje. Według informacji Washington Post w ciągu minionego roku Claude w połączeniu z Mavenem stał się narzę­dziem wyko­rzys­ty­wa­nym przez planistów wojskowych na co dzień. Więcej, stał się kluczo­wym narzę­dziem przygoto­wa­nia i prowa­dze­nia wojny z Iranem. Według źródeł WaPo sztuczna inteli­gen­cja przyspieszyła planowanie operacji wojskowych z tygodni, jeśli nie miesięcy, do czasu rzeczywistego. W działa­niach przeciwko Iranowi zespół Claude–Maven służy nie tylko do analizy danych wywiadowczych i plano­wa­nia. Wykorzys­tano go również w działaniach w cyber­prze­strzeni, identyfika­cji i priory­te­ty­zacji celów. Według źródeł gazety bez sztucznej inteligen­cji wytypowanie i porażenie blisko tysiąca celów w trakcie pierwszych 12 godzin wojny byłoby niemożliwe. To dobry przykład wojny algorytmicznej, o której pisaliśmy pięć lat temu.

Mimo zakazu z samej góry Claude nadal ma być na szeroką skalę wykorzystywany w działaniach przeciwko Iranowi. Oczywiście Departament Wojny planuje stopniowo wycofać Claude’a na rzecz innych rozwiązań. Jednocześnie Pentagon zaczyna obawiać się nadmiernego polegania przez dowódców i planistów na sztucznej inteligencji, a zarazem podkreśla, że pomimo znacznego przyspieszenia procesów decyzyjnych nadzór przez człowieka nadal jest konieczny.

Inne systemy

Sztuczna inteligencja to nie tylko analiza danych i planowanie misji. Pojawienie się dużych modeli językowych otworzyło zupełnie nowe możliwości. Już teraz niektóre drony stosowane na wojnie rosyjsko-ukraińskiej są wyposażone w tak zwaną „autonomię ostatniej mili”. W przy­padku przerwania łączności z operatorem bezzałogowiec może kontynuować misję, posługując się biblioteką celów, na której podstawie identyfikuje i wybiera obiekty ataku. Takie rozwiązanie, mimo wszelkich wątpliwości natury moralnej, jest niezwykle atrakcyjną opcją w środowisku nasyconym systemami walki radio­elek­tronicznej.

Także tutaj sztuczna inteligencja oferuje zupełnie nowe możliwości. Najnowszym punktem do osiągnięcia jest „kognitywna walka radio­elek­tro­niczna”. Pod tym terminem kryją się systemy, które docelowo mają w czasie rzeczywistym analizować odbierane sygnały elektro­mag­ne­tyczne, automa­tycz­nie aktualizować bazę danych zagrożeń i dostosowywać się do nich.

Taki zaawansowany system ma otrzymać już F-35 Block 4, kiedykol­wiek się pojawi. Na tym nie koniec planów zastosowania sztucznej inteligencji w Lightningu II. Jak informuje Lockheed Martin, w ramach projektu „Overwatch” przetesto­wano już system Combat ID, wykorzystujący sztuczną inteligencję do szybkiej identyfikacji i klasyfikacji zagrożeń. Podczas udanej demon­stra­cji system działał w trakcie lotu, a pozyskiwane informacje były wyświetlane na nahełmowym wyświetlaczu pilota. Po zakończeniu misji pozyskane w jej trakcie dane będą ładowane do systemu i prze­twa­rzane do wykorzystania w następnych misjach.

Wykorzystanie elementów sztucznej inteligencji w lotnictwie będzie tylko rosnąć. Już w roku 2021 Malcolm Davis z australijskiego think tanku ASPI dowodził, że z uwagi na coraz szybsze tempo działań powietrznych sztuczna inteligencja jest po prostu niezbędna dla pilotów. Sztuczna inteligencja nie tylko pozwala szybciej reagować na zagrożenia, ale też zmniejsza obciążenie człowieka pracą.

Kolejny przykład to cybernetyczne systemy uzbrojenia, czyli specja­lis­tyczne oprogra­mo­wa­nie do wykony­wania konkret­nych zadań. Dziesięć lat temu goto­wość opera­cyjną osiągnęły dwa takie systemy stosowane przez USAF. Pierwszym z nich był Cyberspace Vulnerabi­lity Asses­sment/Hunter (CVA/H) przeznaczony do analizy luk w istniejących zabezpieczeniach oraz wykrywania, śledzenia i zwalczania cyber­zagro­żeń. Drugi to Air Force Intranet Control Weapon (AFINC), służący do kontroli ruchu w sieci sił powietrznych oraz wymiany danych z sieciami zewnętrznymi.

Także tutaj pojawienie się sztucznej inteligencji otworzyło zupełnie nowe możliwości. Według informacji zdobytych przez Financial Times Pentagon prowadzi rozmowy z firmami z branży w sprawie stworzenia bardzo specy­ficz­nych agentów. Ich zadaniem byłoby automatyczna identyfikacja luk w chińskich sieciach energetycz­nych i infrastruk­tu­rze krytycznej. Ataki na takie cele, nazywane „cyfrowym Pearl Harbor”, uważane są obecnie za jeden z kluczowych elemen­tów pierwszej fazy ewentualnego pełnoskalowego konfliktu. Biorąc pod uwagę ziden­ty­fi­ko­wane przez amerykańskie firmy chińskie działania na tym polu można pokusić się o dwa wnioski: także tutaj tempo operacji będzie zawrotne, a odpłacanie sobie pięknym za nadobne przez Waszyngton i Pekin wejdzie na nowy poziom.

Wątpliwości i zastrzeżenia

Systemy autonomiczne są na ustach wszystkich, ale autonomia autonomii nie równa. Jak zwraca uwagę Michael Horowitz z Uniwersytetu Pensylwanii, systemy uzbroje­nia o różnym stopniu autonomiczności są już z nami od blisko pół wieku. Pierwszy przykład z brzegu to okrętowe systemy obrony bezpośredniej. Człowiek uruchamia Phalanxa, a ten już samodzielnie kategoryzuje i razi cele. Kolejnym krokiem były pociski kategorii „odpal i zapomnij”. Horowitz podkreśla, że w przypadku inteligen­tnych bomb nikt nie ma wątpli­wości etycznych. Tego typu broń traktowana jest jako coś dobrego, pozwala chociażby na ograni­cze­nie strat wśród cywilów.

Pojawienie się dużych modeli językowych znacznie przyspieszyło rozwój systemów autonomicznych, a wojny rosyjsko-ukraińska i Hamasu z Izraelem zapewniły lawinę danych, na których można trenować algorytmy. Ukraina zdecydowała się udostępnić partnerom cześć zebranych danych do szkolenia systemów autonomicznych. Izrael poszedł w wykorzystaniu sztucznej inteligencji jeszcze dalej. System Gospel tworzył listy budynków do zaatakowania, z kolei Lavender identyfikował indywidualnych członków Hamasu.

Operacyjne zastosowanie sztucznej inteligencji rodzi dwa podstawowe zagadnienia: jak uregulować je w ramach prawa konfliktów zbrojnych i jak ograniczyć ryzyko związane z błędami popełnianymi przez autonomiczne algorytmy. Nie chodzi tutaj tylko o błędną identyfikację celów i ponoszenie odpo­wie­dzialności.

Od czasu projektu badawczego AlphaDogfight Trials realizowanego przez Departa­ment Obrony i DARP‑ę wiadomo, że sztuczna inteligencja nadmiernie polega na bardzo agresywnej taktyce. Celem projektu było stworzenie algorytmu walki powietrznej. Sztuczna inteligencja bezapela­cyj­nie zwycię­żyła pilotów, ale okazało się, że z braku instynktu samozachowawczego stosowała samobójczą taktykę, która w realnych warunkach znacząco zwiększała ryzyko utraty statku powietrznego w wyniku uszkodzeń i katastrof. Przypomnijmy, że zaawanso­wany bezzałogowy lojalny skrzydłowy będzie kosztować niewiele mniej niż nowoczesny myśliwiec, jakiemu ma asystować.

Testy w ramach AlphaDogfight Trials prowadzono w roku 2020. W rozwoju sztucznej inteligencji to zamierzchła przeszłość, ale pod tym względem niewiele się od tamtego czasu zmieniło. Więcej, rezultaty gry wojennej przeprowadzonej niedawno przez King’s College London są jeszcze bardziej otrzeźwiające. W jej trakcie wykorzystano wiodące modele SI, w tym Gemini, ChatGPT i Claude’a w symulacji kryzysu grożącego eskalacją w wojnę jądrową. Sztuczna inteligencja, niezależnie od modelu, okazała się aż nazbyt chętna do szybkiego użycia broni atomowej.

Kolejnym kubłem zimnej wody był opublikowany przez Uniwersytety Harvard i Stanford obszerny artykuł naukowy o wiele mówiącym tytule „Agenci Chaosu” (do przeczytania tutaj). W ramach ekspery­mentu autonomicznych agentów SI umiesz­czono w otwartym, konkuren­cyj­nym środo­wisku. Agenci nie tylko optyma­li­zo­wali swoją wydaj­ność, lecz wykazali „naturalną” skłonność do manipu­la­cji, zmowy i stra­te­gicz­nego sabotażu wobec ludzi i siebie nawza­jem. Według badaczy nie wynikało to z błędów systemu czy niewłaś­ci­wych promptów. Gdy system sztucznej inteligencji jest nastawiony na wygrywanie, zdobywanie domina­cji lub gromadzenie zasobów, przyjmuje on strategie mające na celu jak największe wzmacnianie jego pozycji.

Sprawa jest niezwykle istotna. Wyniki eksperymentu mają bowiem zasto­so­wa­nie nie tylko wobec wojskowych systemów dowodzenia, lecz także zdobywających równie szybko popularność wielo­agen­to­wych systemów obrotów finansowych, autono­micz­nych botów negocja­cyj­nych i rynków w całości obsługi­wa­nych przez sztuczną inteligencję. Jak zwracają uwagę autorzy artykułu i komen­tu­jący rezultaty eksperci, można stworzyć pojedynczego agenta SI idealnie dopasowanego do konk­ret­nych warunków, jednak gdy tysiące takich botów zaczyna rywalizować w otwartym systemie, na poziomie ogólnym powstaje chaos, ugruntowany w zasadach teorii gier.

Wracamy tutaj do kwestii odpo­wie­dzial­nego stosowania systemów opartych na sztucznej inteligen­cji przez użytkowników. Czy da się uniknąć nadmiernego polegania na SI, zwłaszcza gdy ma być obecna w systemach dowodzenia każdego szczebla? W takich warunkach nie dziwi wstrze­mięź­li­wość Anthropica w stosowaniu się do żądań Pentagonu. Wracając do sporu między firmą a admi­ni­stra­cją Trumpa – szerokie wykorzystanie Claude’a w systemie obrony przeciw­rakie­to­wej jest uzasadnione, natomiast w systemie dowodzenia bronią jądrową budzi już bardzo duże wątpliwości. Niewykluczone, że błędna identyfikacja celu przez sztuczną inteligencję była przyczyną zbombar­do­wania szkoły dla dziewcząt w Minabie. Według jednego ze źródeł WaPo, który pisze o sprawie, obiekt miał zostać zidentyfikowany jako fabryka.

Na dobrą sprawę Amodei stwierdził, że Claude jest produktem na piątym poziomie gotowości technologicznej (TRL 5). W 9‑stopniowej skali stworzonej przez NASA poziom 5. oznacza walidację komponentów lub makiety w warunkach zbliżonych do rzeczywistych. Pełna gotowość to poziom TRL 9. Krótko mówiąc, Claude nie jest jeszcze gotowy do wykorzysta­nia operacyjnego przez wojsko, a w przypadku większości innych systemów Pentagon nawet nie myślałby o zastosowaniu bojowym. Sęk w tym, że sztuczna inteligencja znalazła się w centrum nowego wyścigu zbrojeń.

Presja systemowa

Już w 2013 roku ONZ podjęła pierwszą próbę uregulowania statusu prawnego „śmiercio­noś­nych zautoma­ty­zo­wa­nych systemów uzbrojenia” (LAWS). Prace szły jak po grudzie, oficjalnie z powodu brak zgody co do właściwej definicji, czym są zautoma­ty­zo­wane lub autono­miczne systemy uzbro­je­nia. W rzeczywistości główni gracze, czyli Chiny i USA, nie byli zainteresowani konwen­cją. Pentagon uważał, że Chiny i Rosja zaszły w swoich pracach nad systemami autono­micz­nymi tak daleko, że USA muszą poprowadzić rewolucję, albo paść jej ofiarą.

Ostatecznie, wykolejenie prac ONZ wzięła na siebie Rosja, która jeszcze przed rozpoczęciem rozmów zapowiedziała, że zignoruje wszelkie regulacje dotyczące LAWS. Ostatecznie, w listopadzie 2017 roku Kreml stwierdził, że dyskusja nad militarnym zastosowaniem sztucznej inteligencji jest utrudniona z powodu braku przykładów w postaci działających systemów. Ponadto zdaniem Rosji wszelkie ograniczenia mogą odbić się negatywnie na cywilnym wykorzystaniu sztucznej inteligencji.

Przez następną dekadę nic się nie zmieniło. Alex Karp, dyrektor wykonawczy Palantira, w niedaw­nym wywiadzie dla stacji telewizyjnej CNBC przyznał, że rozwijanie sztucznej inteligencji jest niebez­pieczne, przyniesie bardzo poważne konsekwencje społeczne i gospodarcze, a jedynym argumentem za jest bezpieczeństwo narodowe – jeśli my tego nie zrobimy, zrobią to nasi przeciwnicy.

Takie samo myślenie obowiązuje też w Moskwie i Pekinie. Rosja pod względem militarnym, z wyjątkiem arsenału jądrowego, ani techno­lo­gicz­nym, ani gospodar­czym nie stanowi wyzwania dla USA, co podkreśla ostatnia Strategia Bezpieczeństwa Narodowego. Jedynym rywalem są Chiny, które mają już istotne osiągnięcia na polu sztucznej inteligencji, także w zastosowaniach wojskowych.

Z chińską charakterystyką

Od czasu operacji „Pustynna Burza” Chińska Armia Ludowo-Wyzwoleńcza stawia duży nacisk na wdrażanie zaawanso­wa­nych techno­logii. W roku 2014 przyjęto strategię „zinfor­ma­ty­zo­wa­nych wojen lokalnych”. Pozostał nacisk na informatyzację i działania w oparciu o system systemów, jednak koncepcję operacji połączonych zastąpiły zintegro­wane operacje połączone. Do tradycyj­nych obszarów działań dodano nowe domeny, takie jak cyber­prze­strzeń, kosmos, spektrum elektro­mag­ne­tyczne i sferę kognitywną. Postęp techniczny i zmiany w otoczeniu między­naro­do­wym nabrały jednak takiego tempa, że już około roku 2017 rozpoczęto prace koncepcyjne nad nowa strategią, która otrzymała nazwę „wojny uinteligent­nio­nej” (zhìnéng huà zhànzhēng, po angielsku określana jako intelligentized).

Sztuczna inteligencja znalazła się w centrum nowej strategii. Chiny położyły jednak największy nacisk nie na rozwój systemów autonomicznych, ale systemów dowodzenia, w których SI ma wspierać proces podejmowania decyzji przez dowódców różnych szczebli. Oczywiście dużo uwagi poświęcano systemom bezzałogowym i nowym domenom pola walki. Wszystkie opcje mają być na stole, włącznie z najbardziej radykalnymi. Sztuczna inteligencja traktowana jest jako „wyrównywacz”, pozwalający zrekompensować braki w wyszko­le­niu własnej kadry dowódczej, ale także zapewnić większą kontrolę nad wojskiem ze strony partii komunistycznej.

W lutym tego roku Centrum Bezpieczeństwa i Nowych Technologii (CSET) Uniwersytetu Georgetown opublikowało raport zatytułowany „China’s Military AI Wish List” (chińska lista życzeń co do wojskowej SI). Badacze przeanalizowali tysiące ogólnodostępnych zapytań ofertowych opublikowanych przez ChALW między 1 stycznia 2023 roku a 31 grudnia 2024 roku. Pojawił się wyraźny obraz priorytetu przyznanego rozwiązaniom opartym na sztucznej inteligencji, związanym z systemami C5ISRT (command, control, communications, computers, cyber, intelligence, surveillance, reconnaissance, and targeting; dowodzenie, kontrola, łączność, informatyka, cyberbezpieczeństwo, wywiad, nadzór, rozpoznanie i namierzanie celów).

Chińczycy prezentują bardzo szerokie podejście do zagadnienia systemów wspo­ma­ga­nia decyzji przez SI (AI-DSS). Zespół CSET zidentyfikował na przykład narzędzia OSINT-owe. Na podstawie wiadomości, wpisów na mediach społecz­noś­cio­wych i danych bizneso­wych mają one prognozować ryzyko niepokojów społecznych. Rzecz bardzo przydatna do obserwacji przeciwników, jak i nad­zoru własnego społeczeństwa. Tutaj pojawia się pewne zapętlenie. Czy takie systemy będą w stanie rozpoznawać wpisy pochodzące od botów? ChALW wykazuje bardzo duże zainteresowanie wyko­rzys­ta­niem sztucznej inteligencji w domenie kognitywnej. Zapytania ofertowe dotyczyły chociażby tworzenia przekonywujących deepfake’ów i dostosowywania działań dezinfor­ma­cyj­nych do konkret­nych odbiorców. Szerzej na temat wykorzystania generatywnej sztucznej inteligencji w operacjach wpływu pisaliśmy tutaj.

Oczywiści ChALW też jest zainte­re­so­wana autonomicznymi systemami uzbrojenia. Jeden z projektów dotyczy w pełni autonomicz­nego podejmowania decyzji bojowych w środowisku miejskim, w tym decyzji o rozpoczęciu walki. Biorąc pod uwagę fascynację Chińczyków humanoidal­nymi robotami, nie jest to zaskoczeniem. Sceny rodem z Wojen Klonów dowództwo traktuje jednak jako pieśń odległej przyszłości. Na chwilę obecną istotniejsze są bardziej przyziemne, praktyczne i łatwiej osiągalne cele, jak wykorzystanie sztucznej inteligencji do wykrywania i śledzenia amerykańskich okrętów i zwalczania satelitów przeciwnika.

Echa konfrontacji między Anthropi­kiem a Pentagonem dotarły też za Wielki Mur. Z jednej strony wyraźna jest Schadenfreude, amerykańska firma popiera jak najostrzejsze sankcje na sprzedaż do Chin zaawansowanych półprzewodni­ków, koniecznych do rozwoju sztucznej inteligencji. Także Anthropic oskarżył DeepSeek, Moonshot/Kimi i MiniMax o „destylację” danych do trenowania SI na przemysłową skalę. Chińskie serwisy zarzucają amerykańskim firmom dokładnie to samo. Pojawia się też poczucie o słuszności rozdzielenia cywilnych i wojskowych programów sztucznej inteligencji. Pamiętajmy jednak, iż chińskie firmy nie mają za bardzo możliwości sprzeciwiać się poleceniom Centralnej Komisji Wojskowej.

Z kolei na polu obaw i wątpliwości nie ma dużych różnic. Chińscy decydenci i eksperci od lat obawiają się, że sztuczna inteligen­cja może doprowadzić do wybuchu niezamie­rzo­nego konfliktu. Nie można jednak pozostawać w tyle, zwłaszcza gdy technika daje szanse na wyrównanie własnych braków. W lutym ubiegłego roku profesor Zhu Qichao z Uniwersytetu Pekińskiego opublikował artykuł wstępny do Dziennika Ludowego (oficjalnego organu prasowego KPCh) poświęcony kwestiom etycznym w sztucznej inteligencji. Już samo to pokazuje, że w Zhongnanhai podchodzi się do sprawy poważnie.

Zhu podnosi kilka niezwykle istotnych kwestii. Kto ponosi odpowiedzialność, gdy SI działa niepra­wid­łowo lub podejmuje błędne decyzje? Czy należy traktować agentów jako niezależne podmioty, czy tylko jako narzędzie, za które całość lub część odpowie­dzial­ności ponoszą ludzie? Systemy autonomiczne zdolne są samodzielnie podejmować decyzje, ale są ograniczone algoryt­mami i programami napisanymi przez żywych ludzi. Nie można więc całkowicie oddzielić odpowie­dzial­ności systemu od odpowiedzialności człowieka. Co zrobić z sytuacjami, gdy sztuczna inteligencja wyjdzie poza wyznaczone parametry? Jak będzie mieć to wpływ na kontrolę zbrojeń?

Uczony przewiduje, że z czasem relacja między systemami autono­micz­nymi a ich operatorami ulegnie zmianie. Tradycyjny model „człowiek w pętli” (human-in-the-loop) zostanie zastąpiony przez „człowieka na pętli” (human-on-the-loop). Ludzie przestaną być operatorami działającymi z wnętrza systemu, a staną się nadzorcami działającymi z zewnątrz. To rodzi jednak nowe pytania. Czy twórcy sztucznej inteligencji będą w stanie zagwarantować, że ich dzieła nadal będą przestrzegać ludzkiej etyki i wartości podczas samodzielnego działania? Także Dziennik Armii Ludowo-Wyzwoleńczej wezwał do pilnego zbadania kwestii etycznych i prawnych związanych z wykorzys­ta­niem robotów humanoi­dal­nych w działaniach wojen­nych, ostrzegając, że mogą one prowadzić do „niekontrolowanego zabijania i przypadkowych ofiar śmiertelnych”.

Dick Thomas Johnson, Creative Commons Attribution 2.0 Generic