Pojawienie się sztucznej inteligencji i autonomicznych rodzajów uzbrojenia powoduje konieczność przeanalizowania tego zagadnienia w świetle prawa międzynarodowego i krajowego dotyczącego prowadzenia konfliktów zbrojnych. Stany Zjednoczone, jako jeden z krajów wiodących we wprowadzaniu do uzbrojenia najnowszych technologii, już rozważają implikacje prawne i operacyjne.

– W czasie całej mojej kariery, którą spędziłem nad mapami sztabowymi, zawsze gdzieś obok znajdował się prawnik – powiedział generał Mike Murray z Army Futures Command, który ma za sobą służbę w Iraku i Afganistanie. – Jednak w przypadku wysoce zautomatyzowanej wojny przyszłości dowódca może nie mieć nawet trzydziestu sekund na skonsultowanie decyzji.

– Gdy byłem dowódcą brygady, a nawet gdy dowodziłem 3. Dywizją Piechoty w Afganistanie, każdego dnia podejmowałem decyzje dotyczące życia i śmierci i przeważnie zapadały się na spotkaniu wokół mapy sztabowej czy jakiegoś jej cyfrowego odpowiednika – wspomina generał Murray. – Pośród oficerów sztabowych odpowiedzialnych za rozpoznanie czy wsparcie ogniowe, jednym z kluczowych ludzi stojących przy stole był prawnik, który zawsze miał prawo głosu. Czy nasze metody działania są właściwe? Czy są zgodne z prawem? Zwykle te dyskusje zajmowały chwilę czasu. Uważam, ze w czasie przyszłych wojen będzie znacznie mniej okazji i czasu na zebranie sztabowców i szczegółowe analizowanie zgodności z prawem akcji podejmowanych przez dowódcę.

Zagadnienie połączenia sztucznej inteligencji z prawem konwiktów zbrojnych było omawiane przez Army Futures Command w czasie niedawnej konferencji zorganizowanej w West Point. Niestety ani generał Murray ani żaden z pozostałych prelegentów nie przedstawił kompleksowego rozwiązania.

Sztuczna inteligencja działa znacznie szybciej niż sztab złożony wyłącznie z ludzi. Ale czy algorytmy mogą przewidzieć każdą sytuację?
(USAF / Derek Kaufman)

Problem jest coraz bardziej naglący, szczególnie dla sił zbrojnych, które przynajmniej oficjalnie chlubią się przestrzeganiem prawa federalnego, regulaminów Departamentu Obrony i etyki zawodowej, nawet w najbardziej ekstremalnych okolicznościach. Jednak wprowadzanie sztucznej inteligencji powoduje, że autonomiczne pojazdy będą działały i podejmowały decyzje znacznie szybciej niż działa ludzki mózg, nie mówiąc o przeprowadzeniu analizy na naradzie sztabowej.

Generał Murray zauważył, że już w czasie zeszłorocznych manewrów wojska lądowe wykorzystywały sztuczną inteligencję do wykrywania celów na zdjęciach satelitarnych i przekazywania ich koordynatów do baterii artyleryjskich w czasie kilkunastu sekund. Do tej pory tradycyjny łańcuch dowodzenia w takiej sytuacji wynosił kilkadziesiąt minut. Murray podkreślił, że w czasie tych ćwiczeń w łańcuchu dowodzenia jeszcze cały czas obecny był człowiek, który ostatecznie akceptował rozkazy wygenerowane przez komputer, zanim zostały przesłane do baterii artylerii.

Jednak nie zawsze takie rozwiązanie będzie możliwe do zastosowania. Można sobie wyobrazić sytuacje ataku roju kilkudziesięciu dronów dodatkowo stosujących zagłuszanie, co uniemożliwia ich wykrycie aż do ostatniego momentu.

– Czy człowiek ma wystarczające możliwości, aby wybrać które z dronów należy zniszczyć jako pierwsze, a później podjąć sto indywidualnych decyzji o niszczeniu kolejnych? – pytał generał Murray. – A może w przypadku, gdy rozmawiamy o niszczeniu platform bezzałogowych człowiek wcale nie jest potrzebny w łańcuchu dowodzenia?

W przypadku celów poruszających się z dużymi prędkościami może się okazać, że konieczne jest wyeliminowanie człowieka z procesu decyzyjnego i pozostawienie decyzji komputerowi na podstawie ustalonych wcześniej kryteriów. Takie systemy istnieją już w tej chwili. Można tu wymienić systemy obrony bezpośredniej  Counter-Rocket, Artillery, & Mortar powszechnie wykorzystywany do obrony baz w czasie misji zagranicznych czy okrętowe systemy obrony bezpośredniej Phalanx. Tryb automatyczny jest dostępny nawet w systemach przeciwlotniczych Patriot, co w 2003 roku przyczyniło się do zestrzelania brytyjskiego Tornado i amerykańskiego F/A-18 pociągając za sobą śmierć trzech lotników.

Pulpit systemu celowniczego czołgu Abrams. Sztuczna inteligencja może pomagać czołgistom w rozpoznawaniu celów.
(USMC / Gabrielle Quire)

Według generała Murraya jednym z rozwiązań możliwych do zaakceptowania już przy dzisiejszych regulacjach prawnych jest pozostawienie ostatecznej decyzji człowiekowi w tych sytuacjach, gdzie decyduje się o życiu i  śmierci innych ludzi i umożliwieniu komputerom swobodnego, autonomicznego działania tam, gdzie nie ma zagrożenia dla życia człowieka. Taki model dowodzenia był ćwiczony w czasie przywoływanych już ćwiczeń z jesieni 2020 roku. Łańcuch dowodzenia łączący i ludzi i maszyny będzie wolniejszy niż gdyby decyzje podejmowały wyłącznie komputery, ale jednocześnie będzie szybszy od takiego, w którym są wyłącznie ludzie. Potencjalnie będzie także dokładniejszy.

W czasie zimnej wojny szkolenie czołgistów obejmowało między innymi umiejętność szybkiego rozpoznawania sylwetek wozów bojowych należących do NATO i Układu Warszawskiego. Sylwetki pojazdów pokazywały się na kartach na bardzo krótki czas, a szkolony żołnierz musiał rozpoznać czy wóz jest przyjacielski czy wrogi. Uznawano, że czołgista jest należycie wyszkolony, gdy poprawnie rozpoznawał 80% wozów. Algorytmy rozwiązujące ten sam test w dzisiejszych czasach mają skuteczność na poziomie 98,8%. Może to wskazywać, że sztuczna przyczyni się do zwiększenia bezpieczeństwa własnych wojsk.

Generał Murray podkreśla, że algorytm tylko wydaje rekomendację. Ostatecznie za spust wciska działonowy. Wyzwaniem pozostaje spowodowanie by żołnierze nabrali do sztucznej inteligencji na tyle zaufania, by nie bali się jej używać w czasie walki, ale jednocześnie by nie zatwierdzali bezmyślnie jej wszystkich rekomendacji. Nad rozwiązaniem tej kwestii pracują również siły powietrzne.

Zobacz też: Gruzja wznawia produkcję Su-25 w zakładach TAM

(breakingdefense.com)

US Army