Przygotowany przez komisję Izby Reprezentantów do spraw sił zbrojnych raport Future of Defense Task Force Report wzywa Departament Obrony do przeznaczenia większych środków na rozwój sztucznej inteligencji. Autorzy wskazują na konieczność stworzenia współczesnego odpowiednika „Projektu Manhattan”.

Pracami nad raportem kierowali reprezentanci Seth Moulton (demokrata) i Jim Banks (republikanin). Konsensus obu partii poważnie zwiększa siłę przebicia Future of Defense Task Force Report. Ogólnie raport wskazuje Rosję i Chiny jako główne zagrożenia dla bezpieczeństwa Stanów Zjednoczonych i podkreśla pilną potrzebę modernizacji sił zbrojnych. Warto w tym miejscu zaznaczyć, że do roku 2030 Chiny chcą zostać światowym liderem w dziedzinie sztucznej inteligencji.

Za pewne zaskoczenie uznawana jest bardzo duża uwaga poświęcona sztucznej inteligencji i systemom autonomicznym, a także nawiązanie do „Projektu Manhattan”. Autorzy raportu uważają, że podobnie jak broń atomowa w trakcie drugiej wojny światowej, tak teraz sztuczna inteligencja okaże się czynnikiem zmieniającym „zasady gry”.

Stąd postulat, aby oprócz odpowiedniego finansowania przyznać Departamentowi Obrony większą swobodę w zakresie oceny zaawansowanych rozwiązań technicznych, które mogą umożliwić wojsku sprawniejszą realizację zadań i obniżyć koszty. Raport wzywa także do przeznaczania przez Pentagon 1% budżetu na wdrażanie nowych rozwiązań.

Kolejny postulat to wprowadzenie wymogu, by nowy sprzęt przyjmowany na wyposażenie sił zbrojnych od początku był przystosowany do integracji z systemami wykorzystującymi sztuczną inteligencję. Dotyczy to zwłaszcza systemów dowodzenia. Postulat wynika z ocen ostrzegających, że w 2030 roku 70% amerykańskiego sprzętu wojskowego wykorzystywać będzie przestarzałe oprogramowanie.

Future of Defense Task Force Report podchodzi wszechstronnie do sprawy wprowadzania systemów autonomicznych. Autorzy raportu podkreślają konieczność opracowania norm wykorzystania sztucznej inteligencji w wojsku, a także wzywają do wypracowania międzynarodowych norm dotyczących jej militarnego i cywilnego zastosowania. Sugerowane rozwiązania powinny opierać się na konwencji genewskiej i traktatach dotyczących broni masowego rażenia.

Próbę uregulowania wykorzystania sztucznej inteligencji do celów wojskowych podjęła już w roku 2013 ONZ. Rozmowy zakończyły się fiaskiem z powodu sprzeciwu Rosji. Od roku 2015 trwa natomiast kampania na rzecz moratorium na rozwój i wykorzystanie „śmiercionośnych zautomatyzowanych systemów uzbrojenia” (LAWS).

Zobacz też: DARPA ujawniła system operacyjny dla systemów dowodzenia

(military.com)

DARPA