Amerykańska marynarka wojenna zaoferowała kilku uczelniom grant na prowadzenie badań nad robotami zdolnymi do samodzielnego podejmowania decyzji w oparciu o kodeks moralny. Rezultaty badań mogą mieć szerokie, także pozawojskowe zastosowanie.

Za program odpowiada Office of Naval Research (ONR), które chce przeznaczyć na badania 7,5 miliona dolarów. Oferty współpracy otrzymały uniwersytety Yale, Georgetown, Brown i Tufts oraz Rensselaer Polytechnic Institute. Kierujący programem kognitywistyki ONR Paul Bello zastrzega, że badania będą miały także określić etyczne i prawne skutki wprowadzenia systemów wyposażonych w moralność.

Wprawdzie Departament Obrony zabronił użycia całkowicie autonomicznych robotów bojowych, naukowcy są jednak przekonani, że wyniki ich prac mogą okazać się niezwykle przydatne zarówno na polu walki, jak i poza nim. Półautonomiczne roboty bojowe wyposażone w moralność będą mogły dokonywać selekcji celów, a ostateczną decyzję o otwarciu ognia będzie podejmował człowiek. Pomoże to na przykład ograniczyć „syndrom Playstation” u operatorów dronów, a tym samym zmniejszyć liczbę przypadkowych ataków na cele cywilne. Moralność znajdzie jeszcze szersze zastosowanie w przypadku autonomicznych robotów medycznych w trakcie misji ratunkowych i ewakuacyjnych. Maszyny będą w stanie określić, komu najpierw udzielić pomocy.

Wendell Wallach z Uniwersytetu Yale przyznaje, że niektóre rodzaje moralności są łatwiejsze do zapisania w formie programu komputerowego. Naukowiec dokonał podziału na trzy typy takiego oprogramowania: moralność operacyjna, funkcjonalna i pełna.

(naval-technology.com)