Amerykanie stworzą broń ze sztuczną inteligencją. Ich własna im nie wystarcza?
Pion badawczy Departamentu Obrony Stanów Zjednoczonych zapowiedział, że dokona największych w historii inwestycji wojskowych w systemy sztucznej inteligencji (AI) dla amerykańskiej broni, zobowiązując się jednocześnie do wydania co najmniej 2 miliardów dolarów w ciągu następnych pięciu lat. Argumentacja? Sztuczne systemy prędzej czy później wzbudzą większe zaufanie i akceptację przez dowódców wojskowych.
11.09.2018 19:53
Dyrektor agencji DARPA (Defense Advanced Research Projects Agency ) ogłosił, że już wkrótce rozpocznie się szaleństwo wydatków na badania i rozwój nowych technologii. Agencja uważa, że jej podstawową rolą jest forsowanie nowych rozwiązań technologicznych w zakresie problemów wojskowych, a administracja Trumpa zdecydowanie poparła wprowadzenie sztucznej inteligencji do większej części amerykańskiej broni, aby lepiej konkurować z rosyjskimi i chińskimi siłami wojskowymi.
Prawdę mówiąc, inwestycja DARPA jest niewielka w porównaniu do standardów Pentagonu, gdzie koszty zakupu i utrzymania nowych samolotów bojowych F-35 opiewają na setki miliardów dolarów. W lipcu Booz Allen Hamilton, dostawca systemów obronnych, otrzymał kontrakt o wartości 885 milionów dolarów na pracę nad programami sztucznej inteligencji w ciągu najbliższych pięciu lat. Projekt Maven z kolei, jeden z największych wojskowych projektów AI, który ma na celu poprawę zdolności komputerów do wybierania obiektów na zdjęciach do celów wojskowych, ma otrzymać 93 miliony dolarów w 2019 roku.
Tak czy inaczej, przekazywanie większej ilości wojskowych prac analitycznych - i potencjalnie niektórych kluczowych decyzji - komputerom i algorytmom zainstalowanym w broni zdolnej do gwałtownego działania przeciwko ludziom jest kontrowersyjne. Niektórzy z pewnością pamiętają, że jakiś czas temu to Google kierował projektem Maven dla tego działu, ale po zorganizowanym proteście ze strony pracowników, którzy nie chcieli pracować nad oprogramowaniem, które mogłoby pomóc w określeniu potencjalnych celów do zabicia dla żołnierzy, firma zapowiedziała w czerwcu, że po wygaśnięciu obecnej umowy zakończy współpracę z amerykańskim rządem.
Podczas gdy Maven i inne inicjatywy w zakresie sztucznej inteligencji pomogły systemom Pentagonu w lepszym rozpoznawaniu celów i skuteczniejszym tworzeniu takich rzeczy jak latające drony, systemy sterowania komputerowego, które podejmują działania ostateczne tj. bezpośrednie likwidowanie celów, nie zostały jeszcze wprowadzone „do służby”. Mówiąc prościej, człowiek nadal decyduje o życiu drugiego człowieka i to on naciska spust. Jednak opublikowany w sierpniu dokument strategiczny Pentagonu mówi, że postęp technologiczny wkrótce uczyni taką broń możliwą.„Departament Obrony nie ma obecnie autonomicznego systemu uzbrojenia, który mógłby wyszukiwać, identyfikować, śledzić, wybierać i angażować cele niezależne od danych wprowadzanych przez operatora” - głosi raport, który został podpisany przez czołowych działaczy rozwoju i badań Pentagonu - Kevina Faheya i Mary Miller. To oficjalne stanowisko. Jak jest w rzeczywistości?
W tym samym raporcie znajdziemy również informację o tym, że „technologie leżące u podstaw systemów bezzałogowych umożliwiłyby opracowanie i wdrożenie autonomicznych systemów, które niezależnie wybierałyby i atakowały cele przy użyciu śmiertelnej siły”. Wygląda na to, że kwestią nie jest „czy”, tylko „kiedy” systemy autonomiczne zastąpią w decyzjach o ludzkim życiu odpowiedzialnych za to żołnierzy. W raporcie napisano, że chociaż systemy AI są już technicznie zdolne do wybierania celów i strzelania z broni, dowódcy wahali się, czy przekazać ten „obowiązek” maszynom. Granicą jest brak zaufania do maszynowego rozumowania, zwłaszcza na polu bitwy, gdzie mogą pojawić się zmienne, z którymi maszyna i jej projektanci wcześniej się nie spotkali.
Obecnie żołnierz może z pewną dozą prawdopodobieństwa określić, czy wybrany przez niego cel jest prawidłowy. Zazwyczaj określa to procentowo i sam decyduje, czy oddać strzał, czy nie. Co w takiej sytuacji zrobi maszyna? Gdzie pojawi się granica pomiędzy decyzją pozytywną a negatywną? Przy 35% pewności? A może 45 lub 60? Czy o ludzkim życiu będzie decydował rachunek prawdopodobieństwa? Człowiek może argumentować swoją decyzję, maszyna nie jest w stanie tego zrobić.
Przeskoczenie tej przeszkody w chwili obecnej jest niezwykle trudne. Ludzki proces decyzyjny i racjonalność zależą od czegoś więcej niż tylko przestrzegania reguł i skryptów. Ludzkość potrzebuje wielu lat, aby zbudować moralny kompas i zdroworozsądkowe umiejętności myślenia, które będzie można w sposób bezbłędny i sprawny przeprogramować na cyfrowe dane. Bo skoro autonomia nadal raczkuje i nie jest w stanie prowadzić samochodu, to jakim cudem ma decydować o celach do zlikwidowania?