Rafał Kopeć
Robotyzacja wojny
Uwagi wstępne
Historia wojen skwapliwie odnotowuje zmiany, które w sposób rewolucyjny
prowadziły do przekształcenia obrazu pola bitwy. Wydaje się, że stoimy obecnie
u progu kolejnej rewolucji, związanej z zastosowaniem robotów w działaniach
zbrojnych. Zwolennicy takiego podejścia mówią o tzw. robolucji (rebolution)1.
Termin ten, powstały z połączenia słów robotyzacja i rewolucja, opiera się na założeniu, że robotyzacja prowadzi do rewolucyjnych zmian i stanowi punkt zwrotny
w historii militarnej. Co więcej, zmiany w charakterze wojny powodowane przez
roboty są bardziej dogłębne niż wcześniejsze rewolucje – przeobrażeniu ulega bowiem nie tyle sposób, w jaki prowadzi się wojnę, ile to, kto ją prowadzi (robot zamiast człowieka)2. Rozwój robotów bojowych powodować ma podważenie podstawowego determinantu wojny, którym bynajmniej nie jest zabijanie, ale ryzyko
bycia zabitym.
Z drugiej strony robotyzacja jawi się jako przejaw raczej ewolucji niż rewolucji
– jako oczywista kontynuacja dążenia do zwiększenia zasięgu uzbrojenia i zwiększenia dystansu między walczącymi, które dotychczas ograniczone były przez spadającą wraz z zasięgiem precyzję3. Cała historia uzbrojenia postrzegana może
być jako dążenie do zapewnienia wojującemu fizycznego bezpieczeństwa (żeby
wspomnieć chociażby postać Achillesa). Roboty bojowe wydają się przeto być
A. Windeck, Preface, w: Robots on the Battlefield, Contemporary Issues and Implications for
the Future, red. R. Doaré i in., Fort Leavenworth 2014, s. V.
2
D. Danet, J.-P. Hanon, Digitization and Robotization of the Battlefield: Evolution or Robolution?, w: Robots on the Battlefield…, op.cit., s. XIII.
3
P. Scharre, Robotics on the Battlefield. Part I: Range, Persistence and Daring, Waszyngton
2014, s. 19.
1
Społeczeństwo i Polityka Nr 4 (49)/2016
37
Rafał Kopeć
spełnieniem odwiecznego marzenia twórców broni – o broni pozwalającej porazić
przeciwnika z dystansu, który czyni nas niewrażliwym na jego przeciwdziałanie.
W tym sensie roboty bojowe stanowią ostatnią inkarnację trendu znanego od co
najmniej kilkudziesięciu lat i określanego jako broń kierowana lub, co ostatnio jest
modne, inteligentna.
Artykuł odpowiada na pytanie, na ile proliferacja robotów bojowych stanowi
prawdziwą rewolucję w charakterze, a być może nawet naturze wojny, a na ile
jest kontynuacją istniejących wcześniej tendencji. Podstawą do odpowiedzi na tak
postawione pytanie musi być precyzyjne zdefiniowanie pojęcia robot. Następnie
zaprezentowane zostały potencjalne następstwa wynikające z zastosowania robotów bojowych, nie tylko w wymiarze czysto militarnym, ale w szerszym ujęciu –
społecznym, politycznym i kulturowym.
Czym (a może kim) jest robot?
Słowo robot zostało po raz pierwszy zastosowane przez czeskiego pisarza Karla
Čapka. Pojawiło się w sztuce R.U.R. (Rossumovi Univerzální Roboti) – Uniwersalne roboty Rossuma z roku 19214. Według pisarza termin ten wymyślił jego brat
Josef. Etymologia terminu robot odnosi się do występującego w wielu językach
słowiańskich słowa „robota”, oznaczającego ciężką pracę. Tym właśnie zajmować
miały się roboty występujące w sztuce R.U.R. Roboty Čapka były jednak sztucznie
produkowanymi istotami stworzonymi na podłożu biologicznym, czyli organizmami żywymi. Stanowią one raczej wariację na temat mitu o Golemie czy monstrum
powołanego do życia przez doktora Frankensteina w powieści Mary Shelley.
Współczesna wizja robota zakładająca, że jest on istotą elektromechaniczną,
pojawiła się w opowiadaniu Isaaca Asimova Runaround (Zabawa w berka) z roku
19425. Robot jest więc maszyną (czyli urządzeniem technicznym wykonującym
pracę na podstawie przekształceń energii), a dokładniej fuzją maszyny i komputera.
Najczęściej przywoływana definicja robota zakłada, że jest on maszyną, która czuje, myśli i działa. Co więcej, działa w rzeczywistym, a nie symulacyjnym
środowisku. Innymi słowy, robot jest komputerem (jego zadanie to myślenie) wyposażonym w sensory (odpowiedzialne za odczuwanie) i efektory (działanie)6.
Rozumienie tych czynności nie jest bynajmniej oczywiste (dotyczy to w szczególności myślenia) i nie wszystkie urządzenia określane powszechnie robotami są
zdolne do ich wykonywania. Wyposażenie w sensory powoduje, że robot nie wymaga do funkcjonowania bezpośredniej interwencji człowieka (tak jak komputer
wymagający np. operacji na klawiaturze czy myszce), ale ma zdolność kierowania
się bodźcami płynącymi bezpośrednio ze środowiska. Efektory z kolei warunkują
zdolność do niecyfrowego oddziaływania na środowisko w przeciwieństwie do
K. Čapek, R.U.R.(Rossum’s Universal Robots), Nowy Jork 2004.
I. Asimov, Ja, Robot, Poznań 2013.
6
P. Lin, G. Bakey, K. Abney, Autonomous Military Robotics: Risk, Ethics, and Design, Waszyngton 2008, s. 101.
4
5
38
Społeczeństwo i Polityka Nr 4 (49)/2016
Robotyzacja wojny
komputera, który sam w sobie jest zdolny tylko do oddziaływania cyfrowego, czyli
manipulacji danymi. Robot jest natomiast zdolny do manipulacji obiektami fizycznymi.
Możliwość fizycznego oddziaływania na środowisko implikuje fakt, że robot
musi być albo ruchomy, albo ruchoma musi być jakaś jego część składowa. Nie
jest natomiast wymagana mobilność, czyli zdolność do przemieszczania się z jednej lokalizacji do drugiej, chociaż wiele robotów jest mobilnych. Jedne z pierwszych urządzeń określanych mianem robotów były właśnie stacjonarne. Maszyna
Unimate zaprojektowana w 1961 r. przez George’a Devola była w zasadzie programowanym ruchomym ramieniem, które znalazło zastosowanie przy produkcji
samochodów7.
Pierwsze roboty mobilne to Elmer i Elsie, żółwiokształtne urządzenia skonstruowane przez Williama Greya Waltera pomiędzy 1948 a 1949 r. Posiadały one
sensory (fotocele do lokalizowania światła i zderzaki do detekcji przeszkód) oraz
efektory (zdolność poruszania się). Urządzenia te więc czuły i działały, ale nie
myślały. Opierały się wyłącznie na wbudowanych schematach zachowań, takich
jak omijanie przeszkód czy kierowanie się w stronę światła. Ich funkcjonowanie
oparte było na prostej reaktywności – bodziec wprost wywoływał reakcję – nie
były więc robotami w pełnym znaczeniu tego słowa. Pierwszy raz architekturę
sense-think-act (inaczej zwaną sense-plan-act) zastosowano w robocie Shakey,
zbudowanym w Stanford Research Laboratories w 1969 r. W przeciwieństwie do
schematu, w którym bodziec wprost wywoływał reakcję, a sensory były bezpośrednio połączone z efektorami (bez etapu „myślenia”), Shakey opierał się na architekturze, w której sensory dostarczały sygnały do warstwy odpowiedzialnej za
„myślenie”. Moduł odpowiedzialny za myślenie, będący jedną z pierwszych aplikacji sztucznej inteligencji, nazwany został Stanford Research Institute Problem
Solver (STRIPS)8.
Czy maszyny mogą myśleć?
Pytanie „Czy maszyny mogą myśleć?” rozważane było już w słynnym artykule
Alana Turinga z 1950 r. pt. Computing Machinery and Intelligence9. Dokładne
określenie, czym jest albo może być myślenie istot innych niż ludzie, nadal jest
sprawą otwartą. Turing koncentrował się na zdolnościach komunikacyjnych, wychodząc z założenia, że używanie języka jest specyficzną cechą ludzi, więc i inne
istoty inteligentne powinny być zdolne do konwersacji. Takie podejście narażone
jest jednak na zarzut antropocentryzmu i prowokuje zasadne pytanie: czy inteligencja maszyn musi sprowadzać się do naśladownictwa ludzkiej inteligencji. Z punktu
G.E. Munson, The Rise and Fall of Unimation Inc., A story of robotics innovation & triumph
that changed the world, „Robot Magazine” 2010, http://www.botmag.com/the-rise-and-fall-of-unimation-inc-story-of-robotics-innovation-triumph-that-changed-the-world/ [dostęp: 30.09.2015].
8
M. Dawson, B. Dupuis, M. Wilson, From Bricks to Brains: The Embodied Cognitive Science
of LEGO Robots, Edmonton 2010, s. 199–203.
9
A. Turing, Computing Machinery and Intelligence, „Mind” 1960, nr 59/236, s. 433–460.
7
Społeczeństwo i Polityka Nr 4 (49)/2016
39
Rafał Kopeć
widzenia robotów stosowanych na polu walki zdolność do konwersacji nie wydaje
się bynajmniej cechą najistotniejszą.
Zakładając, że myślenie – niezależnie od tego, jak je zdefiniujemy – jest z pewnością czymś zdecydowanie bardziej skomplikowanym niż proste działanie oparte
na schemacie bodziec–reakcja (które można porównać do odruchów bezwarunkowych u istot żywych), moduł odpowiedzialny za myślenie powinien cechować się
trzypoziomową architekturą. Najniższa, reaktywna warstwa to proste zależności
typu bodziec–reakcja. Pośrednia dostarcza wglądu w warstwę reaktywną i umożliwia przekształcenia komend (z warstwy deliberatywnej) w działania. Z kolei najwyższa, deliberatywna warstwa jest rodzajem sztucznej inteligencji i odpowiada
za takie zadania, jak planowanie czy współpraca z ludźmi10.
Samo pojęcie sztucznej inteligencji, zaproponowane przez Johna McCarthy’ego
w 1956 r., jest niezwykle kontrowersyjne, zwłaszcza że wśród naukowców nie ma
zgody nawet co do tego, czym jest myślenie oraz inteligencja. Najczęściej przywołuje się w tym kontekście zdolność do adaptacji do nowych warunków i wykonywania nowych zadań, umiejętność dostrzegania zależności i relacji czy też
zdolność uczenia się11. Wcześniejsze rozumienie inteligencji sprowadzało się do
zdolności do przetwarzania informacji (jest to wszakże czynność, którą komputery
wykonują najlepiej), z tym że przetwarzania twórczego, noszącego znamiona abstrakcji, a nie czysto mechanicznego. Obecnie podkreśla się również konieczność
posiadania zdolności w sferze emocjonalnej.
W badaniach na temat sztucznej inteligencji wyróżniamy dwa nurty – silna
sztuczna inteligencja oraz słaba sztuczna inteligencja. Poglądy określane jako silna
sztuczna inteligencja zakładają, że odpowiednio zaprogramowany komputer jest
równoważny ludzkiemu umysłowi, a więc komputery myślą naprawdę, a nie tylko
symulują myślenie. Podstawą do takiego ujęcia jest kognitywistyczny pogląd, że
myślenie to w zasadzie manipulacja symbolami oparta na pewnych regułach (czyli
coś, w czym komputery są bardzo dobre)12. Komputer może się charakteryzować
stanami poznawczymi, a to, że na razie nie udało się takich komputerów skonstruować, nie znaczy, że jest to niemożliwe.
Daniel Dennet twierdzi, że zbudowanie myślącego, a nawet świadomego robota jest teoretycznie możliwe (sztuczny mózg jest z zasady tak samo możliwy,
jak sztuczne serce, tyle że znacznie bardziej skomplikowany), gdyż ludzie są swego rodzaju robotami – skomplikowanymi samokontrolującymi się, samodzielnie
podtrzymującymi swoje funkcjonowanie fizycznymi mechanizmami, działającymi
zgodnie z określonymi regułami, w przypadku ludzi analogicznymi do reguł kierujących funkcjonowaniem innych fizycznych procesów w bytach ożywionych, np.
P. Lin, G. Bakey, K. Abney, op.cit., s. 19.
K. Różanowski, Sztuczna inteligencja: rozwój, szanse, zagrożenia, „Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki” 2007, nr 2, s. 110.
12
A. Newell, H. Simon, Computer Science as Empirical Enquiry: Symbols and Search, „Communications of the ACM” 1976, nr 3/19, s. 113–126.
10
11
40
Społeczeństwo i Polityka Nr 4 (49)/2016
Robotyzacja wojny
procesami metabolicznymi13. Bariery niepozwalające na zbudowanie świadomych
maszyn mają charakter nie teoretyczny, ale przyziemny, ekonomiczny. Po prostu
będzie to kosztowało zbyt dużo.
Z kolei przykładem myślenia w duchu słabej sztucznej inteligencji jest zaprezentowany przez Johna R. Searle’a eksperyment myślowy, tzw. chiński pokój,
który ukazuje różnice między rozumieniem a zdolnością do manipulowania symbolami14. Bohater eksperymentu znajduje się w pokoju z napisami w języku chińskim i dysponuje instrukcją postępowania dotyczącą języka chińskiego, napisaną
w zrozumiałym dla niego języku. Po jej przyswojeniu jest w stanie dokonywać
manipulacji chińskimi symbolami, symulując znajomość chińskiego, choć tak naprawdę go nie zna. Tak właśnie mają funkcjonować komputery – jedynie symulują myślenie (tylko operują symbolami, czyli działają, opierając się na regułach
syntaktycznych), a nie myślą naprawdę, nie rozumieją sensu reguł (syntaktyka nie
prowadzi do semantyki, nie wyjaśnia znaczeń). Jest to tzw. problem nabierania
znaczeń przez symbole (symbol grounding problem)15. Według przedstawicieli
nurtu tzw. słabej sztucznej inteligencji komputery są zdolne tylko do symulowania
inteligencji.
Człowiek poza pętlą decyzyjną
Niezależnie od tego, jak zdefiniujemy myślenie, zakłada się, że jego nieodłącznym komponentem jest podejmowanie decyzji. Robot musi mieć więc zdolność
podejmowania decyzji i działania względem otoczenia – reagowania na otoczenie
i wpływania na nie. Jeśli więc przyjmiemy, że robotem jest maszyna, która czuje, myśli (w sensie refleksyjnym, a nie „mechanicznym”) i działa, wykluczamy
z tej grupy zarówno komputery (nie czują i nie działają w sensie fizycznym), jak
i proste maszyny, chociażby toster czy ekspres do kawy (niezależnie od definicji
myślenia oczywiste jest, że tej zdolności nie można im przypisać). Na tej samej
zasadzie za roboty nie mogą być uznane miny – są one co prawda autonomiczne,
charakteryzują się wrażliwością na bodźce zewnętrzne i możliwością reagowania
na nie (przez eksplozję), ale ich funkcjonowanie oparte jest na prostej zależności
bodziec–reakcja. Nie można jednak wykluczyć pojawienia się w przyszłości min
prawdziwie inteligentnych – wtedy będzie je można uznać za rodzaj robotów, zakładając, że do tej kategorii zaliczymy również urządzenia „samobójcze”, w których działanie oznacza zniszczenie urządzenia (o wątpliwościach w tym zakresie
w dalszej części tekstu).
Gdy rozważa się o robotach bojowych i kwestii ich demarkacji od innych rodzajów uzbrojenia, zamiast nieco abstrakcyjnej kwestii myślenia, bardziej użyteczną kategorią wydaje się kategoria autonomii. Zagadnienie autonomii jest również
13
D. Dennett, Consciousness in Human and Robot Minds, w: Cognition, Computation, and
Consciousness, red. M. Ito, Y. Miyashita, E.D. Rolls, Oxford 1997, s. 17–29.
14
J.R. Searle, Minds, Brains, and Programs, „The Behavioral and Brain Sciences” 1980, nr 3,
s. 417–424.
15
S. Harnad, The Symbol Grounding Problem, „Physica” 1990, nr 42, s. 335–346.
Społeczeństwo i Polityka Nr 4 (49)/2016
41
Rafał Kopeć
wieloaspektowe, ale w uproszczeniu można ująć, że jest to możliwość działania
w realnym środowisku bez zewnętrznej ingerencji (czyli w przypadku robotów,
bez ingerencji człowieka). Autonomia rozumiana jest albo jako krańcowa automatyzacja (automatyzacja zakłada transformację działania w zmechanizowane kroki,
które maszyna jest w stanie wykonać samodzielnie, autonomia to więc zdolność do
wykonania wszystkich lub prawie wszystkich kroków bez ingerencji operatora),
albo jako przeciwieństwo automatyzacji (systemy niepodążające po wyspecyfikowanej ścieżce, ale podejmujące własne decyzji, chociaż w oparciu określone reguły; ich zachowanie nie może być więc w pełni zaprogramowane i zakłada pewien
stopień elastyczności i nieprzewidywalności)16.
Maszyna w pełni autonomiczna będzie więc cechowała się zdolnością do
kształtowania swojego zachowania, które nie wypływa bezpośrednio ze sposobu
jej zaprogramowania oraz możliwością działania bez ingerencji operatora (human
out of the loop – wyeliminowanie człowieka z pętli decyzyjnej, rozumianej jako
pętla OODA obserwacja–orientacja–decyzja-działanie Johna Boyda17). Co więcej, typ funkcji, która ma być wykonywana autonomicznie, musi charakteryzować
się znacznym stopniem komplikacji (chociaż jest to kryterium mało precyzyjne)
– różne działania wymagają bowiem różnego poziomu zdolności poznawczych
maszyny18. W kontekście maszyn bojowych zadanie rozróżnienia samolotu od
celu pozornego jest znacznie prostsze niż rozróżnienie żołnierza od cywila. Z tym
pierwszym radzą sobie systemy samonaprowadzania rakiet przeciwlotniczych,
których nie traktuje się jako robotów (chociaż linia podziału nie jest tak wyraźna,
jak mogłoby się na pierwszy rzut oka wydawać), to drugie jest najpoważniejszym
wyzwaniem stojącym przed konstruktorami robotów autonomicznych i głównym
problemem praktycznym tzw. etyki robotów bojowych.
Wydawałoby się oczywiste, że wyeliminowanie człowieka z pętli decyzyjnej
niejako automatycznie oznacza, że nie ma go także na pokładzie autonomicznej
maszyny. W rzeczywistości ta zależność jest nieco bardziej skomplikowana. Teoretycznie robot nie musi być bezzałogowy. Można sobie wyobrazić robota, który
częściowo podejmuje własne decyzje, a częściowo – względem innych operacji
– podejmuje je znajdujący się na pokładzie operator. Z czasem, dzięki rozwojowi
technologii cyborgizacji, mogłoby dojść do zatarcia różnicy między człowiekiem
a maszyną. Obecnie ten „hybrydowy” sposób działania, także łączący decyzyjność
człowieka i maszyny, tyle że w znacznie mniej futurystycznym wydaniu, realizowany jest przez połączenie autonomii i zdalnego sterowania.
Oprócz robotów bezzałogowych, określanych jako unmanned (nieprzenoszących na pokładzie operatora bądź załogi, która steruje robotem), wyróżnia się także
roboty uninhabited („niezamieszkane”, bez człowieka na pokładzie). Te dwie ka16
D.G. Johnson, M.E. Noorman, Responsibility Practices in Robotic Warfare, „Military Review” 2014, maj–czerwiec, s. 14–16.
17
W.C. Marra, S.K. McNeil, Understanding “the Loop”: Regulating the Next Generation of
War Machines, „Harvard Journal of Law & Public Policy” 2012, nr 36, s. 1139–1185.
18
P. Scharre, op.cit., s. 13.
42
Społeczeństwo i Polityka Nr 4 (49)/2016
Co jest, a co nie jest robotem bojowym?
Roboty bojowe można traktować jako kolejne ogniwo rozwoju tzw. broni inteligentnej (smart weapnon). Wszak posiadanie inteligencji i zdolność do myślenia są wyróżnikiem robotów. Określenie „broń inteligentna” jest pojęciem o nieco
rozmytym znaczeniu, zdecydowanie bardziej precyzyjny charakter ma określenie
precision-guide munition (PGM) – amunicja precyzyjnego rażenia, dosłownie
amunicja precyzyjnie kierowana. Pod tą nazwą kryje się broń, która używa układu
poszukującego do namierzenia energii będącej odbiciem celu lub punktu celowania, przetwarzając ją w komendy kierujące broń do celu20.
W przypadku broni inteligentnej kluczowy jest więc system kierowania. Wyróżniamy trzy rodzaje systemów kierowania: programowe (pocisk porusza się
po zaprogramowanej wcześniej trasie), zdalne kierowanie (według sygnałów zewnętrznych) oraz samonaprowdzanie. W tym ostatnim przypadku broń (zazwyczaj pocisk) działa w sposób autonomiczny. Pojawia się dylemat, czy pocisk (np.
przeciwlotniczy), który wykorzystuje metodę samonaprowadzania, można określić
mianem robota (co więcej, robota autonomicznego). Broń korzystająca z samonaprowadzania jest przecież obrazowo określana jako broń fire & forget, czyli „odpal
i zapomnij”, co ma podkreślać zdolność do działania w trybie autonomicznym, bez
ingerencji człowieka.
Przedstawienie precyzyjnej linii podziału między amunicją precyzyjnego rażenia a robotami bojowymi rodzi wiele kontrowersji. Z punktu widzenia definicji
robota pociski, które są wystrzeliwane bez wskazania konkretnego celu, lecz same
podejmują decyzję o jego wyborze, mogą być uznane za rodzaj robota bojowego21.
Pociski korzystające z samonaprowadzania są bowiem zdolne do podejmowania
autonomicznych decyzji, przede wszystkim w zakresie wyboru celu. Co prawda,
pociski samonaprowadzające bliskiego zasięgu, np. przeciwpancerne, wystrzeliwane są zazwyczaj w trybie lock-on before launch (LOBL), gdzie wyboru celu
dokonuje operator przed odpalaniem, natomiast w przypadku pocisków o większym zasięgu, np. przeciwlotniczych czy przeciwokrętowych, wystrzeliwuje się je
Robotyzacja wojny
tegorie nie są tożsame. Projektuje się już bowiem roboty, które byłyby bezzałogowe (autonomiczne lub zdalnie sterowane), ale nie uninhabited. Na pokładzie nie
byłoby załogi obsługującej robota, ale mógłby on przewozić ludzi, np. służyć do
ewakuacji rannych (bezzałogowa wersja śmigłowca K-MAX przeszła w 2015 r.
pierwsze testy w realizacji tego typu operacji19).
19
B. Stevenson, K-MAX carries out medical evacuation demo, Flightglobal, https://www.
flightglobal.com/news/articles/auvsi-k-max-carries-out-medical-evacuation-demo-411880/ [dostęp:
28.10.2015].
20
Ch. B. Puckett, In this era of “smart weapon”. Is a state under an international legal obligation to use precision-guided technology in armed conflict, „Emory International Law Review” 2004,
nr 18/2, s. 648.
21
R. Crootof, The killer robots are here: legal and policy implications, „Cardozo Law Review”
2015, nr 36/5, s. 1848.
Społeczeństwo i Polityka Nr 4 (49)/2016
43
Rafał Kopeć
w rejon spodziewanej obecności celu, zakładając, że z kolejnymi etapami rakieta
poradzi sobie samodzielnie (tryb lock-on after launch – LOAL). Przykładem może
być atak przeprowadzony przez Argentyńczyków w czasie wojny o Falklandy.
25 maja 1982 r. dwa pociski Exocet typu woda-woda, zostały wystrzelone w kierunku zgrupowania brytyjskiej floty. Argentyńczycy mieli nadzieję na porażenie
flagowego okrętu przeciwnika, lotniskowca HMS Hermes, ale pociski „dokonały
własnego wyboru”, naprowadzając się na cel, który nie emitował zakłóceń elektromagnetycznych – transportowiec MV Atlantic Conveyor22. Do samodzielnego
wyboru celów są również zdolne artyleryjskie pociski przeciwpancerne 155 mm
Bonus i SMArt, które nadlatują w rejon, w którym znajdować się ma zgrupowanie
przeciwnika, po czym samodzielnie wykrywają cel i naprowadzają się na niego.
Niektóre definicje robota dodają więc kolejne wymaganie, które pozwoliłoby
na rozróżnienie robotów od broni z układem samonaprowadzania – możliwość
wielokrotnego użycia23. O mglistej granicy między tymi rodzajami broni świadczy istnienie bezzałogowych aparatów latających Harop i Harpy, produkowanych
przez izraelską firmę IAI. Tryb ich działania zakłada patrolowanie wskazanego
rejonu i naprowadzenie się na źródło wrogiej emisji elektromagnetycznej24. W zasadzie są one więc rodzajem przeciwradiolokacyjnego pocisku manewrującego,
wyróżniającego się spośród innych tego rodzaju pocisków nietypowym napędem
(tłokowy silnik spalinowy zamiast silnika rakietowego), niewielką prędkością lotu
i długim czasem patrolowania. Określane są one jednak jako Unmanned Aerial
Vehicle (UAV), czyli bezzałogowe statki latające. Aparaty tego rodzaju, nazywane
powszechnie dronami, przywoływane są obecnie właśnie w kontekście robotyzacji
pola walki i określane jako forpoczta tego trendu, choć ze względu na jednorazowość powinny być raczej zaliczone do bardziej tradycyjnych rodzajów broni
(a właściwie amunicji) precyzyjnie kierowanej.
Z konstrukcyjnego punktu widzenia powtarzalność użycia wydaje się być dobrym kryterium różnicującym systemy cechujące się autonomicznością i elastycznością, ale używane tylko do misji „samobójczych”, od robotów w pełnym znaczeniu tego słowa. Z drugiej jednak strony, z punktu widzenia tzw. etyki robotów,
czyli np. zgodności ich stosowania z kryteriami międzynarodowego prawa humanitarnego, jest to kwestia absolutnie bez znaczenia. Zakładając hipotetyczną sytuację spowodowania ofiar wśród ludności cywilnej wskutek błędnej decyzji podjętej przez system autonomiczny, fakt, czy decyzję tę podjął system jednorazowy czy
system wielokrotnego użytku, wydaje się kwestią absolutnie marginalną.
Dlaczego więc w przypadku dotychczas skonstruowanych i użytkowych systemów autonomicznych (czyli pocisków samonaprowadzających zdolnych do saN. Polmar, Aircraft Carriers: A History of Carrier Aviation and Its Influence on World Events,
Volume II: 1946–2006, Waszyngton 2008, s. 322.
23
N. Sharkey, Saying ‘No?’ to Lethal Autonomous Targeting, „Journal of Military Ethics” 2010,
nr 9/4, s. 370.
24
B.J. Cobb, Adaptive Discrete Event Simulation for Analysis of Harpy Swarm Attack, Naval
Postgraduate School – Monterey, California, s. 3–5, http://www.dtic.mil/dtic/tr/fulltext/u2/a552529.
pdf [dostęp: 30.10.2015].
22
44
Społeczeństwo i Polityka Nr 4 (49)/2016
Robotyzacja wojny
modzielnego wyboru celów) nie pojawiają się kontrowersje związane z możliwością utraty kontroli nad działaniami tego rodzaju urządzenia? Być może z powodu
względnej prostoty tych systemów. Wymagania stawiane autonomicznym robotom
bojowym, a co za tym idzie – obawy z nimi związane, są jednak dużo większe.
Zakłada się, że będą one zdolne do podejmowania znacznie bardziej złożonych
decyzji niż w przypadku obecnie istniejących systemów autonomicznych (np. będą
zdolne do rozróżnienia żołnierzy od ludności cywilnej).
Dylemat dotyczący złożoności podejmowania decyzji nie znalazł dotychczas
jednoznacznego rozstrzygnięcia. Nie ma zgody, czy systemy przeciwlotnicze
zdolne do działania w trybie autonomicznym i charakteryzujące się dużymi możliwościami przetwarzania danych – zdolne do wyszukiwania i śledzenia celów,
klasyfikacji zagrożeń, podjęcia decyzji o otwarciu ognia oraz do prowadzenia i korygowania ognia – są robotami. Czy działanie podejmowane przez taki system jest
wystarczająco skomplikowane, by mówić o autonomii zamiast o automatyzacji?
O tym, że tego typu systemy już dawno posiadły możliwość podejmowania decyzji wpływających na ludzkie życie, świadczy omyłkowe zestrzelenie irańskiego
samolotu pasażerskiego z 290 osobami na pokładzie przez amerykański krążownik
USS Vincennes 3 lipca 1988 r. System kierowania ogniem Aegis, w jaki wyposażony był okręt, sklasyfikował samolot jako irański myśliwiec i, obawiając się, że
podejmuje on próbę ataku na jednostkę, zdecydował o odpaleniu rakiet przeciwlotniczych SM-2MR. Co prawda, załoga okrętu miała możliwość zmiany tej decyzji, jednak zdała się ona na błędną, jak się okazało, ocenę dokonaną przez system
komputerowy25.
Zmiana reguł gry
Obecną sytuację robotów porównać można do sytuacji czołgów podczas I wojny światowej. Jedne i drugie są rewolucyjną technologią znajdującą się na początku drogi rozwojowej. Obecnie egzystują w niszy, ale mają ogromny potencjał,
by stać się technologią zdolną zmienić reguły gry na polu walki (game-changing
technology). By tak się stało, dokonać musi się nie tylko przełom w zakresie dojrzałości technicznej, ale także w sferze doktrynalnej. Historia czołgów dostarcza
aż nadto wymownego przykładu, że kraj, który jako pierwszy skonstruuje i zastosuje na polu walki dany rodzaj broni, nie musi automatycznie być tym, który
z powodzeniem wykorzysta jego możliwości. W przypadku czołgów Brytyjczycy,
mimo pionierskich doświadczeń z I wojny światowej, z powodu doktrynalnego
marazmu czasu międzywojnia, dali się pod tym względem wyprzedzić Niemcom.
W zakresie robotów prym wiodą obecnie armie amerykańska i izraelska, otwarte
jednak pozostaje pytanie, kto pierwszy opracuje całościową doktrynę wykorzystania robotów na polu walki. Oprócz kwestii technicznych i doktrynalnych należy
G.I. Rochlin, Iran Air Flight 655 and the USS Vincennes. Complex, Large-Scale Military
Systems and the Failure of Control, w: Social Responses to Large Technical Systems, Control and
Anticipation, red. T.R. La Porte, Berkeley 1989, s. 99–125.
25
Społeczeństwo i Polityka Nr 4 (49)/2016
45
Rafał Kopeć
pokonać opór przed radykalnymi zmianami, typowy dla, z natury konserwatywnych, organizacji militarnych. Historia wojskowości dostarcza wielu przykładów,
gdy rewolucyjne rodzaje uzbrojenia musiały sobie torować drogę wśród uprzedzeń
kasty oficerskiej (np. zastąpienie żaglowców parowcami czy koni pojazdami mechanicznymi). Dodatkowym czynnikiem opóźniającym rozwój nowych technologii jest zasadna obawa przed tzw. overinnovation – techniczną innowacją, która
mimo wielkich nadziei okaże się, z taktycznego punktu widzenia, w najlepszym
razie niszą, a w najgorszym – ślepą uliczką. Przykładami mogą być dwusilnikowe
myśliwce (tzw. samoloty pościgowe) pod koniec lat 30. czy tzw. czołgi rakietowe
rozwijane w USA i ZSRR w latach 60. XX w.
Potencjalna robotyzacja pola bitwy rozważana jest przede wszystkim z punktu
widzenia niezaprzeczalnych zalet wynikających z możliwości robotów. Podstawową i niejako oczywistą korzyścią jest wyeliminowanie ryzyka dla żołnierzy. Nieprzypadkowo jednym z pierwszych militarnych zastosowań urządzeń określanych
powszechnie jako roboty (chociaż ze względu na wykorzystanie zdalnego sterowania nie zawsze spełniających definicyjne kryteria robota) są operacje o najwyższym stopniu ryzyka, czyli rozpoznanie lotnicze nad terytorium nieprzyjaciela oraz
neutralizacja min i innych urządzeń wybuchowych.
Kolejną zaletą jest możliwość projektowania maszyn o lepszych osiągach.
Największe możliwości w tym zakresie rysują się przed bezzałogowymi statkami
powietrznymi. Wyeliminowanie pilota pozwala konstruować maszyny charakteryzujące się nieosiągalną dla maszyn załogowych długotrwałością lotu (przykładowo Northrop Grumman RQ-4 „Global Hawk” jest zdolny do wykonywania lotów
trwających powyżej 33 godzin26), a także zdolnością do wykonywania manewrów
z niespotykanymi w maszynach załogowych przeciążeniami (to jak dotychczas
możliwość).
Do pewnego stopnia zaletami tymi wykazywać mogą się już maszyny zdalnie sterowane. I rzeczywiście, obecnie wykorzystywane drony, osiągające długotrwałość lotu rzędu kilkunastu, kilkudziesięciu godzin, są najwyżej częściowo
autonomiczne. Przykładowo, Predatory i Reapery zdolne są do wykonania samodzielnego startu i lądowania, a także do nawigowania w trybie autonomicznym,
jednak bardziej skomplikowane działania, zwłaszcza związane z wykorzystaniem
uzbrojenia, realizowane są w trybie zdalnego sterowania lub w trybie nadzoru27.
Taki „hybrydowy” system kierowania wydaje się optymalny zarówno z powodu
ograniczeń technologicznych w zakresie rozwoju sztucznej inteligencji, jak i z powodów etycznych – oporu przed powierzeniem maszynie decyzji w sprawie życia i śmierci. Nie znaczy to jednak, że nie ma on słabości. Najpoważniejszą jest
możliwość zakłócenia kanałów łączności albo wręcz przejęcia kontroli nad nimi
26
R. Coppinger, Northrop Grumman Global Hawk Block 20 achieves 33h endurance, Flightglobal, https://www.flightglobal.com/news/articles/northrop-grumman-global-hawk-block-20-achieves33h-e-222768/ [dostęp: 30.10.2015].
27
W.C. Marra, S.K. McNeil, op.cit., s. 1159–1160.
46
Społeczeństwo i Polityka Nr 4 (49)/2016
Robotyzacja wojny
przez przeciwnika28. Najprawdopodobniej taki scenariusz udało się zrealizować
Irańczykom, którzy sprowadzili na ziemię i przejęli w stanie praktycznie nieuszkodzonym amerykański rozpoznawczy dron RQ-170 „Sentinel”29.
Kolejną wadą zdalnego sterowania i motywacją do rozwoju systemów autonomicznych jest opóźnienie w przesyle komend kierowania. W przypadku łącz satelitarnych, a tylko takie umożliwiają sterowanie o zasięgu globalnym, opóźnienie
to wynosi ok. jednej sekundy. Nie jest to duży problem, gdy chodzi o stosunkowo
proste misje rozpoznawcze, natomiast praktycznie eliminuje ono możliwość skutecznego prowadzenia walk powietrznych przeciwko maszynom załogowym. Dodatkowo dochodzą problemy z „czuciem” maszyny, które w sposób oczywisty jest
wyeliminowane w przypadku zdalnego sterowania (brak oporu i informacji zwrotnej na drążku sterownym, brak odczuwania wibracji czy ruchów powietrza)30.
W przypadku maszyn mających zastąpić samoloty myśliwskie rozwiązaniem wydaje się być tylko ich maksymalna autonomizacja, tak by kluczowe decyzje były
podejmowane na pokładzie maszyny, przez układ sztucznej inteligencji, a nie przez
operatora usytuowanego poza maszyną.
Według części ekspertów autonomiczne roboty bojowe mogą potencjalnie stanowić rozwiązanie błędnego koła, w które zapędzili się twórcy wielu współczesnych rodzajów uzbrojenia – ogromnego wzrostu kosztów jednostkowych broni
(trend ten opisywany jest przez prawo Augustine’a31). W efekcie nowoczesne,
ale i niezwykle kosztowne uzbrojenie produkuje się w znacznie krótszych seriach
niż kiedyś. Najłatwiej trend ten zaobserwować na przykładzie tzw. major combat
platforms, czyli np. samolotów czy czołgów. Co prawda, od czasów informatycznej rewolucji w sprawach wojskowych (Revolution in Military Affairs, RMA)32
uznaje się prymat jakości kosztem ilości, ale założenie to nie w każdym przypadku
się sprawdza, a przewaga jakościowa może okazać się niewystarczająca. W sytuacji, gdy jakość przestaje być domeną armii zachodnich, a nowoczesne uzbrojenie
podlega procesowi proliferacji, postuluje się powrót do większej liczby platform
charakteryzujących się niższym kosztem jednostkowym33. Miałoby to stać się
możliwe właśnie dzięki zrobotyzowanym platformom autonomicznym. Co więcej,
dzięki autonomizacji można byłoby kontrolować dużą liczbę platform z pomo28
A. Kim i in., Cyber Attack Vulnerabilities Analysis for Unmanned Aerial Systems, American
Institute of Aeronautics and Astronautics, https://engineering.purdue.edu/HSL/uploads/papers/cybersecurity/cyber-attack-lit-review.pdf [dostęp: 30.10.2015].
29
K. Hartman, Ch. Steup, The Vulnerability of UAVs to Cyber Attacks – An Approach to the
Risk Assessement, NATO CCD COE Publications, s. 7–8, https://ccdcoe.org/cycon/2013/proceedings/d3r2s2_hartmann.pdf [dostęp: 30.10.2015].
30
L. Wallace, Remote Control: Flying a Predator, Flying Magazine, http://www.flyingmag.com/
pilot-reports/turboprops/remote-control-flying-predator [dostęp: 30.10.2015].
31
N.R. Augustine, Augustine’s Law, Nowy Jork 1987.
32
R. Kopeć, Revolution in Military Affairs as Technology-Driven Change in Military Operation, w: Encyclopedia of Information Science and Technology, Third Edition, red. M. Khosrow-Pour,
Hershey 2014, s. 6534–6542.
33
P. Scharre, op.cit., s. 13.
Społeczeństwo i Polityka Nr 4 (49)/2016
47
Rafał Kopeć
cą stosunkowo niewielkiej liczby żołnierzy, co też przyczyniłoby się do redukcji
kosztów.
Wojna bez ryzyka
Roboty bojowe już stały się elementem zbiorowej wyobraźni, chociaż jeszcze nie osiągnęły stadium autonomii. Traktowane są one często jako symbol
zła oraz arogancji zachodnich społeczeństw. Przede wszystkim przywołuje się
w tym kontekście operacje realizowane z wykorzystaniem uzbrojonych dronów, określane jako selektywna eliminacja (targeted killing) osób podejrzanych
o działalność terrorystyczną. Działania takie traktuje się jako wojnę prowadzoną
z wygodnego fotela (armchair warfare)34, a operatorów oskarża się – chyba nie
do końca słusznie – o prezentowanie tzw. mentalności play station35. Zakłada
ona, że operatorzy sterujący dronami z bezpiecznych baz w Stanach Zjednoczonych postrzegają rzeczywistość na podobieństwo gry komputerowej i prezentują
w związku z tym nadmierną tendencję do szybkiego i często bezrefleksyjnego
otwierania ognia.
Wykorzystanie robotów może być uznane za przejaw tzw. risk-transfer militarism, czyli wojen prowadzonych w taki sposób, by maksymalnie ograniczyć ryzyko dla własnych żołnierzy, przerzucając go na inne podmioty36. Minimalizacja
strat własnych stała się centralnym imperatywem działań wojennych prowadzonych przez społeczeństwa zachodnie od czasów Pustynnej Burzy, która wyznaczyła niezwykle wyśrubowane standardy w tej dziedzinie (148 ofiar po stronie koalicji
antyirackiej w działaniach bojowych37). Dążenie do eliminacji ryzyka wyrażało
się dotychczas w takich działaniach, jak ograniczenie się do ofensywy powietrznej
(Jugosławia 1999), przerzucenie działań wojennych na lądzie na lokalnych sojuszników (pierwsza faza operacji w Afganistanie), wykorzystanie prywatnych firm
wojskowych (PMC, private military contractors – działanie typowe dla wojny
w Iraku). Roboty bojowe wydają się idealnie predestynowane do pełnienia roli
kluczowego narzędzia wojen o zminimalizowanym ryzyku w przyszłości.
Dążenie do minimalizacji ryzyka to przejaw tzw. mentalności postheroicznej.
Taką mentalność prezentują, według Edwarda Luttwaka, społeczeństwa zachodnie
– społeczeństwa obawiające się walczyć i ginąć, w których nastąpił upadek etosu wojownika38. Żołnierze armii zachodnich to nie wojownicy, lecz dobrze opłaJ. Olson, M. Rashid, Modern Drone Warfare: An Ethical Analysis, American Society for Engineering Education Southwest Section Conference, s. 2, http://se.asee.org/proceedings/ASEE2013/
Papers2013/157.PDF [dostęp: 30.10.2015].
35
G. Simons, Drone Diplomacy, „The Link” 2011, nr 44(2), s. 11.
36
M. Shaw, Risk-transfer militarism, small massacres and the historic legitimacy of war, „International Relations” 2002, nr 16(3), s. 343–360.
37
The Encyclopedia of Middle East Wars. The United States in the Persian Gulf, Afghanistan,
and Iraq Conflicts, red. T.C. Spencer, Santa Barbara 2010, s. 470.
38
E.N. Luttwak, Toward Post-Heroic Warfare: The Obsolescence of Total War, „Foreign
Affairs” 1995, nr 74(3), s. 109–123.
34
48
Społeczeństwo i Polityka Nr 4 (49)/2016
Robotyzacja wojny
cani, ukierunkowani na własne kariery profesjonaliści. Co więcej, są oni częścią
społeczności charakteryzujących się gwałtownym spadkiem dzietności, w których
typowe jest posiadanie jednego, najwyżej dwojga dzieci, których śmierć jest dla
rodziny niewyobrażalną tragedią39. To powoduje, że społeczeństwa te są wyjątkowo czułe na straty własne.
Prowadzenie wojen pozbawionych ryzyka śmierci, jeśli w ogólne jest możliwe, pociągnie trudne do przewidzenia następstwa o charakterze psychologicznym.
W wymiarze taktycznym zakłada się, że wykorzystanie robotów pozwoli na bardziej racjonalne działanie przez wyeliminowanie czynnika strachu przed utratą
życia. Panika we własnych szeregach była wszakże jedną z kluczowych przyczyn
przegrywania bitew. Co więcej, wielowymiarowe oddzielenie żołnierza od zabijania (w wymiarze przestrzennym, czasowym, a nawet w pewnym stopniu moralnym
– przez przerzucenie decyzji na autonomiczne maszyny) pozwoli uniknąć awersji
do zabijania, która jest ważnym czynnikiem obniżającym skuteczność, zwłaszcza
w sytuacji, gdy żołnierz bezpośrednio obserwuje swoją ofiarę40.
W wymiarze strategicznym pojawiają się zarzuty, że możliwość prowadzenia
wojny zrobotyzowanej przyczyni się do obniżenia bariery przed podjęciem decyzji
o rozpoczęciu konfliktu zbrojnego41. Argumentacja taka, choć w zasadzie logiczna
i oparta na oczywistych przesłankach (im mniejsze ryzyko, tym łatwiejsza decyzja), prowadzić jednak może do nonsensownych wniosków.
Wszak cały rozwój techniki wojskowej sprowadza się do tego, by zmniejszyć
własne straty i ułatwić zabijanie wroga. Robotyzacja nie jest w tym względzie
żadną nowością. Nie wydaje się, że wpływ tej tendencji na polityków będzie znacząco różnił się od wpływu innych technologii dających przewagę (lub jej iluzję),
chyba że entuzjastom robotyzacji uda się „sprzedać” obraz wojny zrobotyzowanej
jako aktywności absolutnie bezpiecznej dla własnej armii i społeczeństwa. O tym,
że nie jest to zupełnie wykluczone, świadczy przykład wpływu wizji konfliktu
prowadzonego zgodnie z duchem tzw. sieciocentrycznego pola walki na decyzję
o wojnie w Iraku w 2003 r.42 Do tej decyzji przyczyniły się nierealistyczne oczekiwania co do prowadzenia wojny chirurgicznej, „czystej”, w skrajnej postaci wręcz
pozbawionej niepewności, Clausewitzowskich „mgły i tarcia”, sprowadzającej się
do tzw. operacji o zamierzonych skutkach (Effect-Based Operations)43. Idąc jednak tym tokiem rozumowania, nie powinnyśmy robić nic, co uczyniłoby wojnę
bardziej „strawną” w obawie przed obniżeniem bariery podjęcia decyzji o wojnie.
Sprowadzając rzecz do absurdu, powinniśmy wręcz uczynić wojnę tak brutalną,
39
Ch. Coker, Waging War Without Warriors? The Changing Culture of Military Conflict, Boulder 2002, s. 61–82.
40
D. Grossman, O zabijaniu. Psychologiczny koszt kształtowania gotowości do zabijania w czasach wojny i pokoju, Warszawa 2010, s. 185–189.
41
P.M. Asaro, How Just Could a Robot War Be?, w: Current Issues in Computing and Philosophy, red. P. Brey, A. Briggle, K. Waelbers, Amsterdam 2008, s. 56–58.
42
M.R. Gordon, B.E. Trainor, Cobra II: The Inside Story of the Invasion and Occupation of Iraq,
Nowy Jork 2006, s. 6.
43
M.N. Vego, Effect-Based Operations: A Critique, „Joint Forces Quarterly” 2006, nr 41, s. 51–57.
Społeczeństwo i Polityka Nr 4 (49)/2016
49
Rafał Kopeć
jak to tylko możliwe, dzięki czemu nikt nie będzie się chciał w nią angażować,
dopóki naprawdę nie będzie to wybór ostateczny (last resort)44.
Zakładając realistyczne oczekiwanie, że wojna zrobotyzowana może ograniczyć, ale nie wyeliminować własne straty, trudno wymagać, by strona dysponująca
taką technologią wystawiała swoich żołnierzy na ryzyko większe niż to konieczne
tylko po to, by walka była równiejsza, bardziej „honorowa”. Nie uważamy wykorzystywania przewagi (nie tylko technologicznej, lecz także innej, np. liczebnej)
za niemoralne, a wręcz odwrotnie – uznalibyśmy za niemoralne, gdyby państwo
nie wykorzystało posiadanej przewagi, by chronić swoich obywateli45. Dla społeczeństw zachodnich to właśnie odwoływanie się do przewagi technologicznej jest
charakterystycznym elementem. Jest ono uważane za jeden z typowych przejawów
tzw. zachodniego sposobu prowadzenia wojen46. Koncepcja „sposobu prowadzenia wojen” zakłada, że sposób wojowania jest odzwierciedleniem kultury danego
społeczeństwa i można wyodrębnić pewne szczególne, względnie trwałe cechy typowe dla danych społeczeństw i ich organizacji militarnych47. Wojny prowadzone
przez Zachód prezentują generalnie model kapitałochłonny, a nie „ludzkochłonny”, chętnie odwołując się do zdobyczy nauki i techniki dla uzyskania przewagi.
Robotyzacja jawi się jako kolejne ogniwo tego procesu.
Zachodni sposób prowadzenia wojen zderza się ze sposobami wywodzącymi się
z innych kręgów kulturowych (co obecnie jest szczególnie widoczne, chociaż analizując historię wojen, nie jest to żaden wyjątek). Często sposoby te zakładają inne
niż przewaga technologiczna środki budowania przewagi militarnej, często charakteryzują się również zupełnie odmiennym podejściem do uznawania pewnych
działań za moralnie uzasadnione lub też godne potępienia. Robotyzacja w starciu
z fundamentalizmem islamskim stanowi podwójne wyzwanie. Po pierwsze, uznawana jest za objaw tchórzostwa Zachodu, za niehonorową formę walki i przejaw
arogancji społeczeństw zachodnich. Po drugie, jeśli rzeczywiście doszłoby do wojny, w której jedną stronę reprezentowałyby tylko roboty i przeciwnik nie mógłby
zabijać żołnierzy (pewne cechy tego typu konfliktu mają operacje typu targeted
killing), akty terroryzmu stałyby się uzasadnione zarówno moralnie, jak i instrumentalnie. Skoro bogate i technologicznie zaawansowane społeczeństwo „schowało się” za robotami, atakowanie jego członków, w tym cywili, jest po pierwsze,
jedyną dostępną opcją, po drugie zaś – „sprawiedliwą karą”48.
Postępująca robotyzacja doprowadzi również do pojawienia się trudnych w tej
chwili do przewidzenia asymetrycznych środków walki. Przypuszczać można, że
nasilą się działania zaliczane do obszaru tzw. lawfare. Zakłada on stosowanie prawa humanitarnego jako środka walki, np. wykorzystanie wiedzy o regułach otwarP. Lin, G. Bakey, K. Abney, Robots in War: Issues of Risk and Ethics, w: Ethics and Robotics,
red. R. Capurro, M. Nagenborg, Amsterdam 2009, s. 57.
45
P.M. Asaro, op.cit., s. 63.
46
R. Kopeć, Rewolucja w sprawach wojskowych w kontekście zachodniego sposobu prowadzenia wojen, „Kultura i Polityka” 2014, nr 16, s. 66–67.
47
J. Keegan, History of Warfare, Londyn 1993, s. 12.
48
P.M. Asaro, op.cit., s. 63.
44
50
Społeczeństwo i Polityka Nr 4 (49)/2016
Robotyzacja wojny
cia ognia do budowania taktycznej przewagi49. Lawfare może objawiać się w wykorzystaniu osób uznawanych powszechnie za niewalczące, np. kobiet i dzieci, do
dokonywania ataków przy założeniu, że reguły prawa humanitarnego uniemożliwią albo chociaż utrudnią przeciwdziałanie im. Ewentualnie można specjalnie
sprowokować ofiary wśród ludności cywilnej i wykorzystać ten fakt propagandowo (za przykład mogą posłużyć działania Hamasu, który ostrzeliwał terytorium
Izraela ze Strefy Gazy, instalując wyrzutnie na obiektach cywilnych; celem było
sprowokowanie uderzenia odwetowego Izraela, które spowodowałoby ofiary cywilne; gdy Izrael zastosował taktykę „pukania w dach”, wystrzeliwując wcześniej
„ostrzegawczy” pocisk pozbawiony głowicy bojowej, bojownicy Hamasu rzekomo zakazywali dokonywania ewakuacji ludności cywilnej z obiektów, które za
chwilę miały być ostrzelane50). W przypadku zastosowania robotów autonomicznych można wyobrazić sobie zintensyfikowanie ataków z wykorzystaniem cywilów przy założeniu, że algorytm robota nie pozwoli na otwarcie ognia do takiego
celu. Innym hipotetycznym scenariuszem jest wykorzystanie dzieci zaopatrzonych
w atrapy broni, czyli de facto nieuzbrojonych, po to tylko, by sprowokować robota do otwarcia ognia i wykorzystać propagandowo fakt zabicia osób nieletnich
i nieuzbrojonych. Obecnie trwają prace nad „komputerową moralnością”, czyli
systemami sterującymi dla robotów uwzględniającymi zagadnienia etyczne, czyli
przede wszystkim międzynarodowe prawo humanitarne konfliktów zbrojnych oraz
reguły otwarcia ognia, ale mówi się także o wbudowanym poczuciu winy51. Przeważają jednak obawy, że w warunkach konfliktów asymetrycznych, bez wyraźnej
linii frontu, z niewyraźnym podziałem na wrogów i przyjaciół oraz płynną granicą
między walczącymi a niewalczącymi, robotom zabraknie intuicji moralnej, która
cechuje tylko ludzi, nawet jeśli czasami ich zawodzi. Koncepcja „etycznego robota” jawi się więc jako przejaw fałszywej antropomorfizacji52.
Wnioski
Definicja robota pozornie wydaje się prosta i jednoznaczna – to maszyna, która
czuje, myśli i działa. Gdy przeanalizuje się ten termin nieco bardziej dogłębnie, sytuacja przestaje być oczywista. Pierwsza i zasadnicza trudność pojawia się już przy
próbie określenia, na czym polega proces myślenia maszyn. Bardziej użyteczną
49
P.W. Singer, Wired for War. The Robotics Revolution and Conflict in the 21st Century, Nowy
Jork 2010, s. 402; S. Magnuson, Robo Ethics. Debate over rules, legality of robots on the battlefield
lagging, expert say, „National Defence” 2009, nr 11, s. 29.
50
S. Erlanger, A Gaza War Full of Traps and Trickery, „New York Times”, 10 stycznia 2009,
http://www.nytimes.com/2009/01/11/world/middleeast/11hamas.html?partner=permalink&expro
d=permalink&_r=0 [dostęp: 17.11.2015]; R. Czulda, Operacja „Protective Edge” w Strefie Gazy,
„Nowa Technika Wojskowa” 2014, nr 10, s. 66.
51
R. Arkin, Governing Lethal Behavior: Embedding Ethics in a Hybrid Deliberative/Reactive
Architecture, Georgia Institute of Technology, http://www.cc.gatech.edu/ai/robot-lab/online-publications/formalizationv35.pdf, s. 72–75 [dostęp: 30.10.2015].
52
N.E. Sharkey, The evitability of autonomous robot warfare, „International Review of the Red
Cross” 2012, nr 94(886), s. 783.
Społeczeństwo i Polityka Nr 4 (49)/2016
51
Rafał Kopeć
kategorią demarkacyjną jest więc autonomia, chociaż również ona nie jest wolna
od niejednoznaczności.
Autonomicznym robotem bojowym będzie maszyna, która jest w stanie samodzielnie podejmować decyzje o wyborze i porażeniu celów. Dylemat dotyczący
złożoności tych decyzji nie znalazł jednak dotychczas jednoznacznego rozstrzygnięcia. Pojawienie się i upowszechnienie maszyn zdolnych do podejmowania decyzji dotyczących życia i śmierci ludzi zmieni obraz pola bitwy. Ten proces już się
rozpoczął (i mamy już pierwsze ofiary decyzji podjętych przez komputery), jednak dotychczas obejmował decyzje stosunkowo proste oraz, co ważne, dotyczące
działań podejmowanych w obronie. Wydaje się, że pojawienie się autonomicznych
robotów bojowych zdolnych do realizacji zadań ofensywnych o wysokim stopniu
komplikacji będzie momentem, w którym będzie można mówić o prawdziwej rewolucji.
Chociaż robotyzacja niesie za sobą rozliczne możliwości (np. zwiększenie osiągów platform bezzałogowych), zasadniczą zaletą i czynnikiem napędzającym rozwój robotów bojowych jest wyeliminowanie ryzyka dla żołnierzy. Taki sposób prowadzenia wojny (określany jako post-human warfare53) może pociągnąć za sobą
konsekwencje natury politycznej (w tym możliwość zmniejszenia bariery przed
rozpoczęciem działań wojennych), a także kulturowej. Zakładając, że sposób prowadzenia wojny w pewnym sensie stanowi odzwierciedlenie kultury charakterystycznej dla danego społeczeństwa, robotyzacja – z jej dążeniem do minimalizacji
strat własnych i oparcia przewagi na czynniku technologicznym – stanowi odbicie
cech charakterystycznych dla mentalności społeczeństw zachodnich.
Robotyzacja ma potencjał do zmiany charakteru wojny (może być więc kolejną
rewolucją w sprawach wojskowych), nie zmieni jednak natury wojny. Wizja bezkrwawej wojny robotów z ludźmi kryjącymi się bezpiecznie na tyłach jest mrzonką.
Czynnik ludzki pozostanie dla wojny kluczowy, a śmierć i przemoc dalej będą
obecne. W dalszym ciągu walczyć będą ludzie, zmieni się tylko broń. Wojna pozostanie starciem woli. Należy strzec się iluzji, że wojna może być łatwa i „czysta”,
niezależnie od tego, jak bardzo wizje te mogą być urzekające54. Wojna zawsze jest
piekłem, zgodne ze słowami generała Shermana55, i nic nie wskazuje na to, by
miało się to zmienić.
Słowa kluczowe: robotyzacja, robolucja, automatyczny robot wojskowy, mentalność postbohaterska.
Ch. Coker, Towards post-human warfare: Ethical implications of the Revolution in Military
Affairs, „Die Friedens-Warte. Journal of International Peace and Organization” 2002, nr 77/4, s. 399.
54
P. Scharre, Robotics on the Battlefield. Part II: The Coming Swarm, Waszyngton 2014, s. 48.
55
W. Sherman, Speech given by General Sherman to the 2nd graduating class of the Michigan
Military Academy, 1879, http://www.gwbhs.org/documents/2012/11/general-william-tecumseh-sherman-at-orchard-lake.pdf [dostęp: 15.06.2014].
53
52
Społeczeństwo i Polityka Nr 4 (49)/2016
Robotyzacja wojny
An Abstract: The trend towards robotization of the battlefield foreshadows revolutionary changes in the nature of military operations and in the way to conduct them. This
article provides an answer to the question on the essence of the changes and explains whether – and, if so, to what extent – they are symptoms of real revolution, or continuation
of the existing trends. What is considered a necessary starting point to answer a question
formulated this way is defining such concepts as those of a robot, artificial intelligence, and
autonomy. Also, it is pointed out to the qualities setting robots apart, and to the qualities
shared by robots with other kinds of weapons termed as “intelligent”.
Next, possible consequences of the use of military robots are discussed, without reducing them to a purely military dimension of the question, but with giving them a wider –
social, political and cultural – perspective. They are put in the context of a concept which
views war waging as a reflection of the culture of the society concerned.
Key words: robotization, robolution, decision making loop, autonomous military robot, postheroic mentality, lawfare.
Резюме: Тренд на роботизацию поля сражений является предзнаменованием революционных перемен в методах ведения военных действий. Настоящая статья отвечает на вопрос о сущности этих перемен: поскольку они обладают признаками настоящей революции, а поскольку являются продолжением существующих тенденций.
Необходимым условием ответа на так заданный вопрос считается определение таких
понятий, как робот, искусственный интеллект и автономия. В статье идентифицированы также черты, отличающие роботов от других видов оружия, определенного как
«интеллигентное» и черты общие обеим группам.
Затем выявляются возможные последствия употребления боевых роботов – не
только с военной точки зрения, но и в более широкой (общественной, политической и культурной) перспективе. Они вписаны в контекст концепции ведения войны,
предполагающей, что способ ведения войны является отражением культуры данного
общества.
Ключевые слова: роботизация, роболюция, петля Бойда, боевой автономический робот, пост героическая ментальность, lawfare (использование международного
права в качестве средства достижения военных целей).
Społeczeństwo i Polityka Nr 4 (49)/2016
53