Academia.eduAcademia.edu

Robotyzacja wojny

2016, Społeczeństwo i Polityka

Historia wojen skwapliwie odnotowuje zmiany, które w sposób rewolucyjny prowadziły do przekształcenia obrazu pola bitwy. Wydaje się, że stoimy obecnie u progu kolejnej rewolucji, związanej z zastosowaniem robotów w działaniach zbrojnych. Zwolennicy takiego podejścia mówią o tzw. robolucji (robolution). Termin ten, powstały z połączenia słów robotyzacja i rewolucja, opiera się na założeniu, że robotyzacja prowadzi do rewolucyjnych zmian i stanowi punkt zwrotny w historii militarnej. Co więcej, zmiany w charakterze wojny powodowane przez roboty są bardziej dogłębne niż wcześniejsze rewolucje – przeobrażeniu ulega bo-wiem nie tyle sposób, w jaki prowadzi się wojnę, ile to, kto ją prowadzi (robot zamiast człowieka). Rozwój robotów bojowych powodować ma podważenie pod-stawowego determinantu wojny, którym bynajmniej nie jest zabijanie, ale ryzyko bycia zabitym. Z drugiej strony robotyzacja jawi się jako przejaw raczej ewolucji niż rewolucji – jako oczywista kontynuacja dążenia do zwiększenia zasięgu uzbrojenia i zwiększenia dystansu między walczącymi, które dotychczas ograniczone były przez spadającą wraz z zasięgiem precyzję. Cała historia uzbrojenia postrzegana może być jako dążenie do zapewnienia wojującemu fizycznego bezpieczeństwa (żeby wspomnieć chociażby postać Achillesa). Roboty bojowe wydają się przeto być spełnieniem odwiecznego marzenia twórców broni – o broni pozwalającej porazić przeciwnika z dystansu, który czyni nas niewrażliwym na jego przeciwdziałanie. W tym sensie roboty bojowe stanowią ostatnią inkarnację trendu znanego od co najmniej kilkudziesięciu lat i określanego jako broń kierowana lub, co ostatnio jest modne, inteligentna. The trend towards robotization of the battlefi eld foreshadows revolutionary changes in the nature of military operations and in the way to conduct them. This article provides an answer to the question on the essence of the changes and explains whether – and, if so, to what extent – they are symptoms of real revolution, or continuation of the existing trends. What is considered a necessary starting point to answer a question formulated this way is defi ning such concepts as those of a robot, artifi cial intelligence, and autonomy. Also, it is pointed out to the qualities setting robots apart, and to the qualities shared by robots with other kinds of weapons termed as “intelligent”. Next, possible consequences of the use of military robots are discussed, without reducing them to a purely military dimension of the question, but with giving them a wider – social, political and cultural – perspective. They are put in the context of a concept which views war waging as a refl ection of the culture of the society concerned.

Rafał Kopeć Robotyzacja wojny Uwagi wstępne Historia wojen skwapliwie odnotowuje zmiany, które w sposób rewolucyjny prowadziły do przekształcenia obrazu pola bitwy. Wydaje się, że stoimy obecnie u progu kolejnej rewolucji, związanej z zastosowaniem robotów w działaniach zbrojnych. Zwolennicy takiego podejścia mówią o tzw. robolucji (rebolution)1. Termin ten, powstały z połączenia słów robotyzacja i rewolucja, opiera się na założeniu, że robotyzacja prowadzi do rewolucyjnych zmian i stanowi punkt zwrotny w historii militarnej. Co więcej, zmiany w charakterze wojny powodowane przez roboty są bardziej dogłębne niż wcześniejsze rewolucje – przeobrażeniu ulega bowiem nie tyle sposób, w jaki prowadzi się wojnę, ile to, kto ją prowadzi (robot zamiast człowieka)2. Rozwój robotów bojowych powodować ma podważenie podstawowego determinantu wojny, którym bynajmniej nie jest zabijanie, ale ryzyko bycia zabitym. Z drugiej strony robotyzacja jawi się jako przejaw raczej ewolucji niż rewolucji – jako oczywista kontynuacja dążenia do zwiększenia zasięgu uzbrojenia i zwiększenia dystansu między walczącymi, które dotychczas ograniczone były przez spadającą wraz z zasięgiem precyzję3. Cała historia uzbrojenia postrzegana może być jako dążenie do zapewnienia wojującemu fizycznego bezpieczeństwa (żeby wspomnieć chociażby postać Achillesa). Roboty bojowe wydają się przeto być A. Windeck, Preface, w: Robots on the Battlefield, Contemporary Issues and Implications for the Future, red. R. Doaré i in., Fort Leavenworth 2014, s. V. 2 D. Danet, J.-P. Hanon, Digitization and Robotization of the Battlefield: Evolution or Robolution?, w: Robots on the Battlefield…, op.cit., s. XIII. 3 P. Scharre, Robotics on the Battlefield. Part I: Range, Persistence and Daring, Waszyngton 2014, s. 19. 1 Społeczeństwo i Polityka Nr 4 (49)/2016 37 Rafał Kopeć spełnieniem odwiecznego marzenia twórców broni – o broni pozwalającej porazić przeciwnika z dystansu, który czyni nas niewrażliwym na jego przeciwdziałanie. W tym sensie roboty bojowe stanowią ostatnią inkarnację trendu znanego od co najmniej kilkudziesięciu lat i określanego jako broń kierowana lub, co ostatnio jest modne, inteligentna. Artykuł odpowiada na pytanie, na ile proliferacja robotów bojowych stanowi prawdziwą rewolucję w charakterze, a być może nawet naturze wojny, a na ile jest kontynuacją istniejących wcześniej tendencji. Podstawą do odpowiedzi na tak postawione pytanie musi być precyzyjne zdefiniowanie pojęcia robot. Następnie zaprezentowane zostały potencjalne następstwa wynikające z zastosowania robotów bojowych, nie tylko w wymiarze czysto militarnym, ale w szerszym ujęciu – społecznym, politycznym i kulturowym. Czym (a może kim) jest robot? Słowo robot zostało po raz pierwszy zastosowane przez czeskiego pisarza Karla Čapka. Pojawiło się w sztuce R.U.R. (Rossumovi Univerzální Roboti) – Uniwersalne roboty Rossuma z roku 19214. Według pisarza termin ten wymyślił jego brat Josef. Etymologia terminu robot odnosi się do występującego w wielu językach słowiańskich słowa „robota”, oznaczającego ciężką pracę. Tym właśnie zajmować miały się roboty występujące w sztuce R.U.R. Roboty Čapka były jednak sztucznie produkowanymi istotami stworzonymi na podłożu biologicznym, czyli organizmami żywymi. Stanowią one raczej wariację na temat mitu o Golemie czy monstrum powołanego do życia przez doktora Frankensteina w powieści Mary Shelley. Współczesna wizja robota zakładająca, że jest on istotą elektromechaniczną, pojawiła się w opowiadaniu Isaaca Asimova Runaround (Zabawa w berka) z roku 19425. Robot jest więc maszyną (czyli urządzeniem technicznym wykonującym pracę na podstawie przekształceń energii), a dokładniej fuzją maszyny i komputera. Najczęściej przywoływana definicja robota zakłada, że jest on maszyną, która czuje, myśli i działa. Co więcej, działa w rzeczywistym, a nie symulacyjnym środowisku. Innymi słowy, robot jest komputerem (jego zadanie to myślenie) wyposażonym w sensory (odpowiedzialne za odczuwanie) i efektory (działanie)6. Rozumienie tych czynności nie jest bynajmniej oczywiste (dotyczy to w szczególności myślenia) i nie wszystkie urządzenia określane powszechnie robotami są zdolne do ich wykonywania. Wyposażenie w sensory powoduje, że robot nie wymaga do funkcjonowania bezpośredniej interwencji człowieka (tak jak komputer wymagający np. operacji na klawiaturze czy myszce), ale ma zdolność kierowania się bodźcami płynącymi bezpośrednio ze środowiska. Efektory z kolei warunkują zdolność do niecyfrowego oddziaływania na środowisko w przeciwieństwie do K. Čapek, R.U.R.(Rossum’s Universal Robots), Nowy Jork 2004. I. Asimov, Ja, Robot, Poznań 2013. 6 P. Lin, G. Bakey, K. Abney, Autonomous Military Robotics: Risk, Ethics, and Design, Waszyngton 2008, s. 101. 4 5 38 Społeczeństwo i Polityka Nr 4 (49)/2016 Robotyzacja wojny komputera, który sam w sobie jest zdolny tylko do oddziaływania cyfrowego, czyli manipulacji danymi. Robot jest natomiast zdolny do manipulacji obiektami fizycznymi. Możliwość fizycznego oddziaływania na środowisko implikuje fakt, że robot musi być albo ruchomy, albo ruchoma musi być jakaś jego część składowa. Nie jest natomiast wymagana mobilność, czyli zdolność do przemieszczania się z jednej lokalizacji do drugiej, chociaż wiele robotów jest mobilnych. Jedne z pierwszych urządzeń określanych mianem robotów były właśnie stacjonarne. Maszyna Unimate zaprojektowana w 1961 r. przez George’a Devola była w zasadzie programowanym ruchomym ramieniem, które znalazło zastosowanie przy produkcji samochodów7. Pierwsze roboty mobilne to Elmer i Elsie, żółwiokształtne urządzenia skonstruowane przez Williama Greya Waltera pomiędzy 1948 a 1949 r. Posiadały one sensory (fotocele do lokalizowania światła i zderzaki do detekcji przeszkód) oraz efektory (zdolność poruszania się). Urządzenia te więc czuły i działały, ale nie myślały. Opierały się wyłącznie na wbudowanych schematach zachowań, takich jak omijanie przeszkód czy kierowanie się w stronę światła. Ich funkcjonowanie oparte było na prostej reaktywności – bodziec wprost wywoływał reakcję – nie były więc robotami w pełnym znaczeniu tego słowa. Pierwszy raz architekturę sense-think-act (inaczej zwaną sense-plan-act) zastosowano w robocie Shakey, zbudowanym w Stanford Research Laboratories w 1969 r. W przeciwieństwie do schematu, w którym bodziec wprost wywoływał reakcję, a sensory były bezpośrednio połączone z efektorami (bez etapu „myślenia”), Shakey opierał się na architekturze, w której sensory dostarczały sygnały do warstwy odpowiedzialnej za „myślenie”. Moduł odpowiedzialny za myślenie, będący jedną z pierwszych aplikacji sztucznej inteligencji, nazwany został Stanford Research Institute Problem Solver (STRIPS)8. Czy maszyny mogą myśleć? Pytanie „Czy maszyny mogą myśleć?” rozważane było już w słynnym artykule Alana Turinga z 1950 r. pt. Computing Machinery and Intelligence9. Dokładne określenie, czym jest albo może być myślenie istot innych niż ludzie, nadal jest sprawą otwartą. Turing koncentrował się na zdolnościach komunikacyjnych, wychodząc z założenia, że używanie języka jest specyficzną cechą ludzi, więc i inne istoty inteligentne powinny być zdolne do konwersacji. Takie podejście narażone jest jednak na zarzut antropocentryzmu i prowokuje zasadne pytanie: czy inteligencja maszyn musi sprowadzać się do naśladownictwa ludzkiej inteligencji. Z punktu G.E. Munson, The Rise and Fall of Unimation Inc., A story of robotics innovation & triumph that changed the world, „Robot Magazine” 2010, http://www.botmag.com/the-rise-and-fall-of-unimation-inc-story-of-robotics-innovation-triumph-that-changed-the-world/ [dostęp: 30.09.2015]. 8 M. Dawson, B. Dupuis, M. Wilson, From Bricks to Brains: The Embodied Cognitive Science of LEGO Robots, Edmonton 2010, s. 199–203. 9 A. Turing, Computing Machinery and Intelligence, „Mind” 1960, nr 59/236, s. 433–460. 7 Społeczeństwo i Polityka Nr 4 (49)/2016 39 Rafał Kopeć widzenia robotów stosowanych na polu walki zdolność do konwersacji nie wydaje się bynajmniej cechą najistotniejszą. Zakładając, że myślenie – niezależnie od tego, jak je zdefiniujemy – jest z pewnością czymś zdecydowanie bardziej skomplikowanym niż proste działanie oparte na schemacie bodziec–reakcja (które można porównać do odruchów bezwarunkowych u istot żywych), moduł odpowiedzialny za myślenie powinien cechować się trzypoziomową architekturą. Najniższa, reaktywna warstwa to proste zależności typu bodziec–reakcja. Pośrednia dostarcza wglądu w warstwę reaktywną i umożliwia przekształcenia komend (z warstwy deliberatywnej) w działania. Z kolei najwyższa, deliberatywna warstwa jest rodzajem sztucznej inteligencji i odpowiada za takie zadania, jak planowanie czy współpraca z ludźmi10. Samo pojęcie sztucznej inteligencji, zaproponowane przez Johna McCarthy’ego w 1956 r., jest niezwykle kontrowersyjne, zwłaszcza że wśród naukowców nie ma zgody nawet co do tego, czym jest myślenie oraz inteligencja. Najczęściej przywołuje się w tym kontekście zdolność do adaptacji do nowych warunków i wykonywania nowych zadań, umiejętność dostrzegania zależności i relacji czy też zdolność uczenia się11. Wcześniejsze rozumienie inteligencji sprowadzało się do zdolności do przetwarzania informacji (jest to wszakże czynność, którą komputery wykonują najlepiej), z tym że przetwarzania twórczego, noszącego znamiona abstrakcji, a nie czysto mechanicznego. Obecnie podkreśla się również konieczność posiadania zdolności w sferze emocjonalnej. W badaniach na temat sztucznej inteligencji wyróżniamy dwa nurty – silna sztuczna inteligencja oraz słaba sztuczna inteligencja. Poglądy określane jako silna sztuczna inteligencja zakładają, że odpowiednio zaprogramowany komputer jest równoważny ludzkiemu umysłowi, a więc komputery myślą naprawdę, a nie tylko symulują myślenie. Podstawą do takiego ujęcia jest kognitywistyczny pogląd, że myślenie to w zasadzie manipulacja symbolami oparta na pewnych regułach (czyli coś, w czym komputery są bardzo dobre)12. Komputer może się charakteryzować stanami poznawczymi, a to, że na razie nie udało się takich komputerów skonstruować, nie znaczy, że jest to niemożliwe. Daniel Dennet twierdzi, że zbudowanie myślącego, a nawet świadomego robota jest teoretycznie możliwe (sztuczny mózg jest z zasady tak samo możliwy, jak sztuczne serce, tyle że znacznie bardziej skomplikowany), gdyż ludzie są swego rodzaju robotami – skomplikowanymi samokontrolującymi się, samodzielnie podtrzymującymi swoje funkcjonowanie fizycznymi mechanizmami, działającymi zgodnie z określonymi regułami, w przypadku ludzi analogicznymi do reguł kierujących funkcjonowaniem innych fizycznych procesów w bytach ożywionych, np. P. Lin, G. Bakey, K. Abney, op.cit., s. 19. K. Różanowski, Sztuczna inteligencja: rozwój, szanse, zagrożenia, „Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki” 2007, nr 2, s. 110. 12 A. Newell, H. Simon, Computer Science as Empirical Enquiry: Symbols and Search, „Communications of the ACM” 1976, nr 3/19, s. 113–126. 10 11 40 Społeczeństwo i Polityka Nr 4 (49)/2016 Robotyzacja wojny procesami metabolicznymi13. Bariery niepozwalające na zbudowanie świadomych maszyn mają charakter nie teoretyczny, ale przyziemny, ekonomiczny. Po prostu będzie to kosztowało zbyt dużo. Z kolei przykładem myślenia w duchu słabej sztucznej inteligencji jest zaprezentowany przez Johna R. Searle’a eksperyment myślowy, tzw. chiński pokój, który ukazuje różnice między rozumieniem a zdolnością do manipulowania symbolami14. Bohater eksperymentu znajduje się w pokoju z napisami w języku chińskim i dysponuje instrukcją postępowania dotyczącą języka chińskiego, napisaną w zrozumiałym dla niego języku. Po jej przyswojeniu jest w stanie dokonywać manipulacji chińskimi symbolami, symulując znajomość chińskiego, choć tak naprawdę go nie zna. Tak właśnie mają funkcjonować komputery – jedynie symulują myślenie (tylko operują symbolami, czyli działają, opierając się na regułach syntaktycznych), a nie myślą naprawdę, nie rozumieją sensu reguł (syntaktyka nie prowadzi do semantyki, nie wyjaśnia znaczeń). Jest to tzw. problem nabierania znaczeń przez symbole (symbol grounding problem)15. Według przedstawicieli nurtu tzw. słabej sztucznej inteligencji komputery są zdolne tylko do symulowania inteligencji. Człowiek poza pętlą decyzyjną Niezależnie od tego, jak zdefiniujemy myślenie, zakłada się, że jego nieodłącznym komponentem jest podejmowanie decyzji. Robot musi mieć więc zdolność podejmowania decyzji i działania względem otoczenia – reagowania na otoczenie i wpływania na nie. Jeśli więc przyjmiemy, że robotem jest maszyna, która czuje, myśli (w sensie refleksyjnym, a nie „mechanicznym”) i działa, wykluczamy z tej grupy zarówno komputery (nie czują i nie działają w sensie fizycznym), jak i proste maszyny, chociażby toster czy ekspres do kawy (niezależnie od definicji myślenia oczywiste jest, że tej zdolności nie można im przypisać). Na tej samej zasadzie za roboty nie mogą być uznane miny – są one co prawda autonomiczne, charakteryzują się wrażliwością na bodźce zewnętrzne i możliwością reagowania na nie (przez eksplozję), ale ich funkcjonowanie oparte jest na prostej zależności bodziec–reakcja. Nie można jednak wykluczyć pojawienia się w przyszłości min prawdziwie inteligentnych – wtedy będzie je można uznać za rodzaj robotów, zakładając, że do tej kategorii zaliczymy również urządzenia „samobójcze”, w których działanie oznacza zniszczenie urządzenia (o wątpliwościach w tym zakresie w dalszej części tekstu). Gdy rozważa się o robotach bojowych i kwestii ich demarkacji od innych rodzajów uzbrojenia, zamiast nieco abstrakcyjnej kwestii myślenia, bardziej użyteczną kategorią wydaje się kategoria autonomii. Zagadnienie autonomii jest również 13 D. Dennett, Consciousness in Human and Robot Minds, w: Cognition, Computation, and Consciousness, red. M. Ito, Y. Miyashita, E.D. Rolls, Oxford 1997, s. 17–29. 14 J.R. Searle, Minds, Brains, and Programs, „The Behavioral and Brain Sciences” 1980, nr 3, s. 417–424. 15 S. Harnad, The Symbol Grounding Problem, „Physica” 1990, nr 42, s. 335–346. Społeczeństwo i Polityka Nr 4 (49)/2016 41 Rafał Kopeć wieloaspektowe, ale w uproszczeniu można ująć, że jest to możliwość działania w realnym środowisku bez zewnętrznej ingerencji (czyli w przypadku robotów, bez ingerencji człowieka). Autonomia rozumiana jest albo jako krańcowa automatyzacja (automatyzacja zakłada transformację działania w zmechanizowane kroki, które maszyna jest w stanie wykonać samodzielnie, autonomia to więc zdolność do wykonania wszystkich lub prawie wszystkich kroków bez ingerencji operatora), albo jako przeciwieństwo automatyzacji (systemy niepodążające po wyspecyfikowanej ścieżce, ale podejmujące własne decyzji, chociaż w oparciu określone reguły; ich zachowanie nie może być więc w pełni zaprogramowane i zakłada pewien stopień elastyczności i nieprzewidywalności)16. Maszyna w pełni autonomiczna będzie więc cechowała się zdolnością do kształtowania swojego zachowania, które nie wypływa bezpośrednio ze sposobu jej zaprogramowania oraz możliwością działania bez ingerencji operatora (human out of the loop – wyeliminowanie człowieka z pętli decyzyjnej, rozumianej jako pętla OODA obserwacja–orientacja–decyzja-działanie Johna Boyda17). Co więcej, typ funkcji, która ma być wykonywana autonomicznie, musi charakteryzować się znacznym stopniem komplikacji (chociaż jest to kryterium mało precyzyjne) – różne działania wymagają bowiem różnego poziomu zdolności poznawczych maszyny18. W kontekście maszyn bojowych zadanie rozróżnienia samolotu od celu pozornego jest znacznie prostsze niż rozróżnienie żołnierza od cywila. Z tym pierwszym radzą sobie systemy samonaprowadzania rakiet przeciwlotniczych, których nie traktuje się jako robotów (chociaż linia podziału nie jest tak wyraźna, jak mogłoby się na pierwszy rzut oka wydawać), to drugie jest najpoważniejszym wyzwaniem stojącym przed konstruktorami robotów autonomicznych i głównym problemem praktycznym tzw. etyki robotów bojowych. Wydawałoby się oczywiste, że wyeliminowanie człowieka z pętli decyzyjnej niejako automatycznie oznacza, że nie ma go także na pokładzie autonomicznej maszyny. W rzeczywistości ta zależność jest nieco bardziej skomplikowana. Teoretycznie robot nie musi być bezzałogowy. Można sobie wyobrazić robota, który częściowo podejmuje własne decyzje, a częściowo – względem innych operacji – podejmuje je znajdujący się na pokładzie operator. Z czasem, dzięki rozwojowi technologii cyborgizacji, mogłoby dojść do zatarcia różnicy między człowiekiem a maszyną. Obecnie ten „hybrydowy” sposób działania, także łączący decyzyjność człowieka i maszyny, tyle że w znacznie mniej futurystycznym wydaniu, realizowany jest przez połączenie autonomii i zdalnego sterowania. Oprócz robotów bezzałogowych, określanych jako unmanned (nieprzenoszących na pokładzie operatora bądź załogi, która steruje robotem), wyróżnia się także roboty uninhabited („niezamieszkane”, bez człowieka na pokładzie). Te dwie ka16 D.G. Johnson, M.E. Noorman, Responsibility Practices in Robotic Warfare, „Military Review” 2014, maj–czerwiec, s. 14–16. 17 W.C. Marra, S.K. McNeil, Understanding “the Loop”: Regulating the Next Generation of War Machines, „Harvard Journal of Law & Public Policy” 2012, nr 36, s. 1139–1185. 18 P. Scharre, op.cit., s. 13. 42 Społeczeństwo i Polityka Nr 4 (49)/2016 Co jest, a co nie jest robotem bojowym? Roboty bojowe można traktować jako kolejne ogniwo rozwoju tzw. broni inteligentnej (smart weapnon). Wszak posiadanie inteligencji i zdolność do myślenia są wyróżnikiem robotów. Określenie „broń inteligentna” jest pojęciem o nieco rozmytym znaczeniu, zdecydowanie bardziej precyzyjny charakter ma określenie precision-guide munition (PGM) – amunicja precyzyjnego rażenia, dosłownie amunicja precyzyjnie kierowana. Pod tą nazwą kryje się broń, która używa układu poszukującego do namierzenia energii będącej odbiciem celu lub punktu celowania, przetwarzając ją w komendy kierujące broń do celu20. W przypadku broni inteligentnej kluczowy jest więc system kierowania. Wyróżniamy trzy rodzaje systemów kierowania: programowe (pocisk porusza się po zaprogramowanej wcześniej trasie), zdalne kierowanie (według sygnałów zewnętrznych) oraz samonaprowdzanie. W tym ostatnim przypadku broń (zazwyczaj pocisk) działa w sposób autonomiczny. Pojawia się dylemat, czy pocisk (np. przeciwlotniczy), który wykorzystuje metodę samonaprowadzania, można określić mianem robota (co więcej, robota autonomicznego). Broń korzystająca z samonaprowadzania jest przecież obrazowo określana jako broń fire & forget, czyli „odpal i zapomnij”, co ma podkreślać zdolność do działania w trybie autonomicznym, bez ingerencji człowieka. Przedstawienie precyzyjnej linii podziału między amunicją precyzyjnego rażenia a robotami bojowymi rodzi wiele kontrowersji. Z punktu widzenia definicji robota pociski, które są wystrzeliwane bez wskazania konkretnego celu, lecz same podejmują decyzję o jego wyborze, mogą być uznane za rodzaj robota bojowego21. Pociski korzystające z samonaprowadzania są bowiem zdolne do podejmowania autonomicznych decyzji, przede wszystkim w zakresie wyboru celu. Co prawda, pociski samonaprowadzające bliskiego zasięgu, np. przeciwpancerne, wystrzeliwane są zazwyczaj w trybie lock-on before launch (LOBL), gdzie wyboru celu dokonuje operator przed odpalaniem, natomiast w przypadku pocisków o większym zasięgu, np. przeciwlotniczych czy przeciwokrętowych, wystrzeliwuje się je Robotyzacja wojny tegorie nie są tożsame. Projektuje się już bowiem roboty, które byłyby bezzałogowe (autonomiczne lub zdalnie sterowane), ale nie uninhabited. Na pokładzie nie byłoby załogi obsługującej robota, ale mógłby on przewozić ludzi, np. służyć do ewakuacji rannych (bezzałogowa wersja śmigłowca K-MAX przeszła w 2015 r. pierwsze testy w realizacji tego typu operacji19). 19 B. Stevenson, K-MAX carries out medical evacuation demo, Flightglobal, https://www. flightglobal.com/news/articles/auvsi-k-max-carries-out-medical-evacuation-demo-411880/ [dostęp: 28.10.2015]. 20 Ch. B. Puckett, In this era of “smart weapon”. Is a state under an international legal obligation to use precision-guided technology in armed conflict, „Emory International Law Review” 2004, nr 18/2, s. 648. 21 R. Crootof, The killer robots are here: legal and policy implications, „Cardozo Law Review” 2015, nr 36/5, s. 1848. Społeczeństwo i Polityka Nr 4 (49)/2016 43 Rafał Kopeć w rejon spodziewanej obecności celu, zakładając, że z kolejnymi etapami rakieta poradzi sobie samodzielnie (tryb lock-on after launch – LOAL). Przykładem może być atak przeprowadzony przez Argentyńczyków w czasie wojny o Falklandy. 25 maja 1982 r. dwa pociski Exocet typu woda-woda, zostały wystrzelone w kierunku zgrupowania brytyjskiej floty. Argentyńczycy mieli nadzieję na porażenie flagowego okrętu przeciwnika, lotniskowca HMS Hermes, ale pociski „dokonały własnego wyboru”, naprowadzając się na cel, który nie emitował zakłóceń elektromagnetycznych – transportowiec MV Atlantic Conveyor22. Do samodzielnego wyboru celów są również zdolne artyleryjskie pociski przeciwpancerne 155 mm Bonus i SMArt, które nadlatują w rejon, w którym znajdować się ma zgrupowanie przeciwnika, po czym samodzielnie wykrywają cel i naprowadzają się na niego. Niektóre definicje robota dodają więc kolejne wymaganie, które pozwoliłoby na rozróżnienie robotów od broni z układem samonaprowadzania – możliwość wielokrotnego użycia23. O mglistej granicy między tymi rodzajami broni świadczy istnienie bezzałogowych aparatów latających Harop i Harpy, produkowanych przez izraelską firmę IAI. Tryb ich działania zakłada patrolowanie wskazanego rejonu i naprowadzenie się na źródło wrogiej emisji elektromagnetycznej24. W zasadzie są one więc rodzajem przeciwradiolokacyjnego pocisku manewrującego, wyróżniającego się spośród innych tego rodzaju pocisków nietypowym napędem (tłokowy silnik spalinowy zamiast silnika rakietowego), niewielką prędkością lotu i długim czasem patrolowania. Określane są one jednak jako Unmanned Aerial Vehicle (UAV), czyli bezzałogowe statki latające. Aparaty tego rodzaju, nazywane powszechnie dronami, przywoływane są obecnie właśnie w kontekście robotyzacji pola walki i określane jako forpoczta tego trendu, choć ze względu na jednorazowość powinny być raczej zaliczone do bardziej tradycyjnych rodzajów broni (a właściwie amunicji) precyzyjnie kierowanej. Z konstrukcyjnego punktu widzenia powtarzalność użycia wydaje się być dobrym kryterium różnicującym systemy cechujące się autonomicznością i elastycznością, ale używane tylko do misji „samobójczych”, od robotów w pełnym znaczeniu tego słowa. Z drugiej jednak strony, z punktu widzenia tzw. etyki robotów, czyli np. zgodności ich stosowania z kryteriami międzynarodowego prawa humanitarnego, jest to kwestia absolutnie bez znaczenia. Zakładając hipotetyczną sytuację spowodowania ofiar wśród ludności cywilnej wskutek błędnej decyzji podjętej przez system autonomiczny, fakt, czy decyzję tę podjął system jednorazowy czy system wielokrotnego użytku, wydaje się kwestią absolutnie marginalną. Dlaczego więc w przypadku dotychczas skonstruowanych i użytkowych systemów autonomicznych (czyli pocisków samonaprowadzających zdolnych do saN. Polmar, Aircraft Carriers: A History of Carrier Aviation and Its Influence on World Events, Volume II: 1946–2006, Waszyngton 2008, s. 322. 23 N. Sharkey, Saying ‘No?’ to Lethal Autonomous Targeting, „Journal of Military Ethics” 2010, nr 9/4, s. 370. 24 B.J. Cobb, Adaptive Discrete Event Simulation for Analysis of Harpy Swarm Attack, Naval Postgraduate School – Monterey, California, s. 3–5, http://www.dtic.mil/dtic/tr/fulltext/u2/a552529. pdf [dostęp: 30.10.2015]. 22 44 Społeczeństwo i Polityka Nr 4 (49)/2016 Robotyzacja wojny modzielnego wyboru celów) nie pojawiają się kontrowersje związane z możliwością utraty kontroli nad działaniami tego rodzaju urządzenia? Być może z powodu względnej prostoty tych systemów. Wymagania stawiane autonomicznym robotom bojowym, a co za tym idzie – obawy z nimi związane, są jednak dużo większe. Zakłada się, że będą one zdolne do podejmowania znacznie bardziej złożonych decyzji niż w przypadku obecnie istniejących systemów autonomicznych (np. będą zdolne do rozróżnienia żołnierzy od ludności cywilnej). Dylemat dotyczący złożoności podejmowania decyzji nie znalazł dotychczas jednoznacznego rozstrzygnięcia. Nie ma zgody, czy systemy przeciwlotnicze zdolne do działania w trybie autonomicznym i charakteryzujące się dużymi możliwościami przetwarzania danych – zdolne do wyszukiwania i śledzenia celów, klasyfikacji zagrożeń, podjęcia decyzji o otwarciu ognia oraz do prowadzenia i korygowania ognia – są robotami. Czy działanie podejmowane przez taki system jest wystarczająco skomplikowane, by mówić o autonomii zamiast o automatyzacji? O tym, że tego typu systemy już dawno posiadły możliwość podejmowania decyzji wpływających na ludzkie życie, świadczy omyłkowe zestrzelenie irańskiego samolotu pasażerskiego z 290 osobami na pokładzie przez amerykański krążownik USS Vincennes 3 lipca 1988 r. System kierowania ogniem Aegis, w jaki wyposażony był okręt, sklasyfikował samolot jako irański myśliwiec i, obawiając się, że podejmuje on próbę ataku na jednostkę, zdecydował o odpaleniu rakiet przeciwlotniczych SM-2MR. Co prawda, załoga okrętu miała możliwość zmiany tej decyzji, jednak zdała się ona na błędną, jak się okazało, ocenę dokonaną przez system komputerowy25. Zmiana reguł gry Obecną sytuację robotów porównać można do sytuacji czołgów podczas I wojny światowej. Jedne i drugie są rewolucyjną technologią znajdującą się na początku drogi rozwojowej. Obecnie egzystują w niszy, ale mają ogromny potencjał, by stać się technologią zdolną zmienić reguły gry na polu walki (game-changing technology). By tak się stało, dokonać musi się nie tylko przełom w zakresie dojrzałości technicznej, ale także w sferze doktrynalnej. Historia czołgów dostarcza aż nadto wymownego przykładu, że kraj, który jako pierwszy skonstruuje i zastosuje na polu walki dany rodzaj broni, nie musi automatycznie być tym, który z powodzeniem wykorzysta jego możliwości. W przypadku czołgów Brytyjczycy, mimo pionierskich doświadczeń z I wojny światowej, z powodu doktrynalnego marazmu czasu międzywojnia, dali się pod tym względem wyprzedzić Niemcom. W zakresie robotów prym wiodą obecnie armie amerykańska i izraelska, otwarte jednak pozostaje pytanie, kto pierwszy opracuje całościową doktrynę wykorzystania robotów na polu walki. Oprócz kwestii technicznych i doktrynalnych należy G.I. Rochlin, Iran Air Flight 655 and the USS Vincennes. Complex, Large-Scale Military Systems and the Failure of Control, w: Social Responses to Large Technical Systems, Control and Anticipation, red. T.R. La Porte, Berkeley 1989, s. 99–125. 25 Społeczeństwo i Polityka Nr 4 (49)/2016 45 Rafał Kopeć pokonać opór przed radykalnymi zmianami, typowy dla, z natury konserwatywnych, organizacji militarnych. Historia wojskowości dostarcza wielu przykładów, gdy rewolucyjne rodzaje uzbrojenia musiały sobie torować drogę wśród uprzedzeń kasty oficerskiej (np. zastąpienie żaglowców parowcami czy koni pojazdami mechanicznymi). Dodatkowym czynnikiem opóźniającym rozwój nowych technologii jest zasadna obawa przed tzw. overinnovation – techniczną innowacją, która mimo wielkich nadziei okaże się, z taktycznego punktu widzenia, w najlepszym razie niszą, a w najgorszym – ślepą uliczką. Przykładami mogą być dwusilnikowe myśliwce (tzw. samoloty pościgowe) pod koniec lat 30. czy tzw. czołgi rakietowe rozwijane w USA i ZSRR w latach 60. XX w. Potencjalna robotyzacja pola bitwy rozważana jest przede wszystkim z punktu widzenia niezaprzeczalnych zalet wynikających z możliwości robotów. Podstawową i niejako oczywistą korzyścią jest wyeliminowanie ryzyka dla żołnierzy. Nieprzypadkowo jednym z pierwszych militarnych zastosowań urządzeń określanych powszechnie jako roboty (chociaż ze względu na wykorzystanie zdalnego sterowania nie zawsze spełniających definicyjne kryteria robota) są operacje o najwyższym stopniu ryzyka, czyli rozpoznanie lotnicze nad terytorium nieprzyjaciela oraz neutralizacja min i innych urządzeń wybuchowych. Kolejną zaletą jest możliwość projektowania maszyn o lepszych osiągach. Największe możliwości w tym zakresie rysują się przed bezzałogowymi statkami powietrznymi. Wyeliminowanie pilota pozwala konstruować maszyny charakteryzujące się nieosiągalną dla maszyn załogowych długotrwałością lotu (przykładowo Northrop Grumman RQ-4 „Global Hawk” jest zdolny do wykonywania lotów trwających powyżej 33 godzin26), a także zdolnością do wykonywania manewrów z niespotykanymi w maszynach załogowych przeciążeniami (to jak dotychczas możliwość). Do pewnego stopnia zaletami tymi wykazywać mogą się już maszyny zdalnie sterowane. I rzeczywiście, obecnie wykorzystywane drony, osiągające długotrwałość lotu rzędu kilkunastu, kilkudziesięciu godzin, są najwyżej częściowo autonomiczne. Przykładowo, Predatory i Reapery zdolne są do wykonania samodzielnego startu i lądowania, a także do nawigowania w trybie autonomicznym, jednak bardziej skomplikowane działania, zwłaszcza związane z wykorzystaniem uzbrojenia, realizowane są w trybie zdalnego sterowania lub w trybie nadzoru27. Taki „hybrydowy” system kierowania wydaje się optymalny zarówno z powodu ograniczeń technologicznych w zakresie rozwoju sztucznej inteligencji, jak i z powodów etycznych – oporu przed powierzeniem maszynie decyzji w sprawie życia i śmierci. Nie znaczy to jednak, że nie ma on słabości. Najpoważniejszą jest możliwość zakłócenia kanałów łączności albo wręcz przejęcia kontroli nad nimi 26 R. Coppinger, Northrop Grumman Global Hawk Block 20 achieves 33h endurance, Flightglobal, https://www.flightglobal.com/news/articles/northrop-grumman-global-hawk-block-20-achieves33h-e-222768/ [dostęp: 30.10.2015]. 27 W.C. Marra, S.K. McNeil, op.cit., s. 1159–1160. 46 Społeczeństwo i Polityka Nr 4 (49)/2016 Robotyzacja wojny przez przeciwnika28. Najprawdopodobniej taki scenariusz udało się zrealizować Irańczykom, którzy sprowadzili na ziemię i przejęli w stanie praktycznie nieuszkodzonym amerykański rozpoznawczy dron RQ-170 „Sentinel”29. Kolejną wadą zdalnego sterowania i motywacją do rozwoju systemów autonomicznych jest opóźnienie w przesyle komend kierowania. W przypadku łącz satelitarnych, a tylko takie umożliwiają sterowanie o zasięgu globalnym, opóźnienie to wynosi ok. jednej sekundy. Nie jest to duży problem, gdy chodzi o stosunkowo proste misje rozpoznawcze, natomiast praktycznie eliminuje ono możliwość skutecznego prowadzenia walk powietrznych przeciwko maszynom załogowym. Dodatkowo dochodzą problemy z „czuciem” maszyny, które w sposób oczywisty jest wyeliminowane w przypadku zdalnego sterowania (brak oporu i informacji zwrotnej na drążku sterownym, brak odczuwania wibracji czy ruchów powietrza)30. W przypadku maszyn mających zastąpić samoloty myśliwskie rozwiązaniem wydaje się być tylko ich maksymalna autonomizacja, tak by kluczowe decyzje były podejmowane na pokładzie maszyny, przez układ sztucznej inteligencji, a nie przez operatora usytuowanego poza maszyną. Według części ekspertów autonomiczne roboty bojowe mogą potencjalnie stanowić rozwiązanie błędnego koła, w które zapędzili się twórcy wielu współczesnych rodzajów uzbrojenia – ogromnego wzrostu kosztów jednostkowych broni (trend ten opisywany jest przez prawo Augustine’a31). W efekcie nowoczesne, ale i niezwykle kosztowne uzbrojenie produkuje się w znacznie krótszych seriach niż kiedyś. Najłatwiej trend ten zaobserwować na przykładzie tzw. major combat platforms, czyli np. samolotów czy czołgów. Co prawda, od czasów informatycznej rewolucji w sprawach wojskowych (Revolution in Military Affairs, RMA)32 uznaje się prymat jakości kosztem ilości, ale założenie to nie w każdym przypadku się sprawdza, a przewaga jakościowa może okazać się niewystarczająca. W sytuacji, gdy jakość przestaje być domeną armii zachodnich, a nowoczesne uzbrojenie podlega procesowi proliferacji, postuluje się powrót do większej liczby platform charakteryzujących się niższym kosztem jednostkowym33. Miałoby to stać się możliwe właśnie dzięki zrobotyzowanym platformom autonomicznym. Co więcej, dzięki autonomizacji można byłoby kontrolować dużą liczbę platform z pomo28 A. Kim i in., Cyber Attack Vulnerabilities Analysis for Unmanned Aerial Systems, American Institute of Aeronautics and Astronautics, https://engineering.purdue.edu/HSL/uploads/papers/cybersecurity/cyber-attack-lit-review.pdf [dostęp: 30.10.2015]. 29 K. Hartman, Ch. Steup, The Vulnerability of UAVs to Cyber Attacks – An Approach to the Risk Assessement, NATO CCD COE Publications, s. 7–8, https://ccdcoe.org/cycon/2013/proceedings/d3r2s2_hartmann.pdf [dostęp: 30.10.2015]. 30 L. Wallace, Remote Control: Flying a Predator, Flying Magazine, http://www.flyingmag.com/ pilot-reports/turboprops/remote-control-flying-predator [dostęp: 30.10.2015]. 31 N.R. Augustine, Augustine’s Law, Nowy Jork 1987. 32 R. Kopeć, Revolution in Military Affairs as Technology-Driven Change in Military Operation, w: Encyclopedia of Information Science and Technology, Third Edition, red. M. Khosrow-Pour, Hershey 2014, s. 6534–6542. 33 P. Scharre, op.cit., s. 13. Społeczeństwo i Polityka Nr 4 (49)/2016 47 Rafał Kopeć cą stosunkowo niewielkiej liczby żołnierzy, co też przyczyniłoby się do redukcji kosztów. Wojna bez ryzyka Roboty bojowe już stały się elementem zbiorowej wyobraźni, chociaż jeszcze nie osiągnęły stadium autonomii. Traktowane są one często jako symbol zła oraz arogancji zachodnich społeczeństw. Przede wszystkim przywołuje się w tym kontekście operacje realizowane z wykorzystaniem uzbrojonych dronów, określane jako selektywna eliminacja (targeted killing) osób podejrzanych o działalność terrorystyczną. Działania takie traktuje się jako wojnę prowadzoną z wygodnego fotela (armchair warfare)34, a operatorów oskarża się – chyba nie do końca słusznie – o prezentowanie tzw. mentalności play station35. Zakłada ona, że operatorzy sterujący dronami z bezpiecznych baz w Stanach Zjednoczonych postrzegają rzeczywistość na podobieństwo gry komputerowej i prezentują w związku z tym nadmierną tendencję do szybkiego i często bezrefleksyjnego otwierania ognia. Wykorzystanie robotów może być uznane za przejaw tzw. risk-transfer militarism, czyli wojen prowadzonych w taki sposób, by maksymalnie ograniczyć ryzyko dla własnych żołnierzy, przerzucając go na inne podmioty36. Minimalizacja strat własnych stała się centralnym imperatywem działań wojennych prowadzonych przez społeczeństwa zachodnie od czasów Pustynnej Burzy, która wyznaczyła niezwykle wyśrubowane standardy w tej dziedzinie (148 ofiar po stronie koalicji antyirackiej w działaniach bojowych37). Dążenie do eliminacji ryzyka wyrażało się dotychczas w takich działaniach, jak ograniczenie się do ofensywy powietrznej (Jugosławia 1999), przerzucenie działań wojennych na lądzie na lokalnych sojuszników (pierwsza faza operacji w Afganistanie), wykorzystanie prywatnych firm wojskowych (PMC, private military contractors – działanie typowe dla wojny w Iraku). Roboty bojowe wydają się idealnie predestynowane do pełnienia roli kluczowego narzędzia wojen o zminimalizowanym ryzyku w przyszłości. Dążenie do minimalizacji ryzyka to przejaw tzw. mentalności postheroicznej. Taką mentalność prezentują, według Edwarda Luttwaka, społeczeństwa zachodnie – społeczeństwa obawiające się walczyć i ginąć, w których nastąpił upadek etosu wojownika38. Żołnierze armii zachodnich to nie wojownicy, lecz dobrze opłaJ. Olson, M. Rashid, Modern Drone Warfare: An Ethical Analysis, American Society for Engineering Education Southwest Section Conference, s. 2, http://se.asee.org/proceedings/ASEE2013/ Papers2013/157.PDF [dostęp: 30.10.2015]. 35 G. Simons, Drone Diplomacy, „The Link” 2011, nr 44(2), s. 11. 36 M. Shaw, Risk-transfer militarism, small massacres and the historic legitimacy of war, „International Relations” 2002, nr 16(3), s. 343–360. 37 The Encyclopedia of Middle East Wars. The United States in the Persian Gulf, Afghanistan, and Iraq Conflicts, red. T.C. Spencer, Santa Barbara 2010, s. 470. 38 E.N. Luttwak, Toward Post-Heroic Warfare: The Obsolescence of Total War, „Foreign Affairs” 1995, nr 74(3), s. 109–123. 34 48 Społeczeństwo i Polityka Nr 4 (49)/2016 Robotyzacja wojny cani, ukierunkowani na własne kariery profesjonaliści. Co więcej, są oni częścią społeczności charakteryzujących się gwałtownym spadkiem dzietności, w których typowe jest posiadanie jednego, najwyżej dwojga dzieci, których śmierć jest dla rodziny niewyobrażalną tragedią39. To powoduje, że społeczeństwa te są wyjątkowo czułe na straty własne. Prowadzenie wojen pozbawionych ryzyka śmierci, jeśli w ogólne jest możliwe, pociągnie trudne do przewidzenia następstwa o charakterze psychologicznym. W wymiarze taktycznym zakłada się, że wykorzystanie robotów pozwoli na bardziej racjonalne działanie przez wyeliminowanie czynnika strachu przed utratą życia. Panika we własnych szeregach była wszakże jedną z kluczowych przyczyn przegrywania bitew. Co więcej, wielowymiarowe oddzielenie żołnierza od zabijania (w wymiarze przestrzennym, czasowym, a nawet w pewnym stopniu moralnym – przez przerzucenie decyzji na autonomiczne maszyny) pozwoli uniknąć awersji do zabijania, która jest ważnym czynnikiem obniżającym skuteczność, zwłaszcza w sytuacji, gdy żołnierz bezpośrednio obserwuje swoją ofiarę40. W wymiarze strategicznym pojawiają się zarzuty, że możliwość prowadzenia wojny zrobotyzowanej przyczyni się do obniżenia bariery przed podjęciem decyzji o rozpoczęciu konfliktu zbrojnego41. Argumentacja taka, choć w zasadzie logiczna i oparta na oczywistych przesłankach (im mniejsze ryzyko, tym łatwiejsza decyzja), prowadzić jednak może do nonsensownych wniosków. Wszak cały rozwój techniki wojskowej sprowadza się do tego, by zmniejszyć własne straty i ułatwić zabijanie wroga. Robotyzacja nie jest w tym względzie żadną nowością. Nie wydaje się, że wpływ tej tendencji na polityków będzie znacząco różnił się od wpływu innych technologii dających przewagę (lub jej iluzję), chyba że entuzjastom robotyzacji uda się „sprzedać” obraz wojny zrobotyzowanej jako aktywności absolutnie bezpiecznej dla własnej armii i społeczeństwa. O tym, że nie jest to zupełnie wykluczone, świadczy przykład wpływu wizji konfliktu prowadzonego zgodnie z duchem tzw. sieciocentrycznego pola walki na decyzję o wojnie w Iraku w 2003 r.42 Do tej decyzji przyczyniły się nierealistyczne oczekiwania co do prowadzenia wojny chirurgicznej, „czystej”, w skrajnej postaci wręcz pozbawionej niepewności, Clausewitzowskich „mgły i tarcia”, sprowadzającej się do tzw. operacji o zamierzonych skutkach (Effect-Based Operations)43. Idąc jednak tym tokiem rozumowania, nie powinnyśmy robić nic, co uczyniłoby wojnę bardziej „strawną” w obawie przed obniżeniem bariery podjęcia decyzji o wojnie. Sprowadzając rzecz do absurdu, powinniśmy wręcz uczynić wojnę tak brutalną, 39 Ch. Coker, Waging War Without Warriors? The Changing Culture of Military Conflict, Boulder 2002, s. 61–82. 40 D. Grossman, O zabijaniu. Psychologiczny koszt kształtowania gotowości do zabijania w czasach wojny i pokoju, Warszawa 2010, s. 185–189. 41 P.M. Asaro, How Just Could a Robot War Be?, w: Current Issues in Computing and Philosophy, red. P. Brey, A. Briggle, K. Waelbers, Amsterdam 2008, s. 56–58. 42 M.R. Gordon, B.E. Trainor, Cobra II: The Inside Story of the Invasion and Occupation of Iraq, Nowy Jork 2006, s. 6. 43 M.N. Vego, Effect-Based Operations: A Critique, „Joint Forces Quarterly” 2006, nr 41, s. 51–57. Społeczeństwo i Polityka Nr 4 (49)/2016 49 Rafał Kopeć jak to tylko możliwe, dzięki czemu nikt nie będzie się chciał w nią angażować, dopóki naprawdę nie będzie to wybór ostateczny (last resort)44. Zakładając realistyczne oczekiwanie, że wojna zrobotyzowana może ograniczyć, ale nie wyeliminować własne straty, trudno wymagać, by strona dysponująca taką technologią wystawiała swoich żołnierzy na ryzyko większe niż to konieczne tylko po to, by walka była równiejsza, bardziej „honorowa”. Nie uważamy wykorzystywania przewagi (nie tylko technologicznej, lecz także innej, np. liczebnej) za niemoralne, a wręcz odwrotnie – uznalibyśmy za niemoralne, gdyby państwo nie wykorzystało posiadanej przewagi, by chronić swoich obywateli45. Dla społeczeństw zachodnich to właśnie odwoływanie się do przewagi technologicznej jest charakterystycznym elementem. Jest ono uważane za jeden z typowych przejawów tzw. zachodniego sposobu prowadzenia wojen46. Koncepcja „sposobu prowadzenia wojen” zakłada, że sposób wojowania jest odzwierciedleniem kultury danego społeczeństwa i można wyodrębnić pewne szczególne, względnie trwałe cechy typowe dla danych społeczeństw i ich organizacji militarnych47. Wojny prowadzone przez Zachód prezentują generalnie model kapitałochłonny, a nie „ludzkochłonny”, chętnie odwołując się do zdobyczy nauki i techniki dla uzyskania przewagi. Robotyzacja jawi się jako kolejne ogniwo tego procesu. Zachodni sposób prowadzenia wojen zderza się ze sposobami wywodzącymi się z innych kręgów kulturowych (co obecnie jest szczególnie widoczne, chociaż analizując historię wojen, nie jest to żaden wyjątek). Często sposoby te zakładają inne niż przewaga technologiczna środki budowania przewagi militarnej, często charakteryzują się również zupełnie odmiennym podejściem do uznawania pewnych działań za moralnie uzasadnione lub też godne potępienia. Robotyzacja w starciu z fundamentalizmem islamskim stanowi podwójne wyzwanie. Po pierwsze, uznawana jest za objaw tchórzostwa Zachodu, za niehonorową formę walki i przejaw arogancji społeczeństw zachodnich. Po drugie, jeśli rzeczywiście doszłoby do wojny, w której jedną stronę reprezentowałyby tylko roboty i przeciwnik nie mógłby zabijać żołnierzy (pewne cechy tego typu konfliktu mają operacje typu targeted killing), akty terroryzmu stałyby się uzasadnione zarówno moralnie, jak i instrumentalnie. Skoro bogate i technologicznie zaawansowane społeczeństwo „schowało się” za robotami, atakowanie jego członków, w tym cywili, jest po pierwsze, jedyną dostępną opcją, po drugie zaś – „sprawiedliwą karą”48. Postępująca robotyzacja doprowadzi również do pojawienia się trudnych w tej chwili do przewidzenia asymetrycznych środków walki. Przypuszczać można, że nasilą się działania zaliczane do obszaru tzw. lawfare. Zakłada on stosowanie prawa humanitarnego jako środka walki, np. wykorzystanie wiedzy o regułach otwarP. Lin, G. Bakey, K. Abney, Robots in War: Issues of Risk and Ethics, w: Ethics and Robotics, red. R. Capurro, M. Nagenborg, Amsterdam 2009, s. 57. 45 P.M. Asaro, op.cit., s. 63. 46 R. Kopeć, Rewolucja w sprawach wojskowych w kontekście zachodniego sposobu prowadzenia wojen, „Kultura i Polityka” 2014, nr 16, s. 66–67. 47 J. Keegan, History of Warfare, Londyn 1993, s. 12. 48 P.M. Asaro, op.cit., s. 63. 44 50 Społeczeństwo i Polityka Nr 4 (49)/2016 Robotyzacja wojny cia ognia do budowania taktycznej przewagi49. Lawfare może objawiać się w wykorzystaniu osób uznawanych powszechnie za niewalczące, np. kobiet i dzieci, do dokonywania ataków przy założeniu, że reguły prawa humanitarnego uniemożliwią albo chociaż utrudnią przeciwdziałanie im. Ewentualnie można specjalnie sprowokować ofiary wśród ludności cywilnej i wykorzystać ten fakt propagandowo (za przykład mogą posłużyć działania Hamasu, który ostrzeliwał terytorium Izraela ze Strefy Gazy, instalując wyrzutnie na obiektach cywilnych; celem było sprowokowanie uderzenia odwetowego Izraela, które spowodowałoby ofiary cywilne; gdy Izrael zastosował taktykę „pukania w dach”, wystrzeliwując wcześniej „ostrzegawczy” pocisk pozbawiony głowicy bojowej, bojownicy Hamasu rzekomo zakazywali dokonywania ewakuacji ludności cywilnej z obiektów, które za chwilę miały być ostrzelane50). W przypadku zastosowania robotów autonomicznych można wyobrazić sobie zintensyfikowanie ataków z wykorzystaniem cywilów przy założeniu, że algorytm robota nie pozwoli na otwarcie ognia do takiego celu. Innym hipotetycznym scenariuszem jest wykorzystanie dzieci zaopatrzonych w atrapy broni, czyli de facto nieuzbrojonych, po to tylko, by sprowokować robota do otwarcia ognia i wykorzystać propagandowo fakt zabicia osób nieletnich i nieuzbrojonych. Obecnie trwają prace nad „komputerową moralnością”, czyli systemami sterującymi dla robotów uwzględniającymi zagadnienia etyczne, czyli przede wszystkim międzynarodowe prawo humanitarne konfliktów zbrojnych oraz reguły otwarcia ognia, ale mówi się także o wbudowanym poczuciu winy51. Przeważają jednak obawy, że w warunkach konfliktów asymetrycznych, bez wyraźnej linii frontu, z niewyraźnym podziałem na wrogów i przyjaciół oraz płynną granicą między walczącymi a niewalczącymi, robotom zabraknie intuicji moralnej, która cechuje tylko ludzi, nawet jeśli czasami ich zawodzi. Koncepcja „etycznego robota” jawi się więc jako przejaw fałszywej antropomorfizacji52. Wnioski Definicja robota pozornie wydaje się prosta i jednoznaczna – to maszyna, która czuje, myśli i działa. Gdy przeanalizuje się ten termin nieco bardziej dogłębnie, sytuacja przestaje być oczywista. Pierwsza i zasadnicza trudność pojawia się już przy próbie określenia, na czym polega proces myślenia maszyn. Bardziej użyteczną 49 P.W. Singer, Wired for War. The Robotics Revolution and Conflict in the 21st Century, Nowy Jork 2010, s. 402; S. Magnuson, Robo Ethics. Debate over rules, legality of robots on the battlefield lagging, expert say, „National Defence” 2009, nr 11, s. 29. 50 S. Erlanger, A Gaza War Full of Traps and Trickery, „New York Times”, 10 stycznia 2009, http://www.nytimes.com/2009/01/11/world/middleeast/11hamas.html?partner=permalink&expro d=permalink&_r=0 [dostęp: 17.11.2015]; R. Czulda, Operacja „Protective Edge” w Strefie Gazy, „Nowa Technika Wojskowa” 2014, nr 10, s. 66. 51 R. Arkin, Governing Lethal Behavior: Embedding Ethics in a Hybrid Deliberative/Reactive Architecture, Georgia Institute of Technology, http://www.cc.gatech.edu/ai/robot-lab/online-publications/formalizationv35.pdf, s. 72–75 [dostęp: 30.10.2015]. 52 N.E. Sharkey, The evitability of autonomous robot warfare, „International Review of the Red Cross” 2012, nr 94(886), s. 783. Społeczeństwo i Polityka Nr 4 (49)/2016 51 Rafał Kopeć kategorią demarkacyjną jest więc autonomia, chociaż również ona nie jest wolna od niejednoznaczności. Autonomicznym robotem bojowym będzie maszyna, która jest w stanie samodzielnie podejmować decyzje o wyborze i porażeniu celów. Dylemat dotyczący złożoności tych decyzji nie znalazł jednak dotychczas jednoznacznego rozstrzygnięcia. Pojawienie się i upowszechnienie maszyn zdolnych do podejmowania decyzji dotyczących życia i śmierci ludzi zmieni obraz pola bitwy. Ten proces już się rozpoczął (i mamy już pierwsze ofiary decyzji podjętych przez komputery), jednak dotychczas obejmował decyzje stosunkowo proste oraz, co ważne, dotyczące działań podejmowanych w obronie. Wydaje się, że pojawienie się autonomicznych robotów bojowych zdolnych do realizacji zadań ofensywnych o wysokim stopniu komplikacji będzie momentem, w którym będzie można mówić o prawdziwej rewolucji. Chociaż robotyzacja niesie za sobą rozliczne możliwości (np. zwiększenie osiągów platform bezzałogowych), zasadniczą zaletą i czynnikiem napędzającym rozwój robotów bojowych jest wyeliminowanie ryzyka dla żołnierzy. Taki sposób prowadzenia wojny (określany jako post-human warfare53) może pociągnąć za sobą konsekwencje natury politycznej (w tym możliwość zmniejszenia bariery przed rozpoczęciem działań wojennych), a także kulturowej. Zakładając, że sposób prowadzenia wojny w pewnym sensie stanowi odzwierciedlenie kultury charakterystycznej dla danego społeczeństwa, robotyzacja – z jej dążeniem do minimalizacji strat własnych i oparcia przewagi na czynniku technologicznym – stanowi odbicie cech charakterystycznych dla mentalności społeczeństw zachodnich. Robotyzacja ma potencjał do zmiany charakteru wojny (może być więc kolejną rewolucją w sprawach wojskowych), nie zmieni jednak natury wojny. Wizja bezkrwawej wojny robotów z ludźmi kryjącymi się bezpiecznie na tyłach jest mrzonką. Czynnik ludzki pozostanie dla wojny kluczowy, a śmierć i przemoc dalej będą obecne. W dalszym ciągu walczyć będą ludzie, zmieni się tylko broń. Wojna pozostanie starciem woli. Należy strzec się iluzji, że wojna może być łatwa i „czysta”, niezależnie od tego, jak bardzo wizje te mogą być urzekające54. Wojna zawsze jest piekłem, zgodne ze słowami generała Shermana55, i nic nie wskazuje na to, by miało się to zmienić. Słowa kluczowe: robotyzacja, robolucja, automatyczny robot wojskowy, mentalność postbohaterska. Ch. Coker, Towards post-human warfare: Ethical implications of the Revolution in Military Affairs, „Die Friedens-Warte. Journal of International Peace and Organization” 2002, nr 77/4, s. 399. 54 P. Scharre, Robotics on the Battlefield. Part II: The Coming Swarm, Waszyngton 2014, s. 48. 55 W. Sherman, Speech given by General Sherman to the 2nd graduating class of the Michigan Military Academy, 1879, http://www.gwbhs.org/documents/2012/11/general-william-tecumseh-sherman-at-orchard-lake.pdf [dostęp: 15.06.2014]. 53 52 Społeczeństwo i Polityka Nr 4 (49)/2016 Robotyzacja wojny An Abstract: The trend towards robotization of the battlefield foreshadows revolutionary changes in the nature of military operations and in the way to conduct them. This article provides an answer to the question on the essence of the changes and explains whether – and, if so, to what extent – they are symptoms of real revolution, or continuation of the existing trends. What is considered a necessary starting point to answer a question formulated this way is defining such concepts as those of a robot, artificial intelligence, and autonomy. Also, it is pointed out to the qualities setting robots apart, and to the qualities shared by robots with other kinds of weapons termed as “intelligent”. Next, possible consequences of the use of military robots are discussed, without reducing them to a purely military dimension of the question, but with giving them a wider – social, political and cultural – perspective. They are put in the context of a concept which views war waging as a reflection of the culture of the society concerned. Key words: robotization, robolution, decision making loop, autonomous military robot, postheroic mentality, lawfare. Резюме: Тренд на роботизацию поля сражений является предзнаменованием революционных перемен в методах ведения военных действий. Настоящая статья отвечает на вопрос о сущности этих перемен: поскольку они обладают признаками настоящей революции, а поскольку являются продолжением существующих тенденций. Необходимым условием ответа на так заданный вопрос считается определение таких понятий, как робот, искусственный интеллект и автономия. В статье идентифицированы также черты, отличающие роботов от других видов оружия, определенного как «интеллигентное» и черты общие обеим группам. Затем выявляются возможные последствия употребления боевых роботов – не только с военной точки зрения, но и в более широкой (общественной, политической и культурной) перспективе. Они вписаны в контекст концепции ведения войны, предполагающей, что способ ведения войны является отражением культуры данного общества. Ключевые слова: роботизация, роболюция, петля Бойда, боевой автономический робот, пост героическая ментальность, lawfare (использование международного права в качестве средства достижения военных целей). Społeczeństwo i Polityka Nr 4 (49)/2016 53