Współczesne technologie wojskowe coraz częściej integrują sztuczną inteligencję, co budzi szereg pytań o etykę i legalność używania autonomicznych maszyn bojowych. W szczególności, jak daleko sięga zasada sprawiedliwej wojny (Just War) w kontekście stosowania systemów bezzałogowych? W miarę jak militaria wielu państw wdrażają systemy uzbrojone wspierane przez sztuczną inteligencję, w zachodnich społeczeństwach zyskuje na sile kampania „Stop Killer Robots”. Jai Galliott zwraca uwagę, że stosowanie maszyn bezzałogowych wiąże się z decyzjami etycznie wątpliwymi, obniżając barierę zabijania, co może podważyć moralny charakter działań wojennych. Historia dostarcza licznych przykładów, w których, pod wpływem konieczności wojskowej, a także w obliczu nowych zagrożeń, "etyczne" postawy zostały zastąpione przez "praktyczne" podejście, gdy przetrwanie państwa lub użycie nowej broni stawały się priorytetem.

Dla przykładu, w armii Indii oficerowie z zapałem dążą do wykorzystania sztucznej inteligencji jako wsparcia w podejmowaniu decyzji opartych na ludzkim rozumie. W obliczu zagrożenia ze strony Chin, mogą jednak zacząć argumentować na rzecz automatyzacji cyklu OODA (Observe, Orient, Decide, Act), ponieważ sztuczna inteligencja, szczególnie z wykorzystaniem uczenia maszynowego (ML), jest w stanie przetwarzać ogromne ilości danych w czasie, który przekracza możliwości ludzkiego nadzoru. Jeśli wielkie zespoły ludzi podejmowałyby się tego zadania, spowolniłoby to tempo operacji, szczególnie w kontekście działań wojennych, które muszą być przeprowadzane w bardzo skondensowanych ramach czasowych. W przypadku, gdy pod wpływem presji wojskowej AI zastąpi ludzi w cyklu OODA, może to stanowić naruszenie tradycji dharmayuddha, która jest fundamentem indyjskich sił zbrojnych.

Dyskusje na temat wykorzystania sztucznej inteligencji w wojnie można podzielić na dwa główne obozy: pragmatyków i idealistów. Pragmatycy, przyjmujący instrumentalne podejście, uważają, że cel uzasadnia środki, natomiast idealiści wierzą, że „dobro” człowieka przeważy i poprzez debaty i dyskusje uda się znaleźć rozwiązanie trudnych dylematów. Współczesne wyzwanie polega na znalezieniu złotego środka pomiędzy tymi dwoma skrajnymi podejściami. Przyszłe maszyny wojenne będą wyraźnie autonomiczne i pozbawione elementu ludzkiego. W przyszłości, maszyna bojowa oparta na sztucznej superinteligencji (ASI), której zdolności poznawcze w każdej dziedzinie będą przewyższały ludzkie, stanowić będzie wyzwanie dla klasycznych norm etycznych. Problemem nie będzie jedynie samo posiadanie przez maszynę zdolności do odczuwania, ale przede wszystkim stworzenie odpowiedniej architektury normatywnej, która będzie regulować te zdolności.

W kontekście takich systemów, jak autonomiczne systemy uzbrojenia (AWS), Swaminathan Ramanathan zauważa, że będą one wymagały stworzenia specjalnych zasad etycznych, które wzmocnią feedback loops – sprzężenia zwrotne – dla zapewnienia, że maszyna działająca w czasie rzeczywistym będzie kierować się określonymi normami moralnymi. Jak podkreśla Ramanathan, maszyny nie będą podlegały tym samym uprzedzeniom, które występują w ludzkim podejściu do decyzji wojennych. Jeśli jednak w decyzjach wojskowych będą uczestniczyć zarówno ludzie, jak i maszyny, można by mówić o fuzji znanych i nieznanych elementów, które mogłyby zredukować część ryzyka.

Kolejną kwestią jest kontrola nad autonomicznymi systemami broni. Gregory Reichberg i Henrik Syse w swoich analizach zwracają uwagę na mechanizmy zabezpieczeń w strukturze decyzyjnej NATO, mające na celu zapobieganie nieetycznemu użyciu systemów uzbrojenia wspieranych przez AI. Niemniej jednak, procesy decyzyjne w NATO są tak skomplikowane i powolne, że w warunkach wojennych, gdzie czas reakcji ma kluczowe znaczenie, mogą okazać się niewystarczające. Podkreślają oni, że inteligentne maszyny autonomiczne nigdy nie dorównają ludzkiemu umysłowi pod względem elastyczności i zdolności do adaptacji, dlatego konieczne jest zachowanie ludzkiej kontroli nad AWS, zwłaszcza w kontekście systemów autonomicznych.

Warto również zwrócić uwagę na regulacje prawne dotyczące sztucznej inteligencji. W 2021 roku Komisja Europejska zaprezentowała propozycję regulacji w ramach tzw. Aktu o sztucznej inteligencji (AI Act), którego celem jest zapewnienie zaufania do systemów AI. Akt ten ma na celu zakazanie stosowania systemów AI, które mogą stanowić zagrożenie dla bezpieczeństwa obywateli. Jednak w obliczu braku jednolitych regulacji międzynarodowych, jak w przypadku państw takich jak Rosja, Chiny, USA czy Izrael, trudno przewidzieć, w jaki sposób te państwa dostosują się do norm etycznych i prawnych w kontekście rozwoju wojskowej AI.

Mimo tych wyzwań, eksperci, tacy jak Guru Saday Batabyal, wskazują, że użycie systemów uzbrojenia wspieranych przez AI – zarówno w świecie rzeczywistym, jak i w cyberprzestrzeni – będzie się nasilać. Z jednej strony w procesie tym będą uczestniczyć zarówno państwa, jak i podmioty spoza sektora państwowego. Batabyal podkreśla, że należy unikać przekraczania granic etycznych, np. w przypadku użycia dronów do eliminacji terrorystów. Należy pamiętać, że tego rodzaju działania nie mogą naruszać obowiązujących norm prawa międzynarodowego, a w szczególności międzynarodowego prawa humanitarnego (IHL). Jako że technologia będzie nadal rozwijana, przyszłość wymaga opracowania bardziej szczegółowych i zróżnicowanych przepisów prawnych, które będą w stanie uregulować użycie AWS w ramach ustalonych norm prawnych i etycznych.

Aby zminimalizować ryzyko wykorzystania AWS w sposób nieetyczny, niezbędne będzie zapewnienie odpowiednich szkoleń dla operatorów systemów AI, uwzględniających zarówno aspekty techniczne, jak i etyczne. Ponadto, ważne będzie opracowanie odpornych mechanizmów feedbackowych między projektantami oprogramowania, producentami sprzętu, decydentami politycznymi i wojskowymi oraz użytkownikami, by zapewnić, że decyzje podejmowane przez maszyny będą zgodne z międzynarodowymi standardami i wartościami moralnymi.

Jak sztuczna inteligencja zmienia przyszłość cyberobrony i wojny informacyjnej

Sztuczna inteligencja (SI) wkracza w coraz bardziej strategiczne obszary działań wojskowych, w tym w obszar cyberobrony oraz wojny informacyjnej. Technologie oparte na SI są wykorzystywane do przewidywania awarii, optymalizacji logistyki oraz do ulepszania defensywnych i ofensywnych operacji cybernetycznych. Już teraz wiele państw wprowadza zaawansowane rozwiązania, aby wykorzystać potencjał sztucznej inteligencji w tych krytycznych dziedzinach.

W Stanach Zjednoczonych armia korzysta z zaawansowanego oprogramowania, jak IBM Watson, by opracowywać plany konserwacji floty pojazdów opartych na danych z czujników. System ten analizuje informacje z 17 czujników zainstalowanych w każdym pojeździe Stryker, by dostosować harmonogramy napraw i zapobiec awariom. Podobne techniki przewidywania awarii wykorzystywane są w różnych gałęziach militarnego przemysłu, gdzie sztuczna inteligencja pozwala na tworzenie specjalistycznych rekomendacji dotyczących konserwacji, co minimalizuje ryzyko awarii i obniża koszty.

W obszarze operacji cybernetycznych zastosowanie sztucznej inteligencji może całkowicie zmienić dynamikę relacji między atakującymi a broniącymi. Ataki mogą stać się bardziej precyzyjne, z wykorzystaniem zaawansowanego przetwarzania języka naturalnego, co ułatwia tworzenie przekonujących kampanii phishingowych. Ponadto, SI może umożliwić tworzenie złośliwego oprogramowania, które będzie potrafiło mutować i unikać wykrycia, czyniąc systemy obronne znacznie bardziej podatnymi na ataki.

Z drugiej strony, SI oferuje nowe możliwości obrony przed takimi zagrożeniami. Algorytmy mogą automatycznie wykrywać anomalie w aktywności sieciowej, identyfikując niepożądane działania w czasie rzeczywistym. W ten sposób systemy obronne stają się bardziej odporne na ataki, ucząc się nowych wzorców zachowań z sieci i adaptując się do zmieniających się zagrożeń. Systemy SI mogą również automatycznie zarządzać reakcjami na ataki, przyspieszając wykrywanie i eliminowanie zagrożeń.

Zastosowanie SI w cyberobronie może również prowadzić do powstania nowych wyzwań, takich jak możliwość przeprowadzenia ataków prewencyjnych, zanim nastąpi rzeczywiste zagrożenie. Tego typu systemy, które reagują na podstawie wykrytych wzorców, mogą wyprzedzać atakujących, a także stawiać pytania o granice obrony i ataku w cyberprzestrzeni. Zwiększenie szybkości i precyzji ataków może także prowadzić do wyzwań związanych z międzynarodowym prawem i etyką wojny.

W obszarze wojny informacyjnej, sztuczna inteligencja umożliwia generowanie realistycznych treści, w tym materiałów wideo, audio i tekstów, które mogą być wykorzystywane w celu manipulacji opinią publiczną lub szerzenia dezinformacji. Dzięki rozwoju technologii, takich jak deepfake, coraz trudniej jest odróżnić prawdziwe informacje od fałszywych. Wzrost mocy obliczeniowej i zaawansowanie algorytmów powodują, że zarówno państwa, jak i niepaństwowi aktorzy mają dostęp do narzędzi umożliwiających tworzenie w pełni wiarygodnych materiałów wideo, które mogą podważać zaufanie społeczne, a także stanowić zagrożenie dla bezpieczeństwa narodowego.

SI w wojnie informacyjnej nie ogranicza się jedynie do tworzenia zmanipulowanych treści. Systemy sztucznej inteligencji są w stanie analizować ogromne ilości danych osobowych, tworząc szczegółowe profile jednostek, które mogą być wykorzystane w operacjach wywierania wpływu, szantażowaniu lub innych formach manipulacji. Dzięki możliwościom rozpoznawania wzorców w zachowaniach online, AI jest w stanie tworzyć indywidualnie dopasowane kampanie, które mogą wpływać na opinie milionów ludzi na całym świecie.

Zjawisko deepfake i sztucznej inteligencji pozwala również na stworzenie "cyfrowych wzorców życia", gdzie informacje o zachowaniach jednostki są łączone z danymi osobowymi, historią zakupów, czy aktywnością w sieci. Takie informacje mogą być wykorzystywane nie tylko do manipulacji, ale również do działań wywiadowczych, szantażu lub dezinformacji. Ponadto, publiczne zaufanie do informacji może zostać zachwiane, gdy prawdziwe wydarzenia zostaną zakwestionowane jako "fake news", co stwarza nowe wyzwania w walce z dezinformacją.

Sztuczna inteligencja wchodzi w erę, w której zarówno ataki cybernetyczne, jak i wojny informacyjne stają się coraz bardziej zaawansowane. Biorąc pod uwagę postęp w tej dziedzinie, obrona przed AI-stworzonymi zagrożeniami wymaga zintegrowanego podejścia, które łączy technologię z odpowiednimi ramami prawnymi i politycznymi. Tylko wówczas możliwe będzie skuteczne przeciwdziałanie wykorzystaniu SI w cyberprzestrzeni oraz w operacjach informacyjnych, które mogą zagrażać globalnemu bezpieczeństwu.

Jak sztuczna inteligencja zmienia przyszłość wojskowego lotnictwa?

Wzrost znaczenia sztucznej inteligencji (SI) w dziedzinie wojskowego lotnictwa staje się coraz bardziej zauważalny, zmieniając sposób prowadzenia działań wojennych oraz wykorzystywania platform powietrznych. Sztuczna inteligencja stanowi kluczowy czynnik umożliwiający realizację bardziej zaawansowanych i autonomicznych operacji, co może zrewolucjonizować współczesne podejście do wojskowego lotnictwa.

W 2020 roku amerykańska armia opublikowała zapytanie o informacje (RFI) dotyczące nowych UAV (Bezzałogowych Statków Powietrznych), które miałyby być wystrzeliwane z helikopterów zwiadowczych i szturmowych. Te urządzenia miałyby zdolność realizowania wielu ról: od rozpoznania, przez zakłócenia elektroniczne, aż po ataki, dezinformację, munitions samobójcze, aż po zdolności do działania w rojach. Kluczowym elementem ich rozwoju była autonomia operacyjna – zarówno półautonomiczna, jak i w pełni autonomiczna. Podkreślono także znaczenie systemów wizyjnych UAV, które wspierane są przez algorytmy sztucznej inteligencji, umożliwiające automatyczne wykrywanie potencjalnych celów.

Zainteresowanie masowym wykorzystaniem UAV wzrosło również dzięki spektakularnym demonstracjom ich możliwości w postaci ataków w roju. Ich niewielkie rozmiary, niski koszt, a także wykorzystanie sztucznej inteligencji pozwalające na łączenie ich w sieci, sprawiają, że roje UAV stają się pożądane w kontekście wojskowym. Przykładem takiego ataku, który przyciągnął uwagę całego świata, było zniszczenie obiektów należących do saudyjskiego koncernu Aramco w 2019 roku. Chociaż te ataki były określane przez media jako "roje dronów", nie były one w pełni zintegrowane przez AI w sposób, który charakteryzuje prawdziwe roje UAV.

W odpowiedzi na te zmiany, agencja DARPA rozpoczęła projekt OFFSET, który ma na celu rozwój technologii SI umożliwiającej współdziałanie 250 małych jednostek powietrznych i/lub naziemnych. Program ten, który ma na celu usprawnienie działań w gęsto zabudowanych miastach, obrazuje potencjał, jaki daje technologia roju UAV. Chiny oraz Unia Europejska również dostrzegają potencjał w rozwoju tej technologii. W Europie realizowane są projekty, takie jak DRONEDGE-E, które mają na celu stworzenie platformy do autonomicznego zarządzania rojem UAV w czasie rzeczywistym przy wykorzystaniu sztucznej inteligencji.

Szczególnym wyzwaniem w przypadku roju UAV operujących blisko siebie (oraz w bliskiej odległości od wrogich dronów) jest zapewnienie szybkiej i sprawnej komunikacji. Tradycyjne obliczenia w chmurze są zbyt wolne, by sprostać wymaganiom w zakresie czasów reakcji. Dlatego coraz częściej wykorzystuje się obliczenia brzegowe (edge computing), które pozwalają na przetwarzanie danych w miejscu ich powstawania, eliminując opóźnienia związane z przesyłaniem informacji do centralnych serwerów. Przykładem może być demonstracja Lockheed Martin, gdzie cztery UAV-ki rotacyjne, połączone z siecią 5G, współpracowały w czasie rzeczywistym, geolokalizując cel za pomocą algorytmów obliczeń brzegowych.

Technologia ta nie tylko rewolucjonizuje operacje wojskowe, ale także prowadzi do istotnych zmian w samej koncepcji prowadzenia wojny. Sztuczna inteligencja stanowi swoisty „wzmacniacz sił” – może przyczynić się do szybszych, mądrzejszych i bezpieczniejszych operacji przy minimalnych zasobach. W kontekście lotnictwa wojskowego, SI może zmienić sposób, w jaki postrzegamy użycie samolotów bojowych, walkę powietrzną, czy też ataki na dużych odległościach. Zamiast zależności od dużych bombowców strategicznych, roje małych dronów mogą wkrótce przejąć ich rolę, a dzięki swojej małej wielkości i autonomii – będą mogły przeprowadzać zadania niemożliwe do wykonania przez tradycyjne maszyny, jak np. precyzyjne ataki na cele osobowe.

Przyszłość lotnictwa wojskowego może wkrótce przyjąć formę zautomatyzowaną w znacznie większym stopniu. W roli „współdowódcy” operacji mogą występować systemy sztucznej inteligencji, które przejmą pełną odpowiedzialność za misje bojowe. Mimo obaw związanych z etyką i potencjalnymi zagrożeniami wynikającymi z braku ludzkiej kontroli, autonomiczne platformy powietrzne już teraz stają się częścią współczesnych strategii wojskowych.

Warto także zauważyć, że sama technologia SI nie jest obojętna w kontekście międzynarodowego prawa wojennego. Z racji dualnego charakteru większości rozwiązań sztucznej inteligencji, rozgraniczenie zastosowań cywilnych i wojskowych staje się coraz trudniejsze, a restrykcje w tym zakresie mogą okazać się nieefektywne. Sztuczna inteligencja zmienia zasady prowadzenia wojen – nie tylko poprzez zautomatyzowanie operacji, ale również poprzez szybkość, precyzyjność i skoordynowanie działań na poziomie globalnym.

Pomimo kontrowersji i obaw, AI z pewnością zdominuje przyszłość wojskowego lotnictwa. To, jak szybko będziemy w stanie dostosować się do tych zmian, zależy od rozwoju technologii oraz od poziomu zaufania, jakie uda się wypracować względem sztucznej inteligencji. Czas decyzji może zostać skrócony na tyle, że w pewnym momencie żaden człowiek nie będzie w stanie podjąć decyzji wystarczająco szybko, by pozostać w pętli OODA (Obserwuj, Orientuj się, Decyduj, Działaj). Sztuczna inteligencja prowadzi nas ku erze wojny zdalnej, prowadzonej przez autonomiczne maszyny, a przyszłość takich systemów wydaje się już bliska.

Jakie wyzwania etyczne stawia wykorzystanie sztucznej inteligencji w wojsku?

Wykorzystanie sztucznej inteligencji (SI) w wojskowości budzi szereg pytań etycznych, które wymagają głębszej analizy. Z jednej strony pojawiają się nadzieje na precyzyjniejsze działania i mniejsze straty, z drugiej zaś rosną obawy dotyczące nowych rodzajów broni masowego rażenia, braku kontroli ludzkiej nad decyzjami oraz możliwej zmiany równowagi geopolitycznej. Zrozumienie potencjalnych korzyści i zagrożeń związanych z AI w kontekście wojskowym jest kluczowe dla oceny jej wpływu na przyszłość działań zbrojnych. W tej koncepcji ważne jest, aby przyjrzeć się zarówno wykorzystaniu technologii AI w wsparciu decyzji ludzkich, jak i jej pełnej autonomii w podejmowaniu decyzji, szczególnie w kontekście systemów broni autonomicznych (AWS).

W pierwszym przypadku, gdzie sztuczna inteligencja wspiera ludzkie decyzje, jej rola polega głównie na usprawnieniu analizy danych, identyfikacji i ocenie celów. Technologie te, oparte na danych zebranych z różnych źródeł, oferują rekomendacje dotyczące wyboru celów, co może znacząco przyspieszyć procesy decyzyjne. Jednak mimo znacznych korzyści związanych z szybkością i precyzją takich systemów, wiążą się one również z problemami etycznymi. Istnieje bowiem ryzyko związane z błędami w klasyfikacji celów, przeciążeniem informacyjnym, automatycznym przekonaniem o poprawności systemu, czy też zjawiskiem zwanego "automatycznym zaufaniem". Wszystkie te czynniki mogą prowadzić do niezamierzonych konsekwencji w czasie rzeczywistym.

Z kolei autonomiczne systemy broni, które działają bez bezpośredniej ingerencji człowieka, stanowią jeszcze większe wyzwanie. Zwolennicy tego typu technologii wskazują, że maszyny, operujące wyłącznie na podstawie racjonalnej analizy, mogą przejąć funkcję, która dotychczas należała do ludzi, a więc ograniczyć wpływ emocji na decyzje bojowe, co w teorii mogłoby poprawić efektywność działań. Z drugiej strony przeciwnicy takiego rozwiązania podkreślają, że emocje, choć mogą prowadzić do błędów, są także kluczowe dla moralności decyzji, ponieważ pozwalają na empatię, zrozumienie drugiego człowieka i podejmowanie decyzji, które są zgodne z wartościami etycznymi. Przekazanie decyzji o życiu i śmierci maszynom rodzi poważne dylematy moralne, związane z utratą godności ludzkiej i dehumanizacją wojny.

Kluczowe pytania dotyczące AI w wojskowości obejmują zagadnienia kontroli i wyjaśnialności. Kto i w jaki sposób podejmuje decyzję o rozwoju i wdrażaniu systemów opartych na sztucznej inteligencji? W jakim momencie ludzie powinni przejmować kontrolę nad tymi systemami, aby zmniejszyć ryzyko wypadków? Jakie są zagrożenia związane z niewłaściwym użyciem tych technologii, takie jak naruszenie prywatności czy cyberataki? Istnieje także pytanie o odpowiedzialność – kto ponosi odpowiedzialność za decyzje podjęte przez maszyny i jak wyciągać konsekwencje, gdy coś pójdzie nie tak?

Wojskowe zastosowanie AI, poza autonomicznymi systemami broni, obejmuje także wsparcie logistyczne i wspomaganie podejmowania decyzji przez ludzi. Przykładem mogą być systemy, które analizują dane dotyczące celów i przedstawiają rekomendacje dotyczące działań bojowych. W takim przypadku technologia ma za zadanie wspierać proces podejmowania decyzji w trudnych warunkach, ułatwiając ocenę sytuacji i dobór optymalnych reakcji.

Jednakże w każdej z tych ról AI w wojsku stawia wyzwania związane z precyzyjnością i kontrolą nad działaniami systemów autonomicznych. Istnieje bowiem ryzyko, że te technologie mogą działać w sposób nieprzewidywalny, a ludzki nadzór nad ich działaniem może być ograniczony, zwłaszcza w sytuacjach, które wymagają błyskawicznych reakcji.

Podstawowym zagadnieniem, które należy brać pod uwagę, jest odpowiednie szkolenie ludzi obsługujących te systemy. Ważne jest nie tylko techniczne przygotowanie, ale również kształtowanie etycznych postaw i zrozumienie konsekwencji decyzji podejmowanych przez maszyny. Tylko wtedy, gdy ludzie będą odpowiednio przygotowani, możliwe będzie ograniczenie ryzyka, jakie niesie ze sobą pełne wykorzystanie sztucznej inteligencji w wojsku.

Warto pamiętać, że choć AI ma potencjał do zwiększenia efektywności działań wojskowych, to nie można zapominać o etycznych konsekwencjach, które mogą wyniknąć z jej stosowania. Sztuczna inteligencja nie jest neutralna, a jej decyzje mogą wpływać na życie ludzkie w sposób, który wykracza poza techniczne możliwości jej programowania.

Jakie są granice odpowiedzialności państwa w obliczu nowych technologii wojskowych i terroryzmu?

Pomimo działania grup takich jak Lashkar-e-Taiba czy Jaish-e-Mohammad, Stany Zjednoczone nie umieściły Pakistanu na liście państw sponsorujących terroryzm. Polityka USA w tej kwestii jest częściowo instrumentalna, a częściowo sprzeczna. W kontekście zabójstwa Aymana al-Zawahiriego nasuwa się pytanie, czy można je uznać za "odwet w czasie pokoju", wbrew terminowi "zabójstwo pozasądowe" autorstwa prawnika Ben’a Saula. Michael Walzer stwierdza, że termin "odwet w czasie pokoju" nie jest do końca trafny, ponieważ prawo międzynarodowe traktuje o wojnie i pokoju, a nic pomiędzy. Niemniej jednak Walzer nie jest zadowolony z sztywnego podziału na "wojnę" i "pokój", ponieważ uważa, że „większość historii to demi-monde, który żadne z tych pojęć nie opisuje w pełni.”

Polityka USA stosująca drony do przeprowadzania precyzyjnych egzekucji budzi kontrowersje pod względem legalności, ale jednocześnie rodzi pytania, co zrobić w sytuacjach, w których terroryści, chronieni przez państwa, które nie są formalnie w stanie wojny, są likwidowani bez wyrządzania szkód cywilnym (jak np. ofiary niewinnych ludzi) w ramach realizacji celu narodowego, jakim jest eliminacja terroryzmu. Tego rodzaju działania wojskowe z wykorzystaniem dronów charakteryzuje asymetria, typowa dla odwetów w czasie pokoju. Ich celem jest wywieranie presji oraz pacyfikowanie terrorystów, którzy ukrywają się za granicą, w odległych krajach, by zapobiec ponownemu wybuchowi terroryzmu. Wykorzystanie takich zaawansowanych systemów, oprócz eliminacji celu, także wywołuje strach i wysyła komunikat, że bez bezpośredniego kontaktu można zemścić się poprzez użycie AWS (Automated Weapon Systems).

Jednym z klasycznych przykładów odwetu w czasie pokoju jest akcja, która miała miejsce 26 grudnia 1968 roku, kiedy dwóch terrorystów zaatakowało izraelski samolot w trakcie przygotowań do startu z Aten. Po ich aresztowaniu okazało się, że sprawcy byli członkami Organizacji Wyzwolenia Palestyny (OWP), która miała swoją siedzibę w Bejrucie. Z 50 pasażerów na pokładzie zginęła tylko jedna osoba. Dwa dni później izraelscy komandosi przeprowadzili operację odwetową, lądując na lotnisku w Bejrucie i niszcząc 13 libańskich samolotów cywilnych. Ta operacja, mimo że spotkała się z międzynarodową krytyką, była uznana przez Izrael za moralnie uzasadnioną, ponieważ po wielokrotnych ostrzeżeniach skierowanych do Libanu, władze izraelskie uznały, że nie miały innego wyboru, jak tylko przeprowadzić dramatyczny odwet. Co ważne, operacja ta nie przyniosła ofiar wśród cywilów, pomimo śmierci obywatela Izraela w ataku na lotnisku w Atenach.

Kiedy mowa o odpowiedzialności za działania w ramach odwetu w czasie pokoju czy przestępstw wojennych, ostateczna odpowiedzialność spoczywa na głowie państwa, ponieważ to ona reprezentuje naród na arenie międzynarodowej. Odpowiedzialność za takie działania jest zarówno moralna, jak i prawna. Jak twierdzi Brian Orend, "przywódcy państw pragną władzy, aktywnie jej szukają, czerpią z niej przyjemność i wywierają ogromny wpływ. Często mają nadzieję, że będą chwaleni za dobre uczynki, ale nie mogą uniknąć winy za zło."

Wraz z rosnącą komercyjną dostępnością UAV (bezzałogowych statków powietrznych) na rynku i ich rozwojem technologicznym, drony stają się coraz poważniejszym zagrożeniem, zwłaszcza w rękach grup terrorystycznych. Drony, które mogą być załadowane substancjami chemicznymi, biologicznymi, radiologicznymi, jądrowymi czy wybuchowymi (CBRNE), mogą zostać użyte do przeprowadzania zamachów. Różnorodne grupy terrorystyczne oraz bojownicy zbrojnych grup opozycyjnych już wykorzystują UAV do ataków i zbierania informacji wywiadowczych. Komercyjny segment rynku UAV w regionie Azji i Pacyfiku prognozowany jest na najwyższy wzrost w okresie 2021-2026.

4 sierpnia 2018 roku miała miejsce próba zamachu na prezydenta Wenezueli, Nicolasa Maduro, który przemawiał na publicznej uroczystości. Dwa drony, załadowane silnymi materiałami wybuchowymi, zostały użyte przez grupę terrorystyczną, aby zabić prezydenta. Choć atak nie odniósł sukcesu, to wydarzenie unaoczniło dwa kluczowe aspekty: łatwość, z jaką drony mogą być wykorzystane do zamachu na najwyższą władzę w państwie, oraz trudność w obronie przed takimi atakami. Użycie uzbrojonych dronów przez grupy terrorystyczne lub organizacje działające na zlecenie państw jest realnym zagrożeniem. To już się dzieje – organizacje takie jak Hezbollah czy Houthi używają dronów do atakowania systemów obrony powietrznej w Jemenie, a ISIS wykorzystywało UAV do zbierania wywiadu, a także do ataków ofensywnych.

Zjawisko proliferacji technologii UAV w rękach terrorystów i bojowników jest niepokojące. Istnieje realna obawa, że drony będą używane do ataków z wykorzystaniem broni masowego rażenia, takich jak broń chemiczna, biologiczna czy wirusy, na dużych zgromadzeniach publicznych, jak stadiony sportowe, wiece polityczne czy stacje kolejowe. Tego typu ataki mogą powodować poważne straty w ludziach, ale również mogą wywołać panikę i strach, co jest celem terrorystów. Drony mogą też zostać użyte do rozprzestrzeniania śmiercionośnych substancji, co stanowi poważne zagrożenie w kontekście współczesnych technologii wojskowych.