Podstawowe elementy sztucznej inteligencji (SI) są oparte na algorytmach uczenia maszynowego (ML), które umożliwiają maszynom wykrywanie wzorców w danych, podejmowanie decyzji i dostosowywanie swojego zachowania w odpowiedzi na zmiany w otoczeniu. Proces ten nazywany jest uczeniem maszynowym, a jego podzbiór, głębokość analizy i adaptacji, to uczenie głębokie (DL). W miarę jak technologie takie jak internet rzeczy (IoT), chmura obliczeniowa, robotyka, biotechnologia czy nanotechnologia ewoluują, stają się one fundamentem dla rozwoju sztucznej inteligencji w sektorach cywilnych i wojskowych.

Sztuczna inteligencja to termin obejmujący szeroki wachlarz powiązanych ze sobą technologii, głównie w obszarze informatyki i komunikacji (ICT). Z kolei broń staje się coraz bardziej zintegrowana z nowoczesnymi systemami informacyjnymi i zautomatyzowanymi. Dzięki tym postępom systemy wojskowe stają się bardziej "inteligentne", a sama broń coraz bardziej "informacyjna".

Obecnie badania nad sztuczną inteligencją w wojsku przybierają formę nie tylko analizy technicznych możliwości, ale także debat społecznych i etycznych. Współczesne definicje systemów autonomicznych i zautomatyzowanych wojskowych wciąż są rozbieżne, ale ich zrozumienie jest kluczowe. W Wielkiej Brytanii, w dokumencie Joint Doctrine Note z 2011 roku, rozróżniono systemy zautomatyzowane i autonomiczne. System zautomatyzowany działa zgodnie z zaprogramowanymi regułami, co prowadzi do przewidywalnych rezultatów. Z kolei system autonomiczny posiada zdolność rozumienia bardziej złożonych celów i intencji, analizując środowisko w sposób samodzielny i podejmując decyzje oparte na licznych alternatywach, bez potrzeby nadzoru człowieka.

W rozróżnieniu na automat, zautomatyzowany i autonomiczny system, rozmawiamy o różnych stopniach inteligencji i autonomii. Automat jest systemem podstawowym, działającym na podstawie thresholdów i prostych reakcji. Zautomatyzowany system jest bardziej złożony, ponieważ bierze pod uwagę różne zmienne przed podjęciem decyzji. Autonomiczne maszyny, z kolei, mają na celu osiąganie specyficznych celów, jednak same decydują, jak te cele zrealizować, co sprawia, że ich zachowanie może być nieprzewidywalne.

W kontekście wojskowym pojawiają się pytania o roboty i drony. Czeski autor Karel Čapek w 1921 roku w swojej sztuce "R.U.R." użył pojęcia robota, wywodzącego się od czeskiego słowa "robota", oznaczającego pracę przymusową. Istnieje różnica między programem komputerowym a robotem. Robot, w przeciwieństwie do programu komputerowego, może podejmować działania w fizycznym świecie. Współczesne roboty, a także drony, są systemami cyber-fizycznymi, łączącymi komponenty fizyczne i programowe. Z perspektywy francuskiej, robot wojskowy to system zdolny do percepcji, komunikacji, podejmowania decyzji i działania. Może on działać pod nadzorem człowieka, ale także poprawiać swoje działanie poprzez automatyczne uczenie.

Roboty wojskowe dzielą się na trzy generacje. Roboty pierwszej generacji działają na podstawie oprogramowania i zdalnego sterowania, mogą operować jedynie w zorganizowanych warunkach. Druga generacja robotów posiada już zdolności adaptacyjne i sensoryczne, pozwalając im na współpracę w zmieniających się warunkach. Roboty trzeciej generacji to systemy inteligentne, z elementami sztucznej inteligencji, zdolne do podejmowania decyzji w bardziej skomplikowanych, zmiennych środowiskach. W tym kontekście, jedynie roboty trzeciej generacji uznawane są przez rosyjską armię za systemy autonomicznych broni (AWS), a te, które mogą samodzielnie identyfikować cele i wystrzeliwać bez nadzoru człowieka, są określane mianem Lethal Autonomous Weapon Systems (LAWS).

Współczesne roboty wojskowe to zróżnicowane maszyny, od dronów (UAV) po bezzałogowe pojazdy naziemne (UGV), które mają różne przeznaczenie, od rozpoznania po walkę. W 2008 roku szacowano, że armia USA posiadała już ponad 11 000 robotów, z czego część była uzbrojona, jak np. bezzałogowe statki powietrzne MQ Predator, znane z licznych misji bojowych. Jednak rozwój technologii sztucznej inteligencji w wojsku nie ogranicza się tylko do wielkich maszyn; przykładem są małe, zwinne drony, takie jak Black Widow, wykorzystywane do misji wywiadowczych, które mogą działać w trudnych warunkach miejskich, np. w trakcie operacji kontrterrorystycznych.

Przykłady takich maszyn jak Ripsaw M5, autonomiczne czołgi, pokazują, jak zaawansowana sztuczna inteligencja może wspierać działania wojskowe, redukując konieczność stałego nadzoru człowieka. Te maszyny, dzięki algorytmom uczenia maszynowego, mogą uczyć się na bieżąco ze swojego otoczenia i w ten sposób działać autonomicznie w zmieniających się warunkach. Tego rodzaju maszyny mogą mieć wielki wpływ na przyszłość wojen, wprowadzając nowe wyzwania zarówno technologiczne, jak i etyczne.

Ważne jest, aby zrozumieć, że rozwój autonomicznych systemów wojskowych nie jest tylko kwestią technologiczną. Wprowadzenie takich systemów wiąże się z poważnymi dylematami dotyczącymi odpowiedzialności, prawa międzynarodowego oraz potencjalnych skutków dla globalnej stabilności. Technologie te mogą zmienić dynamikę wojny, czyniąc ją szybszą, bardziej precyzyjną, ale również trudniejszą do kontrolowania. Każda innowacja w tej dziedzinie rodzi pytania o etyczną granicę, która oddziela użycie technologii w obronie przed niebezpieczeństwem od jej wykorzystania do ofensywy, prowadzącej do nieprzewidywalnych i trudnych do kontrolowania skutków.

Jakie są etyczne i praktyczne wyzwania związane z używaniem systemów autonomicznych w wojskowości?

Brak ludzkiej odpowiedzialności w decyzji o zabiciu lub zranieniu oznacza, że nie uznaje się ludzkiej godności celu ataku, co podważa etykę systemów opartych na sztucznej inteligencji w wojsku. Brak aktywnego uczestnictwa człowieka w podejmowaniu decyzji, które prowadzą do utraty życia, zmniejsza także odpowiedzialność osób dokonujących tych decyzji, co może prowadzić do dehumanizacji wojny. Nie ma nic nieodpowiedniego w tym, że decyzje prowadzące do śmierci odbywają się bez aktywnego udziału człowieka, ale równocześnie jest to wyzwanie etyczne, którego nie można zignorować.

W tradycji wojennej, począwszy od ideałów rycerskich, istniał element wzajemnego ryzyka: obie strony, decydując się na wojnę, ponosiły ryzyko, co prowadziło do pewnej powściągliwości i ustanawiania wspólnych zasad. Zwiększone użycie autonomicznych systemów uzbrojenia (AWS) może usunąć lub zmniejszyć to ryzyko, jeśli jedna strona będzie dysponować bronią autonomiczną, działającą bez udziału człowieka, podczas gdy druga strona będzie walczyć z udziałem ludzi. Takie nierówności w rozkładzie ryzyka nie są nowym zagadnieniem – miały miejsce również podczas bombardowań z dużych wysokości, gdzie ryzyko było nierównomiernie rozłożone. Jednak w przypadku autonomicznych systemów uzbrojenia problem ten staje się jeszcze bardziej wyraźny, ponieważ brak wzajemności w ryzyku może prowadzić do nowych form nierówności wojskowej.

Należy zauważyć, że ruchy takie jak "Ban Killer Robots" mogą czasami nie dostrzegać zalet systemów opartych na AI w funkcjach wspomagania decyzji. Tego typu technologie mogą służyć do ochrony cywilów oraz zwiększenia bezpieczeństwa sił zbrojnych. Istnieje jednak ryzyko, że rozwój systemów autonomicznych – zarówno na polu walki tradycyjnej, jak i w cyberprzestrzeni – doprowadzi do sytuacji, w której człowiek nie będzie miał wpływu na decyzje o zabijaniu, a oddalenie intencji użytkownika od rzeczywistych punktów decyzyjnych stanie się normą. Kluczowym zagadnieniem w tej kwestii jest zatem zapewnienie, by deweloperzy i użytkownicy takich systemów ponosili odpowiedzialność za ich działania, zamiast domagać się całkowitego zakazu ich używania.

Z perspektywy prawa, ustalenie międzynarodowych regulacji dotyczących używania autonomicznych systemów uzbrojenia może stać się priorytetem wielu państw, w tym tych, które rozwijają takie technologie. Ograniczenia w użyciu AWS byłyby korzystne przede wszystkim dla operatorów wojskowych, ponieważ dotyczyłyby one głównie zasad bezpieczeństwa i ryzyka eskalacji, natomiast nie poruszałyby bezpośrednio kwestii podwójnego przeznaczenia, które dotyczy producentów tych systemów. Należy jednak rozważyć możliwość zakazu stosowania niektórych AWS, zwłaszcza w kontekście decyzji o użyciu broni nuklearnej czy rakiet hipersonicznych.

Użycie sztucznej inteligencji w wojsku wiąże się z dwoma głównymi problemami etycznymi. Po pierwsze, złożoność systemów AI może prowadzić do poważnych wypadków. Projektanci i użytkownicy mają obowiązek oceny prawdopodobieństwa takich zdarzeń i wprowadzenia środków zapobiegawczych. Po drugie, jako potężne narzędzie, AI może być wykorzystywane w sposób złośliwy, na przykład w kierunku cywilów lub w przypadku przejęcia kontroli nad systemem przez przeciwnika. Ważne jest, by zrozumieć, że tego rodzaju przypadki mają swoje korzenie zarówno w błędach, jak i w intencjonalnym nadużyciu technologii.

Z kolei pojęcie "wypadku" w kontekście AI jest szerokie i dotyczy niezamierzonych, nieplanowanych zdarzeń, które prowadzą do utraty ludzkiego życia, uszkodzenia mienia czy zanieczyszczenia środowiska. Z kolei bezpieczeństwo oznacza "wolność od wypadków". Zapewnienie bezpieczeństwa w kontekście AI to kluczowy aspekt praktycznej mądrości. Największe wyzwania pojawiają się, gdy AI jest wykorzystywana do dostarczania broni w strefach walki. Problemów z bezpieczeństwem AI można zidentyfikować w trzech głównych obszarach: amplifikacja błędów, niezgodność oprogramowania z zadaniami w realnym świecie i błędna komunikacja.

Amplifikacja błędów jest zjawiskiem, które pojawia się, gdy AI zmienia zakres i intensywność błędów w systemach. Choć automatyzacja systemów miała na celu zmniejszenie liczby błędów popełnianych przez ludzi, to sama w sobie nie jest wolna od zagrożeń. W przypadku AI błędy mogą być bardziej gwałtowne i rozprzestrzeniać się po całych systemach, prowadząc do nieprzewidzianych konsekwencji. Termin "emergent effects" odnosi się do zjawisk, które pojawiają się, gdy dwa lub więcej systemów wchodzi w interakcję, co może prowadzić do niezamierzonych rezultatów. Takie efekty, w kontekście wojskowych systemów AI, mogą prowadzić do poważnych wypadków.

Niezgodność oprogramowania z rzeczywistymi zadaniami to kolejny problem, który pojawia się, gdy inżynierowie tworzą systemy, które nie są w pełni dopasowane do wymagań specyficznych dziedzin, takich jak kontrola lotów czy zarządzanie autonomicznymi broniami. Błędy wynikające z tego braku zrozumienia specyficznych zastosowań mogą prowadzić do poważnych problemów w działaniu systemu, szczególnie w tak krytycznych obszarach jak wojskowość.

Jak technologia sztucznej inteligencji wpływa na bezpieczeństwo w wojsku i jej potencjalne zagrożenia?

Współczesne technologie oparte na sztucznej inteligencji (AI) zyskują coraz większe znaczenie w wielu dziedzinach, w tym w obszarze wojskowym. Chociaż ich potencjał w poprawie efektywności i precyzyjności działań wojskowych jest niezaprzeczalny, wprowadzają one również szereg nowych wyzwań i zagrożeń. Problemy te mogą mieć poważne konsekwencje zarówno dla sił zbrojnych, jak i dla cywilów, szczególnie w kontekście zastosowania AI w systemach broni, zarządzania strategicznego czy cyberbezpieczeństwa.

Jednym z kluczowych zagadnień związanych z wprowadzeniem AI do systemów wojskowych jest kwestia błędów wynikających z niewłaściwych założeń w projektowaniu oprogramowania. Wiele poważnych wypadków, które miały miejsce w ostatnich dwóch dekadach, można przypisać nie tyle błędom w kodowaniu, ile raczej błędnym wymaganiom, które stanowiły podstawę do stworzenia tego oprogramowania. Brak precyzyjnych, kompletnych i poprawnych założeń dotyczących funkcjonowania systemu prowadzi do nieoczekiwanych rezultatów, które mogą mieć katastrofalne skutki w czasie rzeczywistym. Sytuacja ta jest szczególnie niebezpieczna w kontekście wojskowym, gdzie błędy w wymaganiach mogą prowadzić do nieszczęśliwych wypadków, a w skrajnych przypadkach – do eskalacji konfliktów zbrojnych.

Przypadek zastosowania AI w systemach broni jądrowej stanowi wyjątkowo niepokojący przykład. AI może być używane do różnych zadań, takich jak ochrona infrastruktury nuklearnej przed cyberatakami, utrzymanie systemów w dobrym stanie operacyjnym czy dostarczanie broni w sytuacjach kryzysowych. Jednak każda z tych ról niesie ze sobą zarówno korzyści, jak i potencjalne zagrożenia. Na przykład, podczas gdy AI może pomóc w zwiększeniu precyzyjności wykrywania rakiet nuklearnych, błędna analiza lub awaria systemu może prowadzić do fałszywego alarmu i wywołania niezamierzonych działań odwetowych. W obliczu tak poważnych konsekwencji, kwestia, kto ma pełną kontrolę nad decyzją o użyciu broni nuklearnej, pozostaje jednym z najbardziej kontrowersyjnych aspektów w dyskusji o AI w wojsku.

Innym istotnym problemem jest komunikacja człowiek-maszyna. Użytkownicy AI w wojsku rzadko są ekspertami w tej dziedzinie, co stwarza ryzyko nieporozumień między ludźmi a systemami sztucznej inteligencji. Istnieje wiele przykładów, w których nieprawidłowa interpretacja poleceń i oczekiwań może prowadzić do katastrofalnych skutków. Sztuczna inteligencja, choć zaprojektowana na wzór ludzkiego myślenia, nie zawsze potrafi uchwycić subtelności kontekstu, które są naturalne dla ludzi. Błędy te mogą być szczególnie niebezpieczne w warunkach wojennych, gdzie decyzje muszą być podejmowane szybko i precyzyjnie.

Z tego powodu rozwój tzw. „inteligencji hybrydowej”, w której AI współpracuje z ludzkimi operatorami, jest jednym z kierunków rozwoju, który może pomóc zminimalizować ryzyko błędów wynikających z nieporozumień. Korzyści płynące z tej koncepcji są widoczne w zastosowaniach, gdzie maszyny wykonują zadania wymagające dużej precyzji i szybkości obliczeniowej, a człowiek odpowiada za wprowadzanie elastyczności i podejmowanie decyzji w przypadkach, które wymagają większej intuicji i zrozumienia kontekstu. Tego rodzaju systemy mogą znacząco zmniejszyć liczbę wypadków spowodowanych przez niewłaściwe zrozumienie między maszyną a człowiekiem.

Problem nadużywania AI w wojsku również budzi poważne zaniepokojenie. AI może być wykorzystana zarówno do ataków na cele militarne, jak i do subwersji systemów przeciwnika. Może to prowadzić do sytuacji, w której atak z wykorzystaniem precyzyjnych systemów sztucznej inteligencji może prowadzić do niezamierzonych ofiar cywilnych lub zniszczenia krytycznych obiektów infrastruktury cywilnej, takich jak systemy zarządzania ruchem lotniczym. Z jednej strony AI daje możliwość precyzyjnego identyfikowania celów, co teoretycznie mogłoby zmniejszyć liczbę ofiar cywilnych. Z drugiej strony, niewłaściwe ukierunkowanie ataków może prowadzić do masowych naruszeń prawa międzynarodowego i zbrodni wojennych, w tym ludobójstwa.

Infrastruktura cyfrowa, która jest obecnie szeroko wykorzystywana zarówno w sektorze cywilnym, jak i wojskowym, staje się jednym z głównych obszarów ryzyka w kontekście wojen hybrydowych. Zdolność do przeprowadzenia cyberataków na systemy militarnego i cywilnego znaczenia może spowodować paraliżowanie gospodarki i życia społecznego, jednocześnie nie narażając wojskowych na bezpośrednią konfrontację. Sytuacja ta prowadzi do zatarcia granic między wojną a pokojem, gdzie coraz więcej aspektów codziennego życia staje się podatnych na ataki.

Zatem, mimo ogromnych korzyści, jakie niesie ze sobą wprowadzenie AI w wojsku, nie można zapominać o ryzykach związanych z jego nadużywaniem i błędnym użyciem. Technologie te, chociaż mogą wspierać i usprawniać wiele operacji wojskowych, muszą być stosowane w sposób odpowiedzialny i z pełnym zrozumieniem ich potencjalnych zagrożeń, zarówno w kontekście bezpieczeństwa narodowego, jak i ochrony ludzkich żyć.

Jak sztuczna inteligencja zmienia pole walki: wyzwania prawne i etyczne autonomicznych systemów broni

Sztuczna inteligencja (SI) ma coraz większy wpływ na współczesne operacje wojskowe, zmieniając zarówno sposób prowadzenia działań wojennych, jak i same mechanizmy decyzji strategicznych. W miarę jak technologie autonomicznych systemów broni (LAWS) rozwijają się, stają się one centralnym punktem debat na temat bezpieczeństwa, prawa i etyki wojny. Te maszyny, które mogą operować samodzielnie, wykrywając i angażując cele bez udziału człowieka, wywołują pow

Jak wykorzystanie sztucznej inteligencji może wspierać podejmowanie decyzji w konfliktach zbrojnych?

Współczesna wojna staje się coraz bardziej zależna od technologii, a sztuczna inteligencja (AI) zyskuje na znaczeniu w kontekście podejmowania decyzji i analizowania danych. Komputery, dzięki swojej szybkości i zdolności przetwarzania ogromnych ilości informacji, przewyższają ludzkie zdolności umysłowe, co prowadzi do rozważań nad zastosowaniem oprogramowania opartego na AI do interpretacji i analizy danych w kontekście operacji wojskowych. Zgodnie z opinią Stevena I. Davisa, amerykańskiego oficera marynarki wojennej, kontrola ludzka nad decyzjami wspieranymi przez maszyny jest niezbędna i może być utrzymywana, jeśli wykorzystuje się ograniczoną formę sztucznej inteligencji (ANI) w różnych, oddzielnych komponentach procesu planowania wojskowego. Kluczowe w tym rozważaniu jest wskazanie, że ANI, w przeciwieństwie do sztucznej inteligencji ogólnej (AGI), jest odpowiednią formą technologii, która może wspomagać podejmowanie decyzji, nie zastępując jednak człowieka.

Sztuczna inteligencja ogólna (AGI) mogłaby teoretycznie nie tylko kopiować ludzkie myślenie, ale również wymyślać nowatorskie metody analizy krytycznej. Zamiast jedynie replikować i automatyzować decyzje podejmowane przez ludzkich dowódców, AGI mogłaby pełnić rolę pomocniczą, oferując odmienne rozwiązania dla problemów stojących przed dowództwem wojskowym. Wyzwanie w przypadku AGI polega na jej wysokiej kosztowności i złożoności, które wiążą się z nieprzewidywalnym zachowaniem systemu, szczególnie w sytuacjach chaotycznych. W przyszłości może się zdarzyć, że drużyna dronów sterowanych przez AGI obróci się przeciwko własnym wojskom, co stanowi poważne ryzyko.

Z kolei według Manisha Chowdhury’ego, oficera indyjskiej marynarki wojennej, ANI powinna być wykorzystywana do wspomagania, a nie zastępowania ludzkiego osądu na poziomie taktycznym. Chowdhury zaznacza, że zwycięstwo w walce zależy w dużej mierze od decyzji dowódców, które opierają się na ich percepcji, doświadczeniu i procedurach. Zastosowanie systemów wspomagania decyzji opartych na uczeniu maszynowym (ML) w połączeniu z danymi o sile, statystykach wcześniejszych decyzji i inteligencji sytuacyjnej może wspierać efektywne podejmowanie decyzji w kontekście wielokryterialnym. Te systemy mogą pomóc w zmniejszeniu czasu reakcji i poprawieniu sytuacyjnej świadomości na polu bitwy, co może być kluczowe w nowoczesnych operacjach wojskowych.

Znaczącą rolę w zwiększaniu świadomości sytuacyjnej odgrywa także Internet Rzeczy (IoT), który gromadzi, analizuje i dostarcza skondensowane informacje w czasie rzeczywistym. Dzięki temu, dowódcy mogą podejmować szybkie i adekwatne decyzje wojskowe. W kontekście indyjskich sił zbrojnych, Batalionowy System Zarządzania Polem Walki (BMS) stanowi ważny element komunikacji w operacjach przeciwko nieregularnym grupom zbrojnym. System ten umożliwia skuteczną komunikację z jednostkami, w tym bezzałogowymi statkami powietrznymi (UAV), które stanowią kluczowy element w monitorowaniu i kierowaniu działaniami na polu bitwy.

BMS składa się z trzech głównych komponentów: sieci C3, bazy danych w chmurze oraz systemów załogowych i bezzałogowych. Za pomocą tego systemu dowódcy mogą komunikować się z głównymi sztabami oraz zdalnymi jednostkami, a także nadzorować UAV, które odgrywają kluczową rolę w monitorowaniu sytuacji na polu bitwy. Co więcej, w Indii na poziomie walki z nieregularnymi siłami zbrojnymi rozwijany jest system dowodzenia oparty na interakcji maszyn i ludzi, który umożliwi integrację różnych platform, zarówno bezzałogowych, jak i załogowych.

Ważnym wyzwaniem związanym z wdrożeniem technologii opartych na AI w operacjach wojskowych jest zapewnienie bezpieczeństwa w trakcie wspólnej pracy UAV z samolotami załogowymi. Aby uniknąć wypadków, konieczne jest wyposażenie UAV w odpowiednie czujniki, takie jak radary optyczne, czujniki podczerwieni czy systemy LIDAR, które umożliwią wykrywanie zagrożeń w postaci innych obiektów latających oraz przeszkód na ziemi. Również konieczność utrzymania łączności głosowej między operatorami UAV a kontrolą ruchu lotniczego staje się niezbędna w kontekście tak zaawansowanych systemów.

Szkolenie personelu wojskowego w zakresie obsługi autonomicznych systemów bojowych (AWS) w scenariuszach walki jest kluczowe. Dowódcy muszą być odpowiednio przeszkoleni w operowaniu takimi systemami w różnych warunkach terenowych, aby mogli w pełni wykorzystać ich potencjał w walce. W Indii regularnie przeprowadza się wspólne ćwiczenia wojskowe, w których wykorzystywane są UAV. Jednak kluczowym wyzwaniem pozostaje kwestia interoperacyjności między systemami różnych rodzajów sił zbrojnych. Aby zapewnić skuteczne wykorzystanie nowych technologii, konieczne jest stworzenie wspólnej ramy szkoleniowej.

Trening w tym zakresie nie ogranicza się jedynie do symulacji komputerowych, lecz wymaga rzeczywistych ćwiczeń w różnych warunkach terenowych. Takie działania pozwolą na lepsze przygotowanie jednostek do przeciwdziałania zaawansowanym taktykom, jak np. wykorzystanie taktyk stada dronów, które mogą być używane przez grupy terrorystyczne wspierane przez obce państwa. Kolejnym istotnym elementem jest rozwój nowego programu szkoleniowego, który będzie w stanie przygotować personel do obsługi nowoczesnych technologii, z naciskiem na umiejętność analizowania danych i podejmowania decyzji wspieranych przez AI.

Podstawowym wyzwaniem jest jednak problem odpowiedzialności w przypadku błędów podejmowanych przez autonomiczne systemy broni. Kiedy AWS popełni błąd i zaatakuje własne oddziały lub cywilów, pytanie o odpowiedzialność staje się kluczowe. Kwestią, którą należy pilnie rozwiązać, jest etyka i legalność wykorzystania systemów broni autonomicznych (LAWS), szczególnie w kontekście działań przeciwko nieregularnym grupom zbrojnym. Współczesne dyskusje na temat tych systemów odnoszą się nie tylko do samej skuteczności militarnej, ale również do aspektów moralnych i prawnych związanych z ich użyciem.