Wykorzystanie sztucznej inteligencji (SI) w wojsku stawia przed nami wiele dylematów etycznych, moralnych i prawnych, a także wiąże się z ryzykiem niezamierzonych skutków, które mogą mieć poważne konsekwencje w czasie działań wojennych. Pomimo że najbardziej dyskutowane są autonomiczne systemy broni, w których SI podejmuje decyzje o eliminacji celów, warto zauważyć, że sztuczna inteligencja w armiach na całym świecie jest stosowana w wielu innych formach, które mogą wiązać się z równie poważnymi zagrożeniami. Choć te systemy mają na celu zwiększenie efektywności działań, nie można zapominać, że wciąż istnieje ryzyko osadzania w nich różnorodnych uprzedzeń.

Bias w kontekście sztucznej inteligencji jest zjawiskiem złożonym, które może wynikać zarówno z danych wykorzystywanych do trenowania algorytmów, jak i z decyzji projektantów. Stereotypy związane z płcią, rasą, religią czy pochodzeniem etnicznym mogą wpływać na sposób, w jaki SI ocenia zagrożenia wojenne. Często mówi się o „stronniczości płciowej” w kontekście sztucznej inteligencji, jednakże rzadziej zwraca się uwagę na to, jak stronniczość wobec mężczyzn może prowadzić do obniżenia progu rozpoznania ich jako celów militarnych. Zdarza się, że systemy SI wykorzystywane do analizy zagrożeń mogą włączyć do swoich algorytmów dane, które preferują pewne grupy ludzi, jednocześnie ignorując ich rzeczywiste intencje czy zachowania.

Przykładów, w których systemy SI błędnie identyfikowały grupy mężczyzn jako potencjalne zagrożenie, jest wiele. Zdarza się, że algorytmy, wykorzystujące historyczne dane, opierają swoje wnioski na uprzedzeniach społecznych, które mogą prowadzić do nadinterpretacji i wykreowania fałszywych zagrożeń. Takie zjawisko występuje zarówno w Stanach Zjednoczonych, jak i w Europie, ale podobne mechanizmy obserwuje się w wielu innych regionach świata, w tym w Chinach, Indiach czy RPA. Dyskryminacja na tle etnicznym w kontekście wojskowego użycia SI może przyczyniać się do pogłębiania nierówności społecznych i jeszcze bardziej utrwalać krzywdzące stereotypy w różnych częściach globu.

Ważne jest, aby armie i organizacje międzynarodowe, jak NATO, dostrzegały ryzyko stronniczości w swoich systemach SI, które mogą być wykorzystywane w warunkach wojennych. Niedawna strategia AI NATO uznaje, że należy podjąć działania w celu zmniejszenia tej stronniczości. Jednakże, aby osiągnąć zamierzony efekt, niezbędne jest zrozumienie, w jaki sposób te uprzedzenia mogą powstawać, oraz opracowanie skutecznych narzędzi, które pozwolą je ograniczyć.

Jednym z kluczowych kroków, które mogą pomóc w walce z uprzedzeniami w systemach sztucznej inteligencji, jest audyt danych wykorzystywanych do tworzenia algorytmów. Należy także dążyć do tego, by w procesie projektowania i oceny takich systemów brały udział osoby z różnych środowisk, w tym eksperci zajmujący się zagadnieniem stronniczości płciowej czy rasowej. Współpraca z wieloma ekspertami i specjalistami, którzy rozumieją mechanizmy uprzedzeń, ma kluczowe znaczenie w procesie tworzenia sprawiedliwych i bezstronnych rozwiązań.

Nie jest to jednak łatwa sprawa, ponieważ kwestie stronniczości w systemach AI dopiero zaczynają być szerzej badane, zwłaszcza w kontekście wojskowym. O ile temat ten zdobywa coraz większą uwagę, to wciąż pozostaje wiele obszarów, które wymagają pogłębionych badań. Przede wszystkim konieczne jest zwrócenie uwagi na różne formy nierówności społecznych, które mogą być obecne w systemach sztucznej inteligencji na całym świecie. Ważne jest, by nie ograniczać badań jedynie do przypadków związanych z USA i Europą, ale uwzględniać również realia innych regionów, w których stronniczość wciąż może stanowić poważne zagrożenie.

Wreszcie, należy przypomnieć, że systemy sztucznej inteligencji wykorzystywane w wojskowości mogą czerpać z doświadczeń i rekomendacji dotyczących przeciwdziałania stronniczości w zastosowaniach cywilnych. Przykłady z innych sektorów, takich jak branża IT czy przemysł, wskazują na skuteczność działań zmierzających do eliminacji uprzedzeń w algorytmach, w tym m.in. poprzez tworzenie bardziej zróżnicowanych zespołów pracujących nad rozwojem technologii.

Aby uniknąć poważnych konsekwencji, jakie mogą wyniknąć z użycia systemów SI w wojsku, ważne jest, aby rozwój tych technologii odbywał się w sposób odpowiedzialny. Każda niepełna lub stronnicza analiza może skutkować tragicznymi w skutkach decyzjami, które wpłyną na życie wielu ludzi.

Jakie wyzwania stawia stosowanie dronów w walce z terroryzmem i wojnach?

Terroryści zawsze będą dążyć do znalezienia nowych sposobów wywoływania psychologii strachu i chaosu. Nie są ograniczeni przez międzynarodowe prawo wojenne, ponieważ ich organizacje mogą nie posiadać uznania prawnego. W odpowiedzi na zagrożenie terrorystyczne należy przyjąć kompleksowe podejście obejmujące detekcję, mechanizmy przeciwdziałania oraz szkolenia przygotowujące do obrony przed atakami z użyciem uzbrojonych dronów. Ważne jest, by analiza przepisów ONZ, zwłaszcza artykułów 1 i 51, była punktem wyjścia do rozważań nad aspektami prawnymi dronów wykorzystywanych w wojnach lub w strefach konfliktu.

Artykuł 1 Statutu ONZ określa cel Organizacji Narodów Zjednoczonych jako utrzymanie międzynarodowego pokoju i bezpieczeństwa, a także podejmowanie skutecznych, zbiorowych działań w celu zapobiegania i usuwania zagrożeń dla pokoju, tłumienia aktów agresji i innych naruszeń pokoju. W artykule 51 zawarta jest zasada prawa do samoobrony, która zezwala członkom ONZ na podjęcie działań obronnych w przypadku ataku zbrojnego, aż do momentu podjęcia odpowiednich środków przez Radę Bezpieczeństwa ONZ.

Ben Saul, ekspert prawa międzynarodowego, zauważa, że kwestia samoobrony nie ma zastosowania do Stanów Zjednoczonych w przypadku Al-Kaidy, ponieważ nie ma bezpośredniego zagrożenia ze strony tej organizacji, a USA, po wycofaniu się z Afganistanu, nie mają prawa do naruszania suwerenności terytorialnej tego kraju. Dodatkowo, rząd talibów w Afganistanie nie zagrażał bezpieczeństwu USA poprzez wykorzystywanie Al-Kaidy. Warto również zauważyć, że po nieudanej próbie zamachu z 2009 roku w Nowym Jorku, Al-Kaida nie przeprowadziła żadnego ataku, który mógłby stanowić realne zagrożenie dla USA. Zatem atak dronem, który zabił Aymana al-Zawahiriego, można uznać za akt pozasądowy, niezgodny z międzynarodowym prawem.

W 2021 roku amerykański atak dronem na tzw. Islamskie Państwo w prowincji Khorasan zakończył się śmiercią 10 cywilów, jednak uderzenie w Zawahiriego, bez ofiar cywilnych, podniosło poziom pewności siebie USA. Międzynarodowa reakcja na precyzyjne eliminowanie celów w Afganistanie była stosunkowo łagodna, a media nie wywołały większego oburzenia.

Indie, które stają w obliczu wyjątkowych wyzwań obronnych z powodu rywalizacji z dwoma państwami wyposażonymi w broń jądrową – Chinami i Pakistanem – są także zmuszone do radzenia sobie z zagrożeniami wynikającymi z terroryzmu i działalności militarnych grup bojowych wewnętrznie. Kolejnym wyzwaniem są trudności w zarządzaniu powtarzającymi się atakami terrorystycznymi, jak np. brutalny zamach na Mumbai z 2008 roku, przeprowadzony przez pakistańską grupę terrorystyczną Lashkar-e-Taiba. Z kolei Pakistan, który odgrywa istotną rolę w szerzeniu terroryzmu, od lat realizuje strategię, polegającą na "krwawieniu Indii przez tysiąc cięć". Tego typu operacje były niejednokrotnie związane z Pakistanem i jego wspieraniem grup terrorystycznych. Co więcej, ponad połowa głównych zamachów terrorystycznych przeciwko Zachodowi, przeprowadzonych między 2004 a 2011 rokiem, miała związki z Pakistanem.

W odpowiedzi na nieustanne zagrożenia terrorystyczne, Indie przeprowadziły w 2016 roku tzw. "surgical strike", by ukarać sprawców ataku terrorystycznego w Uri, w którym zginęło kilkudziesięciu indyjskich żołnierzy. Następnie, po ataku zamachowca-samobójcy w Pulwama, który zabił 40 żołnierzy, Indie przeprowadziły naloty powietrzne na oboz terrorystów w Balakot w 2019 roku. Zastosowanie dronów zasilanych sztuczną inteligencją w tego typu operacjach mogłoby zrewolucjonizować sposób, w jaki armie radzą sobie z terroryzmem. Drony oparte na sztucznej inteligencji mogłyby stać się cennym wsparciem, zwłaszcza w kontekście oceny wartości celów i precyzyjnego przeprowadzania działań.

Współczesne wyzwania związane z wykorzystaniem dronów w wojnach i operacjach przeciwterrorystycznych nie ograniczają się tylko do kwestii militarnego zastosowania. Stosowanie dronów wiąże się również z wieloma dylematami etycznymi, zwłaszcza w kontekście ataków precyzyjnych, które mogą prowadzić do ofiar cywilnych. W związku z tym, aby zminimalizować ryzyko niezamierzonych ofiar i naruszenia praw człowieka, konieczne jest rozwijanie skutecznych systemów identyfikacji i oceny ryzyka, które będą wspierać decyzje podejmowane przez operatorów dronów.

Dodatkowo, obok technologii dronów, należy zwrócić szczególną uwagę na szerszy kontekst przeciwdziałania terroryzmowi. Przełamywanie finansowania terrorystów, eliminowanie sieci wsparcia logistycznego i przeciwdziałanie radykalizacji to elementy, które stanowią integralną część walki z tym globalnym zagrożeniem. Rozwój technologii, takich jak drony, stanowi tylko jeden z elementów w skomplikowanej układance strategii bezpieczeństwa. Kluczowe staje się połączenie nowoczesnych narzędzi z tradycyjnymi metodami wywiadowczymi i międzynarodową współpracą, aby skutecznie ograniczać zagrożenia i poprawiać globalne bezpieczeństwo.

Czy sztuczna inteligencja powinna mieć wpływ na podejmowanie decyzji o życiu i śmierci?

W ostatnich latach sztuczna inteligencja (SI) stała się nieodłącznym elementem nowoczesnych technologii wojskowych, szczególnie w kontekście automatycznych broni i systemów bezzałogowych. Przykład Indii, które wykorzystują swoje talenty w dziedzinie IT do wzmocnienia zdolności obronnych, pokazuje, jak SI może być zastosowana w wojskowości jako narzędzie zwiększające efektywność operacyjną. Indyjska marynarka wojenna zamówiła autonomiczne jednostki pływające do zadań ofensywnych, a także badania nad dronami podwodnymi, które mogłyby w przyszłości pełnić kluczową rolę w obronie okrętów podwodnych czy w walce z minami morskimi. Tego typu technologie wymagają jednak precyzyjnego i odpowiedzialnego podejścia, ponieważ błędne decyzje podejmowane przez maszyny mogą prowadzić do nieodwracalnych konsekwencji.

Sztuczna inteligencja stwarza ogromny potencjał w obszarze bezpieczeństwa i obronności, ale wprowadza również szereg wyzwań etycznych, które są szeroko dyskutowane w międzynarodowych kręgach. Istnieje bowiem niebezpieczeństwo, że SI, podejmując decyzje autonomicznie, przekroczy granice moralności i prawa. W jednym z kluczowych zagadnień tej dyskusji znajduje się pytanie o delegowanie decyzji o życiu i śmierci maszynom. Przemoc autonomicznych systemów może wywołać niekontrolowaną eskalację przemocy na poziomie globalnym, szczególnie w kontekście tzw. "lethal autonomous weapons" (LAWs), czyli śmiercionośnych broni autonomicznych.

Carl von Clausewitz w swojej słynnej pracy "O wojnie" zauważył, że każda epoka ma swoją specyficzną formę wojny. Dziś, w epoce sztucznej inteligencji, wojna nabrała nowego wymiaru. To już nie tylko konwencjonalne starcia zbrojne, ale także cyberataki, wojna hybrydowa i sieciowa, w której automatyczne systemy odgrywają kluczową rolę. W tym kontekście wyzwaniem staje się nie tylko sama technologia, ale również regulacje prawne, które nie nadążają za jej szybkim rozwojem. W tej sytuacji państwa, które w pełni wykorzystają potencjał SI w obronności, muszą nie tylko liczyć na przewagę technologiczną, ale także na mądrość w projektowaniu etycznych i bezpiecznych ram dla tych systemów.

Jednym z najbardziej kontrowersyjnych zagadnień jest wykorzystanie dronów do przeprowadzania ataków na cele terrorystyczne, które nie znajdują się w tradycyjnych strefach wojennych. Wiele osób zwraca uwagę na moralną i prawną stronę takich działań, zwłaszcza kiedy chodzi o celowe zabijanie osób bez pełnego procesu sądowego. Zawarcie takiej decyzji w rękach maszyn może stanowić otwarcie drzwi do bezprecedensowych naruszeń międzynarodowego prawa i praw człowieka. Krytycy podnoszą, że drony używane w wojnach asymetrycznych, takich jak wojna z terroryzmem, mogą łatwo prowadzić do eskalacji przemocy i zniszczenia, którego skutki wykraczają poza pierwotne zamierzenia.

Henry Kissinger w swoich analizach na temat roli nowych technologii wojskowych zauważył, że SI, w przeciwieństwie do broni nuklearnej, jest stosunkowo łatwa do rozwinięcia i użycia, co sprawia, że jej potencjał do wywołania konfliktu jest ogromny. Ponadto, dostępność tych technologii może obniżyć próg użycia siły, prowadząc do niekontrolowanej eskalacji konfliktów, które mogą przekształcić lokalne kryzysy w wojny o globalnym zasięgu. Cyberbroń, w połączeniu z AI, może działać błyskawicznie i skutecznie, nie pozostawiając śladów, co utrudnia późniejsze dochodzenie i przypisanie odpowiedzialności za działania.

Debata na temat etycznych granic używania SI w wojnach nie jest więc tylko akademicką dyskusją. Jej konsekwencje dotyczą bezpieczeństwa globalnego, praw człowieka i przyszłości wojny jako takiej. Kwestia, czy automatyczne systemy mogą podejmować decyzje o zabijaniu ludzi, jest jednym z najważniejszych pytań, jakie stawia współczesna technologia. Zdecydowana większość specjalistów w tej dziedzinie zgadza się, że takie decyzje powinny pozostawać w rękach ludzi, a maszyny powinny jedynie wspierać podejmowanie decyzji, a nie je zastępować. Kluczowym zagadnieniem pozostaje również transparentność tych systemów – muszą one być w pełni zrozumiałe i kontrolowane przez człowieka.

W kontekście przyszłości wojny, warto zastanowić się nad tym, jak sztuczna inteligencja wpłynie na naszą cywilizację. Jaka będzie przyszłość, gdy nieświadome algorytmy, które będą nas lepiej znały niż my sami siebie, staną się podstawą systemów decyzyjnych zarówno w życiu codziennym, jak i na polu bitwy? Technologie AI mają ogromny potencjał, ale niebezpieczeństwo polega na tym, że mogą być wykorzystywane w sposób niekontrolowany lub nieetyczny, co prowadzi do poważnych zagrożeń.