Wraz z dynamicznym rozwojem technologii, rola sztucznej inteligencji (SI) na polu bitwy staje się coraz bardziej wyrazista. Zaczynając od autonomicznych systemów broni, przez roboty bojowe, aż po nowe metody analizy danych, nowoczesne technologie zmieniają sposób prowadzenia wojen. SI i automatyzacja, choć wciąż są w fazie intensywnych badań i wdrożeń, oferują nowe możliwości w zakresie planowania strategicznego, zarządzania zasobami wojskowymi oraz w samej sztuce walki. Na przykład, rozwój dronów i autonomicznych maszyn bojowych otwiera zupełnie nowe ścieżki w strategii wojennej, stawiając przed dowódcami armii zupełnie inne wyzwania.

Jednym z najbardziej widocznych obszarów, w którym SI zyskuje na znaczeniu, jest użycie dronów i robotów. Drony bojowe, wykorzystywane do rozpoznania i precyzyjnych ataków, zmieniają zasady prowadzenia wojen na poziomie taktycznym i strategicznym. Dzięki połączeniu zaawansowanych algorytmów sztucznej inteligencji z nowoczesnymi sensorami, drony mogą autonomicznie podejmować decyzje, a także analizować sytuację na polu bitwy w czasie rzeczywistym. Ta zdolność do szybkiego podejmowania decyzji jest jednym z kluczowych atutów nowoczesnej wojny opartej na sztucznej inteligencji. Jednakże, to także stawia pytanie o granice kontroli człowieka nad tymi systemami oraz odpowiedzialności za podejmowane decyzje.

Z kolei pojawienie się tzw. "swarms" - zgrupowanych autonomicznych jednostek bojowych, takich jak drony - może zrewolucjonizować sposób prowadzenia walki. Takie zgrupowania, współpracujące ze sobą w sposób niemalże organiczny, mogą efektywnie przeprowadzać ataki, dzielić się informacjami w czasie rzeczywistym i reagować na zmieniającą się sytuację na polu bitwy. Jednak to rodzi pytanie o skuteczność ich kontrolowania i przewidywalność ich działań. Czy dowódcy będą w stanie skutecznie zarządzać tymi zgrupowaniami, mając do dyspozycji systemy, które działają w sposób autonomiczny?

SI wpływa również na rozwój nowych metod w zakresie analizy danych i planowania wojskowego. Wykorzystanie dużych modeli językowych (LLM) oraz algorytmów uczących się maszynowo, pozwala na bardziej precyzyjne prognozowanie i podejmowanie decyzji strategicznych. Tego typu technologie umożliwiają wnioskowanie na podstawie ogromnych zbiorów danych, które wcześniej byłyby zbyt złożone do analizy przez ludzi. W przyszłości to właśnie algorytmy SI mogą stać się podstawą dla wojskowych sztabów, które przy ich użyciu będą w stanie nie tylko podejmować decyzje, ale również przewidywać ruchy wroga i optymalizować działania w czasie rzeczywistym.

Dodatkowo, rozwój cyberwojny, w połączeniu z SI, tworzy nowy wymiar zagrożeń. Cyberataki mogą zniszczyć nie tylko fizyczne infrastruktury wojskowe, ale także destabilizować całe systemy państwowe. SI może wspomagać takie ataki, analizując luki w zabezpieczeniach systemów komputerowych i automatycznie wprowadzając złośliwe oprogramowanie. Tego typu zagrożenia stawiają przed społecznością międzynarodową nowe wyzwania w zakresie regulacji prawa wojennego, szczególnie w kontekście cyberwojny, której zasady i normy prawne są nadal w fazie ewolucji.

Technologie autonomiczne wprowadzają również fundamentalne zmiany w etyce wojny. Pojawia się pytanie o odpowiedzialność za decyzje podejmowane przez maszyny. Jeśli autonomiczne systemy broni zdecydują o życiu lub śmierci żołnierzy lub cywilów, kto ponosi odpowiedzialność za takie decyzje? Na razie odpowiedzi na te pytania są niejasne, ale jedno jest pewne - coraz trudniej będzie wyznaczyć granicę między tym, co robi człowiek, a tym, co wykonuje maszyna. Równocześnie, rozwój technologii wojennych związanych z SI stawia przed światem nowe wyzwania w zakresie regulacji międzynarodowych. Powstaje konieczność wypracowania nowych standardów, które będą chronić ludzkie wartości i zapewniać, że technologia nie będzie używana w sposób niekontrolowany.

Podstawowym aspektem, który warto rozważyć, jest także kwestia wprowadzania sztucznej inteligencji w kontekście obronności w różnych krajach. W niektórych regionach technologia ta jest już wykorzystywana w zaawansowanych systemach broni, co stawia inne państwa przed koniecznością szybkiego wdrażania podobnych technologii, aby nie zostać w tyle. Na tym tle pojawia się ryzyko wyścigu zbrojeń, gdzie dominacja technologiczna może stać się głównym czynnikiem wpływającym na równowagę sił na świecie. Takie zjawisko w sposób nieuchronny prowadzi do wzrostu napięć międzynarodowych oraz zagraża stabilności globalnej.

Przy wdrażaniu SI w wojsku, bardzo ważnym aspektem pozostaje także kwestia obrony przed takimi technologiami. Rozwój antydronowych systemów obronnych, które będą w stanie wykrywać i neutralizować autonomiczne maszyny, może stać się równie ważny jak sama ofensywa. Konieczne staje się również opracowanie strategii zapobiegania cyberatakom, które mogą unieszkodliwić systemy oparte na sztucznej inteligencji.

Reasumując, sztuczna inteligencja i jej zastosowania w wojsku stanowią zarówno ogromne wyzwanie, jak i ogromny potencjał w kontekście nowoczesnej wojny. Jednak przed jej pełnym wykorzystaniem stoi wiele problemów technicznych, etycznych i regulacyjnych, które muszą zostać rozwiązane, aby zapewnić, że nie wymknie się ona spod kontroli. Zrozumienie tych wyzwań jest kluczowe dla przyszłych decyzji dotyczących rozwoju i wdrożenia tej technologii w obszarze obronności.

Jakie wyzwania i możliwości niesie ze sobą sztuczna inteligencja w wojskowości i bezpieczeństwie narodowym?

Sztuczna inteligencja (SI) w kontekście wojskowym i bezpieczeństwa narodowego oferuje szereg obiecujących możliwości, ale jednocześnie stawia przed wojskami liczne wyzwania. Technologia ta szczególnie sprawdza się w rozwiązywaniu precyzyjnie określonych, wąskich problemów, gdzie dostępne dane oraz odpowiednia informacja zwrotna są w pełni dostępne dla systemu. SI może ułatwić autonomiczne operacje, umożliwić szybsze i bardziej precyzyjne podejmowanie decyzji wojskowych oraz zwiększyć tempo i skalę działań militarnych.

SI jest w stanie wesprzeć planowanie scenariuszy wojskowych na wszystkich poziomach dowodzenia, określając wymagania dla misji. Gwarantuje optymalne wykorzystanie zasobów podczas operacji, poprawiając świadomość sytuacyjną, a także umożliwiając lepsze kierowanie i rozpoznanie. Dzięki możliwości analizowania dużych ilości danych z różnych źródeł – takich jak zdjęcia satelitarne, bezzałogowe pojazdy powietrzne (drony) czy sensory – SI może dostarczyć dowódcom wojskowym bardziej kompleksowy i aktualny obraz pola bitwy. Jest w stanie identyfikować potencjalne cele i zbierać dane wywiadowcze na temat wroga.

Chociaż obecność ludzi na polu bitwy jest wciąż niezbędna, ich rola staje się coraz mniej znacząca. Technologia sprawia, że działania bojowe stają się mniej niepewne i bardziej kontrolowane, gdyż maszyny nie podlegają ludzkim słabościom, takim jak zmęczenie, strach, nuda czy gniew. Systemy oparte na SI mogą rozwiązywać skomplikowane problemy sterowania w bardzo krótkim czasie, dzięki swojej zdolności do przetwarzania ogromnych ilości informacji i wykrywania wzorców bez zmęczenia, błędów rozpoznawania, uprzedzeń czy zakłóceń emocjonalnych.

Dodatkowo, sztuczna inteligencja ma ogromny potencjał w realizacji zadań nieletalnych, takich jak logistyka, utrzymanie baz, opieka zdrowotna weteranów, ratunkowa pomoc medyczna na polu walki, ewakuacja rannych, zarządzanie personelem, nawigacja, komunikacja, cyberobrona czy analiza wywiadowcza. Możliwość stosowania nowych systemów ochrony ludzi i cennych zasobów przed atakami, wykorzystując środki nielethalne, również jest na wyciągnięcie ręki.

Kolejnym aspektem, który zyskuje na znaczeniu, są autonomiczne systemy uzbrojenia (LAWS), które mogą operować w tempie przekraczającym ludzkie możliwości, wykonując śmiertelne ataki nawet wtedy, gdy łączność zostanie zerwana. Dzięki potędze sztucznej inteligencji, systemy wywiadowcze mogą analizować ogromne ilości danych z różnych źródeł i obszarów geograficznych, by wychwycić wzorce i wyróżnić istotne informacje, co znacząco poprawia jakość analizy wywiadowczej.

Pomimo tych korzyści, wyzwania związane z wdrożeniem SI w armiach na całym świecie są liczne i niełatwe do przezwyciężenia. Kluczową trudnością jest zintegrowanie nowoczesnej technologii z tradycyjnymi systemami wojskowymi, które są zdominowane przez hardware, takie jak statki, samoloty i czołgi, będące dziedzictwem zimnej wojny i industrialnej ery. Obecne procesy zakupowe i biurokratyczne utrudniają szybkie wdrażanie innowacji, a armie nadal pozostają przy starej technologii. Przemiana w kierunku oprogramowania i integracji nowych technologii jest niezbędna, ale niełatwa.

Implementacja SI w wojsku wiąże się z wyzwaniami związanymi z zarządzaniem ogromnymi ilościami danych, zapewnieniem ich jakości oraz rozwiązaniem problemów związanych z przechowywaniem, dostępem, klasyfikowaniem i integracją danych. Dodatkowo, istnieją ograniczenia techniczne w istniejących systemach, które utrudniają ich kompatybilność z nowoczesnymi metodami zbierania i przetwarzania danych. Skuteczność algorytmów SI jest ściśle uzależniona od jakości danych, na których są one trenowane. Ze względu na wrażliwy charakter informacji wojskowych, uzyskanie odpowiednich zestawów danych może być trudne, a w niektórych przypadkach systemy oparte na uczeniu maszynowym muszą polegać na danych symulacyjnych, które mogą nie odzwierciedlać rzeczywistych warunków.

Wyzwania związane z SI obejmują również możliwość manipulacji danymi (tzw. "data poisoning"), co może prowadzić do błędów w działaniu systemów. Algorytmy SI mogą także bazować na danych, które są stronnicze, co prowadzi do błędnych i dyskryminacyjnych decyzji w trakcie operacji wojskowych. Ataki przeciwników na systemy uczenia maszynowego mogą zakłócać algorytmy lub dane, co prowadzi do poważnych błędów, które mogą mieć konsekwencje dla całej misji.

Zarządzanie zaufaniem do systemów SI w armii jest również wyzwaniem. SI, zwłaszcza w kontekście systemów autonomicznych, nie jest w stanie wyjaśnić swoich decyzji, co utrudnia budowanie zaufania między ludźmi a maszynami. Brak przejrzystości i odpowiedzialności w działaniu takich systemów stawia pytania o etyczność ich stosowania, szczególnie gdy chodzi o autonomiczne systemy uzbrojenia. Ponadto, w obliczu takich technologii, obecność ludzi na polu bitwy wciąż pozostaje konieczna, aby zapewnić odpowiednią reakcję na błędy systemów SI, które mogą prowadzić do nieprzewidywalnych konsekwencji.

Podstawowym problemem jest również fakt, że technologie wykorzystywane przez wojsko są często przestarzałe, co uniemożliwia efektywne wdrażanie nowych narzędzi sztucznej inteligencji. Brak odpowiedniego wykształcenia technicznego wśród członków służb zbrojnych oraz opóźnienia w dostosowywaniu się do nowoczesnych technologii mogą prowadzić do zniechęcenia i powstrzymywania wdrożenia rozwiązań opartych na SI.

Sztuczna inteligencja w wojskowości to potężne narzędzie, ale jej pełne wykorzystanie zależy od przezwyciężenia wspomnianych trudności, a także od odpowiedzialnego i świadomego wdrożenia tej technologii. Kluczowe jest, aby dbać o to, by technologia nie stała się zagrożeniem, lecz środkiem wspierającym człowieka na polu bitwy, nie pozbawiając go decyzyjności i odpowiedzialności za moralne konsekwencje działań militarnych.

Jakie wyzwania etyczne związane z systemami opartymi na sztucznej inteligencji pojawiają się w kontekście wojskowości?

Z perspektywy filozofii moralnej, jak wskazywał Arystoteles, prawidłowe funkcjonowanie cnót – a zwłaszcza cnót moralnych – wymaga zarówno kształcenia, jak i systematycznego utrwalania. Cnoty nie są nauczane tak, jak proste fakty czy automatyczne rutyny. Nabywa się je poprzez połączenie zrozumienia i powtarzania określonych działań w czasie. Ta koncepcja, szczególnie istotna w kontekście filozofii etycznej, ma ogromne znaczenie również w odniesieniu do nowoczesnych technologii, w tym sztucznej inteligencji. Cnoty nie są wbudowane w samą strukturę maszyn, ale wymagają odpowiedniego zaprogramowania i wprowadzenia w systemy edukacyjne, które będą stanowiły fundament moralnego działania.

W przypadku wykorzystywania sztucznej inteligencji w kontekście wojska, wyzwania etyczne, z jakimi się mierzymy, są związane z wieloma aspektami tej technologii. Przede wszystkim, musimy zrozumieć, że nie ma już drogi powrotnej do wojskowości nienależącej do cyfrowego świata. Sztuczna inteligencja będzie integralną częścią większości przyszłych działań wojennych. Zatem wiedza o jej możliwościach, ale również o niebezpieczeństwach z nią związanych, staje się kluczowa. Wyzwaniem staje się nie tylko samo wykorzystanie sztucznej inteligencji w celach militarnych, ale i wprowadzenie odpowiednich systemów etycznych, które będą chronić przed jej potencjalnym niewłaściwym użyciem.

Warto zwrócić uwagę, że sztuczna inteligencja w wojskowości ma szeroki wachlarz zastosowań. Należy tu uwzględnić m.in. planowanie misji, zbieranie informacji wywiadowczych, obserwację terenu, optymalizację logistyki, detekcję zagrożeń, podejmowanie decyzji czy zaangażowanie w celach bojowych. Używanie takich systemów wiąże się z szeregiem wyzwań, w tym koniecznością zarządzania ogromnym napływem danych, które muszą być odpowiednio analizowane, aby decyzje podejmowane przez dowódców były trafne i skuteczne. Przepełnienie informacyjne staje się problemem, który może prowadzić do pomyłek i błędnych decyzji, a w kontekście militarnym skutki takich błędów mogą być tragiczne.

Dodatkowym problemem jest kwestia autonomicznych broni, które – w przypadku niewłaściwego zaprojektowania – mogą działać w sposób, który będzie sprzeczny z międzynarodowymi standardami prawa wojennego. W szczególności chodzi o prawo międzynarodowe dotyczące zakazu używania broni masowego rażenia oraz konwencji dotyczących ochrony ludzkich ofiar wojny. W tej dziedzinie pojawiają się również pytania o odpowiedzialność moralną i prawną za działania takich maszyn. Kto ponosi odpowiedzialność za decyzję podjętą przez autonomicznego robota? Czy to projektant systemu, dowódca, czy może sama maszyna?

Wszystkie te wyzwania muszą być uwzględnione w procesie edukacji i szkolenia wojskowego. Wymaga to zaawansowanego kształcenia, które nie tylko nauczy żołnierzy obsługi technologii, ale również przygotuje ich do podejmowania trudnych decyzji moralnych w kontekście nowoczesnych narzędzi wojskowych. To nie tylko kwestia zrozumienia technologii, ale również głębokiej refleksji etycznej nad jej stosowaniem. Wyzwaniem staje się zatem nie tylko wdrożenie systemów AI, ale także stworzenie odpowiedniego frameworku etycznego, który umożliwi ich bezpieczne i sprawiedliwe wykorzystanie w wojsku.

Sztuczna inteligencja stwarza również nowe problemy związane z integracją ludzi i maszyn w procesie podejmowania decyzji. Ludzki umysł może z łatwością ulec osłabieniu w obliczu przepełnienia informacyjnego. Nadmiar danych, ich rozproszenie i konieczność podejmowania decyzji w ekstremalnych warunkach czasowych mogą sprawić, że żołnierze będą skłonni do zbytniej automatyzacji procesów decyzyjnych. To z kolei może prowadzić do wprowadzenia błędnych osądów, a w najgorszym przypadku do tragicznych pomyłek. Dlatego bardzo istotne jest, aby w procesie wprowadzania systemów AI w wojsku nie zapominać o roli człowieka w podejmowaniu decyzji.

W kontekście sztucznej inteligencji i jej wykorzystania w wojskowości należy również dostrzec wyzwania związane z bezpieczeństwem danych. W dobie cyberzagrożeń systemy AI są podatne na ataki, które mogą zniekształcić dane wejściowe lub zmienić sposób, w jaki systemy podejmują decyzje. To stawia nowe wyzwania przed specjalistami zajmującymi się cyberbezpieczeństwem oraz przed samymi wojskowymi dowódcami, którzy muszą być świadomi ryzyka związanych z używaniem takich technologii.

Przyszłość wojskowości bez wątpienia będzie nierozerwalnie związana z rozwojem sztucznej inteligencji. W związku z tym kluczowe jest, aby przyszłe pokolenia żołnierzy były odpowiednio przeszkolone w zakresie zarówno technicznych, jak i etycznych aspektów związanych z używaniem systemów AI. Proces ten musi obejmować nie tylko edukację techniczną, ale także rozwijanie wrażliwości moralnej, której celem będzie minimalizowanie ryzyka i podejmowanie odpowiedzialnych decyzji w imię zachowania podstawowych zasad humanitaryzmu i prawa wojennego.

Czym jest wojna hybrydowa i wojna w szarej strefie?

Wojna hybrydowa to złożona forma konfliktu, która łączy tradycyjne środki militarne z nieregularnymi taktykami, takimi jak terroryzm, cyberataki czy działania przestępcze. Termin ten zyskał popularność w 2007 roku dzięki pracy Franka G. Hoffmana, który opisał nowy typ konfliktu jako wieloaspektowy atak na przeciwnika, łączący zarówno siły państwowe, jak i nieregularne grupy. W kontekście wojny hybrydowej mówi się o taktykach asymetrycznych, w których jedna ze stron posiada zdecydowaną przewagę militarną, jednak wykorzystuje różne, niskokosztowe narzędzia, takie jak broń cybernetyczna czy propaganda wspierana przez sztuczną inteligencję, aby zadać poważne straty przeciwnikowi.

Wojna hybrydowa jest formą konfliktu, która ma na celu osiągnięcie celów strategicznych bez formalnego wypowiedzenia wojny. Często angażuje różne środki, zarówno kinetyczne, jak i niekinetyczne, takie jak operacje cybernetyczne, propaganda oparta na sztucznej inteligencji, a także akcje przemocowe przeprowadzane przez nieregularnych bojowników. Dzięki rozwojowi technologii, zwłaszcza sztucznej inteligencji, takich narzędzi będzie przybywać, a ich zastosowanie zyskuje na sile zarówno w rękach państwowych, jak i nieregularnych aktorów, w tym przestępców oraz terrorystów.

Równolegle z wojną hybrydową rozwinęła się koncepcja wojny w szarej strefie. Choć definicja tej formy konfliktu nie jest powszechnie akceptowana, można ją opisać jako wykorzystywanie przestrzeni operacyjnej pomiędzy wojną a pokojem w celu zmiany status quo za pomocą działań wywierających presję, które nie przekraczają progu, który skłoniłby państwo do przeprowadzenia konwencjonalnej odpowiedzi wojskowej. W tym rodzaju wojny stosuje się metody zarówno kinetyczne, jak i niekinetyczne, obejmujące zarówno działania militarne, jak i nieregularne, a także wykorzystanie takich narzędzi, jak cyberataki, manipulacje wyborcze, czy ingerencja w politykę wewnętrzną innych państw.

Nie ma jednej, ogólnie przyjętej definicji wojny w szarej strefie, ponieważ jej granice są nieostre, a jej charakter nie pozwala na jednoznaczne przypisanie do tradycyjnych kategorii wojny czy pokoju. Jest to rodzaj konfrontacji, w której działania wywierające presję są stosowane w sposób nieoczywisty i nie zawsze prowadzą do formalnej reakcji wojskowej. Często wykorzystywane są tu zarówno działania państw, jak i nieregularnych grup, które współdziałają lub prowadzą rywalizację w nieoczywisty sposób.

Wojna hybrydowa i wojna w szarej strefie mają ze sobą wiele wspólnych cech, w tym wykorzystanie narzędzi cybernetycznych, technologii sztucznej inteligencji, oraz nieregularnych form agresji. Jednakże to, co je różni, to stopień eskalacji i formalności – wojna hybrydowa jest bardziej złożona i może obejmować działania militarnego charakteru, w tym użycie broni konwencjonalnej, podczas gdy wojna w szarej strefie operuje w obszarze nieprzekraczającym progu, który zmusiłby państwo do formalnej reakcji wojennej. Obie formy walki przyczyniają się do rozmywania granicy między wojną a pokojem.

Ważnym elementem w kontekście omawianych rodzajów konfliktów jest rola etyki wojennej, która jest coraz bardziej problematyczna w kontekście nowych narzędzi, takich jak sztuczna inteligencja i autonomiczne systemy broni. Tradycyjne zasady, takie jak sprawiedliwość wojny, które obejmują takie elementy jak słuszność przyczyny wojny, proporcjonalność działań oraz unikanie szkód dla ludności cywilnej, stają się coraz trudniejsze do zastosowania w przypadkach użycia broni autonomicznych, które mogą podejmować decyzje na własną rękę, bez bezpośredniego nadzoru człowieka. Ponadto, w dobie globalnych sieci cybernetycznych, każde państwo i każda organizacja może stać się zarówno atakującym, jak i ofiarą, co jeszcze bardziej zaciera granice między sprawiedliwą wojną a nielegalną agresją.

Zmieniający się charakter wojny, w tym rozwój technologii, takich jak sztuczna inteligencja, ma również wpływ na międzynarodowe prawo humanitarne (IHL), które reguluje zachowanie stron konfliktu. Istnieje potrzeba dostosowania istniejących zasad do nowych realiów, uwzględniając takie aspekty jak użycie broni autonomicznych, cyberataków czy wpływ sztucznej inteligencji na działania militarne. Z drugiej strony, istnieją pewne podstawowe zasady etyki wojennej, które pozostają niezmienne, takie jak zakaz stosowania broni masowego rażenia, a także ochrona ludności cywilnej.

Jednym z bardziej kontrowersyjnych tematów w kontekście współczesnych wojen hybrydowych jest kwestia terroryzmu, który jest często traktowany przez różne państwa na różne sposoby. Podczas gdy dla niektórych grup terrorystycznych, które prowadzą walkę ideologiczną, takie działania są postrzegane jako część większego konfliktu, państwa traktują je przede wszystkim jako nielegalne i nieakceptowalne. To sprawia, że granice między legalnym działaniem wojskowym a nielegalnym terrorem stają się coraz bardziej zamazane, zwłaszcza w sytuacjach, gdy działania nie są formalnie objęte wojną.

W kontekście tego, jak wygląda współczesna wojna, szczególną uwagę należy zwrócić na sposób, w jaki różne aktory wykorzystują nowe technologie i jak te zmiany wpływają na zasadność dotychczasowych norm prawnych i etycznych. Rozwój sztucznej inteligencji, broni autonomicznych, a także cyberataków, zmieniają sposób prowadzenia wojny i stawiają przed nami pytania o przyszłość tradycyjnych zasad sprawiedliwości wojennej. Choć niektóre z nich wymagają dostosowania do nowych realiów, podstawowe zasady – jak proporcjonalność działań, unikanie cywilnych ofiar, czy poszanowanie międzynarodowego prawa – pozostają fundamentem, na którym budowana jest współczesna etyka wojny.

Jakie wyzwania stoją przed rozwojem sztucznej inteligencji w systemach wojskowych?

Edge masking, łączenie wiedzy i jej wymiana w kontekście przetwarzania języka naturalnego (NLP) mają ograniczoną skuteczność, szczególnie w zastosowaniach wojskowych. Modele językowe z maskowaniem, które mogą być stosowane do analizy semantycznej, radzą sobie tylko z powierzchownymi, ogólnymi poziomami wiedzy. W praktyce, zadania wstępnego treningu są dostosowane do korpusów i cech jednostek w ogólnych tekstach, które nie odpowiadają specyfice tekstów wojskowych, co oznacza konieczność opracowania ćwiczeń wstępnego treningu dostosowanych do tej dziedziny. Zatem przed naukowcami i inżynierami staje wyzwanie opracowania skuteczniejszej metody wprowadzania specyficznej wiedzy wojskowej do modeli językowych.

Wprowadzenie sztucznej inteligencji (AI) do zastosowań wojskowych niesie ze sobą poważne ryzyko. Związane jest to przede wszystkim z charakterystyką technologii uczenia maszynowego (ML), zwłaszcza głębokich sieci neuronowych, które stanowią podstawę takich systemów. W kontekście wojskowym, systemy wspierane przez AI budzą szczególne obawy, ponieważ wiążą się z zagrożeniem dla życia ludzkiego. Istnieje coraz większa obawa związana z coraz bardziej inteligentnym zachowaniem wykazywanym przez systemy AI, co prowadzi do przekazywania funkcji poznawczych maszynom w coraz większym stopniu. To z kolei rodzi wiele trudnych kwestii prawnych, etycznych i moralnych, które należy odpowiednio przeanalizować i rozwiązać. Niemniej jednak, powszechnie uznaje się, że odpowiedzialne wykorzystanie sztucznej inteligencji w wojsku może przynieść ogromne korzyści, zarówno na polu bitwy, jak i poza nim. Ta dwuznaczność technologii AI wskazuje na potrzebę starannie przemyślanego mechanizmu regulacji rozwoju autonomicznych systemów wojskowych (AWS). Mallick słusznie zauważa, że oprogramowanie związane z AI, choć przyspiesza podejmowanie decyzji, ma również charakter eskalacyjny, co może prowadzić do sytuacji, w której wojna staje się niekontrolowana.

Włączenie AI do struktur dowodzenia to decyzja o dużym ryzyku. Co z robotami swarmowymi, na które inwestują zasoby USA i Chiny? Dowodzenie takimi systemami wymaga koordynacji dwóch elementów: interakcji człowiek-maszyna i maszyna-maszyna. Interakcja między poszczególnymi robotami w rojach generuje zachowania emergentne, których nie można zaprogramować z góry. Komandor nie jest w stanie przewidzieć, jak zachowa się system. Merel Ekelhof i Giacomo Persi Paoli ostrzegają przed niebezpieczeństwami związanymi z brakiem uniwersalnego modelu, który pozwalałby ludziom zrozumieć złożone zachowanie emergentne i odpowiednio na nie zareagować w odpowiednim czasie. Tego rodzaju sytuacja prowadzi do braku zaufania i kontroli ze strony dowódcy nad rojem, co zwiększa ryzyko niepożądanych zachowań systemu. Istotnym zagadnieniem jest także stosowanie różnych strategii łagodzenia ryzyka, które muszą być dostosowane do konkretnego systemu wojskowego, aby zapewnić optymalną ochronę przed zagrożeniami związanymi z wykorzystaniem AI.

W przypadku systemów z ograniczoną autonomią (ANI), takich jak broń z wbudowaną sztuczną inteligencją, istnieje ryzyko, że mogą one powodować niezamierzone szkody cywilne lub doprowadzić do bratobójczej walki. W trakcie wojny z maszynami AWS mogą ulegać awariom lub zostać zhakowane przez wrogich hakerów, co czyni je podatnymi na ataki w ramach cyberwojny. Van Creveld mądrze zauważa, że nie należy stać się niewolnikiem technologii, ale raczej rozumieć jej ograniczenia i wiedzieć, co nie jest w stanie zrobić dany system. Aby zapełnić tę lukę, powinien wkroczyć człowiek. Dodatkowo skuteczne dowodzenie wymaga przemyślanej uwagi na sferze szkolenia i doktryny. Istnieje jednak niepokojąca tendencja w kierunku rosnącego uzależnienia wyższych szczebli dowodzenia od ogromnych ilości danych przesyłanych za pośrednictwem komputerów. To właśnie ten przepływ informacji pomiędzy jednostkami na linii frontu a sztabami (czasami za pośrednictwem łączy satelitarnych) stwarza podatność na cyberataki.

Wojna cybernetyczna i wojna w przestrzeni kosmicznej są nowymi elementami rewolucji wojskowej zapoczątkowanej przez AI. Cyberprzestrzeń, stworzona przez ludzkość w połowie XX wieku, jest sztuczną domeną wytworzoną przez komputery. Początkowo wojna cybernetyczna była określana jako wojna elektroniczna, a później wojna informacyjna. James A. Green definiuje wojny cybernetyczne jako użycie siły technologicznej w cyberprzestrzeni, czyli w domenie sieci komputerowych i użytkowników je obsługujących, gdzie przechowywane są, dzielone i komunikowane informacje. Cyberatak może skutkować zniszczeniem krytycznej infrastruktury wroga, bez bezpośrednich efektów kinetycznych. Przykładem mogą być ataki, które polegają na kradzieży informacji z komputerów przeciwnika, lub niszczeniu jego stron internetowych i kont e-mailowych. Komputery mogą zostać skompromitowane przez zmianę rekordów DNS, co prowadzi do fałszywych wpisów w tabelach DNS, mogących spowodować poważne zakłócenia w pracy całych sieci komputerowych.

Wykorzystanie sztucznej inteligencji w wojskowości wymaga przemyślanej i odpowiedzialnej regulacji. Musi uwzględniać potencjalne zagrożenia związane z emergentnym zachowaniem systemów, ryzykami cyberataku oraz dbałością o odpowiednią integrację człowieka w procesie podejmowania decyzji w ramach systemów autonomicznych. Technologie te niosą ze sobą zarówno ogromne możliwości, jak i ryzyko, które muszą być odpowiednio zarządzane.