Współczesne technologie, a zwłaszcza sztuczna inteligencja (SI), zmieniają oblicze współczesnych konfliktów zbrojnych oraz sposób prowadzenia działań wojennych. Przykładem może być aplikacja opracowana przez jednostkę Lotem, która umożliwia przewidywanie miejsc wystrzelenia rakiet, czasów ich wystrzałów oraz celów, na które zostały one skierowane. Dzięki analizie danych z czujników polowych, możliwe stało się określenie potencjalnych celów, co pozwala na znaczne zredukowanie strat wśród cywilów oraz efektywniejsze prowadzenie działań obronnych. Inna aplikacja stworzoną przez Lotem pozwalała na identyfikację podejrzanych obiektów w nagraniach wideo i automatyczne sporządzanie ich opisów, co przyczynia się do zmniejszenia zapotrzebowania na personel wojskowy, oszczędzając czas i zasoby.

Izraelska armia, dzięki zaawansowanym technologiom, przeprowadziła udane operacje zniszczenia rozległej sieci tuneli Hamasu w Strefie Gazy. Dzięki połączeniu wywiadu technologicznego, analizy Big Data oraz zastosowaniu zdjęć satelitarnych, Izraelczycy byli w stanie szczegółowo odwzorować strukturę tuneli, obejmującą setki kilometrów pod terenami zamieszkanymi. Dzięki tym informacjom udało się stworzyć precyzyjny plan ataku, co skutkowało skuteczną neutralizacją zagrożenia. Jednostka 9900 IDF, wyposażona w satelity zbierające dane geointeligencji (GEOINT), mogła na bieżąco śledzić zmiany terenu, umożliwiając wykrycie pozycji rakietowych i ich szybkie zniszczenie. Dzięki zastosowaniu sztucznej inteligencji w analizie danych oraz systemów UAV (dronów bezzałogowych) udało się nie tylko zlokalizować cele, ale także precyzyjnie dobrać odpowiednią amunicję do ataku.

W przypadku wojny na Ukrainie, technologia sztucznej inteligencji znalazła szerokie zastosowanie, m.in. w rozpoznawaniu twarzy w celu identyfikacji żołnierzy wroga oraz w usprawnianiu łańcuchów dostaw wojskowych i pomocy humanitarnej. SI została także wykorzystana w wojnie informacyjnej, gdzie zastosowano technologie do tworzenia deepfake'ów, zacierających granice pomiędzy rzeczywistością a sztucznie generowanymi treściami. Ponadto, systemy bezzałogowe, takie jak drony i pociski samonaprowadzające, odegrały kluczową rolę w eliminowaniu rosyjskich czołgów, precyzyjnych atakach artylerii i rakiet oraz w atakach na bazy wojskowe na Krymie. Zmieniające się podejście do autonomicznych systemów wojenna sprawia, że coraz częściej wykorzystywane są "loitering munition" – broń, która może krążyć w poszukiwaniu celów i samodzielnie je atakować, w tym również w formie swarmów, czyli zgrupowanych jednostek działających razem w sposób koordynowany.

Rosja, z kolei, rozwija technologię pocisków manewrujących, takich jak irańskie Shahed, które mogą unikać wykrycia, latając nisko nad rzekami i atakując z precyzyjnością. Nowoczesne systemy jammingowe, które zakłócają sygnały radiowe, zwiększają atrakcyjność autonomicznych broni, które nie wymagają stałej kontroli człowieka. Wzrost użycia autonomicznych systemów oraz algorytmów sztucznej inteligencji w konfliktach zbrojnych oznacza, że coraz trudniej będzie kontrolować tego typu technologie, co rodzi poważne pytania o przyszłość bezpieczeństwa narodowego i przyszłość wojny.

Wojna na Ukrainie pokazała również, jak ogromną rolę w nowoczesnym konflikcie odgrywa analiza ogromnych zbiorów danych. Firma Primer, korzystając z algorytmów sztucznej inteligencji i maszynowego uczenia (ML), przechwyciła, przetworzyła i przeanalizowała rosyjskie komunikaty wojskowe, pomagając w zrozumieniu strategii i ruchów przeciwnika. Dodatkowo, SI była wykorzystywana do tworzenia fałszywych kont na platformach społecznościowych, a także do produkcji deepfake'ów, które miały na celu wprowadzenie dezinformacji.

Kiedy spojrzymy w przyszłość, zobaczymy, jak technologia sztucznej inteligencji wciąż będzie kształtować pole walki. Decyzje polityków, wojskowych oraz ekspertów technologicznych będą kluczowe w formułowaniu polityki odpowiedzialnego wdrażania SI w kontekście wojny. Ważne będzie zapewnienie, by technologia ta służyła w utrzymaniu stabilności i bezpieczeństwa, a nie pogłębiała konfliktów. Równocześnie pojawiają się poważne wyzwania związane z kontrolą i wykorzystywaniem tych technologii, które mogą zostać skopiowane i zastosowane przez dowolne państwo. Przewiduje się, że do 2025 roku cyfrowe technologie, takie jak robotyka, autonomiczne systemy, łączność czy sztuczna inteligencja, będą miały kluczowy wpływ na sposób prowadzenia wojen i konfliktów, prowadząc do powstania sił zbrojnych, które będą łączyć ludzi z autonomicznymi systemami. Z biegiem czasu może to stać się równie przełomowe, jak zmiany, jakie wprowadziły firmy takie jak Uber czy Airbnb w swoich branżach.

Nowoczesne modele językowe, jak ChatGPT, będą również miały duże znaczenie w przyszłych konfliktach, umożliwiając masowe przetwarzanie danych wywiadowczych, wspierając procesy decyzyjne oraz komunikację. Modele sztucznej inteligencji tego typu mogą stać się podstawą dla nowych systemów wsparcia, które pomogą w analizie i wyborze celów wojskowych, a także w automatyzacji różnorodnych procesów, takich jak logistyka czy zarządzanie łańcuchem dostaw. Współczesna wojna będzie zatem coraz bardziej polegała na szybkości adaptacji do zmieniających się technologii, w której przewagę uzyskają ci, którzy będą w stanie najszybciej wdrażać innowacje.

Jakie wyzwania i zagrożenia niesie za sobą wprowadzenie autonomicznych systemów w obszarze obronności i bezpieczeństwa?

Aby zidentyfikować konkretny obiekt na obrazie, taki jak kot czy pies, system musi zostać wytrenowany na milionach zdjęć danego obiektu. Nie mniej istotna jest jakość danych, które są wykorzystywane do trenowania tych systemów. Jeśli zestaw danych treningowych nie będzie reprezentatywny, system może działać niewłaściwie, działać gorzej niż przewidywano, a co gorsza – wprowadzać nowe błędy lub potęgować już istniejące. Może to prowadzić do błędnych decyzji podejmowanych przez ludzi i błędnych działań. W obszarze strefy walki pozyskiwanie odpowiednich danych treningowych oraz danych o wysokiej jakości jest jednym z większych wyzwań, przed którymi stoją projekty rozwoju sztucznej inteligencji. Brak takich danych może doprowadzić do awarii autonomicznych systemów w sposób nieprzewidywalny i skomplikowany. Wprowadzenie autonomicznych systemów oznacza również pozostawienie miejsca na popełnianie błędów. Przykładem jest incydent z 1983 roku, gdy maszyna błędnie zinterpretowała odbicie światła od wysokogórskich chmur jako nadlatujące rakiety. Na szczęście pułkownik Stanisław Petrow z ZSRR postanowił zaufać własnym instynktom, a nie wskazaniu maszyny, uznając to za „fałszywy alarm”, co pozwoliło uniknąć kryzysu nuklearnego. W nowszym incydencie mężczyzna stracił życie z powodu awarii czujników w autonomicznym samochodzie, które nie rozpoznały różnicy między dużym białym ciężarowym samochodem a przyczepą przejeżdżającą przez autostradę w jasnym wiosennym słońcu. Takie awarie wciąż występują mimo starannych testów i weryfikacji systemów AI. Warto pamiętać, że te systemy mogą zawierać wady, które ujawniają się dopiero na etapie wdrożenia. Skutki takich niedopatrzeń mogą być nieodwracalne i wyrządzić poważne szkody w operacjach wojskowych, zagrażając zarówno personelowi, sprzętowi, jak i informacjom.

Kolejnym problemem jest fakt, że algorytmy maszynowego uczenia oparte na głębokich sieciach neuronowych są często nieprzejrzyste i działają jak czarna skrzynka. Wejście i wyjście są obserwowalne, ale proces obliczeniowy, prowadzący od jednego do drugiego, jest trudny do zrozumienia dla człowieka. Łatwiej jest trenować system przy użyciu głębokiego uczenia i sieci neuronowych, ale zrozumienie, w jaki sposób maszyna dochodzi do swoich wniosków lub prognoz, jest skomplikowane. Te nauki nie są przechowywane w cyfrowej pamięci, którą można by odblokować i rozgryźć – informacje są rozproszone w sposób trudny do rozwikłania. Oznacza to, że może być niemożliwe pełne zrozumienie, w jaki sposób wytrenowana AI dochodzi do swoich wniosków. Dlatego stosowanie jej w wrażliwych kontekstach, takich jak obszary przygraniczne czy strefy konfliktów, może stanowić ryzyko eskalacji nieprzewidywalnych sytuacji. Brak przejrzystości i wyjaśnialności stwarza zasadniczy problem w kwestii przewidywalności. Wykorzystanie tego braku przewidywalności może stanowić przewagę dla armii, dając scenariusz wiarygodnego zaprzeczenia. Wielu badaczy wskazuje na paradoksalny charakter problemu przewidywalności, ponieważ operacje przeprowadzane przez systemy autonomiczne powinny być przewidywalne dla operatorów, którzy je stosują, ale nie na tyle, by przeciwnik mógł je wykorzystać na swoją korzyść.

Brak przejrzystości jest również niepokojący z punktu widzenia regulacyjnego, ponieważ utrudnia identyfikację źródła problemu i przypisanie odpowiedzialności, gdy coś pójdzie nie tak. Wiarygodność wyników to kolejna kwestia. W przeciwieństwie do ludzi, systemy AI nie potrafią rozpoznać wzorców na poziomie abstrakcyjnym. Rozpoznawanie twarzy nie potrafi rozróżnić prawdziwej osoby od zdjęcia osoby, które znajduje się w innym obrazie; w obu przypadkach system dokona poprawnej identyfikacji. Zgodnie z badaniem, „zmiany w obrazie, które są niewidoczne dla ludzkiego oka, mogą spowodować, że system rozpoznawania obrazu całkowicie błędnie oznaczy obiekt lub osobę”, na przykład pomylić husky syberyjskiego z wilkiem. Inne badanie podkreśliło, że łatwo jest stworzyć obrazy, które są całkowicie nierozpoznawalne dla ludzi, ale oprogramowanie uważa je za rozpoznawalny obiekt z ponad 99% pewnością. Oznacza to, że systemy AI mogą być zawodliwe i można je oszukać przez przeciwników. Problem przewidywalności i wiarygodności jest jeszcze bardziej wyraźny w domenie cybernetycznej. Podczas wyzwania Cyber Grand Challenge w 2016 roku, systemy autonomiczne rywalizowały ze sobą w przechwytywaniu flag w zawodach hakerskich. W trakcie konkursu jeden system autonomiczny przerwał swoje działanie, a inny naprawił uszkodzenia, ale unieszkodliwił maszynę, którą miał chronić. Oznacza to, że technologie umożliwiające autonomiczne funkcje w maszynach są wciąż na wczesnym etapie rozwoju, zwłaszcza jeśli chodzi o systemy broni, które miałyby być używane na polu walki i w armiach.

Wdrażanie takich niedotestowanych maszyn w konflikty i wojny może prowadzić tylko do chaosu i eskalacji. Odpowiedzialne wprowadzenie technologii AI pozostaje więc pilnym wyzwaniem dla regulatorów, twórców i użytkowników.

Pojawienie się narzędzi cybernetycznych opartych na sztucznej inteligencji w obronności i bezpieczeństwie rodzi istotne pytania o to, jak wpłyną one na dynamikę stosunków międzynarodowych oraz stabilność strategiczną. Dla wielu państw posiadanie broni nuklearnej stanowi czynnik, który w pewnym stopniu zapobiega wojnie na pełną skalę, bazując na strachu przed wzajemnym zapewnieniem zniszczenia (MAD). Koncepcja MAD opiera się na założeniu, że potencjalny atakujący nie ma motywacji do przeprowadzenia ataku nuklearnego, jeśli obrońca może zagwarantować odwetowy atak. Związek między wprowadzeniem autonomicznych systemów a zdolnością do zadania drugiego uderzenia jest związany z pewnością w tym zakresie. Im bardziej podatne na atak są te zdolności, tym większe prawdopodobieństwo, że państwa będą integrować systemy autonomiczne. Jednak wprowadzenie sztucznej inteligencji może zaburzyć równowagę MAD. Może zmienić obecny układ sił ze względu na ryzyko błędnej kalkulacji i nieprzewidywalnych wyników związanych z tą technologią. Z jednej strony zdolności militarne wspierane przez sztuczną inteligencję mogą zwiększyć odstraszanie, dzięki skutecznej detekcji, przewidywaniu i skróceniu czasu reakcji. Z drugiej strony, takie postępy mogą rzucić cień na przetrwanie zdolności do drugiego uderzenia, szczególnie dla państw, które stosują zasadę „brak pierwszego użycia”. AI może poprawić dokładność prognozowania na podstawie łączenia różnych źródeł informacji, umożliwiając identyfikację i lokalizację rakiet w silosach, na statkach powietrznych, okrętach podwodnych czy ciężarówkach. Może to prowadzić do destabilizacji strategicznej, podważając fundamenty odstraszania.

Jak sztuczna inteligencja zmienia współczesne pole walki?

Sztuczna inteligencja (SI) staje się kluczowym elementem nowoczesnych systemów obronnych i wojskowych, odgrywając coraz większą rolę w opracowywaniu autonomicznych technologii wojskowych. Choć sama SI nie jest nowością, to jej zastosowanie w kontekście obronności oraz konfliktów zbrojnych nabrało nowego znaczenia w ostatnich latach. Jest to technologia, która nie tylko wspomaga autonomię systemów, ale także pozwala na ich samodzielne podejmowanie decyzji w skomplikowanych warunkach, bez potrzeby bezpośredniej ingerencji człowieka.

Pierwszym i najważniejszym aspektem jest to, że SI umożliwia eliminację konieczności ręcznego kodowania cech w systemach. Zamiast tego, maszyny uczą się na podstawie danych, co pozwala im na adaptację do zmieniających się warunków. Modele oparte na uczeniu maszynowym mogą uczyć się z doświadczeń, a następnie wykorzystywać tę wiedzę do rozwiązywania problemów w sposób bardziej efektywny niż człowiek. Takie podejście jest wykorzystywane nie tylko w cywilnych aplikacjach, ale także w kontekście wojskowym, gdzie autonomiczne systemy muszą radzić sobie w dynamicznych warunkach pola walki.

Współczesne technologie sztucznej inteligencji w wojsku obejmują nie tylko systemy sterujące dronami, ale także programy rozpoznające twarze czy wspomagające podejmowanie decyzji strategicznych. Zastosowanie SI do rozpoznawania twarzy, jak miało to miejsce podczas konfliktu na Ukrainie, stało się jednym z przykładów jej zastosowania w wojnie informacyjnej. Systemy oparte na rozpoznawaniu obrazu mogą pomagać w identyfikowaniu przeciwnika w czasie rzeczywistym, co może mieć ogromne znaczenie w kontekście precyzyjnych uderzeń lub działań obronnych.

Pomimo tego, że technologia ta jest jeszcze w fazie rozwoju, już teraz zyskuje uznanie wśród wojskowych. Przykładem może być wykorzystywanie autonomicznych dronów przez armię rosyjską, które wykonują samodzielne zadania bez potrzeby ciągłego nadzoru operatora. Tego rodzaju systemy są w stanie ocenić sytuację na polu walki, podejmować decyzje o ataku i przeprowadzać operacje wojskowe w sposób autonomiczny, przy minimalnym udziale człowieka. Warto podkreślić, że mimo iż technologia ta budzi obawy o przyszłość konfliktów zbrojnych, to jej zastosowanie może również stanowić skuteczną odpowiedź na dynamicznie rozwijające się zagrożenia.

Kolejnym krokiem w rozwoju sztucznej inteligencji w kontekście wojskowym jest wprowadzenie systemów, które potrafią działać w sposób samodzielny, przejmując część odpowiedzialności za podejmowanie decyzji. Oczywiście, kwestie etyczne i prawne związane z autonomią wojskowych systemów nadal stanowią obiekt intensywnych debat. Jakkolwiek, technologia ta będzie coraz bardziej powszechna, a jej wpływ na wojskowość może zmienić sposób prowadzenia wojen. Drony, roboty bojowe i inne systemy autonomiczne, które wykorzystują sztuczną inteligencję, mogą zrewolucjonizować pole walki, zmieniając sposób, w jaki strategie są planowane i realizowane.

Dodatkowo, ważnym aspektem wykorzystania SI w wojskowości jest jej integracja z cyberbezpieczeństwem. Jak pokazuje przykład wojny na Ukrainie, operacje cybernetyczne stały się nieodłącznym elementem konfliktów zbrojnych, a wykorzystanie sztucznej inteligencji w takich operacjach może znacznie zwiększyć skuteczność ataków, jak i obrony. Siła obliczeniowa, jaką daje sztuczna inteligencja, pozwala na szybsze przetwarzanie danych, wykrywanie luk w systemach bezpieczeństwa i reagowanie w czasie rzeczywistym na zmieniające się zagrożenia.

Choć nie wszystkie aspekty sztucznej inteligencji w kontekście wojskowym są jeszcze w pełni zrozumiane, to już teraz widać ogromny potencjał tej technologii. Pojawiające się nowe systemy, które mogą działać autonomicznie, wymagają jednak ostrożności i odpowiedzialnego podejścia, zarówno w kontekście ich stosowania, jak i przyszłego rozwoju. W szczególności konieczne jest wypracowanie ram prawnych i etycznych, które będą gwarantować, że technologia ta będzie używana w sposób odpowiedzialny, a jej negatywne skutki nie będą przewyższać korzyści.

Zrozumienie roli sztucznej inteligencji w nowoczesnym konflikcie zbrojnym jest niezbędne, aby w pełni docenić zmiany, jakie niesie ze sobą ta technologia. Oprócz bezpośrednich korzyści, takich jak zwiększenie efektywności operacji wojskowych, warto dostrzec również długofalowe wyzwania związane z autonomią, bezpieczeństwem danych i kontrolą nad technologią. Również znaczenie cyberataków, które mogą współistnieć z tradycyjnymi działaniami wojskowymi, jest nie do przecenienia. Sztuczna inteligencja, z jej zdolnością do szybkiego analizowania ogromnych ilości danych, jest narzędziem, które może kształtować przyszłość wojny na niespotykaną dotąd skalę.

Jak sztuczna inteligencja zmienia oblicze wojen i konfliktów zbrojnych?

Sztuczna inteligencja (SI) oraz autonomiczne systemy wojskowe to tematy, które wciąż budzą ogromne kontrowersje na całym świecie. Z jednej strony, niekwestionowane postępy w rozwoju technologii niosą ze sobą obietnicę precyzyjniejszych i mniej ryzykownych operacji wojskowych, a z drugiej — pojawia się niepokój o etyczne konsekwencje pozwolenia maszynom na podejmowanie decyzji o życiu i śmierci. W szczególności rozwój sztucznej inteligencji w kontekście strategii wojskowych może diametralnie zmienić sposób prowadzenia wojen, zarówno w skali globalnej, jak i na poziomie państw, które borykają się z wewnętrznymi konfliktami.

Od momentu, gdy Stany Zjednoczone w 2012 roku ogłosiły politykę rozwoju sztucznej inteligencji w obszarze obronności, światowe mocarstwa, takie jak Rosja czy Chiny, zaczęły wyznaczać ambitne cele na przyszłość. Chiny, na przykład, postawiły sobie za cel bycie liderem w dziedzinie SI do 2030 roku. Z kolei Rosja, poprzez swojego prezydenta Władimira Putina, jasno wyraziła pogląd, że „kto stanie się liderem w tej dziedzinie, ten stanie się władcą świata”. W tym kontekście wykorzystanie SI w planowaniu wojskowym, rozwój autonomicznych systemów uzbrojenia, dronów czy pojazdów bojowych staje się kluczowym elementem globalnej strategii militarnej.

Sztuczna inteligencja w armii to jednak nie tylko nowe technologie broni. To również systemy rozpoznawcze, systemy obrony, a także narzędzia do planowania i realizacji precyzyjnych ataków. Automatyczne systemy rozpoznawcze i nadzoru, drony, pojazdy lądowe i morskie, a także systemy obrony antyrakietowej — wszystkie te technologie, coraz częściej wspierane przez SI, stają się nieodzownym elementem współczesnych działań wojennych. Takie systemy mają na celu nie tylko zwiększenie efektywności operacji wojskowych, ale także zmniejszenie liczby ofiar cywilnych, co stanowi jeden z głównych argumentów zwolenników włączenia AI do strategii wojskowej.

Jednak nie można zapominać o ogromnych wyzwaniach etycznych, które towarzyszą takim technologiom. Wątpliwości dotyczą przede wszystkim tego, czy można pozwolić maszynom na podejmowanie decyzji o atakach, które mogą prowadzić do śmierci ludzi. Obawy te dotyczą nie tylko uzbrojenia autonomicznego, ale również wykorzystania danych generowanych przez SI, takich jak obrazy satelitarne czy dane z dronów, które mogą służyć do planowania ataków. Istnieją także obawy związane z nielegalnym i nieetycznym wykorzystaniem tych technologii, które mogą prowadzić do naruszenia prawa międzynarodowego i konwencji wojennych.

W odpowiedzi na rosnącą rolę sztucznej inteligencji w wojskowości, na forum międzynarodowym toczy się dyskusja na temat konieczności wprowadzenia regulacji prawnych dotyczących użycia AI w systemach broni. Grupa Ekspertów Rządowych Komitetu ds. Broni Konwencjonalnych od 2014 roku prowadzi debaty na ten temat, a organizacje pozarządowe oraz rządy wielu państw zgłaszają swoje stanowiska w tej sprawie.

Kraje, takie jak USA, Rosja, Chiny, ale również Indie, inwestują w rozwój SI i autonomicznych systemów wojskowych. Obecnie, zaawansowane technologie, w tym satelity wykorzystywane do precyzyjnych ataków, stanowią kluczowy element planowania wojskowego. Z jednej strony, pozwalają one na znacznie dokładniejsze i szybsze przeprowadzanie operacji, z drugiej — wiążą się z ryzykiem wykorzystania danych w sposób nieetyczny, co może prowadzić do tragicznych konsekwencji, w tym niepotrzebnych ofiar cywilnych.

Sytuacja w Afryce, gdzie wiele państw zmaga się z wewnętrznymi konfliktami, stanowi kolejny obszar, który wymaga szczególnej uwagi. Mimo że Afryka pozostaje w tyle pod względem wdrażania sztucznej inteligencji w wojskowości, obserwuje się rosnące inwestycje w technologie wojskowe, w tym małe satelity wojskowe oraz autonomiczne systemy. Wzrost zagrożeń w postaci niestabilności wewnętrznej oraz ryzyko zewnętrznych ingerencji sprawiają, że państwa afrykańskie zaczynają dostrzegać znaczenie nowych technologii w zapewnieniu bezpieczeństwa narodowego.

W kontekście Afryki, a zwłaszcza Nigerii, w której aktywne są liczne strefy konfliktowe, zastosowanie sztucznej inteligencji w strategiach wojskowych mogłoby znacząco poprawić efektywność działań obronnych oraz zminimalizować ryzyko cywilnych ofiar. Niemniej jednak, wprowadzenie takich technologii wiąże się z licznymi wyzwaniami, zarówno politycznymi, jak i etycznymi. Na przykład, w wielu regionach panuje głęboka nieufność wobec technologii, w tym obawy o zagrożenia związane z inwigilacją oraz potencjalnym naruszeniem prywatności obywateli.

Pomimo tych trudności, inwestycje w technologie wojskowe stają się niezbędnym krokiem w walce z rosnącymi zagrożeniami. Przyszłość sztucznej inteligencji w Afryce, szczególnie w kontekście rozwiązywania problemów związanych z konfliktami, wymaga jednak ostrożnego i odpowiedzialnego podejścia, by uniknąć pogłębienia nierówności czy eskalacji przemocy.

Zatem, choć potencjał AI w kontekście wojen i konfliktów zbrojnych jest ogromny, towarzyszy temu wiele wyzwań związanych z odpowiedzialnym zarządzaniem tymi technologiami. W przypadku krajów rozwijających się, takich jak państwa afrykańskie, kluczowe będzie znalezienie równowagi pomiędzy bezpieczeństwem narodowym a przestrzeganiem praw człowieka i zasad etycznych.