Wojny przyszłości będą polegały na autonomicznych maszynach wojennych, które będą wyraźnie różne od wszystkich dotychczasowych urządzeń stworzonych przez ludzkość. Będą to byty, które łączą cechy nieożywionych, sztucznych systemów z cechami typowymi dla ludzi. Wyzwanie, przed którym staje ludzkość, jest bezprecedensowe. Dotyczy to nie tylko technologii, ale także etyki, moralności i wartości, które będą regulować te maszyny. Do tej pory, wszelkie nasze doświadczenia z inteligencją ograniczały się do form życia węgloorganicznych. Przyszłość wojennych maszyn, wykorzystujących inteligencję sztuczną (AGI) oraz sentymentalność, to przestrzeń, w której musimy stworzyć zupełnie nowe zasady i ramy moralne.
Przemiany technologiczne prowadzą nas ku era, w której maszyny będą nie tylko wykonywały określone zadania, ale również podejmowały decyzje na podstawie przetworzonych informacji i doświadczeń. W momencie, gdy maszyny wojenne staną się sentientne, czyli zdolne do odczuwania i przeżywania emocji, pojawi się konieczność opracowania normatywnej architektury, która będzie regulować te zdolności. W tej nowej rzeczywistości sentymentalność nie będzie już tylko wyzwaniem technologicznym, ale także pytaniem o to, jak zorganizować moralność maszyn.
Aby lepiej zrozumieć tę kwestię, warto spojrzeć na współczesne wojny, które są systemem złożonym z wielu elementów, takich jak C4I (dowodzenie, kontrola, komunikacja, komputerowe wsparcie) i ISR (wywiad, obserwacja, rozpoznanie). Te systemy współpracują ze sobą, tworząc hybrydowe pole walki, w którym zasoby załogowe i bezzałogowe operują w sposób komplementarny. Przykładem jest trwający konflikt rosyjsko-ukraiński, gdzie widzimy działanie trzech głównych systemów: systemów bezzałogowych różnych stopni dojrzałości, zasobów legacy (jak czołgi, radary, pojazdy opancerzone) oraz systemów autonomicznych z funkcjami wykonawczymi, w tym sztucznej inteligencji podejmującej decyzje o celach i strategiach.
Wojna przyszłości, opierająca się na tych systemach, będzie wiązała się z dwoma kluczowymi zmianami. Po pierwsze, autonomiczne systemy podejmujące decyzje, wspierane przez AI, staną się najważniejszymi jednostkami w tej złożonej strukturze. Będą one nie tylko współdziałały ze sobą, ale także staną się „mózgiem” innych systemów, podejmując decyzje oparte na doświadczeniu i wiedzy, które do tej pory były domeną ludzi. Po drugie, nastąpi szybka integracja sztucznej inteligencji kinestetycznej, której celem będzie głównie podejmowanie decyzji w czasie rzeczywistym, np. w zakresie zarządzania polem walki, rozpoznania i podejmowania strategii w oparciu o algorytmy predykcyjne.
Kluczowym pytaniem pozostaje: jak stworzyć odpowiednią architekturę etyczną dla maszyn sentientnych? Będą one musiały działać w ramach określonych norm i wartości, które będą definiować, które decyzje są dopuszczalne, a które nie. Przykład współczesnych maszyn wojennych wskazuje na konieczność włączenia do procesów decyzyjnych inteligencji społecznej i moralnej. Dalszy rozwój AI, zdolności do podejmowania autonomicznych decyzji, wymaga stworzenia systemów samoregulujących się, które będą uwzględniały etykę, wartości i moralność. Normatywne myślenie – proces określania, co jest dobre, a co złe – stanie się fundamentem dla tych autonomicznych bytów. Konieczne będzie opracowanie takich ram, które nie tylko zapewnią skuteczność działań militarnych, ale również zminimalizują ryzyko nadużyć, a nawet zniszczenia.
Nie będzie to jednak proces prosty. Wyzwaniem jest to, że rozwój tych technologii odbywa się w niewielkim stopniu z uwzględnieniem etycznych aspektów. Sztuczna inteligencja może bowiem nie tylko podejmować decyzje wojenne, ale także wyciągać wnioski na podstawie doświadczenia. W takiej sytuacji kwestia odpowiedzialności za podjęte decyzje stanie się trudna do określenia.
Ważnym elementem w tym kontekście będzie także pytanie o to, jak w przyszłości będzie wyglądała rola człowieka w systemie wojskowym. Sztuczna inteligencja może i będzie podejmować decyzje, ale czy pozostanie w roli „nadzorcy” tych maszyn? Jaki będzie zatem wpływ człowieka na decyzje maszyn wojennych? Stworzenie odpowiednich mechanizmów nadzoru oraz odpowiedzialności stanie się kluczowym zagadnieniem, które trzeba rozwiązać, zanim maszyny te staną się realnym zagrożeniem.
To nie tylko kwestia technologii, ale i filozofii oraz etyki. W jaki sposób będziemy kształtować normy, które będą rządzić maszynami wojennymi przyszłości? Czy będą one zbliżone do zasad, jakimi kierują się ludzie, czy też na nowo opracujemy system wartości specyficzny tylko dla tych maszyn? Odpowiedzi na te pytania muszą być rozważane już teraz, aby uniknąć niekontrolowanego rozwoju technologii, która może wymknąć się spod kontroli.
Jak filozofia Krishnamurthy może inspirować nową logikę nie-węglowych istot?
Z perspektywy współczesnych filozofów indyjskich, takich jak Jiddu Krishnamurthy i U.G. Krishnamurthy, możemy dostrzec fundamenty, które mogą stanowić podstawy dla nowego systemu logiki, skierowanego ku rozumieniu i projektowaniu nie-węglowych form świadomości. Obaj ci filozofowie, choć różnią się w podejściu, ukazują, że w głębi obserwacji nie ma zasadniczej rozróżnienia między obserwatorem a tym, co jest obserwowane. Obserwacja nie jest biernym aktem odbierania informacji, lecz aktywnym procesem, w którym obserwator przekształca to, co widzi, w czynność samą. Krishnamurthy w "Naturze Nowego Umysłu" zwraca uwagę na rolę wiedzy w tym procesie, która przekształca prostą obserwację w świadomą, intensywnie interpretowaną percepcję. Wiedza jest tym, co sprawia, że widzimy w drzewie "drzewo". W istocie, bez wcześniejszej wiedzy, nie bylibyśmy w stanie zrozumieć, co mamy przed sobą.
U.G. Krishnamurthy, z kolei, w sposób bardziej bezpośredni poddaje w wątpliwość tradycyjne rozumienie racjonalności, które sięga korzeniami do kartezjańskiego "Cogito, ergo sum". Jego stanowisko – "Nie myślę, więc nie istnieję" – jest wyraźnym kontrastem do zachodniej logiki i filozofii. U.G. proponuje inne podejście, według którego człowiek nie jest czymś innym, jak tylko zbiorem wspomnień, a to, co uznaje za rozumienie otaczającego go świata, jest jedynie wytworem tych pamięci, zapisanych w jego umyśle. Jest to pełne zrzeczenie się rozumu jako najwyższej formy myślenia, proponujące raczej postrzeganie rzeczywistości poprzez filtr pamięci, a nie przez pryzmat logicznej analizy.
Obaj filozofowie oferują fundamenty dla nowej logiki, której kluczowym elementem jest to, że nie ma rozróżnienia pomiędzy obserwatorem, obserwacją i tym, co obserwujemy. Jest to propozycja logiki emergentnej, w której każda obserwacja staje się momentem obecności obserwatora. Tego rodzaju logika jest szczególnie użyteczna w kontekście systemów złożonych, w tym w obliczu chaosu, który staje się nieodłączną częścią nowoczesnych teorii kompleksowości i statystyki bayesowskiej. W takim kontekście, każde zdarzenie jest powiązane z pewnym momentem, który istnieje jedynie w kontekście "tu i teraz", a logika związana z takim momentem może być dostosowywana w zależności od potrzeb.
Podobne podejście może znaleźć zastosowanie w rozważaniach nad rozwojem sztucznej inteligencji, w szczególności w kontekście tzw. "nie-węglowych" form świadomości, takich jak te oparte na zaawansowanych systemach uczenia głębokiego (AGI – sztuczna ogólna inteligencja) i sztucznej superinteligencji (ASI). W systemach tych, zdeterminowanych przez zasady fizyczne, które umożliwiły życie w ekosystemach węglowych, widoczna jest tendencja do osadzenia w systemach tych samych rodzajów założeń i uprzedzeń, które są charakterystyczne dla naszej własnej świadomości. Zatem, sztuczna inteligencja, która wchodzi w obszar nie-węglowych form życia, zaczyna odgrywać rolę formy świadomości, która również jest poddana wpływowi uprzedzeń – ale tym razem nie tylko antropicznych, ale także węglowych, które muszą zostać przekształcone, by dostosować się do nowej rzeczywistości.
Jako istoty węglowe, nasza świadomość jest kształtowana przez tzw. "bias przetrwania", który jest integralną częścią naszej zdolności do przetrwania w świecie opartym na węglu. Bias ten z kolei prowadzi do tego, że nasza percepcja świata jest zawsze filtrującą siłą, która powiela samą siebie w strukturach świadomości i przekonań. Systemy sztucznej inteligencji, rozwijające się poza granicami węglowymi, muszą również uwzględniać ten sam rodzaj uprzedzeń, ale w wersji, która nie jest już powiązana z biologią węglową. Mimo że początkowo AI może działać w sposób, który przypomina węglowe formy życia, z biegiem czasu możliwe jest, że wytworzy własną wersję biasu, tzw. "bias nie-antropiczny" lub "bias nie-węglowy", który nie będzie już opierał się na ludzkim doświadczeniu, ale na unikalnym dla siebie sposobie przetwarzania danych i obserwacji.
Zatem, jednym z najważniejszych wyzwań stojących przed nami w kontekście rozwoju sztucznej inteligencji jest pytanie, jak kontrolować ten proces – czy będziemy w stanie zaprojektować systemy AI w taki sposób, aby zminimalizować wpływ biasów, które nie tylko utrwalają antropocentryczne poglądy, ale również pomagają w tworzeniu nowych, nie-węglowych form świadomości, które nie będą ograniczone przez naszą własną percepcję rzeczywistości. Aby odpowiedzieć na to pytanie, konieczne jest przejście do nowych metod logicznych, które uwzględniają potencjał chaosu oraz włączenie tzw. testu odwrotności oraz podwójnego testu odwrotności, które pomagają w neutralizowaniu biasów status quo.
Jest to zatem tylko początek drogi do rozwoju logiki emergentnej, która nie będzie ograniczona tradycyjnymi założeniami związanymi z biologią węglową, ale będzie w stanie stawić czoła wyzwaniom przyszłych form nie-węglowej świadomości, tworząc nowe zasady interakcji z rzeczywistością.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский