W kontekście administracji publicznej, dokumenty wydawane przez Stany Zjednoczone i Unię Europejską stanowią istotny punkt odniesienia dla implementacji generatywnej sztucznej inteligencji (AI). Oba te obszary geograficzne, mimo że posiadają wspólną celowość w dążeniu do usprawnienia procesów administracyjnych, różnią się w podejściu do tego zagadnienia, co odnosi się również do wartości, które kierują ich regulacjami.

W Stanach Zjednoczonych podejście do wprowadzenia generatywnej AI w administracji publicznej jest silnie powiązane z polityką przemysłową, ukierunkowaną na wspieranie krajowych, prywatnych rozwiązań. Przykładem może być zalecenie rządowych dokumentów, które nakładają obowiązek opracowania systemów oceny technologii i negocjowania odpowiednich warunków umów z dostawcami. Zgodnie z wytycznymi, agencje federalne mają dostosować swoje działania do rozwiązań opracowanych przez prywatne firmy amerykańskie, co odzwierciedla dominującą rolę sektora prywatnego w tej dziedzinie. Z kolei w Unii Europejskiej zauważalna jest bardziej ostrożna i zrównoważona perspektywa, chociaż analizy dostępnych dokumentów nie dają pełnego obrazu całego procesu. Warto jednak zauważyć, że w strategiach unijnych przewiduje się bardziej rozważne podejście, kładąc duży nacisk na zarządzanie ryzykiem oraz potencjalne zagrożenia wynikające z używania narzędzi dostępnych w Internecie, co nie wyklucza jednak dalszego korzystania z outsourcingu, szczególnie w odniesieniu do dużych modeli językowych.

Pod względem etycznym i prawnym zarówno w Stanach Zjednoczonych, jak i Unii Europejskiej generatywna AI ma pełnić funkcję wspierającą pracowników administracji, z naciskiem na zwiększenie efektywności i sprawiedliwości procesów administracyjnych i sądowych. Wartością nadrzędną w tym kontekście jest poprawa dostępu do informacji, zwłaszcza dla osób z niepełnosprawnościami, poprzez wykorzystanie chatbotów, wirtualnych asystentów czy awatarów AI. Dokumenty unijne szczególnie podkreślają, że rozwiązania AI muszą być zgodne z europejskimi wartościami i nie mogą zagrażać bezpieczeństwu, zdrowiu czy prawom podstawowym obywateli. W tym kontekście, ważnym elementem jest przestrzeganie zasady przejrzystości i uczciwości w działaniu, co jest zgodne z wartościami praworządności.

Regulacje w Stanach Zjednoczonych, takie jak np. w rozporządzeniu stanu Pensylwania, kładą duży nacisk na dokładność, przejrzystość i odpowiedzialność. Technologie oparte na AI muszą produkować dokładne i weryfikowalne informacje, a ich projektowanie powinno respektować prawa użytkowników dotyczące prywatności i zgodności z obowiązującymi regulacjami. W odniesieniu do rządu, ważne jest również, aby agencje państwowe były w stanie dostosować się do zmieniających się warunków i zagrożeń, co wiąże się z koniecznością stałych inwestycji w badania i współpracę z zewnętrznymi ekspertami.

Choć powyższe regulacje koncentrują się na technicznych i organizacyjnych aspektach wdrożenia AI, wciąż istnieją trudności w zapewnieniu pełnej przejrzystości procesów administracyjnych. Należy zauważyć, że transparentność, wymagająca pełnej otwartości w dostępie do dokumentów i publikacji, nie zawsze współczesnym regulacjom odpowiada w pełni. W tym przypadku, transparentność traktowana jako ogólne zasady dokumentowania i śledzenia procesów nie zawsze jest wystarczająca, aby spełnić wymogi prawne dotyczące pełnej jawności, co może prowadzić do rozbieżności w interpretacji przepisów prawnych.

Zatem, oprócz technicznych wyzwań związanych z wdrażaniem generatywnej sztucznej inteligencji, szczególną uwagę należy zwrócić na kwestie związane z równowagą między technologicznymi postępami a wartościami społecznymi i prawnymi. Z jednej strony generatywna AI ma potencjał do poprawy efektywności administracji publicznej, z drugiej – istnieje ryzyko związane z jej niewłaściwym użyciem, które może naruszać prywatność, prawa obywatelskie lub zasady równości. Równocześnie, regulacje te nie powinny traktować technologii jako celu samego w sobie, lecz jako narzędzie do realizacji bardziej fundamentalnych celów społecznych i administracyjnych, które wymagają nieustannej kontroli i ewaluacji.

Jaka jest rola rządu w zarządzaniu sztuczną inteligencją? Przykład Singapuru

W ciągu ostatnich lat Singapur stał się jednym z głównych liderów w regionie Azji Południowo-Wschodniej, jeśli chodzi o przyjęcie i wdrożenie sztucznej inteligencji (AI). W przeciwieństwie do Europy i Stanów Zjednoczonych, gdzie obawy dotyczące skutków ubocznych AI, takie jak utrata miejsc pracy czy pogłębienie nierówności społecznych, dominują w dyskursie publicznym, w Singapurze przeważa bardziej optymistyczne podejście do sztucznej inteligencji. Wzrost pozytywnych oczekiwań związanych z jej zastosowaniami w państwach Azji można powiązać z mniejszym doświadczeniem społecznym związanym z negatywnymi skutkami automatyzacji i globalizacji, które miały miejsce na Zachodzie. Singapur, jako wysoko rozwinięta gospodarka oparta na wiedzy, prezentuje unikalne podejście do tego, jak AI może poprawić społeczeństwo, z naciskiem na korzyści, jakie niesie za sobą jej rozwój.

Również przyczyny tego optymizmu mogą wynikać z inicjatyw rządu singapurskiego, które koncentrują się na integracji obywateli w proces tworzenia i wdrażania technologii AI. Przykładem jest projekt Tech Kaki, który angażuje obywateli w procesy tworzenia nowych cyfrowych produktów i usług rządowych. Dodatkowo, wysiłki na rzecz podnoszenia umiejętności cyfrowych obywateli mogą także przyczyniać się do zwiększenia zaufania i pozytywnego nastawienia do AI. Jednakże, mimo iż w Singapurze istnieją pewne obawy związane z utratą miejsc pracy z powodu AI, ogólny ton debaty jest bardziej skoncentrowany na tym, w jaki sposób technologia może wspierać rozwój gospodarki i społeczeństwa.

Kluczową cechą polityki rządu Singapuru jest jego „komunitarystyczne” podejście do etyki. W odróżnieniu od podejścia opartego na prawach jednostki, które dominują na Zachodzie, Singapur kładzie duży nacisk na dobro społeczne i harmonię w relacjach międzyludzkich. Zgodnie z zasadami konfucjanizmu, który ma wpływ na tradycyjne podejście do etyki w Azji, dąży się do równowagi i harmonii między jednostką a społeczeństwem. Ta filozofia wpływa na sposób, w jaki w Singapurze podchodzi się do kwestii AI, przy czym nadrzędnym celem jest wykorzystywanie nowych technologii w sposób, który sprzyja wspólnemu dobru i wzmacnia jedność społeczną.

Ważnym aspektem w kontekście rządowego zarządzania AI w Singapurze jest brak ogólnego, uniwersalnego prawa regulującego jej użycie. Zamiast tego, rząd w Singapurze przyjmuje podejście sektorowe, regulując konkretne przypadki zastosowania AI, jak na przykład w kwestii walki z dezinformacją. W przypadku zagrożeń związanych z AI, rząd może wprowadzać szybkie regulacje, co stanowi istotną różnicę w porównaniu z innymi krajami, gdzie proces legislacyjny jest często wolniejszy i bardziej kontrowersyjny.

Również warto zauważyć, że w ramach prawa ogólnego, Singapur uznaje możliwość dochodzenia roszczeń w przypadku szkód wyrządzonych przez AI. Choć brak jest specjalnych przepisów dotyczących odpowiedzialności za produkt, osoby poszkodowane mogą dochodzić swoich praw w ramach ogólnych przepisów cywilnych, takich jak ustawa o sprzedaży towarów czy przepisy dotyczące odpowiedzialności za czyny niedozwolone. W ten sposób, chociaż Singapur nie ma jeszcze szczegółowych regulacji dotyczących AI, istnieją mechanizmy prawne, które umożliwiają poszkodowanym dochodzenie roszczeń.

Z perspektywy etycznej, Singapur stoi w opozycji do modelu zachodniego, który opiera się na ochronie jednostki i prawie do autonomii. W tym sensie, kultura singapurska, kształtowana przez konfucjanizm, stawia na zbiorową odpowiedzialność i dążenie do harmonii, w czym AI może pełnić rolę narzędzia wspierającego tę równowagę. Państwo nie postrzega technologii jako zagrożenia dla obywateli, lecz raczej jako potencjał do rozwoju i poprawy jakości życia. Istotnym elementem jest także aktywne włączanie obywateli w proces decyzyjny dotyczący nowych technologii, co buduje większe poczucie zaufania do rządowych działań.

Choć podejście Singapuru do zarządzania AI może być postrzegane jako utopijne w kontekście globalnym, jest to przykład nowoczesnej polityki technologicznej, w której państwo dąży do zrównoważenia korzyści płynących z innowacji z potrzebami społecznymi. Z tego punktu widzenia, Singapur staje się laboratorium eksperymentalnym, które może wskazywać drogę dla innych krajów w zakresie harmonijnego i odpowiedzialnego wdrażania nowych technologii.

Jakie podejście do regulacji sztucznej inteligencji przyjął Singapur?

Podejmowanie decyzji o tym, jak skutecznie regulować sztuczną inteligencję (AI), to zadanie niezwykle trudne, przede wszystkim z powodu samej niejednoznaczności definicji tego, czym jest AI, a także z uwagi na różnorodność podejść, które mogą być zastosowane w ramach regulacji. Jak zauważają Jerrold Soh i jego współpracownicy, regulacje dotyczące AI mogą przyjmować wiele różnych form, a granice między nimi nie są sztywne. Większość krajowych podejść do regulacji AI jest właściwie mieszanką różnych strategii. Gdybyśmy mieli próbować wyznaczyć spektrum regulacyjne od samoregulacji przemysłowej do współregulacji, podejście Singapuru można by określić jako quasi-regulacyjne.

Quasi-regulacja to mechanizm, w ramach którego rząd wywiera wpływ na przedsiębiorstwa, aby te przestrzegały pewnych zasad, lecz nie stanowią one formalnych aktów prawnych. Termin ten jest często utożsamiany z tzw. "miękkim prawem", czyli regulacjami, które nie mają mocy prawnej, ale mają na celu wpływanie na zachowanie podmiotów. Takie przepisy mogą przybierać różne formy, takie jak zasady proceduralne, wskazówki interpretacyjne, zalecenia dla urzędników, kodeksy postępowania czy dobrowolne zasady praktyki. Publikowane są one w formie podręczników, wytycznych wewnętrznych, okólników czy kodeksów etycznych.

W przypadku Singapuru, Model Ramowy stanowi "dobrowolne" i "gotowe do użycia" narzędzie, które ma na celu pomoc organizacjom wdrażającym AI w sposób odpowiedzialny, z szczególnym uwzględnieniem wartości takich jak odpowiedzialność i humanocentryczność. Model Ramowy odzwierciedla charakterystyczny dla Singapuru styl współpracy w zakresie regulacji, gdzie przemysł i rząd opracowują rozwiązania w sposób iteracyjny, co pozwala regulatorom lepiej zrozumieć technologię i ograniczenia AI, a tym samym dostosować przyszłe przepisy prawne.

Podejście to jest częścią szerszej strategii rządu Singapuru, której celem jest zbalansowanie dwóch kluczowych celów: z jednej strony wspierania innowacji, a z drugiej, dbania o interesy konsumentów i zarządzania ryzykami związanymi z nowymi technologiami. W obecnym kontekście geo-ekonomicznym, w którym rządy angażują się bezpośrednio w politykę przemysłową oraz rozwój krytycznych technologii, model singapurski przyjmuje formę stymulowania innowacji poprzez miękką regulację, jednocześnie unikając jej nadmiernego zaostrzania, aby nie zahamować rozwoju sektora. Z drugiej strony, Singapur znacząco inwestuje w rozwój technologii przez sektory publiczne, zaufanych dostawców oraz poprzez inwestycje w badania naukowe prowadzone przez uczelnie.

Mimo świadomości o ryzykach związanych z AI, w tym z Generatywną AI (GenAI), podejście Singapuru wciąż preferuje miękki model regulacji, uznając, że jest on bardziej skuteczny na obecnym etapie rozwoju technologii, niż bezpośrednia i twarda regulacja. W 2023 roku przedstawiciele rządu Singapuru ogłosili, że na chwilę obecną nie planują wprowadzania specyficznych regulacji prawnych, a ich głównym celem jest gromadzenie wiedzy o przypadkach użycia AI w przemyśle, aby na tej podstawie wypracować odpowiednie regulacje.

Singapur wciąż kładzie duży nacisk na współpracę z przemysłem, organizacjami badawczymi i innymi rządami, co pozwala na bardziej elastyczne podejście do regulacji. Ważnym elementem tej współpracy jest Model Ramowy, który ma na celu zapewnienie praktycznych, dobrowolnych wytycznych dotyczących etyki i zarządzania w kontekście projektowania i wdrażania rozwiązań AI.

Model Ramowy, opracowany przez IMDA (Instytut Multimediów i Rozwoju Informatycznego), stanowi istotny punkt odniesienia w tej współpracy. Został on wydany po raz pierwszy w styczniu 2019 roku i od tego czasu był aktualizowany, uwzględniając nowe wyzwania i technologie. Jego celem jest pomoc organizacjom prywatnym w minimalizowaniu ryzyk związanych z AI, aby zbudować zaufanie społeczne do tych technologii. Ramowy Model jest neutralny względem technologii, algorytmów, sektora, skali czy modelu biznesowego, oferując ogólne wytyczne, które można zaadaptować w różnych kontekstach. Jest on bardziej skierowany na duże wdrożenia AI, a mniej na drobne przypadki zastosowań w tradycyjnych systemach oprogramowania.

Model Ramowy oparty jest na dwóch głównych zasadach etycznych: po pierwsze, AI wykorzystywana do podejmowania decyzji powinna być przejrzysta, wyjaśnialna i sprawiedliwa, a po drugie, rozwiązania AI powinny promować wartości humanocentryczne. Zasady te są przekuwane na konkretne kroki i działania, które pomagają organizacjom wdrożyć abstrakcyjne idee etyczne w praktyce. Model ten jest opisany jako „żywy dokument”, co oznacza, że będzie się on rozwijał i dostosowywał do dynamicznie zmieniającego się krajobrazu technologii AI.

Co istotne, wersja 2.0 Modelu Ramowego, która została opublikowana w 2020 roku, zawierała dodatkowe uwagi, w tym kwestie dotyczące odporności, powtarzalności i audytowalności, co miało na celu poprawienie operacyjności dokumentu. Nowa wersja uwzględniała także dodatkowe przykłady z przemysłu, które pomogły organizacjom w lepszym dostosowaniu się do zawartych w dokumencie zaleceń.

W kontekście współpracy z interesariuszami wewnętrznymi i zewnętrznymi, Singapur szczególnie podkreśla wagę dialogu z przemysłem i badaczami, aby wypracować rozwiązania, które są zarówno praktyczne, jak i zgodne z wartościami społecznymi i etycznymi. Takie podejście stwarza przestrzeń dla wspólnego rozwoju regulacji, które są elastyczne i adekwatne do tempa zmian technologicznych.