Zgodnie z Ogólnym rozporządzeniem o ochronie danych (RODO), dane osobowe muszą być przetwarzane w sposób zgodny z prawem, uczciwy i przejrzysty. Zasady te powinny stanowić solidną podstawę regulacyjną dla systemów sztucznej inteligencji, które wchodzą w interakcje z konsumentami. Jednakże w przypadku generatywnej sztucznej inteligencji (GenAI), w szczególności systemów opartych na dużych modelach językowych (LLM), te zasady mogą napotkać na szereg wyzwań praktycznych.
Przede wszystkim, zgodnie z RODO, każda operacja przetwarzania danych osobowych musi mieć uzasadniony podstawy, takie jak wyraźna zgoda użytkownika. Niemniej jednak, w praktyce, wymóg uzyskania świadomej zgody często jest redukowany do kliknięcia przez użytkownika przycisku "Akceptuję" na długich i niezrozumiałych regulaminach. Tego rodzaju podejście rodzi pytania o autentyczność zgody oraz o to, czy użytkownicy rzeczywiście rozumieją, jak ich dane będą wykorzystywane przez systemy sztucznej inteligencji do wywierania wpływu na ich decyzje.
Zasadniczym elementem RODO jest również wymóg przejrzystości, który obliguje organizacje do dostarczenia jasnych i dostępnych informacji o swoich działaniach związanych z przetwarzaniem danych. W kontekście GenAI przeciętny użytkownik nie jest w stanie zrozumieć, w jaki sposób jego dane są wykorzystywane do tworzenia wysoko spersonalizowanych i przekonujących komunikatów. Ta nieprzejrzystość podważa zasadę przejrzystości i sprawia, że użytkownicy stają się podatni na manipulacje, których nie są świadomi.
RODO nakłada również zasadę minimalizacji danych oraz ograniczenia celu, co oznacza, że zbierane dane powinny być adekwatne, odpowiednie i ograniczone do tego, co jest niezbędne. Chociaż te zasady mają na celu ochronę użytkowników, w praktyce mogą być trudne do wyegzekwowania. Systemy GenAI oraz LLM bazują na ogromnych zbiorach danych, aby generować skuteczne treści perswazyjne. Określenie, co stanowi „niezbędne dane”, może być bardzo subiektywne i zależne od kontekstu, co może umożliwić organizacjom uzasadnianie szerokiego gromadzenia danych pod pretekstem ich niezbędności.
Ponadto, RODO przyznaje jednostkom szereg praw dotyczących ich danych osobowych, takich jak prawo do dostępu, poprawiania, usunięcia danych oraz sprzeciwu wobec przetwarzania danych. Prawa te mają kluczowe znaczenie w ochronie użytkowników przed niepożądanym wpływem sztucznej inteligencji. Jednak w kontekście systemów GenAI, skorzystanie z tych praw może być skomplikowane i czasochłonne. Użytkownicy mogą mieć trudności w nawigowaniu przez procesy związane z dostępem do swoich danych lub ich usuwaniem, nie mówiąc już o pełnym zrozumieniu, w jaki sposób ich dane były wykorzystywane do wywierania wpływu.
Również w kwestii profilowania i podejmowania decyzji automatycznych, które mogą znacząco wpłynąć na jednostki, RODO przewiduje szczególne przepisy, które dają użytkownikom prawo do niepodlegania decyzjom opartym wyłącznie na automatycznym przetwarzaniu danych, w tym profilowaniu. Choć jest to krok w dobrym kierunku, regulacja ta przewiduje liczne wyjątki, takie jak sytuacje, w których przetwarzanie jest niezbędne do wypełnienia zobowiązań umownych, lub gdy opiera się na wyraźnej zgodzie. Te wyjątki mogą być łatwo wykorzystywane przez organizacje, co sprawia, że same przepisy stają się mniej skuteczne. Ponadto rozróżnienie pomiędzy decyzjami automatycznymi a tymi, które obejmują minimalną interwencję człowieka, jest trudne, co dodatkowo komplikuje egzekwowanie przepisów.
Pomimo ambitnych ram regulacyjnych, takich jak te wynikające z RODO, skuteczne egzekwowanie zasad dotyczących przejrzystości i ochrony danych w systemach GenAI napotyka na poważne trudności praktyczne. Aby systemy sztucznej inteligencji mogły być odpowiednio regulowane, kluczowe jest zapewnienie rzeczywistej przejrzystości, zwłaszcza w kwestii tego, jak dane użytkowników są wykorzystywane do generowania treści perswazyjnych. Użytkownicy powinni mieć dostęp do klarownych i zrozumiałych informacji, które pozwolą im podejmować świadome decyzje dotyczące interakcji z tymi systemami.
Pomimo tego, że regulacje te stanowią istotny krok w kierunku ochrony użytkowników, skuteczność regulacji w kontekście systemów GenAI zależy od ich realnej implementacji oraz zdolności do przeciwdziałania manipulacyjnym praktykom. Wymaga to nie tylko odpowiednich przepisów prawnych, ale i technologicznych narzędzi, które pozwolą na monitorowanie i egzekwowanie wymogów ochrony danych.
Jak technologia generatywna zmienia administrację publiczną?
Technologia generatywna, rozumiana jako narzędzia i systemy sztucznej inteligencji wspierające wykonywanie działań administracyjnych, staje się jednym z najistotniejszych elementów w digitalizacji instytucji publicznych. Systemy te, wykorzystywane w ramach administracji publicznej, mogą pełnić szereg ról, od wspomagania codziennych zadań urzędników po interakcję z obywatelami. Są wykorzystywane do realizacji zarówno działań formalnych, jak i nieformalnych, jak budowa dróg, pielęgnacja parków, czy przygotowywanie strategii, planów i polityk. Jednak ich wykorzystanie wiąże się z wieloma dylematami prawno-etycznymi, a także wyzwaniami związanymi z odpowiedzialnością administracyjną.
Zasadniczo technologie generatywne mogą być klasyfikowane jako elementy wspomagające wewnętrzne funkcjonowanie administracji publicznej, zatem same w sobie nie mają mocy prawnie wiążącej poza administracją. Oznacza to, że akty generowane przez takie narzędzia, jak np. plany, strategie czy opracowania, choć są istotne dla pracy administracji, to nie mają mocy wiążącej dla osób spoza niej. W kontekście działań publicznych, takie akty mogą pełnić funkcję informacyjną lub przygotowawczą, ale nie wpływają bezpośrednio na prawa i obowiązki obywateli.
Pomimo tego, że technologie generatywne są często traktowane jako narzędzie pomocnicze, ich zastosowanie w administracji publicznej nie pozostaje bez wpływu na kwestie prawne i etyczne. W szczególności w sytuacjach, gdy technologia zaczyna ingerować w prawa człowieka, administracja musi posiadać podstawy prawne do jej używania. To samo dotyczy wszelkich działań, które mogą ograniczać swobody obywatelskie lub które mogą prowadzić do sytuacji, w których prawa jednostek są zagrożone. Prawa te muszą być zgodne z zasadą legalności i interesem publicznym, który powinien stać na straży porządku prawnego. Przykładem może być wdrożenie systemów sztucznej inteligencji, które mają na celu przetwarzanie skarg obywateli czy udzielanie odpowiedzi na wnioski.
Pojęcie "niewiążącego aktu administracyjnego" w kontekście technologii generatywnej wymaga szczególnej uwagi. Istnieją bowiem sytuacje, w których technologia może wspierać administrację w tworzeniu treści, które stanowią wytyczne dla urzędników, ale które nie mają bezpośredniego wpływu na prawa osób spoza administracji. Na przykład generowanie raportów, streszczeń dokumentów, czy automatyczne udzielanie odpowiedzi w ramach ustalonych procedur administracyjnych może być uznane za pomocnicze działania, które nie nakładają na obywateli obowiązków, ale stanowią ważny element wewnętrznego funkcjonowania administracji. Jednakże, jeżeli działania te zaczynają wpływać na decyzje administracyjne, na przykład w zakresie przyznawania licencji czy rozstrzygania spraw prawnych, wtedy wymagają one odpowiedniego umocowania prawnego.
Wykorzystanie generatywnej sztucznej inteligencji w administracji publicznej może przebiegać w trzech scenariuszach. Pierwszy z nich to korzystanie z ogólnodostępnych narzędzi sztucznej inteligencji, takich jak ChatGPT czy Bard, które są dostępne dla wszystkich. Drugi scenariusz to sytuacja, w której administracja kupuje dostęp do narzędzi AI opracowanych przez zewnętrzne firmy, które dostosowują systemy do potrzeb konkretnej instytucji. Trzeci scenariusz to rozwój własnych narzędzi AI przez administrację publiczną, jak na przykład systemy opracowywane przez Komisję Europejską w zakresie tłumaczeń czy obsługi skarg. Każdy z tych scenariuszy ma swoje specyficzne wymagania dotyczące zasobów ludzkich, technicznych i finansowych, a wybór jednego z nich jest ściśle związany z politycznymi decyzjami dotyczącymi kierunku rozwoju administracji.
Przykłady zastosowania technologii generatywnej w administracji publicznej pokazują szeroki zakres możliwości. W Stanach Zjednoczonych Departament Obrony testował system AI (Acqbot), który wspierał tworzenie kontraktów i przyspieszał procesy zakupowe. Z kolei w Europie, Komisja Europejska i Trybunał Sprawiedliwości Unii Europejskiej opracowują narzędzia oparte na sztucznej inteligencji, które mają usprawnić przygotowanie dokumentów, streszczeń, a także procesy decyzyjne w sprawach dotyczących prawa unijnego. W krajach takich jak Hiszpania czy Dania technologia generatywna jest wykorzystywana w ramach polityki ochrony regionalnych języków, a w Kalifornii AI jest wykorzystywane w działaniach mających na celu redukcję korków i poprawę bezpieczeństwa na drogach.
Takie projekty wskazują na to, że technologia generatywna zaczyna przenikać do wszystkich aspektów działalności administracyjnej, wspierając urzędników w opracowywaniu aktów administracyjnych i angażowaniu się w interakcje z obywatelami. Z jednej strony technologie te mogą być traktowane jako elementy wspierające ludzką pracę, zwłaszcza w kontekście realizacji zadań publicznych, z drugiej jednak strony ich zastosowanie rodzi poważne pytania o granice odpowiedzialności, przejrzystości i etycznego wymiaru działań administracyjnych.
Warto zauważyć, że zyskujące na znaczeniu narzędzia sztucznej inteligencji, mimo że mogą mieć pozytywny wpływ na efektywność administracji publicznej, mogą również prowadzić do erozji kompetencji urzędników, zwłaszcza w kontekście szeroko rozumianego rozwoju technologii. W sytuacji, gdy administracja coraz częściej opiera swoje działania na narzędziach sztucznej inteligencji, pojawia się pytanie, jak zrównoważyć rolę technologii z koniecznością utrzymania odpowiedzialności i rzetelności administracyjnej. Ponadto, konieczne jest monitorowanie wpływu takich narzędzi na społeczeństwo, aby uniknąć sytuacji, w których administracja zaczyna działać w sposób arbitralny lub nieprzejrzysty.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский