Współczesne zarządy firm stają przed nowymi wyzwaniami, które wynikają z dynamicznego rozwoju technologii, a zwłaszcza sztucznej inteligencji (AI). W kontekście zarządzania ryzykiem i zgodności z regulacjami, coraz bardziej złożone przepisy, takie jak regulacje unijne dotyczące AI, będą miały wpływ na struktury zarządów, sposób podejmowania decyzji oraz nadzór nad nowymi technologiami.

Zgodnie z nowymi przepisami zawartymi w UK Corporate Governance Code z 2024 roku, zarządy powinny ustanowić efektywny system zarządzania ryzykiem oraz wewnętrznych kontroli, a także określić zakres ryzyk, które firma jest gotowa podjąć, aby osiągnąć swoje cele strategiczne. Wymaga to nie tylko identyfikowania i monitorowania ryzyk, ale także dokładnego opisu głównych zagrożeń oraz procedur służących ich minimalizacji. Ważnym elementem tego procesu jest także identyfikacja ryzyk wschodzących, które mogą wpłynąć na działalność przedsiębiorstwa w przyszłości. Takie podejście będzie miało kluczowe znaczenie w kontekście wdrażania regulacji unijnych dotyczących AI, które wymagają szczegółowego dokumentowania polityk, procedur i instrukcji związanych z wykorzystaniem AI, w tym także przeprowadzania testów i audytów na każdym etapie procesu.

Zarządy będą zmuszone do dostosowania swojej struktury i sposobu nadzoru, aby skutecznie zarządzać ryzykiem związanym z AI, a także wprowadzać systematyczne działania w zakresie kontroli i zgodności. W miarę jak sztuczna inteligencja staje się coraz bardziej powszechna, zarządy będą musiały bacznie monitorować i dokumentować wszelkie działania związane z jej wykorzystaniem, aby spełniać wymagania dotyczące zgodności z przepisami prawa. W tym kontekście pojawia się konieczność tworzenia nowych, bardziej szczegółowych przepisów krajowych, które skupią uwagę zarządów na odpowiedzialności za wykorzystanie AI i nadzorze nad tym obszarem.

Równocześnie należy zwrócić uwagę na fakt, że ryzyko związane z wykorzystaniem AI może przybierać różne formy – od naruszenia prywatności, przez wprowadzenie błędnych decyzji, aż po ryzyko nadużyć. W związku z tym odpowiedzialność zarządów w tym obszarze będzie rosła, podobnie jak konieczność stosowania najlepszych praktyk w zakresie zarządzania tym ryzykiem. Zwiększone wymogi dotyczące audytów, raportowania i weryfikacji mogą również prowadzić do konieczności szerszego zaangażowania zewnętrznych firm audytorskich, certyfikujących i doradczych, które pomogą przedsiębiorstwom zapewnić zgodność z wymaganiami dotyczącymi sztucznej inteligencji.

W odniesieniu do kwestii odpowiedzialności prawnej, szczególną uwagę należy zwrócić na przykłady z innych dziedzin, takie jak ramy prawne w zakresie przeciwdziałania korupcji. Globalne standardy przeciwdziałania nadużyciom i korupcji mogą posłużyć jako model dla tworzenia nowych przepisów dotyczących odpowiedzialności za wykorzystanie AI, w tym możliwego wprowadzenia odpowiedzialności za tzw. „niezapobieganie”. Takie podejście oznacza, że firma może zostać ukarana za brak odpowiednich działań zapobiegawczych w zakresie ryzyka, nawet jeśli nie doszło jeszcze do rzeczywistego naruszenia. Warto zauważyć, że podobne przepisy zostały wprowadzone w Wielkiej Brytanii w ramach Ustawy o przeciwdziałaniu korupcji z 2010 roku, a także w ramach nowej ustawy o przestępczości gospodarczej z 2023 roku. Podobne zasady mogą zostać zaadoptowane w kontekście wykorzystania sztucznej inteligencji w działalności gospodarczej.

Na poziomie międzynarodowym istnieje potrzeba stworzenia wielopoziomowego podejścia do zarządzania ryzykiem związanym z AI, które obejmowałoby m.in. międzynarodowe traktaty oraz konwencje regionalne i krajowe. Podejście to miałoby na celu harmonizację regulacji oraz wspieranie współpracy transgranicznej, co jest szczególnie istotne w kontekście międzynarodowych operacji korporacyjnych. Warto także zauważyć, że wprowadzenie nowych przepisów na poziomie krajowym, szczególnie w odniesieniu do odpowiedzialności kierownictwa za używanie AI, może stanowić istotny element w budowaniu kultury odpowiedzialności wśród firm.

Przykłady z amerykańskiego prawa, zwłaszcza w kontekście spraw dotyczących nadzoru korporacyjnego, jak sprawa Caremark w Delaware, wskazują na konieczność wdrożenia procedur nadzoru i zapewnienia, że systemy zarządzania ryzykiem są skuteczne i odpowiednio monitorowane. W przypadku, gdyby takie procedury zostały zignorowane lub niewłaściwie wdrożone, może to prowadzić do odpowiedzialności zarządu za naruszenie jego obowiązków fiducjarnych, co może mieć poważne konsekwencje prawne i finansowe dla firmy. W kontekście AI, podobne zasady mogą znaleźć zastosowanie, szczególnie w przypadku, gdy niewłaściwe wykorzystanie technologii prowadzi do poważnych konsekwencji, jak np. straty finansowe, naruszenia prywatności czy inne negatywne skutki.

W związku z tym, każda firma powinna dostosować swoje struktury zarządzania i nadzoru do wymagań związanych z nowymi technologiami, szczególnie AI, i przygotować się na wyzwania związane z odpowiedzialnością prawną, etyczną oraz regulacyjną, które będą narastać w nadchodzących latach. Czas pokaże, jak skutecznie przedsiębiorstwa poradzą sobie z tymi wyzwaniami i jaką rolę odegrają w tym procesie przepisy prawne na poziomie krajowym i międzynarodowym.

Jakie wyzwania i zasady regulują wykorzystanie generatywnej sztucznej inteligencji w administracji publicznej?

Administracja publiczna od lat korzysta z nowych technologii, a rozwój internetu i systemów informacyjnych od lat 90. XX wieku stwarzał nadzieję na lepszy dostęp do usług publicznych oraz modernizację biurokracji poprzez koncepcje takie jak „e-government” czy „smart government”. W ostatnich latach generatywna sztuczna inteligencja (AI) otwiera nowe możliwości i wyzwania w transformacji cyfrowej administracji, wprowadzając zupełnie nowe paradygmaty działania i analityki publicznej. Jednak efekty tych innowacji często pozostają słabo zbadane, a ich wpływ na struktury administracyjne i mechanizmy władzy wciąż jest w dużej mierze niejasny.

Współczesne wykorzystanie generatywnej AI w administracji publicznej dopiero zaczyna być regulowane przez prawo i polityki publiczne, a literatura naukowa w tym zakresie jest wciąż w powijakach. Szczególnie ważne jest zrozumienie, jak takie regulacje kształtują wdrażanie AI zarówno w Stanach Zjednoczonych, jak i Unii Europejskiej, które są kluczowymi graczami w tej dziedzinie, a jednocześnie opierają swoje systemy prawne na zasadzie rządów prawa.

Administracja publiczna realizuje swoje zadania w wielu obszarach, od tworzenia polityk i prawa, przez orzecznictwo administracyjne, po działania o charakterze nieformalnym i doradczym. Każda z tych sfer podlega określonym zasadom prawnym i organizacyjnym. W przypadku działalności quasi-legislacyjnej administracja uczestniczy w procesie stanowienia prawa poprzez prace przygotowawcze, delegowanie aktów wykonawczych i ich implementację, co musi odbywać się zgodnie z procedurami konsultacji publicznych oraz ocen ex ante i ex post. Funkcja quasi-sądowa polega na podejmowaniu indywidualnych decyzji administracyjnych, które wiążą adresatów i podlegają regułom zapewniającym prawo do skutecznego środka odwoławczego i uczciwego procesu. Natomiast działania o charakterze niewiążącym prawnym często mają charakter koordynujący lub informacyjny, wspierając orientację i współpracę w sektorze publicznym.

Wprowadzenie generatywnej AI do tych obszarów rodzi fundamentalne pytania dotyczące transparentności, odpowiedzialności, legalności i ochrony praw obywatelskich. Modele AI mogą znacząco zmienić sposób podejmowania decyzji, co wymaga zrozumienia, że nie są one neutralnymi narzędziami, lecz mają wpływ na relacje władzy i procesy administracyjne. Władze regulacyjne starają się balansować między potrzebą kontroli a stymulowaniem innowacji, stosując zarówno podejścia „command-and-control” (nakazowo-kontrolne), działania prewencyjne, jak i eksperymentalne metody pilotażowe. Przy tym priorytetem pozostają zasady praworządności, jawności procesów i ochrony podstawowych praw człowieka.

W praktyce oznacza to, że wdrażanie AI w administracji musi odbywać się w ścisłej zgodności z normami prawnymi, zapewniać możliwość wyjaśniania decyzji podejmowanych przez algorytmy, a także gwarantować kontrolę społeczną i instytucjonalną nad tymi systemami. Kluczowe jest rozwijanie kompetencji administracyjnych nie tylko w zakresie obsługi technologii, ale także w rozumieniu ryzyk i konsekwencji społecznych oraz prawnych. Współczesna transformacja cyfrowa administracji nie polega jedynie na automatyzacji procesów, ale na świadomym i odpowiedzialnym wykorzystaniu nowych narzędzi, które muszą być poddane ocenie z perspektywy wartości demokratycznych i praworządności.

Ważne jest także, by czytelnik rozumiał, że technologia AI nie jest autonomicznym bytem, lecz produktem ludzkiego projektowania i decyzji politycznych, które kształtują jej zastosowanie i wpływ. Administracja publiczna nie może jedynie adaptować nowych technologii, lecz musi aktywnie uczestniczyć w ich regulacji i etycznym nadzorze. W przeciwnym wypadku ryzykuje się utratę kontroli nad procesami decyzyjnymi, co może prowadzić do naruszeń praw obywatelskich i osłabienia zaufania społecznego. W kontekście administracji publicznej generatywna AI stanowi więc nie tylko wyzwanie techniczne, ale fundamentalne pytanie o kształt i charakter państwa prawa w erze cyfrowej.

Jak zasada neutralności technologicznej wpływa na regulacje prawne sztucznej inteligencji w Unii Europejskiej?

W kontekście regulacji technologii, zwłaszcza sztucznej inteligencji (AI), kluczowym wyzwaniem pozostaje tworzenie prawa, które będzie odporne na szybkie zmiany technologiczne oraz jednocześnie nie będzie hamowało innowacji. Prawo nie powinno być stale zmieniane w celu dostosowania do nowych rozwiązań, ani nie powinno wprowadzać ograniczeń, które zablokują rozwój technologiczny. To wymaga znalezienia delikatnej równowagi między stabilnością regulacji a jej elastycznością.

W prawodawstwie europejskim, zwłaszcza w projekcie AI Act z 2021 roku, przyjęto horyzontalne podejście, które opiera się na zasadzie neutralności technologicznej. Oznacza to, że przepisy prawne mają obowiązywać niezależnie od konkretnej technologii, koncentrując się raczej na sposobach i kontekstach ich zastosowania. Nie chodzi tu o regulowanie samej technologii, lecz o regulację jej wykorzystania, przy czym różnicowanie reguł opiera się na poziomie ryzyka związanego z danym zastosowaniem AI.

Przykłady wcześniejszych regulacji pokazują, jak szybko innowacje mogą czynić przepisy prawne nieaktualnymi. Dyrektywa UE dotycząca pieniądza elektronicznego z 2000 roku została niemal natychmiast wyprzedzona przez nowe formy płatności, takie jak PayPal, co wymusiło kolejne zmiany legislacyjne. Podobnie w obszarze lotnictwa cywilnego, regulacje dotyczące dronów początkowo prowadziły do fragmentacji systemu, co wymusiło interwencję na poziomie unijnym i ujednolicenie przepisów.

Aby przeciwdziałać takim problemom, w prawie stosuje się różne techniki prawne, które mają na celu zapewnienie przyszłej użyteczności i adekwatności regulacji. Do najważniejszych należy zasada neutralności technologicznej — prawo ma działać tak samo wobec różnych technologii, nie faworyzując żadnej z nich. Istnieje również neutralność implementacyjna, czyli tworzenie przepisów odnoszących się do technologii, lecz bez wskazywania konkretnych sposobów ich realizacji, oraz neutralność potencjalna, polegająca na ustanowieniu wymagań, które mogą być spełnione nawet przez systemy wymagające drobnych modyfikacji.

AI Act opiera się na tzw. podejściu drabiny („Ladder approach”), które klasyfikuje ryzyka związane z używaniem AI na różne poziomy, od ryzyka niedopuszczalnego, przez wysokie ryzyko, do niskiego ryzyka oraz wymogów transparentności. Takie zróżnicowanie pozwala na stosowanie odpowiednich środków regulacyjnych w zależności od potencjalnego zagrożenia. W najnowszej wersji aktu pojawiła się dodatkowa kategoria – ryzyko systemowe – odnoszące się do ogólnych modeli AI, które mogą mieć znaczący wpływ na rynek wewnętrzny Unii Europejskiej.

Podstawowym celem AI Act jest zapewnienie pewności prawnej i jednolitych ram regulacyjnych dla wszystkich systemów AI, w przeciwieństwie do pionowych, sektorowych podejść, jakie stosowane są w innych jurysdykcjach, np. w Stanach Zjednoczonych. Ponadto, poprzez ryzyko-zorientowane podejście, prawo stara się być odporne na przyszłe zmiany i pozwalać na elastyczne reagowanie na rozwój technologii. Wreszcie, ustanowienie tzw. „piaskownic regulacyjnych” ma umożliwić testowanie i rozwijanie nowych rozwiązań w kontrolowanym środowisku, sprzyjając innowacjom przy jednoczesnym zachowaniu bezpieczeństwa.

Ważne jest rozumienie, że prawo nie jest jedynym systemem regulującym technologię. Obok regulacji prawnych istnieją normy etyczne, siły rynkowe, zwyczaje społeczne oraz sama technologia jako system regulacyjny. Często te systemy współdziałają, wzmacniając się wzajemnie, choć zdarza się też, że ich wymogi wchodzą ze sobą w konflikt. Dlatego tworzenie prawa dotyczącego AI musi uwzględniać tę wielowarstwowość i współzależności.

Ponadto, istotne jest, aby czytelnik rozumiał, że neutralność technologiczna nie oznacza obojętności wobec wpływu AI na społeczeństwo. Regulatorzy skupiają się przede wszystkim na skutkach użycia technologii, a nie na samej technologii jako takiej. W praktyce oznacza to konieczność analizy ryzyka, jakie niesie konkretne zastosowanie AI, oraz dostosowanie do niego regulacji. Takie podejście jest bardziej elastyczne i skuteczne w dynamicznie zmieniającym się środowisku technologicznym.

Jak sztuczna inteligencja zmienia pojęcie "produktu" w prawie odpowiedzialności cywilnej?

Rewizja Dyrektywy o odpowiedzialności za wadliwe produkty (PLD) jest odpowiedzią na potrzeby związane z nowymi technologiami i wyzwaniami rynku. Kluczowym zagadnieniem w tej zmianie jest redefinicja podstawowych pojęć prawa, takich jak „produkt” i „wada”, a także uznanie systemów sztucznej inteligencji (AI) jako integralnej części rynku technologii. Działania te mają na celu zapewnienie pewności prawnej i przewidywalności w kontekście szybko zmieniającego się świata technologii.

Podstawowym celem zmian jest dopasowanie definicji „produktu” do nowoczesnych realiów technologicznych, ponieważ od czasu przyjęcia Dyrektywy w 1985 roku pojęcie „produktu” było rozumiane głównie w kontekście dóbr przemysłowych i postindustrialnych. Wprowadzona wówczas definicja „produktu” obejmowała wszelkie rzeczy ruchome, z wyjątkiem produktów rolnych i dziczyzny, oraz nawet produkty, które były częścią innych dóbr ruchomych lub nieruchomych. Choć definicja ta była szeroka i elastyczna, to jednak opierała się na tradycyjnych wyobrażeniach o produktach wytworzonych w kontekście przemysłowym.

Z biegiem lat jednak, rozwój nowych technologii, zwłaszcza sztucznej inteligencji, zaczyna kwestionować tę definicję. Produkty oparte na AI, tzw. „inteligentne produkty” czy systemy AI, wkraczają w obszary, które wykraczają poza tradycyjne ramy pojęcia „produktu” z lat 80. i 90. XX wieku. To właśnie one stanowią wyzwanie dla dotychczasowego systemu odpowiedzialności za wadliwe produkty. AI umożliwia tworzenie obiektów, które nie są jedynie statycznymi przedmiotami, ale dynamicznymi, ewoluującymi systemami, które mogą aktualizować się, zmieniać i wchodzić w interakcje z otoczeniem, niemal jak żywe istoty.

W tym kontekście szczególnie ważne staje się pytanie, co właściwie oznacza „produkt” w erze sztucznej inteligencji. W tradycyjnym rozumieniu, produkt to dobra fizyczne, wytwarzane przez producentów i sprzedawane konsumentom. Jednak w przypadku AI mamy do czynienia z systemami, które nie mają jednej, niezmiennej formy – są ciągle aktualizowane, a ich funkcjonalność rozwija się w zależności od danych, które otrzymują, oraz interakcji z otoczeniem. Takie systemy są trudne do zaklasyfikowania jako „produkt” w tradycyjnym sensie, ponieważ stają się raczej usługami w postaci systemów, które dostosowują się do zmieniających się warunków i oczekiwań użytkowników.

Dodatkowo, produkt oparty na AI często staje się częścią bardziej złożonego ekosystemu, który obejmuje zarówno sprzęt, jak i oprogramowanie, dane, a także usługi związane z jego utrzymaniem i aktualizacją. Zatem granice między „produktem” a „usługą” zaczynają się zacierać, co stawia pod znakiem zapytania tradycyjny podział w prawie między tymi kategoriami.

Warto dodać, że w kontekście odpowiedzialności za wadliwe produkty kluczowe jest nie tylko określenie, czym jest „produkt”, ale również jak oceniać jego „wadliwość”. Tradycyjnie, wada produktu była związana z jego fizycznymi uszkodzeniami lub defektami, które czyniły go niebezpiecznym lub nienadającym się do użytku. Jednak w przypadku AI, wada może być związana z błędnym działaniem algorytmu, nieprzewidywalnymi interakcjami z innymi systemami czy też z naruszeniem prywatności użytkownika. To nowe podejście wymaga przemyślenia, jak definiować i mierzyć wadliwość w przypadku produktów cyfrowych i systemów AI, które nie są już jedynie fizycznymi obiektami.

Dodatkowo, technologie takie jak uczenie maszynowe czy głębokie sieci neuronowe wprowadzają nowe wyzwania związane z przypisaniem odpowiedzialności. Często nie jest możliwe wskazanie jednoznacznie, kto jest odpowiedzialny za błąd w działaniu systemu – czy jest to producent, twórca oprogramowania, użytkownik, czy może sam system, który „uczy się” na podstawie danych. Problem ten staje się szczególnie skomplikowany, gdy systemy AI stają się coraz bardziej autonomiczne i podejmują decyzje bez bezpośredniej ingerencji człowieka.

W związku z tym, konieczne staje się ponowne przemyślenie podstawowych zasad odpowiedzialności za wadliwe produkty, w tym zarówno definicji „produktu”, jak i mechanizmów przypisania odpowiedzialności. Konieczność aktualizacji Dyrektywy o odpowiedzialności za wadliwe produkty staje się tym bardziej paląca, im szybciej na rynku pojawiają się nowe technologie, których funkcjonowanie wykracza poza tradycyjnie pojmowane ramy produktów i usług. Warto zatem przyjrzeć się, jak współczesne technologie kształtują prawo i jakie konsekwencje ma to dla przyszłości odpowiedzialności cywilnej w erze sztucznej inteligencji.