Wczesny rozwój modeli fundamentowych sztucznej inteligencji (AI) uwidocznił znaczne zaniedbania w zakresie ochrony danych osobowych. W przeciwieństwie do prawa autorskiego, które od samego początku było szeroko dyskutowane i regulowane, ochrona danych pozostawała niejako „siostrą z bajki”, pomijaną zarówno w regulaminach, jak i literaturze branżowej. Mimo globalnego zasięgu prawa, jakim jest amerykański Digital Millennium Copyright Act (DMCA), który znajduje odzwierciedlenie nawet w działaniach rosyjskich dostawców usług AI, lokalne regulacje, takie jak chińskie prawo, wskazują na zróżnicowanie podejścia do zarządzania prawami użytkowników i moderacji treści.

Wielu dostawców oferuje mechanizmy zgłaszania naruszeń praw autorskich, choć często są one niejasne, arbitralne i ograniczone do minimalnych procedur. Przykładem jest system moderacji MidJourney, który opiera się na quasi-samorządnej społeczności moderatorów, jednak ich tożsamość i kryteria oceny pozostają nieprzejrzyste. Inne platformy, jak Gen2, wręcz deklarują brak obowiązku monitorowania treści i użytkowników, co stanowi wyzwanie dla transparentności i egzekwowania prawa.

W kontekście ochrony danych osobowych sytuacja była jeszcze mniej uregulowana. W kwietniu 2024 roku nie wszyscy dostawcy modeli fundamentowych dysponowali politykami prywatności, a wiele z nich ograniczało się jedynie do podstawowych możliwości zgłaszania skarg, często za pośrednictwem pojedynczego adresu e-mail. Stopniowa poprawa widoczna pod koniec 2023 roku wskazuje na rosnącą świadomość i dostosowywanie się do wymogów ochrony danych, choć nadal brakuje kompleksowych i dostosowanych do specyfiki AI dokumentów.

Unijny Ogólny Rozporządzenie o Ochronie Danych Osobowych (RODO) stanowi fundament prawny, który ma zastosowanie także do modeli AI, zwłaszcza gdy usługi są oferowane na terenie Unii Europejskiej lub gdy dane Europejczyków są przetwarzane. RODO gwarantuje użytkownikom szereg praw, w tym prawo dostępu do informacji, prawo do usunięcia danych („prawo do bycia zapomnianym”), prawo do sprostowania danych, prawo do przenoszenia danych, a także prawo do sprzeciwu wobec przetwarzania danych, w tym profilowania oraz podejmowania decyzji w sposób zautomatyzowany. Kluczowe jest, aby przetwarzanie danych w procesie trenowania modeli AI odbywało się na zgodnej z prawem podstawie, z uwzględnieniem ograniczenia celowości, przeprowadzania oceny skutków dla ochrony danych oraz szczególnych wymogów dotyczących zgody osób niepełnoletnich.

Sprawa włoskiego organu ochrony danych, który w 2023 roku podjął działania przeciwko OpenAI i ChatGPT, zwróciła uwagę na ryzyko naruszeń ochrony danych w modelach fundamentowych. Obecnie Europejska Rada Ochrony Danych (EDPB) pracuje nad wytycznymi, które mają określić, jak w praktyce można zapewnić zgodność dużych modeli AI z wymogami RODO. Jednak ze względu na specyfikę tych technologii i ich ogromne zasoby danych, wyzwania te są wyjątkowo złożone.

Znacząca jest również kwestia transparentności polityk prywatności – wiele z nich jest kopiowanych z innych sektorów, takich jak media społecznościowe czy handel elektroniczny, bez uwzględnienia specyfiki i unikalnych zagrożeń związanych z modelami AI. Brak szczegółowych, jasnych i dostępnych dla użytkownika informacji o tym, jak jego dane są przetwarzane, utrudnia korzystanie z przysługujących mu praw i podnosi ryzyko nadużyć.

Ważne jest, aby czytelnik rozumiał, że choć prawo autorskie w kontekście AI bywa szeroko omawiane i już częściowo uregulowane, ochrona danych osobowych nadal pozostaje polem nieustannych wyzwań i zmian. Rozwój regulacji i praktyk w tym zakresie będzie kluczowy dla przyszłości technologii AI, ich etycznego wykorzystania i ochrony praw użytkowników. Zwłaszcza w kontekście rosnącej automatyzacji i przetwarzania ogromnych zbiorów danych osobowych, konieczne jest zrozumienie prawnych podstaw, mechanizmów egzekwowania oraz potencjalnych ryzyk związanych z naruszeniami prywatności i bezpieczeństwa danych.

Jakie obowiązki nałożono na „gatekeeperów” i jakie znaczenie ma Rozporządzenie o danych dla rynku cyfrowego?

Digital Markets Act (DMA) wyznacza nowe ramy regulacyjne dla tzw. „gatekeeperów” – dużych podmiotów dominujących w cyfrowych ekosystemach, które posiadają kluczową rolę w dostępie do platform i usług online. Istotnym założeniem DMA jest zapobieganie praktykom ograniczającym konkurencję i wymuszającym na użytkownikach korzystanie z dodatkowych usług jako warunku dostępu do podstawowych funkcji platformy. Przykładowo, artykuły 5(7) i 5(8) zakazują wymuszania na użytkownikach korzystania z innych usług gatekeepera, co ma chronić wolność wyboru i zachować równowagę na rynku.

Dodatkowo, DMA nakłada na gatekeeperów obowiązek zgłaszania Komisji Europejskiej planowanych fuzji i przejęć, co pozwala na bieżącą kontrolę koncentracji rynku cyfrowego (artykuł 14). Istotnym wymogiem jest także stosowanie przez gatekeeperów uczciwych, rozsądnych i niedyskryminujących warunków dostępu do ich sklepów z aplikacjami, wyszukiwarek internetowych i serwisów społecznościowych (artykuł 6(12)). Oznacza to, że podmioty dominujące nie mogą narzucać warunków, które niekorzystnie wpływają na innych uczestników rynku.

Rozporządzenie łączy się z nowymi wyzwaniami, jakie niesie rozwój sztucznej inteligencji generatywnej (GenAI). Modele GenAI, korzystające z dużych zbiorów danych i wymagające znacznych zasobów obliczeniowych, wpisują się w obszar, na który DMA zwraca szczególną uwagę, zwłaszcza w kontekście przeciwdziałania nadmiernej koncentracji rynku i wykorzystywania danych. Przepisy DMA nakładają obowiązek transparentności na gatekeeperów – na przykład obowiązek audytu i ujawniania sposobów profilowania konsumentów (artykuł 15) – co pozwala na większą kontrolę nad sposobem, w jaki dane są wykorzystywane do tworzenia przewagi rynkowej.

Komplementarnie do DMA, w życie wchodzi Rozporządzenie o danych (Data Act) 2023/2854, które od stycznia 2024 roku wprowadza zasady sprawiedliwego dostępu do danych i ich wykorzystania. Ten akt prawny ma szczególne znaczenie dla rozwoju ekosystemu AI oraz innowacji w UE, ponieważ przeciwdziała monopolizacji danych i promuje ich udostępnianie w sposób, który wspiera badania, rozwój i konkurencję. Data Act reguluje między innymi obowiązki producentów podłączonych urządzeń (Internet rzeczy – IoT), dostawców usług związanych z tymi urządzeniami, użytkowników, podmiotów posiadających dane oraz odbiorców danych.

W praktyce, użytkownicy zyskują prawo do dostępu do danych generowanych przez ich korzystanie z urządzeń i usług, oraz do udostępniania tych danych innym podmiotom. Data Act wymaga, aby posiadacze danych udostępniali je na warunkach uczciwych, rozsądnych i niedyskryminujących, nie pozwalając jednak na wykorzystywanie danych do tworzenia konkurencyjnych produktów w sposób naruszający tajemnice przedsiębiorstwa. Zasady ochrony danych osobowych, takie jak GDPR, pozostają w pełni respektowane.

Data Act wprowadza również obowiązek współdzielenia danych w modelu biznesowym B2B, ograniczając praktyki nieuczciwych umów nakładanych przez silniejsze podmioty na słabsze firmy i organizacje badawcze. Regulacja ułatwia także płynne przełączanie się między dostawcami usług przetwarzania danych, w tym usług chmurowych, eliminując bariery takie jak wysokie opłaty za migrację danych czy brak interoperacyjności.

Ważnym elementem jest także wspieranie badań i rozwoju przez ustanowienie standardów interoperacyjności w europejskich przestrzeniach danych, co sprzyja tworzeniu innowacyjnych usług i produktów opartych na danych, a także ułatwia ich współdzielenie i bezpieczne przetwarzanie.

Warto podkreślić, że oba te akty prawne – DMA oraz Data Act – tworzą spójny system regulacyjny, który ma na celu nie tylko ochronę uczciwej konkurencji na cyfrowym rynku, ale również promowanie innowacji oraz ochronę konsumentów i mniejszych przedsiębiorstw przed dominacją i praktykami monopolistycznymi.

Rozumienie tych regulacji jest kluczowe dla wszystkich uczestników cyfrowego rynku: przedsiębiorców, twórców technologii, badaczy i użytkowników końcowych. Znajomość obowiązków wynikających z DMA i Data Act pozwala na świadome poruszanie się w ekosystemie cyfrowym, wykorzystywanie nowych możliwości oraz unikanie ryzyk prawnych. Zrozumienie istoty wymogów dotyczących przejrzystości, dostępu do danych i zasad konkurencji jest nieodzowne w dobie dynamicznego rozwoju sztucznej inteligencji i cyfryzacji gospodarki.

Jakie zasady etyczne powinny kierować prawnikiem przy użyciu sztucznej inteligencji?

Zasady etyczne i odpowiedzialności zawodowej, które dotyczą praktyki prawniczej, muszą zostać dostosowane do nowoczesnych technologii, w tym sztucznej inteligencji (AI), zwłaszcza w kontekście aplikacji generujących teksty, takich jak modele językowe. Prawnik, który korzysta z AI w swojej pracy, zobowiązany jest do przestrzegania zasad, które nie tylko odnoszą się do samego procesu prawnego, ale także do tego, jak nowoczesne narzędzia wpływają na jakość i integralność świadczonej usługi. Zgodnie z wieloma wytycznymi, w tym dokumentami takimi jak „Practical Guidance for the Use of Generative Artificial Intelligence in the Practice of Law” opracowanym przez California State Bar, prawnik musi przestrzegać kilku kluczowych zasad, które nie różnią się od klasycznych zasad etyki zawodowej. Wśród najistotniejszych można wyróżnić: obowiązek poufności, obowiązek staranności i kompetencji, obowiązek zgody i informacji dla klienta, obowiązek lojalności oraz nadzoru nad wykorzystywanymi technologiami.

Obowiązek poufności klienta w kontekście AI jest jednym z pierwszych i kluczowych punktów. Prawnik ma obowiązek ochrony wszelkich danych powierzonych przez klienta, nawet gdy korzysta z systemów AI do analizy czy tworzenia dokumentów. Używanie sztucznej inteligencji w tak wrażliwym obszarze, jak prawo, nie zwalnia prawnika z odpowiedzialności za ochronę danych klienta. W kontekście korzystania z narzędzi opartych na generatywnej sztucznej inteligencji, taka odpowiedzialność nie jest ograniczona do zwykłych procedur ochrony danych, ale również obejmuje kontrolę nad tym, jak AI przetwarza i generuje informacje.

Podobnie, obowiązek staranności prawnika jest niezmienny. Nowe technologie, choć oferują potencjał do usprawnienia pracy, nie mogą stanowić wymówki dla zaniedbania obowiązków zawodowych. Prawnik, używając AI, powinien wciąż wykazywać odpowiednią staranność, kontrolując wyniki generowane przez algorytmy. Niezbędne jest, by wyniki generowane przez modele językowe były weryfikowane pod kątem dokładności i zgodności z obowiązującym prawem. W przypadku błędów, takich jak niewłaściwe interpretacje przepisów czy fałszywe cytaty, prawnik naraża się na odpowiedzialność zawodową.

Warto również pamiętać, że korzystanie z AI w praktyce prawniczej wymaga odpowiedniej wiedzy i kompetencji. Obowiązek kompetencji oznacza, że prawnik nie tylko musi posiadać umiejętność posługiwania się narzędziami generatywnymi, ale również musi znać ich ograniczenia i rozumieć, w jaki sposób algorytmy dochodzą do określonych wyników. Przypadkowe użycie nieaktualnych danych, błędne instrukcje do modelu AI czy ignorowanie wyników generujących zniekształconą treść może prowadzić do niewłaściwych porad prawnych, a tym samym narazić klienta na poważne straty.

Obowiązek lojalności wobec klienta w kontekście sztucznej inteligencji jest kolejnym ważnym zagadnieniem. AI, w przypadku niedostatecznego nadzoru, może generować treści, które są sprzeczne z interesami klienta, np. poprzez rekomendowanie działań, które są niekorzystne lub niewłaściwe. W tym przypadku prawnik musi aktywnie nadzorować decyzje podejmowane przez AI i zapewnić, że końcowe wyniki są zgodne z interesami klienta.

Należy również wskazać na obowiązek nadzoru nad wszystkimi procesami, w których AI bierze udział. Niezależnie od tego, jak zaawansowane stają się narzędzia sztucznej inteligencji, człowiek musi pozostawać odpowiedzialny za ich zastosowanie. Konieczność zachowania nadzoru nad procesem generowania wyników przez AI nie oznacza jedynie monitorowania samego działania narzędzia, ale także zapewnienie, że wszystkie decyzje i działania AI są przejrzyste, sprawiedliwe i zgodne z etyką zawodową.

Nowe technologie mogą zarówno podnieść, jak i obniżyć standardy staranności. Z jednej strony mogą zredukować ryzyko błędów, a z drugiej strony, przy niewłaściwym wykorzystaniu, mogą prowadzić do nowych rodzajów pomyłek. W niektórych systemach prawnych, takich jak niemiecki, sądy sugerują, że to raczej brak wykorzystania nowoczesnych technologii, niż ich błędne użycie, będzie uznawane za naruszenie standardów staranności. W kontekście modeli językowych, prawnicy muszą być przygotowani na fakt, że nie wystarczy tylko „ufność” do wyników wygenerowanych przez AI – ich weryfikacja staje się koniecznością. Z tego względu, prawnicy muszą również na bieżąco śledzić postępy technologiczne i być gotowi na adaptację nowych narzędzi w praktyce zawodowej.

Dodatkowo, w krajach takich jak Stany Zjednoczone, gdzie istnieje obowiązek dostosowania się do nowoczesnych technologii, niewykorzystanie narzędzi takich jak modele językowe może w przyszłości zostać uznane za naruszenie obowiązku profesjonalnej kompetencji. Choć AI wciąż nie jest powszechnie uznawane za standardowe narzędzie w pracy prawnika, jego rola w przyszłości będzie rosnąć, a prawnicy będą musieli dostosować się do nowych norm. Sztuczna inteligencja staje się narzędziem, które, jeśli używane z odpowiednią starannością i umiejętnością, może poprawić jakość świadczonych usług prawniczych. W przeciwnym razie, jej niewłaściwe stosowanie może doprowadzić do problemów prawnych, zawodowych i etycznych.

Jakie są zasady i wyzwania regulacji sztucznej inteligencji w administracji publicznej?

Sztuczna inteligencja, a szczególnie generatywna AI, staje się coraz ważniejszym narzędziem w sektorze publicznym, jednak jej wykorzystanie wiąże się z wieloma ryzykami, które wymuszają tworzenie kompleksowych ram regulacyjnych i strategicznych. W Stanach Zjednoczonych początkowe działania rządu skoncentrowały się na ustanowieniu struktury zarządzania AI, m.in. poprzez powołanie Krajowego Komitetu Doradczego ds. AI oraz Centrum Doskonałości AI w ramach General Services Administration. Te instytucje miały za zadanie wprowadzić podstawowe standardy oraz wytyczne etyczne i techniczne dla administracji federalnej. Kluczowe były tu akty prawne takie jak AI in Government Act czy AI Training Act, które miały na celu nie tylko uregulowanie technologii, ale również edukację pracowników administracji w zakresie potencjalnych możliwości i zagrożeń AI.

Jednym z najbardziej znaczących aspektów regulacji jest ocena ryzyka oraz wpływu AI na bezpieczeństwo publiczne i prawa obywatelskie. Dokumenty takie jak memorandum Office of Management and Budget (OMB) określają szczegółowe wymagania dotyczące testowania generatywnej AI, w tym tzw. „red-teaming” – czyli symulowanego ataku na systemy AI w celu wykrycia ich słabości i zabezpieczeń. Ważne jest, aby generatywne modele AI nie produkowały wyników dyskryminujących, wprowadzających w błąd, niebezpiecznych lub naruszających prawo. Systemy muszą też posiadać mechanizmy znakowania generowanych treści (watermarking), co ma zapewnić transparentność i rozpoznawalność ich pochodzenia.

W przypadku zastosowań AI, które mogą wpływać na istotne aspekty życia obywateli, takie jak usługi ratunkowe, zarządzanie infrastrukturą krytyczną, czy decyzje administracyjne dotyczące np. przyznawania świadczeń, wymagane jest przeprowadzenie oceny wpływu AI, która uwzględnia cele, potencjalne zagrożenia oraz interesariuszy najbardziej dotkniętych użyciem tej technologii. Zwraca się także uwagę na konieczność dostępu do odpowiednich danych, a gdy dane pochodzą od podmiotów prywatnych, administracja musi otrzymać wystarczające informacje opisujące ich jakość i pochodzenie.

Unia Europejska również podjęła wysiłki w kierunku uregulowania AI w sektorze publicznym, czego przykładem jest AI Act (AIA), który obejmuje zarówno podmioty publiczne, jak i prywatne w całym łańcuchu dostaw sztucznej inteligencji. Europejskie instytucje, takie jak Komisja Europejska i Trybunał Sprawiedliwości UE, opracowały wytyczne dotyczące stosowania generatywnej AI, które choć formalnie nie mają mocy prawnej, w praktyce pełnią funkcję ram regulacyjnych i nakazów dla swoich pracowników. Wytyczne te są traktowane jako dokumenty żywe, podlegające aktualizacji w kontekście zmieniających się przepisów i technologii, takich jak AI Act. Podkreśla się konieczność ostrożności w udostępnianiu danych oraz ochrony poufności informacji.

Kluczowe jest, aby administracja publiczna rozwijała strategie AI oparte na innowacyjności, odpowiedzialności i bezpieczeństwie. Obejmuje to m.in. wspieranie dostępu do bezpiecznych i niskiego ryzyka eksperymentalnych narzędzi AI oraz systematyczne testowanie i ocenę ich efektywności w rzeczywistych warunkach. Polityka ta wymaga nieustannego monitorowania zagrożeń i korzyści, a także elastyczności w dostosowywaniu się do nowych wyzwań technologicznych.

Ponadto istotne jest rozumienie, że AI, zwłaszcza generatywna, nie jest technologią neutralną — jej rozwój i wdrażanie niosą za sobą znaczące konsekwencje społeczne, prawne i etyczne. Z tego powodu proces regulacji nie może ograniczać się wyłącznie do kwestii technicznych, ale musi uwzględniać szeroki kontekst, w tym ochronę praw człowieka, przeciwdziałanie dyskryminacji oraz zapewnienie transparentności i odpowiedzialności podmiotów korzystających z AI. Efektywne zarządzanie tymi aspektami wymaga współpracy międzynarodowej oraz integracji różnych dziedzin wiedzy — od prawa, przez technologię, po socjologię.

Ważne jest, aby czytelnik miał świadomość, że regulacje dotyczące AI w administracji publicznej są dynamiczne i wciąż ewoluują wraz z rozwojem technologii. Równie istotne jest zrozumienie, że choć technologie te oferują ogromne możliwości usprawnienia funkcjonowania państwa, to ich niewłaściwe wykorzystanie może prowadzić do poważnych zagrożeń dla bezpieczeństwa, prywatności i praw obywatelskich. Ostatecznie, skuteczne wprowadzenie AI w sektorze publicznym wymaga nie tylko ram prawnych, ale przede wszystkim świadomego i odpowiedzialnego podejścia wszystkich zaangażowanych stron.