Po przeprowadzeniu dochodzenia przez włoską władzę ochrony danych osobowych, jeden z największych dostawców usług sztucznej inteligencji ogłosił: "Używamy dostarczonych przez ciebie treści, aby ulepszyć nasze usługi, w tym do trenowania modeli, które napędzają nasze usługi. Zapoznaj się z instrukcjami, jak wyłączyć wykorzystanie twoich treści do trenowania naszych modeli". Jednak zgoda na wykorzystanie danych osobowych stanowi podstawę tylko w odniesieniu do danych dotyczących samego użytkownika. W przypadku, gdy użytkownicy tworzą zapytania zawierające dane osobowe innych osób, nie mogą oni wyrazić zgody w ich imieniu. Kiedy generatywny model jest w stanie wygenerować odpowiedź zawierającą dane osobowe, kwestia sposobu, w jaki dane do treningu zostały zebrane, pozostaje istotna przez cały cykl życia modelu. Jeśli nie istniała legalna podstawa do zebrania danych do treningu, nie ma również podstawy prawnej do ich użycia w generowaniu wyników.

Teoretycznie uzasadniony interes również mógłby być rozważany jako podstawa prawna na mocy artykułu 6(1)(f) RODO, jednak wymaga to oceny w każdym przypadku na podstawie określonych kryteriów. Modele językowe jednak sprawiają, że indywidualne oceny są trudne ze względu na ogromną ilość przetwarzanych danych. Co więcej, generatywne modele są skalowalne, co oznacza, że mogą generować błędne informacje i rozprzestrzeniać je do dużej liczby użytkowników oraz osób trzecich. Problematyczne jest również przetwarzanie wyników w przypadkach, gdy modele wnioskują lub ujawniają szczególne kategorie danych osobowych na mocy artykułu 9(1) RODO. Udowodniono, że modele mogą zapamiętywać i reprodukować prywatne i osobiste informacje, takie jak numery telefonów, adresy czy dokumenty medyczne.

W erze dużych danych możliwe jest wyciąganie wniosków o danych wrażliwych z niemalże każdego rodzaju informacji, zwłaszcza jeśli uwzględnimy polityczne poglądy, które są chronione na mocy artykułu 9(1) RODO. Oznacza to, że dane "normalne" mogą ujawniać dane wrażliwe, chociaż granice między danymi ogólnymi a wrażliwymi są wciąż dyskusyjne. Jednym z proponowanych kryteriów jest zamiar stojący za przetwarzaniem danych. Scenariusze, które uwzględniają kontekst specyficznych informacji, mogą prowadzić do wygenerowania danych wrażliwych, zależnie od celu ich oceny. Wyroki sądowe skłaniają się ku szerokiemu rozumieniu "ujawniania" danych, jak w przypadku Meta, gdzie sąd stwierdził, że ujawnienie imienia współmałżonka może potencjalnie wskazać orientację seksualną osoby, co można uznać za ujawnienie danych wrażliwych.

Sąd ustanowił minimalne kryteria, które określają, co stanowi "ujawnianie" danych wrażliwych: wystarczające jest dokonanie operacji intelektualnej polegającej na porównaniu lub dedukcji, aby zastosować specjalny reżim ochrony danych wrażliwych do danych osobowych, które nie są z natury wrażliwe. Jednak ten wyrok nie odnosił się bezpośrednio do dużych danych, pozostawiając rozróżnienie między danymi ogólnymi a wrażliwymi wciąż niejasnym. W związku z tym, w wielu przypadkach związanych z dużymi danymi, sama możliwość wyciągania wniosków o danych wrażliwych może podlegać przepisom artykułu 9 RODO. Praktycznie mało prawdopodobne jest, aby modele językowe spełniały wyjątki zawarte w artykule 9(2), na przykład wyjątek badawczy, który zezwala na rozwój modeli wyłącznie w celach badawczych, a nie komercyjnych.

Kolejnym istotnym zagadnieniem jest to, czy output modeli językowych może być wykorzystany do wnioskowania na temat wrażliwych informacji o osobach, które nie zostały przez nie publicznie ujawnione. Nawet jeśli pewne wskazówki, na przykład dotyczące orientacji politycznej, są dostępne w Internecie, output modeli językowych może je agregować. W tym przypadku artykuł 9(2)(e) nie stanowi podstawy prawnej dla takich wniosków. Również wymagania dotyczące dokładności danych (artykuł 5(1)(d) RODO) mają zastosowanie do wyników generowanych przez modele językowe. Okazuje się, że modele językowe potrafią "halucynować", czyli generować niepoprawne informacje, w tym błędne dane osobowe.

Zgodnie z RODO, operatorzy modeli są odpowiedzialni za zapewnienie dokładności danych (artykuły 5(2), 24, 25(1) RODO). Mimo że wszystkie popularne aplikacje generujące modele językowe dostarczają zastrzeżenia informujące użytkowników, że wyniki mogą być błędne, skuteczność tych powiadomień jest wątpliwa z powodu zjawiska automatycznego zaufania do systemów (ang. automation bias). Nawet jeśli obecny wskaźnik błędów modeli językowych nie uzasadnia ogólnego zakazu stosowania takich aplikacji z powodu zapewnienia dokładności danych, ma to wpływ na prawa podmiotów danych. Prawo do dokładności danych staje się jeszcze bardziej istotne, gdy prawo do sprostowania lub usunięcia danych nie może być skutecznie egzekwowane.

Jak Sztuczna Inteligencja Może Wpłynąć na Prawo Dostępu do Sądu i Sprawiedliwość Proceduralną?

Wprowadzenie sztucznej inteligencji (AI) w systemy wymiaru sprawiedliwości budzi szereg istotnych pytań dotyczących fundamentalnych praw gwarantowanych przez artykuł 6 Europejskiej Konwencji Praw Człowieka (EKPC), w tym prawa dostępu do sądu, niezależności i bezstronności sądów, sprawiedliwości proceduralnej oraz prawa do uzasadnionego wyroku. W niniejszym rozdziale analizujemy te zagadnienia w kontekście potencjalnych korzyści i zagrożeń związanych z wprowadzeniem AI do procesów sądowych, szczególnie w sprawach cywilnych. Choć zmiany związane z AI w wymiarze sprawiedliwości są wciąż w fazie rozwoju, już teraz wiemy, że ich wpływ na poszczególne aspekty procedur sądowych może się różnić w zależności od rodzaju sprawy.

Prawo Dostępu do Sądu

Jednym z kluczowych argumentów na rzecz wprowadzenia sztucznej inteligencji do systemów wymiaru sprawiedliwości jest poprawa dostępu do sądów, który jest nieodłącznym elementem artykułu 6 EKPC. Artykuł ten nakłada obowiązek zapewnienia skutecznej drogi sądowej do ochrony praw cywilnych. Zgodnie z orzecznictwem Europejskiego Trybunału Praw Człowieka, prawo do dostępu do sądu nie może być jedynie teoretyczne, lecz musi być praktyczne i efektywne. Oznacza to, że dostęp do sądu nie może być utrudniony przez nadmierne koszty procesów sądowych, trudności związane z terminami, ani zbyt długie terminy odwoławcze. Co więcej, prawo do sądu obejmuje również prawo do rozstrzygnięcia sprawy w rozsądnie szybkim terminie. Zbyt długie opóźnienia w rozpatrywaniu spraw mogą zaszkodzić wiarygodności systemu sądowego i podważyć zaufanie obywateli do wymiaru sprawiedliwości.

W tym kontekście sztuczna inteligencja może stanowić ważne narzędzie w przyspieszaniu rozstrzygania spraw cywilnych, obniżaniu kosztów dostępu do sądu oraz usuwaniu głównych barier, które utrudniają obywatelom dostęp do sądów w rozsądnych ramach czasowych. Chatboty i wirtualni asystenci oparte na AI mogą dostarczać użytkownikom sądów niezbędnych informacji, zasobów oraz wskazówek, a także pomagać w generowaniu i przygotowywaniu odpowiednich dokumentów prawnych. Dzięki tym narzędziom osoby nieposiadające pełnomocnika mogą szybciej i łatwiej przejść przez procesy sądowe. AI może również wspomóc transkrypcję procesów sądowych, co umożliwia skuteczne rejestrowanie przebiegu rozpraw i wspomaga analizę postanowień sądowych. Zwiększenie dostępności językowej użytkowników sądów za pomocą potężnych narzędzi tłumaczeniowych to kolejny atut, który może poprawić dostępność sprawiedliwości.

Wdrożenie takich rozwiązań nie jest jednak wolne od kontrowersji. Z jednej strony, mogą one przyczynić się do zmniejszenia kosztów i skrócenia czasu oczekiwania na rozprawy, co ułatwia dostęp do wymiaru sprawiedliwości. Z drugiej strony, pojawiają się obawy o sprawiedliwość dostępu. Różnice w dostępie do technologii mogą pogłębiać nierówności społeczne, tworząc dodatkowe przeszkody dla osób, które już teraz mają trudności z dostępem do pełnej informacji prawnej i zasobów sądowych.

Niezależność i Bezstronność

Zasady niezależności i bezstronności są fundamentem sprawiedliwości, zgodnie z artykułem 6 EKPC. Są one szczególnie istotne w odniesieniu do niezależności instytucji sądowych, które muszą działać z dala od wpływów zewnętrznych, zarówno ze strony władzy wykonawczej, jak i stron postępowania. Z tego względu, generatywna sztuczna inteligencja, działająca zewnętrznie względem stron procesu i organów władzy, może stanowić odpowiedź na niektóre z tych wyzwań. AI, projektowane w sposób niezależny od bezpośrednich wpływów, mogłoby wspierać sądy w procesie orzekania, jednak wymaga to ścisłego nadzoru, aby uniknąć niepożądanych uprzedzeń lub błędów systemowych, które mogłyby podważyć niezależność decyzji.

Sprawiedliwość Proceduralna

Generatywna sztuczna inteligencja może także mieć wpływ na sprawiedliwość proceduralną. Jednym z jej głównych zastosowań może być usprawnienie procesów decyzyjnych, pomagając sędziom w przeprowadzaniu analizy prawnej, w poszukiwaniach precedensów oraz w szybkim przetwarzaniu faktów sprawy. Pomimo że AI może znacznie zwiększyć efektywność i szybkość podejmowania decyzji sądowych, nie jest wolna od ryzyka popełnienia błędów. AI, zwłaszcza w kontekście generowania treści, może wprowadzać błędne informacje, co może prowadzić do opóźnień lub błędnych decyzji. Takie błędy mogą stanowić zagrożenie dla sprawiedliwości proceduralnej, gdyż mogą wpłynąć na dokładność i integralność procesu sądowego. W związku z tym, istotne jest zapewnienie odpowiednich mechanizmów kontroli i weryfikacji decyzji wspomaganych przez AI.

Wyzwania i Zagadnienia do Rozważenia

Wdrożenie sztucznej inteligencji w wymiarze sprawiedliwości wiąże się z szeregiem wyzwań, które należy starannie rozważyć. W szczególności, należy zadbać o zapewnienie równych szans dostępu do tych technologii, by uniknąć pogłębienia istniejących nierówności społecznych. Należy także rozważyć kwestię bezpieczeństwa danych, aby chronić prywatność użytkowników oraz zapewnić poufność procesów sądowych. Ponadto, w kontekście wykorzystywania AI do podejmowania decyzji sądowych, należy zachować szczególną ostrożność, aby nie dopuścić do wprowadzenia uprzedzeń w systemie oraz zagwarantować, że każdy obywatel będzie miał zapewniony dostęp do sprawiedliwości na równych zasadach.

Czy Chiny przyjęły bardziej rygorystyczne podejście do regulacji sztucznej inteligencji?

Chiny przyjęły podejście do regulacji sztucznej inteligencji (SI), które różni się od tego stosowanego w Unii Europejskiej. W przeciwieństwie do rozwiązań UE, które w dużej mierze opierają się na ogólnych przepisach dotyczących wszystkich technologii, Chiny wybrały tzw. podejście "wertykalne", koncentrując się na specyficznych technologiach i ich zastosowaniach. Takie podejście pozwala na szybszą adaptację regulacji do dynamicznie rozwijających się technologii.

W szczególności, w odniesieniu do usług generatywnej sztucznej inteligencji, Chiny wdrożyły tymczasowe regulacje dotyczące zarządzania usługami SI. Chociaż regulacje te są bardziej ukierunkowane na konkretne aspekty, takie jak bezpieczeństwo treści i ochrona przed dezinformacją, stanowią istotny krok w kierunku uregulowania szybko rozwijającego się sektora.

Dla porównania, w Unii Europejskiej przyjęto podejście bardziej ogólne i horyzontalne, w ramach którego wprowadzono jednolitą regulację zwaną Akt o sztucznej inteligencji (AI Act). Jego celem jest stworzenie kompleksowego ramienia prawnego, które obejmuje wszystkie aspekty rozwoju sztucznej inteligencji. Chociaż unijny akt również dostosował swoje założenia w odpowiedzi na rozwój systemów generatywnej SI, to regulacje te są bardziej ogólne i dotyczą szerokiego zakresu technologii.

Chiny natomiast skupiają się na tworzeniu dedykowanych regulacji dla poszczególnych technologii, takich jak technologia rekomendacji algorytmicznych, technologia głębokiej syntezji, czy zarządzanie ekosystemem treści online. Oznacza to, że Chiny regulują konkretne aplikacje sztucznej inteligencji, co daje możliwość szybszego reagowania na nowe wyzwania. Reguły te wprowadzane są na poziomie departamentalnym, co zapewnia większą elastyczność i umożliwia ich szybkie wdrożenie, jednak mają one mniejszą moc prawną niż ustawodawstwo ogólnokrajowe.

Podejście wertykalne pozwala także na precyzyjniejsze dostosowanie regulacji do rzeczywistych zagrożeń i specyfiki technologii, co może mieć istotne znaczenie w kontekście dynamicznego rozwoju SI. Na przykład, regulacje dotyczące bezpieczeństwa treści generowanych przez AI wskazują na zagrożenia związane z rozpowszechnianiem fałszywych informacji, dyskryminacją, naruszeniami prywatności oraz ryzykiem etycznym, które mogą zagrażać bezpieczeństwu narodowemu i społecznemu.

Chińskie podejście, mimo swojej specyfiki, niesie ze sobą również pewne ryzyka, zwłaszcza w zakresie jego przejrzystości i skuteczności. Szybkie wprowadzanie tymczasowych przepisów może prowadzić do braku pełnej refleksji nad ich długofalowymi skutkami, a także ograniczonej zdolności do korekty w przypadku niezamierzonych konsekwencji. Z kolei Unia Europejska, dążąc do stworzenia bardziej uniwersalnych regulacji, zmierza do zachowania większej spójności systemu prawnego, choć wymaga to więcej czasu i konsultacji, co w kontekście szybkości rozwoju technologii bywa istotnym ograniczeniem.

Ostatecznie zarówno podejście wertykalne, jak i horyzontalne mają swoje mocne strony i wyzwania. Chiny, ze względu na szybkość decyzji i dostosowywania regulacji do nowych technologii, mogą skuteczniej reagować na bieżące zagrożenia związane z rozwojem sztucznej inteligencji. Niemniej jednak, kluczowe będzie znalezienie równowagi pomiędzy elastycznością a długofalową stabilnością systemu prawnego.

Warto również zauważyć, że w przypadku chińskich regulacji dotyczących sztucznej inteligencji, terminy takie jak "tymczasowe" czy "prowizoryczne" w nazwach aktów prawnych sugerują, że są one bardziej eksperymentalne, a ich celem jest testowanie podejścia przed wprowadzeniem bardziej zaawansowanych rozwiązań legislacyjnych. Choć tego rodzaju regulacje mogą działać efektywnie w krótkim okresie, to ich przejściowy charakter wskazuje na możliwość ich modyfikacji lub zastąpienia bardziej stabilnymi i spójnymi aktami prawnymi w przyszłości.

Jednak, mimo iż Chiny przyjęły bardziej elastyczne podejście do regulacji, w długim okresie konieczne będzie doprecyzowanie ogólnych zasad, które będą obejmować całość sektora AI. To pozwoli na lepsze zrozumienie i przewidywalność w kontekście dalszego rozwoju tej technologii, a także jej oddziaływania na społeczeństwo.