Proces szkolenia dużych modeli językowych (LLM) w zakresie rozpoznawania i klasyfikacji klauzul prawnych opiera się na przykładach, które uczą model rozróżniania między postanowieniami legalnymi a nielegalnymi. Kluczowe jest dostarczanie modelowi przykładów klauzul wraz z odpowiednim kontekstem i pytaniami klasyfikacyjnymi, np. czy dana klauzula jest zgodna z prawem czy też nie. Przykładowo, klauzule regulujące usuwanie treści mogą być potencjalnie nieuczciwe, gdy są formułowane ogólnie i dają dostawcy usług pełną dowolność w ich usuwaniu, bez konieczności podawania powodów czy umożliwienia użytkownikowi odwołania. W odróżnieniu od nich, klauzule precyzujące konkretne warunki, takie jak naruszenie praw autorskich czy znaków towarowych, są klasyfikowane jako potencjalnie uczciwe.

Proces uczenia wymaga iteracyjnego podejścia, w którym model jest stopniowo doskonalony dzięki informacji zwrotnej od ekspertów prawnych. W przypadku błędnej klasyfikacji model otrzymuje wyjaśnienia, które pomagają mu unikać podobnych pomyłek w przyszłości. Taka dynamiczna aktualizacja i dostosowywanie promptów – czyli zapytań i instrukcji przekazywanych modelowi – pozwala także na uwzględnianie nowych regulacji czy zmian w interpretacji prawa.

Testowanie modelu odbywa się na oddzielnych zbiorach danych, gdzie ocenia się jego skuteczność poprzez klasyczne metryki, takie jak precyzja czy recall. Warto zauważyć, że w przeciwieństwie do tradycyjnych metod przetwarzania języka naturalnego (NLP), które są deterministyczne i zawsze dają tę samą odpowiedź na to samo pytanie, LLM-y są z natury niedeterministyczne i mogą generować różne odpowiedzi nawet na identyczne zapytania. To niesie za sobą wyzwania związane z powtarzalnością i wiarygodnością wyników, szczególnie w kontekście krytycznych zastosowań prawnych.

W kontekście tworzenia dokumentów takich jak umowy czy polityki prywatności, LLM-y mogą pełnić funkcję asystentów generujących teksty na podstawie podanych wytycznych i listy wymaganych elementów. Model jest instruowany, aby tworzyć klauzule w sposób jasny, niesprzeczny i zgodny z obowiązującymi przepisami. Jednak generowane dokumenty wymagają weryfikacji i korekty przez ekspertów prawnych, którzy kontrolują poprawność merytoryczną, eliminują błędy, niedoprecyzowania i ewentualne zjawisko „halucynacji” – czyli generowania nieprawdziwych lub nieadekwatnych informacji.

Niezależnie od zaawansowania technologii, udział specjalistów pozostaje kluczowy zarówno przy definiowaniu kryteriów legalności klauzul, jak i w procesie ciągłej ewaluacji wyników modelu. Systemy oparte na LLM mogą znacznie zmniejszyć nakład pracy i przyspieszyć proces analizy czy tworzenia dokumentów prawnych, jednak nigdy nie zastąpią całkowicie wiedzy i doświadczenia prawnika.

Ważne jest zrozumienie, że rozwijające się technologie AI, choć potężne, są narzędziami wspomagającymi, a nie autonomicznymi podmiotami decyzyjnymi. W kontekście prawa, gdzie precyzja i zgodność z regulacjami mają fundamentalne znaczenie, odpowiedzialność za ostateczne decyzje i interpretacje musi pozostawać po stronie ludzi. Ponadto, dynamiczny charakter przepisów i różnorodność kontekstów prawnych wymagają ciągłego dostosowywania i aktualizacji modeli, co podkreśla znaczenie stałej współpracy między technologią a ekspertami.

Jakie są skutki regulacji UE w zakresie zbiorowych działań prawnych na systemy AI i projekt CLAUDETTE?

Zasady zbiorowych działań prawnych w Unii Europejskiej, określone przez dyrektywę 1828/2020, mają ogromne znaczenie dla projektów takich jak CLAUDETTE, które są szczególnie atrakcyjne dla agencji konsumenckich oraz organizacji konsumenckich. Ustawa o sztucznej inteligencji (AI Act), Dyrektywa o usługach cyfrowych (DSA) oraz Dyrektywa o odpowiedzialności cyfrowej (DA) stanowią istotny element w długiej liście dyrektyw i rozporządzeń UE, w ramach których agencje konsumenckie oraz organizacje konsumenckie uzyskują prawo do wszczęcia postępowania o nakaz wstrzymania działalności (tzw. injunction) lub domagania się odszkodowania zbiorowego w przypadku naruszeń prawa UE. Tego rodzaju działania nie dotyczą sporu pomiędzy dwiema stronami umowy, lecz dotyczą legalności praktyk biznesowych, takich jak uczciwość warunków umowy, praktyki reklamowe czy polityki ochrony danych – obszary, w których projekty takie jak CLAUDETTE rozwijają się najszybciej i gdzie test uczciwości powinien być przeprowadzany w sposób abstrakcyjny – chodzi o ocenę, czy praktyki biznesowe są zgodne z prawem, a nie o indywidualne naruszenia, które wpływają na poszczególnych konsumentów. Włączenie AI Act oraz DSA rozszerza zakres możliwych działań zbiorowych, ponieważ pozwala organizacjom konsumenckim na argumentowanie, że dostawcy oraz wdrażający systemy AI wysokiego ryzyka nie przestrzegają swoich obowiązków staranności, określonych w Rozdziałach II i III, lub że dostawcy i wdrażający systemy AI niskiego ryzyka nie przestrzegają wymagań dotyczących przejrzystości w Rozdziale IV, pod warunkiem, że dotyczą one zbiorowych interesów konsumentów.

Szeroki zakres zastosowania, a także abstrakcyjny charakter naruszenia, stwarza przestrzeń do realizacji kontroli nielegalnych praktyk biznesowych przez projekty CLAUDETTE. Do tej pory żadne z organizacji konsumenckich w UE nie opracowały systemów typu CLAUDETTE ani nie testowały takiego systemu w jego obecnej postaci. Sytuacja wygląda inaczej w przypadku agencji konsumenckich. W 2022 roku Komisja Europejska ogłosiła przetarg, który umożliwił Urzędowi Ochrony Konkurencji i Konsumentów w Polsce opracowanie zautomatyzowanej kontroli warunków umowy, podobnej do open-source'owego systemu CLAUDETTE.

Wprowadzenie Dyrektywy 1828/2020 wyznacza dwukrotną różnicę w wymaganiach prawnych, które muszą spełniać podmioty kwalifikowane, aby uzyskać status procesowy. W przypadku organizacji konsumenckich, status procesowy wiąże się z przestrzeganiem szeregu wymagań, mających na celu zapewnienie, że organizacja reprezentuje legitime interesy konsumentów. Wymogi te nie dotyczą agencji konsumenckich. Jednakże wymagania te odnoszą się tylko do działań transgranicznych, a nie krajowych. Istnieją państwa członkowskie, jak Niemcy, które obawiają się, że inne państwa mogą być zbyt hojnie przyznawać krajowym organizacjom konsumenckim status procesowy, co mogłoby stworzyć swego rodzaju "przemysł procesowy" w sposób niezamierzony.

Należy również zauważyć, że Dyrektywa 1828/2020 nie odnosi się do organizacji biznesowych jako podmiotów kwalifikowanych, chociaż takie działania istnieją w niektórych państwach członkowskich, zwłaszcza jeśli chodzi o nieuczciwe praktyki handlowe, gdzie również znajduje się przestrzeń na projekty typu CLAUDETTE. UE oraz państwa członkowskie w oczywisty sposób skłaniają się ku większemu zaufaniu do agencji publicznych niż do organizacji cywilnego społeczeństwa w kwestii "właściwego" stosowania działań zbiorowych. W odróżnieniu od takich sektorów jak energia, finanse, telekomunikacje czy transport, prawo UE nie obliguje państw członkowskich do ustanowienia agencji konsumenckiej. Niemniej jednak, Rozporządzenie 2017/2394 zobowiązuje państwa członkowskie do wyznaczenia krajowej agencji publicznej, która jest odpowiedzialna za współpracę w zakresie egzekwowania prawa w sprawach transgranicznych.

Należy podkreślić, że zarówno AI Act, jak i DSA nie zostały włączone do listy unijnych regulacji, które są objęte tymi samymi zasadami, co DA. Z tego powodu krajowe agencje konsumenckie, które odpowiadają za egzekwowanie prawa konsumenckiego, w tym nieuczciwych warunków umowy i praktyk handlowych, są wyłączone z egzekwowania przepisów AI Act i DSA. Obie te regulacje pozostawiają państwom członkowskim wybór odpowiednich organów krajowych. Agencje konsumenckie, które są odpowiedzialne za egzekwowanie prawa konsumenckiego w zakresie nieuczciwych warunków umowy i praktyk handlowych, nie mają kompetencji do egzekwowania przepisów AI Act i DSA, co wywołuje pytanie o to, czy te agencje mogą zostać zobowiązane przez państwa członkowskie do ujawnienia informacji na temat technologii, jaką stosują, oraz środków ochrony, które wdrażają – coś w rodzaju rejestracji systemów AI wysokiego ryzyka.

Równocześnie należy zauważyć, że minimalne ryzyko projektów typu CLAUDETTE może szybko przerodzić się w wadę. Im bardziej udane staną się projekty oparte na CLAUDETTE, tym więcej danych zostanie zintegrowanych, tym więcej obszarów prawa zostanie objętych, tym bardziej prawdopodobne stanie się, że firmy, które będą miały do czynienia z efektywnymi narzędziami egzekwowania prawa opartymi na CLAUDETTE, będą starały się zbadać, w jakim stopniu AI Act może zostać wykorzystane w celu utrudnienia wykorzystywania tych narzędzi przez agencje konsumenckie i organizacje konsumenckie.

Ostatecznie, regulacje związane z alternatywnym rozwiązywaniem sporów (ADR) i systemami rozwiązywania sporów online (ODR) stanowią istotny element w kontekście AI Act oraz DSA. AI Act uznaje sądownictwo i alternatywne metody rozwiązywania sporów za równorzędne, a UE aktualnie przegląda dyrektywę ADR, proponując uchwałę o uchyleniu Rozporządzenia ODR na rzecz rekomendacji. W tym kontekście należy również zwrócić uwagę na wymogi DSA, które nakładają obowiązki na duże platformy internetowe oraz wyszukiwarki internetowe dotyczące rozwiązywania sporów z użytkownikami.

Jak nowe przepisy dotyczące odpowiedzialności za produkt cyfrowy kształtują odpowiedzialność za sztuczną inteligencję w Unii Europejskiej?

Zaktualizowana Dyrektywa w sprawie odpowiedzialności za produkt (revPLD) i jej zmiany dotyczące klasyfikacji „produktów” w kontekście oprogramowania oraz produktów opartych na sztucznej inteligencji mają kluczowe znaczenie w kontekście ewolucji prawa cywilnego w Unii Europejskiej. Propozycje Komisji Europejskiej, w tym rozszerzenie definicji „produktu” i włączenie oprogramowania jako integralnej części odpowiedzialności za produkt, stanowią istotny krok ku dostosowaniu przepisów do realiów współczesnych rynków cyfrowych. Takie posunięcie odpowiada na rosnącą rolę produktów cyfrowych, które nie tylko funkcjonują jako odrębne elementy, ale również wchodzą w interakcje z fizycznymi produktami, tworząc ekosystemy złożone z usług i komponentów.

W odniesieniu do sztucznej inteligencji, dyrektywa wyraźnie wskazuje, że systemy AI, a także produkty oparte na AI, będą traktowane jako produkty w rozumieniu przepisów o odpowiedzialności za produkt. Oznacza to, że dostawcy systemów AI, zgodnie z Rozporządzeniem w sprawie sztucznej inteligencji (AI Act), będą uważani za producentów, którzy odpowiadają za wszelkie wady związane z ich produktami, które mogą powodować szkody. Koncepcja ta, choć szeroka i nowatorska, budzi również wątpliwości związane z tym, czy wszystkie formy cyfrowych produktów i usług, które pełnią funkcje podobne do oprogramowania, powinny być traktowane jako produkty w tym samym sensie.

Zasadniczą kwestią jest rozszerzenie definicji „komponentu” w zmienionej dyrektywie. Definicja ta obejmuje nie tylko elementy materialne, ale także niematerialne komponenty, takie jak oprogramowanie czy usługi cyfrowe, które są integralną częścią produktu. Taki rozwój definicji odzwierciedla rosnące znaczenie usług cyfrowych, które stają się kluczowe w działaniu tzw. inteligentnych produktów. Usługi takie jak monitorowanie, dostarczanie danych, czy aktualizacje oprogramowania są niezbędne dla prawidłowego funkcjonowania produktu, dlatego muszą być traktowane jako jego integralna część w kontekście odpowiedzialności za szkody.

Nowa definicja „komponentu” wprowadza rewolucyjny sposób myślenia o produktach cyfrowych, w tym o usługach takich jak Software as a Service (SaaS), które, mimo że nie są fizycznie dostarczane, pełnią niezbędną rolę w eksploatacji produktów. Kluczowym aspektem jest tu fakt, że konsumenci nie powinni być zobowiązani do rozróżniania modelu dostarczania produktu (czy to jako samodzielnego produktu, czy też w modelu subskrypcyjnym), gdy chodzi o odpowiedzialność producenta za szkody spowodowane awarią systemu lub jego komponentów.

Jednakże, mimo że definicja „komponentu” może z pozoru wydawać się szeroka i obejmować wszystkie usługi cyfrowe, niektóre usługi, takie jak ogólny dostęp do internetu, wciąż nie wchodzą w zakres odpowiedzialności producenta produktu, gdyż nie są pod jego kontrolą. Z kolei usługi, które bezpośrednio wpływają na funkcjonowanie produktu, jak usługi związane z danymi (np. dane o ruchu drogowym w systemie nawigacyjnym), muszą być traktowane jako komponenty w kontekście odpowiedzialności za produkt, ponieważ ich brak uniemożliwiłby prawidłowe funkcjonowanie produktu.

Zmiany te prowadzą do rozmycia granicy między produktami a usługami, co jest konieczne w erze cyfrowej. Wciąż jednak pozostaje wiele pytań dotyczących granic odpowiedzialności, szczególnie w kontekście tego, co dokładnie jest traktowane jako produkt, a co jako usługa. Warto zauważyć, że zmiany te podkreślają, jak kluczowe jest zrozumienie roli, jaką oprogramowanie i usługi cyfrowe pełnią w dzisiejszym rynku produktów, oraz jak te elementy wpływają na ogólne bezpieczeństwo produktów.

Na koniec, warto podkreślić, że odpowiedzialność za produkty cyfrowe, w tym produkty zintegrowane z sztuczną inteligencją, nie ogranicza się jedynie do kwestii technicznych. Musi obejmować także społeczne i ekonomiczne skutki wykorzystywania nowych technologii. W kontekście odpowiedzialności producentów, równie istotne jak kwestie prawne, są te związane z ochroną konsumentów i użytkowników przed potencjalnymi zagrożeniami, jakie niesie za sobą błędne działanie systemów opartych na AI. Regulacje te powinny nie tylko zapewniać sprawiedliwość w procesie dochodzenia odszkodowań, ale także stanowić fundamenty dla dalszego rozwoju i wdrażania sztucznej inteligencji w sposób odpowiedzialny i bezpieczny dla wszystkich użytkowników.