Artykuł 50(1) Ustawy o sztucznej inteligencji (AI Act) nakłada szczególne obowiązki przejrzystości na dostawców systemów AI przeznaczonych do bezpośredniego kontaktu z osobami fizycznymi, takimi jak chatboty prawne czy aplikacje typu Q&A. Zgodnie z tym przepisem, dostawcy takich systemów muszą zapewnić, by były one zaprojektowane w taki sposób, aby osoby, które z nimi wchodzą w interakcję, były świadome, że mają do czynienia z systemem AI, chyba że jest to oczywiste dla osoby średnio dobrze poinformowanej i czujnej, biorąc pod uwagę okoliczności i kontekst użycia.
Warto zauważyć, że dostawcy systemów AI, takich jak OpenAI (producent ChatGPT) czy firmy rozwijające modele LLM specyficzne dla sektora prawnego, jak Harvey, muszą przestrzegać tych obowiązków przejrzystości. Z kolei kancelarie prawne, które jedynie korzystają z systemów AI, nie są objęte obowiązkami przejrzystości zawartymi w artykule 50(1) AI Act, ponieważ traktowane są jako użytkownicy (deployers) systemów AI, a nie ich dostawcy.
Obowiązki te nie dotyczą jednak bezpośrednio kancelarii prawnych, z wyjątkiem specyficznych przypadków, kiedy publikowane przez nie treści generowane przez AI mają na celu informowanie społeczeństwa o kwestiach mających publiczne znaczenie. W takim przypadku kancelarie muszą ujawnić, że tekst jest generowany przez AI lub zmanipulowany, chyba że przeszedł on proces przeglądu przez człowieka lub kontroli redakcyjnej, a odpowiedzialność za publikację treści ponosi konkretna osoba lub podmiot prawny. Warto zaznaczyć, że takie obowiązki ujawnienia nie dotyczą przypadków, w których tekst został sprawdzony przez prawnika, który ponosi odpowiedzialność redakcyjną.
W odniesieniu do systemów GenAI, takich jak LLM, które generują syntetyczne treści, obowiązki przejrzystości są również regulowane przez artykuł 50(2) AI Act. Dostawcy tych systemów muszą zapewnić, aby wygenerowane treści były oznaczone w sposób, który umożliwi wykrycie, że zostały one stworzone lub zmanipulowane przez maszynę. Techniki takie jak wodne znaki, identyfikacja metadanych, metody kryptograficzne czy logowanie mogą być wykorzystywane w tym celu. Z drugiej strony, obowiązki te nie obejmują przypadków, w których AI pełni jedynie funkcję wspomagającą w standardowej edycji treści lub nie modyfikuje znacząco danych wejściowych.
Kancelarie prawne, korzystające z LLM do świadczenia usług prawnych, nie podlegają zatem obowiązkom przejrzystości wynikającym z artykułu 50(2) AI Act, ponieważ regulacja ta dotyczy jedynie dostawców systemów AI. Jedynie w przypadkach, gdy systemy generujące lub manipulujące tekstami mają na celu informowanie opinii publicznej w sprawach mających charakter publicznego interesu, kancelarie prawne muszą ujawniać, że teksty te zostały wygenerowane przez AI. Jednakże, gdy treść została poddana ludzkiemu przeglądowi i kontrolie redakcyjnej, obowiązek ujawnienia nie zachodzi.
Choć Ustawa o sztucznej inteligencji nie reguluje bezpośrednio kwestii związanych z nadużyciem praktyk prawnych (UPL) ani zasad etyki zawodowej prawników, nie oznacza to, że przepisy te są całkowicie nieistotne. Użycie systemu AI, który spełnia wymagania AI Act, nie może być uznane za naruszenie krajowych przepisów prawnych w zakresie wykonywania zawodu prawnika, chyba że narusza to zasady dotyczące sumiennego wykonywania zawodu, jak określono w krajowych ustawach prawnych, takich jak Federalna Ustawa o Adwokatach (BRAO). Przepisy te mają na celu zapewnienie, że wszyscy profesjonaliści wykonujący zawód prawnika zachowują najwyższe standardy etyczne, niezależnie od tego, czy korzystają z narzędzi AI, takich jak LLM.
Ponadto, AI Act wejdzie w życie bezpośrednio w wszystkich państwach członkowskich Unii Europejskiej od 2 sierpnia 2026 roku. W związku z tym, władze sądowe i administracyjne korzystające z aplikacji AI będą musiały uważnie sprawdzić, czy przepisy dotyczące wysokiego ryzyka AI mają zastosowanie do ich działalności oraz jakie obowiązki z nich wynikają. Z kolei kancelarie prawne korzystające z LLM, mimo iż nie są objęte głównymi obowiązkami przejrzystości, powinny zachować ostrożność w stosowaniu tych narzędzi, pamiętając o obowiązkach związanych z odpowiedzialnością za publikowane treści i przestrzeganiem zasad etyki zawodowej.
Czy stosowanie dużych modeli językowych (LLM) w prawie stanowi nieautoryzowane praktykowanie zawodu i jakie niesie to konsekwencje?
Wykorzystanie dużych modeli językowych (LLM) w sektorze prawnym budzi poważne pytania dotyczące legalności oraz odpowiedzialności zawodowej. W szczególności, czy stosowanie LLM może być traktowane jako nieautoryzowane praktykowanie prawa (UPL), a także jakie mechanizmy ochronne istnieją dla konsumentów przed tzw. „halucynacjami” generowanymi przez te systemy. Analiza przepisów obowiązujących w Stanach Zjednoczonych oraz Niemczech wykazuje, że obecne regulacje dotyczące UPL są niewystarczające, by skutecznie chronić klientów przed ryzykiem wynikającym z błędnych lub niepełnych informacji wygenerowanych przez LLM. Wskazuje się więc na konieczność wprowadzenia alternatywnych rozwiązań, takich jak procedury zatwierdzania produktów czy certyfikacje jakości oprogramowania i danych szkoleniowych, które są fundamentem funkcjonowania tych systemów.
W obszarze etyki zawodowej i standardów wykonywania zawodu prawnika pojawia się szereg nierozstrzygniętych kwestii. Niejasne pozostają wymogi dotyczące poziomu staranności oraz obowiązku kompetencji przy wykorzystaniu LLM w praktyce prawnej. Ponadto, zagadnienie ochrony poufności relacji klient–prawnik staje pod znakiem zapytania, zwłaszcza w kontekście przetwarzania danych przez zewnętrzne systemy AI. Kolejną kwestią jest obowiązek informowania klientów o zastosowaniu LLM w świadczeniu usług prawnych — brak jednoznacznych wytycznych rodzi niepewność i potencjalne ryzyko naruszenia zasad etyki.
W odpowiedzi na powyższe wyzwania rośnie konsensus w środowisku legal tech, które podkreśla potrzebę ustanowienia jednolitych standardów, benchmarków i ram regulacyjnych dla wykorzystywania LLM w prawie. Zaangażowanie kancelarii prawnych, izb adwokackich oraz organów regulacyjnych w tworzenie tych norm jest niezbędne dla zapewnienia etycznego i efektywnego stosowania sztucznej inteligencji w usługach prawnych.
Warto również zwrócić uwagę na wpływ unijnego rozporządzenia AI Act, które od sierpnia 2024 roku wprowadza pierwsze w historii prawne regulacje dotyczące AI w Unii Europejskiej. AI Act klasyfikuje systemy AI wspierające organy sądownicze jako systemy wysokiego ryzyka, podkreślając ich znaczący wpływ na demokrację, praworządność oraz prawo do sprawiedliwego procesu. Rozporządzenie to wymaga szczególnej ostrożności w stosowaniu AI w wymiarze sprawiedliwości, w tym zapewnienia przejrzystości, minimalizacji błędów i uprzedzeń oraz ochrony praw obywatelskich.
Rosnące zastosowanie generatywnej AI w sądach oraz w działaniach prawników i stron postępowania jest odpowiedzią na długotrwałe problemy z dostępem do wymiaru sprawiedliwości i przewlekłością postępowań. AI oferuje narzędzia pozwalające na lepsze zrozumienie i formułowanie problemów prawnych przez osoby bez profesjonalnego wsparcia. Jednak wzrost dostępności porad prawnych za pomocą AI może jednocześnie pogłębiać przeciążenie systemu sądowniczego, generując nowe wyzwania organizacyjne i etyczne. Potrzeba zatem nie tylko wsparcia w identyfikacji problemów, ale także efektywnego rozwiązywania sporów, w tym poprzez alternatywne metody rozstrzygania konfliktów.
Równocześnie debata toczy się wokół podstawowego prawa do „ludzkiego sędziego”, które powinno być zagwarantowane na każdym etapie postępowania. Z jednej strony AI może wspierać sędziów w analizie faktów i prawnych argumentów, z drugiej – całkowite lub dominujące zastąpienie człowieka w podejmowaniu decyzji budzi poważne wątpliwości etyczne i prawne.
Oprócz kwestii prawnych i regulacyjnych, ważne jest także zrozumienie technicznych ograniczeń LLM. Modele te są zależne od jakości i zakresu danych szkoleniowych, które mogą zawierać błędy, uprzedzenia czy luki informacyjne. „Halucynacje” AI — czyli generowanie fałszywych lub nieprecyzyjnych informacji — stanowią realne zagrożenie w kontekście odpowiedzialności prawnej i zaufania klientów.
Kluczowe jest, aby użytkownicy systemów AI w prawie rozumieli, że choć technologia ta oferuje potężne narzędzia, nie zastępuje ona kompetencji i odpowiedzialności człowieka. Odpowiedzialność za ostateczne decyzje i interpretacje prawa nadal spoczywa na prawnikach, którzy powinni traktować AI jako wsparcie, a nie autonomiczny podmiot. Tym samym, etyka zawodowa, transparentność stosowania AI oraz jasne zasady komunikacji z klientami są fundamentami bezpiecznego i skutecznego korzystania z tych technologii.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский