Zasady etyki zawodowej nakładają na prawników obowiązek posiadania odpowiednich kompetencji, co obejmuje znajomość prawa, umiejętności oraz staranność niezbędną do reprezentowania klienta. Współczesne standardy, takie jak zasada 1.1 Modelowych Zasad ABA czy zasada (g) Karty CCBE, podkreślają konieczność śledzenia zmian w prawie i praktyce, w tym związanych z technologią. W kontekście dużych modeli językowych (LLM) oznacza to, że prawnicy muszą rozumieć ich działanie, ograniczenia oraz potencjalne ryzyka i korzyści wynikające z ich stosowania.

Praktyczne wytyczne, takie jak te wydane przez Kalifornijską Izbę Adwokacką, wskazują, że zanim prawnik zacznie korzystać z LLM, powinien w rozsądnym stopniu poznać technologię, jej ograniczenia oraz zasady przetwarzania danych klientów przez dostawcę usługi. To zrozumienie jest kluczowe dla zachowania profesjonalnej staranności.

Zachowanie poufności informacji powierzonych przez klienta to kolejny fundamentalny obowiązek. W związku z tym prawnicy muszą podejmować rozsądne działania, by zapobiec niezamierzonemu lub nieuprawnionemu ujawnieniu danych. Szczególną uwagę należy zwrócić na to, że wiele chatbotów przechowuje dane użytkowników, a warunki korzystania z usług często dopuszczają udostępnianie tych danych osobom trzecim lub wykorzystanie ich do doskonalenia modelu. W praktyce oznacza to konieczność anonimizacji lub pseudonimizacji danych przed ich wprowadzeniem do systemu LLM lub uzyskania wyraźnej zgody klienta, np. w umowie o świadczenie usług prawnych.

Komunikacja z klientem powinna być jasna i obejmować informacje o wykorzystaniu LLM, zwłaszcza gdy ma to istotny wpływ na charakter prowadzonej sprawy. Prawnik musi wyjaśnić klientowi nie tylko fakt użycia technologii, ale także ryzyka i ograniczenia z tym związane. Nie jest jednak konieczne przekazywanie szczegółowych danych technicznych, które mogą być dla klienta niezrozumiałe i nieistotne z punktu widzenia jego interesów. Chociaż nie istnieje jednoznaczny wymóg uzyskania świadomej zgody klienta na stosowanie LLM, rozsądne jest, aby kancelarie prawne precyzyjnie uregulowały tę kwestię w swoich warunkach współpracy, szczególnie gdy technologia ma znaczący wpływ na przebieg usługi.

Prawnicy mają także obowiązek nadzoru nad pracą osób wspierających ich w świadczeniu usług, zarówno prawników, jak i osób bez uprawnień prawniczych. Ten obowiązek obejmuje również nadzór nad użyciem narzędzi opartych na sztucznej inteligencji. Każdy dokument lub tekst wygenerowany przez AI powinien zostać zweryfikowany przez odpowiedzialnego człowieka, który potwierdzi jego zgodność z obowiązującym prawem i zasadami. Aby zminimalizować ryzyko naruszeń, kancelarie powinny wprowadzać wewnętrzne procedury zatwierdzania używanych technologii, prowadzić szkolenia dla pracowników oraz opracować polityki dotyczące odpowiedzialnego stosowania LLM. Ważne jest również dokumentowanie korzystania z tych narzędzi, co umożliwia kontrolę i identyfikację ewentualnych naruszeń obowiązków staranności.

Reklama usług prawnych opartych na LLM podlega rygorystycznym zasadom uczciwości i rzetelności. Prawnik nie może wprowadzać w błąd klientów, np. przedstawiając usługi jako „szybsze”, „tańsze” lub „lepsze”, jeśli nie jest w stanie tego udowodnić. Podobnie nie powinien używać niejasnych haseł marketingowych sugerujących pełną automatyzację tam, gdzie technologia jedynie wspomaga procesy prawne.

Wszystkie te elementy układają się w kompleksowy obraz odpowiedzialnego, świadomego i etycznego korzystania z nowoczesnych technologii w zawodzie prawnika. Zrozumienie zarówno możliwości, jak i zagrożeń płynących z użycia LLM, jest fundamentem profesjonalizmu i dbałości o dobro klienta.

Ważne jest również, by czytelnik uświadomił sobie, że technologie LLM, choć niezwykle zaawansowane, nie są niezawodne ani wszechwiedzące. W każdej sytuacji wymagają krytycznej oceny i weryfikacji ludzkiej, ponieważ generują informacje na podstawie wzorców językowych, a nie faktycznego rozumienia czy świadomości kontekstu prawnego. Ponadto kwestie ochrony danych osobowych i bezpieczeństwa informacji stawiają przed prawnikami nowe wyzwania, które wymagają świadomego podejścia i ciągłego monitorowania rozwoju technologii oraz regulacji. Utrzymanie równowagi między innowacją a odpowiedzialnością stanowi dziś kluczowy aspekt wykonywania zawodu prawnika w erze cyfrowej.

Jakie wyzwania i podejścia regulacyjne towarzyszą wdrażaniu generatywnej sztucznej inteligencji w administracji publicznej?

W długofalowej perspektywie technologia oraz administracja publiczna stają przed kluczowymi wyzwaniami związanymi z suwerennością cyfrową, bezpieczeństwem cybernetycznym oraz polityką przemysłową państw. Istnieją dwa zasadnicze modele wdrażania generatywnej sztucznej inteligencji w administracji: model komercyjny oraz model platformy danych. Model komercyjny opiera się na gotowych lub dostosowanych rozwiązaniach oferowanych przez podmioty prywatne, których działalność nastawiona jest na rynek. W praktyce oznacza to outsourcing zarówno wymagań ludzkich, jak i technicznych, a co za tym idzie — ograniczoną kontrolę administracji nad narzędziem, która w dużej mierze uzależniona jest od warunków umownych oraz zasad korzystania ustalonych przez dostawcę usługi. Drugi model, nawiązujący do platform danych, wykorzystywany jest już przez niektóre instytucje europejskie i państwa, polegając na udostępnianiu bezpłatnych usług w zamian za dane użytkowników, jednak nie gwarantuje on ochrony poufności, danych osobowych czy praw autorskich.

Każde z rozwiązań niesie ze sobą inne zagrożenia w zakresie bezpieczeństwa cybernetycznego, w tym ryzyko istnienia tzw. „tylnych drzwi” umożliwiających nieautoryzowany dostęp. Istotne są również problemy związane z danymi treningowymi – ich jakość, pochodzenie i dobór mogą znacząco wpływać na skuteczność oraz wiarygodność działania modeli AI. Zastosowanie generatywnej sztucznej inteligencji w administracji publicznej należy rozpatrywać w kontekście nieformalnych środków, które administracja może wdrożyć, jednak jej działania mają często realny wpływ prawny na obywateli i podlegają fundamentalnym zasadom prawa administracyjnego, takim jak legalność, przejrzystość, odpowiedzialność, zakaz arbitralności, równość, dobra wiara i proporcjonalność.

W kontekście regulacyjnym odpowiedzi państw na pojawienie się generatywnej AI można podzielić na trzy podstawowe strategie: podejście nakazowo-kontrolne, podejście prewencyjne oraz eksperymentalne. Przykładem pierwszego jest stanowisko niektórych stanów USA, które wprowadzają ścisłe wytyczne ograniczające stosowanie AI, zakazujące traktowania jej wyników jako ostatecznych czy prawdziwych, oraz zabraniające wykorzystywania AI do podejmowania oficjalnych decyzji czy publikowania oficjalnych oświadczeń bez nadzoru. Wdrażane są również wymogi informowania o wykorzystaniu AI i testowania uprzedzeń systemu, a także powoływane ciała nadzorcze i zespoły ds. zarządzania AI, które mają monitorować i oceniać wdrażanie tych technologii w administracji.

Prewencyjne podejście zakłada m.in. konieczność przeprowadzania oceny ryzyka przed wdrożeniem, weryfikację wyników AI przez osoby kompetentne oraz pełną transparentność co do zastosowania technologii. Z kolei podejście eksperymentalne sprzyja pilotowaniu projektów wykorzystujących AI w celu poszukiwania najlepszych praktyk i efektywności działania administracji.

Niezależnie od przyjętej strategii, istotne jest, aby wdrożenie generatywnej sztucznej inteligencji nie naruszało podstawowych zasad państwa prawa i zapewniało odpowiednią ochronę praw jednostek. Regulacje powinny uwzględniać złożoność technologii, jej dynamiczny rozwój oraz specyfikę administracji publicznej, gwarantując jednocześnie, że zastosowania AI nie podważają zaufania obywateli do instytucji publicznych.

Ważne jest także rozumienie, że technologia AI sama w sobie nie jest neutralna. Wpływ na jej działanie mają m.in. źródła danych, algorytmy trenowania oraz zasady wdrożenia, co wymaga świadomego i krytycznego podejścia do jej wykorzystania. Ponadto, technologie generatywne stawiają nowe pytania dotyczące odpowiedzialności prawnej, ochrony danych osobowych, praw autorskich oraz etyki, które muszą zostać rozstrzygnięte na poziomie systemowym. W kontekście administracji publicznej, która stoi na straży prawa i praw obywateli, konieczne jest ciągłe monitorowanie i aktualizacja regulacji, aby sprostać wyzwaniom związanym z adaptacją nowych technologii i nie dopuścić do ich nadużyć czy niewłaściwego zastosowania.

Czy manipulacja za pomocą sztucznej inteligencji powinna być zabroniona ex ante?

Zgodnie z nową modyfikacją artykułu 5 ust. 1, aby uznać działanie sztucznej inteligencji (SI) za manipulację, konieczne jest wystąpienie „istotnej szkody”. Wątpliwe jest, czy wszelkie manipulacje, które nie prowadzą do znaczącego uszczerbku, powinny być objęte tym przepisem. Nawet jeśli nie występuje istotna szkoda w sensie ekonomicznym, jak w przypadku e-papierosów, stosowanie SI może naruszać prawo do autonomii i psychicznej samostanowczości jednostki. Takie rodzaje manipulacji mogą pozostawać poza ochroną prawną – przykładem może być e-papieros, który oddziałuje na powszechne transakcje, które są pozornie neutralne, ale mogą prowadzić do niepożądanych skutków w życiu codziennym.

W kontekście przepisów Unii Europejskiej dotyczących sztucznej inteligencji, artykuł 5 ust. 1 odnosi się do efektów manipulacyjnych, w tym zmiany zachowań, powodowania decyzji i wystąpienia istotnej szkody. Co istotne, artykuł ten nie odnosi się jedynie do potencjalnych szkód, ale wymaga rzeczywistego zaistnienia tych przesłanek. Wyjątkowo problematyczne jest wprowadzenie wymogu, który pozwala stwierdzić, że manipulacja spowodowana przez SI rzeczywiście wyrządziła szkodę dopiero po jej wystąpieniu. W takim ujęciu technologia manipulacyjna będzie mogła być stworzona i używana, a decyzje prawne podejmowane będą dopiero wtedy, gdy manipulacja już się wydarzy, a szkoda stanie się rzeczywistością.

Pomimo tych obaw, proponowane przepisy wciąż zawierają inne technologie SI, które powinny być zakazane, szczególnie te, które wykorzystują luki w zachowaniach ludzkich. Zgodnie z nową wersją artykułu 5, zakazany ma być system sztucznej inteligencji, który wykorzystuje wrażliwości jednostek – mogą to być cechy takie jak wiek, niepełnosprawność czy sytuacja społeczno-ekonomiczna. Warto zauważyć, że wcześniejsza wersja przepisu odnosiła się tylko do zbiorowych zmian zachowań, które miały miejsce wśród większej grupy osób, podczas gdy nowa wersja obejmuje także manipulacje na poziomie indywidualnym. Zatarcie granicy między jednostką a grupą w tym kontekście rodzi pewne wątpliwości.

Nowe sformułowanie art. 5 ust. 1 nie tylko odnosi się do indywidualnych, ale także do grupowych wrażliwości, co może obejmować osoby w szczególnie trudnej sytuacji życiowej. Ponadto, w zmodyfikowanej wersji przepisu, nie ma mowy o „manipulacji”, lecz o wykorzystywaniu wrażliwości, co pozostawia pewną niejednoznaczność. Manipulacja najczęściej bazuje na skrótach do systemu 1 (czyli instynktownych decyzjach), które uwzględniają wrażliwości jednostek w procesie podejmowania decyzji. Artykuł 5 nie definiuje manipulacji, a zmieniona wersja przepisu nie odnosi się do takich pojęć jak np. poznawcze błędy w podejmowaniu decyzji, które często stanowią podstawę manipulacyjnych strategii.

Kolejną kwestią, która rodzi wątpliwości, jest artykuł 5 ust. 1 (g), który wprowadza zakaz stosowania systemów kategoryzacji biometrycznej osób na podstawie ich danych biometrycznych. Zakaz ten dotyczy wykorzystywania danych biometrycznych do dedukcji o cechach osobowościowych lub społecznych, takich jak rasa, wyznanie, orientacja seksualna, czy poglądy polityczne. Nie zakazuje się jednak wykorzystywania takich systemów do określania cech psychicznych czy zachowań, co może obejmować analizę błędów poznawczych i skłonności do określonych decyzji. Z tego powodu wciąż możliwe będzie kategoryzowanie ludzi na podstawie danych biometrycznych, które pozwalają określić ich preferencje poznawcze i skłonności do manipulacji.

Pomimo prób wprowadzenia regulacji zakazujących wykorzystywania sztucznej inteligencji do manipulacji, istnieje wiele niedoprecyzowanych kwestii, które wymagają dalszej uwagi. W szczególności ważne jest rozróżnienie między różnymi rodzajami manipulacji i wyjaśnienie, kiedy naprawdę dochodzi do istotnej szkody. W przypadku, gdy regulacje te zostaną wprowadzone bez pełnego uwzględnienia wszystkich aspektów manipulacyjnych, mogą one pozostać niewystarczające, by zapobiec wykorzystywaniu technologii w sposób szkodliwy.

Jakie znaczenie dla prawa mają modele sztucznej inteligencji oparte na architekturze transformatorów, takie jak GPT-3?

Architektura transformatorów, wprowadzenie której stało się przełomem w sztucznej inteligencji, zrewolucjonizowała podejście do przetwarzania języka naturalnego. Jednym z najważniejszych osiągnięć tej technologii było powstanie modelu GPT-3 (Generative Pre-trained Transformer 3), który został wprowadzony przez amerykańską firmę OpenAI wiosną 2020 roku. GPT-3, znacznie większy od wszystkich dotychczasowych modeli transformatorów, jest w stanie przetwarzać język naturalny w sposób, który do tej pory wydawał się nieosiągalny. Model ten został wytrenowany na około 500 miliardach tokenów (co można przyrównać do słów tekstu), które zostały pozyskane z internetu, z zastosowaniem pewnych filtrów. Wynikiem tego jest model z około 175 miliardami parametrów, które stanowią numeryczne wartości zapisane w oprogramowaniu modelu, determinujące sposób jego działania oraz generowane wyniki.

Sama wielkość modelu, jego złożoność i zaawansowanie dały GPT-3 niezwykłą zdolność do przetwarzania i generowania tekstu w języku naturalnym. Tekst wygenerowany przez GPT-3 może być tak wysokiej jakości i wydawać się tak sensowny, że z trudem można stwierdzić, czy został napisany przez człowieka, czy maszynę. W kolejnych latach po premierze GPT-3 zaobserwowano prawdziwą eksplozję badań oraz komercyjnego zainteresowania modelami językowymi tego typu. Jest to zupełnie naturalne, ponieważ tak potężne narzędzie sztucznej inteligencji daje ogromne możliwości, w tym także w zastosowaniach prawnych.

Znajomość prawa, zarówno tego ogólnego, jak i bardziej wyspecjalizowanego, oraz sposób, w jaki prawo jest wyrażane w formie tekstowej, są kluczowe w każdym systemie prawnym. Prawa opierają się na precyzyjnych definicjach i terminologii, a generatywna sztuczna inteligencja doskonale sprawdza się w przetwarzaniu i generowaniu tekstów prawnych. W tym kontekście GPT-3 oraz inne duże modele językowe mogą stać się potężnym narzędziem w analizie i tworzeniu dokumentów prawnych, interpretacji przepisów oraz w wielu innych dziedzinach związanych z prawem. Używanie takiej technologii w prawie wiąże się jednak z wieloma pytaniami natury prawnej, etycznej i regulacyjnej. Wśród nich na szczególną uwagę zasługują kwestie dotyczące własności intelektualnej, umów, odpowiedzialności, ochrony danych osobowych oraz kwestii związanych z potencjalnymi szkodami, jakie może wyrządzić nieodpowiednie wykorzystanie takich narzędzi.

Sztuczna inteligencja generatywna jest wciąż młodą dziedziną, która rozwija się w zawrotnym tempie. O ile nie jest możliwe przedstawienie pełnego obrazu wszystkich jej technicznych i matematycznych podstaw, o tyle ważne jest, aby zrozumieć, w jaki sposób te technologie są wykorzystywane. W sercu tych rozwiązań leży uczenie maszynowe, a dokładniej algorytmy oparte na sztucznych sieciach neuronowych. Uczenie maszynowe polega na wykorzystywaniu algorytmów komputerowych, które „uczą się” z danych, pozwalając na wykonywanie zadań bez potrzeby szczegółowego programowania. Algorytmy te zazwyczaj działają na zasadzie modeli statystycznych, które pomagają w przewidywaniu wyników na podstawie danych wejściowych, których system wcześniej nie widział. Istnieją trzy główne rodzaje uczenia maszynowego: uczenie nadzorowane, nienadzorowane oraz uczenie ze wzmocnieniem.

W przypadku uczenia nadzorowanego, model jest trenowany na podstawie dużych zbiorów danych, w których każdemu wejściu przypisany jest znany, pożądany wynik. Na przykład w przypadku modelu rozpoznawania obrazów, zdjęcia są ręcznie oznaczane etykietami, a system „uczy się” przypisywać te etykiety do nowych, nieznanych wcześniej obrazów. Modele sztucznych sieci neuronowych są bardzo popularnym przykładem uczenia nadzorowanego i są szeroko wykorzystywane w klasyfikacji danych.

Uczenie nienadzorowane, w przeciwieństwie do nadzorowanego, nie wymaga wcześniejszego przypisania etykiet do danych wejściowych. Zamiast tego, algorytmy te analizują dane w poszukiwaniu wzorców, takich jak podobieństwa czy różnice, które pozwalają na grupowanie danych lub wykrywanie anomalii. Uczenie samodzielne, będące połączeniem tych dwóch metod, jest coraz częściej wykorzystywane w bardziej zaawansowanych modelach, takich jak GPT-3, gdzie model samodzielnie tworzy struktury wewnętrzne pozwalające na przewidywanie wyników na podstawie danych wejściowych.

Natomiast w uczeniu ze wzmocnieniem, maszyna jest umieszczona w sztucznie stworzonym środowisku, w którym może monitorować jego stan i podejmować działania zmieniające ten stan. System „nagrody” pozwala na przyznawanie punktów za odpowiednie działania, co motywuje maszynę do optymalizacji swoich działań w celu osiągnięcia jak najlepszych wyników. Tego rodzaju technologia znajduje zastosowanie m.in. w rozwoju agentów sztucznej inteligencji.

Wszystkie te techniki mają ogromne znaczenie w kontekście tworzenia generatywnej sztucznej inteligencji, która może znaleźć zastosowanie w szerokim zakresie, w tym w przemyśle prawnym. Warto jednak zwrócić uwagę, że mimo ogromnych możliwości, jakie niesie ze sobą generatywna sztuczna inteligencja, wciąż pozostaje wiele niejasności prawnych dotyczących jej wykorzystania. Pojawiają się pytania, czy twórcy takich technologii będą odpowiadać za potencjalne błędy w wynikach generowanych przez systemy AI, czy modele te mogą naruszać prawa autorskie, czy też jakie regulacje powinny zostać wprowadzone w celu zapewnienia etycznego i odpowiedzialnego ich używania. Takie kwestie wymagają dalszej debaty oraz rozwoju odpowiednich norm prawnych.