Współczesne innowacje w zakresie sztucznej inteligencji w dużej mierze odbywają się w sektorze prywatnym. Taki rozwój technologii może, teoretycznie, ochronić systemy AI przed bezpośrednim wpływem rządów, ale jednocześnie rodzi nowe wyzwania. Ryzyko pośredniego wpływu przez finansowanie, priorytety rozwoju lub wybór danych do szkolenia systemów AI nie może zostać zignorowane. Tego rodzaju wpływy, nawet jeśli niezamierzone, mogą podważyć zarówno faktyczną niezależność procesów sądowych wspieranych przez AI, jak i postrzeganą przez społeczeństwo niezależność wymiaru sprawiedliwości.

Aby przeciwdziałać tym zagrożeniom i zachować integralność niezależności sądów, niezbędne są silne mechanizmy ochrony i przejrzystości. Jednym z rozwiązań jest nałożenie obowiązku transparentności procesów rozwoju dla wszelkich systemów AI przeznaczonych do wykorzystania w sądach. Taka przejrzystość mogłaby obejmować pełne ujawnienie źródeł finansowania, metodologii rozwoju oraz specyfikacji projektowych, w tym otwarty dostęp do danych wykorzystywanych do treningu. Pozwoliłoby to na publiczną kontrolę nad potencjalnymi wpływami na system AI oraz stworzyłoby nowe ramy do oceny „powołania” i „kadencji” AI w rolach sędziowskich – pojęć tradycyjnie odnoszących się do ludzi, które wymagają reinterpretacji w kontekście systemów AI.

Wprowadzenie takich środków nie jest jednak wolne od trudności. Prywatne firmy zajmujące się opracowywaniem tych technologii mogą stawiać opór, powołując się na ochronę tajemnic handlowych i przewagę konkurencyjną. Taki opór ukazuje napięcie pomiędzy potrzebą przejrzystości procesów sądowych a charakterem własnościowym nowoczesnych technologii generatywnej AI. Przykładem, choć nie generatywnej AI, jest wykorzystywany w Stanach Zjednoczonych algorytm COMPAS. Stworzony przez prywatną firmę Northpointe (obecnie Equivant), algorytm ten przydziela oskarżonym wskaźnik ryzyka, który ma być wykorzystywany przez sędziów przy podejmowaniu decyzji o wyroku i kaucji. Jego metodologia stanowi tajemnicę handlową, co oznacza, że sędziowie nie mają możliwości oceny, jak wyliczane są wskaźniki ryzyka ani jak ważone są poszczególne czynniki. Taki stan rzeczy wywołał kontrowersje wśród komentatorów prawnych i sędziów apelacyjnych, którzy zwrócili uwagę na potencjalne zagrożenia związane z niezależnością i bezstronnością procesu oceny ryzyka, gdy technologia AI jest włączona do tego procesu.

Z perspektywy wymogu bezstronności, zgodnie z artykułem 6 Europejskiej Konwencji Praw Człowieka, sąd powinien być wolny od uprzedzeń i stronniczości. Ocenia się to w dwóch etapach: subiektywnym, w którym wymagane jest, aby sąd był wolny od uprzedzeń dotyczących oceny konkretnego przypadku, oraz obiektywnym, który nakłada na sąd obowiązek podjęcia odpowiednich działań w celu wykluczenia wszelkich wątpliwości co do jego bezstronności. Zastosowanie sztucznej inteligencji w procesach sądowych bywa przedstawiane jako sposób na minimalizowanie ludzkich uprzedzeń, co rzekomo zapewnia obiektywizm. Jednak takie podejście jest uproszczone. Systemy AI, podobnie jak ludzie, podlegają uprzedzeniom wynikającym z licznych punktów kontaktu człowieka w ich projektowaniu, rozwoju, utrzymaniu i użytkowaniu.

Przykładem jest sposób formułowania pytań lub zapytań, który może wypaczyć wyniki generowane przez systemy AI. Ponadto, uprzedzenia mogą wynikać z danych wykorzystywanych do trenowania systemów, które zawierają historyczne uprzedzenia i nierówności lub które są pozbawione istotnych danych. Również inne badania wskazują na możliwość wzrostu dyskryminacji, obiektualizacji czy dehumanizacji jednostek przed sądem, co stanowi poważne zagrożenie dla sprawiedliwości proceduralnej.

Sprawiedliwość proceduralna, jako jedno z kluczowych założeń artykułu 6 (1), obejmuje szereg zasad, z których jedną jest pewność prawa, będąca fundamentem rządów prawa. Zastosowanie generatywnej AI w procesie decyzyjnym sądów może przyczynić się do zwiększenia spójności w wyrokach podobnych spraw, bazujących na ogromnej bazie danych dotyczących trendów sądowych. Kolejnym istotnym elementem sprawiedliwości proceduralnej jest prawo stron do przedstawiania uwag, które uznają za istotne dla swojej sprawy. Narzędzia generatywnej AI mogą wspierać przygotowanie i przedstawianie argumentów oraz dowodów przez strony, pomagając w komunikowaniu wiedzy prawnej w przystępnej formie.

Wykorzystanie tych narzędzi może być szczególnie korzystne w kontekście sprawiedliwości dla osób, które mogą mieć trudności z piśmiennością lub które nie posługują się językiem ojczystym. Sprawiedliwość proceduralna wiąże się również z odpowiednim uwzględnieniem uwag sądu, a więc sądy muszą przeprowadzać właściwe badanie przedstawionych dowodów, argumentów i zgłoszonych roszczeń.

Wykorzystanie generatywnej AI w procesach sądowych stawia jednak trudne pytania. Jednym z nich jest kwestia tzw. luki relacyjnej między systemami AI a ludźmi. Wiedza generowana przez AI jest abstrakcyjna i oparta na języku, podczas gdy ludzka wiedza i interakcje są zakorzenione w relacyjnych doświadczeniach świata. Różnice te mogą prowadzić do trudności w ocenianiu i interpretowaniu wyników AI w kontekście ludzkich doświadczeń i potrzeb.

Jakie wyzwania stoją przed odpowiedzialnością za modele podstawowe sztucznej inteligencji?

Modele podstawowe sztucznej inteligencji (AI), w szczególności te oparte na języku i wizji, stają się coraz bardziej złożonymi narzędziami, które znajdują zastosowanie w wielu kluczowych dziedzinach. Od medycyny po wojsko, a także w codziennym życiu, AI wpływa na decyzje, które mają poważne konsekwencje. Jednak w miarę jak te technologie stają się bardziej wszechobecne, pojawiają się poważne pytania dotyczące odpowiedzialności za ich błędy i konsekwencje ich użycia. W szczególności trudności związane z ustaleniem odpowiedzialności deweloperów i użytkowników modeli podstawowych stanowią jedno z najtrudniejszych wyzwań współczesnego prawa.

Współczesne modele AI, zwłaszcza te oparte na głębokim uczeniu się, takie jak GPT-4, są w stanie generować wyniki, które mogą wpływać na życie ludzi w sposób zarówno bezpośredni, jak i pośredni. Zdarza się, że błędy takich modeli prowadzą do odrzucenia wniosków o azyl, niesprawiedliwego traktowania mniejszych grup społecznych, czy nawet poważnych błędów w kontekście decyzji wojskowych i dyplomatycznych. Konsekwencje tych błędów mogą być druzgocące, a ścieżki dochodzenia sprawiedliwości rzadko bywają proste. Problem odpowiedzialności staje się jeszcze bardziej skomplikowany, gdy próbujemy ustalić, kto dokładnie powinien ponosić konsekwencje za decyzje podejmowane przez te systemy.

Pierwszym krokiem do zrozumienia tych wyzwań jest rozróżnienie między różnymi aktorami zaangażowanymi w tworzenie i użytkowanie modeli podstawowych. Cały proces rozwoju modelu AI można podzielić na kilka etapów: tworzenie danych, zbieranie danych, rozwój modelu, wdrożenie modelu oraz jego użytkowanie. W każdej z tych faz mogą pojawić się problemy, które prowadzą do późniejszych błędów w działaniu AI.

W fazie tworzenia danych, aktorami są ci, którzy generują dane, na podstawie których model będzie się uczył. Może to być zarówno profesjonalny zespół anotatorów, jak i każdy internauta, który dodaje treści do sieci. Zbieranie danych to etap, w którym te dane są gromadzone i przygotowywane do wykorzystania. Model tworzony jest na podstawie tej masy danych, a osoby odpowiedzialne za jego rozwój mogą mieć kontrolę nad tym, jak model będzie zachowywał się w określonych sytuacjach. Następnie model może zostać udostępniony innym inżynierom, którzy dostosowują go do specyficznych potrzeb lub publikują go szerzej, umożliwiając dalszą modyfikację. Aktorami w tym etapie są tzw. "adaptorzy modeli". Ostatecznie model zostaje udostępniony użytkownikom, którzy mogą go wykorzystywać do określonych celów, takich jak generowanie treści czy podejmowanie decyzji.

Problemem w ustalaniu odpowiedzialności za błędy w działaniu modeli AI jest również sposób, w jaki są one udostępniane. Część modeli jest tworzona w sposób zamknięty, co oznacza, że osoby korzystające z modelu nie mają dostępu do kluczowych elementów, takich jak wagi modelu. Inne modele, zwane modelami otwartymi, udostępniają te wagi, ale często z pewnymi ograniczeniami licencyjnymi. Taki podział prowadzi do trudności w przypisaniu odpowiedzialności, zwłaszcza gdy model wchodzi w ręce osób trzecich, które mogą go modyfikować i wykorzystywać w sposób niezamierzony przez twórców.

Korzyści płynące z AI są niepodważalne, jednak należy pamiętać, że każda technologia, zwłaszcza o tak wielkim potencjale, wiąże się z ryzykiem. Modele podstawowe AI niosą ze sobą ryzyko dyskryminacji, gdyż mogą przechwytywać i powielać uprzedzenia zawarte w danych, na których były trenowane. Na przykład, jeśli model AI do analizy CV w firmie zacznie faworyzować pewne grupy demograficzne kosztem innych, może to prowadzić do poważnych problemów etycznych i prawnych. Z tego względu, kluczowe jest, by deweloperzy takich systemów byli odpowiedzialni za skutki ich funkcjonowania.

Ponadto, rosnące znaczenie takich modeli sprawia, że konieczne staje się także pytanie o zakres ochrony prawnej dla twórców i użytkowników. Ochrona konstytucyjna wolności wypowiedzi może zapewnić pewną ochronę przed regulacjami, jednak granice tej ochrony nie są jeszcze do końca sprecyzowane. Istnieje również ryzyko, że organy regulacyjne, które mają za zadanie monitorowanie i kontrolowanie takich technologii, napotkają poważne trudności w ściganiu ewentualnych nieprawidłowości. Złożoność przepisów prawnych w tym obszarze sprawia, że są one niejednoznaczne, a droga do sprawiedliwości może być długa i pełna przeszkód.

Wspomniane wyżej trudności w ustalaniu odpowiedzialności za działanie modeli AI pokazują, jak wiele wyzwań czeka w tej dziedzinie. Z jednej strony, prawo stara się wypracować mechanizmy, które pozwolą na skuteczne pociągnięcie do odpowiedzialności twórców i użytkowników tych systemów. Z drugiej strony, same modele sztucznej inteligencji wciąż rozwijają się w szybkim tempie, co stawia kolejne pytania o to, jak szybko i skutecznie można wprowadzić odpowiednie regulacje, które zapewnią bezpieczeństwo i sprawiedliwość.

Ważnym aspektem, który należy uwzględnić w tej dyskusji, jest potrzeba kompleksowego podejścia do edukacji prawnej i technicznej, które pozwolą na lepsze zrozumienie tego, jak działa AI i jakie mogą być jego potencjalne zagrożenia. Współpraca pomiędzy specjalistami w dziedzinie prawa, technologii i etyki staje się kluczowa w budowaniu systemów, które będą nie tylko innowacyjne, ale także odpowiedzialne.