W miarę jak technologie oparte na sztucznej inteligencji zyskują na znaczeniu w różnych branżach, sektor usług prawnych staje przed nowymi wyzwaniami. Jednym z nich jest zrozumienie, w jaki sposób automatyczne systemy prawne, takie jak DoNotPay, zmieniają podejście do udzielania porad prawnych i wprowadzają innowacyjne modele świadczenia usług. Problem polega na tym, że tradycyjne przepisy prawne dotyczące świadczenia usług prawnych nie były zaprojektowane z myślą o takich rozwiązaniach, przez co pojawiają się trudności w ich regulacji i odpowiednim klasyfikowaniu.

DoNotPay, amerykańska firma oferująca usługi sztucznej inteligencji w zakresie porad prawnych, stała się jednym z przykładów tego, jak technologia może wpływać na sposób, w jaki obywatele uzyskują pomoc prawną. Początkowo DoNotPay koncentrowało się na prostych poradach, takich jak pomoc w kwestiach związanych z mandatami drogowymi czy zwrotami pieniędzy. Jednak w 2023 roku firma chciała pójść o krok dalej i umożliwić sztucznej inteligencji interakcję z klientami w sali sądowej, dostarczając im wskazówki dotyczące tego, co mają mówić. Ten plan spotkał się z protestami wielu izb adwokackich i groźbą działań prawnych, co zmusiło firmę do porzucenia tego pomysłu. Problemy te są szczególnie istotne, ponieważ pojawiają się pytania o to, w jakim stopniu takie usługi są traktowane jako nielegalne świadczenie pomocy prawnej przez osoby nieposiadające odpowiednich uprawnień.

Przykład DoNotPay nie jest jedyny. W 2020 roku w Niemczech zapadła decyzja w sprawie Smartlaw, narzędzia do tworzenia dokumentów prawnych online, które w pewnym momencie zostało uznane za nielegalne świadczenie usług prawnych przez sąd regionalny w Kolonii. Smartlaw oferowało generowanie umów i pism prawnych na podstawie szablonów, odpowiadając na proste pytania użytkownika. Sąd uznał, że taka działalność wykracza poza zakres zwykłej automatyzacji i wchodzi w obszar świadczenia usług prawnych, co w Niemczech jest zarezerwowane dla profesjonalnych prawników. Warto jednak zauważyć, że wyrok ten został później uchylony przez wyższe instancje sądowe. Z kolei Federalny Trybunał Sprawiedliwości Niemiec uznał, że narzędzie nie naruszało przepisów prawa, ponieważ działało na zasadzie szablonów i nie analizowało indywidualnych przypadków.

Kwestia regulacji usług prawnych w kontekście sztucznej inteligencji staje się coraz bardziej paląca, zwłaszcza w odniesieniu do modeli językowych (LLM), takich jak GPT. Modele te, w przeciwieństwie do narzędzi takich jak Smartlaw, nie bazują na szablonach, lecz generują teksty w sposób oparty na analizie prawdopodobieństwa, rozpoznawaniu wzorców i wcześniejszych danych. To sprawia, że ich działanie jest bardziej złożone i trudniejsze do sklasyfikowania jako tradycyjna usługa prawna. Niektóre stanowiska w literaturze twierdzą, że usługi świadczone przez LLM nie mogą być uznane za nielegalne świadczenie pomocy prawnej, ponieważ są w dużej mierze zautomatyzowane, a użytkownicy nie oczekują tradycyjnej pomocy prawnej, lecz bardziej informacyjnej lub doradczej. Jednak istnieje także opinia, że mimo wszystko odpowiedzialność za taką usługę powinna spoczywać na dostawcy technologii, ponieważ to on dostarcza odpowiedzi oparte na analizach danych.

W związku z tym pojawia się istotne pytanie: jak powinny wyglądać przepisy prawne w odniesieniu do nowoczesnych technologii wspierających systemy prawne? Obecny stan prawny w wielu krajach, w tym w Stanach Zjednoczonych czy Niemczech, jest wciąż niejednoznaczny i nieadaptowany do rosnącej roli sztucznej inteligencji. Reguły, które zostały stworzone z myślą o tradycyjnych usługach prawnych, nie mogą być łatwo przeniesione na nowoczesne, oparte na AI systemy. Z jednej strony, AI w kontekście prawa może przyczynić się do obniżenia kosztów i upraszczania dostępu do porad prawnych, a z drugiej strony, stwarza ryzyko, że użytkownicy będą traktować technologię jako substytut rzeczywistej pomocy prawnej, co może prowadzić do nieporozumień i błędów prawnych.

Na przyszłość konieczne będzie stworzenie elastycznych ram regulacyjnych, które będą uwzględniały specyfikę nowych technologii, a także zagwarantują odpowiednią ochronę dla użytkowników usług prawnych, jednocześnie umożliwiając innowacje. Tradycyjne podejście do regulacji usług prawnych może nie wystarczyć, dlatego warto rozważyć tworzenie nowych modeli biznesowych i regulacyjnych, które będą pozwalały na współpracę technologii z prawnikami, a nie traktowanie ich jako konkurentów.

Kluczowe będzie zrozumienie, że zmiany te nie są jedynie kwestią technologiczną, lecz także społeczną i etyczną. Sztuczna inteligencja w usługach prawnych może poprawić dostęp do sprawiedliwości, ale wiąże się również z ryzykiem dehumanizacji procesu prawnego i zmniejszeniem zaufania do instytucji prawnych. Prawodawcy będą musieli znaleźć balans pomiędzy innowacjami a ochroną interesów konsumentów i jakości świadczonych usług prawnych.

Jakie wyzwania stawia regulacja AI w Unii Europejskiej?

Unia Europejska, dążąc do opracowania kompleksowego aktu prawnego regulującego sztuczną inteligencję (AI), staje przed szeregiem wyzwań związanych z odpowiednim uregulowaniem tej szybko rozwijającej się technologii. Celem aktu o sztucznej inteligencji, znanego również jako AI Act, jest stworzenie ram prawnych, które będą w stanie chronić prawa człowieka i środowisko, a jednocześnie sprzyjać innowacjom technologicznym. Jednakże, jak wskazują liczne analizy, realizacja tego celu napotyka liczne trudności.

Pierwszym wyzwaniem, które napotykają twórcy prawa, jest brak elastyczności regulacji, szczególnie w kontekście szybkiego rozwoju technologii. Tradycyjne narzędzia prawne często nie są wystarczająco dostosowane do dynamiki innowacji technologicznych. Przykładem może być rozwój standardów technologicznych, które z reguły nie nadążają za postępem w dziedzinie sztucznej inteligencji. W wielu przypadkach przepisy prawne są spóźnione, co sprawia, że prawo nie jest w stanie odpowiednio reagować na zmiany technologiczne, wprowadzając regulacje zbyt późno, a ich skuteczność wówczas zostaje ograniczona.

W odpowiedzi na te wyzwania, AI Act stawia na trzy różne podejścia do regulacji: (i) twarde prawo, które obejmuje nakładanie sankcji finansowych i zakazów w przypadku nieakceptowalnych zastosowań AI, (ii) podejście współregulacyjne, takie jak określanie standardów w odniesieniu do wysokiego ryzyka systemów AI, oraz (iii) samo-regulację, jak ma to miejsce w przypadku kodów postępowania dotyczących AI o niskim ryzyku. Celem tych rozwiązań jest zapewnienie ochrony praw podstawowych obywateli UE, co powinno stanowić fundament ram prawnych AI.

Ważnym elementem jest również kwestia odpowiedzialności za systemy AI. Istnieje konieczność wprowadzenia nowych mechanizmów ochrony osób przed potencjalnymi zagrożeniami wynikającymi z awarii AI. W tym kontekście propozycje zmierzające do ustanowienia AI Liability Act i zaktualizowanej Dyrektywy o odpowiedzialności za produkt, mają na celu uzupełnienie AI Act, zapewniając dodatkowe zabezpieczenia prawne. Nowe przepisy mają na celu wyrównanie ochrony przed wadami oprogramowania AI z odpowiedzialnością za wady produktów fizycznych.

Z kolei w kwestii definicji technologii, AI Act stawia na bardziej precyzyjne określenie, czym jest sztuczna inteligencja. Zmiana w definicji AI, która w finalnej wersji aktu została opisana jako "system oparty na maszynach, który może działać na różnych poziomach autonomii i adaptować się po wdrożeniu", ma na celu uwzględnienie najnowszych osiągnięć w zakresie tzw. modeli podstawowych, Gen AI oraz LLM. Jednakże, jak wskazują krytycy, definicja ta wciąż może napotkać trudności w kontekście dynamicznie rozwijającej się technologii, w szczególności w odniesieniu do ogólnego przeznaczenia modeli AI oraz rozwoju ich "wysokiego wpływu".

Problemy z podejściem horyzontalnym w AI Act wiążą się z tym, że w pierwszej wersji propozycji nie uwzględniono wielu fundamentalnych praw, takich jak prawo do ochrony środowiska, które znalazło się w artykule 37 Karty Praw Podstawowych UE. Początkowa propozycja AI Act pomijała również ryzyko związane z wytwarzaniem ogromnych ilości energii przez centra obliczeniowe wykorzystywane przez systemy AI, które mogą mieć negatywny wpływ na środowisko. Dopiero późniejsze poprawki Parlamentu Europejskiego wprowadziły zmiany, które uwzględniają wpływ AI na środowisko, jednak nadal pojawiają się kontrowersje, czy te regulacje wystarczająco chronią interesy ekologiczne i społeczne.

Kolejnym problemem jest zróżnicowane podejście do różnych rodzajów systemów AI, które mają różne poziomy ryzyka. Systemy AI wysokiego ryzyka podlegają bardziej restrykcyjnym regulacjom, podczas gdy te o niskim ryzyku często opierają się na samo-regulacji. W rzeczywistości jednak, jak zauważają eksperci, nie wszystkie systemy AI o niskim ryzyku są całkowicie bezpieczne. Wymagają one również odpowiednich środków ochrony, zwłaszcza gdy ich zastosowanie ma potencjalnie szerokie konsekwencje społeczne lub środowiskowe.

Dodatkowo, kwestia odpowiedzialności za AI i ewentualnych luk w odpowiedzialności cywilnej pozostaje nierozwiązana. Wciąż nie ma jednoznacznych regulacji dotyczących sytuacji, w której system AI spowoduje szkodę. Z tego powodu w ramach AI Act oraz powiązanych aktów prawnych konieczne jest ustanowienie nowych mechanizmów, które zapewnią odpowiednią ochronę użytkowników systemów AI, a także umożliwią łatwiejsze dochodzenie roszczeń w przypadku awarii lub niewłaściwego działania technologii.

Konieczność opracowania bardziej zaawansowanych regulacji w zakresie odpowiedzialności cywilnej oraz dostosowanie prawa do dynamicznego rozwoju technologii jest więc kluczowym elementem, który decyduje o skuteczności działań Unii Europejskiej w zakresie regulacji sztucznej inteligencji. Regulacje muszą być na tyle elastyczne, by nadążyć za innowacjami, a jednocześnie na tyle precyzyjne, by chronić interesy obywateli i zapewnić zgodność z fundamentalnymi prawami.

Jak Singapur kształtuje ramy zarządzania sztuczną inteligencją w erze generatywnej AI?

Singapur, uznawany za jedno z najbardziej zaawansowanych technologicznie państw na świecie, przyjął unikalne podejście do regulacji sztucznej inteligencji (AI), które łączy innowacyjne podejście rynkowe z odpowiedzialnym interwencjonizmem. Dzięki swojej silnej gospodarce opartej na wiedzy, stabilnemu systemowi politycznemu oraz nowoczesnej infrastrukturze cyfrowej, Singapur staje się przykładem dla innych państw w zakresie zarządzania AI, szczególnie w kontekście wyzwań związanych z rozwojem generatywnej sztucznej inteligencji.

Jako jeden z pierwszych krajów na świecie, Singapur rozpoczął prace nad stworzeniem ram regulacyjnych, które mogą stać się modelem do naśladowania. Wśród najważniejszych działań rządu znajduje się wdrożenie Inicjatywy Smart Nation, mającej na celu wykorzystanie technologii do poprawy jakości życia obywateli i wspierania rozwoju gospodarki. AI w Singapurze to nie tylko narzędzie do automatyzacji, ale również element strategiczny, który ma przyczynić się do dalszego rozwoju kraju jako centrum innowacji technologicznych.

Unikalną cechą singapurskiego podejścia do zarządzania AI jest silny nacisk na współpracę między interesariuszami – rządem, przemysłem i obywatelami. Singapur stawia na model oparty na konsensusie, co pozwala na elastyczne reagowanie na wyzwania, z jakimi borykają się użytkownicy oraz dostawcy rozwiązań AI. Przykładem takiego podejścia jest stworzenie pierwszego na świecie narzędzia do testowania rozwiązań AI, znanego jako AI Verify, które umożliwia audyt i weryfikację aplikacji sztucznej inteligencji w celu zapewnienia ich przejrzystości i zgodności z zasadami etycznymi.

Zarządzanie AI w Singapurze odzwierciedla także ogólną filozofię rządu dotyczącą technologii: otwartość na innowacje, ale z wyraźnym naciskiem na odpowiedzialność i kontrolę. Choć Singapur jest jednym z liderów w regionie Azji Południowo-Wschodniej w zakresie przyjmowania nowych technologii, jego rząd nie waha się interweniować, kiedy nowe rozwiązania mogą stwarzać zagrożenie dla obywateli. Podejście to jest szczególnie widoczne w kontekście regulacji dotyczących kryptowalut, gdzie wprowadzono surowe zasady mające na celu ochronę konsumentów.

W kontekście rozwoju generatywnej sztucznej inteligencji Singapur wykazuje „odpowiedzialny optymizm”. Choć AI wciąż pozostaje obszarem wymagającym ciągłych badań i regulacji, Singapur przyjął podejście, które stara się łączyć wolny rynek z odpowiednimi zabezpieczeniami, co pozwala na szybkie wdrażanie nowych technologii bez ryzyka poważnych niepożądanych skutków. Ta filozofia jest również widoczna w opracowywaniu przez Singapur ram regulacyjnych dla generatywnej AI, której szybki rozwój wywołuje liczne pytania o etykę, bezpieczeństwo i wpływ na społeczeństwo.

Warto zwrócić uwagę na to, że podejście Singapuru do AI może stanowić model nie tylko dla krajów o podobnej wielkości i charakterystyce, ale także dla państw rozwijających się, które starają się wykorzystać potencjał nowych technologii w sposób kontrolowany i odpowiedzialny. Zainteresowanie tym modelem wzrosło zwłaszcza wśród państw ASEAN, które przyjęły dokumenty wytyczające zasady zarządzania AI i etyki technologii. Singapur, dzięki swojej roli w regionie, ma potencjał wpływania na rozwój globalnych standardów i regulacji w tym zakresie.

Przyjęte podejście może jednak nie być łatwe do zaadoptowania w krajach o innych tradycjach politycznych i ekonomicznych. W szczególności większe państwa, z bardziej złożoną strukturą społeczną i polityczną, mogą napotkać trudności w implementacji modelu opartego na konsensusie, który w Singapurze może być skuteczny dzięki specyficznemu charakterowi rządu i stosunkowo niewielkiej liczbie ludności. Również, różnice w poziomie zaawansowania technologicznego oraz w gotowości społeczeństw do zaakceptowania nowych technologii mogą wpłynąć na sposób, w jaki będzie rozwijać się governance AI w innych krajach.

Singapur skutecznie stawia czoła wyzwaniom związanym z regulowaniem sztucznej inteligencji w kontekście generatywnej AI, jednak warto pamiętać, że jego podejście nie jest panaceum na wszystkie problemy. Inne kraje mogą potrzebować dostosować te zasady do swoich specyficznych warunków, kultur i potrzeb. W szczególności, kwestia odpowiedzialności użytkowników oraz dostawców usług, a także stosowanie jasnych standardów bezpieczeństwa i etyki, pozostaje kluczowym elementem, który należy rozważyć w każdym kontekście regulacyjnym.