W ostatnich latach technologia sztucznej inteligencji, a szczególnie przetwarzanie języka naturalnego (NLP), zyskała na znaczeniu w analizie tekstów prawnych. Jednym z najbardziej obiecujących zastosowań AI jest automatyczne streszczanie dokumentów, co staje się szczególnie cenne w kontekście przetwarzania dużych zbiorów dokumentów prawnych, takich jak orzeczenia sądowe czy umowy. Przykładem może być rosnąca liczba badań i projektów, które wykorzystują modele oparte na dużych językowych modelach (LLM) do automatycznego streszczania dokumentów prawnych, co umożliwia szybsze i bardziej efektywne przetwarzanie informacji.
Wyniki takich badań pokazują, że LLM (takie jak GPT-4 czy BERT) wykazują dużą skuteczność w generowaniu streszczeń abstrakcyjnych, w tym preferowanych przez prawników streszczeń opartych na zagadnieniach (issue-based summaries), które koncentrują się na głównych punktach sporu prawnego. Takie podejście nie tylko zwiększa efektywność pracy prawników, ale także pomaga w zapewnieniu równości dostępu do sprawiedliwości, umożliwiając osobom, które nie są ekspertami, lepsze zrozumienie trudnych treści prawnych.
NLP znajduje także zastosowanie w analizie orzeczeń sądowych, zwłaszcza w systemach prawa common law. Modele AI mogą nie tylko streszczać te dokumenty, ale również klasyfikować je, wskazując na podobieństwa w porównaniu do wcześniejszych orzeczeń. Istnieją również badania, które dowodzą, że LLM mogą być skuteczne w przewidywaniu wyników spraw sądowych, takich jak przewidywanie wyników orzeczeń sądowych czy przewidywanie stanowisk legislacyjnych w sprawach dotyczących różnych przepisów. Takie modele mogą wspierać proces podejmowania decyzji, choć ich skuteczność w przewidywaniu wyroków bywa ograniczona, a same modele muszą być stale monitorowane pod kątem błędów związanych z uprzedzeniami, szczególnie w kontekście płciowym czy religijnym.
Innym istotnym aspektem jest wykorzystywanie NLP w kontekście ochrony konsumentów i danych osobowych. Współczesne regulacje dotyczące prywatności, takie jak GDPR, nakładają na firmy obowiązki związane z przetwarzaniem danych osobowych. AI staje się narzędziem, które może wspierać obywateli w walce z nadużyciami związanymi z wykorzystaniem ich danych. Na przykład, narzędzia oparte na NLP mogą pomagać konsumentom w analizie dokumentów prawnych, które zostały im przekazane przez firmy (takich jak polityki prywatności czy umowy użytkownika). Poprzez automatyczne streszczanie lub analizowanie treści, AI może wskazywać kluczowe informacje, które mogą być trudne do zauważenia przez przeciętnego użytkownika, a tym samym umożliwiać bardziej świadome podejmowanie decyzji.
W kontekście takich narzędzi, istotnym wyzwaniem jest zapewnienie, aby technologie te były dostępne i zrozumiałe dla użytkowników. Istnieje potrzeba stworzenia systemów, które będą mogły przetwarzać informacje w sposób łatwy do zrozumienia, jednocześnie zachowując pełną zgodność z obowiązującymi przepisami prawnymi. Można to osiągnąć poprzez integrację technologii NLP z narzędziami edukacyjnymi lub systemami doradztwa prawnego, które pomagają konsumentom lepiej zrozumieć i ocenić dokumenty prawne.
Ponadto, modele oparte na AI, zwłaszcza te wykorzystywane do generowania tekstów prawnych, muszą być stale testowane pod kątem dokładności i zgodności z obowiązującym prawem. Przykładem jest projekt PRODiGIT, który bada efektywność LLM w kontekście streszczeń przypadków prawnych w systemie prawa. Kluczowe jest, aby systemy te były w stanie generować teksty, które nie tylko spełniają wymagania formalne, ale także są prawdziwe i nie zawierają błędów, które mogłyby prowadzić do nieporozumień w interpretacji prawa.
W obliczu tych wyzwań, technologia AI oferuje jednak ogromny potencjał w zwiększeniu efektywności pracy w obszarze prawa, zarówno w kontekście praktycznym, jak i edukacyjnym. Modele oparte na NLP mogą znacznie poprawić dostęp do wiedzy prawnej, a także wzmocnić ochronę konsumentów, umożliwiając im skuteczniejszą interakcję z rynkiem i lepszą ochronę ich praw.
Jakie zmiany w przepisach prawa dotyczące technik manipulacyjnych w kontekście sztucznej inteligencji są ważne?
W dniu 14 listopada 2018 roku Parlament Europejski i Rada Unii Europejskiej przyjęły zmiany do Dyrektywy 2010/13/UE w sprawie koordynacji pewnych przepisów prawnych, regulacyjnych i administracyjnych w państwach członkowskich dotyczących świadczenia usług medialnych audiowizualnych. Zmiany te miały na celu dostosowanie przepisów do zmieniającej się rzeczywistości rynkowej, w tym rozwoju technologii sztucznej inteligencji (SI). Choć samo pojęcie „manipulacji subliminalnych” pojawiło się w kontekście tych zmian, jego definicja pozostała niejasna, co wywołało poważne wątpliwości.
Subliminalne techniki, czyli takie, które wykorzystują bodźce sensoryczne, jak obrazy, teksty lub dźwięki, poniżej lub powyżej progu świadomej percepcji, zostały wprowadzone do dyskusji jako potencjalne narzędzie manipulacji w ramach nowych regulacji prawnych. Jednakże, jak zauważono w uzasadnieniu dyrektywy, nie ma jednoznacznej definicji „subliminalności” w literaturze, ani w prawodawstwie Unii Europejskiej. W przypadku wiadomości, które byłyby zakodowane w filmach przez ułamki sekundy (np. logo Coca-Coli w filmach), pojawia się wątpliwość, czy takie techniki w ogóle mieszczą się w granicach nowych regulacji. Należy zauważyć, że nie wszystkie techniki manipulacyjne powinny być traktowane jako subliminalne, ponieważ mają one różną funkcję i stopień oddziaływania na odbiorcę.
Zmiana przepisów wprowadza rozróżnienie między manipulacją a oszustwem, co może mieć istotne znaczenie w przypadku zastosowań sztucznej inteligencji. W nowej wersji Artykułu 5(1)(a) podkreśla się, że technika manipulacyjna nie może jedynie opierać się na subliminalności, lecz także na wykorzystywaniu mechanizmów, które zakłócają zdolność jednostki do podjęcia świadomej decyzji. W kontekście AI, manipulacja opiera się na wykorzystaniu skrótów poznawczych w umyśle człowieka, które obniżają jego zdolność do tworzenia świadomych, samodzielnych myśli. W przykładzie dotyczącym e-papierosów, decyzja nie jest wynikiem braku informacji, ale raczej wynikiem ukrytego wpływu na proces decyzyjny, wykorzystującego preferencje i automatyczne mechanizmy myślenia. W takim przypadku mówimy o szkodach, które mogą być nie tylko fizyczne, ale również psychiczne, ponieważ sztuczna inteligencja może wpływać na nasze postawy i decyzje bez pełnej świadomości tego wpływu.
Nowa formuła Artykułu 5 wprowadza także trzy dodatkowe wymagania, które wymagają szczególnej uwagi. Po pierwsze, technika manipulacyjna musi wpływać na zdolność do podjęcia świadomej decyzji; po drugie, musi istnieć związek przyczynowy między techniką manipulacyjną a decyzją, którą osoba podjęłaby inaczej; po trzecie, technika ta musi powodować poważną szkodę. Próbując zbadać, jak manipulacja wpływa na decyzję, nie wystarczy jedynie określić, że osoba była nieświadoma manipulacji. Konieczne będzie zrozumienie głębszego mechanizmu, w którym decyzje są podejmowane pod wpływem nieuświadomionych bodźców, co stanowi wyzwanie dowodowe i interpretacyjne w kontekście prawa.
Zasady dotyczące manipulacji w odniesieniu do sztucznej inteligencji są więc złożone i trudne do jednoznacznego zaklasyfikowania. Po pierwsze, manipulacja nie musi wiązać się tylko z brakiem informacji, ale także z zakłócaniem zdolności do podejmowania jakiejkolwiek decyzji. Po drugie, wymóg istnienia związku przyczynowego pomiędzy manipulacją a decyzją może stanowić problem w praktyce, gdyż rekonstruowanie procesu podejmowania decyzji w celu wykazania wpływu manipulacji może być niezwykle trudne. Z kolei wprowadzenie nowego wymogu dotyczącego szkodliwości manipulacji w kontekście psychologicznym, a nie tylko fizycznym, może budzić kontrowersje i wątpliwości co do jego zakresu i definicji.
Równocześnie pojawia się kwestia rozróżnienia manipulacji związanej z systemami sztucznej inteligencji, od tradycyjnych technik dezinformacji. W szczególności manipulacje, które polegają na wykorzystaniu nieuświadomionych skrótów myślowych (np. w reklamach, sprzedaży online) mogą prowadzić do równie silnych, choć mniej namacalnych, szkód niż manipulacje związane z klasycznymi technikami subliminalnymi. Współczesne technologie, w tym te oparte na sztucznej inteligencji, otwierają nowe przestrzenie do zrozumienia, jak mogą one wpływać na nasze decyzje, i na ile mamy kontrolę nad tym wpływem.
Przyjęte zmiany prawne nie są wystarczające, by w pełni pokryć zakres oddziaływań technologii AI na decyzje konsumenckie. Nie wszystkie manipulacje oparte na AI można uznać za subliminalne, ale mogą one wciąż wpływać na decyzje użytkowników w sposób subtelny, ale bardzo skuteczny. W tym kontekście kluczowym elementem jest to, jak daleko technologiczne rozwiązania mogą ingerować w naszą wolność decyzyjną bez wywołania jawnej szkody.
Czym jest generatywna sztuczna inteligencja i jakie niesie ze sobą wyzwania?
Sztuczna inteligencja (SI) jest jednym z najbardziej niejednoznacznych i trudnych do zdefiniowania obszarów współczesnej technologii. Z praktycznego punktu widzenia, najczęściej spotykaną definicją jest zdolność maszyny do naśladowania ludzkich zachowań intelektualnych. Definicja ta jest użyteczna, ponieważ unika odniesień do technologii, które podlegają szybkiemu i ciągłemu rozwojowi. Ponadto, koncentrując się na wynikach, a nie na samej technologii, pozwala uniknąć pytań o to, czy maszyny naprawdę myślą czy są "inteligentne". W kontekście nowoczesnej generatywnej sztucznej inteligencji (GAI), ta definicja staje się szczególnie istotna. Generatywna SI, jak sama nazwa wskazuje, jest zdolna do generowania treści, które przypominają intelektualne wytwory ludzi – od zwykłej mowy po dzieła literackie czy sztukę.
Oczywiście, sztuczna inteligencja znajduje zastosowanie w wielu dziedzinach poza naśladownictwem ludzkiej inteligencji. Technologie SI są coraz częściej wykorzystywane do rozwiązywania konkretnych problemów w takich dziedzinach, jak diagnozowanie chorób, edukacja spersonalizowana, handel internetowy, zarządzanie ryzykiem czy wykrywanie oszustw w finansach. Również w Unii Europejskiej powstała regulacja prawna dotycząca sztucznej inteligencji – Akt o Sztucznej Inteligencji, który odnosi się do szerokiego zakresu zarówno zastosowań, jak i technologii sztucznej inteligencji. Zgodnie z tym aktem, system SI to „system oparty na maszynach, zaprojektowany do działania z różnymi poziomami autonomii, który może wykazywać adaptacyjność po wdrożeniu i który, dla celów wyraźnych lub domyślnych, wnioskuje, na podstawie otrzymanych danych wejściowych, jak generować wyniki, takie jak prognozy, treści, rekomendacje lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne”.
Wszystkie te definicje koncentrują się na rozróżnieniu dwóch głównych celów badań nad sztuczną inteligencją. Pierwszy z nich to dążenie do stworzenia tzw. sztucznej inteligencji ogólnej (AGI), która byłaby w stanie uczyć się i wykonywać intelektualne zadania na poziomie równym człowiekowi. Maszyny takie miałyby zdolność do rozwiązywania szerokiego wachlarza zadań – od gry w szachy po komponowanie poezji czy rozwiązywanie problemów prawnych. Mimo że AGI pozostaje wciąż jedynie aspiracją, jest to jeden z kluczowych punktów, w którym SI może stać się bardziej „ludzkie”. Tego rodzaju badania są jednak obciążone wieloma trudnościami, z których najistotniejsza to kwestia przyjmowania przez nas ludzi cech antropomorficznych. Istnieją także hipotezy dotyczące sztucznej inteligencji, która mogłaby stać się samoświadoma, świadoma czy czująca – temat kontrowersyjny, wymagający odrębnego rozważenia, które wykracza poza ramy tej książki.
Drugim głównym celem badań nad sztuczną inteligencją jest rozwój tzw. sztucznej inteligencji wąskiej (narrow AI), która jest projektowana do rozwiązywania specyficznych zadań wymagających ludzkiej inteligencji. Przykładem może być system AlphaGo, który może grać w grę Go na poziomie mistrza, ale poza tym nie wykonuje żadnych innych zadań. Takie podejście do sztucznej inteligencji okazało się niezwykle efektywne w rozwiązywaniu konkretnych problemów, takich jak rozpoznawanie obrazów czy diagnoza medyczna. W tym przypadku stosowane są algorytmy „uczenia maszynowego”, które opierają się na analizie dużych zbiorów danych.
Z technicznego punktu widzenia istnieją dwa główne podejścia do realizacji sztucznej inteligencji. Pierwszym z nich jest tzw. sztuczna inteligencja symboliczna, która reprezentuje wiedzę i procesy myślowe w formie symboli. Jest to podejście, które dominowało w badaniach nad sztuczną inteligencją od lat 50. do połowy lat 90. XX wieku. Choć zostało ono w dużej mierze wypierane przez nowsze technologie, wciąż ma swoje zastosowanie w takich systemach jak AlphaGo. Drugim podejściem jest sztuczna inteligencja statystyczna, która jest oparta na modelach statystycznych, analizujących dużą liczbę przypadków, aby przewidzieć lub podjąć decyzję w danej sytuacji. Takie podejście ma swoje korzenie w sukcesach głębokiego uczenia maszynowego, które napędza rozwój dzisiejszej generatywnej sztucznej inteligencji.
Generatywna sztuczna inteligencja ma długą historię sięgającą początków sztucznej inteligencji w latach 50. XX wieku, ale to w ostatnich latach, dzięki technologiom głębokiego uczenia, osiągnęła swoje apogeum. Dzięki wykorzystaniu sieci neuronowych generatywna SI jest w stanie produkować różnorodne formy twórczości intelektualnej, takie jak teksty, obrazy, muzykę czy kody komputerowe. Rewolucja w tej dziedzinie miała miejsce po wprowadzeniu tzw. transformatorów przez badaczy Google Brain w 2017 roku, co umożliwiło generowanie tekstu w językach naturalnych o niespotykanej dotąd jakości i wszechstronności.
Warto jednak pamiętać, że rozwój generatywnej sztucznej inteligencji niesie ze sobą szereg wyzwań, zwłaszcza w kontekście etycznym i prawnym. W miarę jak SI staje się coraz bardziej zaawansowana, pytania o jej wpływ na społeczeństwo, prywatność czy prawo stają się coraz bardziej palące. Co więcej, technologie takie jak generowanie tekstów czy obrazów mogą w przyszłości stanowić zagrożenie dla twórczości ludzkiej, a także wprowadzać problemy związane z prawami autorskimi, własnością intelektualną i odpowiedzialnością za treści tworzone przez maszyny.
Jakie jest miejsce Inicjatywy Human-Centred Open Code (HCoC) w regulacjach AI krajów G7?
Inicjatywa Human-Centred Open Code (HCoC) ma potencjał do integracji w systemach regulacyjnych państw członkowskich G7, które rozwijają swoje odpowiedzi prawne wobec zaawansowanych systemów sztucznej inteligencji (AI). Wiele z tych krajów planuje wprowadzenie nowych regulacji lub rewizję już istniejących ram prawnych dotyczących zarządzania AI, co stwarza przestrzeń do włączenia zasad i praktyk HCoC. Integracja ta może znacznie ułatwić interoperacyjność prawną między jurysdykcjami oraz spójność międzynarodową w zarządzaniu AI, jednocześnie wzmacniając ochronę praw człowieka, demokracji i praworządności.
Analiza obecnego stanu regulacji AI w krajach G7 ujawnia znaczące pokrywanie się kluczowych elementów regulacji tych państw z zasadami HCoC, co otwiera możliwości ich formalnego powiązania lub odniesienia. Kanada, Unia Europejska, Japonia, Wielka Brytania i Stany Zjednoczone stanowią w tym kontekście interesujący przekrój strategii legislacyjnych i podejść do zarządzania AI.
Kanada, choć opracowywała kompleksową ustawę o AI i danych (Bill C-27, Artificial Intelligence and Data Act, AIDA), napotkała na przeszkody legislacyjne w wyniku politycznych zmian, które tymczasowo zatrzymały jej postęp. Pomimo tego, kraj ten promuje również dobrowolny kodeks postępowania dla odpowiedzialnego rozwoju zaawansowanych systemów generatywnych AI.
Unia Europejska wyprzedza inne podmioty w ustanawianiu szczegółowych ram regulacyjnych, czego przykładem jest AI Act – prawo oparte na podejściu ryzyka, które wymaga tworzenia kodeksów postępowania dopasowanych do międzynarodowych standardów i zmieniającej się technologii.
Japonia przyjęła sektorowe i elastyczne podejście do regulacji, dążąc do maksymalizacji pozytywnych społecznych efektów AI, przy jednoczesnym uproszczeniu ponad 10 tysięcy „analogowych” przepisów wymagających tradycyjnych metod nadzoru. Japonia wykorzystuje również dobrowolne wytyczne AI dla biznesu, w których zintegrowano zasady HAIP (High-Integrity AI Principles), powstałe podczas jej prezydencji w G7.
Wielka Brytania rozwija zdecentralizowane, proinnowacyjne podejście oparte na wytycznych sektorowych i współpracy publiczno-prywatnej, nie ustanawiając na razie kompleksowego prawa AI. Wiodącym akcentem pozostają tam tradycyjne zasady takie jak bezpieczeństwo, transparentność i sprawiedliwość.
HCoC może pełnić rolę wspólnego punktu odniesienia i narzędzia koordynacji pomiędzy tymi różnorodnymi systemami regulacyjnymi. Wspólne ramy oparte na zasadach HCoC pozwalają na harmonizację przepisów bez konieczności pełnej unifikacji, co jest kluczowe w dynamicznie rozwijającym się obszarze AI. Włączenie tych zasad ułatwia międzynarodową współpracę, wymianę informacji i standaryzację praktyk, a także wzmacnia ochronę wartości demokratycznych i praw człowieka na globalnym poziomie.
Warto podkreślić, że sukces implementacji HCoC zależy od uwzględnienia lokalnych kontekstów prawnych i kulturowych, co pozwala na elastyczne dostosowanie ram regulacyjnych do specyfiki poszczególnych państw G7. Istotne jest, aby zasady HCoC nie pozostały jedynie deklaracjami, lecz znalazły praktyczne odzwierciedlenie w mechanizmach nadzoru, oceny ryzyka oraz wymogach transparentności wobec twórców i użytkowników AI.
Ponadto, należy rozumieć, że integracja takich inicjatyw jak HCoC wymaga ciągłego dialogu między państwami oraz międzysektorowej współpracy – od ustawodawców przez naukowców i przemysł po organizacje społeczne. To złożone środowisko wymaga stałego monitoringu rozwoju technologii i adaptacji regulacji do nowych wyzwań. W efekcie, ramy oparte na zasadach HCoC nie tylko budują spójność prawną, ale również wspierają rozwój odpowiedzialnej, etycznej i zrównoważonej sztucznej inteligencji, której wdrożenie ma służyć dobru społecznemu oraz poszanowaniu fundamentalnych praw.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский