Prawa do wizerunku, które chronią osoby przed nieautoryzowanym wykorzystaniem ich tożsamości w celach komercyjnych, stają się coraz bardziej złożonym zagadnieniem w kontekście rozwoju technologii sztucznej inteligencji. Przypadek generatywnych AI, które potrafią tworzyć dzieła takie jak piosenki, obrazy, filmy czy reklamy, w których wykorzystano wizerunki celebrytów, stawia przed prawodawcami i sądami pytania dotyczące zakresu ochrony tych praw. W tej rzeczywistości zjawisko, jakim jest "transformacyjne" wykorzystanie wizerunku, stanowi centralny punkt dyskusji, łącząc elementy prawa cywilnego i praw własności intelektualnej.

Problem pojawia się w momentach, gdy generatywna sztuczna inteligencja tworzy dzieła, które mogą wykorzystywać wizerunki znanych osób – np. twarze, głosy czy styl artystyczny – w sposób, który nie jest bezpośrednio związany z reklamą czy sprzedażą towarów i usług. Choć niektóre przepisy prawa cywilnego mogą wyłączyć takie wykorzystanie spod ochrony prawa do wizerunku, to prawo wspólnotowe (czyli prawo precedensowe) uznaje za nielegalne każde nieautoryzowane wykorzystanie tożsamości danej osoby w celach komercyjnych, chyba że ma miejsce w ramach tzw. "użycia transformacyjnego".

Użycie transformacyjne, podobnie jak w prawie autorskim, polega na tym, że przekształcony materiał, np. wizerunek celebryty, staje się częścią nowej twórczości, która stanowi oryginalny wkład twórczy autora. W tej sytuacji sądy często rozpatrują, czy cele pracy obciążają wizerunek osoby użytej w sposób, który stał się podstawą oryginalnego przekazu, czy też jest to tylko komercyjna eksploatacja wizerunku, mająca na celu wyłącznie zysk. W przypadku, gdy praca ma charakter krytyczny, parodystyczny lub edukacyjny, sądy w wielu przypadkach mogą uznać, że takie działanie nie narusza prawa do wizerunku.

Równocześnie, stworzenie nowych dzieł artystycznych na podstawie AI może napotkać trudności związane z ochroną praw autorskich. Prawo autorskie, jak wskazuje amerykańska ustawa o prawie autorskim, precyzyjnie reguluje, jakie prawa przysługują twórcom w przypadku dzieł stworzonych przez maszyny. Jeśli osoba wykorzystująca AI do generowania dzieł nie może wykazać, że jej wkład twórczy spełnia wymagania "transformacyjnego" wykorzystania, sądy mogą stwierdzić, że działania te są prewencyjnie objęte ochroną praw autorskich, nawet jeśli nie wiązały się z bezpośrednią próbą naruszenia prawa do wizerunku. Z tego powodu prawo do wizerunku może zostać skutecznie obalone przez przepisy dotyczące praw autorskich, szczególnie jeśli chodzi o przypadki tworzenia nowych dzieł, które są uznawane za parodię, krytykę polityczną lub niekomercyjny komentarz.

Wreszcie, kwestie odpowiedzialności za treści generowane przez użytkowników AI pozostają niejasne. Dostawcy usług internetowych, zgodnie z ustawą 47 USC § 230, mają immunitet przed odpowiedzialnością za treści udostępniane przez użytkowników ich platform. Chociaż przepisy te zostały przyjęte w kontekście komunikacji internetowej i moderowania treści, ich zastosowanie do roszczeń związanych z prawem do wizerunku nie zostało jeszcze w pełni określone. Z jednej strony, przepisy te mogą oferować ochronę dostawcom AI przed roszczeniami o naruszenie prawa do wizerunku, ale z drugiej strony, wyjątki dotyczące praw własności intelektualnej mogą prowadzić do zmiany tego podejścia. Spór dotyczy tego, czy prawo do wizerunku jest częścią prawa własności intelektualnej, czy też traktowane jest jako odrębna kategoria prawa do prywatności.

Dlatego w kontekście rozwoju AI i generatywnego przetwarzania danych, konieczne staje się znalezienie równowagi pomiędzy ochroną osobistych praw jednostki do jej tożsamości i wizerunku a wolnością twórczą oraz rozwojem nowych form ekspresji, które mogą wykorzystywać te same dane w sposób, który jest daleki od komercyjnego nadużycia. W obliczu dynamicznego rozwoju technologii, istotne będzie stworzenie nowych norm prawnych, które będą elastycznie reagować na zmieniające się realia społeczne i technologiczne, nie naruszając jednocześnie podstawowych zasad ochrony prywatności i praw twórców.

Jak sztuczna inteligencja może wspierać analizę polityk prywatności i warunków użytkowania w kontekście ochrony danych?

Współczesne prawo ochrony danych osobowych, zwłaszcza w kontekście Ogólnego Rozporządzenia o Ochronie Danych Osobowych (RODO), wymaga skrupulatnej analizy polityk prywatności (PP) oraz warunków świadczenia usług (ToS). Tradycyjne podejście do tych dokumentów, oparte na ludzkim odczycie i interpretacji, stawia przed konsumentami wiele trudności. Polityki te są często zbyt długie, zawiłe, pełne prawniczego żargonu, a przez to trudne do zrozumienia. Stąd pojawia się konieczność wykorzystania nowych narzędzi, takich jak modele językowe oparte na sztucznej inteligencji, które mogą przełamać dotychczasowy impas.

Sztuczna inteligencja, a w szczególności modele językowe (LLM - Large Language Models), otwierają przed nami nowe możliwości w zakresie przetwarzania, analizowania oraz generowania dokumentów prawnych. Dzięki swojej zdolności do przetwarzania dużych zbiorów tekstów i udzielania precyzyjnych odpowiedzi na pytania, LLMs mogą wspierać obywateli oraz organizacje w monitorowaniu praktyk rynkowych i danych.

Pierwsza z zastosowanych metod polega na pozyskiwaniu informacji z dokumentów, które są istotne dla konsumentów, takich jak polityki prywatności. Tradycyjnie, ludzie mieli problem z odczytaniem i zrozumieniem treści tych dokumentów. LLMs mogą przeanalizować cały tekst, zidentyfikować odpowiednie informacje i odpowiedzieć na konkretne pytania użytkownika, dzięki czemu stają się one bardziej przystępne. Eksperyment przeprowadzony w ramach projektu CLAUDETTE udowodnił, że takie modele mogą skutecznie odpowiadać na pytania dotyczące treści polityki prywatności, nawet w przypadku bardzo szczegółowych zapytań. Testowano wtedy, czy modele ChatGPT (wersje 3.5 i 4) są w stanie odpowiedzieć na sześć pytań związanych z polityką prywatności hipotetycznej firmy zajmującej się dostarczaniem jedzenia. Pytania dotyczyły m.in. rodzajów danych osobowych, celu ich przetwarzania, odbiorców tych danych oraz sposobu udzielania zgody przez użytkowników.

Wyniki eksperymentu pokazały, że LLMs mogą skutecznie wyciągać odpowiedzi na pytania zadawane przez konsumentów, nawet jeśli polityka prywatności jest pełna szczegółowych, ale złożonych informacji. To może rozwiązać problem, który dotyczy większości konsumentów: polityki są albo zbyt ogólne, albo zbyt trudne do zrozumienia, aby w pełni zrozumieć warunki przetwarzania danych osobowych. LLMs umożliwiają więc wyodrębnienie tylko tych informacji, które są istotne dla użytkownika, eliminując konieczność przeszukiwania całego dokumentu.

Drugim obszarem, w którym LLMs mogą mieć zastosowanie, jest ocena prawna polityk prywatności i warunków użytkowania. W tym przypadku modele językowe mogą pomóc w identyfikowaniu klauzul, które są niezgodne z prawem lub niesprawiedliwe z perspektywy konsumentów. W ramach procesu oceny prawnej, LLMs mogłyby zostać przeszkolone, aby rozpoznać nieuczciwe lub niezgodne z prawem klauzule, takie jak te ograniczające odpowiedzialność czy określające jurysdykcję w sposób niekorzystny dla konsumenta. W tym celu model musiałby zostać dostosowany do specyfiki prawa ochrony danych osobowych oraz innych regulacji prawnych.

W ramach tego procesu można wyróżnić trzy kluczowe etapy. Pierwszym jest dostosowanie modelu (fine-tuning), które ma na celu naukę rozpoznawania specyficznych wzorców w języku prawniczym i dokładnego zrozumienia struktury dokumentów prawnych. Drugim krokiem jest precyzyjne określenie, co stanowi klauzulę (nie)zgodną z prawem, a trzecim aktywacja modelu przy użyciu odpowiednich wskazówek w formie zapytań, które pozwolą na ocenę poszczególnych postanowień. Dzięki temu możliwe stanie się szybsze i bardziej precyzyjne wykrywanie potencjalnych problemów w politykach prywatności, co mogłoby wspomóc zarówno prawników, jak i konsumentów w ochronie ich praw.

Pomimo ogromnego potencjału, jakim dysponują modele językowe, należy również zauważyć pewne wyzwania związane z ich stosowaniem. Jednym z głównych problemów jest zjawisko „halucynacji” w AI, kiedy model generuje odpowiedzi, które nie mają podstaw w dostarczonym dokumencie. Na przykład, może pojawić się sytuacja, w której model dostarcza dodatkowe informacje, które nie są zawarte w polityce prywatności, lub które są nieistniejące w rzeczywistości. Aby uniknąć takich błędów, konieczne jest staranne dopracowanie zapytań i dostosowanie ich do specyficznych wymagań prawnych.

Również istotnym wyzwaniem jest kwestia poprawności przetwarzania języka naturalnego, zwłaszcza w kontekście wielojęzycznych dokumentów. RODO nakłada na przedsiębiorców obowiązek dostosowania polityk prywatności do języków różnych grup konsumentów, a LLMs, mimo ich zaawansowania, mogą napotkać trudności w analizowaniu wielojęzycznych treści w sposób spójny i zgodny z regulacjami prawymi obowiązującymi w różnych krajach.

W związku z tym, choć technologia ta oferuje wiele korzyści, jej stosowanie wymaga dalszych badań i testów, zwłaszcza w kontekście kontroli jakości generowanych odpowiedzi oraz sprawdzania, jak modele radzą sobie z różnymi rodzajami dokumentów i zapytań.

Jakie zasady rządzą stosowaniem generatywnej sztucznej inteligencji w administracji publicznej?

Zgodnie z różnymi rozporządzeniami wykonawczymi, które zostały wydane przez władze stanowe i federalne w Stanach Zjednoczonych, wprowadzenie zasad zarządzania technologiami generatywnej sztucznej inteligencji (GenAI) w administracji publicznej staje się kluczowe. Różne stanowe rozporządzenia wykonawcze nakładają obowiązki na instytucje rządowe dotyczące oceny skutków technologii na społeczeństwo, zapewnienia etycznego korzystania z AI oraz wprowadzenia niezbędnych regulacji, aby zapewnić bezpieczeństwo i odpowiedzialność publicznych usług.

W 2023 roku różne stany, takie jak New Jersey, Oklahoma, Kalifornia czy Oregon, wydały własne rozporządzenia wykonawcze regulujące wykorzystanie generatywnej sztucznej inteligencji. Należy zaznaczyć, że każde z tych rozporządzeń kładzie nacisk na odpowiedzialność publiczną, oceny skutków technologicznych dla społeczności wrażliwych, a także na edukację pracowników administracji publicznej, którzy mają być przeszkoleni w zakresie wykorzystywania narzędzi opartych na sztucznej inteligencji. Celem takich działań jest zapewnienie, by wprowadzenie AI w sektorze publicznym odbywało się w sposób przemyślany i zgodny z interesem publicznym, nie zagrażając prawom obywatelskim i prywatności.

Przykładem takiego podejścia jest rozporządzenie wykonawcze stanu New Jersey, które nakłada na biuro technologii informacyjnej obowiązek opracowania polityki zarządzania oraz wdrożenia narzędzi umożliwiających lepsze świadczenie usług publicznych z wykorzystaniem sztucznej inteligencji. Obejmuje ono także rozwój programów szkoleniowych dla urzędników, co jest kluczowe, aby wykorzystanie GenAI odbywało się w sposób odpowiedzialny i świadomy ryzyk, jakie wiążą się z tego typu technologią.

Należy także podkreślić, że zarządzanie generatywną sztuczną inteligencją wymaga uwzględnienia wyzwań związanych z prywatnością, ochroną danych osobowych i odpowiedzialnością za skutki działań sztucznej inteligencji. Na przykład, w 2023 roku Agencja Ochrony Środowiska w USA zabroniła swoim pracownikom korzystania z narzędzi generatywnej AI do celów służbowych z powodu obaw związanych z prywatnością i bezpieczeństwem. Z drugiej strony, Departament Obrony testował narzędzia generatywnej AI do wspomagania procesu kontraktowego, co pozwoliło na szybsze przeprowadzanie procedur zakupu w rządzie federalnym. Ten przykład pokazuje, jak różne agencje rządowe podchodzą do kwestii regulowania i wykorzystywania AI, zależnie od ich specyfiki i potrzeb.

W ramach rozporządzeń wykonawczych wprowadzono także wytyczne dotyczące odpowiedzialności za wykorzystanie sztucznej inteligencji w administracji publicznej. Przykładem jest wytyczna przygotowana przez Kancelarię Ochrony Pracowników (OPM) w USA, która wskazuje, jak należy stosować GenAI w ramach administracji publicznej. Wśród zasad zaleca się m.in. unikanie wprowadzania informacji niepublicznych do interfejsów AI, zapewnienie ludzkiej odpowiedzialności za działania generowane przez AI, weryfikację wszelkich materiałów wygenerowanych przez AI, a także stosowanie odpowiednich zabezpieczeń przed potencjalnie szkodliwymi, błędnymi lub mylącymi wynikami.

Jednakże, mimo że generatywna sztuczna inteligencja jest uznawana za technologię potencjalnie rewolucyjną, niezbędne jest podejście oparte na minimalizacji ryzyka, zwłaszcza gdy jej stosowanie może wpłynąć na prawa i bezpieczeństwo obywateli. Celem jest nie tylko zwiększenie efektywności administracji, ale także zapobieganie poważnym zagrożeniom związanym z nadużywaniem technologii, które mogłyby naruszyć prywatność, prowadzić do dyskryminacji lub wpłynąć na decyzje podejmowane przez władze publiczne w sposób nieprzewidywalny lub nieuczciwy.

Ważne jest również, aby prawo i regulacje nie pozostawały w tyle za rozwojem technologicznym. Dlatego w wielu przypadkach wprowadzenie regulacji wymaga nieustannego monitorowania i aktualizowania wytycznych, aby zapewnić, że władze publiczne nie tylko nadążają za postępem technologicznym, ale także skutecznie go kontrolują. W tym kontekście, odpowiednia edukacja i szkolenie urzędników w zakresie sztucznej inteligencji stanowi kluczowy element zapewnienia skutecznego wdrażania regulacji.

Z perspektywy zarządzania ryzykiem, wszystkie te dokumenty wskazują na potrzebę wdrożenia podejścia zapobiegawczego. Rządy muszą przewidywać potencjalne zagrożenia i odpowiednio na nie reagować, zanim pojawią się poważne konsekwencje. W związku z tym wprowadzenie narzędzi oceny ryzyka, jak np. ramy zarządzania ryzykiem opracowane przez Narodowy Instytut Standardów i Technologii (NIST), staje się niezbędne. Technologie generatywnej sztucznej inteligencji, mimo swojego ogromnego potencjału, muszą być stosowane w sposób odpowiedzialny, aby nie stały się narzędziem do nadużyć.

Jakie wyzwania stawia przed nami rozwój sztucznej inteligencji w kontekście odpowiedzialności prawnej?

Sztuczna inteligencja (SI) zdominowała współczesną rzeczywistość, wywołując zarówno fascynację, jak i niepokój. Jej dynamiczny rozwój, szczególnie w obszarze decyzji podejmowanych przez algorytmy oraz tworzenia treści, rodzi liczne pytania o ryzyka związane z jej użytkowaniem. Wraz z tymi technologicznymi przełomami rośnie potrzeba stworzenia odpowiednich ram prawnych, które pozwolą zrównoważyć korzyści płynące z jej rozwoju z potencjalnymi zagrożeniami, zarówno dla jednostek, jak i dla społeczeństwa. Unia Europejska, będąca jednym z liderów w zakresie regulacji sztucznej inteligencji, dostrzega w tej kwestii kluczowe wyzwania, szczególnie w obszarze odpowiedzialności za szkody wyrządzone przez systemy SI.

Regulacja sztucznej inteligencji w UE jest wynikiem rosnącej świadomości, że technologia ta nie jest neutralna i jej rozwój wiąże się z poważnymi konsekwencjami prawnymi. Działania legislacyjne, takie jak AI Act, stanowią próbę wdrożenia systemu, który zabezpieczy interesy konsumentów oraz użytkowników SI, a jednocześnie stworzy przestrzeń do innowacji. Jednakże AI Act nie reguluje w pełni kwestii odpowiedzialności za szkody wyrządzone przez sztuczną inteligencję. W praktyce oznacza to, że popełnione przez systemy AI błędy mogą wymagać dostosowania istniejących przepisów dotyczących odpowiedzialności cywilnej.

Podstawowym problemem jest to, że w przypadku szkód wyrządzonych przez AI, ocena odpowiedzialności może być utrudniona z powodu złożoności tych systemów. Często nie jest jasne, czy do powstania szkody przyczynił się błąd w algorytmie, niewłaściwe dane, problemy związane z bezpieczeństwem, czy też błąd ludzki. To sprawia, że klasyczne mechanizmy odpowiedzialności, oparte na zasadach odpowiedzialności deliktowej czy na zasadzie winy, stają się trudne do zastosowania. W takim kontekście, UE zaczęła analizować, czy istniejące przepisy dotyczące odpowiedzialności cywilnej są wystarczająco adekwatne i skuteczne w kontekście AI.

Unia Europejska, biorąc pod uwagę złożoność sztucznej inteligencji, rozpoczęła przegląd istniejących przepisów dotyczących odpowiedzialności cywilnej. W 2022 roku, w ramach tego procesu, zaprezentowano dwa istotne projekty legislacyjne: Dyrektywę o odpowiedzialności cywilnej za szkody wyrządzone przez sztuczną inteligencję (AI Liability Directive, AILD) oraz nowelizację Dyrektywy o odpowiedzialności za produkty wadliwe (Revised Product Liability Directive). Choć projekt dyrektywy AILD został ostatecznie wycofany z powodu braku porozumienia, wskazuje to na rosnącą potrzebę doprecyzowania zasad odpowiedzialności prawnej w tym obszarze.

W praktyce, systemy sztucznej inteligencji mogą powodować szkody na wiele sposobów: od wadliwego zaprojektowania algorytmu, przez błędne dane, aż po ataki hakerskie czy błędy w procesie uczenia się. W kontekście tych zagrożeń pojawia się pytanie, czy aktualne przepisy dotyczące odpowiedzialności cywilnej są wystarczająco skuteczne w ochronie poszkodowanych. Zrozumienie, w jaki sposób prawo powinno reagować na te nowatorskie wyzwania, jest kluczowe dla budowania zaufania społecznego do sztucznej inteligencji oraz dla zapewnienia jej bezpiecznego i sprawiedliwego wykorzystania na rynku.

Kwestie te stają się szczególnie istotne w kontekście ogólnoeuropejskiej polityki cyfrowej, której częścią jest dążenie do stworzenia bezpiecznego, niezawodnego i wysokiej jakości środowiska dla rozwoju technologii SI. Dokumenty, takie jak Biała Księga na temat sztucznej inteligencji oraz Raport na temat bezpieczeństwa i odpowiedzialności związanej z AI, Internetem Rzeczy (IoT) i robotyką, stanowią kamienie milowe na drodze do uregulowania tych kwestii.

Kluczowym aspektem, który należy wziąć pod uwagę, jest nie tylko sama kwestia odpowiedzialności za szkody, ale także to, jak systemy odpowiedzialności mogą wpłynąć na rozwój technologii. Odpowiednie przepisy muszą z jednej strony gwarantować poszkodowanym sprawiedliwość, a z drugiej – nie mogą hamować innowacji. Wprowadzenie zbyt restrykcyjnych zasad odpowiedzialności mogłoby zniechęcić przedsiębiorstwa do inwestowania w rozwój nowych technologii. Z kolei brak odpowiednich regulacji może prowadzić do nadużyć i negatywnych konsekwencji dla użytkowników i konsumentów.

Ważne jest również, aby pamiętać, że technologia sztucznej inteligencji nie jest jednolita. W zależności od jej zastosowania, wprowadzanie odpowiednich ram prawnych może wymagać uwzględnienia specyficznych różnic. AI używana w medycynie, transporcie czy finansach wiąże się z różnymi rodzajami ryzyka i wyzwaniami prawnymi. Przepisy powinny być na tyle elastyczne, by można było je stosować w różnych sektorach, a jednocześnie na tyle precyzyjne, by skutecznie odpowiadały na specyficzne potrzeby tych branż.

Kluczowym elementem dalszych prac legislacyjnych powinna być również kwestia transparentności algorytmów. Systemy sztucznej inteligencji, które działają w sposób nieprzejrzysty, mogą prowadzić do nieświadomego podejmowania decyzji, które w konsekwencji prowadzą do szkód. Z tego względu rozwój przepisów musi uwzględniać konieczność zapewnienia, że systemy te będą mogły być w pełni audytowane i kontrolowane przez odpowiednie organy, co pozwoli na szybsze identyfikowanie błędów i zapobieganie ich powstawaniu.

Jakie wyzwania stoją przed regulacjami dotyczącymi AI i jak wpływają na rozwój technologii w Chinach?

Zgodnie z przepisami Regulaminu Zarządzania Głęboką Syntezą, zawartymi w Artykule 16, dostawcy usług muszą wykorzystywać środki techniczne w celu dodania subtelnych znaków wodnych, które nie będą wpływać na doświadczenie użytkownika. Z drugiej strony, Artykuł 17 przewiduje, że w przypadkach, gdy usługi głębokiej syntezy mogą prowadzić do "zamieszania lub błędnej identyfikacji publicznej", użytkownicy muszą być informowani o tym za pomocą widocznych oznaczeń. Warto jednak zauważyć, że nie ma dokładnej definicji, co oznacza "zamieszanie" lub "błędną identyfikację". Część komentatorów zauważyła, że tak szerokie podejście może wpłynąć na codzienne korzystanie przez społeczeństwo z usług generatywnej sztucznej inteligencji.

Na przykład, Krajowy Komitet ds. Standardyzacji Bezpieczeństwa Informacji wydał wytyczne techniczne dotyczące różnych metod znakowania treści przez dostawców usług generujących treści przy użyciu AI. Zgodnie z tymi wytycznymi, znakowanie ukryte nie powinno być bezpośrednio dostrzegalne przez użytkownika, lecz możliwe do wydobycia przy użyciu odpowiednich środków technicznych. Z kolei znakowanie jawne polega na wstawieniu semi-przezroczystego etykiety na interfejsie użytkownika lub tle treści. Oznaczenia te stanowią obowiązek głównie dostawcy usług, który musi zadbać o ich odpowiednie zamieszczenie, podczas gdy użytkownicy są zobowiązani jedynie do tego, by ich nie uszkadzać ani nie usuwać.

Regulacje wprowadzono stosunkowo szybko, ale pozostawiają one wiele miejsca na interpretację, a także na dalszy rozwój szczegółowych zasad i wytycznych. Obecnie wiele przepisów jest ogólnych i nie zawiera szczegółowych informacji operacyjnych, co sprawia, że odpowiednie organy nadzorujące muszą podejmować decyzje na podstawie konkretnych okoliczności. Należy podkreślić, że niektóre z tych regulacji są wstępne i wymagają dalszej precyzji, w tym także kwestii związanych z dokładnością i wiarygodnością generowanych treści, czy systemami zgłaszania skarg przez użytkowników.

Chociaż przepisy dotyczą głównie obowiązków administracyjnych dla dostawców usług, istnieje luka w odniesieniu do zobowiązań cywilnych. Regulacje nie precyzują, jak wyglądałaby odpowiedzialność cywilna w przypadkach, kiedy generowana treść wyrządza szkodę. W odróżnieniu od Unii Europejskiej, która aktywnie rozwija przepisy dotyczące odpowiedzialności cywilnej za technologie AI, chińskie prawo nie uwzględnia na razie kwestii odszkodowań ani dowodów w sprawach cywilnych związanych z technologiami AI. Jest to szczególnie istotne, biorąc pod uwagę autonomię i nieprzejrzystość systemów sztucznej inteligencji.

Również istotnym zagadnieniem jest odpowiedzialność dostawców usług, którzy są traktowani jako "producenci treści". Wszelkie obowiązki związane z bezpieczeństwem treści leżą głównie po stronie dostawców, jednak użytkownicy również aktywnie uczestniczą w tworzeniu i rozpowszechnianiu treści, a ich rola w tym procesie nie jest odpowiednio uwzględniona w regulacjach. Stąd potrzeba wprowadzenia bardziej wyważonego systemu odpowiedzialności, który obejmowałby również odpowiedzialność użytkowników za swoje działania w kontekście generowania treści.

Warto również zauważyć, że regulacje, mimo że koncentrują się głównie na obowiązkach administracyjnych dostawców usług, nie uwzględniają w pełni odpowiedzialności cywilnej. Potrzebna jest zmiana podejścia, która pozwoli na bardziej precyzyjne określenie odpowiedzialności zarówno dostawców, jak i użytkowników, a także wprowadzenie rozwiązań zapewniających odpowiednią ochronę przed ryzykiem związanym z generowaniem treści za pomocą AI.

Regulacje te, podobnie jak inne przepisy dotyczące zarządzania technologiami AI, powinny być traktowane jako wstępne, a ich pełna implementacja będzie wymagała dalszego rozwoju i uzupełnienia o szczegółowe wytyczne. W przeciwnym razie ryzyko niekontrolowanego rozwoju technologii AI, który prowadzi do nieuczciwego wykorzystywania generowanych treści, pozostanie poważnym zagrożeniem.