Obecne warunki korzystania z modeli generatywnej sztucznej inteligencji (SI) obarczają użytkowników niemal całkowitym ryzykiem związanym z działaniem tych systemów, co stoi w sprzeczności z fundamentalnymi prawami do wolności wypowiedzi. Regulacje takie jak Digital Services Act (DSA) nakładają na usługi hostingowe obowiązki przejrzystości, w tym konieczność raportowania decyzji moderacyjnych oraz udzielania uzasadnień dla podejmowanych działań. Platformy online, będące podzbiorem usług hostingowych, muszą udostępniać archiwa reklam, implementować zaufanych sygnalistów oraz respektować zasady postępowania odwoławczego zarówno wewnętrznego, jak i zewnętrznego.

Tego typu wymogi, jeśli zostałyby zastosowane wobec modeli SI, znacząco poprawiłyby ochronę użytkowników, przeciwdziałając obecnej, nieproporcjonalnej i niesprawiedliwej kontroli wywieranej przez dostawców modeli. Warto podkreślić, że obecnie dostawcy modeli unikają odpowiedzialności, przerzucając ryzyko na użytkowników w warunkach umownych, a jednocześnie uchylają się od obowiązków wynikających z DSA. Taka sytuacja jest nieuczciwa i podważa zasadę sprawiedliwości regulacyjnej.

Z perspektywy globalnej, przykładem odmiennych rozwiązań jest Chiny, które wprowadziły obowiązek uzyskania przedrynkowej aprobaty na świadczenie usług generatywnej SI. Proces ten wymaga przedłożenia dokumentacji modelu, w tym warunków korzystania, do zatwierdzenia przez regulatora. Ten rodzaj nadzoru państwowego nad warunkami umownymi może być postrzegany jako forma „licencjonowania” modeli, analogiczna do regulacji stosowanych wobec produktów farmaceutycznych czy żywności przez odpowiednie agencje. Taka kontrola pozwala na ujednolicenie praktyk w sektorze oraz eliminację klauzul abuzywnych i nieuczciwej moderacji treści.

W kontekście prawa konsumenckiego poza Unią Europejską istnieją już przepisy anulujące niedozwolone postanowienia umowne i ograniczające praktyki handlowe, które mogą znaleźć zastosowanie również do warunków korzystania z modeli generatywnej SI. Jednak istotne pozostaje pytanie, czy ochrona konsumentów jest wystarczająca. W przypadku relacji B2B, szczególnie pomiędzy dużymi korporacjami technologicznymi a małymi i średnimi przedsiębiorstwami, siła negocjacyjna jest często nierównomierna, co rodzi podobne ryzyko nadużyć. Wczesne projekty legislacyjne UE uwzględniały regulacje dotyczące nieuczciwych warunków umów narzucanych jednostronnie mniejszym podmiotom, jednak ostatecznie te zapisy zostały wycofane z ostatecznej wersji aktów prawnych.

Rynkowa konkurencja mogłaby potencjalnie sprzyjać bardziej zrównoważonym warunkom, lecz realia wskazują na powstawanie de facto karteli, które utrzymują klauzule korzystne dla nielicznych potężnych graczy. Niezbędne jest, aby doświadczenia z regulacji mediów społecznościowych – które dopiero zaczynają być skutecznie adresowane przez DSA i Digital Markets Act – nie zostały powtórzone w erze generatywnej sztucznej inteligencji.

Istotne jest, aby rozumieć, że ochrona praw użytkowników w kontekście modeli generatywnej SI nie powinna ograniczać się do minimalnych wymogów prawnych, ale zakładać pełne uwzględnienie fundamentalnych praw człowieka, w tym prawa do wolności wypowiedzi i ochrony prywatności. Regulacje muszą uwzględniać złożoność mechanizmów moderacji treści, transparentność algorytmiczną oraz dostęp do efektywnych mechanizmów odwoławczych. Ponadto, w procesie tworzenia i wdrażania takich regulacji kluczowa jest współpraca międzynarodowa, aby nie powstały znaczące różnice w standardach ochrony pomiędzy różnymi jurysdykcjami, które mogłyby prowadzić do fragmentacji rynku i nierównych warunków konkurencji.

Należy również zauważyć, że sama techniczna konstrukcja modeli generatywnej SI powinna podlegać rygorystycznej ocenie pod kątem ryzyka dyskryminacji i nadużyć, co wymaga uzupełnienia przepisów o wymogi dotyczące jakości danych i algorytmów oraz mechanizmów zapobiegających stronniczości. To wszystko stanowi nie tylko wyzwanie prawne, ale także etyczne, gdzie regulacje powinny integrować się z zasadami odpowiedzialnego projektowania i stosowania sztucznej inteligencji.

Jak zmieniające się prawo autorskie w Chinach wpływa na rozwój sztucznej inteligencji?

Artykuł 3 Regulaminu Wykonawczego do Ustawy o Prawie Autorskim Chińskiej Ludowej Republiki stwierdza: „Termin »tworzenie«, o którym mowa w Ustawie o Prawie Autorskim, oznacza działalność intelektualną, w wyniku której powstają prace literackie, artystyczne lub naukowe. Jakakolwiek działalność organizacyjna, doradcza, materialna pomoc lub inne usługi wspierające tworzenie przez inną osobę nie są uznawane za tworzenie.” Powyższe przepisy pokazują wyraźną granicę między aktywnością twórczą, a wspieraniem tej twórczości. Wyjątkowo ważne jest zrozumienie tego rozróżnienia w kontekście rozwoju sztucznej inteligencji (AI), ponieważ coraz częściej pojawiają się pytania, w jakim stopniu dzieła stworzone przez AI mogą być chronione prawem autorskim.

W Chinach, podobnie jak w innych krajach, rozwój AI niesie ze sobą szereg wyzwań dotyczących ochrony własności intelektualnej. Chociaż chińskie sądy i komentatorzy byli początkowo ostrożni w kwestii ochrony praw autorskich dla treści generowanych przez sztuczną inteligencję, to jednak w ostatnich latach zauważalna jest większa otwartość na tę kwestię. W obliczu tego wyzwań, pojawia się pytanie, na ile obecne przepisy prawne wystarczają, by chronić twórczość sztucznej inteligencji, która często pozostaje anonimowa, a jej autor nie jest jednoznacznie określony.

Chiny, będące jednym z liderów w dziedzinie AI, korzystają z szerokiego rynku krajowego, który w wielu przypadkach jest chroniony przed konkurencją z zagranicy. Warto dodać, że chińskie firmy sztucznej inteligencji znacznie wyprzedzają swoich japońskich rywali, zdobywając przewagę nie tylko na rynku krajowym, ale i globalnym. Szczególnie ważne jest to w kontekście innowacji związanych z patenty, gdzie Chiny przodują w liczbie zgłoszeń patentowych związanych z AI. Chociaż sama liczba patentów nie gwarantuje jakości technologii, to jednak świadczy o silnym zaangażowaniu w badania i rozwój, który stanowi fundament dla dalszego rozwoju chińskiej gospodarki opartej na sztucznej inteligencji.

Japonia, mimo iż utrzymuje technologię bardziej przyjazną prawu autorskiemu, również odnosi sukcesy na rynku międzynarodowym, szczególnie w sektorze kultury i mediów. Anime, takie jak „Naruto”, „Dragon Ball” czy „One Piece”, zdobyły szerokie międzynarodowe uznanie, stanowiąc ważny element eksportu kulturowego Japonii. Ta obecność na rynku globalnym podkreśla znaczenie praw autorskich, zwłaszcza w kontekście dynamicznego rozwoju technologii, które mogą wpłynąć na przyszłość praw ochrony intelektualnej.

Z kolei Chiny, mając bardziej otwarty system prawa autorskiego, stają przed innym wyzwaniem. Kwestia dostosowania obecnych regulacji do rozwoju sztucznej inteligencji, która może tworzyć dzieła bez wyraźnej ingerencji człowieka, wymaga refleksji na temat redefinicji pojęcia twórczości. W miarę jak AI staje się coraz bardziej zaawansowana, zmieniają się również potrzeby rynku w zakresie ochrony praw autorskich. Warto zauważyć, że zmieniająca się definicja „tworzenia” może prowadzić do nowego rozumienia tego, co stanowi oryginalne dzieło w erze sztucznej inteligencji.

Chińska gospodarka, dzięki swojej szybko rozwijającej się branży technologicznej, może zyskać na elastyczności regulacyjnej, umożliwiając szybsze adaptowanie prawa do zmieniającego się krajobrazu technologicznego. Z drugiej strony, Japonia, mimo że skutecznie chroni tradycyjne sektory kultury, może stanąć przed wyzwaniem adaptacji prawa autorskiego do wymogów nowoczesnych technologii, takich jak AI.

Chociaż systemy prawne Chin i Japonii różnią się pod względem podejścia do sztucznej inteligencji, obydwa kraje muszą stawić czoła podobnym wyzwaniom związanym z ochroną praw autorskich w dobie nowych technologii. Różnice te pokazują, jak istotne jest tworzenie zrównoważonych i nowoczesnych regulacji, które będą w stanie chronić twórczość, niezależnie od tego, czy jej autorem jest człowiek, czy maszyna.

Ponadto, warto zwrócić uwagę na rosnące znaczenie międzynarodowych regulacji w tej dziedzinie. W miarę jak AI staje się coraz bardziej powszechna, konieczne będzie współdziałanie państw w celu stworzenia jednolitych standardów ochrony praw autorskich, które będą uwzględniały zarówno tradycyjne, jak i nowe formy twórczości.