W obliczu szybkiego rozwoju technologii generatywnej sztucznej inteligencji, systemy prawne na całym świecie zmuszone są do dostosowania się do nowoczesnych wyzwań związanych z prawami autorskimi. Chiny, jako jedno z państw liderów w tej dziedzinie, wprowadziły szereg tymczasowych środków mających na celu regulację AI w zakresie praw autorskich. Istnieje jednak wiele pytań i wątpliwości dotyczących odpowiedzialności dostawców usług AI oraz kwestii ochrony praw autorskich dla dzieł tworzonych przez maszyny.

Zgodnie z artykułem 15 tymczasowych środków, dostawcy usług generatywnej sztucznej inteligencji zobowiązani są do stworzenia mechanizmów przyjmowania skarg i raportów od użytkowników. Z kolei artykuł 4 nakłada na dostawców obowiązek przestrzegania zasad etycznych i moralnych, szczególnie w zakresie ochrony praw innych osób, takich jak prawo do prywatności, wizerunku, czy danych osobowych. Ważnym aspektem jest również odpowiedzialność dostawców usług AI za generowanie treści, które mogą naruszać prawa autorskie, a także konieczność wyraźnego oznaczenia treści generowanej przez sztuczną inteligencję, aby uniknąć pomyłek z twórczością stworzoną przez ludzi.

Jako przykład można podać sprawę sądową z lutego 2024 roku, która miała miejsce w Sądzie Internetowym w Kantonie. Sąd uznał, że dostawca usługi generatywnej AI naruszył prawa autorskie do postaci „Ultramana”, której prawa posiadała firma Shanghai Character License Administrative Co., Ltd. w imieniu Tsuburaya Productions. Jednakże sprawa nie dotyczyła kwestii wykorzystania danych do trenowania AI, a skupiała się na odpowiedzialności dostawcy za nielegalne treści wygenerowane przez system. Orzeczenie to wskazuje na rosnącą odpowiedzialność dostawców usług generatywnej AI za treści, które są generowane na ich platformach, a także na konieczność ścisłej kontroli nad jakością i legalnością takich treści.

Warto dodać, że obecna sytuacja prawna w Chinach nie daje jednoznacznych odpowiedzi na pytanie, czy wykorzystywanie dzieł objętych prawami autorskimi do treningu sztucznej inteligencji stanowi naruszenie praw autorskich. Badacze zauważają, że obecne przepisy nie przewidują wyjątków dla danych wykorzystywanych do treningu AI, co stanowi istotną barierę dla dalszego rozwoju technologii sztucznej inteligencji. W szczególności, konieczne może być rozszerzenie zakresu wyjątków od praw autorskich na przetwarzanie danych wykorzystywanych do treningu AI, co z kolei mogłoby przyspieszyć postęp technologiczny i umożliwić lepsze wykorzystanie potencjału generatywnej sztucznej inteligencji.

Również w kwestii ochrony praw autorskich do dzieł tworzonych przez AI pojawia się wiele kontrowersji. W chińskim środowisku akademickim istnieją trzy główne podejścia do tej kwestii. Pierwsze z nich zakłada, że treści wygenerowane przez AI nie mogą być chronione prawem autorskim, gdyż nie spełniają one wymogu „osobistego wkładu twórczego” autora. Drugie stanowisko broni poglądu, że takie treści powinny być chronione, podobnie jak dzieła stworzone przez ludzi. Trzecie podejście proponuje przyznanie praw autorskich do dzieł AI poprzez traktowanie ich jako produkty pracy, co nie spotkało się jednak z dużym poparciem, ponieważ nie uwzględnia specyfiki samego procesu twórczego, który odbywa się z pomocą maszyn.

W kontekście prawa autorskiego warto również zauważyć, że Chiński Akt Praw Autorskich zastrzega, iż dzieło musi spełniać określone warunki, by mogło być objęte ochroną prawnoautorską. Chociaż w teorii, AI jako narzędzie wykorzystywane do generowania treści, mogłoby być uznane za twórcę, pozostaje pytanie, kto w rzeczywistości powinien być właścicielem praw autorskich do takich dzieł – twórca algorytmu, firma, która zleca trening AI, czy też sama sztuczna inteligencja?

Jest jeszcze wiele niewiadomych dotyczących odpowiedzialności za naruszenia praw autorskich w kontekście generatywnej sztucznej inteligencji. Dotychczasowe orzeczenia, takie jak to, które miało miejsce w Guangzhou, stawiają pytania o granice odpowiedzialności dostawców AI oraz o to, kto ponosi odpowiedzialność za naruszenia związane z wykorzystaniem danych do treningu. Niemniej jednak, wszystkie te kwestie wymagają dalszego wyjaśnienia i dostosowania regulacji prawnych do nowoczesnych realiów technologicznych. Tylko w ten sposób możliwe będzie zapewnienie efektywnej ochrony praw autorskich, a także dalszy rozwój sektora sztucznej inteligencji, który będzie w stanie zaspokoić potrzeby rynku i społeczeństwa.

Jak dominacja technologiczna wpływa na konkurencję w erze sztucznej inteligencji?

Dominujące firmy technologiczne, takie jak Google czy Microsoft, wykorzystują swoją pozycję na rynku do promowania własnych rozwiązań opartych na sztucznej inteligencji, co rodzi poważne obawy dotyczące uczciwości konkurencji. Przykładem jest integracja generatywnej AI w wyszukiwarce Google za pomocą Search Generative Experience (SGE), która generuje podsumowania i odpowiedzi na zapytania użytkowników, preferując przy tym własne technologie nad konkurencyjnymi systemami takimi jak HuggingChat czy ChatGPT. Tego typu praktyka, określana jako self-preferencing, utrudnia mniejszym podmiotom wejście i utrzymanie się na rynku, powodując ograniczenie różnorodności i innowacyjności.

Podobną strategię stosuje Microsoft, który w ramach współpracy z OpenAI wprowadził na rynek narzędzie Copilot dla pakietu Microsoft 365. Preinstalowanie takich rozwiązań na systemach operacyjnych zwiększa ich dostępność i przewagę nad konkurencją, co przypomina znane z przeszłości przypadki bundlingu, jak preinstalowanie Windows Media Player na systemie Windows, które w 2004 roku zostało uznane przez Komisję Europejską za praktykę naruszającą zasady uczciwej konkurencji.

Ważnym aspektem jest również wymóg korzystania przez deweloperów z fundamentów technologicznych dominujących graczy przy tworzeniu aplikacji AI. Ogranicza to możliwość rozwoju alternatywnych modeli i zmusza twórców do podporządkowania się technologii oferowanej przez liderów rynku. Przykładem jest OpenAI, które udostępnia API i platformę GPT Store, co sprzyja zamknięciu ekosystemu i utrudnia innowacje poza obrębem dominujących firm.

Dostęp do kluczowych zasobów — mocy obliczeniowej, danych, specjalistycznej wiedzy oraz kapitału — jest fundamentalny dla skutecznego rozwoju i wdrażania modeli AI. Jeśli większe firmy ograniczą dostęp mniejszym graczom do tych zasobów, zmniejszy się konkurencja i innowacyjność, co ostatecznie zaszkodzi konsumentom. Dominacja dużych graczy wynika także z efektów skali i sprzężenia zwrotnego, które pozwalają im szybciej udoskonalać swoje modele, a jednocześnie utrwalać swoją pozycję rynkową poprzez tworzenie zamkniętych ekosystemów i sieci współpracujących deweloperów.

Raporty regulacyjne, takie jak te publikowane przez brytyjską Komisję ds. Konkurencji i Rynków (CMA), podkreślają ryzyka związane z koncentracją rynku AI. Główne zagrożenia to kontrola nad zasobami krytycznymi przez nieliczne podmioty, ograniczenie wyboru konsumentów poprzez integrację AI z popularnymi produktami cyfrowymi, ryzyko konsolidacji rynku, a także wpływ polityki licencyjnej i finansowania na rozwój otwartych modeli AI. Efektywna konkurencja wymaga, aby nowe firmy miały realne szanse na wejście na rynek i utrzymanie się, co zapobiegać ma powstawaniu nadmiernych przewag pierwszych graczy.

Regulacje w USA, UK i UE stopniowo dostosowują się do wyzwań stawianych przez AI. Na przykład w USA prezydent Biden wydał rozporządzenie wykonawcze podkreślające potrzebę promowania odpowiedzialnej innowacji i konkurencji, aby zapobiegać nadużyciom ze strony firm dominujących. Ważnym elementem jest tu zapobieganie nielegalnym praktykom ograniczającym dostęp do zasobów takich jak półprzewodniki, moc obliczeniowa czy dane, które mogą szkodzić mniejszym przedsiębiorstwom i innowatorom.

Istotne jest zrozumienie, że przewaga technologiczna i ekonomiczna w sektorze AI może prowadzić do tworzenia zamkniętych ekosystemów, które ograniczają nie tylko konkurencję, ale także rozwój innowacyjnych rozwiązań. Kluczowe jest monitorowanie i regulowanie takich praktyk, aby rynek AI pozostał otwarty i dynamiczny, a korzyści z technologii trafiały do szerokiego grona użytkowników oraz przedsiębiorców. Konkurencja nie powinna być rozumiana jedynie jako walka o dominację na rynku, ale jako mechanizm napędzający postęp technologiczny i społeczne korzyści płynące z rozwoju sztucznej inteligencji.

Jakie wyzwania i regulacje wiążą się z używaniem GenAI i systemów rekomendacyjnych w UE?

Współczesne systemy oparte na sztucznej inteligencji, takie jak modele językowe dużej skali (LLM) czy asystenci generatywnej AI (GenAI), stają się nieodłączną częścią codziennych interakcji konsumentów z technologią. W Unii Europejskiej regulacje dotyczące tych systemów, w szczególności w kontekście potencjalnych ryzyk i odpowiedzialności, są obecnie przedmiotem intensywnych dyskusji i stopniowego kształtowania. AI Act (Akt o sztucznej inteligencji) jest jednym z kluczowych dokumentów prawnych, które mają na celu zapewnienie przejrzystości, wyjaśnialności oraz odpowiedzialności w funkcjonowaniu wysokiego ryzyka systemów AI.

Zgodnie z AI Act, dostawcy systemów rekomendacyjnych powinni jasno określać w warunkach korzystania z usług główne parametry algorytmów oraz możliwości ich modyfikacji przez użytkowników. Jednakże klasyfikacja systemów rekomendacyjnych jako wysokiego ryzyka budzi wątpliwości — wiele z nich, wykorzystywanych w e-commerce czy platformach rozrywkowych, nie spełnia kryteriów wysokiego ryzyka przewidzianych w akcie. Niemniej, dokument zachęca do dobrowolnego stosowania tych samych standardów przez systemy o niższym poziomie ryzyka, co podnosi poziom samoregulacji branży.

Ważnym aspektem regulacji jest obowiązek ujawniania przez asystentów AI ich sztucznej natury oraz informowania o możliwościach i ograniczeniach generowanych odpowiedzi. Konsument powinien mieć prawo wiedzieć, że rozmawia z systemem GenAI, co pozwala na świadome podejmowanie decyzji i ogranicza ryzyko nieświadomego poddawania się wpływom automatycznych mechanizmów.

Dyrektywa o nieuczciwych praktykach handlowych (UCPD) nakłada na wirtualnych asystentów AI wymóg działania z należytą starannością, zakazując praktyk mogących wprowadzać konsumentów w błąd lub wykorzystywać ich niedoinformowanie. Przejrzystość, rzetelna informacja i poszanowanie autonomii odbiorcy są fundamentem tych regulacji. Uzupełniają je przepisy o ochronie danych osobowych (RODO), które kontrolują sposób przetwarzania informacji osobistych, zapewniając zachowanie prywatności i zaufania użytkowników.

Konsumenci korzystający z cyfrowych usług, w tym tych opartych na GenAI, chronieni są również przez Dyrektywę o prawach konsumenta (CRD) oraz Dyrektywę o treściach cyfrowych (DCD). Zapewniają one prawo do jasnej i kompletnej informacji dotyczącej zarówno dóbr, jak i usług cyfrowych, co ma szczególne znaczenie w erze rosnącej roli sztucznej inteligencji.

Pomimo tych ram prawnych, dynamiczny rozwój GenAI ujawnia nowe wyzwania związane z tzw. „hiperperswazją” — zdolnością AI do wywierania wpływu na ludzkie decyzje w sposób subtelny, ale bardzo skuteczny. Granice między perswazją a manipulacją ulegają zatarciu, gdy systemy uczą się na bieżąco z interakcji, dostosowują przekaz i personalizują komunikaty z nieosiągalną dla człowieka precyzją. Przykładem może być marketing oparty na analizie zachowań konsumentów, gdzie indywidualne reklamy mają znacznie większą skuteczność niż tradycyjne formy promocji.

Badania wskazują, że GenAI może wzmacniać przekonania użytkowników, wpływając na ich opinie w sposób, który często pozostaje poza ich pełną świadomością. To rodzi poważne pytania o autonomię i zdolność krytycznego myślenia odbiorców. Prawo unijne stara się tym sprostać, jednak tempo rozwoju technologii wymaga ciągłej rewizji i adaptacji regulacji, by skutecznie przeciwdziałać ryzykom wynikającym z nowych form wpływu cyfrowego.

Zrozumienie tej problematyki wymaga także uwzględnienia, że transparentność i ujawnianie faktu korzystania z AI to dopiero pierwszy krok. Niezbędne jest też pogłębione badanie i edukacja społeczeństwa na temat mechanizmów działania AI oraz konsekwencji korzystania z technologii, które potrafią wpływać na ludzkie decyzje bardziej niż tradycyjne metody perswazji. Przyszłość regulacji musi więc integrować aspekty techniczne, etyczne i społeczne, by zapewnić równowagę między innowacyjnością a ochroną praw konsumentów.

Jakie konsekwencje ma klasyfikacja systemów takich jak CLAUDETTE w ramach rozporządzenia AI Act?

Rozporządzenie AI Act (AIA) stanowi ważny krok w regulacji stosowania sztucznej inteligencji w Europie, wprowadzając podejście oparte na ocenie ryzyka. Kluczowym elementem tego rozporządzenia jest klasyfikacja systemów AI według poziomu ryzyka, które mogą one generować w zależności od ich przeznaczenia oraz grupy użytkowników. W kontekście systemu CLAUDETTE, który zyskał popularność jako narzędzie wspierające automatyzację procesów prawnych, analiza jego statusu w ramach AIA pozwala na wskazanie zarówno korzyści, jak i zagrożeń związanych z jego stosowaniem w różnych sektorach.

Podstawowy podział systemów AI zawarty w AI Act wyróżnia kategorie ryzyka: wysokie, średnie oraz minimalne. Systemy takie jak CLAUDETTE, mimo że mogą obejmować szeroki zakres zastosowań, zostaną sklasyfikowane jako niskiego ryzyka, z wyjątkiem sytuacji, w których są wykorzystywane przez organy sądowe lub w ramach alternatywnego rozwiązywania sporów (ADR) oraz rozwiązywania sporów online (ODR). W takich przypadkach systemy AI mogą zostać uznane za systemy wysokiego ryzyka, zatem podlegają one ścisłej regulacji, obejmującej m.in. obowiązki dokumentacyjne, audytowe oraz oceny wpływu na prywatność.

Z perspektywy instytucji publicznych, takich jak administracja sądowa, wdrażanie systemów takich jak CLAUDETTE wiąże się z koniecznością spełnienia wymagań przejrzystości i odpowiedzialności, co może budzić kontrowersje w kontekście braku jednoznacznych standardów w tej dziedzinie. Równocześnie jednak, dla podmiotów spoza sektora publicznego, takich jak organizacje konsumenckie czy firmy prawnicze, systemy takie jak CLAUDETTE mogą stanowić narzędzie znacznej swobody regulacyjnej, pozwalające na szybkie wdrażanie innowacji w zakresie automatyzacji procesów prawnych.

Warto zauważyć, że takie systemy będą mogły być używane przez szeroki krąg podmiotów – od firm zajmujących się analizą danych, przez organizacje konsumenckie, po podmioty wyzyskujące luki prawne, takie jak tzw. "oszuści". Ryzyko związane z brakiem nadzoru nad tymi systemami w rękach podmiotów prywatnych jest wyraźnym zagrożeniem dla transparentności i ochrony interesów użytkowników.

Co ważne, w ramach regulacji AI Act, systemy takie jak CLAUDETTE, jeżeli nie są wykorzystywane przez organy wymiaru sprawiedliwości lub w ramach ADR/ODR, nie będą podlegały szczególnym wymogom regulacyjnym. Oznacza to, że podmioty takie jak organizacje badawcze, kancelarie prawnicze, a nawet administracja publiczna, będą mogły wdrażać takie systemy bez konieczności przestrzegania restrykcyjnych zasad. Może to prowadzić do sytuacji, w której aktorzy o różnym charakterze – zarówno ci działający w interesie publicznym, jak i prywatni podmioty, poszukujący zysku – będą mogli swobodnie wykorzystywać te technologie, bez większego nadzoru.

Z jednej strony, taka regulacyjna swoboda może sprzyjać innowacjom i pozytywnym zmianom, szczególnie w zakresie ochrony praw konsumentów czy automatyzacji procesów prawnych. Z drugiej strony, brak odpowiedniego nadzoru rodzi ryzyko, że mniej etyczni gracze, tacy jak oszuści czy firmy poszukujące szybkiego zysku, będą w stanie wykorzystywać technologię w sposób nieodpowiedni, na przykład stosując ją do generowania fałszywych ostrzeżeń o naruszeniu prawa, oferując usługi, które nie są rzeczywiście wymagane.

Podmioty, które rozważają wdrożenie systemów takich jak CLAUDETTE, muszą więc zwrócić szczególną uwagę na potencjalne skutki uboczne i zagrożenia związane z brakiem przejrzystości w działaniu takich systemów. Choć sama technologia może być użyteczna, jej zastosowanie bez odpowiednich regulacji może prowadzić do poważnych nieporozumień i nadużyć. Ważne jest, aby odpowiednie instytucje wprowadziły mechanizmy monitorujące, które zapobiegną nadużyciom i zapewnią, że technologie wykorzystywane w publicznych i prywatnych interesach będą służyły dobru społecznemu, a nie wykorzystywane do własnych celów.

Równocześnie warto podkreślić, że odpowiedzialne wdrażanie systemów AI wiąże się z koniecznością rozważenia szerokiego kontekstu społecznego i etycznego, w którym te technologie funkcjonują. Choć regulacje AI Act zapewniają pewne ramy prawne, to jednak same przepisy nie wyczerpują pełni wyzwań, które niosą ze sobą nowe technologie. Wprowadzenie takich systemów wymaga nie tylko przepisów technicznych, ale także pogłębionej analizy skutków społecznych, które mogą wystąpić na różnych etapach ich wdrażania i użytkowania.