W prawie autorskim Japonii, szczególnie w odniesieniu do wykorzystania technologii, takich jak sztuczna inteligencja (AI) i przetwarzanie danych, zastosowane wyjątki mają kluczowe znaczenie dla równowagi między interesami twórców a potrzebami innowacyjnych branż. Przepisy dotyczące wykorzystywania utworów w Japonii są na tyle elastyczne, że pozwalają na wykorzystanie chronionych treści do różnych celów technologicznych, jednocześnie ograniczając potencjalne szkody dla właścicieli praw autorskich. Zgodnie z artykułami 30-4 i 47-4 japońskiej ustawy o prawie autorskim, przewiduje się możliwość wykorzystywania utworów w sposób, który nie narusza interesów twórców.

Artykuł 30-4 pozwala na użycie utworów w celach niezwiązanych z ich przyjemnościowym użytkowaniem. Z kolei artykuł 47-4 umożliwia stosowanie utworów w przypadkach koniecznych dla prawidłowego funkcjonowania systemów komputerowych, jak na przykład przy operacjach związanych z buforowaniem lub pobieraniem danych, a także przy naprawach lub tworzeniu kopii zapasowych. Tego rodzaju użycie nie jest uznawane za szkodliwe dla właścicieli praw autorskich, dlatego przepisy te mają charakter bardzo elastyczny i obejmują szereg możliwych zastosowań, które mogą wynikać z postępu technologicznego.

Z kolei artykuł 47-5 wprowadza przepisy dotyczące tzw. "mniejszych" użyć, które mogą wiązać się z niewielką szkodą dla właściciela praw autorskich. Przykładem takich działań mogą być usługi wyszukiwania w Internecie czy systemy wykrywania plagiatów. W tym przypadku elastyczność przepisów jest ograniczona przez konieczność spełnienia określonych warunków, takich jak cel, zakres wykorzystania, przedmiot utworu i jego rodzaj. Wprowadzenie klauzuli "catch-all", czyli zapisu obejmującego wszystkie inne przypadki, pozwala na dostosowanie przepisów do zmieniających się realiów technologicznych.

Japońskie przepisy dotyczące przetwarzania danych i tzw. Text and Data Mining (TDM) mają szerszy zakres niż podobne regulacje w Europie. Co istotne, wyjątek japoński obejmuje zarówno wykorzystanie komercyjne, jak i niekomercyjne, a także nie wymaga legalnego dostępu do chronionych treści, by wykorzystanie było uznane za dozwolone. W praktyce oznacza to, że Japonia jest jednym z najbardziej liberalnych krajów pod względem regulacji prawa autorskiego, umożliwiając szerokie wykorzystywanie chronionych utworów w celach badawczych i rozwoju technologii.

Choć takie przepisy mają na celu wspieranie innowacji i rozwoju technologii, mogą także stwarzać presję na branżę kreatywną. Przemiany w prawie autorskim nie spotkały się z jednoznaczną akceptacją ze strony części przemysłu wydawniczego czy medialnego, które zauważają zagrożenia związane z wykorzystaniem ich treści przez AI bez odpowiednich wynagrodzeń. Sugerowane ograniczenie tych działań poprzez wprowadzenie odpowiednich umów kontraktowych mogłoby stanowić alternatywę do regulacji ustawowych. Chociaż temat ten nie jest jeszcze szeroko rozważany w sądach, istnieje możliwość, że w przyszłości będzie to przedmiotem sporów sądowych, szczególnie w kontekście umów licencyjnych dotyczących wykorzystywania danych przez AI.

Warto zauważyć, że wprowadzając wyjątki dla TDM, Japonia dokonała istotnej zmiany w tradycyjnych regulacjach prawa autorskiego, które wcześniej były znacznie bardziej restrykcyjne. Choć w momencie uchwalania tych przepisów w 2018 roku nie wywołały one większych kontrowersji, dziś, po kilku latach, ich szerokie zastosowanie może budzić wątpliwości w kontekście ochrony interesów twórców.

W kontekście rozwoju sztucznej inteligencji i przetwarzania danych należy pamiętać, że przepisy dotyczące prawa autorskiego w Japonii są stosunkowo nowatorskie i mogą stanowić istotny punkt odniesienia w kontekście globalnych dyskusji na temat równowagi pomiędzy innowacjami technologicznymi a ochroną praw twórców. Jednakże w miarę jak technologia się rozwija, może pojawić się potrzeba rewizji tych przepisów, by lepiej odzwierciedlały aktualne wyzwania związane z wykorzystaniem sztucznej inteligencji, a także z ochroną praw twórców i autorów w tym nowym, technologicznym kontekście.

Jakie ryzyka generatywnej sztucznej inteligencji mogą wpłynąć na odpowiedzialność korporacyjną i menedżerską?

Generatywna sztuczna inteligencja (AI) niesie ze sobą szereg zagrożeń, które mogą mieć dalekosiężne konsekwencje dla przedsiębiorstw oraz ich kadry zarządzającej. Wśród głównych ryzyk wymienia się nie tylko fizyczne lub reputacyjne szkody dla klientów czy osób trzecich, ale także możliwość, że AI podejmie samodzielnie decyzje, które okażą się nielegalne, niewłaściwe lub destrukcyjne, powodując uszkodzenia majątkowe, finansowe, moralne lub wizerunkowe. W miarę jak technologia AI rozwija się, zagrożenia te stają się coraz bardziej realne, a przedsiębiorstwa, zwłaszcza te operujące w najbardziej ryzykownych branżach, muszą poważnie rozważyć potencjalne konsekwencje.

W kontekście firm zajmujących się branżami wrażliwymi na błędy w systemach opartych na AI, takich jak fintech, medtech, przemysł farmaceutyczny, systemy zbrojeniowe, a także branże związane z inżynierią czy lotnictwem, istnieje szereg ryzyk związanych z wadliwym projektowaniem lub niewłaściwym użytkowaniem sztucznej inteligencji. Błędy projektowe, niewłaściwe działanie systemów AI, a także potencjalna "buntowniczość" autonomicznych algorytmów mogą prowadzić do poważnych szkód, w tym masowych oszustw czy zjawisk takich jak masowe roszczenia odszkodowawcze, a nawet wykorzystywanie AI w celach przestępczych, takich jak cyberataki czy szerzenie dezinformacji. W miarę jak systemy AI zbliżają się do poziomu sztucznej inteligencji ogólnej (AGI), ryzyko to staje się jeszcze bardziej niepewne.

W związku z rosnącym potencjałem ryzyk prawnych, zarówno cywilnych, jak i karnych, jakie mogą wynikać z nieprawidłowego funkcjonowania systemów generatywnej AI, odpowiedzialność spoczywa w ostateczności na zarządach firm. Niezależnie od tego, czy firma działa w ramach grupy korporacyjnej, czy jest jednostką samodzielną, dyrektorzy i menedżerowie muszą być szczególnie uważni na to, jak technologia może wpłynąć na ich działalność. Może to obejmować potencjalne naruszenia praw własności intelektualnej, odpowiedzialność za zniesławienie (np. jeśli systemy AI wygenerują kontrowersyjne lub szkodliwe oświadczenia) oraz inne rodzaje odpowiedzialności cywilnej i karnej.

Korporacje muszą także przygotować się na nadchodzące zmiany legislacyjne, które mogą wpłynąć na przepisy dotyczące odpowiedzialności cywilnej za szkody wyrządzone przez AI. Przykładem może być propozycja Dyrektywy Komisji Europejskiej dotycząca dostosowania zasad odpowiedzialności cywilnej do szkód wyrządzonych przez AI. Chociaż projekt ten wciąż jest w fazie debaty, może on zmienić sposób, w jaki są rozstrzygane sprawy o odszkodowania za szkody spowodowane przez systemy sztucznej inteligencji. Zgodnie z propozycją, mogłaby zostać wprowadzona domniemana zasada przyczynowości, która ułatwiłaby ofiarom wykazanie związku przyczynowego między działaniem AI a poniesionymi stratami. Oznaczałoby to, że firmy i ich kadra zarządzająca muszą być bardziej skrupulatne w kwestiach związanych z odpowiedzialnością cywilną, co wiąże się z koniecznością opracowania wewnętrznych procedur zapewniających bezpieczeństwo i zgodność z przepisami prawa.

W kontekście odpowiedzialności menedżerów, kluczowe staje się pytanie, jak firmy będą radzić sobie z tak zwanym "rogue AI" – czyli z systemami AI, które mogą działać w sposób nieprzewidywalny lub szkodliwy. Obecnie wiele korporacji ubezpiecza swoje ryzyko związane z technologią AI, jednak pytanie, czy pokrycie ubezpieczeniowe będzie wystarczające na wypadek masowych szkód spowodowanych przez niekontrolowane systemy, pozostaje otwarte. Przewiduje się, że ubezpieczyciele odegrają kluczową rolę w kształtowaniu zachowań firm w zakresie zarządzania ryzykiem AI, oferując wsparcie zarówno w prewencji, jak i w procesie kompensacyjnym po wystąpieniu szkody.

Zarządy firm muszą także wziąć pod uwagę zmieniające się zasady odpowiedzialności cywilnej i karnej, w tym nowe przepisy dotyczące odpowiedzialności korporacyjnej w przypadku nieprzestrzegania przepisów prawa dotyczących AI. Na przykład w Wielkiej Brytanii, na mocy ustawy o odpowiedzialności za zabójstwa korporacyjne, firma może ponosić odpowiedzialność za śmierć pracowników lub innych osób, jeśli jej działania lub zaniechania w zakresie AI będą miały bezpośredni wpływ na ich bezpieczeństwo. Z kolei w kontekście europejskim, dyrektywy takie jak AI Liability Directive mogą wymusić na firmach dostosowanie swoich praktyk w celu minimalizacji ryzyka prawnego wynikającego z użycia generatywnej AI.

Menedżerowie, którzy kierują firmami, muszą także przygotować się na rosnącą odpowiedzialność osobistą, szczególnie w kontekście potencjalnych wypadków lub szkód związanych z działaniem AI. Odpowiedzialność za błędy w projektowaniu, wdrażaniu czy nadzorowaniu algorytmów generatywnej sztucznej inteligencji może skutkować nie tylko finansowymi konsekwencjami dla firmy, ale także osobistą odpowiedzialnością menedżerów, którzy mogą zostać pociągnięci do odpowiedzialności cywilnej lub karnej.

Wreszcie, choć obecnie temat "rogue AI" jest traktowany raczej marginalnie, w przyszłości zyskiwać będzie na znaczeniu. To w dłuższym okresie czasu stanie się istotnym zagadnieniem, które zarządy firm będą musiały uwzględnić w swoich strategiach zarządzania ryzykiem, odpowiedzialności oraz compliance. Systemy oparte na sztucznej inteligencji mogą stać się tak zaawansowane, że samodzielnie podejmą działania wykraczające poza kontrolę człowieka, co stwarza ryzyko poważnych szkód i katastrof.

Jak rozróżnić sztukę ludzką od sztuki generowanej przez AI: wyzwania i propozycje rozwiązania

Po niemal pięciu latach podróży na pokładzie HMS „Beagle” Charles Darwin, wracając do Anglii, zauważył, że obserwacje poczynione podczas okrążania Ziemi mogą rzucić światło na tajemnicę pochodzenia gatunków. Z kolei w kontekście sztuki, reguła pochodzenia ma na celu podobne zadanie: wyjaśnienie, skąd pochodzi dzieło, odkrywając jego twórcę i proces powstawania. Sztuka stworzona przez człowieka i ta generowana przez maszyny mogą być nie do odróżnienia na pierwszy rzut oka, a różnice w ich wycenie są znaczące. Artysta ludzki jest postrzegany jako twórca wartościowego, podczas gdy dzieła generowane przez sztuczną inteligencję mogą być traktowane bardziej jako produkty, a nie twórczość. Taki stan rzeczy prowadzi do poważnych trudności na rynku sztuki, w tym do oszustw, gdy maszyna tworzy dzieło, które jest sprzedawane jako praca ludzka, co pozwala na wyższe ceny sprzedaży.

W systemie, w którym brakuje pełnej informacji, kupujący wchłaniają ryzyko nieuczciwych transakcji w swojej gotowości do zapłaty. W konsekwencji artyści ludzcy mogą nie otrzymywać prawdziwej wartości za swoją twórczość i mogą zdecydować się na wycofanie z rynku. Zgodnie z tymi słowami Darwina, sztuka tworzona przez ludzi może stać się „wygaszona”, podczas gdy dzieła generowane przez maszyny będą „przetrwać i rozmnażać się”.

Jednak nie należy tego traktować jako argumentu przeciwko sztuce generowanej przez maszyny. Celem nie jest ochrona ludzkich artystów w sposób, który ogranicza rozwój technologii, ale raczej dążenie do stworzenia lepszej konkurencji pomiędzy dziełami tworzonymi przez ludzi i maszynami. Obecnie, dzięki asymetrii informacji, rywalizacja nie odbywa się na podstawie rzeczywistych zasług dzieł, ale raczej na podstawie nieuczciwego wyboru – sztuka maszynowa jest faworyzowana przez rynek, ponieważ brakuje wystarczających informacji o jej prawdziwym pochodzeniu.

W takim kontekście, zaproponowano regułę pochodzenia, której celem jest zapewnienie symetrii informacji pomiędzy kupującymi a sprzedającymi. Choć AIA (Act on Artificial Intelligence) nie nałożyła obowiązkowego narzędzia ustalania pochodzenia dzieł sztuki, artyści mogą wypracować własną, oddolną regułę pochodzenia. Może to być metoda sygnalizacji ludzkiego pochodzenia dzieła lub dokumentowanie procesu twórczego, co w przyszłości może ułatwić rozstrzyganie sporów o prawa autorskie. Taki system pozwoliłby na prawdziwą konkurencję pomiędzy sztuką ludzką a generowaną przez maszyny, opartą na rzeczywistej jakości dzieł.

Proponowana reguła pochodzenia przynosi korzyści dwojako. Po pierwsze, umożliwia tym, którzy cenią sztukę ludzką bardziej niż maszynową, zakup dzieła po właściwej cenie, a nie zmusza ich do wyboru, który nie odzwierciedla rzeczywistej wartości dzieła. Z drugiej strony, nie ma wpływu na kupujących, którzy nie interesują się pochodzeniem dzieła, o ile jest ono estetycznie wartościowe. Po drugie, ta reguła uwzględnia, że rozróżnienie między dziełami tworzonymi przez ludzi a generowanymi przez maszyny nie jest binarne. Proponuje się więc mapowanie wszystkich ludzkich wkładów, które miały miejsce podczas tworzenia dzieła generowanego przez AI. Identyfikacja tych wkładów jest szczególnie ważna z punktu widzenia praw autorskich, umożliwiając przypisanie kreatywnych wyborów do osób, które wniosły swój wkład w proces tworzenia dzieła.

Kiedy proces twórczy zostanie dokładnie udokumentowany, pozwoli to na zidentyfikowanie tych elementów, które użytkownicy sztucznej inteligencji wybrali swobodnie, w sposób odzwierciedlający ich osobowość. Proponowana reguła pochodzenia oczyszcza rynek ze wszelkich sztucznych preferencji, które faworyzują jedno dzieło nad drugim, przywracając naturalny proces selekcji. Dzięki temu najlepsza sztuka przetrwa, o ile rywalizacja odbywać się będzie na podstawie jej rzeczywistych zasług.

Kończąc, ważne jest, aby zrozumieć, że reguła pochodzenia nie tylko chroni artystów ludzkich, ale także stwarza przestrzeń dla uczciwej rywalizacji między dziełami stworzonymi przez człowieka i maszyny. Ostatecznie, jej celem jest umożliwienie konsumentom dokonywania wyborów, które nie będą zniekształcone przez brak informacji, a rynek sztuki nie zostanie zdominowany przez sztuczne, uprzywilejowane pozycje. Wszystko to powinno umożliwić twórcom, zarówno ludzkim, jak i maszynowym, prawdziwą konkurencję w oparciu o wartości estetyczne i twórcze.