W 2017 roku, w raporcie Komisji Przeglądu Nowych Dóbr Informacyjnych, potwierdzono zasadniczą różnicę pomiędzy dziełami tworzonymi przez sztuczną inteligencję a tymi, w których AI odgrywa jedynie rolę pomocniczą. Przepisy prawa autorskiego dotyczą tylko tych dzieł, które są wspomagane przez AI, a nie całkowicie generowane przez nią. Istotnym aspektem tego rozróżnienia jest pojęcie „intencji twórczej”, które nie wymaga wyraźnego kontrolowania każdego elementu pracy, ale wskazuje na ogólny zamiar osiągnięcia konkretnego rezultatu. Natomiast pojęcie „wkładu twórczego” wymaga, by osoba, która go wniosła, miała wpływ na wyraz twórczy dzieła, a nie tylko na jego faktyczną czy ideową zawartość.

Ocena wkładu twórczego w przypadku dzieł generowanych przez AI jest skomplikowana i wymaga uwzględnienia roli twórców AI, programistów i użytkowników. Programiści AI, którzy tworzą algorytmy oraz gromadzą dane do uczenia maszynowego, nie są zwykle uznawani za autorów takich dzieł. Ich wkład ma charakter techniczny i nie obejmuje wpływu na specyficzny wyraz twórczy dzieła, który jest w dużej mierze kształtowany przez użytkowników, np. poprzez wprowadzanie odpowiednich zapytań (tzw. promptów). Istnieją jednak przypadki, w których rola programisty lub użytkownika może być uznana za „twórczy wkład”. Dotyczy to sytuacji, w których użytkownik czy twórca systemu AI dostosowuje go w taki sposób, by generował określone rezultaty estetyczne lub tematyczne. Może to obejmować np. trening AI do tworzenia dzieł sztuki w określonym stylu malarskim lub do produkcji tekstów literackich o wyraźnie zdefiniowanej tematyce.

W takich przypadkach osoba, która dokonuje tego dostosowania, podejmuje decyzje, które znacząco kształtują kierunek twórczy wyników generowanych przez AI. Wprowadzanie promptów, choć niezbędne do interakcji z generatywną sztuczną inteligencją, nie jest z reguły wystarczające do uznania go za „twórczy wkład” w sensie prawnym. Dopiero szczegółowe zapytania, które prowadzą AI do generowania określonego rodzaju twórczego wyniku, mogą być uznane za część procesu twórczego. Istotnym elementem w tym kontekście jest także proces selekcji spośród generowanych przez AI opcji, który można porównać do edycji lub kurateli. Wybór końcowego rezultatu również wiąże się z pewnym poziomem decyzji twórczej, która może zostać uznana za wkład twórczy.

Z kolei iteracyjny proces modyfikowania wyników AI, zarówno poprzez zmianę początkowych promptów, jak i udoskonalanie wyborów po zapoznaniu się z różnymi rezultatami, przypomina tradycyjne procesy twórcze. Takie modyfikacje, w których użytkownik dostosowuje i poprawia wynik, aby uzyskać pożądany efekt, podkreślają aktywną rolę użytkownika w kształtowaniu finalnego produktu twórczego. Zatem, w kontekście dzieł generowanych przez AI, zarówno szczegółowe specyfikacje podawane AI (poprzez prompty lub parametry fine-tuningu), jak i selektywne interwencje użytkowników (poprzez wybory i modyfikacje) mogą zostać uznane za twórczy wkład.

To podejście jest zgodne z tradycyjnymi normami prawa autorskiego, które uznają osobę wnoszącą bezpośredni i znaczący wkład w powstanie dzieła za jego autora. W przypadku, gdy dzieło generowane przez AI zawiera „intencję twórczą” oraz „wkład twórczy” wielu osób, a także wyraża myśli lub emocje, może ono zostać objęte ochroną praw autorskich, przy czym autorem może być osoba, która dokonała istotnych wkładów twórczych z intencją. W pewnych przypadkach prawo może uznać użytkowników AI za autorów, ponieważ ich interakcje z systemem AI często wiążą się z podejmowaniem decyzji twórczych. Niemniej jednak, programiści i dostawcy usług AI mogą także zostać uznani za autorów, jeśli ich wkład ma decydujący wpływ na ostateczny twórczy rezultat.

Jeśli wkład twórczy jest podzielony pomiędzy kilku uczestników, każda osoba powinna być oceniana indywidualnie, aby określić jej wpływ na powstanie dzieła. Choć kolektywne wysiłki mogą stanowić „twórczy wkład”, nie wszystkie poszczególne wkłady muszą kwalifikować się do uznania za prawo autorskie. W niektórych przypadkach może to prowadzić do sytuacji, w której żaden z uczestników nie zostanie uznany za autora, ale jeśli istnieje wyraźna zbieżność wkładów, możliwe jest uznanie współautorstwa.

Brak jednoznaczności co do granic ochrony prawnoautorskiej dzieł generowanych przez AI nasuwa pytanie o konieczność bardziej ukierunkowanej legislacji. Ogólnie rzecz biorąc, to, czy dzieła tworzone przez AI zasługują na ochronę praw autorskich, zależy od potrzeby motywowania do twórczości. Argumentuje się, że bez wyłącznych praw do wykorzystania takich dzieł, deweloperzy mogą nie mieć wystarczającej motywacji do inwestowania w rozwój AI, biorąc pod uwagę znaczne koszty finansowe, czasowe i energetyczne związane z tym procesem. Niemniej jednak to rozumowanie może nie być jednolite dla wszystkich uczestników w rozwoju AI. Dla twórców i dostawców AI, istniejące formy ochrony własności intelektualnej, takie jak patenty na systemy AI lub prawa autorskie do kodów programów, mogą być wystarczające. W przypadku użytkowników AI, potrzeba ochrony prawnej dzieł generowanych przez AI zależy od uznania ich „wkładu twórczego”. Przyznanie praw wyłącznych do dzieł, w których twórczy wkład użytkownika jest znikomy, nie sprzyja twórczości, którą prawo autorskie ma na celu promować w społeczeństwie.

Obecna konsensus wśród japońskich komentatorów wskazuje, że nie ma pilnej potrzeby rozszerzania ochrony prawnoautorskiej na dzieła generowane przez AI, które nie zawierają ludzkiego wkładu twórczego. Rozszerzenie takiej ochrony niekoniecznie przyczyniłoby się do tworzenia nowych dzieł. Co więcej, stosowanie ochrony przez prawa sui generis lub prawa pokrewne jest uznawane za nieuzasadnione w takich okolicznościach. Niemniej jednak, mogą istnieć alternatywne uzasadnienia dla ochrony dzieł generowanych przez AI, jak sugeruje raport innej komisji rządowej, która proponuje uznanie inwestycji firm rozwijających postacie AI i promujących je, co, w połączeniu z treściami generowanymi przez AI, tworzy model współpracy między ludzką twórczością a sztuczną inteligencją.

Jak zmiany w regulacjach antymonopolowych wpływają na konkurencję w kontekście sztucznej inteligencji i innowacyjnych technologii?

W Wielkiej Brytanii, w ramach przepisów antymonopolowych, wszelkie transakcje, które obejmują przejęcie co najmniej 25% akcji lub udziałów w podmiotach związanych z Wielką Brytanią, muszą być zgłaszane do odpowiednich organów regulacyjnych, takich jak CMA (Competition and Markets Authority). Dotyczy to również joint ventures, które powstają na skutek współpracy podmiotów powiązanych z brytyjskimi przedsiębiorstwami i wiążą się z inwestycjami przekraczającymi wspomniany próg. W takich przypadkach CMA podejmuje decyzję, czy wymaga to przeprowadzenia postępowania antymonopolowego, które może prowadzić do nałożenia restrykcji w celu zapobieżenia stłumieniu konkurencji.

Zgodnie z sekcją 119 w części 2 ustawy o konkurencji z 1998 roku, wprowadzone zostały zmiany rozszerzające zasięg terytorialny zakazu działań antykonkurencyjnych. Do tej pory zakazy te dotyczyły tylko działań, które były realizowane na terenie Wielkiej Brytanii, jednak nowe przepisy obejmują również takie działania, które choćby nie były realizowane na terytorium Zjednoczonego Królestwa, to jednak miałyby wyraźny wpływ na handel brytyjski. Dzięki zastosowaniu tzw. testu skutków, w przypadku wykrycia antykonkurencyjnych działań, ochrona brytyjskich firm i konsumentów ma być zapewniona, niezależnie od tego, gdzie te działania miałyby miejsce.

Równocześnie w Unii Europejskiej, kwestia konkurencji w kontekście nowych technologii, jak sztuczna inteligencja (AI) czy światy wirtualne, staje się coraz bardziej istotna. Komisja Europejska, mając na uwadze rozwój technologii generatywnej AI (GenAI), ogłosiła wezwanie do zgłaszania uwag na temat wpływu tych technologii na konkurencję. Z jednej strony, chociaż Parlament Europejski osiągnął porozumienie w sprawie Aktu o AI, z drugiej strony niektóre aspekty tej regulacji mogą mieć niezamierzone skutki uboczne, zwłaszcza w obszarze prawa antymonopolowego. Jak zauważa Schrepel, nowa regulacja wpływa na procedury oraz uprawnienia organów antymonopolowych, a także może prowadzić do nieoczekiwanych konsekwencji w praktykach rynkowych.

Aktem tym wprowadzono również nowe zasady nadzoru nad rynkiem AI. Zgodnie z art. 74, organy nadzoru rynku zobowiązane są do corocznego raportowania Komisji Europejskiej i odpowiednim krajowym organom antymonopolowym wszelkich informacji, które mogą być istotne z perspektywy stosowania prawa konkurencji w UE. Szczególną uwagę poświęcono również systemom AI uznawanym za wysokiego ryzyka. Art. 75 przewiduje, że w przypadku takich systemów, władze mają prawo do oceny ich zgodności z wymogami regulacyjnymi. Umożliwia to organom antymonopolowym dostęp do danych, które wcześniej były niedostępne, nawet jeśli nie istniały konkretne podejrzenia o naruszenie prawa.

Zmiany te mają na celu zwiększenie efektywności monitorowania przestrzegania prawa konkurencji, szczególnie w kontekście innowacyjnych technologii, które rozwijają się w szybkim tempie. Otwiera to nowe możliwości dla organów antymonopolowych, by były bardziej proaktywne i mogły wcześniej wychwytywać potencjalne zagrożenia dla konkurencji, zanim staną się one poważnym problemem na rynku.

Wprowadzenie do regulacji rynków związanych z AI jest nie tylko reakcją na wyzwania związane z szybko rosnącymi technologiami, ale także próbą utrzymania równowagi na rynku, na którym dominacja kilku gigantów technologicznych mogłaby doprowadzić do sytuacji monopolistycznych. Modele AI o szerokim zastosowaniu, które stanowią podstawę dla wielu różnych systemów, mogą prowadzić do powstania nieuczciwej przewagi konkurencyjnej, której nie będą w stanie wykorzystać mniejsze firmy. Regulacje te mają zapewnić, że korzyści płynące z nowych technologii będą dostępne dla szerokiego kręgu uczestników rynku, a nie tylko dla kilku dużych graczy.

Jednakże, wdrażanie takich regulacji nie jest wolne od kontrowersji. Z jednej strony, transparentność i obowiązek przechowywania logów generowanych przez systemy AI mogą stanowić istotne narzędzie w walce z antykonkurencyjnymi praktykami, a z drugiej strony, mogą stać się przyczyną nowych ryzyk, takich jak ułatwienie kooperacji między dominującymi graczami rynku, co prowadzi do nadużywania pozycji rynkowej.

Z perspektywy konkurencji w unijnym kontekście, szczególną uwagę należy zwrócić na regulacje dotyczące „ogólnych modeli AI”, które mogą mieć szeroki wpływ na różne sektory gospodarki. Wraz z ich rosnącym wpływem na rynek, pojawiają się pytania o przyszłość konkurencji w obliczu nowych technologii. Ostatecznie, zmiany te mają na celu nie tylko ochronę konsumentów i firm przed negatywnymi skutkami antykonkurencyjnych działań, ale także utrzymanie zdrowej konkurencji na rynku w dobie technologicznej rewolucji.

Jakie obowiązki ciążą na administracji publicznej przy wdrażaniu systemów generatywnej sztucznej inteligencji?

Zgodnie z regulacjami Unii Europejskiej, administracje publiczne pełnią rolę zarówno dostawców, jak i wdrożeniowców systemów generatywnej sztucznej inteligencji (AI), co wiąże się z określonymi zobowiązaniami, szczególnie w kontekście systemów wysokiego ryzyka. Podstawowa różnica polega na tym, że w przypadku systemów niskiego ryzyka administracja działa jako dostawca, co wymaga spełnienia szeregu obowiązków związanych z przejrzystością oraz odpowiedzialnością. Na przykład, administracja musi zapewnić, by wyjścia generowane przez system były odpowiednio oznaczone w formacie zrozumiałym maszynowo, a użytkownicy byli wyraźnie informowani o interakcji z maszyną, gdy ta nie jest oczywista (Art. 50, AIA). Celem takich regulacji jest ochrona obywateli oraz zapewnienie im pełnej świadomości w zakresie interakcji z technologią, która może mieć wpływ na ich prawa i obowiązki.

W przypadku tworzenia systemów generatywnej AI do realizacji zadań, które nie są sklasyfikowane jako wysokiego ryzyka, administracja, działając jako dostawca, jest zobowiązana do ujawnienia szczegółów dotyczących danych, które zostały użyte do treningu modelu AI, co pozwala na weryfikację przejrzystości działania tych technologii. Zgodnie z regulacjami, w szczególności Art. 53, administracja powinna także mieć dostęp do odpowiedniej dokumentacji technicznej i podsumowań związanych z wykorzystywanymi zbiorami danych, jeżeli AI model nie jest objęty licencją otwartego dostępu.

Równocześnie, administracje mogą pełnić rolę wdrożeniowców systemów generatywnej AI. W tym przypadku także muszą zapewnić, by wszelkie generowane treści były odpowiednio oznakowane jako sztucznie wygenerowane lub manipulowane. Jest to szczególnie ważne w kontekście zapewnienia przejrzystości i uczciwości w kontaktach administracji z obywatelami. Zobowiązania te mają na celu zapobieganie nadużyciom i zapewnienie, by obywatele wiedzieli, czy ich interakcja z administracją dotyczy rzeczywistego człowieka, czy też systemu sztucznej inteligencji. Zasadniczo, jeżeli AI systemy są używane do podejmowania decyzji mających wpływ na warunki pracy lub dostęp do usług publicznych, mogą być one uznane za systemy wysokiego ryzyka, co wiąże się z dodatkowymi obowiązkami związanymi z zarządzaniem ryzykiem.

W takich przypadkach administracja, działając jako dostawca systemu AI, musi spełniać bardziej złożone wymagania, takie jak implementacja systemu zarządzania ryzykiem, który monitoruje i łagodzi zagrożenia związane z AI, w tym kwestie związane z prawami podstawowymi (Art. 9, AIA). Ponadto, administracja musi dbać o jakość danych i procesy wykrywania uprzedzeń, które mogą występować w danych wykorzystywanych do treningu modelu, co jest szczególnie istotne w kontekście sprawiedliwości i równości w świadczeniu usług publicznych.

Warto również zwrócić uwagę na obowiązki związane z dokumentacją techniczną i jej aktualizowaniem (Art. 11, AIA) oraz zapewnieniem dokładności, odporności i bezpieczeństwa systemu (Art. 15, AIA). Administracja musi także podejmować działania mające na celu identyfikowanie oraz eliminowanie ryzyk związanych z bezpieczeństwem cybernetycznym, co ma na celu zabezpieczenie danych i systemów przed potencjalnymi zagrożeniami.

Unia Europejska promuje innowacje w zakresie sztucznej inteligencji, w tym eksperymentalne podejście do jej wdrażania, z zastosowaniem tzw. piaskownic regulacyjnych (regulatory sandboxes). Dzięki takim inicjatywom możliwe jest testowanie nowych technologii w kontrolowanych warunkach, co pozwala na lepsze zrozumienie potencjalnych ryzyk i korzyści związanych z wykorzystaniem AI w administracji publicznej (Art. 57, AIA). Przykładem może być działania podejmowane przez Komisję Europejską oraz Europejski Trybunał Sprawiedliwości, które wdrażają rozwiązania AI w swoich usługach, testując je w tzw. fazie eksperymentalnej. Takie podejście daje możliwość oceny skuteczności systemów AI w rzeczywistych warunkach administracyjnych, zanim przejdą one do fazy pełnej industrializacji.

Pomimo podobnych celów, podejście regulacyjne w Unii Europejskiej różni się od tego, które przyjęły władze amerykańskie. Unia koncentruje się na prewencyjnym podejściu do regulacji, tworząc systemy compliance i instytucje odpowiedzialne za nadzorowanie przestrzegania regulacji dotyczących AI. W przeciwieństwie do tego, w Stanach Zjednoczonych, mimo wdrożenia ponad 150 działań przez administrację federalną, brak jest jednolitego podejścia legislacyjnego, a odpowiedzialność spoczywa na poszczególnych agencjach. W związku z tym, Unia Europejska przyjęła bardziej spójną i zorganizowaną strukturę zarządzania AI, z naciskiem na zgodność z regulacjami i transparentność.

Przy wdrażaniu systemów generatywnej AI w administracji publicznej istotne jest również zwrócenie uwagi na kwestie etyczne i wartości, które powinny towarzyszyć rozwoju tych technologii. Decyzje podejmowane przez systemy AI mogą mieć bezpośredni wpływ na obywateli, ich prawa i dostęp do usług publicznych, dlatego szczególną wagę należy przykładać do zagadnień związanych z prywatnością, sprawiedliwością oraz odpowiedzialnością za podejmowane decyzje. Technologie te muszą być projektowane w sposób, który minimalizuje ryzyko nierówności i dyskryminacji, a jednocześnie zapewnia skuteczność i dostępność usług publicznych dla wszystkich obywateli.