Dominacja dużych korporacji technologicznych na rynku cyfrowym staje się coraz bardziej widoczna i poddawana surowej kontroli ze strony organów regulacyjnych na całym świecie. Przykłady takie jak nałożenie gigantycznej kary w wysokości 1,49 miliarda euro na firmę Google za praktyki ograniczające konkurencję w obszarze reklam na stronach trzecich pokazują, jak aktywnie Unia Europejska dąży do zapewnienia uczciwych warunków rynkowych i przeciwdziałania nadużyciom pozycji dominującej. Europejskie prawo, w tym regulacje związane z ochroną konsumenta i konkurencji, ustanawiają rygorystyczne ramy, które mają chronić rynek przed zbytnią koncentracją i monopolizacją.

Z kolei Stany Zjednoczone, mimo rosnącej uwagi poświęconej praktykom antykonkurencyjnym, często wymagają wykazania rzeczywistej szkody dla konsumentów, co stanowi wyższy próg dowodowy niż w Unii Europejskiej. Przykładem jest dochodzenie Federalnej Komisji Handlu (FTC) w sprawie wykorzystywania przez Amazon danych sprzedawców zewnętrznych do własnych celów biznesowych, co potencjalnie szkodzi niezależnym przedsiębiorcom na platformie. Raporty amerykańskiego Kongresu wzywają do głębokich reform, w tym rozdzielenia struktur korporacyjnych i zaostrzenia kontroli nad fuzjami, aby przeciwdziałać nadmiernej koncentracji w sektorze technologii.

W debacie publicznej w USA pojawiają się głosy o konieczności rozbicia dużych firm technologicznych lub znaczącej reformy obecnych przepisów antymonopolowych, które w praktyce często nie nadążają za szybko zmieniającym się rynkiem danych i technologii. Szczególnie krytycznie oceniany jest standard ochrony konsumenta, który koncentruje się głównie na cenie jako mierniku szkody, co w świecie danych i usług cyfrowych okazuje się niewystarczające. Niektórzy eksperci postulują redefinicję danych jako nowej waluty, co wymaga przemyślenia podstawowych zasad prawa konkurencji.

Warto zwrócić uwagę, że unijne prawo konsumenckie, oparte na traktatach i szeregu dyrektyw, zapewnia wysoki poziom ochrony, regulując nie tylko kwestie konkurencji, lecz także praktyki handlowe i transparentność umów cyfrowych. Kompleksowe podejście UE do regulacji rynku cyfrowego uwzględnia zarówno ochronę konsumenta, jak i przeciwdziałanie nadużyciom dominującej pozycji.

W kontekście rozwoju sztucznej inteligencji i technologii językowych (tzw. foundation models) pojawia się nowy wymiar wyzwań konkurencyjnych. Modele te, bazujące na ogromnych zbiorach danych i potężnych zasobach obliczeniowych, umożliwiają automatyzację złożonych zadań przetwarzania języka naturalnego — od streszczania informacji po generowanie tekstów czy obrazów. Ich rosnące znaczenie wymusza refleksję nad tym, jak regulacje i prawo konkurencji mogą odpowiadać na specyfikę gospodarki opartej na danych i sztucznej inteligencji.

Istotne jest zrozumienie, że dominacja w tej dziedzinie nie opiera się jedynie na tradycyjnych formach przewagi rynkowej, lecz także na kontroli nad zasobami danych i technologicznymi infrastrukturami, które są trudne do replikacji przez mniejszych graczy. Dlatego przyszłe regulacje muszą brać pod uwagę nie tylko ekonomiczne aspekty konkurencji, lecz także kwestie dostępu do danych, przejrzystości algorytmów oraz odpowiedzialności za podejmowane przez AI decyzje.

Zrozumienie tych zjawisk pozwala na lepszą ocenę ryzyka koncentracji rynku i wypracowanie skuteczniejszych narzędzi ochrony wolnej konkurencji oraz konsumentów w erze cyfrowej transformacji.

Jak Sztuczna Inteligencja może Zmienić Decyzje Korporacyjne w Świetle Nowych Wyzwań Prawnych i Etycznych

W procesie podejmowania decyzji przez zarządy korporacji, szczególnie w kontekście transakcji o dużej skali, jednym z kluczowych zagadnień jest zapewnienie sprawiedliwości i obiektywizmu w wycenach oraz analizie ryzyka. Wiele z takich transakcji, w tym przejęcia czy fuzje, wymaga rzetelnego oszacowania wartości finansowych, które będą zgodne z interesami akcjonariuszy. Z tego powodu zarządy często powołują specjalne komitety, w skład których wchodzą niezależni dyrektorzy, prawnicy oraz eksperci finansowi, którzy są odpowiedzialni za przeprowadzenie pełnego procesu planowania i realizacji transakcji.

Jednakże, niezależnie od staranności, często pojawiają się wątpliwości co do tego, czy wszystkie aspekty wyceny i związanych z nią ryzyk zostały dokładnie uwzględnione. Przykładami mogą być takie przypadki jak sprawa In re Southern Peru Copper z 2012 roku, w której zarząd przeprowadził transakcję, w której cena została ustalona w sposób, który okazał się wysoce niekorzystny dla akcjonariuszy. W sprawie tej, mimo ostrzeżeń ekspertów, przeprowadzono transakcję po zawyżonej cenie, a większość z zaangażowanych stron, w tym niezależni dyrektorzy oraz doradcy finansowi, nie podjęła skutecznych działań, by zakwestionować cenę, co doprowadziło do orzeczenia o odszkodowaniach na poziomie 2 miliardów dolarów.

W kontekście takich sytuacji, zastosowanie systemów sztucznej inteligencji (AI) może stanowić znaczący krok naprzód. Generatywna sztuczna inteligencja ma potencjał do wspierania obiektywnych i transparentnych obliczeń wyceny, poprzez analizę ogromnych zbiorów danych – w tym danych historycznych, takich jak ceny surowców czy podobne transakcje rynkowe. Systemy AI, stosujące "Big Data", mogłyby zidentyfikować manipulacje w wycenach i obnażyć niesprawiedliwość cenową, co mogłoby zapobiec niekorzystnym transakcjom lub przynajmniej ujawnić je w trakcie procesu sądowego, zwiększając transparentność w tego rodzaju sprawach.

Z tego powodu, wprowadzenie sztucznej inteligencji w procesy decyzyjne na poziomie zarządów mogłoby przyczynić się do poprawy jakości takich transakcji, w tym do lepszej ochrony interesów akcjonariuszy, zwiększając tym samym sprawiedliwość i przejrzystość działań korporacyjnych. AI mogłaby stać się narzędziem, które zapewnia "uczciwą cenę" i "uczciwy proces", co stałoby się nowym standardem w zarządzaniu korporacyjnym, zwłaszcza w kontekście negocjacji, strukturalizowania oraz realizowania takich transakcji.

Równolegle z tymi wyzwaniami, rośnie znaczenie kwestii interesów różnych grup interesariuszy w zarządzaniu korporacjami, co staje się szczególnie widoczne w dobie rosnącej popularności inwestycji opartych na zasadach ESG (Environmental, Social, Governance). Współczesne modele zarządzania korporacyjnego, szczególnie w kontekście wykorzystania sztucznej inteligencji, wymagają od zarządów uwzględniania nie tylko interesów akcjonariuszy, ale także pracowników, konsumentów, społeczności lokalnych, dostawców czy ochrony środowiska. Takie podejście staje się coraz bardziej istotne, zwłaszcza w obliczu rosnącego zainteresowania regulacjami, takimi jak unijna AI Act czy wytyczne OECD.

Z perspektywy prawa korporacyjnego, istotne jest, że w wielu jurysdykcjach, takich jak Wielka Brytania, stosowane są przepisy, które wymagają od zarządów uwzględniania interesów szerokiego kręgu interesariuszy przy podejmowaniu decyzji. Przykładem może być Companies Act z 2006 roku, który wprowadza zasadę tzw. "Enlightened Shareholder Value", zgodnie z którą zarządy mają obowiązek uwzględniać interesy nie tylko akcjonariuszy, ale również innych grup, takich jak pracownicy czy społeczności lokalne, przy podejmowaniu decyzji mających wpływ na długoterminowy sukces firmy.

Generatywna sztuczna inteligencja, wspierająca decyzje oparte na analizach finansowych, ryzykach społecznych, ekologicznych i organizacyjnych, może stać się kluczowym narzędziem do spełniania tych wymogów. AI umożliwia zbieranie i analizowanie danych w czasie rzeczywistym, co pozwala na lepsze prognozowanie wpływu decyzji na różnych interesariuszy, co z kolei może wzmocnić transparentność i odpowiedzialność zarządów w procesach decyzyjnych. To z kolei może prowadzić do bardziej sprawiedliwego podziału wartości generowanej przez korporacje, uwzględniającego dobro wszystkich grup interesariuszy, a nie tylko akcjonariuszy.

Chociaż wykorzystanie sztucznej inteligencji w zarządzaniu korporacyjnym stawia przed nami nowe wyzwania związane z regulacjami prawnymi oraz etycznymi, to jej potencjał w poprawie przejrzystości, rzetelności i sprawiedliwości procesów korporacyjnych jest niezaprzeczalny. Zarządy firm, szczególnie w kontekście odpowiedzialności wobec interesariuszy, będą musiały rozwijać swoje kompetencje w zakresie zarządzania AI i wdrażania nowych narzędzi do analizy ryzyk i wycen, aby odpowiedzieć na rosnące oczekiwania społeczne i regulacyjne.

Jak określić pochodzenie dzieł stworzonych przy pomocy sztucznej inteligencji?

W kontekście twórczości generowanej przez sztuczną inteligencję, kwestia pochodzenia dzieła staje się coraz bardziej skomplikowana. W przypadku wykorzystania GenAI do procesu twórczego, konieczne jest rozróżnienie między dziełami stworzonymi przez człowieka a tymi, które zostały wspomagane przez maszyny. W tym kontekście, aktualne przepisy unijne dostarczają ram prawnych, które mają na celu określenie, kiedy dana praca może być uznana za stworzoną przez maszynę, a kiedy przez człowieka.

Zgodnie z rozporządzeniem unijnym z dnia 13 czerwca 2024 roku (Regulation (EU) 2024/1689), wszyscy dostawcy systemów sztucznej inteligencji, w tym systemów ogólnych, mają obowiązek zapewnienia, by treści generowane przez ich systemy (audio, wideo, tekst, obrazy) były oznaczane w sposób umożliwiający wykrycie, że zostały one sztucznie stworzone lub zmanipulowane. Takie oznaczenie powinno mieć formę dostępną maszynowo, co ma na celu zapewnienie przejrzystości w przypadku treści generowanych przez sztuczną inteligencję.

Warto jednak zauważyć, że przepisy unijne przewidują wyjątek od tej zasady. Oznaczenie dzieł wygenerowanych przez AI nie jest wymagane, jeśli takie dzieło ma charakter twórczości artystycznej, chronionej prawem do wolności sztuki, zgodnie z Kartą Praw Podstawowych Unii Europejskiej. W tym przypadku, artystyczna ekspresja nie może być ograniczana przez konieczność ujawniania technologii stojącej za dziełem.

Jednakże, przy rozważaniu kwestii oznaczania dzieł tworzonych z pomocą AI, pojawia się pytanie o granicę tego, co stanowi "znaczną modyfikację" w kontekście sztuki generowanej przez maszyny. Często nie jest łatwo określić, czy AI jedynie wspomaga proces twórczy, czy też dokonuje istotnych zmian w ostatecznym efekcie. Takie rozróżnienie ma kluczowe znaczenie w kontekście regulacji, gdyż oznaczenie dzieł jako "wygenerowane przez AI" może wiązać się z innymi konsekwencjami prawnymi i społecznymi.

W odniesieniu do powyższego, problem "znacznej modyfikacji" jest również obecny w regulacjach dotyczących pochodzenia towarów, szczególnie w kontekście produktów, których produkcja wiąże się z wieloma etapami w różnych krajach. Zgodnie z unijnym kodeksem celnym, produkt jest uznawany za pochodzący z kraju, w którym przeszedł ostatnią, zasadniczą modyfikację, prowadzącą do wytworzenia nowego produktu lub istotnego etapu produkcji. Przy analogii do twórczości generowanej przez AI, oznacza to, że dzieło może mieć swoje źródło zarówno w pracy ludzkiej, jak i maszynowej. Kluczowe jest zatem, czy ludzka ingerencja w dzieło miała charakter istotny, czy też była jedynie formą edycji, niezmieniającą w istotny sposób jego natury.

Przykład z wykorzystaniem systemu GenAI, który może wymagać setek lub nawet tysięcy instrukcji, wskazuje, że w takich przypadkach, dzieło jest w większym stopniu dziełem człowieka niż maszyny. Należy zatem zadać pytanie, czy takie dzieło nadal może być traktowane jako "wygenerowane przez AI" w pełnym tego słowa znaczeniu.

W kontekście regulacji prawa, taki podział na "sztucznie stworzone" i "ludzkie" dzieła, oparte jedynie na prostym rozróżnieniu pomiędzy użyciem AI a brakiem jego zastosowania, może być niewłaściwy. W rzeczywistości, bardzo często AI służy jedynie do edycji lub drobnych modyfikacji, co w żaden sposób nie zmienia całkowitej struktury twórczości, która wciąż jest wynikiem ludzkiej inicjatywy. Dlatego też, konieczne może być przyjęcie bardziej elastycznego podejścia, które pozwalałoby na uwzględnienie zakresu ludzkej ingerencji w proces twórczy.

Tego typu rozważania powinny prowadzić do dalszej dyskusji nad tym, jak należy traktować dzieła generowane przez sztuczną inteligencję w kontekście prawa własności intelektualnej, ochrony praw autorskich, oraz kwestii związanych z odpowiedzialnością prawną za takie dzieła. Ważne jest, aby w przyszłości rozróżnienie pomiędzy twórczością ludzką a twórczością maszynową było oparte na głębszym zrozumieniu procesu twórczego i jego natury, a nie jedynie na formalnym rozróżnieniu technologicznym.

Czy twórczość generowana przez sztuczną inteligencję może być chroniona prawem autorskim?

W ostatnich latach kwestia ochrony prawnoautorskiej dzieł tworzonych z pomocą sztucznej inteligencji stała się przedmiotem intensywnych dyskusji. Istnieje wiele trudności związanych z ustaleniem, w jakim stopniu prace stworzone przez maszyny mogą zostać uznane za dzieła chronione prawem autorskim, a także jakie warunki muszą zostać spełnione, by zapewnić taką ochronę.

Jednym z kluczowych zagadnień w tej kwestii jest pytanie o „istotną transformację” dzieła przez człowieka, czyli o stopień, w jakim twórcza ingerencja ludzka wpływa na końcowy rezultat tworzony z pomocą sztucznej inteligencji. Można to mierzyć na przykład za pomocą zasady ad valorem, polegającej na porównaniu właściwości dzieła przed i po ludzkiej edycji, oceniając wartość dodaną, jaką wprowadza ludzka interwencja. W takim przypadku można przypuszczać, że edycje polegające jedynie na porządkowaniu, klasyfikowaniu lub montowaniu wyników generowanych przez systemy GenAI (sztucznej inteligencji opartej na generatywnych algorytmach) nie będą uznawane za wystarczająco istotne.

W kontekście transformacji i kontroli nad twórczością, kluczowe znaczenie miała decyzja USCO (United States Copyright Office) w sprawie obrazu „Zarya of the Dawn”, którego prawa autorskie nie zostały przyznane, ponieważ użytkownik systemu GenAI, który stworzył dzieło, nie udowodnił, że kontrolował cały proces twórczy. Decyzja ta była zgodna z orzecznictwem zarówno amerykańskim (Burrow-Giles), jak i europejskim (Painer). W sprawie Painer Trybunał Sprawiedliwości UE wyraźnie rozróżnił trzy etapy tworzenia dzieła: fazę przygotowawczą, fazę wykonywania i fazę redakcji. Każdy z tych etapów jest istotny w kontekście oceny, czy dzieło można uznać za chronione prawem autorskim.

Na etapie koncepcji autor wybiera temat i styl dzieła, które chce stworzyć. Na etapie wykonania to, co zaplanowano podczas koncepcji, jest przekształcane w wersje robocze. Na etapie redakcji autor ostatecznie wybiera spośród wersji roboczych, które wymagają dalszego przetworzenia, by dzieło mogło zostać zaprezentowane publiczności. Jak zauważył Trybunał, autor może „wbić swój osobisty ślad” w każdym z tych trzech etapów tworzenia dzieła.

Sztuczna inteligencja może mieć różny wpływ na każdy z tych etapów twórczości. W fazie koncepcji AI nie jest jeszcze zaangażowana – to wciąż domena człowieka. Jednak na etapie wykonania system GenAI odgrywa „dominującą rolę”, produkując wyniki w sposób, który użytkownik systemu może tylko ogólnie przewidzieć, ale nie jest w stanie do końca zrozumieć ani wyjaśnić. To nie oznacza jednak, że nie ma miejsca na kreatywność człowieka. W niektórych przypadkach artysta może monitorować output systemu AI, dostosowując parametry, by lepiej pasowały do zdefiniowanych celów. Ostatecznie delegowanie etapu wykonania na maszynę nie wyklucza możliwości uznania takiego dzieła za chronione prawem autorskim, pod warunkiem, że artysta kontroluje wystarczająco ten proces, podobnie jak robili to fotografowie, tacy jak Sarony i Painer, którzy używali swoich aparatów do realizacji zamierzonych dzieł.

Na etapie redakcji rola człowieka oscyluje pomiędzy prostym wyborem spośród wyników wygenerowanych przez system AI a rzeczywistym procesem edytowania, w zależności od tego, czy wygenerowane dzieło jest gotowe do publikacji, czy wymaga dalszej pracy. W tym kontekście argumentuje się, że „kreatywny wybór na etapie redakcji może wystarczyć do uznania oryginalności całej produkcji”.

Ostatecznie dzieło może być uznane za chronione prawem autorskim, jeśli jego autor ma kontrolę nad tworzeniem, nie ograniczając się tylko do pomysłu (co do „czego”) i bezpośrednio lub pośrednio kontroluje realizację (co do „jak”). Na przykład w sprawie „Zarya of the Dawn” amerykańska agencja USCO stwierdziła, że użytkowniczka systemu Midjourney kontrolowała koncepcję, ale nie sprawowała wystarczającej kontroli nad wykonaniem, ponieważ początkowo wygenerowane obrazy były tworzone w sposób „nieprzewidywalny” na podstawie „losowo generowanego szumu”, który następnie był udoskonalany za pomocą „tokenów stworzonych z zapytań użytkownika powiązanych z bazą danych treningowych Midjourney”. Dla USCO oznaczało to, że „choć dodatkowe zapytania stosowane do tych początkowych obrazów mogą wpłynąć na kolejne obrazy, proces nie jest kontrolowany przez użytkownika, ponieważ nie jest możliwe przewidzenie, co system Midjourney stworzy w przyszłości”.

Z kolei kwestia „losowości” jest interesującym zagadnieniem. Prawo autorskie akceptuje pewien stopień przypadkowości w wykonaniu dzieła. Dopiero wtedy, gdy autor straci zbyt dużo kontroli nad wykonaniem, pojawia się pytanie, czy dzieło zachowuje niezależność i charakter twórczy. To przypomina podejście Jacksona Pollocka, który twierdził, że mimo pozornej przypadkowości w jego pracach, kontrolował cały proces twórczy. Podobnie jest z użytkownikami systemów AI, którzy mogą polegać na losowych siłach, ale tylko wtedy, gdy są w stanie skierować te siły na określony cel.

W kontekście prawa autorskiego ważne jest, by twórcy potrafili wykazać, że ich wkład w dzieło był twórczy i unikalny. Użytkownicy GenAI muszą być w stanie udowodnić, że wygenerowane obrazy są wynikiem ich kreatywnej kontrybucji, a nie tylko efektem działania maszyny. W tym celu warto przechowywać zapytania (prompty), które zostały użyte do generowania obrazów, oraz zapisywać etapy tworzenia i parametry, które miały wpływ na ostateczny rezultat. Istotne jest, by w procesie twórczym nie ograniczać się tylko do prostego używania systemów AI, lecz by świadomie i twórczo kontrolować całą procedurę tworzenia.