W orzecznictwie amerykańskim istnieje koncepcja „pośredniego kopiowania”, czyli kopiowania materiału powoda jako etapu procesu tworzenia czegoś, co wyciąga wyłącznie informacyjną lub „nieekspresyjną” wartość tego dzieła. Przykładem są dwie sprawy rozpatrywane przez Dziewiąty Okręgowy Sąd Apelacyjny, dotyczące konsol do gier wideo, w których kopiowanie systemu operacyjnego powoda zostało uznane za dozwolony użytek. Cel takiego kopiowania nie polegał na replikacji oryginalnego dzieła, lecz na badaniu systemu, by umożliwić tworzenie gier kompatybilnych z daną konsolą lub uruchamianie istniejących gier na innym sprzęcie. Sądy podkreśliły, że cel kopiowania różnił się od ekspresji zawartej w systemie operacyjnym powoda — kopiowanie miało na celu jedynie ustalenie sposobu współdziałania gier i sprzętu.

Podobnie w sprawie Authors Guild przeciwko Google Sąd Drugiego Okręgu orzekł, że skanowanie milionów książek przez Google było dozwolonym użytkiem, ponieważ służyło jedynie umożliwieniu przeszukiwania tekstów, a nie dostarczaniu ich kopii. Najwyższy Sąd Stanów Zjednoczonych z kolei uznał, że użycie formatów poleceń z platformy Java było dozwolone, gdyż miało ułatwić programistom tworzenie aplikacji na smartfony. Te orzeczenia wskazują na dominujące przed pojawieniem się generatywnej sztucznej inteligencji stanowisko, że przetwarzanie dzieła w celu pozyskania jego funkcjonalnej czy informacyjnej wartości jest działaniem dozwolonym.

Jednak wcześniejsze decyzje opierały się silnie na charakterze efektu działań pozwanego. Pierwszy czynnik analizy dozwolonego użytku — czy użycie miało inny cel niż pierwotna ekspresja — oraz czwarty czynnik — czy nowa praca zastępuje oryginalny produkt na rynku — pozostają ze sobą ściśle powiązane. W omawianych sprawach Dziewiątego Okręgu efekt działań powodował powstanie gier niekonkurujących z oryginalną konsolą lub umożliwiał uruchamianie gier w innym środowisku, co nie stanowiło bezpośredniej konkurencji. Google z kolei ograniczył wyniki wyszukiwania tak, by nie były substytutem fizycznych książek. Sąd Najwyższy wskazał też, że Java nie była wykorzystywana jako system operacyjny smartfonów, co eliminuje ryzyko zastąpienia oryginalnego rynku.

Z drugiej strony, sądy odmówiły uznania dozwolonego użytku tam, gdzie kopiowanie, mimo że miało wydobyć jedynie wartości informacyjne, generowało produkty mogące wypierać oryginały z rynku. W sprawie Fox News Network przeciwko TVEyes uznano, że usługa internetowego klipowania wiadomości, dostarczająca dziesięciominutowe fragmenty, mogła zastąpić oryginalne programy, przez co nie mieściła się w dozwolonym użytku. Wyjątkowe znaczenie ma decyzja Sądu Najwyższego w sprawie Andy Warhol Foundation przeciwko Goldsmith, gdzie nawet ograniczona analiza pierwszego czynnika dozwolonego użytku wskazała, że wykorzystanie fotografii przez Warhola do stworzenia portretu na okładkę magazynu nie było transformacją, gdyż pełniło ten sam cel co licencjonowanie oryginału.

Historia ta ukazuje, że nie istnieje jednoznaczna odpowiedź na pytanie, czy użycie chronionych utworów do trenowania generatywnych modeli AI jest dozwolone. Decyzja może zależeć od charakteru i przeznaczenia efektów działania systemu. Pojawia się też problem odpowiedzialności — czy powinna ona wynikać wyłącznie z faktu, że system wygenerował prace podobne do materiałów treningowych, czy raczej z niedochowania przez dostawcę AI odpowiednich środków ostrożności.

Analogiczne podejście do odpowiedzialności na podstawie podobieństwa wygenerowanych efektów do materiałów treningowych odzwierciedla obecne prawo autorskie wobec twórców ludzkich. Wskazuje to, że jeśli trenowanie AI można porównać do ludzkiego uczenia się, to reprodukcja podobnych utworów powinna być traktowana jako naruszenie, nawet jeśli niezamierzone. Jednakże taka analogia pomija istotne różnice między procesem tworzenia człowieka a generowaniem AI. W przypadku AI etap uczenia się jest oddzielony od produkcji, a kontrola nad tymi etapami może należeć do różnych podmiotów. Dostawca systemu kontroluje proces treningowy i wybór materiałów, ale często nie ma kontroli nad konkretnymi generowanymi rezultatami, które są wywoływane przez użytkowników nieznających źródeł treningu.

W systemach publicznie dostępnych użytkownik steruje generowaniem poprzez zapytania (prompt), często nieświadomie lub bez precyzyjnej intencji uzyskania dzieł przypominających oryginały. W takiej sytuacji obrona oparta na dozwolonym użytku dostawcy systemu nie powinna być uzależniona od działań użytkowników, na które dostawca nie ma wpływu. Obrona musi być sprawiedliwa i nie powinna opierać się na formalnościach. Z drugiej strony, niedopuszczalne jest również zwalnianie dostawcy z odpowiedzialności wyłącznie dlatego, że nie kontroluje ostatecznych efektów generowania.

Ważne jest zrozumienie, że granica między dozwolonym użytkiem a naruszeniem prawa autorskiego w kontekście AI nie jest jasna i zależy od złożonych czynników, takich jak charakter wyjściowego utworu, cel wykorzystania, potencjalny wpływ na rynek oraz stopień kontroli nad procesem generowania. W tym kontekście, krytyczne jest uważne rozważenie zarówno praw twórców, jak i innowacyjnego potencjału AI oraz konieczność dostosowania prawa do nowej rzeczywistości technologicznej.

Czy ograniczanie dostępu do baz danych prawnych w dobie GenAI narusza zasady konkurencji?

Współczesne technologie generatywnej sztucznej inteligencji (GenAI) bazują w dużej mierze na wysokiej jakości zbiorach danych, które umożliwiają tworzenie zaawansowanych aplikacji, szczególnie w sektorze technologii prawnych. Właściciele takich baz danych, zwłaszcza jeśli zajmują dominującą pozycję na rynku, mogą wykorzystywać swoje zasoby, aby uzyskać przewagę konkurencyjną, ograniczając dostęp innym podmiotom. Pojawia się pytanie, czy takie działanie stanowi nadużycie pozycji dominującej i naruszenie zasad konkurencji.

Posiadanie własności intelektualnej do zbiorów danych nie jest samo w sobie problematyczne — prawo autorskie gwarantuje właścicielom wyłączne prawa do ich używania i dystrybucji. To zachęca do inwestycji w rozwój i utrzymanie baz, które są kosztowne i wymagają czasu. Jednakże, gdy podmiot dominujący odmawia konkurentom dostępu do danych, które są niezbędne do funkcjonowania lub innowacji na rynku, może to zostać uznane za praktykę antykonkurencyjną. W szczególności w Unii Europejskiej, na mocy artykułu 102 TFUE, takie zachowanie może zostać zakwalifikowane jako nadużycie pozycji dominującej. Podobne regulacje istnieją także w Stanach Zjednoczonych na gruncie Sherman Act.

Istotnym narzędziem prawnym jest tutaj tzw. doktryna „essential facilities”, według której dostęp do określonego zasobu (w tym przypadku bazy danych) jest niezbędny dla konkurentów, by mogli oni skutecznie działać lub wprowadzać innowacje na rynku. Choć stosowanie tej doktryny jest ostrożne i ograniczone, to jej zastosowanie jest możliwe, jeśli odmowa dostępu znacząco szkodzi konkurencji. Przykłady z orzecznictwa pokazują, że analogiczne zasady mają zastosowanie w różnych jurysdykcjach — od UE, przez USA, aż po RPA.

W przypadku wykorzystania baz danych do trenowania modeli GenAI, konsekwencje mogą być jeszcze poważniejsze. Połączenie danych i technologii generatywnej sztucznej inteligencji pozwala na szybkie zwiększenie przewagi rynkowej przez podmioty, które kontrolują zasoby danych. Brak dostępu dla innych graczy ogranicza innowacyjność i może skutkować zmniejszeniem korzyści dla konsumentów. Tym samym konflikt pomiędzy ochroną praw autorskich a potrzebą zapewnienia konkurencji staje się szczególnie wyraźny.

Dodatkowo, kwestia danych i konkurencji dotyka również praktyk takich jak data scraping, czyli automatycznego pozyskiwania informacji ze stron internetowych. Choć jest to technicznie możliwe i stosunkowo tanie, rodzi liczne wątpliwości prawne i etyczne. Z jednej strony scraping może naruszać prawa autorskie i warunki korzystania ze stron, z drugiej — stosowany w celu zastąpienia oryginalnego serwisu, może być praktyką ograniczającą konkurencję, zwłaszcza gdy odbiera źródłu ruch i przychody reklamowe. Takie działania mogą być uznane za nieuczciwe, mimo że prawo w tym zakresie nie zawsze jest jednoznaczne.

Na poziomie technologicznym modele GenAI, zwane również modelami bazowymi (foundation models) czy dużymi modelami językowymi (LLM), mają charakter platform, które umożliwiają zewnętrznym deweloperom tworzenie własnych aplikacji. Przykładem jest udostępnianie API przez takie firmy jak OpenAI, co pozwala na integrację funkcji AI w różnych produktach. Meta z kolei idzie krok dalej, otwierając kod źródłowy swojego modelu Llama, dając użytkownikom swobodę dostosowywania i rozwoju technologii. To z kolei zmienia dynamikę rynku i kwestie dostępu do technologii.

Ważne jest zrozumienie, że rynek GenAI w kontekście danych i dostępu do nich nie jest tylko polem rywalizacji technologicznej, lecz także prawnym i regulacyjnym. Balans pomiędzy ochroną własności intelektualnej a koniecznością zapewnienia konkurencyjności i innowacji jest niezwykle delikatny. Właściwe uregulowanie tych kwestii wpływa nie tylko na kondycję rynku, ale przede wszystkim na jakość i dostępność nowoczesnych rozwiązań dla użytkowników końcowych.

Jak rozróżnić dzieło stworzone przez człowieka od generowanego przez sztuczną inteligencję?

Współczesny rynek sztuki staje przed nowymi wyzwaniami, które wynikają z rozwoju sztucznej inteligencji (AI). Coraz częściej pojawiają się pytania dotyczące tego, jak odróżnić dzieło stworzone przez człowieka od tego wygenerowanego przez maszynę. Odpowiedzią na to zagadnienie może być opracowanie tzw. "bottom-up rule of origin" – zasad, które pozwolą wyznaczyć jednoznaczne granice między twórczością ludzką a sztuczną inteligencją.

Zasadniczym celem wprowadzenia takich narzędzi jest ułatwienie artystom i twórcom przedstawienia swoich dzieł w sposób, który jednoznacznie wskazuje na ich ludzkie pochodzenie. Z perspektywy ekonomicznej, mówimy tutaj o tzw. sygnalizowaniu jakości. Termin ten odnosi się do wysiłków sprzedawców, którzy dążą do przekonania kupujących o wartości swoich produktów, w tym przypadku dzieł sztuki. Koncepcja ta, opisana przez Michaela Spence’a, zakłada, że sygnał jest skuteczny, gdy istnieje ukryta cecha produktu, która jest istotna dla nabywców. Dobre sygnały są wiarygodne, niedrogie i trudne do skopiowania przez sprzedawców oferujących produkty niższej jakości.

Takie podejście ma jednak swoje ograniczenia w kontekście sztuki, gdzie jakość dzieła nie jest oceniana w trakcie zakupu, a po nim, co utrudnia weryfikację jego pochodzenia. Dlatego jednym z najbardziej efektywnych sposobów na sygnalizowanie ludzkiego autorstwa mogłoby być dołączenie do dzieła dokumentacji w postaci nagrania przyspieszonego procesu twórczego. Taki sposób, na przykład w formie filmu przyspieszonego, w którym widać twórcę pracującego nad dziełem, pozwalałby kupującemu na autentyczną weryfikację źródła powstania dzieła. Pomimo że nie każda forma sztuki nadaje się do tego typu dokumentacji (np. pisanie książki), może to stanowić ważny element autentyfikacji w przypadku rzeźby czy malarstwa.

Przykładem, który pokazuje, jak ważne jest udowodnienie pochodzenia dzieła, może być historia Tiary Saïtapharnès, zakupionej przez Luwr w 1896 roku. Po zakupie zaczęły pojawiać się wątpliwości co do jej autentyczności, które rozwiał dopiero złotnik Israel Rouchomowsky, przedstawiając dokumentację fotograficzną ze swojego studia. Takie przypadki dowodzą, że poszukiwanie dowodów na autentyczność staje się kluczowe w kontekście rynku sztuki, szczególnie gdy mamy do czynienia z ryzykiem fałszerstw.

W przypadku sztuki generowanej przez AI, rozwiązaniem może być technologia "watermarking", polegająca na osadzeniu w dziele cyfrowym niewidocznych dla ludzkiego oka znaków, które mogą zostać wykryte za pomocą algorytmów. Takie podejście pozwala na zidentyfikowanie, czy dany utwór został stworzony przez maszynę, czy przez człowieka. Warto zauważyć, że ta technologia może stać się kluczowym elementem na rynku sztuki, szczególnie w kontekście zagrożenia, że dzieła stworzone przez AI będą sprzedawane jako ludzkie, co mogłoby prowadzić do fałszywego wzrostu ich wartości.

Z perspektywy ekonomicznej, podobnie jak w przypadku sztuki autentycznej, rynek sztuki generowanej przez AI może potrzebować nowych ekspertów, którzy będą w stanie weryfikować pochodzenie dzieł. Takie osoby mogłyby specjalizować się w detekcji "watermarków" lub sprawdzać, czy zostały one usunięte z dzieła. Z kolei, jak w przypadku ekspertów oceniających autentyczność sztuki tradycyjnej, ich opinie mogą wpływać na wycenę dzieł, prowadząc do wzrostu wartości sztuki tworzonej przez ludzi.

Warto jednak podkreślić, że samo wprowadzenie takich narzędzi nie rozwiązuje wszystkich problemów związanych z rozróżnianiem sztuki ludzkiej i generowanej przez AI. Kluczowe będzie, aby systemy sztucznej inteligencji same oferowały mechanizmy umożliwiające identyfikację swojego wkładu w dany utwór, a nie polegały wyłącznie na samodzielnej deklaracji twórcy lub sprzedawcy.

Warto również pamiętać, że w przyszłości technologia będzie się nadal rozwijać, a pytanie o autentyczność dzieł sztuki stanie się jeszcze bardziej złożone. W związku z tym pojawi się potrzeba dalszego rozwijania metod weryfikacji, które będą w stanie skutecznie odróżniać oryginalne dzieła stworzone przez ludzi od tych, które zostały wygenerowane przez sztuczną inteligencję. Tylko wtedy będzie można utrzymać równowagę na rynku sztuki i zapewnić jego transparentność.

Jak Singapur kształtuje przyszłość AI i jej wpływ na rynek pracy oraz rozwój regionalny?

Singapur stawia na odpowiedzialne zarządzanie ryzykiem związanym z AI, jednocześnie promując innowacje i odpowiedzialne wdrażanie generatywnej sztucznej inteligencji. W ramach swojego Modelowego Ramienia dla GenAI, państwo podkreśla znaczenie inicjatyw, które wspierają małe i średnie przedsiębiorstwa poprzez dostarczanie narzędzi i szkoleń, czego przykładem jest GenAI Sandbox. Takie działania mają na celu przygotowanie przedsiębiorców do skutecznego wykorzystania rozwiązań generatywnej AI w biznesie, co jest istotnym elementem budowy przewagi konkurencyjnej na dynamicznie zmieniającym się rynku.

Singapur dostrzega także potrzebę intensyfikacji badań nad bezpieczeństwem i dostosowaniem modeli AI do wartości i kontekstów lokalnych. Powstawanie instytutów badawczo-rozwojowych poświęconych bezpieczeństwu AI oraz rozwijanie baz danych wysokiej jakości, reprezentatywnych dla specyficznych kontekstów, to kolejne kluczowe elementy polityki państwa. Szczególną uwagę zwraca się na tworzenie repozytoriów danych treningowych, które odzwierciedlają kulturową i językową różnorodność regionu Azji Południowo-Wschodniej.

Projekt SEA-LION (Southeast Asian Languages in One Network) jest przełomowym przedsięwzięciem, które ilustruje strategiczne podejście Singapuru do rozwoju suwerennych technologii AI. Model ten, finansowany przez Narodową Fundację Badawczą, jest pierwszym dużym modelem językowym (LLM) dostosowanym do lingwistycznych i kulturowych specyfik regionu SEA. W regionie, gdzie dominuje wielojęzyczność i istnieje wiele lokalnych wariantów językowych, SEA-LION wprowadza innowacyjne metody tokenizacji, które pozwalają na lepsze zrozumienie i przetwarzanie różnorodnych języków. Taka lokalizacja modeli AI umożliwia nie tylko bardziej trafne interpretacje, ale także respektuje wartości i normy społeczne, które różnią się od tych, które dominują w krajach zachodnich.

W kontekście rynku pracy, Singapur stoi przed unikalnymi wyzwaniami demograficznymi – starzejącą się populacją i niską dzietnością, co w połączeniu z historyczną zależnością od pracowników migrujących, wymusza szybkie adaptowanie się do automatyzacji i generatywnej AI. Automatyzacja postrzegana jest jako niezbędna do utrzymania konkurencyjności gospodarki, ale rodzi też obawy dotyczące krótkoterminowych skutków dla różnych segmentów pracowników, w tym także białych kołnierzyków. Singapurskie instytucje już prowadzą dialogi społeczne i opracowują narzędzia, takie jak „Przewodnik po redystrybucji pracy w erze AI”, który wskazuje na konieczność transformacji miejsc pracy z poszanowaniem człowieka. Kluczowe jest tutaj nie tylko przekwalifikowanie pracowników, ale też klarowne ścieżki kariery, usuwanie barier cyfrowej transformacji oraz skuteczna komunikacja między pracodawcami a pracownikami.

Wreszcie, na poziomie regionalnym, Singapur odgrywa ważną rolę w kształtowaniu standardów i praktyk zarządzania AI w ASEAN. Opublikowany w 2024 roku przewodnik ASEAN dotyczący zarządzania i etyki AI promuje spójność między państwami członkowskimi i wspiera interoperacyjność ram regulacyjnych. Przewodnik ten, podobnie jak Modelowy Ramień Singapuru, bazuje na zasadach transparentności, sprawiedliwości, bezpieczeństwa, odporności, humanocentryczności, prywatności i odpowiedzialności. Takie podejście opiera się na zarządzaniu ryzykiem, które dostosowuje poziom nadzoru ludzkiego do stopnia potencjalnego zagrożenia.

Ważne jest zrozumienie, że sukces wdrożenia AI w Singapurze i regionie wymaga nie tylko technologicznego zaawansowania, ale również głębokiego osadzenia w lokalnym kontekście społecznym i kulturowym. Automatyzacja i generatywna AI nie mogą być traktowane jedynie jako narzędzia efektywności – ich integracja z życiem społecznym musi respektować zróżnicowane wartości i potrzeby ludności. Rozwijanie lokalnych modeli językowych i prowadzenie polityki edukacyjnej skoncentrowanej na przekwalifikowaniu pracowników są niezbędne, by zmniejszyć społeczne napięcia i umożliwić harmonijną transformację rynku pracy.

Ponadto, w obliczu globalnych wyzwań, takich jak zmiany demograficzne czy rosnące wymagania dotyczące ochrony prywatności, państwa muszą łączyć wysiłki na poziomie międzynarodowym i regionalnym, tworząc ramy współpracy oraz wymiany wiedzy i technologii. Transparentność i odpowiedzialność w zarządzaniu AI stanowią fundament zaufania społecznego i legitymizacji nowych technologii. Dlatego niezmiernie ważne jest, by rozwój AI szedł w parze z etyczną refleksją i uwzględnieniem długofalowych skutków społeczno-ekonomicznych.