W kontekście sztuki generatywnej, pojawia się jedno kluczowe pytanie: czy maszyny mogą stworzyć dzieła sztuki, które będą równie wartościowe jak te stworzone przez człowieka? A jeśli tak, to jak to wpłynie na rynek sztuki, na którym od lat toczy się debata o autentyczności i wartościach rynkowych? Z jednej strony, sztuka generatywna (GenAI) jest w stanie tworzyć dzieła, które wyglądają niemal identycznie z pracami stworzonymi przez ludzkich artystów, a z drugiej strony pojawia się pytanie o ich autentyczność oraz rynkową wartość.

Problemem, który można nazwać "problemem cytryn" (lemon problem), jest sytuacja, w której produkty o różnej jakości, ale o tej samej zewnętrznej formie, są sprzedawane po tej samej cenie. Klasycznym przykładem jest rynek samochodów, gdzie "cytryny" (produkty złej jakości) są sprzedawane po cenach nowych, droższych pojazdów. W kontekście sztuki, chodzi tu o to, że dzieła stworzone przez maszyny mogą zostać sprzedane za cenę oryginalnych, ludzkich dzieł, mimo że mogą nie spełniać tych samych standardów artystycznych czy kreatywnych.

Technologicznie rzecz biorąc, dzieła sztuki generatywnej i te stworzone przez ludzi są nieodróżnialne, przynajmniej dla osoby nieznającej się na tym temacie. Takie maszyny, jak np. sieci neuronowe typu GAN (Generative Adversarial Networks), mogą tworzyć obrazy, które są w zasadzie niemożliwe do rozróżnienia od dzieł prawdziwych artystów. Proces, w którym jedna sieć neuronowa generuje obraz, a druga ocenia, czy jest on autentyczny, jest tak zaawansowany, że po pewnym czasie nawet najbardziej wyspecjalizowane algorytmy nie są w stanie odróżnić dzieła wygenerowanego przez maszynę od tego stworzonego przez człowieka.

Nie można jednak mylić tego z oszustwem. Dzieła sztuki generowane przez AI, jak wspomniany komiks Kristiny Kashtanovej, są autentycznymi dziełami, choć stworzonymi przez maszynę. Sztuka generatywna nie jest więc fałszerstwem. Istnieją przykłady, w których technologia AI została wykorzystana do stworzenia dzieła w stylu Rembrandta, jak w projekcie "Next Rembrandt", który pozwolił na stworzenie obrazu w stylu mistrza. Jednak, mimo że obraz ten wyglądał jak prawdziwe dzieło Rembrandta, nigdy nie był sprzedawany jako autentyczny obraz tego artysty. Dlatego nie jest to fałszerstwo, ale raczej coś, co można określić jako "fałszywe dzieło" – obraz w stylu artysty, ale bez podania, że jest to prawdziwy obraz.

Natomiast czy twórcy sztuki generatywnej mają motywację, by sprzedawać swoje prace jako dzieła stworzone przez ludzi? Istnieje ku temu silna pokusa, gdyż takie dzieła, mimo że są technologiczne, mogą być sprzedawane za wyższą cenę. A to dlatego, że na rynku sztuki nadal panuje silna preferencja dla dzieł stworzonych przez człowieka. Istnieje pewna percepcyjna stronniczość w postrzeganiu dzieł stworzonych przez AI, które są często uznawane za mniej wartościowe lub mniej "autentyczne" w porównaniu do dzieł ludzkich. Na rynku zatem może dojść do sytuacji, w której "cytryny" (dzieła stworzone przez maszynę) będą sprzedawane po cenach "brzoskwiń" (dzieł ludzkich).

Sztuka generatywna nie jest jednak bez zagrożeń. Chociaż pierwsze aukcje dzieł stworzonych przez AI, jak obraz "Portret Edmond de Belamy" stworzony przez francuską grupę Obvious, cieszyły się ogromnym zainteresowaniem, kolejne transakcje nie były już tak spektakularne. Aukcje te, choć początkowo przyciągały uwagę, teraz wydają się tracić na znaczeniu, a ich ceny spadają w porównaniu do pierwszych transakcji. To może sugerować, że początkowy entuzjazm związany z wprowadzeniem sztuki generatywnej na rynek osiągnął już swój szczyt, a teraz następuje okres normalizacji.

Również, nie mniej istotnym problemem, który stoi przed sztuką generatywną, jest niepewność prawna. Wciąż nie jest do końca jasne, czy dzieła sztuki stworzone przez AI mogą zostać objęte prawami autorskimi. Brak jednoznacznych regulacji w tej kwestii sprawia, że twórcy oraz inwestorzy są zmuszeni do nieustannego poszukiwania odpowiedzi na pytanie, kto jest rzeczywistym właścicielem praw do dzieła – maszyna, jej twórca, czy może ktoś inny?

Wszystkie te elementy sprawiają, że sztuka generatywna stanowi zarówno szansę, jak i zagrożenie dla tradycyjnego rynku sztuki. Z jednej strony oferuje nowe możliwości twórcze i rozszerza granice artystyczne, z drugiej jednak rodzi pytania o autentyczność, wartość i etykę w kontekście sprzedaży tych dzieł. Ważne jest, aby w przyszłości jasno określić zasady, które będą regulować sprzedaż i obieg sztuki generatywnej, aby uniknąć sytuacji, w której rynek będzie zalany dziełami o wątpliwej wartości artystycznej, ale wysokiej cenie rynkowej.

Jak prawo unijne reguluje sztuczną inteligencję i jakie wyzwania z tego wynikają?

Regulacje dotyczące sztucznej inteligencji (AI) w Unii Europejskiej, zwłaszcza w kontekście rozwoju modeli ogólnego przeznaczenia (GPAI), stanowią próbę stworzenia ram prawnych, które zapewnią zarówno innowacyjność, jak i ochronę praw podstawowych oraz środowiska. Jednak ta próba napotyka na wiele problemów natury prawnej i praktycznej.

Podstawowym wyzwaniem jest ograniczony zakres ochrony praw podstawowych, szczególnie w odniesieniu do kwestii środowiskowych. W art. 3(49)(c) i (d) projektu AI Act ujęto jedynie wybrane ryzyka oparte na definicjach wysokiego ryzyka, które nie zawsze pokrywają się z rzeczywistymi zagrożeniami wynikającymi z szerokiego zastosowania AI. Skutkuje to lukami w prawodawstwie, przez które poważne konsekwencje AI, które nie spełniają ściśle określonych kryteriów, mogą pozostać poza zakresem regulacji.

Kolejną trudnością jest koordynacja AI Act z innymi aktami prawnymi UE, zarówno o charakterze horyzontalnym (jak RODO), jak i sektorowym (np. dotyczące urządzeń medycznych, finansów czy transportu). Teksty prawne często są techniczne i trudno czytelne, co utrudnia jednolitą interpretację i stosowanie prawa. Przykładem są przepisy zmieniające regulacje w dziedzinie lotnictwa, rolnictwa, urządzeń morskich czy interoperacyjności systemów kolejowych. Mimo to integracja jest możliwa, choć wymaga skomplikowanych analiz wielopoziomowego ryzyka związanego z różnymi regulacjami.

Ważnym aspektem jest także dynamiczny rozwój technologii, zwłaszcza generatywnej AI i dużych modeli językowych (LLM), które pojawiły się po opracowaniu pierwszego projektu regulacji. Poprawki Parlamentu Europejskiego z czerwca 2023 roku wprowadziły pojęcie „modeli bazowych” (foundation models), które charakteryzują się szerokim zastosowaniem oraz możliwością adaptacji do różnorodnych zadań przez wielu użytkowników. Definicja ta jest kluczowa, ponieważ obejmuje modele o dużym potencjale oddziaływania na rynek i społeczeństwo, a jednocześnie stawia wyzwania związane z oceną ryzyka i kontrolą ich wpływu.

Regulacja ustanawia specjalne przepisy dla takich modeli ogólnego przeznaczenia, które posiadają „wysokie zdolności wpływu” (high-impact capabilities), mogące wywołać ryzyko systemowe z powodu ich skalowalnego oddziaływania na zdrowie publiczne, bezpieczeństwo, prawa fundamentalne i społeczeństwo. W rezultacie wprowadzono złożone mechanizmy klasyfikacji i obowiązki dla dostawców tych systemów, obejmujące m.in. ocenę ryzyka, nadzór i kody postępowania.

Cały ten system prawny przypomina skomplikowaną strukturę, w której pojawiają się liczne „przełączniki” decydujące o tym, co jest AI, czym jest model ogólnego przeznaczenia, a czym system oparty na takim modelu. Ta wielowarstwowość i wzajemne przenikanie się przepisów zwiększa niepewność prawną, którą ustawodawcy starają się równoważyć zasadą pewności prawa.

Dodatkowo, regulacje muszą uwzględniać szybko zmieniający się krajobraz technologiczny, gdzie granice między badaniami, rozwojem a komercyjnym zastosowaniem AI są płynne i trudne do precyzyjnego uchwycenia. Wyłączenia dotyczące modeli wykorzystywanych do celów badawczych mają zapobiegać nadmiernemu hamowaniu innowacji, ale równocześnie stwarzają kolejne wyzwania interpretacyjne.

W kontekście tej złożoności, ważne jest, aby czytelnik rozumiał, że prawne ramy dla AI to nie tylko zbiór suchych przepisów, lecz dynamiczny proces balansowania między innowacją a ochroną interesów społecznych i praw podstawowych. Zrozumienie niuansów koordynacji między różnymi aktami prawnymi, konieczności aktualizacji przepisów wraz z postępem technologicznym oraz roli instytucji europejskich w kształtowaniu polityki AI jest kluczowe dla świadomego odbioru i interpretacji regulacji.

Należy także pamiętać, że mimo szczegółowych przepisów, AI może generować ryzyka trudne do przewidzenia, co wymaga elastycznych mechanizmów nadzoru i odpowiedzialności, a także ciągłej współpracy między państwami członkowskimi, sektorem prywatnym i środowiskami naukowymi.