W 2023 roku niemiecki fotograf Boris Eldagsen odmówił przyjęcia nagrody w kategorii Creative Open Competition w ramach Sony World Photography Award, ujawniając, że jego zwycięskie zdjęcie zostało stworzone za pomocą sztucznej inteligencji. Eldagsen wyjaśnił, że celowo wprowadził w błąd jurorów, aby rozpocząć publiczną dyskusję na temat przyszłości fotografii i roli technologii w sztuce. To wydarzenie pokazuje, jak złożona jest kwestia autorstwa, prawa do dzieła sztuki i znaczenie kreatywności w kontekście maszynowo wspomaganych lub całkowicie generowanych przez AI obrazów.
Pierwszym ważnym wnioskiem jest to, że, jak wskazuje sprawa Burrow-Giles i Painer, użycie maszyny w procesie tworzenia dzieła sztuki nie eliminuje możliwości posiadania praw autorskich, o ile użytkownik maszyny potrafi wykazać odpowiednią kontrolę twórczą nad powstałym dziełem. Jednak decyzja USCO dotycząca dzieła "Zarya of the Dawn" wskazuje, że użytkownicy sztucznej inteligencji nie osiągają wymaganego progu twórczej kontroli, co skutkuje brakiem możliwości uzyskania praw autorskich. To budzi poważne pytania dotyczące sposobu, w jaki powinniśmy traktować dzieła stworzone z pomocą AI w kontekście prawa autorskiego.
Zgodnie z teorią, którą opisał George Akerlof w swojej pracy o "problemie cytryn" (lemons problem), w rynku sztuki pojawia się asymetryczna informacja. Artyści wiedzą, czy dane dzieło zostało stworzone przez człowieka, czy też przy pomocy maszyny, ale odbiorcy tych dzieł, czyli nabywcy i kolekcjonerzy, już nie. Z tego powodu artyści wykorzystujący sztuczną inteligencję mogą wprowadzać w błąd, nie ujawniając, że maszyna odegrała rolę w tworzeniu dzieła. W efekcie obrazy stworzone z pomocą AI mogą być sprzedawane po cenach, które nie odzwierciedlają ich rzeczywistej wartości, w porównaniu z dziełami stworzonymi w pełni przez ludzi. To z kolei prowadzi do problemu nierówności w ocenie wartości artystycznej i ekonomicznej między dziełami tworzonymi przez ludzi a tymi wspomaganymi przez maszyny.
Jako ekonomiczne konsekwencje tego zjawiska należy wskazać, że cena dzieł sztuki wspomaganych przez AI, sprzedawanych bez ujawnienia ich pochodzenia, może być zawyżona, podczas gdy dzieła tworzone przez ludzi będą nieuczciwie niedoszacowane. Z perspektywy rynku sztuki to nie tylko kwestia praw autorskich, ale również wpływ na całą strukturę rynku, w którym sztuka tworzona ręcznie może zostać wyparta przez twórczość maszynową. W takich warunkach artyści wytwarzający prawdziwie ludzkie dzieła mogą napotkać trudności w uzyskaniu adekwatnych wynagrodzeń za swoją twórczość.
Rozważając tę sytuację z punktu widzenia darwinowskiej teorii doboru naturalnego, można zauważyć, że maszyny wspomagające tworzenie dzieł sztuki stają się "dominującym gatunkiem" na rynku, gdyż korzystają z asymetrii informacji. Według Darwina, jeśli jedna forma życia ma jakąkolwiek przewagę nad inną, szybko ją wyprzedzi. W tym przypadku, przewaga technologii generującej sztukę (nawet jeśli dzieła te są sprzedawane po niższej cenie, z racji ich sztucznego charakteru) prowadzi do marginalizacji dzieł stworzonych przez ludzi, nawet jeśli te ostatnie są twórczość artystycznie i kulturowo bardziej wartościowe.
Zgodnie z teorią naturalnej selekcji, proces eliminacji mniej "wydajnych" podmiotów z rynku jest nieunikniony. W przypadku rynku sztuki, gdzie maszyny generujące dzieła mogą szybko zastąpić prace ludzi, nie zachodzi jednak konkurencja oparta wyłącznie na jakości twórczości, lecz raczej na "wykorzystaniu" asymetrycznej informacji. Dzieła stworzone przez maszyny są wybierane na podstawie ukrytej przewagi, jaką daje im możliwość masowej produkcji, przy niższych kosztach i potencjalnie wyższych zyskach. To stanowi przykład "selekcji nienaturalnej", gdzie na rynku nie decyduje wartość artystyczna, ale sztucznie wytworzone preferencje i luki informacyjne.
Aby zapobiec wypieraniu twórczości ludzkiej, proponuje się wprowadzenie zasady pochodzenia, podobnej do tych stosowanych w ochronie autentyczności dzieł sztuki oraz w regulacjach celnych i podatkowych w Unii Europejskiej. Taka zasada wymagałaby od artystów i sprzedawców ujawnienia, czy dane dzieło zostało stworzone przez człowieka, czy też przy użyciu sztucznej inteligencji. Wprowadzenie takich regulacji pozwoliłoby na wprowadzenie przejrzystości na rynku sztuki i umożliwiłoby rozróżnienie między dziełami tworzonymi ręcznie a tymi, które powstały z użyciem maszyn.
Tego rodzaju zmiany nie powinny być traktowane jako opór wobec technologii, lecz jako rozsądna odpowiedź na potencjalne skutki ekonomiczne i kulturowe, które AI może mieć na rynek sztuki. Tylko poprzez wprowadzenie przejrzystych zasad i utrzymanie równowagi na rynku sztuki, możemy zapewnić przestrzeń zarówno dla dzieł tworzonych przez ludzi, jak i tych powstających z pomocą technologii.
Jakie są wyzwania i ryzyka związane z wykorzystaniem dużych modeli językowych w generatywnej sztucznej inteligencji?
Generatywna sztuczna inteligencja (AI), szczególnie w postaci dużych modeli językowych (Large Language Models, LLM), zdobywa coraz większe znaczenie w wielu dziedzinach, w tym także w prawie. Kluczowym elementem w pracy z tymi modelami jest tzw. „prompt” – ciąg instrukcji, pytań lub stwierdzeń, które mają nakierować model na wygenerowanie odpowiedzi o określonym charakterze. Skuteczność i jakość otrzymanego wyniku zależy w dużej mierze od precyzji i konstrukcji promptu, co stało się podstawą dynamicznie rozwijającej się dziedziny inżynierii promptów.
W ocenie przydatności LLM w konkretnych zadaniach powszechnie stosuje się benchmarking. Jest to system testów, które obejmują zestaw pytań wraz z oczekiwanymi odpowiedziami i kryteriami punktacji. Dzięki benchmarkom można obiektywnie porównywać efektywność różnych modeli, także w specjalistycznych dziedzinach, np. w prawie. Przykładem są testy takie jak LawBench, oceniający wiedzę prawniczą, czy LegalBench, koncentrujący się na zdolności do logicznego rozumowania prawniczego. Mimo użyteczności tych narzędzi, benchmarking wciąż nie jest tak rygorystyczny i ustandaryzowany, jak w innych branżach technologicznych, co oznacza, że ich wyniki należy traktować z pewnym dystansem.
W kontekście generatywnej AI i prawa nie można pominąć kwestii ryzyka, które ma zarówno wymiar techniczny, jak i etyczny. Po pierwsze, model językowy nie gwarantuje prawdziwości generowanego tekstu. Zjawisko to, zwane przez badaczy „halucynacją”, polega na tworzeniu przez AI informacji kompletnie fałszywych, często przekonująco brzmiących, lecz całkowicie zmyślonych faktów, osób lub wydarzeń. Po drugie, użytkownicy muszą pamiętać o bezpieczeństwie i poufności danych – wprowadzone do systemu zapytania i informacje są widoczne dla dostawcy modelu i mogą być wykorzystane do dalszego rozwoju technologii. Co więcej, istnieje zjawisko „memorization”, czyli zapamiętywania fragmentów materiałów szkoleniowych, które czasem mogą zostać odtworzone niemal słowo w słowo, co rodzi poważne implikacje prawne dotyczące prywatności oraz praw autorskich.
Trwają intensywne prace nad rozwiązaniami tych problemów. Jednym z nich jest tzw. retrieval augmented generation, gdzie generatywne AI uzupełniane jest o wyszukiwanie informacji w zaufanych bazach danych, co ma na celu ograniczenie ryzyka halucynacji i zwiększenie wiarygodności generowanych odpowiedzi. Powstają także hybrydowe systemy łączące podejścia statystyczne z symboliką, np. drzewa decyzyjne, które pozwalają na lepszą kontrolę nad procesem generowania tekstu. Z kolei wykorzystanie modeli open-source lub mniejszych, wyspecjalizowanych modeli językowych może przynieść korzyści w zakresie bezpieczeństwa i ekonomii zasobów, oferując rozwiązania mniej energochłonne i bardziej dostosowane do konkretnych zastosowań.
Pojęcie „zaufania” wobec generatywnej AI nabiera szczególnego znaczenia w świetle powyższych zagadnień. Użytkownicy i twórcy muszą zdawać sobie sprawę, że nawet najnowocześniejsze modele nie są nieomylne, a ich efekty wymagają krytycznego podejścia i weryfikacji. Kwestie etyczne, takie jak niedyskryminacja, przejrzystość działania modeli oraz odpowiedzialność za wygenerowane treści, powinny towarzyszyć rozwojowi technologii, aby maksymalizować korzyści i minimalizować potencjalne szkody społeczne.
Zrozumienie mechanizmów działania, ograniczeń oraz ryzyk związanych z LLM pozwala na bardziej świadome i odpowiedzialne korzystanie z generatywnej AI. W perspektywie prawnej oznacza to konieczność rozwijania regulacji, które będą chronić prawa użytkowników, a jednocześnie nie hamować innowacji. Znajomość zjawisk takich jak halucynacja, memorisation, czy mechanizmy benchmarkingowe jest fundamentalna dla osób operujących w obszarze prawa i technologii.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский