Debata na temat odpowiedzialności generatywnej sztucznej inteligencji (AI) wciąż jest w fazie rozwoju, a jej wagi nie sposób przecenić. Kluczowym zagadnieniem jest to, czy osoby, które uważają się za skrzywdzone przez AI, powinny mieć prawo do dochodzenia swoich roszczeń w sądzie, zwłaszcza jeśli nie należą do chronionych prawnie kategorii. Ten problem jest częścią szerszej próby, którą podejmują ruchy konserwatywne, starające się znaleźć w prawie instrumenty, które pozwoliłyby im sprzeciwić się traktowaniu, które uznają za niesprawiedliwe lub wręcz dyskryminacyjne ze strony wielkich firm technologicznych. W kontekście moderacji treści w sieci, a także stosowania sztucznej inteligencji przez korporacje mediów społecznościowych, problem ten okazuje się równie istotny.

W obecnym stanie prawnym wciąż dominuje pogląd, że nie mamy do czynienia z kategoriami chronionymi przez prawo, co oznacza, iż nie można ingerować w prywatną sferę autonomii kontraktowej tych firm i zmuszać ich do sądowego przeglądu polityki moderowania treści. Zgodnie z tym podejściem, AI generująca treści, nawet jeśli wpływa na opinię publiczną lub indywidualne reputacje, nie jest w żaden sposób zobowiązana do ponoszenia odpowiedzialności za swoje działania. Nawet w przypadkach, w których generowane przez nią treści są szkodliwe, jak miało to miejsce w przypadku eksperymentu z chatbotem Tay firmy Microsoft, który po krótkim czasie interakcji z użytkownikami Twittera zaczął publikować treści wysoce kontrowersyjne, takie jak pochwały Hitlera, transfobia i inne nieakceptowalne wypowiedzi, nie widzimy dziś mechanizmów prawnych, które skutecznie mogłyby zabezpieczyć jednostki przed tego typu działaniami AI.

Sytuacja ta budzi szczególne wątpliwości w kontekście regulacji odpowiedzialności za algorytmy. Nawet jeśli AI dostosowuje swoje odpowiedzi w celu "poprawności politycznej", nie zmienia to faktu, że jej dostawcy, tacy jak OpenAI, Google czy Microsoft, mogą pozostać wolni od odpowiedzialności prawnej, co potwierdzają orzeczenia dotyczące innych platform, jak Twitter czy Google, które w sprawach takich jak Twitter v. Taamneh czy Gonzalez v. Google, nie poniosły odpowiedzialności mimo zmiany swoich algorytmów. Jest to problematyczne, zwłaszcza w przypadku poważnych błędów, które mogą skutkować nieuzasadnionym zniszczeniem reputacji jednostek, a nawet całych firm.

Pewną nadzieją na rozwiązanie tej kwestii może być wprowadzenie odpowiednich regulacji w zakresie prawa konkurencji. W świetle dominującej pozycji, jaką firmy takie jak OpenAI czy Google zajmują na rynku generatywnej sztucznej inteligencji, możliwe jest, że prawo konkurencji zacznie odgrywać rolę w zapewnieniu neutralności tych firm. Warto zauważyć, że Komisja Europejska już w 2021 roku wyraziła stanowisko, że prawo konkurencji powinno mieć zastosowanie do kwestii związanych z AI. Dzięki tej regulacji mogłyby zostać ustanowione zasady równego traktowania wszystkich użytkowników, niezależnie od ich przekonań politycznych czy społecznych. Tego rodzaju rozwiązania mogłyby stanowić alternatywę dla wciąż nieefektywnego procesu legislacyjnego, który, mimo wielokrotnych prób, nie wprowadził skutecznych środków do ochrony jednostek przed szkodami wynikającymi z działania sztucznej inteligencji.

Zrozumienie tej kwestii wymaga także uważnego przyjrzenia się prawom jednostek w kontekście "wyjaśnienia algorytmu", na które tak często powołują się obrońcy przejrzystości systemów AI. Zgodnie z artykułem 86 AI Act, obowiązek ten ma zastosowanie wyłącznie do tzw. "wysokiego ryzyka" systemów sztucznej inteligencji, co sprawia, że trudno jest traktować algorytm generatywnej AI, który tworzy treści bez indywidualnego "decyzjonizmu", jako podlegający takim regułom. To oznacza, że prawo do wyjaśnienia algorytmów nie jest rozwiązaniem w kontekście zrozumienia powodów, dla których AI generuje konkretne treści.

W takim kontekście, wyzwaniem staje się określenie, jak można ukierunkować przyszłe regulacje, aby zapewnić większą odpowiedzialność firm zajmujących się generatywną AI. Należy zauważyć, że to, co wydaje się obecnie być wątpliwością w zakresie odpowiedzialności za szkody wynikające z używania sztucznej inteligencji, to również temat, który wymaga dogłębnej analizy w kontekście ochrony prywatności, wolności słowa oraz regulacji odpowiedzialności. Warto rozważyć, jakie mechanizmy mogą zostać wdrożone, aby chronić użytkowników przed manipulacją informacyjną lub innymi niepożądanymi konsekwencjami działania AI.

Czy dostawcy usług sztucznej inteligencji mogą ponosić odpowiedzialność za naruszenia praw autorskich?

Zagadnienie odpowiedzialności dostawców usług sztucznej inteligencji (AI) w kontekście naruszeń praw autorskich jest jednym z najważniejszych, a jednocześnie najbardziej złożonych problemów współczesnego prawa własności intelektualnej. Istnieje kilka kluczowych kwestii, które należy rozważyć, aby zrozumieć, w jakich przypadkach dostawcy takich usług mogą ponieść odpowiedzialność za działania swoich użytkowników.

W przypadku tradycyjnego naruszenia praw autorskich, odpowiedzialność może zostać przypisana osobom, które w sposób bezpośredni lub pośredni przyczyniają się do naruszeń. Jednak w kontekście usług opartych na sztucznej inteligencji pojawiają się trudności związane z ustaleniem, kto jest odpowiedzialny za generowane treści. Chociaż dostawcy usług AI mogą z łatwością uchodzić za osoby, które nie posiadają "bezpośredniego interesu finansowego" w naruszeniu praw autorskich, istnieje przypadek prawny, który wskazuje, że samo stworzenie atrakcyjnej przestrzeni do naruszenia może stanowić wystarczający "interes finansowy". Tego typu wnioski są szczególnie istotne, jeśli dany system AI może przyciągać użytkowników, którzy wykorzystują go do generowania treści naruszających prawa autorskie.

Jednakże, zgodnie z nowszymi orzeczeniami sądów, ciężar dowodu leży na powodzie, który musi wykazać bezpośredni związek między działalnością naruszającą a wzrostem przychodów. W przypadku usług, które są szeroko dostępne i oferowane za stałą opłatę, samo przyciąganie użytkowników, którzy mogą korzystać z systemu do generowania treści naruszających prawo, nie wystarcza do przypisania odpowiedzialności dostawcy. Zatem dostawcy systemów AI, które nie są skierowane do użytkowników zamierzających generować treści naruszające prawa autorskie, a także nie pobierają opłat uzależnionych od liczby naruszeń, raczej unikną odpowiedzialności za takie działania.

W prawie amerykańskim kwestia odpowiedzialności za naruszenia wynikające z usług świadczonych przez AI wiąże się także z pojęciem "pomocnictwa w naruszeniu". Tradycyjnie, odpowiedzialność za pomocnictwo polega na udzieleniu materialnego wkładu do działalności naruszającej, co w przypadku AI jest oczywiste, ponieważ sam system AI umożliwia użytkownikom tworzenie treści. Kluczowym elementem pozostaje jednak kwestia "wiedzy" o naruszeniach. Orzeczenia sądowe jasno wskazują, że ogólna świadomość istnienia możliwości naruszeń nie jest wystarczająca do przypisania odpowiedzialności, chyba że dostawca usługi posiada konkretną wiedzę o tym, którzy użytkownicy dokonują naruszeń.

W kontekście usług AI, odpowiedzialność za pomocnictwo może wystąpić, jeśli dostawca usługi nie podejmie odpowiednich działań mających na celu zapobieżenie nadużyciom, pomimo że istnieje uzasadnione ryzyko ich wystąpienia. Można to osiągnąć przez odpowiednią kontrolę nad użytkownikami, a także poprzez usuwanie treści, które mogą naruszać prawa autorskie, jeśli zostaną zgłoszone przez poszkodowane strony.

Z kolei odpowiedzialność za "podżeganie do naruszeń" pojawia się, gdy dostawca celowo zachęca swoich użytkowników do generowania treści, które łamią prawa autorskie. W takim przypadku odpowiedzialność może wynikać z aktów afirmatywnego działania, takich jak instrukcje, które nakłaniają użytkowników do działań prowadzących do naruszeń praw.

Problem własności praw autorskich do dzieł generowanych przez AI staje się kolejnym istotnym zagadnieniem w tej debacie. Prawa autorskie tradycyjnie przysługują twórcy, który jest człowiekiem. Z tego względu wiele rozważań nad możliwością ochrony prawnej dla dzieł tworzonych przez AI opiera się na pytaniu, czy AI może być uznana za twórcę. Amerykańska interpretacja prawa autorskiego wymaga, aby dzieła były tworzone przez "autora", a w świetle dotychczasowego orzecznictwa, autorem może być jedynie człowiek. Dlatego też w przypadku dzieł generowanych przez AI, brak "osobistego wkładu" ze strony systemu AI, jak również brak osobowości prawnej AI, utrudnia uznanie takich dzieł za chronione przez prawa autorskie.

Ważnym aspektem, który powinien zostać uwzględniony, jest kwestia odpowiedzialności dostawców usług AI, którzy mogą korzystać z technologii przetwarzania danych w sposób, który nie jest całkowicie przejrzysty. W miarę jak technologie generatywne AI stają się coraz bardziej zaawansowane, istotne staje się monitorowanie i kontrolowanie, w jaki sposób te technologie są wykorzystywane przez użytkowników, w tym w kontekście przestrzegania przepisów prawa autorskiego. Nawet jeśli dostawcy usług AI mogą nie być bezpośrednio odpowiedzialni za naruszenia, ich rola w umożliwianiu tworzenia treści staje się kluczowa.

Czy dostawca sztucznej inteligencji generatywnej jest odpowiedzialny za wygenerowane treści?

Współczesne systemy sztucznej inteligencji generatywnej, takie jak modele tworzące obrazy, muzykę czy teksty, funkcjonują jako interaktywne usługi komputerowe. Kluczowe pytanie w kontekście odpowiedzialności prawnej brzmi, czy treści wygenerowane przez te systemy są wynikiem działania samego dostawcy usługi, czy też stanowią materiał dostarczony przez użytkowników lub inne podmioty zewnętrzne. W prawie amerykańskim kwestia ta sprowadza się do interpretacji pojęcia „dostawca treści informacyjnych” (information content provider) w kontekście sekcji 230 ustawy Communications Decency Act.

Systemy AI są trenowane na ogromnych zbiorach danych, które zawierają materiały stworzone przez miliony różnych osób niezależnie od dostawcy AI. W efekcie w wygenerowanych treściach często pojawiają się wizerunki, nazwy czy style znanych postaci – nie dlatego, że dostawca sztucznej inteligencji celowo je wykorzystał, ale dlatego, że znalazły się one w danych treningowych. Niemniej jednak ostateczny produkt – obraz, piosenka czy tekst – jest efektem złożonej pracy algorytmu, który w dużym stopniu modyfikuje i przekształca materiał wyjściowy.

Dotychczasowe orzecznictwo sądowe odróżnia proste automatyczne manipulacje danymi od twórczej rekombinacji materiału. Na przykład podsumowania generowane automatycznie przez wyszukiwarki internetowe czy lokalizacje firm na mapach online są traktowane jako treści pochodzące od użytkowników lub podmiotów zewnętrznych, ponieważ stanowią one powielenie albo bezpośrednią reprodukcję informacji dostarczonych przez te podmioty. Natomiast wygenerowane przez AI treści są „znacząco zmienione” i przetworzone, co sprawia, że nie można ich łatwo przypisać jedynie źródłowym danym czy poleceniu użytkownika.

W praktyce oznacza to, że wygenerowane przez AI utwory, chociaż bazują na danych treningowych, mają charakter oryginalny, powstały dzięki pracy algorytmu, co komplikuje kwestie odpowiedzialności. Prawo stoi przed wyzwaniem wyznaczenia granicy pomiędzy tym, co jest twórczością samego systemu, a tym, co stanowi materiał dostarczony przez osoby trzecie.

Dodatkowo pojawia się problem neutralności algorytmów. W przypadku systemów rekomendacyjnych sądy rozważały, czy algorytm działa jako „neutralne narzędzie” – wybierające treści na podstawie aktywności użytkownika, a nie własnych preferencji operatora. W kontekście AI generatywnej rozważane jest, na ile system jest zaprojektowany, by generować konkretne, potencjalnie szkodliwe treści, co może wpływać na przypisanie odpowiedzialności dostawcy.

Równie istotne są kwestie związane z własnością znaków towarowych. AI może ułatwiać klasyfikację i wyszukiwanie znaków towarowych, ale także generować treści wykorzystujące rozpoznawalne znaki i symbole, co może prowadzić do sporów o naruszenie praw znaków towarowych. Odpowiedzialność dostawców AI za takie naruszenia jest trudna do udowodnienia, ponieważ wymaga wykazania świadomości generowania konkretnych materiałów naruszających prawa.

Z punktu widzenia ekonomii i konsumentów, rozwój AI może także zmienić rolę znaków towarowych. Jeśli użytkownicy przestaną polegać na markach, a zaczną korzystać z narzędzi AI do bezpośredniego wyszukiwania i wyboru produktów, znaczenie i uzasadnienie ekskluzywnych praw do znaków towarowych może ulec osłabieniu.

Podsumowując, w prawie amerykańskim wciąż trwa debata nad tym, jak traktować twórczość generatywnej AI oraz jakie ramy odpowiedzialności powinny obowiązywać dostawców tych systemów. Istotne jest zrozumienie, że odpowiedzialność nie zależy jedynie od samego faktu generowania treści, ale od stopnia kontroli i wpływu dostawcy na ostateczny rezultat, a także od charakteru algorytmicznego procesu tworzenia.

Ważne jest także, aby czytelnik pamiętał o roli danych treningowych i ich pochodzeniu – generatywna AI nie działa w próżni, lecz korzysta z ogromnych zasobów tworzonych przez innych ludzi. To implikuje konieczność rozważenia etycznych i prawnych aspektów wykorzystywania cudzych zasobów w procesie automatycznego tworzenia nowych treści. Ponadto, rozwój AI generatywnej zmusza do przemyślenia obecnych ram prawnych dotyczących własności intelektualnej, wolności wypowiedzi i odpowiedzialności platform cyfrowych.