Różne technologie generatywnej sztucznej inteligencji, w tym modele językowe, audio i wizualne, stawiają nowe wyzwania w zakresie ochrony danych osobowych, zwłaszcza w kontekście przetwarzania danych. Często pojawia się pytanie, kto ponosi odpowiedzialność za przetwarzanie danych osobowych w ramach takich systemów. Dwie grupy, które wchodzą w interakcję z tymi technologiami — użytkownicy i dostawcy — mogą być traktowane jako wspólni administratorzy danych, co wiąże się z koniecznością współpracy w definiowaniu celów przetwarzania danych oraz jasno określonymi wzajemnymi obowiązkami. Dostawcy generatywnych modeli ustalają ogólny zakres, w jakim modele te mogą być wykorzystywane, natomiast użytkownicy nadają im specyficzne cele zgodnie z własnymi potrzebami. Takie zależności sprawiają, że zarówno użytkownicy, jak i dostawcy mają znaczący wpływ na proces przetwarzania danych, mimo że różnią się w kwestii odpowiedzialności.

Jednakże, choć użytkownicy wprowadzają dane, które następnie wpływają na wyniki generowane przez modele, nie mają oni wpływu na fundamenty przetwarzania tych danych. Zatem, mimo że są aktywnymi uczestnikami procesu, ich rola nie wykracza poza zakres przetwarzania wyników, podczas gdy odpowiedzialność za dane wstępne — np. dane użyte do trenowania modeli — leży po stronie dostawcy. Takie rozróżnienie sprawia, że klasyczne pojęcia administratorów danych i podmiotów danych w kontekście prawa ochrony danych osobowych (RODO) stają się trudne do zastosowania w pełnym zakresie. Użytkownicy nie mają kontrolowania zasadniczych etapów przetwarzania, takich jak zbieranie danych czy ich przechowywanie. Oznacza to, że w ramach systemów generatywnej sztucznej inteligencji odpowiedzialność użytkowników w praktyce jest ograniczona, co wprowadza wątpliwości dotyczące tego, jak mogą oni odpowiadać za wykorzystanie danych osób trzecich.

Jeśli chodzi o wykorzystanie modeli generatywnych, które produkują obrazy, dźwięki i wideo, to zagadnienia związane z ochroną danych osobowych stają się jeszcze bardziej skomplikowane. Chociaż głównym celem tych technologii jest tworzenie nowych treści (np. obrazów czy filmów), które mogą być wykorzystywane w różnych celach, to pojawiają się poważne problemy związane z prawami autorskimi oraz ochroną prywatności. Szczególnie niebezpieczne stały się tzw. deepfakes, które wykorzystują twarze i głosy osób, tworząc w ten sposób fałszywe materiały wideo i audio. W przypadku kobiet, zwłaszcza, istnieje rosnąca liczba przypadków wykorzystania deepfake’ów w pornografii bez ich zgody. Tego rodzaju materiały naruszają prawo do prywatności oraz stanowią nielegalne przetwarzanie danych osobowych, zgodnie z przepisami RODO.

Osoby uwiecznione na zdjęciach, które stanowią dane osobowe, mogą być identyfikowane na podstawie obrazu, niezależnie od tego, czy jest on prawdziwy, czy fałszywy. W przypadku technologii rozpoznawania twarzy, wideo i dźwięku, możliwe jest przypisanie tożsamości do nagranych materiałów, co może skutkować naruszeniem prawa do prywatności i prowadzić do poważnych konsekwencji prawnych, zwłaszcza w kontekście wykorzystania tych danych bez zgody osoby zainteresowanej.

Z kolei głosy mogą zostać uznane za dane osobowe, jeśli umożliwiają identyfikację osoby, a techniki rozpoznawania mowy (np. identyfikacja osoby na podstawie głosu) mogą powodować, że dane te będą traktowane jako dane biometryczne, podlegające szczególnej ochronie. Dlatego też tworzenie deepfake'ów z użyciem głosów lub obrazów w sposób bezprawny narusza przepisy RODO, a tym samym prawa osób, których dane są wykorzystywane w ten sposób.

Ochrona danych osobowych, szczególnie w kontekście generatywnej sztucznej inteligencji, staje w obliczu poważnych wyzwań. Przepisy RODO, choć fundamentalne dla ochrony praw jednostki, nie zawsze są wystarczające w odniesieniu do nowoczesnych technologii, które przetwarzają olbrzymie ilości danych w sposób automatyczny i na skalę globalną. Przyszłość regulacji wymaga elastycznych rozwiązań, które uwzględniają specyfikę sztucznej inteligencji oraz dynamicznie rozwijający się obszar technologii cyfrowych.

Dodatkowo, w kontekście rosnącego znaczenia sztucznej inteligencji w decyzjach podejmowanych przez instytucje publiczne, jak np. w zakresie świadczeń społecznych, ważne staje się uwzględnienie roli, jaką te technologie pełnią w procesie podejmowania decyzji. Sztuczna inteligencja może wpłynąć na życie obywateli, a jej błędy lub nieprecyzyjne wykorzystanie mogą prowadzić do poważnych konsekwencji prawnych, w tym do naruszenia zasad sprawiedliwości proceduralnej. W związku z tym, w przyszłości konieczne będą dalsze prace nad dostosowaniem przepisów do nowoczesnych wyzwań, z zachowaniem szczególnej ochrony praw jednostki.

Jak prawo autorskie reguluje sztuczną inteligencję i wykorzystanie danych w Chinach i Japonii?

W ostatnich latach kwestia praw autorskich w kontekście sztucznej inteligencji (SI) staje się coraz bardziej skomplikowana, szczególnie w krajach takich jak Chiny i Japonia, gdzie prawo próbuje dostosować się do nowoczesnych wyzwań technologicznych. Chociaż prawo autorskie tradycyjnie chroni twórców przed nieautoryzowanym wykorzystaniem ich pracy, rozwój generatywnej sztucznej inteligencji, szczególnie w zakresie tworzenia treści na podstawie danych, stawia nowe pytania o granice ochrony tych praw.

W Chinach, zgodnie z aktualną ustawą o prawie autorskim, wykorzystanie fragmentów opublikowanych dzieł w celach edukacyjnych czy badawczych jest dozwolone w ramach tzw. „wyjątków”. Warto jednak zauważyć, że takie wyjątki nie są bezwarunkowe – wykorzystanie tych dzieł musi odbywać się w sposób odpowiedni, nie naruszający innych praw twórcy, a także z wynagrodzeniem dla właściciela praw autorskich. Wyjątki te obejmują również przypadki, w których tłumaczenie dzieł na języki mniejszości narodowych czy udostępnianie publikacji osobom z dysleksją są uznawane za działania zgodne z prawem, pod warunkiem, że nie naruszają one praw właścicieli.

Chociaż w Chinach jest widoczna rosnąca liczba badań i analiz dotyczących roli sztucznej inteligencji w tworzeniu nowych dzieł, wyzwaniem pozostaje sposób, w jaki zbierane i wykorzystywane są dane do trenowania systemów SI. W szczególności, w odniesieniu do wykorzystania danych w tzw. „text and data mining” (TDM), pojawia się pytanie, w jakim stopniu takie działania mogą naruszać prawa autorskie. Przeważająca część chińskich badaczy opowiada się za wprowadzeniem szerokich wyjątków w prawie, które umożliwiłyby łatwiejsze i bardziej efektywne wykorzystanie danych do celów związanych z rozwojem sztucznej inteligencji, nie obciążając nadmiernie twórców obowiązkiem wynagradzania właścicieli praw. Część z nich wskazuje na możliwość przyjęcia modelu z Japonii, który pozwala na szerokie wykorzystanie danych, pod warunkiem, że systemy SI nie wykorzystują chronionych prawem materiałów w sposób zagrażający interesom twórców.

W Japonii podobne zagadnienia były już rozważane w kontekście nowoczesnych technologii. Tamtejsze prawo oferuje pewne wyjątki w zakresie prawa autorskiego, które mogą stanowić inspirację dla innych krajów. W szczególności, japoński system prawny dopuszcza wykorzystanie danych w celach badawczych i rozwojowych, ale także nakłada obowiązek wynagradzania właścicieli praw autorskich. Jednak wyzwaniem pozostaje dokładne ustalenie, które dane można uznać za „neutralne” lub „niewykorzystujące praw chronionych dzieł”, co stwarza przestrzeń dla sporów prawnych.

Chociaż wiele rozwiązań w Chinach i Japonii nie zostało jeszcze w pełni wdrożonych, obydwa kraje zdają sobie sprawę z konieczności dostosowania prawa autorskiego do realiów współczesnej technologii. W Chinach zauważalny jest silny nacisk na ochronę interesów właścicieli praw, ale jednocześnie dążenie do stworzenia przestrzeni dla rozwoju przemysłu generatywnej sztucznej inteligencji, która jest niezbędna w kontekście globalnej konkurencji z takimi gigantami jak Stany Zjednoczone. Kluczowym elementem tych zmian jest także praca nad regulacjami dotyczącymi przetwarzania danych przez SI, zwłaszcza w obliczu pojawiających się obaw o wykorzystywanie materiałów chronionych prawami autorskimi bez odpowiednich licencji.

Jednakże, poza kwestią legalności wykorzystywania danych, nie mniej istotna jest kwestia równowagi między interesami twórców a korzyściami płynącymi z rozwoju sztucznej inteligencji. Istnieje ryzyko, że nadmierne ograniczenie możliwości wykorzystywania danych może hamować innowacje w dziedzinie AI, której potencjał wciąż jest w dużej mierze niezbadany. Z drugiej strony, zbyt liberalne podejście do wykorzystywania danych może prowadzić do spadku motywacji twórczej, jeśli artyści i twórcy nie będą odpowiednio wynagradzani za swoje prace.

Przepisy takie jak te zawarte w Chińskiej Ustawie o Prawie Autorskim, dotyczące „wyjątków” na potrzeby edukacyjne czy badawcze, stanowią tylko część większego obrazu, w którym prawo musi reagować na zmieniające się technologie. Stąd konieczność regularnych aktualizacji regulacji prawnych, które mogą precyzyjnie określić, w jaki sposób dane i twórczość mogą być wykorzystywane przez technologie sztucznej inteligencji, zachowując równocześnie interesy twórców.

Ponadto, w kontekście generatywnej sztucznej inteligencji, istotne jest, aby zrozumieć, że samo tworzenie nowych dzieł przy użyciu algorytmów SI może nie zawsze naruszać prawa autorskie, pod warunkiem że używane dane są traktowane zgodnie z odpowiednimi normami prawnymi. Warto również zwrócić uwagę na to, że to, co dziś jest uznawane za „wyjątek”, w przyszłości może stać się standardem, szczególnie w obliczu rosnącej roli technologii w tworzeniu treści.