W 2023 roku pojawiły się liczne wyzwania związane z przestrzeganiem praw użytkowników w zakresie ochrony danych osobowych przez dostawców modeli generatywnej sztucznej inteligencji (GenAI). Zaledwie kilka z badanych modeli wykazało się odpowiednią reakcją na wymagania wynikające z ogólnego rozporządzenia o ochronie danych osobowych (RODO), a także innych regulacji dotyczących prywatności, takich jak Kalifornijska Ustawa o Prywatności Konsumentów (CCPA). Chociaż niektóre modele uwzględniały informacje na temat swoich polityk prywatności, to jednak tylko nieliczne z nich precyzyjnie informowały użytkowników o ich prawach w kontekście przetwarzania danych osobowych.

Wśród dwunastu modeli, które zaktualizowały swoje polityki prywatności do końca 2023 roku, większość z nich wprowadziła poprawki, które w bardziej przejrzysty sposób odnoszą się do praw użytkowników w zakresie ochrony danych osobowych. Mimo to, nadal dominowały jedynie ogólne informacje o prawie dostępu do danych oraz prawie do ich usunięcia, co w kontekście szerokiego zakresu przetwarzania danych, w tym danych pochodzących z publicznych źródeł internetowych, wydaje się niewystarczające. Ponadto, dostawcy tych usług często ograniczali się jedynie do podania adresu e-mail jako formy kontaktu w celu zgłoszenia roszczenia o usunięcie danych lub w celu złożenia skargi. W takim przypadku problematyczne staje się realne wypełnianie obowiązków wynikających z ochrony danych osobowych, takich jak prawo do sprostowania danych czy prawo do ograniczenia przetwarzania danych, co, jak zauważono w badaniach, nie zostało dostatecznie uwzględnione w politykach prywatności większości dostawców modeli GenAI.

Zjawisko to, choć odzwierciedla pewne postępy w zakresie ochrony danych osobowych, pozostaje wciąż w fazie rozwoju. Ustawodawcy, organizacje ochrony prywatności oraz instytucje nadzorcze, takie jak organy ochrony danych osobowych (DPA) i Federalna Komisja Handlu (FTC) w Stanach Zjednoczonych, muszą jeszcze intensywnie pracować nad wprowadzeniem skutecznych regulacji, które rzeczywiście zmuszą dostawców tych technologii do pełnej zgodności z przepisami.

Kolejnym ważnym wyzwaniem jest fakt, że prywatność użytkowników w kontekście generatywnej sztucznej inteligencji nie dotyczy tylko bezpośrednich użytkowników danej technologii, ale również osób, których dane zostały użyte do trenowania modeli AI. W przypadku przetwarzania danych pochodzących z internetu, takich jak teksty, obrazy czy dane publiczne, trudno jest jednoznacznie określić, jak dane te są zbierane, wykorzystywane i czy przetwarzanie ich nie narusza praw osób, które nie miały świadomości, że ich dane zostały użyte w procesie treningowym. Tego rodzaju problemy są nie tylko kwestią prawną, ale także etyczną, co dodatkowo komplikuje kwestie związane z ochroną prywatności.

Należy także zwrócić uwagę na to, że chociaż niektóre większe firmy, takie jak OpenAI, zaczynają dostosowywać swoje polityki prywatności do wymogów prawa, ich podejście nadal pozostawia wiele do życzenia. Na przykład, po tym, jak OpenAI zostało zablokowane w Włoszech z powodu niezgodności z przepisami RODO, firma dodała formularz do zgłaszania roszczeń związanych z prawem do bycia zapomnianym. Niemniej jednak, jak zauważają eksperci, prawo do sprostowania danych (tzw. „right to rectification”) wciąż jest poza jej zasięgiem, mimo że firma przyznaje, iż dokładność faktów w modelach językowych jest wciąż w fazie badawczej.

Warto także zauważyć, że stosowanie ogólnych klauzul dotyczących przetwarzania danych w politykach prywatności przez mniejsze firmy nie jest wystarczające. Wiele modeli AI stosuje standardowe zapisy dotyczące ochrony prywatności, które nie uwzględniają specyfiki generatywnej sztucznej inteligencji i związanych z nią zagrożeń. Takie zapisy są często jedynie formalnością, która nie daje użytkownikom rzeczywistej kontroli nad tym, jak ich dane są wykorzystywane.

Mimo że istnieje wiele pytań dotyczących przyszłości przetwarzania danych osobowych w kontekście sztucznej inteligencji, jedno jest pewne – ochrona prywatności w tym obszarze wymaga znacznie większej przejrzystości, odpowiedzialności i zgodności z obowiązującymi regulacjami. Należy także wziąć pod uwagę, że modele AI to nie tylko narzędzia do generowania treści, ale także potężne systemy, które mogą mieć daleko idące konsekwencje dla prywatności i praw człowieka.

Chociaż zmiany w politykach prywatności, które pojawiły się w 2023 roku, są krokiem w dobrą stronę, pełna zgodność z wymaganiami RODO i innymi regulacjami będzie wymagała dalszych działań. W szczególności istotne będzie monitorowanie i egzekwowanie prawa do sprostowania i usunięcia danych, które stanowi podstawowe prawo użytkownika w kontekście przetwarzania danych osobowych.

Jak GenAI wpłynie na rynek sztuki i ocenę wartości dzieł artystycznych?

Sztuka wygenerowana za pomocą sztucznej inteligencji (GenAI) jest przedmiotem rosnącej kontrowersji na rynku artystycznym, zwłaszcza w kontekście jej wartości i autentyczności. Zjawisko to ma swoje korzenie w dynamicznie rozwijających się technologiach, które pozwalają maszynom tworzyć dzieła, które mogą rywalizować z tymi stworzonymi przez człowieka pod względem estetycznym. Jednakże, choć technologia sama w sobie nie budzi wątpliwości, pojawiają się pytania o to, jak powinniśmy traktować te dzieła na rynku sztuki, zwłaszcza w kontekście ich wartości i prawa autorskiego.

Jednym z najważniejszych zagadnień w tej dyskusji jest kwestia prawa autorskiego. Zgodnie z orzeczeniem amerykańskiego Urzędu Praw Autorskich (USCO), dzieła stworzone przez maszyny nie podlegają ochronie prawnoautorskiej, jeśli ich twórcy nie wykażą wystarczającej kontroli nad procesem twórczym. Oznacza to, że autorzy dzieł stworzonych z pomocą GenAI mogą zostać pozbawieni prawa do wynagrodzenia wynikającego z posiadania praw autorskich. W rezultacie twórczość generowana przez sztuczną inteligencję staje się trudna do wycenienia, ponieważ brakuje klasycznych mechanizmów ochrony, takich jak monopol autorski, który zapewniałby autorowi wynagrodzenie za użycie jego dzieła.

Przykład "Portrait of Edmond de Belamy", który został sprzedany na aukcji Sotheby’s za niemal 500 000 dolarów, ukazuje zarówno potencjał, jak i wyzwania związane z dziełami tworzonymi przez AI. Choć cena osiągnięta na aukcji była zaskakująco wysoka, nie można zignorować faktu, że dzieło to nie spełnia tradycyjnych wymagań dotyczących autorstwa, a jego autentyczność i wartość są trudne do ocenienia w kontekście klasycznego rynku sztuki. W związku z tym pojawia się pytanie: czy sztuka tworzona przez maszyny powinna być traktowana w taki sam sposób jak sztuka stworzona przez człowieka, czy może być postrzegana jako zupełnie inny rodzaj dzieła?

Rynek sztuki zareagował na ten trend, wprowadzając pewne formy rozróżnienia pomiędzy dziełami ludzkimi a tymi tworzonymi przez maszyny. Choć nie istnieje jeszcze jednoznaczna definicja, jak należy traktować dzieła GenAI, wśród artystów, krytyków i kolekcjonerów pojawia się tendencja do traktowania ich jako "produkty" maszynowe, których wartość jest oceniana inaczej niż dzieła stworzonych przez ludzi artystów. Dla niektórych, ta technologia to zaledwie narzędzie, które umożliwia artystom rozszerzenie ich twórczości, podczas gdy dla innych jest to coś, co powinno być traktowane jako oddzielny gatunek sztuki.

Problematyka rozróżnienia dzieł ludzkich od tych tworzonych przez AI odnosi się do tzw. problemu cytryn (ang. lemons problem), który jest klasycznym zagadnieniem w teorii rynków. Termin ten pochodzi z rynku samochodowego, gdzie "cytryny" to pojazdy niskiej jakości, które trudno odróżnić od tych wartościowych. Podobnie na rynku sztuki, GenAI może tworzyć dzieła, które wizualnie trudno odróżnić od prac stworzonych przez ludzi, co prowadzi do ryzyka, że kupujący mogą nabywać "cytryny" — dzieła maszynowe sprzedawane jako oryginalne, ludzkie prace. To zjawisko wprowadza asymetrię informacji i może skutkować niższymi cenami dla autentycznych, ludzkich dzieł sztuki, ponieważ kolekcjonerzy będą obawiać się, że zostaną oszukani.

W odpowiedzi na tę sytuację, wprowadzono różne mechanizmy weryfikacji autentyczności. Jednym z nich jest tzw. "zasada pochodzenia" (rule of origin), która już teraz jest stosowana w Unii Europejskiej w odniesieniu do produktów, a której zasady mogą zostać zaadaptowane do rynku sztuki. Na przykład, w 2022 roku kontrowersje wywołała praca "Théâtre D’opéra Spatial" autorstwa Jasona Allena, który użył sztucznej inteligencji Midjourney do stworzenia swojej pracy. Chociaż w regulaminie konkursu nie było zakazu używania AI, wybuchły protesty, ponieważ wielu uznało, że wykorzystanie tej technologii to forma oszustwa. Takie wydarzenia mogą wymusić na organizatorach zmianę zasad, a także stworzenie nowych kategorii sztuki "wytworzonej przez AI".

Jeśli chodzi o rynek sztuki, istotnym aspektem będzie także kwestia masowej produkcji dzieł przez maszyny. GenAI ma potencjał do tworzenia dzieł w ogromnych ilościach, co może doprowadzić do przesycenia rynku. W obliczu zalewu twórczości generowanej przez AI, rynek może stanąć przed wyzwaniem utrzymania wartości dzieł stworzonych przez człowieka. Jak pokazuje przykład "Portrait of Edmond de Belamy", zainteresowanie sztuką generowaną przez AI może okazać się krótkotrwałe, a kolekcjonerzy mogą powrócić do inwestowania w prace ludzkie. Jednak w dłuższej perspektywie to, jak technologia GenAI będzie kształtować rynek sztuki, pozostaje niejasne.

Warto także zauważyć, że w związku z rozwojem technologii AI, pojawiają się nowe problemy związane z prawem autorskim, które wymagają dostosowania do nowych realiów. Wiele kontrowersji dotyczy kwestii, kto tak naprawdę jest autorem dzieła stworzonego przez maszynę – czy jest to twórca algorytmu, użytkownik narzędzia, czy też sama maszyna. Jak pokazuje przykład Eldagsena, który odmówił przyjęcia nagrody za "promptografię", terminologia i definicje muszą ewoluować, by odpowiednio oddać istotę twórczości generowanej przez AI.

GenAI nie tylko zmienia sposób tworzenia dzieł sztuki, ale także kształtuje sposób, w jaki postrzegamy wartość tych dzieł na rynku. Rozróżnienie między sztuką ludzką a maszynową staje się niezbędne, a mechanizmy autentyfikacji, które teraz dotyczą fałszerstw, wkrótce będą musiały obejmować również dzieła powstałe dzięki sztucznej inteligencji. To wyzwań na rynku sztuki będzie coraz więcej, a technologia nieustannie będzie miała wpływ na jego struktury i normy.

Jakie wyzwania stawia prawo przed generatywną sztuczną inteligencją?

W obliczu dynamicznego rozwoju generatywnej sztucznej inteligencji, współczesne ramy prawne stają przed trudnym zadaniem: jak połączyć innowacyjność z ochroną interesów jednostki i społeczeństwa. Pytanie to staje się szczególnie istotne, gdy rozważamy zagadnienia związane z prywatnością, prawami własności intelektualnej, konkurencją, ochroną konsumentów czy odpowiedzialnością za czyny dokonywane przez AI.

Elana Zeide w rozdziale 16 książki omawia ograniczenia tradycyjnych amerykańskich ram ochrony prywatności, które w kontekście generatywnej sztucznej inteligencji okazują się niewystarczające. Wskazuje na potrzebę całkowitej zmiany w podejściu do ochrony prywatności, proponując przesunięcie nacisku z indywidualnej kontroli na kolektywne pojęcia i z reaktywnego na proaktywne zarządzanie. Zeide podkreśla konieczność przyjęcia odpowiedzialnej innowacji, zwłaszcza w kontekście szybkiego rozwoju generatywnej AI, której wpływ na życie społeczne, gospodarcze i technologiczne jest nieunikniony. Zmiana ta powinna stać się fundamentem przyszłego modelu ochrony prywatności, aby skutecznie odpowiedzieć na wyzwania, które niesie ze sobą rozwój AI.

Bruce Boyden w rozdziale 17 podejmuje temat praw własności intelektualnej w kontekście twórczości generowanej przez sztuczną inteligencję. Istotne pytanie dotyczy tego, czy dzieła stworzone przez AI powinny być traktowane tak samo jak te stworzone przez człowieka, w kontekście prawa autorskiego i innych dziedzin własności intelektualnej. Boyden rozważa, czy systemy AI rzeczywiście „uczą się” nowych treści, czy jedynie kopiują istniejące wzory. Zastanawia się także, jak dotychczasowe doktryny prawne powinny być dostosowane do nowych realiów, w których granice między twórczością ludzką a maszynową stają się coraz bardziej rozmyte.

Christopher Rademacher i Wanru Cai w rozdziale 18 przedstawiają analizę prawa autorskiego w Japonii i Chinach, szczególnie w odniesieniu do generatywnej sztucznej inteligencji. Rozważają, jak te kraje równoważą prawa właścicieli treści z narodowymi celami politycznymi dotyczącymi rozwoju technologii. Ich badanie skupia się na kwestiach związanych z używaniem danych treningowych oraz prawami autorskimi do treści tworzonych przez AI w tych dwóch krajach azjatyckich, wskazując na globalny charakter wyzwań opisanych przez Boydena.

Sylvia Papadopoulos w rozdziale 19 analizuje wpływ generatywnej sztucznej inteligencji na struktury rynkowe oraz prawo konkurencji. Wskazuje na trudności, które AI stwarza dla tradycyjnych modeli biznesowych i przepisów antymonopolowych. Papadopoulos podkreśla, jak ważne jest wyważenie innowacji z zachowaniem konkurencyjności i sprawiedliwości na rynku. To wyzwanie, które zyskuje na znaczeniu w dobie cyfryzacji gospodarki.

W rozdziale 20 Christina Poncibò zajmuje się złożonym związkiem między ochroną konsumentów a generatywną AI, szczególnie w kontekście tzw. „hipersugestii” w interakcjach algorytmicznych. Poncibò zauważa, że istniejące narzędzia prawne w Unii Europejskiej nie zapewniają wystarczającej ochrony konsumentów przed manipulacją wynikającą z algorytmicznych interakcji. Wskazuje na kluczową lukę w prawie, która wymaga pilnego zaadresowania.

Patrick O’Malley w rozdziale 21 omawia wpływ generatywnej AI na zarządzanie korporacyjne, wskazując, jak istotne jest, aby zarządy i menedżerowie dostosowali się do nowych wyzwań technologicznych, prawnych i etycznych. Podkreśla, że odpowiedzialność za bezpieczne i etyczne wykorzystywanie narzędzi AI staje się kluczową kwestią w kontekście rozwoju korporacyjnego. Porusza również zagadnienie odpowiedzialności i rozliczalności w erze automatycznych procesów podejmowania decyzji.

Rozdział 22 autorstwa Beatrice Panattoni zgłębia skomplikowaną relację między generatywną AI a prawem karnym. Panattoni stawia pytania dotyczące moralnej odpowiedzialności, winy i odpowiedzialności za szkody wyrządzone przez AI. Rozważa, jak zmiana w obszarze technologicznym może wpłynąć na zasady odpowiedzialności karnej, zwłaszcza w kontekście delegowania działań na AI. To ważny aspekt, który może wymagać przekształcenia tradycyjnych pojęć winy i odpowiedzialności w prawie karnym.

Wszystkie te rozważania wskazują na istotny problem, jakim jest niewystarczająca elastyczność istniejących ram prawnych w odniesieniu do generatywnej sztucznej inteligencji. Z jednej strony, AI stwarza ogromne możliwości technologiczne, ale z drugiej strony, rodzi to także szereg wyzwań, których nie da się rozwiązać w ramach dotychczasowych koncepcji prawnych. Problemem staje się znalezienie równowagi między ochroną praw jednostki a umożliwieniem rozwoju technologii, która ma potencjał do przekształcenia niemal każdego aspektu naszego życia społecznego i zawodowego.

Z perspektywy prawnej istotne jest, aby zrozumieć, że generatywna sztuczna inteligencja nie jest jedynie narzędziem, ale także podmiotem, który zmienia sposób, w jaki podejmujemy decyzje, tworzymy dzieła czy rozstrzygamy spory. Jej rozwój wymaga odpowiedniego przygotowania prawnego, które będzie w stanie nie tylko chronić indywidualne prawa, ale także zapewnić sprawiedliwość i przejrzystość w nowym, zautomatyzowanym świecie. Tylko w ten sposób będzie możliwe zapewnienie równowagi między innowacją a ochroną wartości, które są fundamentem współczesnych społeczeństw.

Jak Chiny Regulują Sztuczną Inteligencję: Rozważania nad Środkami i Ich Wpływem na Globalne Zasady

Chińska regulacja sztucznej inteligencji (AI) przyciąga uwagę nie tylko ze względu na swoje krajowe cele, ale także z powodu dążenia do wyznaczania międzynarodowych standardów. Środki wprowadzone przez Chiny w kontekście generatywnej AI wydają się być odpowiedzią na rosnące wyzwania związane z rozwojem technologii oraz potrzebą stworzenia ram prawnych, które zabezpieczą interesy zarówno konsumentów, jak i państwa. Choć nie wprowadzają one nowych mechanizmów instytucjonalnych, to wprowadzają nowe obowiązki dla dostawców usług AI, szczególnie w zakresie odpowiedzialności za generowanie treści i używanych danych treningowych.

Nowe przepisy koncentrują się na dwóch kluczowych aspektach. Po pierwsze, wymagają od dostawców generatywnej AI, by przejęli odpowiedzialność za treści, które tworzą ich systemy, co stanowi rozszerzenie dotychczasowych obowiązków dostawców. Po drugie, regulacje nakładają specyficzne wymagania dotyczące danych treningowych używanych w modelach generatywnej AI. Choć wiele postanowień stanowi jedynie doprecyzowanie wcześniejszych regulacji, takich jak zakaz generowania fałszywych informacji czy ochrona prywatności, to jednak wprowadzają one istotne zmiany w zarządzaniu ryzykami związanymi z rozwojem tych technologii.

Obowiązki dotyczące generowania treści przypominają te zawarte w regulacjach dotyczących zarządzania ekosystemem informacji internetowych. W podobny sposób, przepisy odnoszące się do oceny algorytmów i bezpieczeństwa, zawarte w artykule 17, odwołują się do wcześniejszych regulacji dotyczących zarządzania rekomendacjami algorytmicznymi. Z kolei wymagania dotyczące znakowania i wodmarkingu treści generowanych przez AI są wprost związane z przepisami dotyczącymi głębokiej syntezji treści. Warto zauważyć, że Chiny mogą przyjąć celowo konserwatywną postawę w projektowaniu tych regulacji, uznając, że szybka odpowiedź na ryzyka związane z AI jest kluczowa w kontekście dynamicznego rozwoju tej technologii.

Pomimo tego, że środki te mogą być postrzegane jako reaktywne, to w rzeczywistości mogą one stanowić część większej strategii mającej na celu stworzenie jednolitego, kompleksowego podejścia do regulacji AI, wzorowanego na takich aktach prawnych, jak europejskie prawo AI. W Chinach, jak w innych obszarach regulacyjnych, następuje tendencja do tworzenia ogólnokrajowych ram prawnych, które pozwalają na integrację różnych przepisów. Dobre przykłady to Ustawa o Cyberbezpieczeństwie, Ustawa o Bezpieczeństwie Danych oraz Ustawa o Ochronie Informacji Osobowych, które stanowiły fundament dla późniejszych regulacji dotyczących, między innymi, oceny algorytmów i zapobiegania tzw. deep fake'om.

Gdyby Chiny podjęły decyzję o wprowadzeniu ogólnego prawa dotyczącego AI, kluczowe kwestie musiałyby obejmować integrację istniejących podejść regulacyjnych oraz standaryzację przepisów, eliminując luki, które mogłyby w przyszłości stanowić problem. Przykładem może być system rejestracji algorytmów, który wprowadza wymogi dotyczące oceny bezpieczeństwa, ale nie precyzuje, jak ma wyglądać dalszy rozwój tego systemu. Istotnym pytaniem pozostaje, czy rejestracja algorytmu będzie miała charakter prewencyjny (ex ante), czy też będzie stanowić podstawę do odpowiedzialności po fakcie (ex post). Tego typu rozróżnienie może mieć istotny wpływ na sposób postrzegania i implementacji tych przepisów przez podmioty, które będą nimi objęte.

Dodatkowo, ogólna ustawa o sztucznej inteligencji musiałaby jednoznacznie określić odpowiedzialność różnych podmiotów regulowanych, mając na uwadze złożoność i autonomię systemów AI, a także ich nieprzejrzystość. Konieczne jest wprowadzenie szczególnych przepisów dotyczących ustalania odpowiedzialności za szkody oraz zasady dotyczące ciężaru dowodu w sprawach związanych z AI. Jasno określone zasady dotyczące różnych form zadośćuczynienia (od administracyjnych po cywilne) mogą pomóc w minimalizacji ryzyk związanych z technologią, jednocześnie obniżając koszty związane z przestrzeganiem przepisów przez firmy i wyzwaniami regulacyjnymi, przed którymi stoją organy rządowe.

Chiny, jako jeden z liderów w rozwoju AI, muszą znaleźć sposoby współpracy z innymi krajami na rzecz globalnego zarządzania tymi technologiami. Konkurencja technologiczna nie ogranicza się tylko do rywalizacji o innowacje, ale również o dominację w kształtowaniu międzynarodowych norm i standardów. W tym kontekście, wprowadzenie środków w zakresie regulacji AI może stanowić element strategii Chiny na arenie międzynarodowej. Oczekuje się, że ten regulacyjny kierunek może znaleźć naśladowców, a przepisy te mogą być adaptowane w innych częściach świata.

W tym kontekście warto również pamiętać, że globalna regulacja sztucznej inteligencji nie jest kwestią jedynie narodowych interesów, lecz wymaga szerokiej współpracy międzynarodowej. Równocześnie, nie można ignorować faktu, że globalne wyścigi o regulacje AI mogą prowadzić do powstania tzw. "wyścigu w dół", gdzie państwa mogą konkurować o najłagodniejsze przepisy, co może prowadzić do narastania ryzyk związanych z technologią. Kluczowym wyzwaniem pozostaje wyważenie interesów krajowych z koniecznością współpracy międzynarodowej w tworzeniu wspólnych zasad, które będą skutecznie ograniczać zagrożenia związane z rozwojem sztucznej inteligencji.