Zgodnie z analizą zawartą w Akcie o Sztucznej Inteligencji, istnieje zestaw regulacji, które odnoszą się do zakazanych lub wysokiego ryzyka systemów sztucznej inteligencji, gdzie bezpośrednio uwzględnia się kwestie dyskryminacji. Istnieje jednak również inny zbiór zasad, odnoszących się do modeli generatywnych sztucznej inteligencji, w przypadku których problemy wynikające z możliwych dyskryminacyjnych zastosowań pozostają poza głównym nurtem zainteresowania prawodawców. Mimo że modele ogólnego przeznaczenia, zgodnie z definicją Aktu o Sztucznej Inteligencji, sklasyfikowane są jako aplikacje o „ograniczonym ryzyku”, rodzą one interesujące pytania dotyczące neutralności treści, które generują.
W przypadku, gdyby takie treści prowadziły do dyskryminacji wobec kategorii chronionych przez prawo antydyskryminacyjne Unii Europejskiej, prawo to może być już dziś stosowane. Wydaje się to być jednak bardziej teoretyczną możliwością, ponieważ wszystkie wiodące modele bazowe zostały opracowane z wyjątkowym naciskiem na traktowanie członków chronionych kategorii w sposób inkluzyjny i niedyskryminacyjny. Niemniej jednak, możliwe jest, że w przyszłości pojawią się trudności związane z interpretacją tego, czy treści generowane przez sztuczną inteligencję mogą faktycznie naruszać zasady równości, zwłaszcza gdy dotyczy to grup, które nie są chronione w taki sposób, jak np. mniejszości etniczne czy kobiety.
Z perspektywy konkurencji, pojawia się również pytanie, czy dominujące pozycje na rynku twórców fundamentów AI, takie jak OpenAI, mogą wpływać na rywalizację na rynku generatywnej sztucznej inteligencji. Co więcej, nie należy zakładać, że z samego faktu dominacji rynkowej można wyciągnąć wnioski o obowiązkach traktowania użytkowników w sposób równy, zwłaszcza w sytuacji, gdy istnieje szereg różnic pomiędzy tymi, którzy oferują fundamenty AI, a samymi użytkownikami technologii.
Kiedy zatem rozważamy odpowiedzialność za potencjalnie dyskryminacyjne działanie AI, pytanie, czy możemy zmusić przedsiębiorstwa do przestrzegania prawa antydyskryminacyjnego, staje się bardziej skomplikowane. W przypadku dużych firm działających w przestrzeni prywatnej, takich jak Google czy Microsoft, wydaje się, że obrona ich prawa do stworzenia algorytmów w sposób, który może być postrzegany jako dyskryminacyjny, nie jest tylko kwestią ideologiczną, ale ma głębokie podstawy ekonomiczne. Z perspektywy konserwatywnej, trudniej bronić tego prawa, biorąc pod uwagę możliwy długofalowy wpływ na rozwój gospodarki i innowacji. Dalsze zacieśnianie regulacji może bowiem wprowadzić niepożądane zniekształcenia w naturalnym przebiegu innowacyjnych procesów technologicznych.
Jednak w tym kontekście, rozważając etyczne i społeczne konsekwencje zastosowań AI, pojawia się istotna kwestia: czy i na jakich zasadach możemy zapewnić równowagę między innowacjami a przestrzeganiem prawa? Nawet jeżeli wykształci się tendencja do ograniczania swobód w imię równości, warto zastanowić się, czy nie będzie to prowadzić do zagrażających skutków ubocznych w postaci zniszczenia zaufania do rynków sztucznej inteligencji i obniżenia ich zdolności do rozwoju w sposób naturalny. Można argumentować, że rozwiązanie tego dylematu wymaga wprowadzenia bardziej elastycznych i zrównoważonych regulacji, które będą uwzględniać różnorodność potrzeb oraz dynamikę rozwoju sztucznej inteligencji.
Chociaż wprowadzenie przepisów prawnych o antydyskryminacji w kontekście generatywnej sztucznej inteligencji wydaje się być pozytywnym krokiem w stronę ochrony podstawowych praw człowieka, nie można zapominać, że nadmierne regulacje mogą prowadzić do zahamowania innowacji. Ponadto, nie powinno się ignorować faktu, że zjawisko dyskryminacji w AI jest niezwykle złożone i zależy od wielu czynników, w tym od sposobu, w jaki dane są przetwarzane, jak modele są trenowane, a także jak są interpretowane ich rezultaty.
W tej sytuacji, ważne jest, aby przy rozważaniu kwestii związanych z regulacjami dotyczącymi AI, nie tylko uwzględniać zagrożenia związane z potencjalną dyskryminacją, ale także otwarcie analizować skutki zbyt sztywnych regulacji, które mogą ograniczyć rozwój technologii i stworzyć niezamierzone skutki uboczne. Sztuczna inteligencja, mimo swojego potencjału, jest bowiem narzędziem, które musi być rozwijane z zachowaniem ostrożności, ale również z poszanowaniem dla swobodnego rynku i rozwoju technologii.
Jak regulować odpowiedzialność za generatywną sztuczną inteligencję w kontekście prawa autorskiego i własności intelektualnej?
Z perspektywy prawa autorskiego i innych praw własności intelektualnej, generatywna sztuczna inteligencja (SI) stawia przed nami nieznane wcześniej wyzwania. Termin "generatywna SI" wskazuje na niezwykły potencjał tych modeli do tworzenia treści, co w połączeniu z ich coraz szerszą multimodalnością, otwiera nowe przestrzenie do rozważań prawnych. Modele te, często określane mianem dużych modeli multimodalnych, mają zdolność przetwarzania tekstów, dźwięków, obrazów czy wideo, generując rezultaty w różnych formatach. Z prawnego punktu widzenia ta generatywna moc jest zarówno fascynująca, jak i problematyczna.
Potencjał generatywnych modeli sztucznej inteligencji wytwarza nowe scenariusze ryzyka i komplikuje klasyfikację odpowiedzialności. Szeroka gama możliwych wyników, które mogą być przez nie wygenerowane – od oryginalnych dzieł, przez naukowe wkłady, oferty handlowe, "deep fake", mowę nienawiści, aż po umowy ugodowe, reklamy wprowadzające w błąd czy rekomendacje – stwarza różnorodne sytuacje prawne. W tym kontekście konieczne jest stworzenie skutecznych strategii prawnych, które będą odpowiadały na te różnorodne zagrożenia, chroniąc interesy praw autorskich, jak i innych praw intelektualnych.
Zdolność do generowania treści, w tym naśladujących ludzką mowę czy twórczość, jeszcze bardziej uwidacznia podatność i ekspozycję ludzi na te modele. Z jednej strony, możliwość tworzenia nowych, nieprzewidywalnych treści przez SI powoduje istotną niepewność co do tego, jakie rezultaty mogą się pojawić w przyszłości. Z drugiej strony, ryzyko powstawania "halucynacji" przez SI, czyli tworzenia nieprawdziwych lub zniekształconych informacji, stawia pod znakiem zapytania skuteczność istniejących regulacji prawnych i polityk mających na celu minimalizowanie ryzyk.
Ważnym elementem, który należy uwzględnić w analizie generatywnej sztucznej inteligencji, jest kwestia emergentności, czyli zjawiska pojawiania się nowych, nieoczekiwanych zachowań systemu. W związku z tym pojawiają się kluczowe pytania prawne, które dotyczą takich kwestii, jak przypisanie odpowiedzialności za wyniki generowane przez SI czy klasyfikacja twórcy lub wynalazcy w kontekście SI.
W odniesieniu do tego zagadnienia warto zwrócić uwagę na wyzwania związane z regulacjami prawnymi. Ustawa o sztucznej inteligencji (AI Act) w Unii Europejskiej, próbując zaadresować wyzwania związane z generatywną SI, skupiła się na trzech głównych rozwiązaniach. Po pierwsze, rozszerzenie zakresu osobowego, koncentrując się na roli poszczególnych podmiotów w łańcuchu dostaw AI. Po drugie, wprowadzenie klasyfikacji ryzyka, która różni się od tradycyjnego podejścia związanych z określonymi celami. Po trzecie, zasady dotyczące przejrzystości w stosunku do generatywnych modeli SI, które są niezwykle istotne w kontekście zapewnienia odpowiedzialności i ograniczenia ryzyka.
Warto zauważyć, że w kontekście ogólnych modeli AI, które mogą być używane do różnych celów, kluczowe jest dostosowanie regulacji do specyficznych zastosowań, które mogą być klasyfikowane jako wysokiego ryzyka. W takim przypadku odpowiedzialność i obowiązki prawne rozciągają się na wszystkich uczestników łańcucha dostaw AI, począwszy od dostawców, importerów, aż po użytkowników, którzy mogą modyfikować cel systemu SI w sposób, który przekształca go w system o wysokim ryzyku.
Z perspektywy regulacji, dostawcy ogólnych modeli SI mają kluczową rolę w łańcuchu wartości AI, jako że ich modele stanowią podstawę dla szerokiego zakresu systemów SI. To właśnie od nich oczekuje się zgodności z wymaganiami przejrzystości, a w przypadku systemów SI udostępnianych na zasadzie open-source, pewne wymagania mogą zostać złagodzone. Niemniej jednak, nawet w przypadku modeli open-source, nie można całkowicie wykluczyć odpowiedzialności w kontekście ryzyka systemowego, ani wymogu ujawniania informacji dotyczących zestawów danych używanych do trenowania modeli.
W obliczu tych wyzwań, kluczowe jest stworzenie skutecznych strategii prawnych, które będą w stanie dostosować się do zmieniającej się rzeczywistości generatywnej sztucznej inteligencji. Z jednej strony regulacje powinny zapewnić odpowiednią ochronę praw autorskich oraz innych praw własności intelektualnej, z drugiej zaś, muszą być elastyczne i na tyle wszechstronne, by skutecznie odpowiadać na szybko zmieniający się rozwój technologii sztucznej inteligencji.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский