W dzisiejszych czasach, z rozwojem sztucznej inteligencji, pojawia się pytanie o to, kto tak naprawdę posiada prawa autorskie do wyników tworzonych przez algorytmy AI. Mimo że branża jest wciąż na wczesnym etapie rozwoju, wyraźnie widać, jak różne firmy podchodzą do tego zagadnienia. Jednym z kluczowych elementów, który powinien budzić zainteresowanie, jest to, że w każdym z przypadków, który został zbadany, użytkownicy otrzymywali prawa do wyników, choć często w ramach szerokiej licencji, która daje dostawcom usług szerokie możliwości wykorzystania generowanych treści.
Przykładem tego jest LENSA, rosyjska aplikacja AI, która przekazuje użytkownikowi prawa do generowanych przez niego dzieł, ale równocześnie wymaga od niego oddania licencji na szerokie wykorzystanie tych dzieł. W przypadku tej licencji, użytkownik zgadza się na udzielenie „perpetualnej, odwołalnej, niewyłącznej, wolnej od tantiem, ogólnoświatowej, w pełni opłaconej, przenośnej i sublicencjonowanej licencji” do używania, reprodukowania, modyfikowania i tworzenia dzieł zależnych. Podobne podejście ma Midjourney, które oferuje użytkownikowi prawa do stworzonych treści, ale równocześnie zapewnia sobie prawa do szerokiego korzystania z tych dzieł.
Podobnie w przypadku Stable Diffusion, model ten nie korzysta z dostosowanej licencji, ale oferuje użytkownikowi licencję open-source, na podstawie której użytkownicy mogą wykorzystywać wygenerowane przez AI treści, przy czym jednocześnie takie wykorzystywanie jest regulowane przez określone zasady. Z kolei dla usług T2T (tekst na tekst) takich jak ChatGPT, OpenAI przypisuje użytkownikowi wszystkie prawa autorskie do wygenerowanych treści, choć równocześnie zapewnia sobie prawo do używania „inputów”, czyli materiałów wejściowych, które użytkownik wprowadza do systemu.
Jednakże są także wyjątki, jak ma to miejsce w przypadku chińskiego Baidu, właściciela Ernie Bot, który w swoich warunkach użytkowania wyraźnie zaznacza, że to firma jest właścicielem praw autorskich do całej platformy API i związanych z nią technologii, oprogramowania i interfejsów użytkownika. To podejście wskazuje na pewne różnice w podejściu do własności praw autorskich w zależności od regionu, gdzie twórcy oprogramowania działają.
Z punktu widzenia odpowiedzialności, w większości analizowanych modeli, to użytkownik ponosi pełną odpowiedzialność za ewentualne naruszenie praw autorskich. Na przykład, w warunkach korzystania z Midjourney, użytkownik jest wyraźnie zobowiązany do odpowiedzialności za wszelkie naruszenia praw intelektualnych, a w przypadku ich wykrycia, firma ma prawo dochodzić roszczeń. Z kolei w przypadku Stable Diffusion odpowiedzialność za naruszenia ponosi użytkownik, a sam model jest udostępniany „tak jak jest”, bez żadnych gwarancji, co do jego wolności od naruszeń praw autorskich.
Ponadto, wiele usług oferujących generatywne modele AI wdraża procedury mające na celu zminimalizowanie ryzyka naruszenia praw autorskich. Często stosowane są różnorodne środki zaradcze, takie jak blokowanie pewnych słów kluczowych lub nazw własnych wprowadzanych do systemu, aby zapobiec generowaniu treści, które mogą naruszać prawo, takie jak pornografia dziecięca, treści szkodliwe czy dezinformacyjne. Firmy takie jak Midjourney, Nightcafe czy Stable Diffusion wprowadzają mechanizmy usuwania treści, a także blokują konta użytkowników, którzy łamią zasady.
Choć te środki mają na celu ograniczenie ryzyka naruszenia praw autorskich, nie można zapominać, że wiele modeli AI jest wciąż w fazie rozwoju, a zasady prawne w tym zakresie nie zostały jeszcze jednoznacznie określone. Ważne jest, by użytkownicy świadomie podchodzili do kwestii praw autorskich, zarówno w kontekście generowania treści, jak i ich późniejszego wykorzystywania.
W kontekście odpowiedzialności za naruszenie praw autorskich i procedur ochrony przed takimi przypadkami, użytkownicy powinni pamiętać, że niektóre z zawartych w regulaminach usług klauzul mogą okazać się nieważne w wielu krajach, szczególnie w ramach umów konsumenckich, gdzie prawo konsumenckie zapewnia dodatkową ochronę. Jednakże w praktyce, użytkownicy powinni posiadać zasoby i wiedzę, aby skutecznie zakwestionować te warunki w przypadku sporu.
Ewolucja definicji systemów AI w Akcie o Sztucznej Inteligencji: Wyzwania i Przeszkody w Tworzeniu Ram Prawnych
Formułowanie definicji systemów sztucznej inteligencji w celach prawnych jest procesem pełnym wyzwań. Należy zadbać o to, by definicja była wolna od determinant technologicznych i utrzymywała wystarczającą neutralność technologiczną, aby objąć różne dostępne (lub przyszłe) rozwiązania na rynku oraz unikać przestarzałości, umożliwiając integrację przyszłych rozwoju technologicznych. Definicja musi także odnosić się do funkcjonalnych i istotnych cech, charakterystyk operacyjnych oraz specyfikacji technicznych. Ewolucja definicji systemów AI w Unii Europejskiej, począwszy od propozycji Aktu o Sztucznej Inteligencji, ujawnia te trudności w pełnej mierze.
Pierwsza definicja zaproponowana w Akcie o Sztucznej Inteligencji natychmiast wywołała szereg pytań i spotkała się z krytyką. Po pierwsze, nie była w stanie jednoznacznie rozgraniczyć systemów AI od już powszechnie używanych i szeroko znanych programów komputerowych (oprogramowania). Wymogi regulacyjne nowego tekstu wymagały wyraźnego i obiektywnego rozróżnienia, by jasno określić zakres stosowania. Po drugie, odniesienie do niektórych technik wymienionych w załączniku, mimo wprowadzenia mechanizmu przeglądu, budziło wątpliwości – zarówno co do unikalności wybranych technik, jak i wobec neutralności technologicznej, zdolności do adaptacji nowych rozwiązań oraz samej solidności czysto opisowej definicji, która nie oferowała funkcjonalnej koncepcji.
Proponowana definicja ewoluowała, dostosowując się do pojęcia zaproponowanego przez Organizację Współpracy Gospodarczej i Rozwoju (OECD), które po kolejnej rewizji wzmocniło pewne funkcjonalne cechy rozróżniające i kwalifikowało inne, aby uwzględnić najnowsze osiągnięcia, które zdominowały debatę międzynarodową i media (modele językowe, generatywna AI, AI ogólnego przeznaczenia). Rozszerzenie definicji systemów AI o wschodzące paradygmaty było pierwszą opcją w procesie legislacyjnym. Nie zostało ono jednak wdrożone w sposób izolowany, lecz połączone zostało z dodaniem nowych definicji, które miały obejmować pojawiające się modele. W ten sposób, w ramach aktu, w celu zapewnienia jego zasięgu i rozróżnienia pomiędzy różnymi systemami AI, w kolejnych poprawkach dodano definicje, które nie występowały w pierwotnej wersji: „model fundamentowy” oraz „ogólnoprzecznaczny system AI”.
W kolejnych wersjach tekstu te definicje ulegały dalszym zmianom. Definicja „systemu AI” w wersji z 14 lipca 2023 roku brzmiała: „system oparty na maszynie, zaprojektowany do działania z różnymi poziomami autonomii, który może generować wyniki takie jak prognozy, rekomendacje lub decyzje, które mają wpływ na środowisko, z którym wchodzi w interakcję”. Z kolei ostateczna wersja z 24 stycznia 2024 roku precyzowała definicję, wskazując, że system AI to „system oparty na maszynie, zaprojektowany do działania z różnymi poziomami autonomii, który może wykazywać zdolność adaptacyjną po wdrożeniu, oraz dla określonych celów, wnioskować z otrzymanych danych, jak generować wyniki, takie jak prognozy, treści, rekomendacje lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne”.
Poza samą definicją systemów AI, również definicja „ogólnoprzecznacznego systemu AI” znalazła swoje miejsce w kolejnych wersjach tekstu. Zgodnie z definicją z 2023 roku, jest to system AI, który może być używany w szerokim zakresie aplikacji i dostosowywany do wielu różnych zastosowań, niezależnie od tego, w jaki sposób model ten wprowadzony jest na rynek, oraz może być integrowany w różnych systemach lub aplikacjach. Istotne było również wykluczenie systemów AI, które są wykorzystywane przed wprowadzeniem na rynek do celów badawczo-rozwojowych i prototypowych.
Zmiany w definicjach były wynikiem dynamicznego rozwoju technologii AI, który na przestrzeni kilku lat znacząco wpłynął na postrzeganą rolę i zakres regulacji w tym obszarze. Podstawowym wyzwaniem pozostaje opracowanie definicji, która będzie w stanie obejmować przyszłe technologie i różnorodne modele, jednocześnie nie tracąc swojej użyteczności i stosowności w kontekście zmieniającego się rynku.
Przy tym wszystkim istotnym jest zrozumienie, że definicje zawarte w Akcie o Sztucznej Inteligencji są nie tylko narzędziem regulacyjnym, ale także stanowią punkt odniesienia dla dalszych prac nad standardami, normami i wytycznymi, które będą miały kluczowe znaczenie w rozwoju odpowiedzialnej sztucznej inteligencji w Europie. Każda zmiana definicji ma na celu precyzyjniejsze ujęcie tych systemów, które mogą stanowić zagrożenie lub wyzwanie dla etyki, bezpieczeństwa i prywatności obywateli, ale również dla rynku pracy i gospodarki.
Jak Singapur kształtuje zaufanie i odpowiedzialność w zarządzaniu sztuczną inteligencją generatywną?
Ramy zarządzania sztuczną inteligencją generatywną (GenAI Framework) opracowane przez Singapurską Agencję ds. Rozwoju Informacji i Komunikacji (IMDA) oraz Fundację AI Verify stanowią przykład wielowymiarowego, innowacyjnego i pragmatycznego podejścia do regulacji i nadzoru nad dynamicznie rozwijającą się technologią AI. W centrum tych ram znajduje się potrzeba budowy zaufania publicznego oraz zabezpieczenia społeczeństwa przed ryzykami wynikającymi z generatywnej sztucznej inteligencji, które obejmują dezinformację, manipulację i oszustwa.
Singapurski model podkreśla zaangażowanie wszystkich interesariuszy – obywateli, przedsiębiorstw, środowiska akademickiego, decydentów oraz partnerów międzynarodowych – w tworzenie bezpiecznego i zaufanego ekosystemu AI. Co istotne, dokument nie ogranicza się jedynie do miękkich, dobrowolnych regulacji, ale wskazuje na konieczność wykorzystania szerokiego spektrum narzędzi prawnych, w tym istniejących przepisów dotyczących ochrony danych osobowych, jako podstawy do skutecznego zarządzania ryzykami.
Ramy GenAI wyróżniają się także uznaniem roli technologii wspierających ochronę prywatności i bezpieczeństwa, takich jak narzędzia do moderacji danych wejściowych, technologie poprawiające prywatność oraz narzędzia kryminalistyki cyfrowej. Ten technologiczny aspekt stanowi przejaw praktycznego podejścia Singapuru do promowania odpowiedzialnego rozwoju i wdrażania AI. Zwrócenie uwagi na te narzędzia pokazuje, że kraj ten traktuje technologię nie tylko jako przedmiot regulacji, ale także jako kluczowy instrument zarządzania ryzykami.
Ważnym elementem ram jest również koncepcja „bezwinnego ubezpieczenia” (no fault insurance) jako mechanizmu zapewnienia rekompensaty i ochrony osób poszkodowanych przez negatywne skutki działania systemów AI. To świadczy o kompleksowym podejściu, które uwzględnia nie tylko prewencję, ale także odpowiedzialność i naprawę szkód.
Zasada transparentności, obecna także w tradycyjnym modelu ramowym, została w GenAI Framework rozwinięta i dostosowana do specyfiki ryzyk generatywnej AI. Transparentność wymaga kalibracji w zależności od uzasadnionych interesów organizacji, ale jednocześnie zakłada ustanowienie minimalnego poziomu jawności, pozwalającego użytkownikom na świadome korzystanie z technologii. Ponadto, ramy nakładają obowiązek standaryzacji ujawnianych informacji, aby umożliwić porównywalność modeli AI, oraz wprowadzają zróżnicowanie wymagań transparentności w zależności od poziomu ryzyka związanego z danym modelem – w szczególności tam, gdzie występują kwestie bezpieczeństwa narodowego czy wpływu na społeczeństwo.
Ramy GenAI wykazują również zdolność do dynamicznego reagowania na nowe zagrożenia, takie jak naruszenia praw autorskich, wykorzystanie syntetycznych danych, problemy z jakością zbiorów treningowych czy zagrożenia związane z deepfake’ami. Systematyczne uwzględnienie tych kwestii wskazuje na proaktywność i elastyczność singapurskiego podejścia oraz na determinację w budowaniu zaufanego ekosystemu AI, który nie tylko minimalizuje ryzyko, ale także wspiera rozwój społeczny i gospodarczy.
Należy podkreślić, że Singapur nie widzi jednego uniwersalnego rozwiązania („srebrnej kuli”) dla problemów zarządzania AI. Zamiast tego, łączy wielowarstwowe podejście, łącząc regulacje prawne, mechanizmy pozaprawne oraz innowacje technologiczne, tworząc w ten sposób kompleksową strategię adaptacji do szybko zmieniającego się krajobrazu AI.
W kontekście globalnym model singapurski pokazuje, że skuteczne zarządzanie AI wymaga zarówno ścisłych ram regulacyjnych, jak i elastyczności pozwalającej na bieżące dostosowywanie się do nowych wyzwań. Kluczowe pozostaje holistyczne podejście, które angażuje całość społeczeństwa oraz uwzględnia rolę prawa jako niezbędnego filaru bezpieczeństwa, a także technologie jako narzędzia zapewniające zaufanie i odpowiedzialność.
Jak działają i jakie mają znaczenie automatyczne urządzenia do montażu śrub, magnesów i uzwojeń silników elektrycznych?
Jak struktura danych wpływa na niestabilność kowariancji w optymalizacji portfela?
Jak zmiany w entropii i superpłynności wpływają na właściwości cieplne cieczy He-II?
Jak efektywnie przetwarzać dane tekstowe w SQL za pomocą funkcji manipulacji ciągami znaków?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский