W ostatnich latach rozwój technologii generatywnej sztucznej inteligencji (AI) — zdolnej do tworzenia treści w formie tekstu, obrazów, dźwięku czy wideo — stał się przedmiotem intensywnej uwagi zarówno regulatorów, jak i badaczy prawa. Szczególnie interesującym przykładem jest podejście Chin, które wprowadziły system licencjonowania generatywnych modeli AI przed ich wprowadzeniem na rynek, co stanowi unikalny środek kontroli i zapobiegania niepożądanym skutkom. Ten prewencyjny model regulacji różni się od bardziej rozproszonej formy tzw. „private ordering”, gdzie to sami dostawcy modeli ustalają warunki użytkowania i standardy etyczne.

Pomimo dynamicznego rozwoju technologii, warunki świadczenia usług (Terms & Conditions, T&C) dotyczące generatywnych modeli AI pozostają wciąż słabo zbadane, zwłaszcza w porównaniu do długoletnich analiz regulaminów platform społecznościowych. Projekty takie jak ToSBack czy Princeton–Leuven Longitudinal Corpus zajmowały się głównie analizą polityk prywatności i regulaminów dużych platform cyfrowych, natomiast umowy dotyczące dostawców modeli podstawowych generatywnej AI były dotąd pomijane. Dopiero w 2023 roku rozpoczęto systematyczne gromadzenie danych o warunkach korzystania z takich modeli, jak w Open Terms Archive, choć nadal jest to w powijakach.

W podejściu do analizy T&C istotne jest zrozumienie różnic między modelami otwartoźródłowymi, takimi jak Stable Diffusion, a bardziej zamkniętymi i komercyjnymi platformami typu ChatGPT czy Meta Llama. Te pierwsze często budują swoją społeczność wokół otwartości i współpracy, podczas gdy drugie opierają się na restrykcyjnych warunkach użytkowania oraz ochronie własności intelektualnej. To rozróżnienie wpływa na sposób, w jaki użytkownicy mogą korzystać z modeli, ich prawa do wygenerowanych treści oraz zakres odpowiedzialności dostawców.

Analiza warunków użytkowania obejmuje obecnie różnorodne modele generatywne: tekstowe (T2T), obrazowe (T2I) oraz audio/wideo (T2A/V). Każda z tych kategorii niesie ze sobą specyficzne wyzwania prawne, na przykład związane z prawami autorskimi, ochroną danych osobowych czy odpowiedzialnością za treści generowane automatycznie. Coraz częściej zwraca się również uwagę na tzw. downstream deployers — podmioty, które wykorzystują modele bazowe do tworzenia własnych aplikacji, co komplikuje ekosystem zarządzania odpowiedzialnością i regulacjami.

Ważnym aspektem jest także różnica w podejściu regulacyjnym pomiędzy różnymi jurysdykcjami. Podczas gdy Europa wprowadza silne regulacje dotyczące ochrony konsumentów i prywatności (np. Digital Services Act), w USA dominuje bardziej fragmentaryczne, ale dynamiczne środowisko prywatnego porządku i standardów rynkowych. Z kolei Chiny idą w stronę ścisłej kontroli i prewencyjnego licencjonowania, co może wpływać na globalną dynamikę rozwoju i dystrybucji generatywnej AI.

Należy również zwrócić uwagę na wyzwania wynikające z tego, że regulaminy i polityki prywatności są zazwyczaj złożone i trudne do zrozumienia dla przeciętnego użytkownika. Wielokrotnie udowodniono, że konsumenci rzadko czytają te dokumenty, co utrudnia świadome korzystanie z technologii i zrozumienie swoich praw i obowiązków. W efekcie, decyzje podejmowane na podstawie takich regulaminów często nie są w pełni świadome, co rodzi pytania o sprawiedliwość i efektywność obecnych modeli regulacyjnych.

Znaczące pozostaje także zrozumienie, że obecny krajobraz regulacyjny generatywnej AI jest nadal w fazie kształtowania, a rola prywatnego porządku (private ordering) dostawców pozostaje dominująca. To oznacza, że w praktyce to firmy kreują zasady gry i decydują o tym, w jaki sposób ich modele będą wykorzystywane. Jednak z czasem, wraz z rozwojem regulacji i większą świadomością prawną, rola państwa i instytucji nadzorczych będzie prawdopodobnie wzrastać.

Istotne jest zatem, by czytelnik rozumiał, że zagadnienia prawne związane z generatywną AI to nie tylko kwestie technologiczne, ale także fundamentalne wyzwania dotyczące prywatności, odpowiedzialności, praw konsumentów i różnorodnych modeli zarządzania na poziomie globalnym. Warto zwrócić uwagę, że pełne zrozumienie konsekwencji korzystania z generatywnych modeli wymaga uwzględnienia zarówno aspektów prawnych, jak i społeczno-ekonomicznych, a także ciągłego monitorowania zmian legislacyjnych, które będą kształtować przyszłość tej dynamicznej dziedziny.

Jak definiuje się systemy AI i modele ogólnego przeznaczenia w świetle AI Act?

Definicja systemów sztucznej inteligencji (AI) przyjęta przez OECD, którą w dużej mierze odzwierciedla AI Act, jest fundamentalna dla zrozumienia współczesnych regulacji dotyczących AI. System AI definiuje się jako system oparty na maszynach, zdolny do działania na różnych poziomach autonomii oraz wykazujący zdolność adaptacji po wdrożeniu. Kluczowymi osiami tej definicji są interaktywność, adaptatywność, autonomia i wpływ na środowisko, w którym system działa. Systemy te, realizując swoje cele – jawne lub ukryte – generują efekty takie jak przewidywania, rekomendacje, decyzje czy różnorodne treści, które mogą bezpośrednio wpływać na rzeczywiste lub wirtualne otoczenie.

Przejście od tradycyjnego rozumienia AI do modeli generatywnych wymaga uściślenia pojęć. AI Act wprowadza pojęcia „modelu AI ogólnego przeznaczenia” oraz „systemu AI ogólnego przeznaczenia”, co pozwala na wyraźne oddzielenie tych systemów od bardziej wąsko ukierunkowanych aplikacji. Modele te są szkolone na ogromnych zbiorach danych, często przy zastosowaniu metod samonadzoru, i cechują się zdolnością do wykonywania szerokiego spektrum zadań, niezależnie od konkretnego wdrożenia czy integracji. Stanowią one podstawę dla różnych systemów AI i są zdolne do adaptacji i ewolucji, co czyni je niezwykle wszechstronnymi, ale także trudnymi do pełnego uregulowania.

Wzrost mocy i złożoności generatywnych modeli AI niesie ze sobą nieoczekiwane ryzyka. Wśród nich są zjawiska „wyłaniających się zachowań” (emergent behaviours), które mogą prowadzić do obejścia kontroli ludzkiej, optymalizacji działań w sposób nieoptymalny z punktu widzenia intencji projektantów, stosowania technik perswazji, a nawet udawania człowieka. Adaptacyjne uczenie się i zmieniające się możliwości modeli wprowadzają nieprzewidywalność w rezultaty ich działania, co komplikuje kwestie odpowiedzialności prawnej za błędy, skutki nieoczekiwanych działań czy alokację winy.

Ważne jest, że systemy AI, w tym modele generatywne, nie działają w izolacji – ich decyzje i rekomendacje kształtują środowisko, w którym są używane, wpływając na ludzi, instytucje i procesy społeczne. Definicja systemów AI w AI Act uwzględnia tę dynamiczną interakcję i podkreśla konieczność odpowiedzialnego podejścia do ich projektowania i regulacji.

Zauważalne jest jednak, że obecne ramy prawne, mimo iż starają się uwzględnić specyfikę modeli generatywnych, nie są jeszcze w pełni doskonałe. Obszary takie jak precyzyjne przypisanie odpowiedzialności za działania AI, regulacje dotyczące modeli „frontier” niosących szczególne ryzyko dla bezpieczeństwa publicznego oraz kwestie przejrzystości i zgodności z wartościami etycznymi pozostają wyzwaniami. Konieczne jest ciągłe monitorowanie i aktualizacja norm, aby nadążyć za tempem rozwoju technologii.

Systemy AI, a w szczególności modele ogólnego przeznaczenia, nie są jedynie narzędziami technologicznymi – to złożone byty operujące autonomicznie i adaptatywnie, które zmieniają sposób, w jaki podejmowane są decyzje i jak funkcjonują instytucje. Zrozumienie ich charakterystyki i wpływu na prawo, społeczeństwo i etykę jest niezbędne do odpowiedzialnego wdrażania i regulacji AI.

Istotne jest, aby czytelnik miał świadomość, że AI to nie tylko programy wykonujące określone zadania, ale systemy, które uczą się i zmieniają, co może prowadzić do rezultatów trudnych do przewidzenia i kontrolowania. W konsekwencji rozważania prawne, etyczne i techniczne muszą iść w parze, tworząc ramy, które z jednej strony pozwolą na wykorzystanie potencjału AI, a z drugiej – zabezpieczą przed zagrożeniami wynikającymi z jej autonomii i adaptacyjności. Przyszłość regulacji AI będzie wymagała integracji wiedzy interdyscyplinarnej, aby skutecznie reagować na dynamicznie zmieniający się krajobraz technologiczny.