W kontekście rozwoju technologii sztucznej inteligencji, szczególnie modeli ogólnego przeznaczenia (GPAI), prawo nie nadąża za ich szybkim rozwojem. Ustawa o Sztucznej Inteligencji (AI Act) stanowi próbę uregulowania tego obszaru, jednak napotyka szereg trudności związanych z koniecznością balansowania między precyzyjnymi definicjami a dynamicznym postępem technologicznym. Główne wyzwania to zarówno złożoność regulacji, jak i ryzyko ich szybkiej dezaktualizacji.

W ramach regulacji ogólnoeuropejskich ustawa przewiduje stworzenie polityki zgodności z prawem autorskim oraz prawami pokrewnymi przez dostawców modeli AI, w tym LLM (Language Models). To próba odpowiedzi na jedno z wielu wyzwań związanych z technologiemi sztucznej inteligencji, które przetwarzają ogromne ilości danych i mogą mieć dalekosiężne skutki społeczne i ekonomiczne. Niemniej jednak, wielość definicji stosowanych w ustawie, mających na celu objęcie jej jak najszerszego zakresu, prowadzi do komplikacji regulacyjnych. Liczne definicje, obejmujące zarówno modele ogólnego przeznaczenia, jak i ryzyka systemowe, mogą sprawić, że legislacja stanie się bardziej skomplikowana, niż początkowo zakładano. Dodatkowo, próba objęcia regulacjami zarówno ryzyk technologicznych, jak i ich potencjalnych skutków, naraża system na ciągłą konieczność aktualizacji, co stanowi jeden z głównych zagrożeń w kontekście regulacji tak szybko rozwijającej się dziedziny jak sztuczna inteligencja.

Zgodnie z zapisami ustawy, wszystkie modele LLM, takie jak GPT-4, są uznawane za posiadające "wysokie zdolności wpływu", co ma stanowić środek ostrożności w obliczu ich ogromnego potencjału. Jednak w praktyce, obliczenia wymagane do ich wytrenowania, takie jak te dla GPT-4, sięgają jedynie około 10^25 FLOPS w 2024 roku. W związku z tym, pomimo zdefiniowania modelu jako "wysokiego ryzyka", technologiczne wyzwania związane z utrzymaniem regulacji w zgodzie z tempem innowacji pozostają otwarte. Istotnym problemem jest to, że ustawa nie uwzględnia już zasady neutralności technologicznej, co może prowadzić do jej szybkiej dezaktualizacji. Prawodawcy, którzy pierwotnie uwzględniali tę zasadę w pierwszym projekcie ustawy, później ją porzucili, co może prowadzić do ryzyka związanego z narzuceniem regulacji nieadekwatnych do rozwoju technologii. Zamiast tego, legislacja wprowadza mechanizmy, które mają na celu utrzymanie aktualności przepisów w przyszłości, takie jak delegowanie uprawnień do Komisji Europejskiej. Jednak nawet te działania mogą okazać się niewystarczające, ponieważ przewidywanie tempa rozwoju sztucznej inteligencji staje się coraz trudniejsze.

Pomimo tego, że AI Act przewiduje mechanizmy mające na celu unikanie nadmiernej częstotliwości zmian przepisów, takie jak coroczne oceny i rewizje przez Komisję Europejską, trudno przewidzieć, czy legislacja będzie w stanie utrzymać równowagę pomiędzy ochroną praw i wolności obywatelskich a stymulowaniem innowacji technologicznych. Problemem może okazać się nie tylko określenie ryzyka związanego z wykorzystaniem AI, ale także ocena skutków technologii w długoterminowej perspektywie. Ostatecznie, głównym zagrożeniem jest to, że prawodawcy mogą po prostu "przyjść za późno", w tym sensie, że próby regulowania zjawiska tak szybko ewoluującego jak AI mogą nie nadążać za jego rozwojem, prowadząc do sytuacji, w której technologia nie jest w pełni uwzględniana w przepisach, które mają ją kontrolować.

Nie mniej istotnym wyzwaniem jest kwestia tak zwanych "nieznanych nieznanych", które będą pojawiać się w przyszłości, w miarę jak nowe modele AI będą stawały się coraz bardziej zaawansowane. W takim przypadku, zamiast strefy regulacji, która stara się "wyprzedzić" rozwój technologii, mogą pojawić się systemy prawne, które będą musiały nieustannie reagować na nowe przypadki i zjawiska, a przez to jeszcze bardziej skomplikować już i tak chaotyczny obraz regulacyjny. Takie podejście, choć konieczne, wiąże się z ryzykiem utraty kontroli nad tworzeniem prawa w kontekście technologii. Regulacje mogą zatem mieć charakter "doraźny", co z kolei może prowadzić do ich niejednoznaczności lub nieskuteczności w odniesieniu do nowoczesnych zastosowań sztucznej inteligencji.

Mimo to, AI Act posiada także swoje pozytywne strony, szczególnie w kwestii ochrony praw podstawowych i zapewnienia odpowiednich ram dla stosowania sztucznej inteligencji. Nie można jednak zapominać, że wyzwań związanych z regulowaniem takich technologii, jak AI, jest zbyt wiele, by traktować je wyłącznie w kategoriach prawa, które powinno być oparte na gotowych rozwiązaniach. W tym sensie ustawa pozostaje dokumentem, który może – ale nie musi – stanowić ramy prawne odpowiadające na wyzwania XXI wieku. Wciąż pozostaje pytanie, czy kolejne zmiany i aktualizacje prawne będą w stanie odpowiednio nadążyć za postępem technologicznym i skutecznie wdrożyć odpowiednie regulacje.

Jakie globalne inicjatywy dotyczące sztucznej inteligencji kształtują jej przyszłość?

Deklaracja ta porusza kluczowe aspekty bezpieczeństwa sztucznej inteligencji, takie jak ochrona praw człowieka, przejrzystość, zrozumiałość, sprawiedliwość, odpowiedzialność, nadzór ludzki, łagodzenie uprzedzeń oraz prywatność i ochrona danych. Dodatkowo, wskazuje na potencjalne ryzyka związane z możliwością manipulowania lub generowania wprowadzających w błąd treści. Została ona poparta przez dwadzieścia dziewięć państw i regionów, w tym nie tylko państwa G7 i OECD, ale także partnerów z Bliskiego Wschodu, Afryki, Ameryki Południowej oraz Azji, w tym Chin. Podczas drugiego Szczytu Bezpieczeństwa Sztucznej Inteligencji, który odbył się w Seulu w maju 2024 roku, trzydzieści krajów i regionów potwierdziło konieczność współpracy międzynarodowej w odpowiedzi na szybki rozwój technologii AI, podkreślając jednocześnie wagę bezpieczeństwa oraz inkluzyjności i innowacyjności jako priorytetów dla globalnej konwergencji.

W sierpniu 2024 roku Zgromadzenie Ogólne ONZ powołało Międzynarodowy Zespół Doradczy ds. Sztucznej Inteligencji, który w swoim „Ostatecznym Raportcie na temat Rządzenia AI dla Ludzkości” zaprezentowało siedem kluczowych rekomendacji dotyczących zarządzania sztuczną inteligencją. Wśród nich znalazły się propozycje powołania Międzynarodowego Panelu Naukowego ds. Sztucznej Inteligencji, mającego na celu kierowanie badaniami oraz dzieleniem się wiedzą, oraz utworzenia Platformy Politycznych Dialogów na temat Rządzenia Sztuczną Inteligencją, która promowałaby spójne przepisy prawne. Dodatkowo zaproponowano stworzenie Wymiany Standardów AI, mającej na celu globalną harmonizację standardów, oraz sieci rozwoju zdolności, która podnosiłaby szkolenia i zasoby związane z AI. Ważnym elementem tych rekomendacji jest także powołanie Funduszu Globalnego ds. AI, wspierającego kraje o ograniczonych możliwościach w zakresie sztucznej inteligencji, a także ramy do odpowiedzialnego zarządzania danymi. W końcu raport sugeruje stworzenie Biura ds. AI w Sekretariacie ONZ, które koordynowałoby te inicjatywy i zapewniało jednolite podejście do rządzenia sztuczną inteligencją.

Równolegle, w marcu 2024 roku Komitet ds. Sztucznej Inteligencji Rady Europy przedstawił Projekt Konwencji Ramowej dotyczącej Sztucznej Inteligencji, Praw Człowieka, Demokracji i Rządów Prawa (Traktat AI), który ustanawia przełomowy dokument regulujący rozwój sztucznej inteligencji. Traktat ten, przyjęty w maju 2024 roku, kładzie nacisk na obowiązek państw-stron Konwencji, by aktywnie zapewniały, że działalność związana z AI jest zgodna z prawami człowieka, integralnością demokratyczną oraz zasadami rządów prawa. Traktat promuje ochronę na każdym etapie cyklu życia AI, w tym mechanizmy odpowiedzialności i przejrzystości, a także wprowadza ramy zarządzania ryzykiem. Ponadto, wprowadza skuteczne środki ochrony prawnej w przypadku naruszeń oraz oceny ryzyka i wpływu, a także nakłada obowiązek międzynarodowej współpracy, koncentrując się na niedyskryminacji i ochronie praw.

W kontekście tych globalnych wysiłków, znaczącą rolę odgrywa także ramy rządzenia sztuczną inteligencją opracowane przez G7. W 2023 roku G7, jako grupa krajów o dużym wpływie gospodarczym, regulacyjnym oraz technologicznym, przyjęła proces mający na celu stworzenie spójnych zasad dotyczących zaawansowanych systemów AI. Takie inicjatywy są kluczowe nie tylko dla bezpieczeństwa, ale także dla realizowania podstawowych wartości, jak prawa człowieka, demokracja i rządy prawa, w rozwoju i wdrażaniu systemów AI.

Chociaż w tych procesach globalnych biorą udział różnorodne kraje, to G7, z uwagi na swoje silne gospodarki i technologiczny wpływ, pełni rolę lidera, który może wyznaczyć standardy i zasady. Warto zauważyć, że państwa G7 to wyłącznie demokracje, co umożliwia większe skupienie się na wspólnych wartościach. Stanowi to solidną podstawę, nie tylko dla zapewnienia bezpieczeństwa AI, ale także dla realizacji fundamentalnych wartości w procesie tworzenia nowych technologii.

Istotne jest, że współpraca międzynarodowa w zakresie sztucznej inteligencji nie ogranicza się tylko do krajów rozwiniętych. Globalne podejście, które uwzględnia potrzeby krajów rozwijających się, jest kluczowe. Stąd propozycje, jak np. Fundusz Globalny dla AI, mają na celu wyrównanie szans między krajami o różnym poziomie rozwoju technologicznego i dostępności zasobów. Z kolei dostosowanie regulacji w różnych częściach świata do wspólnych ram stanowi wyzwanie, zwłaszcza w obliczu różnic w tradycjach prawnych, strukturach politycznych i priorytetach rozwoju.

Podejmowanie takich globalnych działań jest niezbędne nie tylko z perspektywy ochrony prywatności czy bezpieczeństwa, ale również dla dbałości o przyszłość gospodarki i społeczeństw. Pamiętajmy, że sztuczna inteligencja ma potencjał, by przekształcić nie tylko technologie, ale także sektory gospodarki, sposób funkcjonowania społeczeństw oraz wpływać na relacje międzynarodowe. Dlatego niezwykle ważne jest, by tworzenie i wdrażanie tych regulacji było procesem odpowiedzialnym, przejrzystym i zorientowanym na zrównoważony rozwój.