Rozporządzenie o rynkach cyfrowych (DMA) zwraca uwagę na problem personalizowanej reklamy oraz wymogi dotyczące uzyskiwania zgody użytkownika. W recitalu 37 DMA podkreśla, że zgoda na reklamę powinna być udzielana dobrowolnie i świadomie. Jednocześnie w recitalu 70 i artykule 13(6) wskazuje, że tzw. „gatekeeperzy” — podmioty o dominującej pozycji rynkowej — nie mogą stosować mechanizmów, które osłabiają skuteczność zakazów i obowiązków ustanowionych w DMA. Zakazane jest projektowanie lub prezentowanie opcji wyboru dla użytkownika w sposób nierówny, a także wykorzystywanie struktury lub funkcji interfejsu użytkownika do naruszania autonomii i zdolności decyzyjnej. Jednakże przepisy nie definiują jasno, co oznacza „nierówny” sposób prezentacji oraz ograniczają się wyłącznie do interfejsu, nie uwzględniając treści. W efekcie, manipulacje za pomocą spersonalizowanych treści bez zmiany interfejsu, takie jak tzw. hyper-nudging z wykorzystaniem generatywnej sztucznej inteligencji, pozostają dozwolone.

DMA zwraca także uwagę na zjawisko tzw. dark patterns, czyli manipulacyjnych technik utrudniających użytkownikom lub przedsiębiorcom rezygnację z usług. Przepisy zobowiązują gatekeeperów do nieutrudniania procesu rezygnacji, ale nie odnoszą się do innych podmiotów, które nie spełniają kryteriów gatekeepera. Co więcej, małe firmy pozostają poza zakresem regulacji, co tworzy luki prawne i pola do stosowania praktyk manipulacyjnych, które nie są kontrolowane.

W kwietniu 2021 roku Unia Europejska przedstawiła projekt aktu o sztucznej inteligencji (Artificial Intelligence Act, AIA), który jest pierwszą próbą uregulowania kwestii AI na poziomie unijnym. Propozycja ta opiera się na podejściu opartym na ryzyku i zawiera listę zakazanych systemów AI, których użycie jest niedopuszczalne ze względu na naruszenie praw podstawowych. W czerwcu 2023 roku Parlament Europejski zatwierdził poprawki do projektu, które między innymi doprecyzowały przepisy dotyczące manipulacji.

Artykuł 5 AIA zabrania wprowadzania do obrotu lub użytkowania systemów AI wykorzystujących techniki subliminalne, które działają poza świadomością osoby, oraz techniki celowo manipulacyjne lub decepcyjne, które mają na celu lub skutkują znaczącym zakłóceniem zdolności podejmowania świadomej decyzji przez osobę lub grupę osób. Skutkiem takich działań może być podjęcie decyzji, której dana osoba normalnie by nie podjęła, co prowadzi do poważnej szkody fizycznej lub psychicznej.

Pomimo tego, że AIA wskazuje na manipulacje subliminalne jako szczególnie groźne, prawo unijne nie definiuje precyzyjnie tego pojęcia. Historycznie, termin subliminalny odnosi się do technik wywierających wpływ na decyzje osób bez ich świadomego udziału — przykładami mogą być badania Jamesa Vicary'ego z lat 50., które próbowały wykazać wpływ podprogowych komunikatów na zachowania konsumentów, choć ich wiarygodność jest dyskusyjna. W prawodawstwie UE subliminalne techniki są wymieniane w dyrektywach dotyczących przekazów audiowizualnych, jednak bez jednoznacznej definicji.

Istotnym elementem rozważań jest fakt, że technologie AI, takie jak asystenci głosowi czy inteligentne zabawki, mogą być zaprojektowane w sposób celowo wykorzystujący percepcję subliminalną, co może prowadzić do decyzji wykraczających poza możliwości poznawcze użytkowników. Ograniczenia prawne mają na celu przeciwdziałanie takim praktykom, choć wciąż istnieją wyzwania interpretacyjne i implementacyjne.

Ważne jest, aby czytelnik rozumiał, że obecne regulacje, mimo iż starają się ograniczyć manipulacje i praktyki naruszające autonomię jednostki, pozostawiają istotne luki, zwłaszcza w odniesieniu do podmiotów spoza kategorii gatekeeperów oraz małych firm. Ponadto brak jasnej definicji technik subliminalnych i niedostateczne uwzględnienie treści w ocenie interfejsów użytkownika powodują, że manipulacje oparte na nowoczesnych technologiach, takich jak generatywna AI, mogą funkcjonować w szarej strefie prawnej.

Zrozumienie tych niuansów jest kluczowe dla pełnej świadomości ryzyk związanych z cyfrową manipulacją i rozwojem sztucznej inteligencji, zwłaszcza gdy dotyczy to ochrony praw konsumentów i poszanowania autonomii decyzyjnej w coraz bardziej złożonym środowisku cyfrowym.

Jak akt AI redefiniuje odpowiedzialność za szkody spowodowane przez sztuczną inteligencję?

W kontekście regulacji dotyczących sztucznej inteligencji, szczególną uwagę należy zwrócić na sposób, w jaki akt AI przewiduje odpowiedzialność za szkody wynikłe z działania systemów opartych na AI. Kluczową kwestią jest, jak w ramach nowych regulacji rozróżniane są modele sztucznej inteligencji o różnym stopniu ryzyka oraz jakie obowiązki nakładane są na ich dostawców.

Akt AI wprowadza trzy poziomy klasyfikacji ryzyka dla ogólnych modeli AI. Pierwszy poziom obejmuje standardowe modele, drugi – modele wydane na licencji open-source, a trzeci – modele, które mogą stwarzać ryzyko systemowe. To rozróżnienie ma ogromne znaczenie, ponieważ dla każdego z tych typów modeli przewidziano różne obowiązki i procedury oceny ryzyka. W szczególności modele o potencjale wysoce ryzykownym, jak generatywna sztuczna inteligencja, podlegają szczególnym regulacjom, które nakładają obowiązki dotyczące ujawniania informacji oraz transparentności.

Zgodnie z regulacjami zawartymi w akcie AI, dostawcy systemów AI muszą udostępniać szczegółową dokumentację techniczną i informacyjną dotyczącą danych, które były używane do trenowania tych systemów. W przypadku, gdy dane użyte do treningu zawierają materiały chronione prawem autorskim, dostawcy muszą uzyskać zgodę właścicieli praw autorskich, chyba że zastosowanie znajdą wyjątki przewidziane przez prawo, takie jak dozwolony użytek do celów tekstowego lub danych wydobywczych, pod warunkiem że cel jest związany z badaniami naukowymi.

Pomimo tych regulacji, wyzwaniem pozostaje pełna odpowiedzialność za szkody powstałe w wyniku używania tych modeli. Przejrzystość w zakresie danych używanych do pre-treningu oraz treningu modeli sztucznej inteligencji może pomóc w identyfikowaniu przyczyn problemów, lecz nie usuwa całkowicie ryzyka przypisania odpowiedzialności. Użytkownicy systemów sztucznej inteligencji mogą wciąż spotkać się z problemem nieprecyzyjnego przypisania winy, szczególnie w kontekście przypadków generowanych treści, które mogą wprowadzać w błąd lub powodować szkodliwe skutki społeczne.

Obowiązek ujawniania generowanych treści – w tym tekstów, obrazów, filmów czy dźwięków – to kolejny aspekt regulacji AI. Zgodnie z aktem AI, systemy generatywne muszą oznaczać swoje wytwory w sposób zrozumiały dla maszyn i łatwy do wykrycia, aby użytkownicy mogli jednoznacznie rozpoznać, że materiał został stworzony przez sztuczną inteligencję. To ma na celu zapobieganie oszustwom, manipulacjom oraz zminimalizowanie ryzyka dezinformacji. Nie mniej ważne jest jednak pytanie, czy brak odpowiedniego oznaczenia może zwiększać szkodliwość skutków generowanych przez AI. W takich przypadkach, brak oznaczenia może zostać uznany za niewłaściwe, nieskuteczne lub niewystarczające technicznie rozwiązanie, co skutkować będzie konsekwencjami prawnymi dla dostawcy systemu.

Również w kontekście odpowiedzialności cywilnej, kwestia przypisania odpowiedzialności za szkody wywołane przez AI pozostaje wyzwaniem. W przypadku, gdy generatywna sztuczna inteligencja tworzy treści, które mają poważny wpływ na zdrowie publiczne, bezpieczeństwo czy podstawowe prawa obywatelskie, konieczne staje się określenie, kto ponosi odpowiedzialność. Przepisy AI Act wprowadzają mechanizmy umożliwiające klasyfikowanie modeli AI w zależności od ryzyka, jakie mogą stwarzać w kontekście systemowym, oraz wprowadzenie odpowiednich regulacji w tym zakresie. Jednak określenie, kto i na jakich zasadach odpowiada za szkody wynikłe z działania takich systemów, wymaga dalszych rozważań.

Szczególne znaczenie w tym kontekście mają także rozwiązania dotyczące identyfikacji osób odpowiedzialnych za stworzenie konkretnych modeli AI. W aktach prawnych zawarte zostały przepisy, które nakładają obowiązki na dostawców modeli AI, a nie na ich użytkowników. Takie rozróżnienie umożliwia bardziej precyzyjne przypisanie odpowiedzialności i ustalenie, kto jest odpowiedzialny za potencjalne błędy czy szkody spowodowane przez generowaną przez system treść.

Warto także zauważyć, że cały system odpowiedzialności związany z używaniem generatywnej sztucznej inteligencji wciąż znajduje się w fazie rozwoju. Przepisy prawa muszą ewoluować w odpowiedzi na zmiany technologiczne, aby skutecznie reagować na nowe wyzwania, jakie stwarza stosowanie AI w praktyce. W związku z tym, pomimo obecnych regulacji, dalsze dostosowywanie przepisów i ich interpretacja będą kluczowe dla zapewnienia odpowiedzialności i transparentności w obszarze sztucznej inteligencji.