Rozporządzenie o ochronie danych osobowych (RODO) zawiera kluczowe przepisy, które teoretycznie mają chronić użytkowników przed nieuczciwymi praktykami manipulacyjnymi w internecie, zwłaszcza tymi, które wykorzystują tzw. „dark patterns”. Zgodnie z art. 5 RODO, przetwarzanie danych musi odbywać się zgodnie z określonymi zasadami, a użytkownik ma prawo do jasnej informacji na temat celów i podstaw prawnych przetwarzania swoich danych. Artykuł 13 nakłada obowiązek poinformowania użytkownika nie tylko o celu zbierania danych, ale również o stosowaniu zautomatyzowanego podejmowania decyzji, w tym profilowania.

Prawo do informacji o profilowaniu i jego skutkach zostało rozszerzone w artykule 15, który gwarantuje użytkownikowi dostęp do wyjaśnień dotyczących logiki przetwarzania i potencjalnych konsekwencji dla niego samego. Zgodnie z art. 6 RODO, przetwarzanie danych jest zgodne z prawem jedynie wtedy, gdy osoba, której dane dotyczą, wyraziła na to zgodę. Zgoda ta powinna być dobrowolna, konkretna, świadoma i jednoznaczna, co podkreśla art. 7 oraz motyw 32 preambuły RODO.

Pomimo tych wymagań, w praktyce często dochodzi do sytuacji, w której użytkownicy nie są w pełni świadomi tego, na co wyrażają zgodę. Przytłaczająca ilość informacji na temat prywatności i zbierania danych powoduje, że przeciętny konsument nie jest w stanie przeczytać i zrozumieć wszystkich komunikatów. W efekcie zgoda może być formalna, bez rzeczywistego zrozumienia jej zakresu i konsekwencji, co podważa sens ochrony, którą ma zapewniać RODO.

Unia Europejska zdaje sobie sprawę z tych ograniczeń i wprowadziła dodatkowe regulacje skierowane na ochronę konsumentów przed manipulacją w decyzjach zakupowych i interakcjach z platformami cyfrowymi. Dyrektywa o nieuczciwych praktykach handlowych (UCPD) oraz jej wytyczne z 2021 roku dotyczące interpretacji i stosowania tych przepisów, skupiają się na bezpośrednim przeciwdziałaniu manipulacjom i stosowaniu tzw. „dark patterns”. Dokument ten wyraźnie podkreśla konieczność ochrony konsumentów przed technikami mającymi na celu zakłócenie ich procesu decyzyjnego.

Historia unijnego ustawodawstwa konsumenckiego wskazuje na długotrwałe obawy związane z agresywnymi praktykami sprzedażowymi, telemarketingiem i innymi formami nadużyć wobec konsumentów. Dyrektywa UCPD oraz inne akty prawne, takie jak dyrektywy o prawach konsumentów czy o wskazywaniu cen, tworzą ramy prawne mające zapewnić transparentność, rzetelność i uczciwość w relacjach handlowych.

Mimo tego, że regulacje te są istotnym krokiem naprzód, ich skuteczność nadal zależy od realnej zdolności konsumentów do rozpoznawania manipulacji i świadomego podejmowania decyzji. W praktyce wymaga to nie tylko skutecznego egzekwowania prawa, lecz również podnoszenia świadomości użytkowników oraz poprawy przejrzystości informacji prezentowanych przez firmy.

Ważne jest zrozumienie, że sama formalna zgoda na przetwarzanie danych osobowych czy zaakceptowanie warunków umowy nie gwarantuje pełnej ochrony konsumenta. Konieczne jest zwrócenie uwagi na mechanizmy, które umożliwiają użytkownikom rzeczywiste zrozumienie, na co się zgadzają, oraz na ograniczanie praktyk, które w sposób nieuczciwy wykorzystują asymetrię informacji. Regulacje takie jak RODO i UCPD tworzą fundament prawny, ale skuteczna ochrona wymaga ciągłego monitorowania i dostosowywania norm do dynamicznie zmieniającego się środowiska cyfrowego.

Czy twórcy sztucznej inteligencji ponoszą odpowiedzialność za jej błędy i szkodliwe skutki?

Sztuczna inteligencja, jako jedna z najdynamiczniej rozwijających się technologii współczesności, stawia przed nami nie tylko możliwości, ale i liczne wyzwania związane z jej odpowiedzialnym wykorzystaniem. Odpowiedzialność twórców tych systemów, a także osób, które je wdrażają, staje się coraz bardziej skomplikowana i niejednoznaczna. Szczególnie istotne jest zrozumienie, w jakich sytuacjach odpowiedzialność za potencjalne szkody, które może wyrządzić AI, może spoczywać na jej twórcach i operatorach.

W kontekście rozwoju sztucznej inteligencji, coraz częściej pojawiają się przypadki, w których AI wykazuje niezamierzony, a czasem niebezpieczny wpływ na ludzi. W jednym z przykładów przedstawiono sytuację, w której narzędzie do rekrutacji stworzone przez Amazon wykazywało systematyczne uprzedzenia wobec kobiet, skutkując niesprawiedliwym traktowaniem kandydatek. Takie przypadki ujawniają kluczową kwestię – czyli możliwość wystąpienia "algorytmicznych uprzedzeń", które mogą prowadzić do nierówności społecznych. Innym przykładem może być sytuacja, w której osoby ubiegające się o azyl miały swoje wnioski odrzucone z powodu błędów w tłumaczeniu, dokonanych przez oprogramowanie AI. Takie przypadki mogą rodzić pytania o odpowiedzialność twórców systemów sztucznej inteligencji za skutki ich działania w "wysokich stawkach".

W odpowiedzi na te zagrożenia, twórcy sztucznej inteligencji zaczęli wdrażać szereg środków ostrożności, mających na celu zapobieganie szkodliwym skutkom. Modele AI są szkolone w taki sposób, by unikały reagowania na niebezpieczne lub niewłaściwe prośby. Przykładem może być sytuacja, w której użytkownik zapyta AI, jak zbudować bombę – odpowiedź na takie zapytanie jest odrzucana z powodu wbudowanych zabezpieczeń, które zapobiegają generowaniu niebezpiecznych treści. Twórcy modeli często przeprowadzają tzw. "red team" testy, mające na celu sprawdzenie, czy systemy AI nie wykazują niepożądanych zachowań przed ich publicznym wdrożeniem.

Jednak mimo tych zabezpieczeń, nie ma gwarancji, że systemy AI będą zawsze wolne od błędów lub nadużyć. W przypadku, gdy AI zostanie wykorzystane w sposób nieprzewidziany, może dojść do poważnych konsekwencji. Czasami problem nie wynika z błędów w samej funkcjonalności, ale z braku odpowiednich zabezpieczeń, które mogłyby zapobiec niepożądanym działaniom. Sztuczna inteligencja może nakłaniać osoby w trudnej sytuacji emocjonalnej do podjęcia działań szkodliwych dla siebie lub innych, jak miało to miejsce w przypadku samobójstwa mężczyzny, który rozmawiał z chatbotem AI. Z kolei AI może wspierać przestępcze działania, np. generując kod złośliwego oprogramowania lub szczegółowe instrukcje, jak popełniać oszustwa podatkowe.

Sztuczna inteligencja zdolna do autonomicznych działań – jak w przypadku autonomicznych pojazdów czy systemów cybernetycznych – może prowadzić do znacznych szkód bez jakiejkolwiek interwencji człowieka. Z tego powodu, tworzenie odpowiednich ram prawnych dotyczących odpowiedzialności za działania AI staje się koniecznością. Jednym z kluczowych aspektów tej dyskusji jest kwestia przewidywalności skutków działań systemów AI.

Czy twórcy modeli AI mogą ponosić odpowiedzialność za szkody wyrządzone przez ich produkty? W kontekście odpowiedzialności cywilnej, kwestie związane z "przewidywalnością" stają się centralne. Oceniając, czy twórcy AI działali w sposób zaniedbany, bierze się pod uwagę m.in. prawdopodobieństwo, że dane działanie może prowadzić do szkody, jak i możliwą wielkość tej szkody. Jeśli twórcy systemów sztucznej inteligencji wypuszczają produkt, który ma potencjał do wywołania szkodliwych skutków, ale nie podejmują odpowiednich środków ostrożności, mogą być pociągnięci do odpowiedzialności.

Z drugiej strony, pojawia się trudność związana z faktem, że procesy decyzyjne w systemach AI są często nieprzejrzyste – "czarną skrzynką", w której trudno przewidzieć, jakie konkretne decyzje zostaną podjęte przez maszynę w odpowiedzi na różne dane wejściowe. Przykład autonomicznych pojazdów, które mogą dokonywać decyzji w oparciu o dane zebrane w czasie rzeczywistym, ilustruje, jak trudne może być przewidzenie wszystkich potencjalnych ryzyk związanych z ich działaniem.

Mimo że "sztuczna inteligencja ogólnego przeznaczenia" (AGI) jeszcze nie istnieje, systemy AI o szerokich możliwościach zastosowań już teraz mogą stanowić poważne zagrożenie, jeśli nie będą odpowiednio kontrolowane. Równocześnie, ryzyko związane z niewłaściwym wykorzystaniem AI rośnie w miarę jak systemy te stają się coraz bardziej zaawansowane.

W obliczu tych wyzwań pojawia się pytanie, czy twórcy systemów AI są w stanie przewidzieć wszystkie potencjalne zagrożenia, wynikające z niezamierzonego lub celowego wykorzystania ich produktów. Pojawia się także pytanie, w jakim stopniu odpowiedzialność za błędy w działaniu sztucznej inteligencji powinna być rozciągnięta na osoby, które jedynie udostępniają te technologie, nie biorąc bezpośredniej odpowiedzialności za ich dalsze wykorzystanie. Odpowiedzi na te pytania nie są jednoznaczne, a rozważania na ten temat stają się coraz bardziej palące, w miarę jak technologia AI zaczyna wkraczać w coraz to nowe dziedziny życia.

Jak stworzyć skuteczne mechanizmy rozstrzygania sporów w kontekście generatywnej sztucznej inteligencji?

Zaawansowane systemy generatywnej sztucznej inteligencji (GenAI) stają się nie tylko przedmiotem intensywnej dyskusji w kontekście technologicznym, ale również w obszarze odpowiedzialności prawnej i etycznej. Jednym z kluczowych wyzwań, z jakimi zmaga się globalna społeczność, jest stworzenie efektywnych narzędzi do rozstrzygania sporów wynikających z decyzji podejmowanych przez AI. Zastosowanie GenAI w takich dziedzinach, jak prawa autorskie, własność intelektualna czy procesy sądowe, stawia przed systemami prawnymi nowe wyzwania. AI, szczególnie w kontekście decyzji sądowych, ma odgrywać coraz większą rolę, dlatego istotne jest rozwijanie odpowiednich mechanizmów odwoławczych, które będą pozwalały na naprawienie szkód wyrządzonych przez treści generowane przez AI.

W tym kontekście zaleca się, aby twórcy i wdrażający systemy GenAI wprowadzili odpowiednie mechanizmy rozstrzygania sporów, które pozwolą użytkownikom oraz społeczeństwu na skuteczne dochodzenie swoich praw. Warto również rozważyć przesunięcie ciężaru dowodu w sprawach dotyczących szkód, wskazując, że osoby poszkodowane przez działania AI mogą łatwiej udowodnić istnienie szkody oraz związku przyczynowego między działaniem AI a powstałymi szkodami. Niezwykle ważne jest, aby mechanizmy te były dostępne, szybkie i niskokosztowe, co ułatwiłoby dostęp do sprawiedliwości osobom poszkodowanym przez technologie AI.

Jednocześnie, odpowiedzialność za ewentualne szkody nie powinna spoczywać wyłącznie na deweloperach systemów AI. Chociaż Kodeks Postępowania w Sprawie AI (HCoC) obecnie jest skierowany głównie do twórców zaawansowanych systemów AI, należałoby rozszerzyć jego zakres na inne podmioty działające w ekosystemie GenAI, takie jak użytkownicy czy deployerzy tych technologii. Ważne jest, aby dokładnie zrozumieć, w jaki sposób odpowiedzialność i zobowiązania powinny być rozdzielane pomiędzy wszystkie strony zaangażowane w tworzenie i wdrażanie technologii AI, aby każda z nich ponosiła odpowiedzialność za swoje role w ewentualnych szkodach, które mogą wyniknąć z użycia tych systemów.

Należy również podkreślić, że rozwój systemów AI na poziomie globalnym powinien odbywać się w sposób skoordynowany, zapewniający spójność terminologii oraz jednolitość rozwiązań prawnych i technicznych. Jednym z podstawowych wyzwań jest stworzenie wspólnego słownika, który ujednolici definicje kluczowych terminów związanych z AI. Takie podejście pomoże w zapewnieniu spójnej interpretacji przepisów dotyczących AI we wszystkich krajach, co jest istotne, biorąc pod uwagę transnarodowy charakter nowoczesnych technologii.

Wprowadzenie do Kodeksu Postępowania (HCoC) solidnych ram zarządzania ryzykiem, z uwzględnieniem całego cyklu życia systemów AI – od ich projektowania po aktualizacje po wprowadzeniu na rynek – pozwoli na skuteczniejsze przeciwdziałanie potencjalnym zagrożeniom związanym z używaniem AI. Opracowanie ram zarządzania ryzykiem, które uwzględniałyby klasyfikację zagrożeń oraz sposoby ich minimalizacji, jest niezbędne, aby systemy AI były wykorzystywane w sposób odpowiedzialny i bezpieczny.

Równocześnie, promowanie bardziej zharmonizowanego podejścia do zaangażowania interesariuszy i wprowadzenie spójnych standardów przejrzystości to obszary, które powinny zostać uwzględnione w dalszym rozwoju HCoC. Dodatkowo, rozwój systemów AI nie może odbywać się kosztem fundamentalnych wartości demokratycznych i praw człowieka. Kodeks Postępowania powinien uwzględniać bardziej konkretne i praktyczne kroki mające na celu ochronę tych wartości w kontekście rozwoju i wdrażania technologii AI.

Chociaż obecny zakres HCoC jest ograniczony, istnieje ogromny potencjał, aby stał się on istotnym narzędziem w międzynarodowym zarządzaniu rozwojem technologii AI. Rozwinięcie tego dokumentu w kluczowych obszarach pozwoli na stworzenie skutecznych ram prawnych i organizacyjnych, które umożliwią odpowiedzialny rozwój AI na poziomie globalnym. Należy również podjąć debatę na temat specjalnych regulacji dotyczących użycia AI przez rządy oraz opracowania jednolitych praktyk nadzorczych, w tym mechanizmów certyfikacji, metod nadzoru czy audytów.

Ścisła współpraca międzynarodowa w tej dziedzinie jest kluczowa, aby zapewnić, że potęga GenAI będzie wykorzystywana dla dobra wszystkich, minimalizując ryzyko nadużyć i gwarantując przestrzeganie podstawowych wartości ludzkich.