Generatywna sztuczna inteligencja (Gen AI) stała się niezwykle efektywnym narzędziem do generowania szkód, z których trzy najważniejsze formy to: (i) dezinformacja, (ii) oszustwa, (iii) manipulacja. W kontekście zniekształcenia informacji (od dezinformacji po malinformację) dezinformacja, rozumiana szeroko, jest szczególnie napędzana złośliwością osoby, która ma na celu rozpowszechnienie fałszywych informacji i wykorzystanie ich w celach korzyści. Rola Gen AI w tym scenariuszu jest szczególnie istotna, ponieważ coraz trudniej jest rozróżnić dane historyczne od danych syntetycznych, a tym samym prawdę od fałszu. Szkody, które może wyrządzić niewłaściwe użycie Gen AI, mają charakter zarówno prywatny, jak i publiczny. Przykładem tego pierwszego może być sprawa uczniów w New Jersey, którzy dzielili się wygenerowanymi przez AI fałszywymi pornograficznymi obrazami swoich kolegów z klasy. Jeśli chodzi o sferę publiczną, warto zwrócić uwagę na fałszywe nagranie, które obiegło internet, na którym kandydat w wyborach na Słowacji rzekomo przyznaje się do manipulacji wynikami wyborów.

Chociaż próby zniekształcania rzeczywistości zawsze istniały, to, co dziś stanowi różnicę, to jakościowy aspekt tej zniekształconej reprezentacji wytworzonej przez AI. Oprócz jakościowego wzrostu istnieje również ilościowy wzrost szkód wynikających z nadużyć Gen AI. Niedawno Federalna Komisja Handlu (FTC) opublikowała szczególnie niepokojące dane: „Konsumenci zgłosili utratę ponad 10 miliardów dolarów w wyniku oszustw w 2023 roku, co stanowi pierwszy raz, kiedy straty związane z oszustwami osiągnęły ten próg. Jest to wzrost o 14% w porównaniu do roku 2022”.

W tym kontekście szczególne znaczenie ma rola AI, która umożliwia osobom o złych intencjach rozwój i intensyfikację działalności przestępczej. Na przykład Norweska Agencja Ochrony Konsumentów, w raporcie dotyczącym wpływu Gen AI, stwierdziła, że „modele generatywnej sztucznej inteligencji mogą być nadużywane przez złowrogie osoby do zwiększenia lub przyspieszenia działalności kryminalnej”. W odpowiedzi na te wyzwania, FTC ogłosiła konkurs „Voice Cloning Challenge”, mający na celu opracowanie pomysłów na ochronę konsumentów przed nadużyciem sztucznej inteligencji wykorzystywanej do klonowania głosu w celach oszustwa i innych szkodliwych działań.

Niewłaściwe użycie Gen AI może również prowadzić do „zautomatyzowanej, skutecznej manipulacji na dużą skalę”. Oprócz szkód spowodowanych dezinformacją, należy także wziąć pod uwagę szkody wynikające z manipulacji. Choć oba te zjawiska często są traktowane razem i przedstawiane jako nakładające się, mają one różne znaczenia i konsekwencje. W przypadku dezinformacji przedstawia się fałszywy, ale wiarygodny scenariusz, który może wywołać różne reakcje. Natomiast w przypadku manipulacji celem jest wprowadzenie fałszywej reprezentacji sytuacji w taki sposób, aby skłonić ludzi do działania w sposób, który nie jest zgodny z ich pierwotnymi intencjami, celem osiągnięcia określonego rezultatu i w efekcie zmiany ich samodzielności. Główną intencją dezinformacji jest rozpowszechnienie fałszywych informacji, natomiast celem manipulacji jest wywieranie kontroli nad jednostką w sposób, który prowadzi do pożądanego rezultatu.

W tym kontekście Gen AI może być zwinne wykorzystywane do manipulowania konsumentami lub, w szerszym społeczeństwie, do zaostrzenia teorii spiskowych przez dostarczanie pozornie wiarygodnych dowodów, które wspierają jakąkolwiek tezę. Warto zauważyć, że obie formy manipulacji mogą być szczególnie groźne, gdyż mogą wpływać na zachowania społeczne w sposób niezauważony przez jednostki, zmieniając tym samym cały krajobraz opinii publicznej.

Jeśli chodzi o szkody wynikające z nadużycia Gen AI, ważne jest, aby rozważyć ich skutki. Wśród nich wyróżnia się trzy szczególnie istotne konsekwencje: (a) ogólny brak zaufania; (b) zagrożenia dla demokracji i praw człowieka; (c) niebezpieczeństwa dla bezpieczeństwa. Zniekształcone użycie Gen AI zostało określone jako prowadzące do „rozpadu zaufania”. Nic dziwnego, że Akt AI mówi o „potrzebie budowania zaufania”, a amerykańskie rozporządzenie wykonawcze w sprawie sztucznej inteligencji, odnosząc się do sektora edukacji, zaleca opracowanie „zestawu narzędzi AI” dla liderów edukacyjnych, aby wspierać rozwój systemów AI, które zwiększają zaufanie.

Zarówno dezinformacja, jak i manipulacja wywołują istotne konsekwencje społeczne. Wszelkie szkody wynikające z niewłaściwego użycia sztucznej inteligencji mogą prowadzić do destabilizacji fundamentów zaufania publicznego oraz zwiększenia polaryzacji społecznej, co stanowi poważne zagrożenie dla zdrowia demokratycznego społeczeństwa. Ponadto, w miarę jak technologie sztucznej inteligencji stają się coraz bardziej zaawansowane, pojawiają się nowe wyzwania w zakresie ochrony prywatności i zapewnienia transparentności działań, które mają wpływ na życie jednostek i funkcjonowanie instytucji. Przyszłość opiera się na umiejętnym zarządzaniu tymi ryzykami i stworzeniu norm, które zminimalizują potencjalne zagrożenia, jakie mogą wyniknąć z nieodpowiedzialnego stosowania Gen AI.

Jakie wyzwania stoją przed prawem w obliczu ryzyk związanych z dużymi modelami językowymi?

Pojawienie się dużych modeli językowych (LLM) wprowadza szereg wyzwań natury prawnej, które nie ograniczają się tylko do kwestii technicznych związanych z ich działaniem. Pojawiają się pytania o odpowiedzialność za treści generowane przez takie systemy oraz ich wpływ na społeczeństwo. Jednym z problemów jest ryzyko generowania nieodpowiednich treści, takich jak seksistowskie, rasistowskie lub wprowadzające w błąd wypowiedzi, które mogą podważyć zaufanie społeczne. Ważnym pytaniem pozostaje także to, jak takie systemy mogą być używane w sposób odpowiedzialny i bezpieczny.

Wielu badaczy proponuje różne rozwiązania w celu rozwiązania tych problemów. Część z nich sugeruje podejście techniczne, takie jak przetwarzanie danych przed ich użyciem do szkolenia modeli, precyzyjne dopasowywanie modeli do określonych zasad etycznych lub wdrażanie procedur testujących systemy przed ich wdrożeniem. Inni proponują gwarantowanie przejrzystości modeli poprzez wprowadzenie znaków wodnych w generowanych przez nie treściach, stosowanie tzw. "datasheets" lub "model cards", które mogą zawierać szczegółowe informacje na temat właściwości modelu i jego sposobu działania. Tego typu rozwiązania mają na celu umożliwienie lepszego zrozumienia, w jaki sposób działa dany model i jakiego rodzaju decyzje podejmuje na podstawie wprowadzonych danych.

Podejście do kwestii regulacji dużych modeli językowych w Stanach Zjednoczonych może służyć jako przykład takiego typu działań. W ramach wykonawczego rozporządzenia z 2023 roku, rząd USA zaleca opracowanie wytycznych i najlepszych praktyk w zakresie bezpieczeństwa AI, ze szczególnym uwzględnieniem generatywnej sztucznej inteligencji. W ramach tych działań podejmuje się próby wdrożenia standardów, które powinny obejmować m.in. ocenę ryzyk związanych z biotechnologiami, zabezpieczenie przed nielegalnymi treściami, takimi jak materiały związane z nadużyciami seksualnymi dzieci, oraz zapobieganie generowaniu niezgodnych z prawem obrazów. Zawiera się tu również rekomendacje dotyczące testów i metod ochrony przed dyskryminacją czy dezinformacją.

W kontekście Unii Europejskiej pojawia się inny model, który różni się od podejścia amerykańskiego. Zamiast podejścia sektorowego, które skupia się na konkretnych dziedzinach (takich jak biotechnologia czy zdrowie), unijne regulacje mają charakter horyzontalny, obejmującym cały cykl życia systemów sztucznej inteligencji – od gromadzenia danych wejściowych po finalne wykorzystanie technologii. Warto podkreślić, że Unia stawia na podejście oparte na ocenie ryzyka, gdzie technologia jest klasyfikowana w zależności od stopnia ryzyka, jakie może powodować. Mówi się tu o trzech głównych podejściac: "Switch", "Ladder" i "Matrix".

Pierwsze podejście, Switch, jest metodą binarną, w której prawodawca decyduje, które systemy AI lub ich zmienne są regulowane, a które nie. Drugie podejście, Ladder, jest podejściem opartym na poziomie ryzyka, gdzie systemy AI klasyfikowane są według ryzyka, jakie niosą dla społeczeństwa. Ostatnia, bardziej złożona metoda, Matrix, polega na uwzględnieniu wielu aspektów technologii, takich jak rodzaj danych wejściowych, typ modelu decyzyjnego czy społeczny kontekst jej użycia. To podejście jest uznawane za bardziej złożone, ale również bardziej elastyczne i precyzyjne.

Przedstawione w tym rozdziale rozwiązania, zarówno te oparte na technologiach, jak i na nowych podejściach regulacyjnych, stanowią tylko część dyskusji na temat przyszłości sztucznej inteligencji. Technologie generatywne stają się coraz bardziej powszechne, a ich potencjał wciąż rośnie. Należy jednak pamiętać, że zmieniające się podejście do ich regulacji będzie miało kluczowe znaczenie dla zapewnienia, że AI będzie rozwijać się w sposób odpowiedzialny i zgodny z wartościami społecznymi.

Ważnym jest również, by nie tylko rządy, ale i same firmy odpowiedzialne za rozwój technologii, takie jak OpenAI, zaczęły traktować etykę i bezpieczeństwo na równi z innymi aspektami biznesowymi. Choć techniczne rozwiązania, takie jak filtrowanie danych wejściowych czy testowanie modeli, mogą pomóc w zarządzaniu ryzykiem, to jednak ich skuteczność w dużej mierze zależy od społecznej odpowiedzialności samych twórców technologii. Takie podejście powinno być wspierane przez transparentność i możliwość społecznej kontroli, która jest kluczowa w erze, w której AI coraz bardziej wpływa na życie codzienne obywateli.