Rozwój generatywnej sztucznej inteligencji (GenAI) ma ogromny wpływ na sposób, w jaki konsumenci zdobywają informacje oraz podejmują decyzje o zakupach czy korzystaniu z usług. Wzrost stosowania takich systemów w różnych branżach wiąże się jednak z ryzykiem wprowadzenia użytkowników w błąd, zwłaszcza gdy generowane przez AI treści są pozornie wiarygodne, ale w rzeczywistości mogą być fałszywe lub wprowadzające w błąd.
W kontekście generatywnej sztucznej inteligencji, jednym z kluczowych zjawisk jest tzw. "halucynacja" – produkowanie przez modele AI faktów, które są sprzeczne z rzeczywistością, bądź w ogóle nie istnieją. W literaturze wyróżnia się dwa główne rodzaje halucynacji: zamknięte i otwarte. Halucynacje w ramach zamkniętego obszaru mają miejsce, gdy system AI działa w określonym kontekście, na przykład w zadaniach takich jak streszczanie artykułów, gdzie dostępny jest odniesienie do konkretnego tekstu. Z kolei halucynacje otwarte występują, gdy AI jest wykorzystywane w bardziej rozległych zastosowaniach, jak czatboty, które nie mają określonych tematów ani odniesienia do jednoznacznych danych weryfikacyjnych. Weryfikacja prawdziwości halucynacji w otwartym obszarze jest szczególnie trudna, ponieważ brak jest precyzyjnych punktów odniesienia.
Poważnym problemem, który wiąże się z halucynacjami, jest ich źródło – skomplikowany proces treningu modelu. Modele językowe, takie jak GPT, są uczone na ogromnych zbiorach danych, często pozyskanych z internetu, co sprawia, że mogą one nieumyślnie nauczyć się błędnych korelacji między różnymi danymi, w wyniku czego tworzą fałszywe powiązania. Również interakcje z użytkownikami mogą sprzyjać występowaniu halucynacji, gdyż modele oparte na AI mogą niepoprawnie wykorzystywać historię rozmów do tworzenia swoich odpowiedzi. Tego rodzaju zależności między danymi treningowymi a danymi dostarczanymi przez użytkownika mogą prowadzić do produkcji nieprecyzyjnych lub wprowadzających w błąd odpowiedzi.
Skala i wpływ halucynacji w systemach GenAI jest szeroka. W kontekście ochrony konsumentów, nieprawdziwe lub mylące informacje generowane przez AI mogą podważyć zaufanie do takich systemów i prowadzić do niezadowolenia użytkowników. Dodatkowo, w obliczu narastającej dezinformacji, istnieje realne zagrożenie, że AI przyczyni się do rozprzestrzeniania fałszywych wiadomości, które mogą mieć poważne konsekwencje społeczne. W szczególności, w takich dziedzinach jak medycyna czy finanse, błędne informacje mogą prowadzić do poważnych decyzji, które zagrażają zdrowiu lub stabilności finansowej. Nawet najbardziej zaawansowane modele GenAI, takie jak GPT-4, nie są odporne na tego rodzaju błędy, co wskazuje na konieczność ciągłej ewaluacji i udoskonalania tych technologii.
Zjawisko halucynacji stwarza również poważne ryzyko w kontekście prawa, zwłaszcza w odniesieniu do nieuczciwych praktyk handlowych. Zgodnie z Dyrektywą o nieuczciwych praktykach handlowych, praktyki komercyjne, które są mylące lub agresywne, są zabronione. W przypadku, gdy obrazy generowane przez AI wprowadzają konsumentów w błąd, na przykład poprzez stworzenie fałszywego wrażenia o produkcie, mogą zostać uznane za niezgodne z prawem. Z tego powodu twórcy treści generowanych przez AI powinni ujawniać ich charakter oraz unikać wykorzystywania takich materiałów w sposób manipulujący opinią konsumentów. Na przykład polityka OpenAI wymaga, by systemy AI, takie jak chatbooty, ujawniały użytkownikom, że mają do czynienia z systemem sztucznej inteligencji, a nie z człowiekiem. Takie ujawnienie jest obowiązkowe w aplikacjach skierowanych do konsumentów w sektorach takich jak medycyna, finanse czy dziennikarstwo. Microsoft, z kolei, realizuje "Cele przejrzystości", nakładając na swoje systemy AI obowiązek informowania użytkowników, gdy wchodzą w interakcję z maszyną generującą treści, które mogą być błędnie uznane za autentyczne.
W kontekście rekomendacyjnych systemów AI, które coraz częściej służą konsumentom w pozyskiwaniu informacji o produktach czy usługach, technologia ta nie tylko przewiduje obecne preferencje użytkowników, ale także aktywnie kształtuje ich przyszłe wybory. Zamiast jedynie sugerować, co użytkownik mógłby polubić na podstawie wcześniejszych zachowań, systemy GenAI mogą wpływać na poszerzanie gustów użytkownika, proponując nowe gatunki czy tematy, które mogą kierować konsumentów w określoną stronę. Tego rodzaju interwencja ma potencjał do zmiany wzorców konsumpcji, co stawia pod znakiem zapytania etyczne aspekty wpływania na decyzje konsumentów.
Zatem rozwój generatywnej sztucznej inteligencji to nie tylko szansa, ale i wyzwanie. Aby korzystać z jej potencjału, niezbędne staje się wyważenie korzyści wynikających z automatyzacji i personalizacji treści z koniecznością zapewnienia przejrzystości i ochrony konsumentów przed dezinformacją.
Jak inwestorzy instytucjonalni kształtują odpowiedzialne zarządzanie AI w korporacjach?
Inwestorzy instytucjonalni, tacy jak Fundusz Norweski, zaczynają odgrywać kluczową rolę w transformacji zarządzania sztuczną inteligencją (AI) w korporacjach. Zwiększające się oczekiwania wobec odpowiedzialnego wdrażania AI w zarządach największych firm na świecie wymagają, aby te organizacje nie tylko stosowały nowoczesne technologie, ale również dostosowywały swoje praktyki do rosnących wymagań etycznych i regulacyjnych. Takie podejście ma na celu nie tylko poprawę efektywności organizacji, ale także zapewnienie ich zgodności z międzynarodowymi standardami odpowiedzialności społecznej i środowiskowej, w tym z przepisami UE dotyczącymi AI.
Fundusz Norweski, jako jeden z czołowych inwestorów instytucjonalnych, od lat stawia na odpowiedzialne wykorzystanie AI, angażując się aktywnie w rozwój międzynarodowych standardów i regulacji. Podkreśla on, że AI nie jest jedynie narzędziem zwiększającym zyski, lecz także jednym z głównych czynników wpływających na długoterminową wartość społeczną, gospodarczą i ekologiczną firm. W kontekście tych zobowiązań, fundusz angażuje się w promowanie odpowiedzialnego rozwoju sztucznej inteligencji wśród swoich inwestycji, zmuszając w ten sposób korporacje do zmiany podejścia do etyki i odpowiedzialności.
Zarządy i kierownictwa dużych międzynarodowych firm stoją przed wyzwaniem nie tylko wdrażania generatywnej AI, ale także włączenia jej w ramy zgodności z obowiązującymi przepisami prawa, takimi jak ustawy o prawach człowieka czy o zrównoważonym rozwoju. Wzrost liczby regulacji, takich jak Dyrektywa UE w sprawie należytej staranności łańcucha dostaw, wymaga od firm nie tylko technologicznej innowacji, ale i wdrożenia zaawansowanych systemów monitorujących ich zgodność z nowymi przepisami, w tym z obowiązkami związanymi z prawami człowieka czy przeciwdziałaniem niewolnictwu.
Z kolei, odpowiedzialne zarządzanie AI stało się również kluczowym tematem wśród największych inwestorów instytucjonalnych, którzy w coraz większym stopniu stosują technologie generatywne do oceny i monitorowania firm, w które inwestują. AI stała się więc integralnym narzędziem nie tylko w procesach due diligence, ale także w codziennym monitorowaniu działań korporacji, zwłaszcza w obszarze ESG (środowiskowym, społecznym i zarządzania). Przykład Funduszu Norweskiego pokazuje, jak istotne jest włączenie kwestii odpowiedzialnego wykorzystania AI do ogólnych zasad etycznych i zrównoważonego rozwoju firm.
W kontekście tych zmian, zarządy firm muszą zrewidować swoje podejście do zarządzania zgodnością, tworząc tzw. programy zgodności i etyki 360°, które będą odporne na wyzwania związane z AI. Będą one musiały uwzględniać nie tylko wewnętrzne przepisy, ale także oczekiwania inwestorów, regulacji i opinii publicznej. Jako przykład, w ostatnich latach zauważalny jest wzrost wykorzystywania generatywnej AI w analizie zgodności z przepisami prawa, zwłaszcza w zakresie odpowiedzialności korporacyjnej za prawa człowieka oraz przestrzegania zasad dotyczących nowoczesnego niewolnictwa.
Dodatkowo, inwestorzy stawiający na odpowiedzialne podejście do AI, jak Fundusz Norweski, zintensyfikowali swoje zaangażowanie w rozwój odpowiednich ram prawnych, które wpływają na zachowanie firm, w które inwestują. Współpraca pomiędzy zarządami dużych korporacji, ich inwestorami oraz organami regulacyjnymi stanie się kluczowa w przyszłości, gdyż stanowić będzie fundament dla nowoczesnego, odpowiedzialnego zarządzania AI w kontekście globalnych regulacji.
Co więcej, odpowiedzialne zarządzanie sztuczną inteligencją wymaga od firm nie tylko przestrzegania przepisów prawa, ale także wykorzystywania AI w sposób przejrzysty i odpowiedzialny. Transparentność, zarówno w zakresie wykorzystania AI, jak i wynikających z niej decyzji, staje się fundamentem zrównoważonego rozwoju korporacji. Firmy, które nie dostosują swoich praktyk do rosnących wymagań odpowiedzialności społecznej i środowiskowej, mogą napotkać problemy w utrzymaniu zaufania inwestorów, a także klientów, którzy coraz częściej wymagają od przedsiębiorstw przestrzegania zasad etycznych i ekologicznych.
Nie mniej istotnym elementem tej transformacji jest rola międzynarodowych organizacji, takich jak OECD, ONZ, czy ILO, które promują odpowiedzialne wykorzystanie AI. Firmy, które chcą zachować konkurencyjność na globalnym rynku, będą musiały nie tylko dostosować się do przepisów krajowych, ale także do międzynarodowych standardów etycznych i środowiskowych, które obejmują odpowiedzialność za AI.
Na koniec, obecne zmiany w zarządzaniu korporacyjnym, związane z implementacją AI, nie są jednorazowym procesem. Wymagają one zaangażowania wszystkich interesariuszy – od zarządów i inwestorów, po organy regulacyjne i organizacje międzynarodowe. W przyszłości, dobrze wdrożone i odpowiedzialne podejście do AI będzie jednym z kluczowych elementów skutecznego zarządzania korporacjami i zapewnienia ich długoterminowej zrównoważonej wartości.
Jak wykorzystanie generatywnej sztucznej inteligencji w wymiarze sprawiedliwości może prowadzić do dehumanizacji?
W procesie podejmowania decyzji sądowych, użycie generatywnej sztucznej inteligencji (AI) może prowadzić do abstrakcji i obiektywizacji ludzi, traktowanych nie jako jednostki, lecz jako kategorie algorytmiczne. Taki sposób postrzegania jednostki w systemie sprawiedliwości może stanowić zagrożenie dla jej dehumanizacji. Algorytmy wykorzystywane w sztucznej inteligencji nie posiadają rzeczywistego zrozumienia tego, co generują. Co więcej, chociaż generatywna sztuczna inteligencja nie rozumie znaczenia słów w tradycyjnym sensie, ludzie często przypisują jej intencje i sens, co może prowadzić do złudzenia, że maszyna faktycznie "rozumie" generowane przez siebie odpowiedzi.
Kluczowym problemem w tym kontekście jest zjawisko tzw. antropomorfizacji, w którym użytkownicy przypisują maszynie cechy ludzkie, takie jak zrozumienie czy intencjonalność, choć te cechy w rzeczywistości są nieobecne. W kontekście decyzji sądowych, tego rodzaju zjawisko może prowadzić do poczucia, że jednostka jest wysłuchana, podczas gdy w rzeczywistości jest to jedynie iluzja wygenerowana przez algorytm. Takie wrażenie może być bardziej dehumanizujące niż całkowity brak interakcji z człowiekiem.
W tym przypadku warto odwołać się do badań psychologicznych nad sprawiedliwością proceduralną, które pokazują, że satysfakcja z procesu sądowego nie zależy jedynie od wyniku sprawy, ale także od poczucia sprawiedliwości samego procesu. Z tego wynika, że wrażenie sprawiedliwości jest subiektywne i nie zawsze zależy od wyników, lecz od tego, jak proces jest postrzegany przez osoby biorące w nim udział. Proces sądowy, w którym nie ma prawdziwego głosu jednostki, może wywołać poczucie wykluczenia i niesprawiedliwości, nawet jeśli wynik sprawy wydaje się obiektywny.
Kiedy generatywna sztuczna inteligencja wchodzi w interakcję z ludźmi w kontekście procesów sądowych, może nie tylko ograniczać autentyczną wymianę opinii, ale również wykorzystywać dane, które mogą wprowadzać niezamierzone błędy kulturowe. Badania pokazują, że generatywna AI, szczególnie w kontekście decyzji sądowych dotyczących osób z kultur niena zachodnich, może wprowadzać interpretacje na podstawie zachodnich, dominujących punktów widzenia. Takie podejście może prowadzić do błędów w zrozumieniu lub reprezentacji kultur, co tylko potęguje dehumanizację jednostki w systemie sprawiedliwości.
Zasadniczym problemem jest również brak neutralności w algorytmach sztucznej inteligencji. Modele AI są trenowane na ogromnych zbiorach danych, które zawierają istniejące w społeczeństwie uprzedzenia. Choć sądcy ludzie mogą być szkoleni w celu rozpoznawania i minimalizowania swoich uprzedzeń, AI nie posiada zdolności do autorefleksji i dostosowywania się do nowych, subtelnych uwag etycznych. Istnieje ryzyko, że takie systemy będą wzmacniały istniejące nierówności, nawet jeśli ich celem jest eliminowanie uprzedzeń.
Badania nad sprawiedliwością proceduralną wskazują na cztery istotne czynniki, które wpływają na postrzeganą sprawiedliwość: (i) możliwość wyrażenia swojego zdania (głos), (ii) obiektywizm podejmowanych decyzji (neutralność), (iii) szacunek wobec jednostki, oraz (iv) poczucie, że decyzje są podejmowane przez wiarygodną instytucję. Te elementy, zwłaszcza w kontekście generatywnej AI, stają się trudne do osiągnięcia. Decyzje podejmowane przez AI mogą być postrzegane jako pozbawione "głosu", gdyż nie angażują w prawdziwy sposób jednostki w proces podejmowania decyzji, a raczej oferują iluzję komunikacji.
Generatywna sztuczna inteligencja w wymiarze sprawiedliwości może prowadzić do dehumanizacji, nie tylko poprzez uproszczenie jednostki do zestawu algorytmicznych danych, ale także przez wprowadzenie nierówności w procesie decyzyjnym i ignorowanie istotnych czynników, które składają się na poczucie sprawiedliwości. Aby uniknąć takich zagrożeń, konieczne jest rozważenie nie tylko technicznych aspektów AI, ale także psychologicznych i kulturowych skutków jej zastosowania.
Jak działają sieci neuronowe i modele językowe w sztucznej inteligencji?
Sztuczna inteligencja (AI) jest napędzana przez złożoną strukturę podejmowania decyzji, które przypominają te, jakie spotykamy podczas gry planszowej lub sterowania robotem. Jednym z najbardziej powszechnych narzędzi wykorzystywanych w dzisiejszych modelach uczenia maszynowego jest sztuczna sieć neuronowa. Struktura ta jest luźno inspirowana funkcjonowaniem neuronów w ludzkim mózgu, stąd nazwa „sieć neuronowa”. Takie sieci stoją za wieloma niesamowitymi możliwościami współczesnych systemów AI, stanowiąc rdzeń generatywnej sztucznej inteligencji, jak modele transformatorowe.
Sieć neuronowa składa się z wielu elementów, zwanych „neuronami sztucznymi”, które są połączone w określony sposób. Każdy neuron generuje wartość numeryczną, zwaną poziomem aktywacji, która jest obliczana na podstawie funkcji nieliniowej poziomów aktywacji neuronów do niego podłączonych. Nieliniowość oznacza, że zmiana wejścia nie prowadzi do proporcjonalnej zmiany wyjścia. Poziomy aktywacji, które przemieszczają się po połączeniach, są modyfikowane przez parametry numeryczne zwane „wagami”, które są dostosowywane przez algorytmy uczenia maszynowego, zazwyczaj nadzorowanego, które trenują model na danych.
Neuron w sztucznej sieci neuronowej zazwyczaj znajduje się w jednym z kilku warstw, a połączenia przechodzą od jednej warstwy do kolejnej. Wejście do modelu jest przedstawiane na pierwszej warstwie, a wynik jest pobierany z ostatniej warstwy. To pozwala realizować funkcję, która przekształca dane wejściowe w dane wyjściowe. Takie struktury mogą liczyć setki warstw oraz tysiące, a nawet miliony neuronów, których połączenia są zarządzane przez parametry wag, które ustala proces treningu.
Sieci neuronowe, które posiadają wiele warstw, są nazywane „głębokimi sieciami neuronowymi”, a techniki ich trenowania określane są mianem „uczenia głębokiego”. Istnieje wiele sposobów strukturalizacji takich sieci, ale kluczową cechą jest ich złożoność i zdolność do przechowywania ogromnych ilości informacji w formie parametrów.
W kontekście sztucznej inteligencji, szczególnie w modelach takich jak GPT-4, który jest dużym modelem językowym, wykorzystywana jest specyficzna architektura transformatorowa, opracowana przez Google Brain w 2017 roku. Modele te są znacznie lepsze pod względem obliczeń równoległych na współczesnych komputerach, co pozwala na trenowanie ich na ogromnych zbiorach danych. W odróżnieniu od wcześniejszych modeli, które wykorzystywały sieci neuronowe oparte na architekturze rekurencyjnej, transformery są bardziej efektywne w uczeniu na danych tekstowych.
Modele językowe takie jak GPT-4 uczą się w sposób tzw. „samosuperwizyjny”. Oznacza to, że dane wykorzystywane do ich treningu nie muszą być ręcznie otagowane ani skategoryzowane, co umożliwia im trenowanie na ogromnych zbiorach tekstów dostępnych w internecie i repozytoriach cyfrowych. Po początkowym treningu zwykle stosuje się dalsze dostrajanie modelu, aby poprawić jego wyniki w konkretnej dziedzinie, na przykład w odpowiedzi na instrukcje. Ponadto, techniki uczenia przez wzmocnienie, z wykorzystaniem stosunkowo niewielkich ilości ludzkiego feedbacku, są stosowane, aby lepiej dopasować odpowiedzi modelu do ludzkich intencji i wartości.
Generatywne modele językowe, jak GPT, generują tekst, przewidując następne słowo w sekwencji tekstu, który zostaje podany jako dane wejściowe. Model nie korzysta z bazy danych gotowych zdań; zamiast tego, generuje tekst w sposób probabilistyczny, dobierając kolejne słowa na podstawie statystycznych modeli wyuczonych podczas treningu. Mechanizm ten jest oparty na tzw. „mechanizmie uwagi”, który pozwala modelowi na skupienie się na najbardziej istotnych częściach tekstu, aby przewidzieć następne słowo. To złożona technika, ale w skrócie oznacza to, że model nie patrzy tylko na ostatnie słowo czy fragment tekstu, lecz analizuje szerszy kontekst.
Mechanizm uwagi umożliwia modelom transformatorowym uchwycenie tzw. „długozasięgowych zależności” w tekście. Oznacza to, że znaczenie jednego słowa może być związane z wcześniej pojawiającymi się słowami, które znajdują się w odległych częściach tekstu. Umożliwia to bardziej precyzyjne generowanie tekstu, które jest logiczne i spójne na dłuższych dystansach.
Jednakże, ważnym wyzwaniem związanym z głębokimi sieciami neuronowymi jest ich „nieprzejrzystość” (ang. interpretability). Modele oparte na głębokich sieciach neuronowych są tak skomplikowane, że bardzo trudno jest zrozumieć, jak dokładnie podejmują one decyzje i dlaczego generują konkretne wyniki. „Czarna skrzynka” tych systemów jest przedmiotem intensywnych badań, ale na razie głębokie sieci neuronowe są często uważane za technologię, której działanie jest trudne do wytłumaczenia w kategoriach ludzkich.
Rozumienie, jak działają te technologie i jakie mają ograniczenia, jest niezwykle istotne, szczególnie w kontekście ich zastosowań w tworzeniu modeli językowych. GPT-4 i podobne modele są tylko przykładem tego, jak potężne mogą być sieci neuronowe w generowaniu tekstu, ale ich potencjalne błędy, uprzedzenia i problemy z rozumieniem kontekstu wciąż stanowią wyzwanie, które trzeba brać pod uwagę przy ich stosowaniu w różnych dziedzinach.
Jak normy i regulacje kształtują rozwój sztucznej inteligencji w Europie?
Przemiany technologiczne, zwłaszcza w obszarze sztucznej inteligencji (AI), wprowadzają nowe wyzwania w zakresie standardów i regulacji. W Europie, gdzie regulacje i standaryzacja często idą ramię w ramię, istotnym elementem w kształtowaniu przyszłości AI jest wpływ norm, zwłaszcza w kontekście aktów prawnych takich jak AI Act. Celem tego procesu jest zapewnienie spójności, zgodności z regulacjami oraz bezpieczeństwa technologii wprowadzanych na rynek unijny.
W ramach procesu standaryzacji na poziomie europejskim, Komisja Europejska, wspólnie z europejskimi organizacjami standaryzacyjnymi, zainicjowała prace nad harmonizowanymi normami, które mają wspierać wprowadzenie regulacji AI. Zgodnie z nowym ramowym podejściem legislacyjnym UE, regulacje jedynie wyznaczają ogólne cele i wymagania, podczas gdy standaryzacja zapewnia konkretne rozwiązania techniczne. Normy te mają na celu ułatwienie osiągania celów regulacji, a ich przyjęcie przez organizacje jest uznawane za „domniemanie zgodności” z przepisami prawa. Choć nie są one obowiązkowe, ich zastosowanie znacznie redukuje ryzyko prawne, tworząc preferowaną drogę do zapewnienia zgodności z regulacjami.
Harmonizowane normy, publikowane w Dzienniku Urzędowym Unii Europejskiej, oferują przedsiębiorstwom jasne wskazówki, jak dostosować swoje rozwiązania do unijnych wymogów. Jednak te normy, mimo że przyczyniają się do uproszczenia procesów regulacyjnych, nie są obligatoryjne. Organizacje, które zdecydują się je ignorować, muszą jednak wykazać się alternatywnymi dowodami zgodności z regulacjami.
Choć mechanizm standaryzacji na poziomie europejskim ma swoje podstawy w demokracji, proces ten nie jest bezpośrednio demokratyczny. Normy tworzone są na zasadzie konsensusu, co oznacza, że projekt normy jest rozwijany do momentu, gdy większość zainteresowanych stron zgodzi się na jego brzmienie. Równocześnie, w procesie tym muszą uczestniczyć wszystkie grupy interesariuszy, co jest obowiązkiem przewodniczącego i sekretarza komitetu. Warto jednak zauważyć, że proces ten bywa nierówny, gdyż nie wszystkie grupy zainteresowane mogą uczestniczyć na równych warunkach, zwłaszcza w przypadku mniejszych organizacji czy ekspertów niezwiązanych z dużymi przedsiębiorstwami.
W kontekście AI, rozwój standardów odbywa się na różnych poziomach, zarówno europejskim, jak i międzynarodowym. Europejski Komitet Standaryzacji i Komitet Standaryzacji Elektrotechniki (CEN-CENELEC JTC21) intensywnie pracują nad rozwinięciem norm dla sztucznej inteligencji. Prace te są prowadzone w 5 grupach roboczych, obejmujących ponad 40 oddzielnych tematów. Zaangażowanie ponad 140 ekspertów w tym projekcie pokazuje, jak złożony i rozbudowany jest ten proces. Warto zauważyć, że w międzynarodowych standardach, zwłaszcza tych rozwijanych w ramach ISO/IEC, AI jest przedmiotem intensywnych prac, a współpraca między różnymi regionami, jak USA czy Chiny, ma na celu uniknięcie rozbieżności pomiędzy normami europejskimi a międzynarodowymi.
Zatem standardy międzynarodowe nie zastępują europejskich, ale powinny być z nimi zgodne, co pozwala na unikanie konfliktów regulacyjnych. Współpraca ta jest szczególnie widoczna w pracy JTC21, który dąży do jak najszerszego wykorzystania rezultatów prac SC42, aby zaoszczędzić czas i ograniczyć różnice między normami w skali globalnej.
Pomimo ogromnego nacisku na standaryzację, w Unii Europejskiej generatywna sztuczna inteligencja, szczególnie w kontekście regulacji, pozostaje na uboczu. Prace nad normami w tym obszarze nie są priorytetowe, co jest wynikiem faktu, że na etapie opracowywania mandatu standaryzacyjnego generatywna AI nie była jeszcze uwzględniona w projekcie AI Act. Dodatkowo, EU AI Office pracuje nad kodeksem praktyk dla ogólnego użytku AI, który jest bardziej zbliżony do podejścia top-down i nie stanowi pełnej standaryzacji.
Pomimo braku specyficznych standardów dla generatywnej AI, temat ten staje się coraz ważniejszy, zwłaszcza w kontekście globalnym. Z jednej strony technologia generatywnej AI rozwija się szybko, a z drugiej - jej regulacja i standardyzacja mogą nie nadążać za jej rozwojem. Istnieje więc potrzeba nie tylko ciągłego monitorowania rozwoju technologii, ale także dynamicznego dostosowywania norm i regulacji do nowych wyzwań. Warto podkreślić, że przy obecnym stanie prac, generatywna AI, mimo swojego potencjału, nie jest jeszcze w centrum europejskiej standaryzacji, ale jej rola będzie rosła w miarę postępu prac w obszarze AI Act i innych regulacji.
Standardy w zakresie sztucznej inteligencji są kluczowe nie tylko z perspektywy przedsiębiorstw, ale również dla bezpieczeństwa użytkowników i ogólnego porządku na rynku. Ich rozwój musi być procesem ciągłym i dostosowanym do szybko zmieniającej się rzeczywistości technologicznej, która wciąż stawia przed nami nowe wyzwania.
Jakie są zalety i zastosowania gotowych bloków funkcji w programowaniu PLC?
Jakie są współczesne możliwości i wyzwania w fotokatalitycznej arylacji heterocykli?
Jak zarządzać tachykardią wywołaną kardiomiopatią podczas znieczulenia w przypadku dzieci?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский