Zgodnie z przepisami dotyczącymi obowiązku wykonywania niezależnego osądu (Section 173), kluczowym zadaniem dyrektora jest podejmowanie decyzji opartych na własnym rozważeniu, a nie bezrefleksyjne podążanie za opiniami innych, w tym także systemów sztucznej inteligencji (AI), bez uwzględnienia interesów firmy. Obowiązek ten nie oznacza, że dyrektorzy muszą podejmować decyzje całkowicie w pojedynkę, ale ostateczna odpowiedzialność za podjęte decyzje należy do nich. W tym kontekście, jak stwierdził prokurator generalny w zeznaniach przed Izbą Lordów: "Chodzi o to, by dyrektorzy podejmowali własne decyzje i nie podążali bezrefleksyjnie za opinią innych, nie uwzględniając interesów firmy". Zatem, zadaniem dyrektora jest wykonywanie niezależnego osądu na rzecz firmy. To oczekiwanie, które wiąże się z ich powołaniem.
Dyrektorzy mogą delegować swoje zadania zgodnie z statutem firmy, a obowiązek wykonywania niezależnego osądu nie wyklucza korzystania z porad innych osób, jednak ostateczna odpowiedzialność za decyzję pozostaje w rękach dyrektora. W związku z tym, wykorzystanie zaawansowanych systemów sztucznej inteligencji do informowania i doradzania w podejmowaniu kluczowych decyzji mieści się w ramach tych zasad. Oczywiście, dyrektor nie jest zobowiązany do samodzielnego wykonywania wszystkich zadań i w niektórych sytuacjach może naruszyć swoje obowiązki, jeśli nie zasięgnie odpowiedniej porady. Jednakże, tak jak w przypadku wszelkich porad zawodowych, ślepe poleganie na nich jest nieakceptowalne, a uzyskanie porady nie zwalnia dyrektora z obowiązku wykonywania własnego osądu.
Z tego powodu warto określić granice użycia sztucznej inteligencji przez zarząd, aby stała się ona częścią najlepszej praktyki lub wręcz wymagana w pewnych decyzjach (podobnie jak powszechna praktyka uzyskiwania wyceny finansowej przed finalizowaniem fuzji i przejęć). Ostatecznie, każdy dyrektor będzie musiał dokładnie i krytycznie przemyśleć wszelkie porady, które otrzymuje przy podejmowaniu kluczowych decyzji, niezależnie od tego, czy pochodzą one od wykwalifikowanego specjalisty ludzkiego, takiego jak prawnik lub specjalista finansowy, czy od wykwalifikowanego narzędzia sztucznej inteligencji.
W odniesieniu do obowiązku wykazywania rozsądnej troski, umiejętności i staranności (Section 174), uważamy, że w niektórych rodzajach transakcji finansowych oraz w odniesieniu do określonych branż, stosowanie systemów sztucznej inteligencji przez członków zarządu będzie stawało się coraz bardziej oczekiwane. Dodatkowo, nasza dyskusja dotycząca interpretacji staranności zarządu w korzystaniu z dostępnych informacji w celu podejmowania dobrze przemyślanych decyzji w ramach zasady osądu biznesowego ma również zastosowanie w tym przypadku. Problem pojawia się jednak zawsze, gdy dyrektor musi wyjaśnić, dlaczego zaufał systemowi sztucznej inteligencji, który może mieć problemy z wyjaśnieniem swojej decyzji, jak to bywa w przypadku „czarnych skrzynek” czy „halucynacji” w AI. Dyrektor może zostać wezwany do sądu lub przez agencję regulacyjną, by wyjaśnić, dlaczego polegał na systemie AI, którego wyników nie można jednoznacznie wyjaśnić.
Problematyczne staje się również, gdy ten sam system AI dostarcza różne lub sprzeczne wyniki na podstawie tych samych danych. Istnieje więc realne ryzyko, że dyrektorzy zostaną pociągnięci do odpowiedzialności za poleganie na AI w sposób, który nie może zostać odpowiednio uzasadniony ani wyjaśniony, co w wielu przypadkach może podważyć wiarygodność całego procesu decyzyjnego. Tego rodzaju trudności z wyjaśnieniem wyników działania AI mogą zniechęcić potencjalnych użytkowników i spowodować, że rzeczywisty wpływ sztucznej inteligencji na podejmowanie decyzji w firmach będzie znacznie mniejszy, niż obecnie przewidują analitycy.
Jednym z poważniejszych wyzwań w stosowaniu sztucznej inteligencji w kluczowych decyzjach korporacyjnych jest zapewnienie, że dyrektorzy będą w stanie osobno uzasadnić decyzje biznesowe rekomendowane przez narzędzia sztucznej inteligencji. Zasadniczym problemem pozostaje kwestia wyjaśnialności wyników działania takich narzędzi, która w wielu przypadkach stanowi poważne utrudnienie. Problem ten musi być rozwiązany poprzez aktywne uczestnictwo zarządów i zespołów wykonawczych, które powinny współpracować z ekspertami technologicznymi, prawnikami, specjalistami finansowymi oraz przedstawicielami akcjonariuszy, w zależności od branży. Warto również zauważyć, że mogą powstać specjalistyczne firmy doradcze lub jednostki certyfikujące, które pomogą w dalszym rozwoju tych procesów i zapewnią pewność co do stosowania sztucznej inteligencji w zgodzie z wymaganiami prawnymi lub najlepszymi praktykami dotyczącymi nadzoru, wyjaśnialności i bezpieczeństwa.
Ponadto, narzędzia sztucznej inteligencji, które są zdolne do przeprowadzania głębokiej analizy due diligence, zbierania i weryfikacji danych, takie jak mapowanie relacji finansowych i międzyludzkich, mogą wpływać na inne obowiązki dyrektora, jak obowiązek unikania konfliktu interesów (Section 175), zakaz przyjmowania korzyści od osób trzecich (Section 176) oraz obowiązek ujawniania interesu w proponowanej transakcji (Section 177). Choć więc pewne narzędzia sztucznej inteligencji (także w formie „elektronicznych osób”) mogą stać się standardową praktyką w procesie oceny i wyceny kluczowych decyzji zarządu, takich jak inwestycje, fuzje i przejęcia, pozyskiwanie pożyczek czy sprzedaż istotnych aktywów, to jednak, jak pokazuje przykład Unii Europejskiej, korzystanie z takich narzędzi wiąże się z koniecznością zapewnienia pełnej przejrzystości i wyjaśnienia wszelkich decyzji, które zostały podjęte na ich podstawie.
Jakie wyzwania stawia generatywna sztuczna inteligencja przed ochroną danych osobowych?
Generatywna sztuczna inteligencja (GenAI) zyskuje coraz większą uwagę w różnych dziedzinach prawa, w tym ochronie danych osobowych. Technologie te, umożliwiające tworzenie treści na podstawie ogromnych zbiorów danych, zmieniają oblicze zarówno prawa, jak i samej ochrony prywatności. GenAI, przez swoją zdolność do generowania nowych danych, tekstów czy obrazów, stawia przed prawodawcami nowe pytania dotyczące granic użycia danych osobowych, ich ochrony oraz odpowiedzialności.
W kontekście ochrony danych osobowych jednym z głównych wyzwań, które pojawiają się w związku z rozwojem GenAI, jest kwestia zgody na przetwarzanie danych. W tradycyjnym podejściu do ochrony prywatności, zgoda osoby, której dane dotyczą, jest kluczowym elementem, pozwalającym na legalne przetwarzanie danych. W przypadku generatywnej sztucznej inteligencji problematyczne staje się ustalenie, kto jest właścicielem danych używanych do trenowania modelu oraz w jaki sposób można zapewnić, że dane te nie będą wykorzystywane w sposób naruszający prawa osób trzecich.
Kolejnym wyzwaniem jest kwestia przechowywania danych. Modele GenAI wymagają ogromnych ilości danych, które muszą być przechowywane przez długi okres, co stwarza ryzyko nieautoryzowanego dostępu lub niewłaściwego wykorzystania danych. Przepisy takie jak Ogólne Rozporządzenie o Ochronie Danych Osobowych (RODO) w Unii Europejskiej stawiają surowe wymagania dotyczące przechowywania danych, ale w kontekście GenAI pojawiają się nowe trudności związane z analizą, jak te regulacje powinny być stosowane wobec algorytmów uczących się na ogromnych zbiorach danych, w tym również danych osobowych.
Również kwestia odpowiedzialności za wykorzystanie danych generowanych przez sztuczną inteligencję staje się bardziej skomplikowana. Jeśli model GenAI wygeneruje dane, które naruszają prywatność lub prawa innych osób, kto ponosi odpowiedzialność za takie naruszenie? W tradycyjnym systemie prawnym odpowiedzialność za ochronę danych spoczywa na podmiotach, które przetwarzają te dane. Jednak w przypadku generatywnej sztucznej inteligencji odpowiedzialność może dotyczyć nie tylko twórcy oprogramowania, ale także użytkowników, którzy wykorzystują wygenerowane treści w różnych celach.
Dodatkowo, GenAI może stanowić zagrożenie dla bezpieczeństwa danych, w szczególności w przypadku wykorzystywania algorytmów do tworzenia treści, które mogą być użyte do manipulacji opinią publiczną lub do przeprowadzania ataków typu "phishing". Użycie sztucznej inteligencji do generowania fałszywych informacji, które wyglądają jak autentyczne, stawia przed prawodawcami wyzwanie związane z zapewnieniem odpowiednich narzędzi do wykrywania takich oszustw i zapobiegania im.
W kontekście tych wyzwań, prawo ochrony danych osobowych musi być elastyczne i zdolne do adaptacji do nowych technologii. Wymaga to nie tylko zmiany podejścia do regulacji ochrony danych, ale także rozwoju nowych narzędzi, które umożliwią monitorowanie i kontrolowanie działania sztucznej inteligencji w obszarze ochrony prywatności. Istotnym elementem tego procesu jest zapewnienie, aby systemy GenAI były transparentne, a procesy związane z generowaniem danych były w pełni kontrolowane.
Warto również dodać, że rozwój generatywnej sztucznej inteligencji stawia przed organami ochrony danych wyzwania związane z międzynarodową współpracą. W dobie globalizacji danych i sztucznej inteligencji, kwestie związane z ochroną prywatności nie mają granic. Przepisy krajowe nie zawsze wystarczają, aby skutecznie chronić dane w sytuacjach, gdy dane osobowe przepływają przez granice państwowe, a technologie wykorzystywane do ich przetwarzania są coraz bardziej zaawansowane.
Należy także pamiętać, że odpowiednia regulacja GenAI musi uwzględniać zrównoważenie interesów prywatności z innymi ważnymi aspektami społecznymi, takimi jak innowacje technologiczne, rozwój gospodarczy czy bezpieczeństwo. Zbyt restrykcyjne przepisy mogą spowolnić rozwój tej technologii, która ma potencjał do rewolucjonizowania wielu branż. Z drugiej strony, zbyt liberalne podejście może prowadzić do naruszenia praw obywateli, co może mieć długofalowe konsekwencje.
Kiedy mówimy o regulacjach dotyczących GenAI, nie można zapominać, że technologia ta jest wciąż w fazie rozwoju, a jej pełny potencjał jeszcze nie został w pełni zrealizowany. Przepisy prawa muszą więc być na tyle elastyczne, by móc reagować na szybko zmieniające się warunki, a jednocześnie na tyle szczegółowe, by zapewniały realną ochronę danych osobowych.
Jakie ryzyko niosą ze sobą modele językowe i sztuczna inteligencja?
W kontekście rozwoju technologii sztucznej inteligencji, szczególnie w obszarze generowania treści przez modele językowe, coraz bardziej widoczne stają się zarówno korzyści, jak i zagrożenia związane z ich używaniem. Modele te, w tym tzw. LLMs (Large Language Models), mają zdolność do generowania tekstów, obrazów, dźwięków, a nawet wideo, które są niemal nierozróżnialne od tych stworzonych przez ludzi. To zjawisko stawia przed nami pytanie: jakie ryzyka niesie za sobą ich wykorzystanie?
Wiele badań wskazuje na fakt, że fałszywe informacje generowane przez sztuczną inteligencję mogą być bardziej wiarygodne dla ludzkich odbiorców niż tradycyjna dezinformacja stworzona przez ludzi. Przykładami mogą być newsy generowane przez AI, które w wielu przypadkach są trudniejsze do zweryfikowania. Zgodnie z tymi badaniami, treści wytworzone przez LLM mogą łatwo zmylić odbiorcę, sprawiając, że zaczynają one być traktowane jako bardziej autentyczne. W tej analizie szczególny nacisk kładziony jest na ryzyko wynikające z niewłaściwego wykorzystywania LLM, a także nadmiernego ich wykorzystywania przez użytkowników, którzy przeceniają ich możliwości.
W kontekście regulacji, warto zauważyć, że mimo tego, iż technologia sztucznej inteligencji niesie ze sobą liczne korzyści, to jej potencjalne nadużycia, w tym dezinformacja, oszustwa czy naruszenia prywatności, wymagają podjęcia działań legislacyjnych. Ważnym elementem jest tu konieczność znalezienia równowagi pomiędzy rozwojem technologicznym a jego potencjalnymi zagrożeniami. W tym celu powstało wiele inicjatyw, których celem jest stworzenie odpowiednich ram prawnych do regulowania sztucznej inteligencji.
Pomimo tego, że LLM mają swoje niezaprzeczalne zalety, eksperci zauważają także ich zagrożenia. W szczególności wyróżnia się sześć głównych obszarów ryzyka związanych z tymi technologiami. Po pierwsze, technologie te mogą utrwalać istniejące stereotypy społeczne i uprzedzenia, co może prowadzić do powstawania szkód reprezentacyjnych i alokacyjnych. Po drugie, możliwe jest naruszenie prywatności użytkowników, ponieważ modele te mogą wchodzić w posiadanie osobistych danych, które mogą być później wykorzystane w nieuprawniony sposób. Trzecim zagrożeniem jest dezinformacja – AI może generować treści, które wpływają na opinię publiczną, prowadząc do zaburzenia zaufania w społeczeństwie.
Czwartym ryzykiem jest możliwość wykorzystania AI do celów przestępczych, takich jak oszustwa na dużą skalę czy spersonalizowane ataki. Piątym zagrożeniem jest związane z interakcjami człowiek-komputer, kiedy użytkownicy, przeceniając możliwości LLM, używają ich w niebezpieczny sposób. Ostatnim ryzykiem, które również jest istotne, to wpływ technologii na środowisko – ogromne ilości energii potrzebne do trenowania i działania tych modeli stanowią poważne obciążenie ekologiczne.
Równocześnie, w kontekście ochrony praw własności intelektualnej, szczególnie praw autorskich, pojawiają się poważne kontrowersje. Autorzy treści, takich jak książki czy artykuły, wielokrotnie zgłaszali zastrzeżenia co do wykorzystywania ich materiałów do trenowania modeli LLM bez ich zgody. Spory są toczone w różnych częściach świata, w tym w Stanach Zjednoczonych, gdzie pozwy są składane na podstawie przepisów o prawie autorskim. Warto zaznaczyć, że w Unii Europejskiej web scraping, czyli zbieranie danych z sieci bez odpowiedniej zgody, może naruszać przepisy RODO, co dodatkowo komplikuje sytuację prawną firm korzystających z takich danych.
W odpowiedzi na te wyzwania, legislatorzy na całym świecie, w tym w Chinach, Stanach Zjednoczonych i Unii Europejskiej, podejmują próbę uregulowania tego typu technologii. W 2023 roku, po osiągnięciu przez ChatGPT 100 milionów aktywnych użytkowników miesięcznie w zaledwie dwa miesiące od jego uruchomienia, wielu liderów biznesu i ekspertów wyraziło swoje obawy, ostrzegając przed ryzykiem "wyginięcia" ludzkości w wyniku niekontrolowanego rozwoju sztucznej inteligencji. Z kolei w Europie uchwalono tzw. AI Act, który ma na celu regulację rozwoju i wykorzystywania AI w sposób, który nie zagraża społeczeństwu.
Podstawowym problemem, na który wskazują eksperci, jest niedostateczna reakcja samoregulujących się organizacji i firm w obliczu nowych wyzwań związanych z technologią. Mimo iż samoregulacja może być skuteczna w wielu przypadkach, to jednak w przypadku tak zaawansowanej technologii, jaką jest AI, konieczne staje się zaangażowanie instytucji publicznych i międzynarodowych w wypracowanie i wdrażanie skutecznych regulacji prawnych. Jednak nie wszystko jest proste. Wzrost liczby regulacji może prowadzić do sytuacji, w której nowe przepisy będą wymagały częstych zmian, aby nadążyć za rozwojem technologii.
Ważne jest, aby w ramach tej debaty nie zapominać o roli, jaką w całym procesie regulacyjnym odgrywają twórcy technologii, ale i prawodawcy. Z jednej strony deweloperzy i producenci modeli językowych są odpowiedzialni za rozwój i implementację odpowiednich środków ochrony przed ich nadużywaniem. Z drugiej strony, zadaniem legislatorów jest nie tylko odpowiednie uregulowanie tej technologii, ale także zachowanie równowagi, by nie hamować innowacji i rozwoju, który może przynieść korzyści społeczeństwu. Tylko wtedy możliwe będzie uniknięcie sytuacji, w której technologia, która miała ułatwić życie, stanie się zagrożeniem dla naszego dobrobytu i bezpieczeństwa.
Jak regulacje i standardy techniczne współdziałają w zarządzaniu sztuczną inteligencją?
Zarządzanie sztuczną inteligencją (AI) po jej wdrożeniu jest nieodłącznym elementem procesu, który nie tylko zapewnia jej odpowiednie funkcjonowanie, ale także dba o bezpieczeństwo, prywatność oraz zgodność z regulacjami. Po wdrożeniu systemu AI, odpowiedzialność za monitorowanie jego pracy, identyfikowanie potencjalnych zagrożeń i wdrażanie środków zaradczych spoczywa na dostawcach oraz użytkownikach. Z perspektywy zarządzania po wdrożeniu, kluczowe staje się zapobieganie wystąpieniu problemów, monitorowanie wydajności systemu oraz zgłaszanie wszelkich incydentów, w tym naruszeń zasad etycznych, które mogą wynikać z błędów w algorytmach czy nadużyciach technologii.
Na poziomie regulacyjnym Unia Europejska przyjęła synergistyczne podejście, które łączy elementy regulacji i standaryzacji technicznej, mając na celu nie tylko wprowadzenie norm, ale także stworzenie ram dla transparentności i odpowiedzialności. Współczesne podejście do regulowania AI skupia się na zapewnieniu wysokich standardów ochrony użytkowników, szczególnie w obszarze wysokiego ryzyka. Przykładem tego jest Wspólna Polityka AI, która kładzie duży nacisk na odpowiedzialność dostawców oraz wdrożenie odpowiednich środków zaradczych w przypadku naruszeń związanych z bezpieczeństwem i prywatnością danych.
Regulacje i standaryzacja często idą w parze, uzupełniając się nawzajem. W ramach regulacji unijnych, takich jak Akt o Sztucznej Inteligencji (AI Act), dostawcy AI są zobowiązani do przestrzegania zasad dotyczących przejrzystości, uczciwości i ochrony danych. Jednocześnie, w ramach standardów technicznych opracowywanych przez organizacje takie jak Międzynarodowa Organizacja Normalizacyjna (ISO) i Międzynarodowa Komisja Elektrotechniczna (IEC), twórcy AI mogą liczyć na wskazówki dotyczące najlepszych praktyk w projektowaniu systemów oraz zarządzaniu ryzykiem. Celem jest stworzenie spójnego środowiska, które pozwala na odpowiedzialne zarządzanie nowoczesnymi technologiami, przy jednoczesnym zachowaniu elastyczności, niezbędnej do szybszego reagowania na zmiany w technologii.
Zgodnie z przyjętym w Unii Europejskiej Modelem Zarządzania Ryzykiem, kluczowe jest monitorowanie systemów AI w trakcie ich eksploatacji, a także zapewnienie odpowiednich mechanizmów zarządzania ryzykiem dla systemów wysokiego ryzyka. Należy tutaj uwzględnić m.in. obowiązek stosowania zabezpieczeń cybernetycznych, jak również zapewnienia, że dane wykorzystywane do treningu modeli AI są odpowiedniej jakości, zgodne z przepisami o ochronie danych osobowych oraz nie zawierają błędów mogących prowadzić do dyskryminacji czy błędnych decyzji. Istotnym elementem jest także zabezpieczenie przed nieuprawnionym dostępem do danych oraz zapewnienie pełnej przejrzystości w zakresie tego, jak dane są wykorzystywane przez systemy AI.
Z perspektywy dostawców sztucznej inteligencji, kluczowe jest przestrzeganie zasad przejrzystości, zwłaszcza w odniesieniu do identyfikacji generowanych treści. Dzięki wprowadzeniu odpowiednich mechanizmów identyfikacji treści AI, takich jak znak wodny czy oznaczenie źródła danych, użytkownicy mogą być lepiej poinformowani o charakterze treści, którą generuje sztuczna inteligencja. Wprowadzenie takich rozwiązań ma na celu zapobieganie nadużyciom, takim jak wykorzystywanie sztucznej inteligencji do generowania dezinformacji czy materiałów o wątpliwej wiarygodności.
Warto również zwrócić uwagę na znaczenie odpowiedzialności w kontekście zarządzania sztuczną inteligencją. Obowiązek zgłaszania incydentów związanych z systemami AI, a także opracowywanie raportów o bezpieczeństwie, to kluczowe elementy zapewniające przejrzystość i odpowiedzialność dostawców AI. Równocześnie, konieczność informowania odpowiednich organów nadzorujących o potencjalnych zagrożeniach związanych z używaniem systemów AI stanowi fundament skutecznego zarządzania ryzykiem w tym obszarze.
Oprócz regulacji prawnych, szczególną wagę przykłada się do badań nad wpływem sztucznej inteligencji na społeczeństwo. W Unii Europejskiej i innych regionach świata podejmowane są działania mające na celu zapobieganie niepożądanym skutkom, takim jak uprzedzenia w algorytmach, a także ochrona prywatności użytkowników. Priorytetem jest także badanie ryzyka związanego z bezpieczeństwem zdrowia i fundamentalnymi prawami człowieka, które mogą zostać zagrożone przez nieodpowiedzialne wykorzystanie technologii AI.
Dodatkowo, kwestia etycznych i społecznych konsekwencji użycia sztucznej inteligencji wymaga szczególnej uwagi. Odpowiednie normy etyczne i kodeksy postępowania dla twórców oraz użytkowników systemów AI stanowią fundament dla stworzenia spójnych zasad zarządzania tą technologią, która nie tylko spełnia wymagania regulacyjne, ale także służy dobru społecznemu.
Jakie są szczególne wyzwania w leczeniu oczu w chorobach autoimmunologicznych?
Jak stworzyć prosty benchmark WebSocket i optymalizować jego wydajność w FastAPI?
Czy separatory na bazie ultradługich nanowłókien hydroksyapatytu poprawiają bezpieczeństwo i wydajność baterii litowo-jonowych w wysokich temperaturach?
Jak poprawnie testować i uruchamiać programy na maszynach wirtualnych CHIP-8?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский