Współczesny świat jest pełen wyzwań związanych z oceną wiarygodności informacji, zwłaszcza w kontekście mediów cyfrowych i generatywnej sztucznej inteligencji (AI). W ciągu ostatnich kilku lat standardyzacja procesów identyfikowania oraz oceny rzetelności wiadomości stała się kluczowa dla utrzymania zaufania i akceptacji społeczeństwa wobec wiadomości w Internecie. W tym zakresie organizacje takie jak IEEE oraz Międzynarodowa Organizacja Normalizacyjna (ISO) wypracowały standardy, które pomagają w identyfikowaniu i ocenie prawdziwości treści. Kluczowym celem tych działań jest zapewnienie, by użytkownicy mieli dostęp do rzetelnych i wiarygodnych źródeł informacji, a także aby unikać szerzenia dezinformacji w cyfrowym świecie.
Z jednej strony, procesy te obejmują różne mechanizmy oceny – na przykład algorytmy oceniania rzetelności wiadomości poprzez zastosowanie specjalnych kart oceny, które służą jako narzędzie umożliwiające systematyczne monitorowanie źródeł. Z drugiej strony, wymagane są też standardy dotyczące sztucznej inteligencji, które pomagają w tworzeniu systemów AI służących do przetwarzania danych w sposób odpowiedzialny i bezpieczny. Zagadnienia związane z etyką sztucznej inteligencji, jak pokazują prace badawcze, skupiają się na pięciu głównych zasadach: przejrzystości, sprawiedliwości, odpowiedzialności, braku szkód i ochronie prywatności. Każda z tych zasad jest niezbędna, by zbudować zaufanie do generatywnej AI, ale też do mediów, które korzystają z takich technologii.
Ważnym aspektem jest również temat zarządzania danymi, który odgrywa fundamentalną rolę w procesie tworzenia generatywnej AI. Dane stanowią podstawę do nauki maszynowej, a generatywne modele AI, takie jak te wykorzystywane do tworzenia tekstów czy obrazów, bazują na ogromnych zbiorach danych. Poprawne zarządzanie tymi danymi jest kluczowe, by zapewnić ich bezpieczeństwo, prywatność użytkowników i przestrzeganie etycznych norm w całym cyklu życia AI. Firmy takie jak Google czy Amazon, w swoich rozwiązaniach opartych na AI, przestrzegają rygorystycznych zasad zarządzania danymi, gwarantując, że gromadzone i wykorzystywane informacje są odpowiednio chronione.
Nie mniej istotne jest zapewnienie przejrzystości i wyjaśnialności w systemach generatywnej AI. Przejrzystość polega na jasnym i otwartym przedstawieniu zasad działania tych systemów, natomiast wyjaśnialność dotyczy umiejętności zrozumienia decyzji podejmowanych przez AI. W kontekście sztucznej inteligencji generatywnej oznacza to, że użytkownicy i zainteresowane strony muszą mieć możliwość zrozumienia, jak i dlaczego AI generuje określone odpowiedzi lub treści. Bez tego rodzaju przejrzystości i wyjaśnialności, trudno będzie budować zaufanie do technologii, która, choć może być potężnym narzędziem, wymaga pełnej odpowiedzialności i etycznego podejścia w jej wykorzystaniu.
Ponadto, ważnym zagadnieniem w kontekście generatywnej AI jest odpowiedzialność za jej wykorzystanie i potencjalne konsekwencje. Wdrożenie odpowiednich ram regulacyjnych, które będą chronić użytkowników przed nadużyciami, jest kluczowe dla zapewnienia, by rozwój AI odbywał się w sposób bezpieczny i zgodny z wartościami etycznymi. Z tego powodu, zarówno twórcy algorytmów, jak i organizacje korzystające z generatywnej AI, muszą zadbać o stworzenie zasad, które nie tylko pozwolą na innowacyjność, ale również będą chronić użytkowników przed możliwymi zagrożeniami.
Podstawowym celem tych regulacji jest nie tylko zminimalizowanie ryzyka dezinformacji, ale również zapewnienie odpowiedzialnego rozwoju generatywnej AI w sposób, który sprzyja wartościom etycznym i społecznym. W związku z tym, organizacje muszą stale dostosowywać swoje procedury oraz ramy prawne, aby sprostać nowym wyzwaniom, jakie stawia przed nimi szybko rozwijająca się technologia.
Zatem, proces oceny wiarygodności źródeł informacji w erze generatywnej AI nie sprowadza się jedynie do kwestii technicznych, ale obejmuje również szerokie zagadnienia etyczne, społeczne oraz regulacyjne. Przyszłość tych technologii wymaga ścisłej współpracy między instytucjami regulacyjnymi, organizacjami zajmującymi się rozwojem AI, a także społeczeństwem, które korzysta z tych technologii. Ważne jest, aby procesy zarządzania danymi, przejrzystości oraz odpowiedzialności były integralną częścią każdego systemu generatywnej AI, a także by etyczne zasady nie były tylko teorią, ale w praktyce wpływały na sposób, w jaki sztuczna inteligencja będzie wykorzystywana w przyszłości.
Jak regulacje dotyczące modeli AI wspierają innowacje i zapewniają odpowiedzialność?
W obliczu rozwoju sztucznej inteligencji, szczególnie w zakresie modeli generatywnych (GenAI), konieczne stało się wprowadzenie odpowiednich regulacji mających na celu zapewnienie ich odpowiedzialnego wykorzystywania w produktach oraz przestrzegania obowiązków regulacyjnych. Przepisy prawa wymagają wprowadzenia proporcjonalnych środków przejrzystości, w tym tworzenia i utrzymywania dokumentacji technicznej, którą dostawcy muszą udostępniać na żądanie organów nadzorczych. Taki mechanizm ma na celu wspieranie odpowiedzialnego korzystania z tych modeli przez dalszych dostawców, którzy integrują GenAI w swoich produktach, jednocześnie przestrzegając regulacji prawnych.
Artykuł 53 ustawy nakłada szczególne obowiązki na firmy zajmujące się tworzeniem ogólnozastosowaniowych modeli AI. Muszą one prowadzić szczegółową dokumentację rozwoju i testowania swoich modeli AI, którą mogą udostępniać innym podmiotom planującym wdrożenie tych modeli w swoich produktach. Wymaga się, aby dokumentacja ta była przygotowana w sposób, który zapewnia ochronę praw własności intelektualnej oraz poufnych informacji biznesowych. Modele open-source, które nie stwarzają ryzyka systemowego, są zwolnione z tych wymagań (art. 53 ust. 2). W kontekście modeli open-source, przepisy wskazują na kluczową rolę komponentów open-source w rozwoju innowacji, jednak podkreślają, że takie modele nie są całkowicie zwolnione z obowiązków regulacyjnych, zwłaszcza w kontekście danych używanych do treningu, które muszą być zgodne z przepisami dotyczącymi prawa autorskiego.
Rozwój modeli AI, które mogą stwarzać ryzyko systemowe, również wiąże się z dodatkowymi wymaganiami, takimi jak konieczność oceny ryzyka przy użyciu standardowych protokołów, identyfikowanie i redukowanie ryzyk systemowych oraz zgłaszanie poważnych incydentów do odpowiednich organów. Firmy muszą zapewnić, że ich modele AI są bezpieczne, a także mogą stosować kodeksy postępowania, aby wykazać zgodność z wymaganiami regulacyjnymi aż do momentu opublikowania odpowiednich standardów.
Problematycznym obszarem w kontekście regulacji jest kwestia wykorzystania dużych zbiorów danych, w tym materiałów objętych prawem autorskim, w procesie treningu modeli GenAI. Przepisy wymagają, aby dostawcy uzyskali zgodę właścicieli praw autorskich na wykorzystanie chronionych treści do celów text-mining i data-mining, chyba że zastosowanie mają szczególne wyjątki przewidziane w prawie autorskim. Dodatkowo, dostawcy modeli GenAI są zobowiązani do publikowania szczegółowego streszczenia danych użytych do treningu, w tym materiałów objętych prawem autorskim. Takie streszczenie ma być kompleksowe, ale jednocześnie chronić tajemnice handlowe i poufne informacje, co ma na celu wspieranie właścicieli praw autorskich w egzekwowaniu swoich praw.
W kontekście regulacji rynku cyfrowego, ustawa o rynkach cyfrowych (DMA) oraz ustawa o usługach cyfrowych (DSA) również mają znaczenie, choć na razie nie są bezpośrednio związane z regulowaniem GenAI. DMA i DSA koncentrują się na regulowaniu usług cyfrowych, platform i dużych firm technologicznych, które mogą pośrednio wpływać na rozwój oraz wdrożenie modeli AI. O ile same modele GenAI na razie nie mieszczą się w definicji platform cyfrowych, ich integracja z takimi platformami może zmieniać zakres regulacji. Z kolei DMA ma na celu ograniczenie potencjału tzw. "gatekeeperów", czyli dużych firm kontrolujących dostęp do platform cyfrowych. Ustawa ta może wpłynąć na rywalizację na rynku AI, zwłaszcza w kontekście zasobów obliczeniowych, danych oraz technologii, które mają kluczowe znaczenie dla rozwoju modeli generatywnych.
Ważnym zagadnieniem, które wyłania się z analizy przepisów, jest równowaga między zapewnieniem odpowiedzialności za rozwój AI a wspieraniem innowacji. Choć przepisy nakładają liczne obowiązki w zakresie przejrzystości, ochrony danych oraz zgłaszania ryzyk systemowych, niezbędne jest również, aby te regulacje nie stłumiły kreatywności i rozwoju nowych technologii. Modele open-source, mimo że w niektórych przypadkach zwolnione z niektórych wymagań, nadal muszą przestrzegać zasad transparentności w kwestii używanych danych i metod treningowych. Tylko wtedy można zapewnić, że innowacje w dziedzinie sztucznej inteligencji będą rozwijały się w sposób odpowiedzialny i z poszanowaniem praw wszystkich uczestników rynku.
Jak zarządzać ryzykiem sztucznej inteligencji w zarządzaniu korporacyjnym?
Sztuczna inteligencja (AI) staje się coraz bardziej powszechna w biznesie, jednak jej wprowadzenie wiąże się z licznymi wyzwaniami, zarówno w zakresie technologii, jak i w obszarze odpowiedzialności prawnej. Przedsiębiorstwa muszą wziąć pod uwagę, że ryzyko związane z AI nie tylko dotyczy technologii samej w sobie, ale także może mieć wpływ na reputację, inwestycje, regulacje prawne oraz odpowiedzialność cywilną. W kontekście tego rosnącego ryzyka kluczową rolę odgrywają ubezpieczenia, które stają się nieodłącznym elementem zarządzania ryzykiem związanym z generatywną sztuczną inteligencją.
Aby zapewnić stabilne i zrównoważone zarządzanie ryzykiem AI, konieczne jest współdziałanie wielu interesariuszy, w tym nie tylko samego zarządu i regulacyjnych instytucji, ale także firm ubezpieczeniowych. Często to one mogą zapewnić odpowiednią osłonę przed potencjalnymi katastrofami, które mogą wynikać z niewłaściwego wdrożenia lub użytkowania sztucznej inteligencji. Działania te powinny obejmować szeroką współpracę z decydentami, a także z organizacjami odpowiedzialnymi za regulacje AI, w celu wypracowania skutecznych i sprawiedliwych rozwiązań.
W obliczu ryzyka związanego z AI w kontekście korporacyjnym pojawia się pytanie o to, jak chronić przedsiębiorstwa przed ewentualnymi katastrofami, których skala przekracza możliwości samej firmy. Takie "wielkie" incydenty AI mogą dotyczyć szerokiej grupy interesariuszy, w tym inwestorów, konsumentów, pacjentów i innych osób, które mogą zostać poszkodowane. W przypadku wystąpienia takiego zdarzenia, tradycyjne metody zarządzania ryzykiem mogą okazać się niewystarczające. Możliwe jest, że do pokrycia tych ryzyk konieczne będzie wprowadzenie systemu rekompensat, finansowanego zarówno publicznie, jak i prywatnie, z udziałem największych ubezpieczycieli. Alternatywnie, może pojawić się potrzeba wprowadzenia tzw. "podatku AI", który miałby na celu stworzenie funduszu reparacyjnego dla przyszłych ofiar potencjalnych katastrof związanych z AI.
Przykładem zagrożenia związane z AI są roszczenia wynikające z tzw. "AI-washing", czyli przesadnego promowania technologii AI, której skuteczność może nie odpowiadać deklaracjom producentów. Przykładem takiej sytuacji może być sprawa dotycząca firmy Evolv Technologies Holdings, Inc., która oferowała rozwiązania bazujące na AI do wykrywania broni, ale okazały się one nieskuteczne, co doprowadziło do ryzyka wejścia niebezpiecznych przedmiotów do szkół i innych obiektów publicznych. Firmy, które angażują się w rozwój takich technologii, powinny być świadome ryzyka związanego z potencjalnymi procesami sądowymi, które mogą wynikać z błędnych informacji o ich produktach.
Prawodawstwo związane z AI oraz odpowiedzialność korporacyjna stają się kluczowymi tematami zarówno na poziomie krajowym, jak i międzynarodowym. Przykładem takiego podejścia jest potencjalne wprowadzenie systemów podobnych do tych, które obowiązują w przypadku regulacji finansowych, takich jak Sarbanes-Oxley Act w USA. Zgodnie z tym modelem, firmy mogłyby być zobowiązane do audytu wewnętrznych związanych z AI, w tym oceny ryzyk związanych z tą technologią, a także do wprowadzenia systemu certyfikacji przez odpowiednich specjalistów. Odpowiednie organy audytorskie musiałyby dysponować niezbędną wiedzą i doświadczeniem w zakresie sztucznej inteligencji, aby móc skutecznie ocenić ryzyko i adekwatność kontroli wewnętrznych w firmach.
Warto zauważyć, że podobnie jak w przypadku innych obszarów odpowiedzialności korporacyjnej, takich jak przestrzeganie prawa antykorupcyjnego czy regulacji dotyczących ochrony środowiska, zarządzanie ryzykiem AI wymaga odpowiedniej kultury organizacyjnej. Firmy muszą być świadome, że niewłaściwe zarządzanie technologią AI może nie tylko narazić je na straty finansowe, ale także na utratę zaufania inwestorów, konsumentów oraz innych kluczowych interesariuszy. Stąd konieczność wprowadzenia rozwiązań gwarantujących przejrzystość i odpowiedzialność, aby unikać ryzyk związanych z niewłaściwym wykorzystaniem tej technologii.
Zatem, w miarę jak sztuczna inteligencja staje się integralną częścią strategii wielu firm, niezbędne jest wprowadzenie kompleksowych rozwiązań, które umożliwią zarówno skuteczne zarządzanie ryzykiem, jak i ochronę przed konsekwencjami nieprzewidywalnych zdarzeń związanych z rozwojem tej technologii. Warto pamiętać, że działania te muszą być zgodne z rosnącymi wymaganiami regulacyjnymi, zarówno krajowymi, jak i międzynarodowymi, a także z oczekiwaniami społecznymi dotyczącymi odpowiedzialnego wdrażania nowych technologii.
Jak sztuczna inteligencja zmienia odpowiedzialność prawną i zarządzanie korporacyjne?
Rozwój technologii generatywnej sztucznej inteligencji (AI), w tym zaawansowanych modeli językowych (LLM), stawia przed nami nowe wyzwania związane z odpowiedzialnością prawną i etyczną. Systemy AI, dzięki swojej zdolności do przetwarzania języka naturalnego, rozumienia kontekstu oraz rozwiązywania problemów w abstrakcyjnych obszarach, mogą generować treści, które mają realny wpływ na społeczeństwo. Oznacza to, że AI, choć pozbawiona inteligencji w tradycyjnym sensie, staje się aktywnym uczestnikiem w tworzeniu treści, które mogą mieć daleko idące konsekwencje prawne.
W kontekście zarządzania korporacyjnego, systemy sztucznej inteligencji stanowią nowe narzędzie wspierające podejmowanie decyzji, szczególnie w obszarach związanych z due diligence, analizą ryzyka, podejmowaniem decyzji inwestycyjnych, czy selekcją partnerów biznesowych. Z jednej strony, AI może poprawić efektywność procesów decyzyjnych, jednak z drugiej strony rodzi pytania dotyczące odpowiedzialności za ewentualne błędy wynikające z działania tych systemów.
Różne podejścia do zarządzania AI w firmach już teraz zakładają potrzebę wprowadzenia nowych struktur nadzoru, takich jak tzw. "Public Company AI & New Technologies Oversight Board". Tego rodzaju ciało nadzorujące mogłoby nie tylko monitorować zastosowanie sztucznej inteligencji w firmach, ale także współpracować z międzynarodowymi instytucjami, takimi jak OECD czy ESMA, w celu zapewnienia spójności regulacji na poziomie globalnym. Przykład takich struktur w innych branżach, jak choćby w przypadku nadzoru nad firmami publicznymi (zgodnie z ustawą Sarbanesa-Oxleya), pokazuje, że odpowiednia kontrola jest niezbędna, by zapobiegać potencjalnym nadużyciom i naruszeniom etycznym.
Z perspektywy prawnej, odpowiedzialność za decyzje podejmowane przy wsparciu AI, mimo że technologia jest w dużej mierze autonomiczna, nie może zostać całkowicie przerzucona na maszyny. Ostateczna odpowiedzialność spoczywa na ludziach, którzy projektują, wdrażają i nadzorują działanie tych systemów. Istnieje zasada, że "nie ma czegoś takiego jak głupi dyrektor", co oznacza, że członkowie zarządu, nawet jeśli korzystają z technologii AI w procesach decyzyjnych, nadal muszą w pełni angażować się intelektualnie i krytycznie w nadzór nad tymi decyzjami. Zgodnie z obowiązującym prawem, to członkowie zarządu, a nie AI, ponoszą odpowiedzialność za działania organizacji.
Należy jednak pamiętać, że generatywne AI może wspierać podejmowanie decyzji w wielu obszarach, takich jak analiza ryzyka partnerów biznesowych, ocena celów przejęć, czy przygotowywanie umów. Narzędzia AI stają się nieocenione, szczególnie w analizach opartej na dużych zbiorach danych, które byłyby niemożliwe do przetworzenia przez ludzi w rozsądnym czasie. Niemniej jednak, decyzje podejmowane na podstawie tych narzędzi powinny być traktowane jako część większego procesu, w którym nadal kluczową rolę odgrywa ludzka intuicja i odpowiedzialność.
Korporacyjne wykorzystanie AI nie jest więc jedynie kwestią technologiczną, ale również etyczną i prawną. Organizacje muszą zadbać o to, by decyzje związane z AI były podejmowane z pełnym zrozumieniem ryzyk, jakie niosą, a także by nadzór nad tymi decyzjami był zapewniony w sposób transparentny. AI może zatem być zarówno narzędziem wspomagającym, jak i potencjalnym źródłem ryzyka, które wymaga starannego zarządzania i kontroli.
Ostatecznie, w kontekście zarządzania i odpowiedzialności prawnej, nie można zapominać o jednym z kluczowych elementów – zaufaniu. Technologie AI, choć niezdolne do pełnego zrozumienia ludzkich motywów i decyzji, mogą wspierać budowanie i wzmacnianie zaufania w ramach relacji biznesowych, zarówno wewnętrznych (wśród członków zarządu), jak i zewnętrznych (w relacjach z partnerami międzynarodowymi). Jednak to ludzie, a nie maszyny, pozostają ostatecznymi architektami i gwarantami tego zaufania.
W kontekście globalnym, musimy dostosować nasze podejście do sztucznej inteligencji i zarządzania nią, tak by z jednej strony sprzyjało ono innowacjom, a z drugiej – chroniło interesy i prawa ludzi. Niezbędne jest wdrożenie kompleksowych ram regulacyjnych, które będą w stanie odpowiadać na wyzwania wynikające z dynamicznego rozwoju technologii AI, jednocześnie zapewniając, że odpowiedzialność za ich stosowanie będzie zawsze przypisana do konkretnego podmiotu ludzkiego.
Jak Sztuczna Inteligencja Wpływa na Nasze Decyzje: Manipulacja i Biometria w Erze Generatywnej AI
Współczesne technologie, a szczególnie sztuczna inteligencja, nieustannie zmieniają sposób, w jaki postrzegamy siebie i innych, a także kształtują nasze decyzje. Nowe przepisy, zawarte w ramach Aktu o Sztucznej Inteligencji (AIA), próbują odpowiedzieć na wyzwania, jakie niosą za sobą te zmiany, regulując zarówno etyczne, jak i prawne aspekty wykorzystywania AI w różnych dziedzinach życia. Jednak mimo licznych prób uregulowania tego obszaru, wciąż istnieją luki prawne, które mogą prowadzić do nadużyć, zwłaszcza w kontekście manipulacji opartych na analizie danych biometrycznych i preferencji użytkowników.
AIA wprowadza szereg przepisów dotyczących wykorzystywania technologii rozpoznawania emocji w systemach sztucznej inteligencji, stawiając jasne ograniczenia w kontekście miejsc pracy i instytucji edukacyjnych. Zgodnie z artykułem 5 (1) (f), systemy AI nie mogą wykorzystywać danych biometrycznych do wnioskowania o emocjach osób w tych sferach. Jednak w innych dziedzinach życia, takich jak handel czy reklama, regulacje te są mniej restrykcyjne, pozwalając na analizowanie emocji i intencji ludzi w sposób, który może prowadzić do bardziej subtelnych form manipulacji. Co więcej, Art. 5 (1) (g) dopuszcza wykorzystanie danych biometrycznych do celów manipulacyjnych, o ile nie są one używane w kontekście pracy lub edukacji.
Technologia sztucznej inteligencji, w szczególności generatywna AI, ma zdolność gromadzenia olbrzymich ilości danych na temat użytkowników, które mogą być wykorzystywane do precyzyjnego modelowania ich zachowań i preferencji. Tak jak Cyrano de Bergerac używał słów, by manipulować emocjami Roxane, tak dzisiejsze systemy AI wykorzystują dane biometryczne, psychologiczne, a nawet neurobiologiczne, by kształtować decyzje ludzi. W przeciwieństwie do Cyrano, który działał z szlachetnymi intencjami, generatywna AI działa na korzyść zysków komercyjnych, nie zważając na dobro jednostki. Dzięki zaawansowanym algorytmom, AI może analizować nasze preferencje, styl życia, postawy polityczne, a nawet nasze relacje osobiste, tworząc w ten sposób precyzyjnie dostosowane komunikaty, które mają na celu wywołanie pożądanych reakcji emocjonalnych. Tego typu manipulacja, choć nie polega na wprowadzaniu w błąd czy stosowaniu oszustwa, może mieć dalekosiężne konsekwencje dla autonomii jednostki.
Pomimo wprowadzenia regulacji, takich jak AIA, które mają chronić przed nieuczciwym wykorzystywaniem danych osobowych, wciąż istnieją luki prawne, które umożliwiają wykorzystywanie sztucznej inteligencji w sposób, który może zagrażać naszym prawom do samostanowienia i prywatności. Na przykład, przepisy zawarte w AIA nie obejmują manipulacji, które nie powodują znaczącego uszczerbku na zdrowiu psychicznym, ale wciąż mają negatywny wpływ na zdolność jednostki do podejmowania autonomicznych decyzji. Dodatkowo, przepisy unijne dotyczące ochrony danych osobowych, takie jak RODO, nie chronią przed personalizacją i profilowaniem, jeżeli użytkownik wyraził na to zgodę. To otwiera drogę do wykorzystywania tych danych do celów manipulacyjnych, które choć technicznie legalne, mogą podważyć fundamenty naszej wolności i samodzielności.
Biorąc pod uwagę rozwój generatywnej AI oraz jej potencjał do wykorzystywania biometrów i danych psychologicznych, regulacje muszą zostać dostosowane do nowych realiów. Obecne prawo, mimo że stara się chronić jednostki przed manipulacjami, pozostawia wiele niewiadomych i obszarów do poprawy. Konieczne jest wprowadzenie bardziej precyzyjnych regulacji, które uwzględnią również te formy manipulacji, które nie wykorzystują oszustw, ale są równie groźne, bo niszczą autonomię jednostki na poziomie emocjonalnym i psychologicznym. Dodatkowo, ważne jest, by przepisy nie tylko karły wykorzystywanie tych technologii, ale także zapobiegały ich stosowaniu w sposób, który wpływa na nasze decyzje, zmieniając naszą tożsamość czy poglądy, nie dając nam szansy na obiektywną analizę sytuacji.
Podstawową kwestią, którą warto zrozumieć, jest to, że AI, działając na podstawie gigantycznych zbiorów danych, jest w stanie wyjść poza tradycyjne granice manipulacji. Manipulacja za pomocą AI nie musi polegać na klasycznym oszustwie, ale może przyjąć formę subtelnej zmiany naszego postrzegania rzeczywistości poprzez ciągłe dopasowywanie bodźców do naszych najgłębszych potrzeb, preferencji i lęków. Przepisy, które wprowadzają jedynie powierzchowną ochronę, są niewystarczające, by skutecznie chronić jednostki przed tymi nowymi, nieuchwytnymi formami manipulacji. Warto, by legislacja unijna zaczęła brać pod uwagę te subtelne, ale nie mniej niebezpieczne formy oddziaływania, które mają miejsce w każdym aspekcie naszego życia, od reklamy po politykę.
Jakie są kluczowe elementy leczenia kryzysów hiperglikemicznych?
Czy sztuczna inteligencja może zastąpić sędziego? Wyzwania godności i sprawiedliwości w dobie AI
Jak wartości moralne wpływają na wybór metod intuicyjnego poznania?
Jakie są współczesne metody modyfikacji chemicznych celulozy?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский