Modele sztucznej inteligencji (AI), takie jak ChatGPT czy Google Bard, są przykładami narzędzi ogólnego przeznaczenia, które są w stanie obsługiwać szeroki zakres zadań. Z kolei bardziej wyspecjalizowane modele, takie jak BloombergGPT, zostały zaprojektowane z myślą o konkretnych dziedzinach, takich jak finanse czy medycyna. Ich funkcjonowanie opiera się na analizie ogromnych zbiorów danych oraz identyfikacji wzorców, dzięki czemu są w stanie rozpoznać i sklasyfikować obiekty na podstawie wcześniej zaprezentowanych danych. Kluczowym aspektem w ich szkoleniu jest wstępne przetwarzanie ogromnych zbiorów danych, co umożliwia im wykonywanie zadań z wysoką precyzją. W zależności od dostępności tych danych, modele mogą być własnościowe lub otwarte, co wpływa na możliwość modyfikacji i dostosowywania ich do specyficznych potrzeb. Modele własnościowe, takie jak GPT OpenAI, są licencjonowane do komercyjnego użytku, jednak ich modyfikacja jest zabroniona. Z kolei modele open-source oferują większą elastyczność, pozwalając na ich dostosowywanie i poprawianie, co jednak wiąże się z pewnym ryzykiem bezpieczeństwa.

Technologiczne punkty infleksji, takie jak rozwój sztucznej inteligencji generatywnej, wprowadzają nowe możliwości konkurowania na rynku, ale także wyzwania związane z ochroną uczciwej konkurencji. Warto zwrócić uwagę na to, że genAI różni się od innych technologii sztucznej inteligencji, ponieważ ma zdolność do tworzenia nowych treści i rozwiązań w sposób autonomiczny, co może wprowadzać zakłócenia na tradycyjnych rynkach. W tym kontekście należy rozważyć, w jaki sposób rozwój genAI może wpłynąć na rynek, zwłaszcza w kontekście jego koncentracji oraz obecnych regulacji.

Koncentracja rynku w sektorze cyfrowym, zwłaszcza w przypadku technologii genAI, może prowadzić do sytuacji, w której niewielka liczba graczy zdominuje rynek, eliminując konkurencję i wprowadzając bariery wejścia dla nowych podmiotów. Istnieją liczne cechy, które sprzyjają monopolizacji rynku cyfrowego, takie jak silne efekty sieciowe, skala ekonomiczna, bardzo niskie koszty krańcowe, wysokie zyski i niskie koszty dystrybucji. Tego typu rynki często przybierają charakter "zwycięzcy bierze wszystko", gdzie dominujący gracze zdobywają największą część rynku, eliminując mniejszych konkurentów.

Na rynku AI konkurencja koncentruje się wokół kilku kluczowych poziomów: infrastruktury i zasobów obliczeniowych, danych, modeli oraz aplikacji. Infrastruktura obliczeniowa, w tym chmurowe usługi obliczeniowe, stanowi podstawowy zasób w ekosystemie genAI. Usługi chmurowe, takie jak Microsoft Azure i Amazon Web Services, posiadają 60–80% udziału w rynku, co stanowi poważną koncentrację. W dodatku, mikroprocesory graficzne firmy Nvidia kontrolują około 90% rynku GPU, który jest kluczowy dla rozwoju AI. Ta koncentracja rynku budzi niepokój wśród organów antymonopolowych i jest przedmiotem dochodzeń przez takie instytucje, jak Autorité De La Concurrence we Francji czy Competition and Markets Authority (CMA) w Wielkiej Brytanii.

W ekosystemach, które zaczynają się rozwijać, firmy zajmujące się opracowywaniem modeli AI często nawiązują współpracę z dużymi dostawcami chmurowymi, co początkowo sprzyjało konkurencji. Jednak analitycy, tacy jak Von Thun, zauważają, że te partnerstwa są kolejnym przykładem działań wielkich firm technologicznych mających na celu przejęcie rynku AI generatywnej poprzez strategiczne inwestycje i współprace. Wymiana dostępu do modeli AI na korzystanie z zaawansowanej infrastruktury chmurowej pozwala tym gigantom na uzyskanie jeszcze większej kontroli nad rynkiem, co może prowadzić do dalszej monopolizacji.

Rynki AI generatywnej mogą rozwijać się w sposób, który będzie prowadził do dalszej koncentracji w rękach kilku dużych graczy. Takie zjawisko stwarza pytania o przyszłość konkurencji w tej branży, w tym o to, czy genAI będzie w stanie pozostać sektorem otwartym na nowe podmioty, czy też stanie się polem walki, w którym dominować będą tylko najwięksi. Ponadto, w miarę jak AI generatywna staje się coraz bardziej zintegrowana z innymi sektorami, w tym rynkami danych, jej rozwój będzie miał istotny wpływ na sposób, w jaki te rynki będą regulowane.

Warto również zwrócić uwagę, że nie tylko same technologie, ale także regulacje, które je otaczają, będą kluczowe dla zapewnienia uczciwej konkurencji. Już teraz widać, że regulacje dotyczące AI, takie jak Digital Markets Act (DMA) w Unii Europejskiej, zaczynają wpływać na sposób, w jaki rozwija się rynek technologii generatywnej. Organy nadzoru konkurencji w różnych krajach, w tym w Stanach Zjednoczonych i Unii Europejskiej, badają, jak regulacje mogą wpływać na równowagę rynkową w tym obszarze. W miarę jak AI generatywna ewoluuje, zarówno w kontekście technologii, jak i w kontekście regulacyjnym, będzie to miało ogromne znaczenie dla przyszłości całego rynku cyfrowego.

Jakie modele dominują w rozwoju Generatywnej AI i jak wpływają na konkurencję?

Zastanawiając się nad rozwojem modeli sztucznej inteligencji, szczególnie w kontekście Generatywnej AI (GenAI), warto zwrócić uwagę na rosnące napięcie pomiędzy modelami otwartymi a zamkniętymi. Chociaż otwarte modele tradycyjnie napędzały innowacje, obecnie obserwujemy przesunięcie w kierunku rozwiązań zamkniętych, które stają się dominującą siłą w branży. Ta zmiana nie jest przypadkowa – wynika z rosnących kosztów związanych z rozwojem i wdrożeniem takich modeli, jak również z prób optymalizacji zysków przez ich twórców.

Obecnie zarówno modele otwarte, jak i zamknięte konkurują ze sobą w różnych obszarach, takich jak wymagania zadaniowe, specyfikacje językowe czy rozmiar modelu. Programiści mają do dyspozycji ogromną bazę danych – zarówno publicznych, jak i prywatnych – które są dostosowane do konkretnych zadań, języków czy dziedzin. W tym kontekście modele otwarte odgrywają istotną rolę w kształtowaniu dynamicznej konkurencji i tworzeniu wartości, opierając się na współdzieleniu danych i kodu w ramach oprogramowania dostępnego publicznie.

Jednak rozwój i uruchamianie tych modeli wiąże się z ogromnymi kosztami, szczególnie w zakresie wymaganej mocy obliczeniowej, co prowadzi do presji ekonomicznej na tworzenie monopoli. Modele te charakteryzują się unikalnymi cechami ekonomicznymi, prawnymi i matematycznymi, które utrudniają stosowanie tradycyjnych zasad polityki konkurencyjnej. Modele sztucznej inteligencji nie są łatwe do ochrony za pomocą patentów, a także trudno je zmonopolizować w tradycyjny sposób, mimo że zyskują na wartości w miarę ich użytkowania. Dodatkowo stanowią one podstawę do tworzenia aplikacji, co sprawia, że deweloperzy preferują kilka głównych modeli, aby zapewnić kompatybilność i efekty sieciowe. Ponadto, ponieważ tworzenie tych modeli wiąże się z kosztami, inwestorzy oczekują zwrotu z inwestycji w formie wyłącznego dostępu lub użytkowania, co z kolei prowadzi do koncentracji rynku.

W świetle tych trendów, niezbędne staje się wprowadzenie odpowiednich regulacji prawnych, które mogłyby wspierać rozwój modeli otwartych. Schrepel i Potts sugerują, by politycy wprowadzili szczególne wyjątki prawne dla modeli otwartych, które umożliwiłyby ich rozwój bez obciążenia nadmiernymi wymogami regulacyjnymi. Wspieranie takich inicjatyw przez wprowadzenie ulg podatkowych czy innych środków ekonomicznych mogłoby zwiększyć przejrzystość, konkurencję i innowacyjność w tej dziedzinie.

Jeśli chodzi o modele zamknięte, to ich regulacja stwarza większe wyzwania, ponieważ korzystają one z wysokiej mocy obliczeniowej oraz wymagają dostępu do ekskluzywnych baz danych, co prowadzi do zwiększenia barier wejścia na rynek. W takich warunkach mniejsze firmy, które nie dysponują odpowiednimi zasobami finansowymi, mają ograniczoną możliwość konkurowania z dominującymi graczami.

Kolejnym aspektem, który warto wziąć pod uwagę, jest rola praw własności intelektualnej (IP). Prawa te przyznają właścicielom technologii i metodologiom wyłączne prawo do ich użytkowania przez określony czas, co wpływa na dostępność danych wykorzystywanych do trenowania modeli. Użytkowanie danych, zwłaszcza tych objętych prawami autorskimi, może stanowić barierę dla mniejszych firm, które nie mają zasobów na wykupienie licencji na dostęp do takich zbiorów danych. W rezultacie większe podmioty, posiadające kontrolę nad danymi objętymi prawami autorskimi, mają przewagę na rynku, co może skutkować ograniczeniem konkurencji.

Obecnie toczy się wiele spraw sądowych związanych z wykorzystaniem danych bez zgody ich właścicieli, jak ma to miejsce w przypadku procesu sądowego New York Times przeciwko OpenAI i Microsoft. Ponadto istnieje niepewność co do tego, jak wykorzystywanie ogólnie dostępnych danych wpłynie na możliwe naruszenia praw autorskich, co może mieć istotne konsekwencje dla dalszego rozwoju rynku.

Rozważając model komercjalizacji GenAI, warto zwrócić uwagę na różnorodne metody wprowadzania modeli na rynek. Wśród nich znajdują się takie jak subskrypcje, licencjonowanie czy usługi doradcze. Modele zamknięte, które mogą być łatwo zintegrowane z istniejącymi produktami, tworzą nowe usługi lub oferują AI jako usługę, a dostęp do nich odbywa się przez interfejsy API. Z kolei modele otwarte przyczyniają się do rozwoju ekosystemu, umożliwiając innowację w laboratoriach AI, hubach modeli czy wydaniach niekomercyjnych.

Z kolei istotnym wyzwaniem, które pojawia się na poziomie aplikacji, jest konieczność zapewnienia interoperacyjności między różnymi rozwiązaniami. Modele sztucznej inteligencji, w tym GenAI, tworzą pozytywne pętle sprzężenia zwrotnego – im więcej użytkowników korzysta z modelu, tym lepsze dane do jego trenowania, co z kolei podnosi jakość samego modelu. Zjawisko to może powodować, że mniejsze firmy, które nie mają dostępu do dużych baz danych, będą miały trudności z utrzymaniem konkurencyjności na rynku.

Chociaż wprowadzenie rozwiązań prawnych wspierających otwarte modele może poprawić przejrzystość i innowacyjność w branży, istotne będzie także monitorowanie, jak rozwijające się modele zamknięte, które korzystają z zamkniętych baz danych, mogą wpłynąć na strukturę rynku i konkurencję w dłuższej perspektywie.

Jak ochrona konsumentów w erze cyfrowej staje się coraz bardziej skomplikowana?

Jeżeli firma nie polega na ogólnych statystykach, ale tworzy spersonalizowany profil jednostki, a jej działania nie są skierowane do szerokiego odbiorcy, lecz do konkretnej osoby, pojęcie średniego konsumenta staje się nieefektywne. W takich warunkach manipulacje komercyjne powinny być analizowane z perspektywy pojedynczego, wybranego konsumenta, a nie przez pryzmat "średniego" konsumenta. Wprowadzenie tego podejścia pozwala na bardziej precyzyjne rozpoznanie możliwych nieuczciwych praktyk handlowych, które mogą wystąpić w sytuacjach zindywidualizowanych, a nie w standardowych przypadkach opartej na statystyce średniej. Ochrona użytkowników powinna wówczas uwzględniać ich specyficzne potrzeby, a nie szablonowe podejście, które nie odnosi się do indywidualnych okoliczności.

Dodatkowo, obecność wyraźnej pisemnej zgody konsumenta zmienia sposób rozpatrywania takich manipulacji w kontekście norm prawa ochrony konsumentów. W przypadkach, gdzie zgoda wyrażona jest świadomie i dobrowolnie, próg "przeciętnego konsumenta" przestaje być miarodajnym kryterium do oceny zgodności z obowiązującymi regulacjami. To wskazuje na istotne różnice w podejściu do ochrony konsumentów w zależności od tego, czy mamy do czynienia z osobą, która świadomie zgodziła się na dane warunki, czy też nie była w pełni świadoma manipulanckich praktyk firmowych.

Unia Europejska uznała istnienie manipulacji komercyjnych (CM, Commercial Manipulation) i zaczęła chronić użytkowników nie tylko za pomocą przepisów GDPR (Ogólne rozporządzenie o ochronie danych osobowych), ale również poprzez inne regulacje dotyczące ochrony konsumentów. W ramach UCPD (Dyrektywa w sprawie nieuczciwych praktyk handlowych) niektóre zastosowania praktyk manipulacyjnych mogą zostać uznane za niezgodne z prawem, ale tylko pod pewnymi warunkami. Ochrona ta dotyczy konsumentów, którzy padli ofiarą presji lub oszustwa, lub którzy zostali wprowadzeni w błąd przez specyficzne praktyki stosowane przez przedsiębiorstwa. Jednakże, niektóre formy CM, szczególnie te odnoszące się do e-papierosów, pozostają poza zasięgiem UCPD, co może powodować luki w ochronie prawnej.

Również w zakresie AIA (Akt o Sztucznej Inteligencji) dostrzega się możliwość dalszej ochrony przed manipulacjami cyfrowymi, w tym także tymi związanymi z przetwarzaniem danych użytkowników, co zostanie omówione w kolejnych częściach tego opracowania.

Warto także zwrócić uwagę na Digital Services Act (DSA), który wszedł w życie 1 listopada 2022 roku i zaczął obowiązywać w pełni od 17 lutego 2024 roku. DSA koncentruje się na platformach internetowych i sieciach społecznościowych, które umożliwiają konsumentom zawieranie umów na odległość z przedsiębiorcami. DSA ma na celu stworzenie bezpiecznego, przewidywalnego i godnego zaufania środowiska online, z uwzględnieniem informacji i treści internetowych. W artykule 25 DSA porusza kwestie tzw. "ciemnych wzorców" (dark patterns), które odnoszą się do praktyk manipulacyjnych na platformach internetowych. W szczególności, artykuł ten zabrania projektowania i organizowania interfejsów użytkownika w sposób, który wprowadza w błąd, manipuluje lub w inny sposób zniekształca zdolność użytkowników do podejmowania swobodnych i świadomych decyzji. Jednakże przepisy te nie odnoszą się do reklam, które są zgodne z prawem UE, ani do praktyk marketingowych, które mieszczą się w granicach UCPD lub GDPR. Warto zauważyć, że DSA stosuje się tylko do platform internetowych, takich jak sieci społecznościowe, platformy dzielenia treści czy sklepy internetowe, co może powodować pewne luki w zakresie jego zastosowania w kontekście manipulacji konsumenckich.

Należy również zwrócić uwagę, że niektóre przepisy DSA, takie jak te dotyczące obowiązku udostępniania informacji na temat kryteriów personalizacji usług (artykuł 26), mogą okazać się nieskuteczne w zapobieganiu manipulacjom. Przekazywanie użytkownikom informacji na temat wykorzystywanych algorytmów personalizacji nie jest wystarczającym środkiem ochrony przed szkodliwymi praktykami. Istnieje także wyjątek w stosunku do małych i mikroprzedsiębiorstw, które nie muszą stosować zasad DSA, co może stwarzać pole do nadużyć w tej grupie.

Wreszcie, Digital Markets Act (DMA) reguluje funkcjonowanie tzw. "bramkarzy" (gatekeepers) na rynku cyfrowym, czyli dużych przedsiębiorstw kontrolujących kluczowe usługi platformowe, takie jak wyszukiwarki internetowe czy asystenci wirtualni. Artykuł 1 DMA wskazuje, że celem tego aktu jest zapewnienie uczciwego i sprawiedliwego funkcjonowania rynku wewnętrznego, gdzie dominujący gracze mają odpowiedzialność za równy dostęp do swoich usług. Jednak DMA ma swoje ograniczenia, gdyż nie obejmuje wszystkich przedsiębiorstw, a tylko te, które mają znaczący wpływ na rynek. To może prowadzić do nierówności, zwłaszcza gdy mniejsze platformy mogą stosować manipulacyjne praktyki bez ryzyka sankcji.

W kontekście opisanych przepisów, istotnym wyzwaniem pozostaje konieczność skutecznej weryfikacji działań przedsiębiorstw, które mogą wykorzystywać dane użytkowników do manipulacji ich decyzjami zakupowymi. Bez dokładniejszych regulacji i mechanizmów egzekwowania prawa, odpowiednia ochrona konsumentów będzie wciąż w wielu przypadkach iluzoryczna, a mechanizmy ochrony danych osobowych wciąż pozostaną niekompletne.