Rynki wielostronne, w których funkcjonują modele sztucznej inteligencji (AI), są zjawiskiem o dużym znaczeniu dla współczesnej gospodarki cyfrowej. Zyskują one na wartości w miarę przyłączania się kolejnych uczestników, co tworzy samonapędzającą się pętlę: większa liczba użytkowników przyciąga więcej dostawców usług, co z kolei przyciąga kolejnych użytkowników. W ten sposób tworzy się silna przewaga konkurencyjna dla firm, które dominują w takich rynkach, gdyż im większa sieć, tym cenniejsza staje się platforma. Efekt sieciowy, choć może obniżać bariery wejścia i sprzyjać konkurencji, prowadzi także do koncentracji rynku i problemów związanych z nadmierną regulacją.

Przykładem jest wprowadzenie technologii AI do produktów Microsoftu, takich jak Copilot w pakiecie Microsoft 365. Integracja AI wzmacnia wartość tych produktów, przyciągając nowych użytkowników, a tym samym zwiększając konkurencyjność w obszarze rozwoju aplikacji opartych na AI. W tym kontekście firmy dominujące, takie jak Microsoft, korzystają z efektów sieciowych, aby poprawić zaangażowanie użytkowników i przyciągnąć reklamodawców, co czyni rynek trudnym do sforsowania przez mniejszych graczy.

Jednak efekty sieciowe na rynku AI nie ograniczają się tylko do interakcji między użytkownikami i dostawcami usług. Istnieje także wymiar danych i modeli, który jest równie istotny. Przykładowo, dane generowane przez użytkowników podczas interakcji z modelami AI mogą być wykorzystywane do dalszego treningu i udoskonalania tych modeli, co sprawia, że stają się one bardziej precyzyjne i efektywne. Firmy, które posiadają dostęp do dużych zbiorów danych, mogą wykorzystywać je do ulepszania swoich produktów, co stanowi dodatkową barierę wejścia dla nowych konkurentów, którzy nie dysponują podobnym zapleczem informacyjnym.

Zjawisko ekonomii skali w rynkach cyfrowych jest równie znaczące. Przykładem może być sytuacja, w której firma taka jak Microsoft, aktualizując program Word dla 100 milionów użytkowników, ponosi niemal te same koszty, co przy aktualizacji dla 1 miliona użytkowników. Dzięki temu mogą one inwestować w rozwój technologii i oferować konkurencyjne ceny, co utrudnia nowym firmom wchodzenie na rynek. Ekonomia skali pozwala firmom cyfrowym na szybki rozwój i przyciąganie użytkowników, którzy korzystają z coraz bardziej zaawansowanych i zróżnicowanych produktów, zwiększając tym samym wartość całego ekosystemu.

To, co wyróżnia współczesne rynki, to także obecność zjawiska ekonomii zakresu. Firmy cyfrowe, działając na wielu rynkach jednocześnie, wykorzystują dane z jednego obszaru do poprawy swoich usług w innych. W ten sposób mogą zdobywać przewagę konkurencyjną, oferując lepsze produkty lub usługi, które są bardziej dostosowane do potrzeb użytkowników. Dzięki większej bazie danych i bardziej zaawansowanym algorytmom firmy te są w stanie dostarczać bardziej spersonalizowane doświadczenia, co przyciąga nowych klientów i zwiększa lojalność tych już istniejących.

Warto również zauważyć, że cyfrowe platformy często działają na zasadzie wielostronności, co oznacza, że istnieje interakcja pomiędzy wieloma stronami rynku. Na przykład, w przypadku narzędzi generatywnej sztucznej inteligencji, takich jak systemy do pisania treści, użytkownicy mogą korzystać z nich w połączeniu z systemami zarządzania treścią lub platformami publikacyjnymi, co dodaje wartość do samego narzędzia. W ten sposób powstaje dodatkowa warstwa wartości, którą trudno uzyskać w przypadku tradycyjnych modeli biznesowych.

Z perspektywy regulacyjnej, rynki cyfrowe, na których funkcjonują efekty sieciowe i gospodarka skali, mogą sprzyjać monopolizacji. Istnieje obawa, że duże platformy mogą wykorzystywać swoją dominującą pozycję, aby stłumić innowacje i eliminować mniejszych konkurentów. Na rynku AI pojawiają się też wyzwania związane z ryzykiem niezamierzonego ujawnienia poufnych danych lub sekretów handlowych, szczególnie gdy systemy AI uczą się na podstawie danych dostarczanych przez użytkowników. Tego rodzaju problemy mogą prowadzić do niebezpiecznych sytuacji, w których przedsiębiorstwa zaczynają dostosowywać swoje praktyki biznesowe na podstawie wspólnych danych z branży, co może przypominać formę zmowy.

Problematyczne może być również tworzenie się tzw. jednolitego zachowania rynkowego, gdzie firmy zaczynają dostosowywać się do wspólnych standardów i praktyk, zacierając różnice konkurencyjne. Takie zjawisko może prowadzić do stagnacji rynku, co w dłuższym okresie może wyeliminować zdrową konkurencję. Co istotne, zmowa tego rodzaju jest trudna do wykrycia, ponieważ nie wiąże się z bezpośrednimi umowami czy komunikacją między konkurentami – jest to jedno z wyzwań, z którym muszą zmierzyć się instytucje nadzoru antymonopolowego.

Współczesne rynki cyfrowe, zwłaszcza te związane z technologiami AI, wymagają nowoczesnych narzędzi regulacyjnych, które będą w stanie wyważyć potrzebę innowacji z ochroną zdrowej konkurencji. W przeciwnym razie rynek będzie zmierzał ku koncentracji w rękach kilku potężnych graczy, co zablokuje innowacyjność i uniemożliwi małym firmom rozwój.

Czy sztuczna inteligencja zmieni sposób podejmowania decyzji w zarządach korporacji?

Coraz większe zastosowanie sztucznej inteligencji (AI) w procesach decyzyjnych zarządów może zmienić oblicze zarządzania korporacjami na całym świecie. Kilka lat temu, amerykańscy eksperci prawa korporacyjnego, Stephen Bainbridge i M. Todd Henderson, zaproponowali pomysł wprowadzenia specjalnych organizacji, które miałyby nadzorować użycie AI w podejmowaniu decyzji w przedsiębiorstwach. W ich wizji, takie agencje, nazwane przez nich „dostawcami usług zarządu” (BSP), miałyby nie tylko zwiększyć efektywność i odpowiedzialność zarządów, ale także poprawić przejrzystość ich działań i wpłynąć na lepszą wycenę dobrego zarządzania korporacyjnego na rynku.

Propozycja ta, choć z początku brzmiała interesująco, zyskuje na aktualności w świetle rosnącej obecności AI w zarządach. W obliczu skomplikowanych ryzyk związanych z wykorzystywaniem sztucznej inteligencji, zwłaszcza w kontekście prawnym, reputacyjnym i technicznym, większa specjalizacja i wykorzystanie mieszanki ludzkich ekspertów oraz narzędzi opartych na generatywnej AI pod nadzorem profesjonalnych BSP może okazać się wartościowym rozwiązaniem. Choć takie podejście z pewnością będzie odpowiednie dla dużych korporacji międzynarodowych, może okazać się także korzystne dla mniejszych i średnich firm, które nie dysponują dostępem do bardziej zaawansowanych doradców.

Warto dodać, że w wielu jurysdykcjach konieczne będzie zmienienie prawa, aby uwzględniało ono możliwość powoływania nieludzkich członków zarządu, co wciąż budzi kontrowersje. Niemniej, w miejscach, gdzie takie organizacyjne struktury są dozwolone, pod warunkiem zapewnienia nadzoru człowieka, model ten może stanowić istotny krok w przyszłość. Wydaje się, że w takich przypadkach jedynie jeden BSP na zarząd będzie wystarczający, aby uniknąć konfliktów i paraliżu decyzyjnego, choć w sytuacjach bardziej złożonych transakcji można by rozważyć zaangażowanie dodatkowego BSP jako opinii doradczej.

Przewidujemy, że rola AI w zarządach, choć wymaga ludzkiego nadzoru i odpowiedzialności, może w przyszłości stać się standardem. Niezbędne będzie jednak zapewnienie odpowiedniego nadzoru nad AI, zarówno przez ludzi, którzy będą zarządzać narzędziami AI, jak i przez specjalistów w zakresie ryzyka, którzy zapewnią odpowiedzialność i gwarancje w przypadku niepowodzeń w działaniu AI.

W miarę jak organizacje będą coraz częściej korzystać z narzędzi opartych na generatywnej sztucznej inteligencji, niezbędne będzie zaktualizowanie kodeksów etycznych i zasad funkcjonowania zarządów. Takie zmiany będą musiały odpowiadać na wyzwania prawne, etyczne i techniczne, które niesie za sobą wykorzystanie AI w podejmowaniu decyzji. Przykładem jest zmieniający się europejski framework AI, w szczególności wytyczne dotyczące odpowiedzialnego i przejrzystego wykorzystywania AI. Zgodnie z „Etycznymi Wytycznymi dla Zaufanej AI” opublikowanymi przez Grupa Ekspertów Wysokiego Szczebla ds. Sztucznej Inteligencji, liderzy firm muszą zapewnić, że AI wykorzystywana w ich organizacjach spełnia określone standardy przejrzystości, dobrobytu społecznego i środowiskowego, odpowiedzialności, a także zasady równości i przeciwdziałania dyskryminacji.

Zatem, aby AI stała się integralną częścią dobrego zarządzania korporacyjnego, niezbędne jest, by przedsiębiorstwa dostosowały swoje wewnętrzne dokumenty – kodeksy etyczne, zasady odpowiedzialności korporacyjnej, a także wskaźniki wydajności – do nowych realiów, jakie wiążą się z wykorzystaniem AI. Warto także podkreślić, że zrozumienie i wdrożenie zasad zaufanej sztucznej inteligencji powinno stać się częścią „tonu na szczycie” organizacji, a także struktury i procesów, które kierują korporacyjnym zarządzaniem.

W przyszłości wprowadzenie odpowiednich mechanizmów nadzoru nad sztuczną inteligencją będzie kluczowe dla zapewnienia odpowiedzialnego i zgodnego z etyką wykorzystania AI. W tym kontekście rola sztucznej inteligencji w procesach decyzyjnych zarządów i jej wpływ na długoterminowe cele korporacyjne staną się centralnym zagadnieniem dla globalnych regulacji prawnych i zasad dobrego zarządzania.