Rozwój metod sztucznej inteligencji (SI) oraz uczenia maszynowego (ML) stanowi przełom w obszarze analizy i prognozowania dużych, złożonych zbiorów danych. Zastosowanie tych technologii w finansach, ekonomii i innych dziedzinach nauk społecznych nie tylko ułatwia, ale wręcz rewolucjonizuje sposoby rozwiązywania problemów, które wcześniej były poza zasięgiem tradycyjnych narzędzi ekonometrycznych. Współczesne dane, charakteryzujące się wysoką wymiarowością i skomplikowanymi strukturami interakcji, wymagają nowych podejść w analizie, które wykraczają poza klasyczne modele regresji liniowej i statystyki.
Przykładów takich zmian jest wiele. Na przykład, w obecności p cech (zmiennych) może wystąpić aż do efektów interakcji, co szybko prowadzi do ogromnych, trudnych do przeanalizowania zbiorów danych. Dla zaledwie dziesięciu cech, liczba takich interakcji wynosi już 1,013. Tradycyjne modele ekonometryczne nie są w stanie „nauczyć się” struktury danych w sposób, w jaki robią to algorytmy ML. W rezultacie, wiele ważnych efektów interakcji może zostać pominiętych, co skutkuje błędnymi prognozami. Klasycznym przykładem jest sytuacja, gdy model ekonometryczny nie uwzględnia interakcji pomiędzy dwoma zmiennymi i , co w praktyce prowadzi do znacznych błędów w przewidywaniach. Natomiast algorytm ML, jak na przykład drzewo decyzyjne, potrafi rozbić złożone zależności na prostsze, łatwiejsze do analizy podzbiory, co pozwala na uzyskanie lepszych wyników w prognozach.
Z kolei w obszarze wyceny aktywów i modelowania premii ryzyka, postęp w stosowaniu metod uczenia maszynowego otworzył nowe możliwości w analizie różnorodnych „czynników” opisujących oczekiwane zwroty z aktywów. Na przykład, badania prowadzone przez Harvey’ego i innych (2016), które analizowały 316 czynników, pokazały, jak szerokie i złożone mogą być zmienne charakteryzujące rynek. Modele ML potrafią wykorzystywać coraz bogatsze zbiory cech firmowych, umożliwiając bardziej precyzyjne modelowanie dynamiki rynku i lepsze prognozy w kontekście zmian w oczekiwanych zwrotach.
Technologie te znalazły także zastosowanie w nowych obszarach finansów, takich jak fintech. Oparta na danych rewolucja w tej dziedzinie przyniosła szereg innowacji, w tym kryptowaluty i blockchain, systemy doradztwa i handlu cyfrowego, a także peer-to-peer lending czy crowdfunding. Te nowoczesne rozwiązania zmieniają oblicze tradycyjnych usług finansowych, oferując zarówno nowe możliwości, jak i wyzwania w zakresie analizy ryzyka. Przykładem może być analiza zachowań konsumentów, którzy w obliczu nowych technologii podejmują decyzje w sposób coraz bardziej nieprzewidywalny, co sprawia, że konieczne staje się traktowanie pewnych aspektów systemów jako „czarnych skrzynek”. W takich przypadkach przewidywanie zachowań staje się kluczowym elementem projektowania usług i zarządzania ryzykiem.
Innowacją wartą uwagi w kontekście fintech jest również rozwój tzw. robo-doradców, którzy oferują porady finansowe z minimalną interwencją człowieka. Choć początkowo skupiali się głównie na zarządzaniu portfelem inwestycyjnym, dziś w coraz większym stopniu wykorzystują algorytmy uczenia maszynowego do personalizacji usług, oferując lepsze dopasowanie do potrzeb indywidualnych inwestorów. Tego rodzaju usługi zmieniają podejście do inwestowania, eliminując wiele tradycyjnych barier i umożliwiając dostęp do złożonych strategii inwestycyjnych szerszemu gronu odbiorców.
Wykorzystanie SI w detekcji oszustw finansowych to kolejny obszar, w którym technologia ma znaczący wpływ. Na przykład w 2011 roku oszustwa w przemyśle finansowym kosztowały około 80 miliardów dolarów rocznie, a według badania PwC z 2016 roku, 46% firm z sektora usług finansowych doświadczyło przestępstw gospodarczych. W tym kontekście uczenie maszynowe okazało się niezwykle skuteczne w wykrywaniu nieprawidłowości, w tym cyberprzestępczości i manipulacji rynkowych. Coraz częściej stosowane są technologie takie jak głębokie uczenie (deep learning), które wykorzystywane są do przeciwdziałania oszustwom na rynkach finansowych.
Wreszcie, jednym z najbardziej rewolucyjnych obszarów jest blockchain, który stał się podstawą dla kryptowalut takich jak Bitcoin. Blockchain, jako rozproszona baza danych umożliwiająca bezpieczne i anonimowe transakcje, zmienia fundamenty tradycyjnych systemów finansowych. Dzięki swojej przejrzystości i strukturze opartych na grafach transakcji, pozwala na analizę przepływów informacji w czasie rzeczywistym. Takie podejście stwarza zupełnie nowe możliwości w zakresie analizy ryzyka inwestycyjnego i prognozowania przyszłych zwrotów w kontekście aktywów cyfrowych. Nowa forma finansowej ekonometrii, bazująca na analizie topologicznych struktur sieci w blockchainie, stanowi przykład nowatorskiego podejścia do problemów analitycznych.
Sztuczna inteligencja i uczenie maszynowe przynoszą zatem szereg korzyści, ale też stawiają przed nami nowe wyzwania. Umiejętność wykorzystania tych technologii w kontekście finansów wymaga zarówno zaawansowanej wiedzy teoretycznej, jak i praktycznych umiejętności w pracy z dużymi zbiorami danych. Ważne jest, aby w obliczu tych technologii nie zapominać o fundamentalnych zasadach zarządzania ryzykiem i etyki, ponieważ nieodpowiednie użycie algorytmów może prowadzić do nieprzewidywalnych i potencjalnie szkodliwych efektów.
Jakie są granice wariancji w modelach neuronowych i jak je wykorzystać w praktyce?
Granice odchyleń w przypadku eksperymentów Bernoulliego, gdzie każda próba jest niezależna i ma oczekiwaną wartość , zostały opracowane w ramach tzw. granic Chernoffa. Granice te mają na celu określenie prawdopodobieństwa, że wartość zmiennej losowej przekroczy średnią o określoną wielkość. Dla dużych odchyleń (tzw. obszary ogonowe rozkładu) granice Chernoffa mogą wyglądać następująco:
Te granice są przydatne do analizy zachowań zmiennych w przypadku dużych odchyleń, ale należy pamiętać, że ich zastosowanie jest ograniczone do regionów ogonowych rozkładu, co sprawia, że w praktyce mogą one być stosunkowo słabe.
Z perspektywy praktycznej, ważne jest, by dla danych wejściowych o niskiej wariancji i małych odchyleniach te granice nie były zbyt przydatne, ponieważ nie oferują one szczegółowych informacji o zachowaniu modelu w bardziej typowych przypadkach. W kontekście modeli neuronowych, te granice pozwalają jednak na kontrolowanie ryzyka związane z nadmiernymi odchyleniami, co jest istotne w problemach takich jak klasyfikacja czy regresja.
Dalsze badania nad tymi granicami pokazują, że ich dokładność zwiększa się, gdy liczba jednostek ukrytych w sieci neuronowej rośnie, a rozkład wag i biasów w sieci stabilizuje się. W przykładzie symulacyjnym opartym na modelu liniowym, nawet przy użyciu nieliniowej sieci neuronowej, wyniki składają się w sposób spójny z oczekiwaniami modelu liniowego. Warto zauważyć, że z biegiem czasu, w miarę zwiększania liczby ukrytych jednostek w sieci, przedziały ufności dla oszacowanych wrażliwości stają się coraz bardziej precyzyjne.
Modelowanie wrażliwości w sieciach neuronowych umożliwia uzyskanie wartości parametrów, które odpowiadają klasycznym modelom, takim jak estymatory OLS. W przypadku, gdy dane pochodzą z nieliniowego modelu, te wartości mogą się różnić, co wskazuje na zmiany w strukturze danych. Niemniej jednak, zastosowanie podejścia opartego na sieciach neuronowych w porównaniu do tradycyjnych metod estymacji pozwala na elastyczność w modelowaniu i przewidywaniu, co jest szczególnie cenne w analizie finansowej.
W modelu opisanym w sekcji dotyczącej modeli czynnikowych, jak np. model BARRA, wprowadza się zależności między zwrotami aktywów a fundamentalnymi czynnikami makroekonomicznymi. W tym modelu czynniki mogą obejmować cechy mikroekonomiczne, takie jak struktura finansowa firm, przynależność do branży czy orientacja wzrostowa. Takie modele pozwalają na uwzględnienie większej liczby zmiennych, co zwiększa ich precyzyjność w prognozowaniu.
W kontekście zaawansowanego modelowania, zastosowanie głębokiego uczenia w modelach czynnikowych pokazuje, jak sieci neuronowe mogą być wykorzystywane do przewidywania wyników rynkowych. W szczególności, rozszerzenie modelu liniowego na nieliniowy model czynnikowy za pomocą sieci neuronowych może poprawić jakość prognoz, zwłaszcza w sytuacjach, gdzie klasyczne podejścia nie dostarczają wystarczająco precyzyjnych wyników.
Warto zauważyć, że wybór odpowiedniej funkcji aktywacji ma kluczowe znaczenie. Zastosowanie funkcji ReLU w sieciach neuronowych w tym przypadku nie jest rekomendowane, ponieważ nie pozwala ona na jednoznaczną identyfikację współczynników interakcji i prowadzi do problemów z niestabilnością wariancji wrażliwości w miarę wzrostu liczby ukrytych jednostek. Funkcje aktywacji takie jak tanh czy sigmoid są lepszymi kandydatami, jeśli zależy nam na stabilności wyników.
Dalsza analiza pokazuje, że dla dużych zbiorów danych, takich jak w przypadku analizy 250 akcji z indeksu S&P 500, wytrenowane sieci neuronowe mogą wykorzystywać standardyzowane czynniki fundamentalne do poprawy jakości prognoz i umożliwić lepsze rozumienie czynników wpływających na wyniki finansowe aktywów. Standardyzacja tych danych pozwala na lepszą interpretację wyników, a także może pomóc w migracji do bardziej zaawansowanych modeli czynnikowych, gdy zależy nam na dokładniejszym zrozumieniu wpływu poszczególnych zmiennych.
W modelowaniu głębokim szczególnie ważne jest monitorowanie precyzji rozkładów wrażliwości, które z czasem stają się coraz bardziej skupione. Im więcej jednostek ukrytych w sieci, tym bardziej skoncentrowane stają się rozkłady wartości estymowanych wrażliwości, co wskazuje na poprawę stabilności modelu.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский