Optymalizacja portfela w kontekście wielu okresów (problem 10.93) zakłada, że optymalna polityka, która określa działania , jest polityką deterministyczną, która może być opisana przez rozkład prawdopodobieństwa przypominający funkcję delta, tzn. , gdzie to optymalne działanie uzyskane poprzez maksymalizację celu (10.93) względem kontroli . Jednak rzeczywiste dane handlowe mogą być suboptymalne lub szumne w pewnych momentach, z powodu takich czynników jak błędy modelu, opóźnienia w synchronizacji rynkowej, błędy ludzkie itp. Obecność takich suboptymalnych działań w danych stwarza poważne wyzwania, gdy zakładamy deterministyczną politykę, która sugeruje, że wybrane działanie jest zawsze optymalne. W takim przypadku, jeśli dane zawierają takie zdarzenia, to ich prawdopodobieństwo powinno wynosić zero, co prowadzi do zaniku prawdopodobieństwa trajektorii.
Zamiast zakładać deterministyczną politykę, bardziej użyteczne są polityki stochastyczne, opisane przez wygładzone rozkłady , które są bardziej odpowiednie w problemach odwrotnych, takich jak odwrotna optymalizacja portfela. W tym podejściu, zamiast maksymalizacji względem deterministycznej polityki/akcji , przekształcamy problem w maksymalizację względem rozkładów prawdopodobieństwa , co przedstawia równanie (10.97):
gdzie oznacza funkcję zysku. Dzięki uwzględnieniu kary kwadratowej za ryzyko w skorygowanym zysku, pierwotny problem optymalizacji zwrotu skorygowanego ryzykiem jest przekształcany w problem maksymalizacji oczekiwanego skumulowanego zysku w standardowym ustawieniu MDP (Model Markowowski Proces Decyzyjny), co sprawia, że problem staje się bardziej odpowiedni dla podejść neutralnych względem ryzyka w ramach MDP.
Podejście probabilistyczne do działań w handlu portfelem wydaje się na wielu poziomach bardziej naturalnym podejściem niż formalizm oparty na deterministycznych politykach. W rzeczywistości, nawet w najprostszym, jednoparentowym ustawieniu, ponieważ optymalne rozwiązanie Markowitza dla wag portfela jest funkcją estymowanych średnich cen akcji i kowariancji, są one w rzeczywistości zmiennymi losowymi. Niemniej jednak probabilistyczny charakter optymalizacji portfela nie jest uznawany w ustawieniach optymalizacji jednego lub wielu okresów Markowitza, takich jak (10.93). Z tego powodu proponowana została probabilistyczna formuła optymalizacji portfela w kontekście jednego okresu przez Marschinskiego i innych (2007).
Inną interesującą kwestią jest referencyjna polityka, która jest przyjmowana przed próbą optymalizacji portfela. Może to być polityka probabilistyczna, opracowana na podstawie modelu parametrycznego, danych historycznych itp. W tym przypadku przyjmuje się, że mamy do czynienia z prostą polityką Gaussa, opisaną wzorem:
gdzie jest polityką deterministyczną, wybraną jako funkcja liniowa wektora stanu : . Takie podejście z wykorzystaniem rozkładu Gaussa pozwala na zaktualizowanie parametrów polityki w kolejnych iteracjach, co daje możliwość dostosowania jej do zmieniających się warunków rynkowych. Warto zauważyć, że dobór parametrów w takim podejściu może odbywać się iteracyjnie, co pozwala na uzyskanie coraz lepszej polityki w czasie.
Znaczącym krokiem w rozwiązywaniu takich problemów jest równanie optymalności Bellmana, które dla tej stochastycznej polityki wygląda następująco:
gdzie to współczynnik dyskontujący, a to wartość stanu . To równanie pozwala na obliczenie optymalnej polityki, która jest najlepsza w kontekście maksymalizacji oczekiwanego zysku w kolejnych okresach, biorąc pod uwagę ryzyko i inne zmienne.
Istotnym rozszerzeniem tej koncepcji jest wprowadzenie regularizacji entropii do równania optymalności Bellmana. Taki zabieg umożliwia uwzględnienie kosztów informacji związanych z wyborem polityki stochastycznej, które mogą wprowadzać dodatkowe błędy, szczególnie w warunkach rynkowych, gdzie dane mogą być szumne. Funkcja swobodnej energii , uwzględniająca koszt informacji, pozwala na uzyskanie bardziej stabilnych wyników w sytuacjach, gdy model nie jest doskonały:
gdzie kontroluje balans pomiędzy optymalizacją zysku a bliskością do polityki referencyjnej.
Podsumowując, optymalizacja stochastyczna w kontekście portfela inwestycyjnego pozwala na elastyczniejsze i bardziej realistyczne podejście do podejmowania decyzji inwestycyjnych, uwzględniając niepewność i zmienność rynków finansowych. Zastosowanie takich technik, w tym regularizacji entropii, może przyczynić się do bardziej odpornych i dokładnych polityk inwestycyjnych, które będą lepiej dostosowane do rzeczywistego, chaotycznego środowiska rynkowego.
Jak procesy Gaussa mogą zrewolucjonizować modelowanie instrumentów finansowych?
Zastosowanie procesów Gaussa (GP) w modelowaniu instrumentów pochodnych na rynku finansowym stało się coraz bardziej popularne, szczególnie w kontekście optymalizacji portfeli, wyceny opcji oraz analizy ryzyka. Przesunięcie ku tym technologiom, zainspirowane głównie chęcią uzyskania bardziej precyzyjnych wyników w złożonych obliczeniach, może stanowić przełom w tradycyjnym podejściu do analizy rynków. Z perspektywy matematycznej, procesy Gaussa oferują elastyczność i głębsze zrozumienie niepewności, której często brakuje w klasycznych metodach ekonometrycznych.
W kontekście prognozowania szeregów czasowych w finansach, procesy Gaussa stanowią rozszerzenie znanych metod, takich jak AR(p), które w swojej dyskretnej wersji odpowiadają modelom GP. W szczególności, procesy AR(p) są określone przez klasy funkcji kowariancji, zwane funkcjami kowariancji Matérna. Dzięki tej zależności, procesy Gaussa można uznać za nienormatywne rozszerzenie tradycyjnych metod estymacji ekonomicznych. Wykorzystanie GP pozwala na uzyskanie szerszego obrazu ryzyka oraz na bardziej zaawansowaną optymalizację portfeli finansowych, co zostało udowodnione m.in. przez da Barrosa et al. (2016), którzy zastosowali GP do optymalizacji portfeli aktywów finansowych.
Z kolei, w pracy Liu i Staum (2010) zaproponowano metodę GP do obliczeń strat oczekiwanych w portfelach finansowych, gdzie GP wykorzystywane są do wnioskowania o wartościach portfela w scenariuszach na podstawie symulacji wewnętrznych. Tego typu podejście pozwala na znaczną redukcję kosztów obliczeniowych, unikając konieczności przeprowadzania symulacji dla każdej z możliwych sytuacji. Podejście to w pełni uwzględnia również zmienność wynikającą z symulacji wewnętrznych, co stanowi istotny element w analizie ryzyka. Jednakże, pozostaje ono ograniczone do statycznych portfeli, co może stanowić pewną barierę w kontekście dynamicznych rynków finansowych.
W przypadku bardziej zaawansowanego modelowania ryzyka, np. w analizie ryzyka rynkowego i kredytowego, Crépey i Dixon (2020) zastosowali metodę multi-GP, która pozwala na przewidywanie cen instrumentów pochodnych w kontekście portfeli. Przy takim podejściu, modelowanie ryzyka staje się bardziej precyzyjne, gdyż procesy Gaussa mogą być zastosowane do analizy niepewności w wycenie wielu instrumentów finansowych jednocześnie. Dzięki temu możliwe jest uwzględnienie zmienności w prognozach wartości portfela, co jest szczególnie istotne przy analizy ryzyka kredytowego i rynkowego w zmieniających się warunkach.
Jeśli chodzi o wycenę instrumentów pochodnych, spostrzeżenie Spiegeleera et al. (2018) wskazuje, że wiele obliczeń związanych z wyceną złożonych instrumentów jest do siebie podobnych. W szczególności warunki rynkowe wpływające na instrumenty OTC rzadko kiedy zmieniają się w sposób drastyczny, a zmiany te często mają charakter liniowy, np. w odniesieniu do stóp procentowych. W związku z tym, w celu szybszej wyceny instrumentów pochodnych, oszacowania greckich parametrów oraz hedgingu, Spiegeleer et al. proponują wykorzystanie procesów Gaussa w regresji. Metoda ta polega na przygotowaniu zbioru treningowego na siatce punktów, a następnie interpolacji wyników na punktach testowych. Pomimo że ta technika zależy od modeli wyceny opcji, a nie tylko od danych rynkowych, stanowi szybszą alternatywę dla tradycyjnych metod wyceny, takich jak symulacje Monte Carlo. W szczególności w badaniach Spiegeleera et al. (2018) zaobserwowano przyspieszenie procesu wyceny w porównaniu do klasycznych metod symulacyjnych, przy zachowaniu akceptowalnego poziomu dokładności.
Procesy Gaussa oferują również większą elastyczność w porównaniu do klasycznych metod interpolacji, takich jak interpolacja za pomocą splajnów sześciennych, popularnej metody numerycznej wykorzystywanej w szybkich estymacjach punktowych. Jednakże, badania te dotyczą głównie wyceny pojedynczych instrumentów i nie uwzględniają pełnego modelowania ryzyka. W tym kontekście, zastosowanie multi-GP jest bardziej zaawansowaną metodą, która umożliwia dokładniejsze modelowanie niepewności związanej z wyceną wielu instrumentów finansowych w obrębie portfela.
Wielką zaletą procesów Gaussa w porównaniu do tradycyjnych metod interpolacji jest ich zdolność do wyrażania niepewności w przewidywaniach. Podczas gdy tradycyjne podejścia, takie jak sieci neuronowe, zwracają jedynie punktowe estymacje, procesy Gaussa pozwalają na modelowanie pełnej rozkładu prawdopodobieństwa, co jest nieocenione przy prognozowaniu cen instrumentów pochodnych czy ryzyka kredytowego. Oczywiście, w praktyce model taki może zostać odrzucony, jeśli przewidywana niepewność przekroczy akceptowalny poziom, co skutkuje koniecznością przeprowadzenia ponownego treningu modelu lub pełną repricingiem instrumentu.
Dodatkowo, warto zauważyć, że jednym z kluczowych elementów skutecznego wykorzystania procesów Gaussa jest odpowiednia kalibracja hiperparametrów jądra, co jest niezbędne do uzyskania dokładnych wyników. Proces ten wiąże się z optymalizowaniem prawdopodobieństwa marginalnego danych względem modelu oraz nauką odpowiednich wartości hiperparametrów jądra, co w kontekście finansów może zapewnić lepsze dopasowanie do rzeczywistych danych rynkowych.
Jak zastosować głębokie autoenkodery do analizy krzywej dochodowości i innych złożonych danych?
Analiza składników głównych (PCA) jest jednym z najpopularniejszych narzędzi stosowanych w redukcji wymiarowości danych. Celem tej techniki jest znalezienie takich osi, które maksymalizują wariancję w danych, przekształcając je w zbiór niezależnych komponentów, które są wykorzystywane do dalszej analizy. Przy tradycyjnym zastosowaniu PCA, komponenty są uporządkowane według malejącej wariancji. Na przykład, w przypadku przekształcenia danych z krzywej dochodowości, pierwsza składowa może reprezentować przesunięcie równoległe (tzw. parallel shift), druga tzw. twist (skręt), a trzecia tzw. curvatura (wzór podobny do motyla).
Podobnie jak PCA, autoenkodery również mają na celu redukcję wymiarowości danych, ale różnią się tym, że są oparte na sztucznych sieciach neuronowych i umożliwiają bardziej elastyczne, nieliniowe transformacje. Pierwszy etap autoenkodera, w którym dane są kompresowane do mniejszej przestrzeni, może przypominać proces PCA, zwłaszcza gdy wykorzystuje się autoenkoder liniowy. W takim przypadku, jeśli stosujemy waga w pierwszej warstwie autoenkodera (W(1)), wyniki w pierwszej m składowej będą analogiczne do wektorów obciążenia PCA. Jednakże, w przypadku głębszych autoenkoderów, proces ten staje się bardziej nieliniowy i bardziej złożony.
Wykorzystanie głębokich autoenkoderów w kontekście analizy krzywej dochodowości przynosi korzyści w postaci dokładniejszego modelowania zmienności portfela. W tej metodzie autoenkodery uczą się kompresować dane historyczne, tworząc „głębokie czynniki”, które wyjaśniają zmienność w portfelu lepiej niż klasyczne PCA czy czynniki fundamentalne. Takie podejście może być stosowane w celu przewidywania przyszłych dochodów z aktywów, jednocześnie zmniejszając błąd rekonstrukcji danych. Przykładem zastosowania takich modeli w finansach jest praca Heaton et al. (2017), gdzie zaprezentowano metodę wykorzystania głębokich autoenkoderów do modelowania czynników akcji w portfelach inwestycyjnych.
Warto zauważyć, że tradycyjne modele statystyczne, takie jak PCA, mogą być stosunkowo łatwe do implementacji, ale w przypadku głębokich autoenkoderów napotykamy na szereg wyzwań związanych z interpretowalnością tych modeli. Chociaż autoenkodery nieliniowe mogą dostarczyć bardzo precyzyjnych prognoz, ich zrozumienie i wdrożenie w strategiach inwestycyjnych bywa trudne. Nieliniowość tych modeli może bowiem skutkować dużymi trudnościami w interpretacji wyników, co jest szczególnie istotne w kontekście podejmowania decyzji inwestycyjnych.
Z drugiej strony, istnieje możliwość przejścia na modele oparte na głębokich autoenkoderach z aktywacją ReLU, co pozwala na interpretację wyników jako składników finansowych, które można by teoretycznie handlować. Tego rodzaju podejście mogłoby otworzyć nowe możliwości inwestycyjne i hedgingowe, dzięki wykorzystaniu głębokich czynników jako opcji finansowych.
Kiedy wprowadzamy głębokie autoenkodery w analizie danych finansowych, w tym w kontekście analizy krzywej dochodowości, warto pamiętać, że każda metoda posiada swoje ograniczenia. Nawet jeśli autoenkodery dają lepsze wyniki w zakresie dokładności prognoz, to ich interpretowalność oraz możliwość zastosowania w rzeczywistych warunkach rynkowych pozostaje kwestią do dalszego badania. Kluczowym elementem jest również zdolność do zastosowania tych technik w inwestycjach i zabezpieczeniach finansowych. Tradycyjne metody, jak PCA, pozostaną ważne, ale głębokie autoenkodery dają szansę na bardziej zaawansowane i elastyczne podejście, które może zrewolucjonizować sposób, w jaki analizujemy i prognozujemy zmienność w finansach.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский