W świecie inwestycji finansowych często występuje sytuacja, w której podejmujemy decyzję o tym, czy kupić, czy sprzedać dany instrument, ale mamy mniejsze przekonanie co do tego, jak dużą część kapitału powinniśmy przeznaczyć na daną transakcję. Istnieją modele, które przewidują stronę transakcji, jednak mogą nie być optymalne w kwestii określenia jej rozmiaru. Często to, jak duży powinien być nasz zakład, powinno być funkcją wyników modelu w niedawno przeprowadzonych transakcjach, a niekoniecznie wynikiem predykcji dotyczącej strony transakcji. Dobry model ustalający wielkość zakładu jest niezwykle ważny.

Załóżmy, że posiadamy strategię inwestycyjną o precyzji wynoszącej 60% i czułości 90%. 90% czułości oznacza, że model poprawnie przewiduje dziewięć z dziesięciu prawdziwych możliwości inwestycyjnych. 60% precyzji oznacza, że spośród 100 przewidzianych okazji, 60 są trafne. Tego typu strategia, przy małych rozmiarach zakładów na 60 trafnych przewidywaniach i dużych na 40 fałszywych przewidywaniach, może zakończyć się stratą. Warto dodać, że inwestorzy nie mają (legitymowanego) wpływu na ceny, a kluczową decyzją, jaką mogą podjąć, jest odpowiednie określenie wielkości zakładu.

Meta-etykietowanie to technika, która może pomóc w unikaniu, a przynajmniej zmniejszaniu narażenia inwestora na fałszywe przewidywania. Polega ona na rezygnacji z części czułości na rzecz większej precyzji. Dodanie warstwy meta-etykietowania w modelu może skutkować zmniejszeniem czułości do 70%, ale z równoczesnym wzrostem precyzji do 70%, co z kolei może poprawić wskaźnik F1 modelu (średnia harmoniczna precyzji i czułości). Kluczowym celem meta-etykietowania jest trenowanie modelu wtórnego na wynikach predykcji modelu podstawowego, gdzie straty są oznaczane jako „0”, a zyski jako „1”. W takim przypadku model wtórny nie przewiduje strony transakcji, lecz przewiduje, czy model podstawowy odniesie sukces w przewidywaniu. Prawdopodobieństwo wynikające z przewidywania „1” może zostać następnie wykorzystane do określenia wielkości zakładu.

Ustalanie wielkości zakładu na podstawie oczekiwanego współczynnika Sharpe’a

Zakładając, że p jest przewidywaną prawdopodobnością osiągnięcia zysku w wysokości π (gdzie π > 0), a (1 - p) to prawdopodobieństwo osiągnięcia straty w tej samej wysokości, możemy oszacować oczekiwany zysk z inwestycji jako μ = π(2p - 1). Oczekiwana wariancja z tej inwestycji wynosi σ² = 4π²p(1 - p). Na tej podstawie możemy obliczyć współczynnik Sharpe’a, który mierzy stosunek oczekiwanego zysku do ryzyka. Współczynnik ten można następnie wykorzystać do ustalenia odpowiedniej wielkości zakładu, przy założeniu, że stosuje się rozkład Gaussa do rozkładu współczynnika Sharpe’a.

Ensemble Bet Sizing – Sizing zakładów z wykorzystaniem zespołu modeli

Jeśli mamy n klasyfikatorów meta-etykietowania, które dokonują binarnej predykcji dotyczącej rentowności transakcji (czyli czy transakcja będzie zyskowna, czy nie), możemy obliczyć średnią prognozę i jej odchylenie standardowe. Przewidywania te są rozproszone zgodnie z rozkładem Bernoulliego, a gdy liczba próbek n staje się wystarczająco duża, wyniki te konwergują do rozkładu Gaussa. Na tej podstawie, przy użyciu odpowiednich funkcji rozkładu t-Studenta, możemy obliczyć wielkość zakładu, którą należy przeznaczyć na daną transakcję.

Wyniki eksperymentalne

W eksperymentach z etykietowaniem trendów, tworzymy dane symulacyjne, takie jak losowy spacer Gaussa z nałożoną falą sinusoidalną. W ten sposób generujemy segmenty wykresu, które mogą przedstawiać różne trendy, co sprawia, że identyfikacja trendów staje się bardziej skomplikowana. Z pomocą algorytmu wykrywania trendów, etykiety są przypisane do tych segmentów, co ułatwia klasyfikację oraz prognozowanie rentowności na podstawie zidentyfikowanych trendów.

Z kolei metody takie jak metoda trend-scanning dają dokładniejszy obraz, wskazując nie tylko stronę, ale i siłę trendu w danym okresie. Warto zauważyć, że te informacje mogą zostać wykorzystane w modelach regresyjnych, a także jako wagi próbek w zadaniach klasyfikacyjnych.

Co należy zrozumieć w kontekście rozmiaru zakładu?

Chociaż algorytmy mogą przewidywać, która strona rynku będzie zyskowna, kluczowym zagadnieniem pozostaje to, jak duży zakład powinniśmy podjąć, aby zmaksymalizować zyski przy jednoczesnym minimalizowaniu ryzyka. W kontekście inwestycji, odpowiednie ustalenie wielkości zakładu jest bardziej istotne niż samo przewidywanie trendów. Modele, które koncentrują się na poprawnej klasyfikacji stron transakcji, ale nie uwzględniają wielkości zakładów, mogą prowadzić do strat w długim okresie, szczególnie w sytuacjach, gdzie fałszywe przewidywania nie są odpowiednio skorygowane. Również metody takie jak meta-etykietowanie, mimo swojej skuteczności, nie eliminują ryzyka – poprawiają jedynie precyzję, pozwalając na lepsze określenie wielkości zakładu, co ma kluczowe znaczenie dla zarządzania ryzykiem.

Jak poradzić sobie z efektem substytucji w analizie cech w uczeniu maszynowym?

W kontekście analizy cech w uczeniu maszynowym, jednym z problemów, które mogą zaburzyć wyniki, są efekty substytucji. Zjawisko to pojawia się, gdy dwie cechy dzielą podobną informację predykcyjną, co wpływa na ocenę ich ważności w modelu. Problem substytucji może skutkować błędnymi wnioskami dotyczącymi istotności cech, szczególnie przy użyciu popularnych metod takich jak MDI (Mean Decrease Impurity) czy MDA (Mean Decrease Accuracy).

Jednym z przykładów jest sytuacja, w której dwie identyczne cechy zostaną ocenione przez metodę MDI jako mniej ważne, ponieważ są losowo wybierane z równym prawdopodobieństwem. Podobnie, w przypadku MDA, może się zdarzyć, że dwie cechy, które w rzeczywistości są kluczowe, będą uznane za mało istotne, ponieważ efekt zmieszania jednej cechy z drugą może wzajemnie się kompensować. W obu przypadkach, gdy cechy są wysoko skorelowane, ocena ich istotności jest problematyczna, a wyniki mogą być zniekształcone przez wzajemne zastępowanie się tych cech.

Jednym ze sposobów radzenia sobie z tym problemem jest proces ortogonalizacji cech. Polega on na zastosowaniu analizy głównych składowych (PCA) w celu przekształcenia cech w ich ortogonalne komponenty główne, a następnie przeprowadzeniu analizy ważności cech na tych nowych komponentach. Taki zabieg może pomóc zredukować wpływ efektów substytucji, jednak nie jest pozbawiony wad. Przede wszystkim, cechy, które są redundantne z powodu nieliniowych kombinacji innych cech, nadal będą powodować problemy. Dodatkowo, komponenty główne mogą nie mieć intuicyjnego wyjaśnienia, a ich wyznaczenie odbywa się na podstawie wektorów własnych, które niekoniecznie maksymalizują wydajność modelu na danych testowych.

Alternatywnym podejściem jest analiza ważności cech na poziomie klastrów cech. Zamiast przekształcać cechy na nowe komponenty, można grupować je w klastry, gdzie cechy w obrębie jednego klastra są wzajemnie bardziej podobne niż cechy należące do różnych klastrów. Dzięki temu minimalizuje się wpływ efektów substytucji, a sama analiza staje się bardziej intuicyjna, ponieważ wyniki są uzyskiwane na podstawie grup cech, a nie pojedynczych zmiennych. Proces ten wymaga dwóch kroków: po pierwsze, należy znaleźć odpowiednią liczbę klastrów oraz przypisać cechy do odpowiednich grup; po drugie, na poziomie tych grup należy przeprowadzić analizę ważności cech.

Pierwszym krokiem w tworzeniu takich klastrów jest przedstawienie cech w przestrzeni metrycznej. Istnieje kilka metod reprezentacji cech w tej przestrzeni, na przykład podejście oparte na korelacji, lub, bardziej zaawansowane, wykorzystanie koncepcji teoretycznych, takich jak miara wariancji informacji, które potrafią uwzględnić nieliniowe zależności między cechami. Po utworzeniu macierzy cech można zastosować algorytm ONC (Optimal Number of Clusters), który pomoże w znalezieniu optymalnej liczby klastrów oraz przypisaniu cech do tych klastrów. Każda cecha będzie należała do jednego klastra, a cechy w tym samym klastrze będą wykazywały dużą podobieństwo informacyjne, podczas gdy cechy w różnych klastrach będą dzielić mniejszą ilość informacji.

Czasami może się zdarzyć, że niektóre cechy będą trudne do przypisania do jednego klastra, ponieważ mogą być kombinacjami innych cech. W takich przypadkach można zastosować transformację, w której dla każdego klastra tworzymy nowe cechy pozostałe, które zawierają tylko informacje dotyczące cech tego klastra, eliminując wpływ cech z innych klastrów. Dzięki temu proces analizy staje się bardziej stabilny, a efekty substytucji są znacząco ograniczone.

Warto również pamiętać, że przy tworzeniu takich klastrów może wystąpić problem z niską jakością przypisania cech do grup, szczególnie jeśli cecha stanowi połączenie informacji z wielu innych cech. W takich sytuacjach konieczne może być dostosowanie algorytmu lub wykorzystanie dodatkowych metod, które umożliwią lepsze przypisanie cech do odpowiednich klastrów.

Dodatkowym krokiem, który może pomóc w zarządzaniu efektami substytucji, jest wykorzystanie bardziej zaawansowanych technik analizy cech, takich jak analiza oparte na teorii informacji, co pozwala lepiej rozpoznać redundancje w danych, które nie są łatwo uchwytne za pomocą klasycznych metod korelacji.