A gépi tanulás (ML) alkalmazása a pénzügyi modellezésben nem csupán a minták és előrejelzések keresését jelenti, hanem a modellezési folyamatok mélyebb megértését is. A klasszikus statisztikai modellezési módszerek, mint a regresszió, gyakran csak egy részét adják a valós folyamatoknak, míg az ML lehetőséget ad arra, hogy a változók közötti bonyolult interakciókat is felfedezzük, és ne csupán egy adott algebraikus formát próbáljunk illeszteni. Az alábbiakban az ML és a jellemzők fontosságának elemzését vizsgáljuk, hogy miként segíthetnek a pénzügyi elemzők és kutatók a megfelelő modellek fejlesztésében.
A hagyományos statisztikai megközelítésekkel ellentétben, amelyek a változók előzetes kiválasztására és egy adott modellhez való illesztésére összpontosítanak, a gépi tanulás lehetőséget biztosít arra, hogy először a releváns változókat azonosítsuk, majd azokat illesszük egy adott modellezési keretbe. Ez a megközelítés segít abban, hogy a kutatók ne hagyják figyelmen kívül azokat a fontos változókat, amelyek az előző megközelítésekben esetleg nem kerültek figyelembevételre.
Egy jól ismert analógia szerint, ha egy ezer darabból álló puzzle-t próbálunk kirakni, és a darabok mind egy dobozba kerültek, először ki kell válogatnunk azokat a darabokat, amelyek az adott puzzle-hoz tartoznak. Ha például a darabok egy része műanyagból, a másik része papírból készült, akkor a papírdarabokat eldobva sikeresen megtalálhatjuk az egyetlen puzzle-t. Ugyanez a gondolkodás alkalmazható a pénzügyi modellezésben is, amikor először a releváns változókat kell kiemelnünk, és csak utána alkalmazhatunk egy megfelelő statisztikai vagy gépi tanulási modellt.
A jellemzők fontosságának (feature importance) elemzése egy olyan kulcsfontosságú eszközzé vált a gépi tanulásban, amely segít megérteni, hogy mely változók játszanak szerepet egy adott jelenség magyarázatában. Ezen elemzés révén kiderülhet, hogy mely változók redundánsak, melyek nem játszanak szerepet, és hogyan hatnak egymásra a releváns változók. Ez lehetővé teszi, hogy a kutatók jobban megértsék az egyes változók közötti interakciókat, és mélyebb betekintést nyerjenek a pénzügyi rendszerek dinamikájába.
A gépi tanulási modellek nem csupán azt segítik elő, hogy előrejelzéseket készítsünk, hanem azt is, hogy az eredmények pontosabban megfeleljenek a valóságos piaci környezeteknek. Mivel a modellek képesek figyelembe venni a bonyolultabb, nemlineáris kapcsolatokat is, lehetőséget biztosítanak arra, hogy új elméleteket és modelleket dolgozzunk ki a pénzügyi piacok megértéséhez. Az ilyen modellek alkalmazásával a kutatók képesek lesznek olyan mintákat felismerni, amelyek a hagyományos módszerekkel nem észlelhetők.
Az egyik legfontosabb kihívás, amellyel a pénzügyi kutatók szembesülnek, az a p-értékek megfelelő értelmezése és alkalmazása. A p-értékek hagyományosan arra szolgálnak, hogy meghatározzák, vajon egy változó szignifikánsan hozzájárul-e a modellhez. Azonban a p-értékek számos korláttal rendelkeznek. Például erősen kollineáris változók esetén a p-értékek nem adnak megbízható eredményt, és könnyen előfordulhat, hogy hamis pozitív vagy hamis negatív eredményeket kapunk. Továbbá, a p-értékek csupán az in-sample szignifikanciát mérik, ami nem biztos, hogy a jövőbeli előrejelzések szempontjából is releváns. A p-hacking jelenség, vagyis amikor a kutatók több tesztet futtatnak ugyanazon adathalmazon, szintén problémát jelenthet, mivel ez hamis felfedezéseket eredményezhet.
Ezeket a problémákat elkerülve a gépi tanulás segíthet abban, hogy ne csupán egy statisztikai teszt eredményeit vizsgáljuk, hanem figyelembe vegyük az összes változó szerepét és interakcióját is. A gépi tanulás képes feloldani a modellezési keresést a változók keresésétől, lehetővé téve, hogy pontosabb és megbízhatóbb előrejelzéseket készítsünk.
Fontos tehát, hogy a kutatók ne csupán az eredményekre összpontosítsanak, hanem az elemzett változók fontosságát és azok kölcsönhatásait is figyelembe vegyék. Az ML alkalmazásával nemcsak pontosabb modelleket építhetünk, hanem mélyebb megértést nyerhetünk a pénzügyi rendszerek működéséről és a piacok dinamikájáról is.
Hogyan kezelhetők a helyettesítési hatások a gépi tanulásban?
A gépi tanulásban az egyik legfontosabb kérdés a jellemzők (features) fontosságának meghatározása. Azonban a helyettesítési hatások – amikor két jellemző osztozik egy közös prediktív információban – gyakran torzíthatják az ilyen analízisek eredményeit. Ezek a hatások különösen a modellekben használt jellemzők közötti erős kölcsönhatások és a magas multikolináris viszonyok esetén jelennek meg. A helyettesítési hatások megértése és kezelése alapvetően fontos a modellek megbízhatóságának növelésében, valamint annak biztosításában, hogy a modell valóban azokra a jellemzőkre alapozza a döntéseit, amelyek a legfontosabbak.
Amikor két jellemző között erős kapcsolódás áll fenn, a helyettesítési hatások akkor fordulnak elő, amikor az egyik jellemző fontossága csökken, míg a másiké növekszik, hogy a rendszer továbbra is megfelelően prediktáljon. Ez a jelenség különösen fontos a modellek értékelésénél, hiszen a jellemzők közötti szoros összefüggés befolyásolhatja a jellemzők valós fontosságának meghatározását. Az egyik jellemző fontosságának csökkenése annak köszönhető, hogy a rendszer a másik jellemző növekvő fontosságával próbálja kompenzálni ezt a hatást. Ilyen esetekben a jellemzők valódi szerepe gyakran nem kerül a figyelem középpontjába, ami torzíthatja a modellek által hozott döntéseket.
A hagyományos módszerek, mint például a MDI (Mean Decrease Impurity) vagy a MDA (Mean Decrease Accuracy), nem képesek megfelelően kezelni ezt a problémát. A MDI esetében például az azonos jellemzők fontossága felére csökken, mivel ezek véletlenszerűen vannak kiválasztva. Az MDA esetén pedig a két jellemző összesített hatása gyakran nem tükrözi a valóságos fontosságot, mivel az egyik jellemző megzavarása a másik jellemző hatásával ellensúlyozható. Ezért szükség van olyan megoldásokra, amelyek képesek csökkenteni a helyettesítési hatásokat anélkül, hogy jelentősen befolyásolnák a modellek teljesítményét.
Az egyik lehetséges megoldás a jellemzők ortogonálizálása, amely során a jellemzők közötti erős kódoltságot csökkenthetjük. Az ortogonális főkomponensek (PCA) alkalmazása lehetőséget ad arra, hogy a jellemzők közötti redundanciát csökkentsük, és ezzel együtt a helyettesítési hatásokat is. Azonban ennek is vannak korlátai. Először is, a nemlineáris kombinációk eredményeként keletkező redundáns jellemzők továbbra is torzíthatják az elemzést. Másodszor, a főkomponensek nem mindig rendelkeznek intuitív magyarázattal, így nehéz lehet őket közvetlenül értelmezni. Végül, a főkomponensek meghatározása nem feltétlenül biztosítja a modell legjobb teljesítményét a külső adatokon.
Egy alternatív megközelítés, amely nem igényel alapvető változtatásokat a jellemzők alapján, a hasonló jellemzők klaszterezése és a jellemzők fontosságának elemzése a klaszterek szintjén. Ez a módszer jobban kontrollálja a helyettesítési hatásokat, mivel a klaszterek belső jellemzői közötti hasonlóságok csökkentik az összefonódott jellemzők hatását. Mivel az elemzés a jellemzők csoportosításán alapul, az eredmények gyakran intuitívak és könnyebben értelmezhetők. A klaszterezett jellemzők fontosságának elemzése során az algoritmus két fő lépésből áll: először a jellemzők klaszterezésére van szükség, majd az egyes klaszterekre alkalmazott fontossági analízis következik.
A jellemzők klaszterezésekor először is a jellemzőket egy mérési térbe projektezzük, amely lehetővé teszi azok összhangját és redundanciáját pontosan mérni. Ezt követően egy algoritmus, például az ONC (Optimal Number of Clusters) módszer alkalmazása segíthet meghatározni, hány klaszterre és hogyan kell felosztani a jellemzőket. Az ONC algoritmus képes megtalálni az optimális klaszterszámot, és biztosítja, hogy minden jellemző csak egyetlen klaszterhez tartozzon. Azok a jellemzők, amelyek ugyanabban a klaszterben szerepelnek, nagymértékben osztoznak az információban, míg a különböző klaszterekbe tartozó jellemzők között kisebb információs átfedés figyelhető meg.
A klaszterek létrehozásakor figyelembe kell venni, hogy a jellemzők egyes esetekben nem egyértelműen oszthatók fel. Ha egy jellemző több klaszter információját tartalmazza, akkor a sziluett-értékek alacsonyabbak lehetnek, mivel az algoritmus nem képes egyetlen jellemzőt több klaszterhez rendelni. Ilyen esetekben célszerű a jellemzőket úgy átalakítani, hogy azok ne tartalmazzanak információt más klaszterek jellemzőiből. Ezt az átalakítást úgy végezhetjük el, hogy az egyes klaszterek jellemzőit residual jellemzőkké alakítjuk, amelyek kizárólag az adott klaszteren belüli információt tartalmazzák.
A helyettesítési hatások kezelése tehát kulcsfontosságú a gépi tanulásban, különösen olyan esetekben, amikor a jellemzők közötti erős összefonódás bonyolítja a modellek értékelését. A különböző megközelítések, mint az ortogonálizálás vagy a klaszterezés, segíthetnek a helyettesítési hatások csökkentésében, ugyanakkor minden módszernek megvannak a saját korlátai és alkalmazási területei. Az optimális megoldás gyakran az adatok természetétől és a feladattól függ, így fontos, hogy a megfelelő módszert válasszuk a helyettesítési hatások hatékony kezelésére.
Hogyan működik az NCO algoritmus a portfólióoptimalizálásban?
Az NCO (Non-Covariance Optimization) algoritmus a portfóliók optimalizálásának egy új megközelítését kínálja, amely a hagyományos Markowitz módszerekhez képest hatékonyabban kezeli a pénzügyi adatokat és a portfóliók kockázatát. Az algoritmus három fő lépésből áll: az intraklaszterek súlyainak meghatározása, a redukált kovarianciamátrix számítása, és végül az interklaszter súlyok optimalizálása. A következőkben bemutatjuk az NCO algoritmus működését, valamint összehasonlítjuk a Markowitz-eljárás eredményeivel.
Az NCO algoritmus első lépése a pénzügyi adatok csoportosítása, azaz a korrelációk és a kovarianciák alapján történő klaszterezés. A korrelációk elemzése révén a hasonló viselkedésű értékpapírokat egy csoportba helyezhetjük. Ez a lépés fontos, mivel az optimális portfóliókezelés érdekében a pénzügyi eszközök közötti kapcsolatok pontos felismerése elengedhetetlen. Az NCO algoritmus célja, hogy azokat az értékpapírokat, amelyek erősen negatívan korrelálnak egymással, egy klaszterbe csoportosítsa, így minimalizálva a portfólió kockázatát.
Miután a klaszterek kialakultak, a következő lépés a kovarianciák csökkentése. Az NCO algoritmus a kovarianciát egy redukált formára alakítja, amely szorosabban közelíti meg az ideális Markowitz-környezetet. A cél az, hogy a kovarianciát olyan formában dolgozzuk fel, hogy minimalizáljuk a becslési hibákat és javítsuk a portfóliók stabilitását. Az intraklaszterek súlyait a klaszterek közötti optimalizálás révén határozzuk meg, amely figyelembe veszi az egyes értékpapírok viselkedését és azok közötti összefüggéseket.
A harmadik lépés az interklaszterek súlyainak optimalizálása. Az interklaszter súlyok meghatározása kulcsfontosságú a portfólió optimalizálásában, mivel ezek határozzák meg, hogy melyik klaszterek kapjanak nagyobb súlyt az optimális portfólióban. Az NCO algoritmus előnye, hogy a klaszterek közötti optimális súlyelosztás meghatározásával elkerülhetjük a Markowitz-elmélet által okozott instabilitásokat, és biztosíthatjuk a portfólió eredményesebb és megbízhatóbb működését.
Az algoritmus eredményei rendkívül ígéretesek, különösen a minimum variancia és a maximális Sharpe-ráta portfóliók esetében. Az NCO algoritmus alkalmazásával jelentős csökkenés érhető el a gyökérnégyzetes átlag hibák (RMSE) terén, amelyek a portfóliók teljesítményének megbízhatóságát tükrözik. Például a minimum variancia portfólió esetében az NCO algoritmus képes volt 47%-kal csökkenteni az RMSE-t a Markowitz-eljáráshoz képest, míg a maximális Sharpe-ráta portfólió esetében 54%-os csökkenést eredményezett.
A hagyományos Markowitz-módszer stabilitásának javítása érdekében gyakran alkalmaznak Ledoit–Wolf zsugorítást, amely a kovarianciákat finomhangolja a zaj csökkentése érdekében. Azonban a tesztek azt mutatják, hogy az NCO algoritmus önállóan is jobban teljesít, mint a zsugorítás önálló használata. A kombinált módszerek, mint az NCO és zsugorítás együttes alkalmazása, kisebb előnyökkel járnak, de még mindig nem érik el az NCO algoritmus egyedülálló teljesítményét.
Fontos, hogy a pénzügyi optimalizálás során figyelembe vegyük az adataink megbízhatóságát és a becslési hibák hatását. A Markowitz módszerét gyakran kritizálják a nagy becslési hibák miatt, különösen akkor, amikor a kovarianciák rendkívül magasak. Az NCO algoritmus egy jól működő megoldás lehet a pénzügyi portfóliók optimális kezelésére, mivel csökkenti a becslési hibák hatását, és stabilabb, megbízhatóbb portfóliókat eredményez.
A jövőben az NCO algoritmus alkalmazásának további kiterjesztésére és finomítására lesz lehetőség, például a nagyobb portfóliók és a bonyolultabb pénzügyi eszközök esetében. Az NCO előnyei különösen a dinamikusabb és több eszközt tartalmazó portfóliókban válnak egyértelművé, ahol a hagyományos Markowitz-módszer gyakran nem képes kezelni az összetett interakciókat és a magas dimenziójú adatokat.
Miért érdemes figyelembe venni a statisztikai hibákat pénzügyi stratégiák elemzésekor?
A pénzügyi econometria területén a legfontosabb kihívások közé tartozik annak megértése, hogy miként érdemes értékelni egy stratégia valódi teljesítményét. A statisztikai tesztek és azok eredményei, különösen a p-értékek, gyakran félrevezethetik a kutatókat, ha nem veszik figyelembe az ismételt tesztelés hatásait, és az egyes tesztek közötti függőségeket. Az ilyen hibák gyakran vezetnek téves következtetésekhez, és fontos figyelni arra, hogy ne csak a „szép” eredményeket, hanem az ezek mögött rejlő statisztikai biztosítékokat is alaposan mérlegeljük.
Amikor több próbát végzünk egy adott pénzügyi stratégiával kapcsolatban, az egyes tesztek eredményeinek együttese más típusú hibákhoz vezethet. Az úgynevezett szülői hibaarány (familywise error rate, FWER) azt mutatja meg, hogy ha K független próbát végzünk, akkor mi a valószínűsége annak, hogy legalább egy teszt téves pozitív eredményt ad. Az FWER függ a próbák számától, és minél több próbát végzünk, annál nagyobb az esélye annak, hogy hibás eredményeket kapjunk.
Egy másik fontos mutató, amit gyakran használnak a pénzügyi stratégiák teljesítményének mérésére, az a Sharpe-mutató. A Sharpe-mutató lehetővé teszi annak mérését, hogy egy adott befektetési stratégia mekkora többlethozamot (excess return) biztosít a kockázatmentes eszközökhöz képest, figyelembe véve az áramlás szórását is. Azonban ennek a mutatónak az értékelése során fontos figyelembe venni, hogy a pénzügyi adatok gyakran nem követnek normális eloszlást. Ha tévesen feltételezzük, hogy a hozamok normális eloszlásúak, akkor a téves pozitív eredmények esélyét alábecsülhetjük, ami csalóka következtetésekhez vezethet.
A "hamis stratégia" tétele szerint, ha a kutató egy nagy számú szimulációt végez, és csak a legjobb eredményt (legmagasabb Sharpe-mutatót) jelenti, akkor az általuk jelentett Sharpe-mutató eloszlása nem tükrözi a valódi eloszlást, mivel a legjobb eredményeket hajlamosak kiemelni. Ez a jelenség nemcsak matematikai hibákat hoz létre, hanem a stratégia tényleges teljesítményére vonatkozó téves elképzeléseket is.
Fontos, hogy az elemzők a hamis pozitív és hamis negatív eredmények között tett különbséget is tisztában legyenek. Míg egy hamis pozitív eredmény esetén az elemző számára az a fontos, hogy egyetlen téves riasztás se történjen, a hamis negatív eredmények esetén az a lényeg, hogy egyetlen igazi jelenség se maradjon figyelmen kívül. Ahogy a próbák száma nő, úgy a téves pozitív eredmények valószínűsége is nő, míg a téves negatív eredmények esélye csökken.
Amikor a pénzügyi stratégiák valódi teljesítményét próbáljuk meghatározni, az egyszerű statisztikai mutatók, mint a p-értékek és a Sharpe-mutató nem elegendőek. Az elemzőknek figyelembe kell venniük a tesztek ismétlésének hatásait, és azt, hogy több próbával a stratégiák értékelése gyakran vezethet hamis következtetésekhez. A hibák kockázatának csökkentése érdekében fontos, hogy az elemzők a statisztikai elméleteket a gyakorlatban is alkalmazzák, és biztosak legyenek abban, hogy a használt modellek megfelelően tükrözik a pénzügyi adatok jellemzőit. Az ilyen megközelítés segíthet elkerülni a téves pozitív eredményeket, és biztosíthatja, hogy a stratégiai döntéseket alapos, pontos elemzések alapján hozzák meg.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский