A gépi tanulás (ML) algoritmusok szerepe nem csupán az adatok elemzésében rejlik, hanem a rejtett elméletek és mechanizmusok felfedezésében is. Bár ezek az algoritmusok nem képesek közvetlenül bizonyítani egy tételt, képesek rámutatni egy olyan elmélet létezésére, amely még nem lett felfedezve. Ez az alapvető módszertan az alapja annak, hogy a gépi tanulás segíthet a tudományos elméletek és gazdasági modellek fejlesztésében.

A gépi tanulás egyes típusai segíthetnek az információs tartalom, azaz az adatokban rejlő fontosabb jellemzők (más néven „funkciók”) azonosításában. Az egyik ilyen eljárás a „mean-decrease accuracy” (MDA), amely lépésről lépésre elemzi a modell pontosságának csökkenését, miközben a jellemzőket véletlenszerűen átrendezi. Ezen algoritmusok segítségével nemcsak az adatok elemzésére kerül sor, hanem a legfontosabb elméleti változók is feltárulnak, még akkor is, ha a mögöttes mechanizmusok nem ismertek. Az MDA tehát nem csak a modellek elméleti alapjait segíti, hanem arra is lehetőséget ad, hogy az elemzők a megfigyeléseket valódi elméleti alapokként kezeljék.

A gépi tanulás alkalmazásának másik fontos területe a kauzalitás vizsgálata. Itt a modellek képesek arra, hogy egy történelmi adatbázison alapuló előrejelzéseket készítsenek, figyelmen kívül hagyva egy adott hatás jelenlétét. Az ilyen típusú modellek olyan előrejelzéseket generálnak, amelyek segíthetnek a tudósoknak feltárni az egyes hatások és az általuk okozott változások közötti kapcsolatokat. A gépi tanulás lehetővé teszi, hogy ezen modellek elemzésével előrejelzéseket tegyünk, és ezzel próbáljuk megérteni a különböző hatások hatását, amelyek a megfigyelt adatokat formálják.

A gépi tanulás másik lényeges alkalmazása a nagy dimenziós, bonyolult adatállományok vizualizálása. A manifold tanulási algoritmusok például képesek klaszterezni egy sor megfigyelést, és ezáltal csökkenteni azok számát olyan csoportokra, amelyek közös jellemzőik alapján könnyen vizsgálhatók. Ez a módszer lehetővé teszi, hogy komplex adathalmazokból származó mintákat és összefüggéseket azonosítsunk, amelyeket hagyományos statisztikai módszerekkel nehezebb lenne megérteni.

A gépi tanulásnak a tudományos kutatásokban és a pénzügyi modellezésben betöltött szerepe tehát abban áll, hogy segítséget nyújt a tudósoknak, hogy új elméleteket formáljanak a gazdasági jelenségekhez, és lehetőséget ad arra, hogy a gazdasági döntéshozók jobban megértsék az adatok mögötti mechanizmusokat. Fontos azonban, hogy a gépi tanulás nem helyettesíti a meglévő elméleteket, hanem segít abban, hogy a kutatók új összefüggéseket találjanak, és a meglévő elméletekhez új, empirikus alapokat adjanak.

Ugyanakkor a gépi tanulás egyik árnyoldala, hogy könnyen vezethet túltanuláshoz (overfitting). A túltanulás akkor következik be, amikor egy modell túlzottan illeszkedik az eddigi adatokhoz, és nem képes jól alkalmazkodni az új, ismeretlen adatokhoz. A túltanulás egyik típusát a „train set” túltanulása jelenti, amikor a modell olyan részletesen illeszkedik az eddigi adatokhoz, hogy a zajt is felismeri és előre jelzi, ami végül hamis előrejelzéseket eredményezhet. Ennek elkerülésére az egyik módszer a resampling technikák alkalmazása, mint a keresztellenőrzés (cross-validation) és a Monte Carlo módszerek, amelyek segítenek megbecsülni a modell valós teljesítményét. Ezen kívül a regularizációs módszerek, mint például a LASSO, segíthetnek abban, hogy a modell ne váljon túlságosan összetetté, ha azt nem indokolják erősebb magyarázó változók.

A másik típusú túltanulás a „test set” túltanulás, amely akkor fordul elő, amikor a modell nemcsak az eddigi adatokat, hanem azoknak az eseteknek az előrejelzését is tartalmazza, amelyek egy tesztkészleten szerepelnek. A tesztkészletre való illeszkedés túltanulása különösen problémás lehet, ha a kutatók a modell paramétereit addig módosítják, amíg el nem érik a kívánt eredményt. Ez egy olyan hamis pozitív eredményt eredményez, amely a kutatási folyamat hibájából adódik, nem pedig a stratégia valódi sikeréből. A gépi tanulás itt is segíthet, például azzal, hogy nyomon követi, hány független tesztet futtatott a kutató, és megbecsüli a hamis felfedezés kockázatát.

Bár a gépi tanulás rengeteg lehetőséget kínál a tudományos és gazdasági kutatásban, fontos megérteni, hogy az alkalmazott algoritmusok hatékonysága szoros összefüggésben áll a kutatási módszerek tisztaságával és megbízhatóságával. A sikeres alkalmazás alapja a megfelelő modellezés, a túltanulás elkerülése és a helyes kutatási megközelítések alkalmazása.

Hogyan hatnak egymásra az I. és II. típusú hibák a többpróbás tesztelés során?

A többpróbás tesztelés során gyakran szembesülünk az I. típusú (hamis pozitív) és II. típusú (hamis negatív) hibák problémájával. A statisztikai tesztelés célja az, hogy döntéseket hozzon egy adott hipotezissel kapcsolatban, de az ilyen tesztelés sosem mentes a hibáktól. Az I. típusú hiba akkor fordul elő, ha a nullhipotézist (H0: SR = 0) elutasítjuk, miközben az valójában igaz. Ezzel szemben a II. típusú hiba akkor következik be, ha nem utasítjuk el a nullhipotézist, miközben az alternatív hipotézis (H1: SR > 0) igaz.

A leggyakoribb statisztikai módszerek, mint például a Sharpe-ráta alapú tesztelés, figyelembe veszik ezeket a hibákat, és próbálják minimalizálni azok hatását. Azonban ha több tesztet hajtunk végre egyszerre, mint például a különböző stratégiai próbák értékelése során, a hibák közötti kölcsönhatások tovább bonyolítják a helyzetet. Ilyen esetekben a családi tévesztési arány (Family-Wise Error Rate, FWER) és az egyéni hibák (αK és βK) között szoros összefüggés van.

A tesztelés során figyelembe kell venni a családi tévesztési arány αK és a hibák együttes hatását. A legfontosabb, hogy ha αK növekszik, azzal csökken a tesztek észlelési képessége, míg βK növekszik. Mivel az α és β hibák közötti kapcsolat szoros, a kutatók számos próbát hajthatnak végre, de a több próbával végzett tesztelés növeli annak kockázatát, hogy egy valós, de gyenge eredmény nem kerül észlelésre.

A kockázat csökkentésére különféle statisztikai módszerek alkalmazhatók. Az egyik ilyen megközelítés a Sidák-korrekció, amelyet a típus II. hiba becslésére alkalmaznak, miközben figyelembe veszik a több próbás tesztelés hatását. A másik módszer a False Strategy (Hamis Stratégia) tétel, amely a Sharpe-ráta eloszlásának varianciáját és az egyes próbák eredményeinek várható értékét elemzi, hogy meghatározza, vajon egy felfedezett stratégia statisztikailag szignifikáns-e.

Az ilyen típusú hibák és az azokkal kapcsolatos fogalmak, mint a "teljesítmény", "visszahívás" és "valódi pozitív arány", rendkívül fontosak a pénzügyi stratégiák értékelésekor. A kutatók és gyakorlati szakemberek számára elengedhetetlen, hogy tisztában legyenek e fogalmakkal és azok hatásával, amikor valós pénzügyi döntéseket hoznak.

A típus I. és II. hibák közötti kapcsolat ábrázolása vizuálisan is megfigyelhető. A grafikonok segítségével jól látható, hogy a próbák számának növekedésével az α szintje csökken, míg a β szintje növekszik, ami a teszt észlelési teljesítményét befolyásolja. Fontos megérteni, hogy a több próbával végzett tesztelés esetén a típus I. hiba csökkentése azzal járhat, hogy a típus II. hiba esélye megnövekszik. A próbák számának növelése ugyanakkor növeli a családi tévesztési arány csökkentésének esélyét is.

A két hiba közötti interakció figyelembevétele nélkül a kutatók könnyen félreérthetik az eredmények jelentőségét. Ezért a pénzügyi stratégiák tesztelésekor nemcsak az egyes próbák, hanem a teljes tesztelési folyamat eredményeinek statisztikai szempontból is helyes értelmezésére van szükség.

Miért fontos a megfelelő tesztelési módszerek alkalmazása a pénzügyi modellezésben?

A pénzügyi modellezés során számos kihívással kell szembenéznünk, különösen akkor, amikor próbálunk megbízható és érdemi következtetéseket levonni a tesztelési adatok alapján. A hagyományos tesztelési módszerek, mint a történeti visszatesztelés, gyakran vezethetnek téves következtetésekhez, ha nem megfelelően alkalmazzuk őket. A túlilleszkedés (overfitting) problémáját például könnyen el lehet kerülni, ha nem csak egyetlen tesztkészletet használunk, hanem több ezer különböző tesztkészletet generálunk. Ennek egyik leghatékonyabb módja a kombinatorikus keresztellenőrzés, más néven kombinatorikus purgált keresztellenőrzés (CPCV), amely lehetővé teszi a modellek érdemi validálását anélkül, hogy a véletlen ingadozások torzítanák az eredményeket.

A múltbeli sorozatok elemzése egy másik gyakran alkalmazott módszer a pénzügyi modellezésben, amely lehetővé teszi a mögöttes adat-generálási folyamatok becslését. A Monte Carlo szimulációk különösen hasznosak lehetnek a szintetikus adatállományok előállításában, amelyek a történeti adatok statisztikai tulajdonságait utánozzák. Az ilyen tesztek eredményei az adat-generálási folyamatok feltételezett reprezentativitásától függenek, és mivel több ezer különböző adat-generálási szcenáriót modellezünk, az eredmények nem kapcsolódnak egyetlen, megfigyelt realizációhoz. Ez a megközelítés lehetővé teszi, hogy az esetleges szerencsét vagy véletlent kizárjuk, és az eredmények valóban a modellek megbízhatóságáról és általánosíthatóságáról árulkodjanak.

A tesztelés egyik legnagyobb előnye, hogy nem csupán egy konkrét, múltbeli eseményre alapozva vonunk le következtetéseket, hanem egy teljes adatsorozatra, amelyet szimuláltunk a statisztikai modell alapján. Ezáltal a modell eredményei sokkal robusztusabbak és alkalmazhatóbbak lesznek a jövőbeli befektetési döntésekhez. Azonban fontos, hogy tisztában legyünk azzal, hogy semmilyen visszatesztelés nem helyettesítheti a szoros értelemben vett elméletalkotást. Az elméletek azok, amelyek képesek figyelembe venni a fekete hattyú jelenségeket, tehát a sosem látott eseményeket, míg a visszatesztelés nem képes megfelelően modellezni az ilyen típusú eseményeket.

A pénzügyi stratégiák tervezésekor kulcsfontosságú, hogy ne csak a múltbeli adatokat és azok statisztikai összefüggéseit vegyük figyelembe, hanem mindig szem előtt tartsuk, hogy a tesztelési adatokból származó eredmények nem adhatnak teljes és végleges választ. Csak egy olyan elmélet képes egy átfogó ok-okozati mechanizmust felállítani, amely széleskörű előrejelzéseket és következményeket tartalmaz, amelyek függetlenül tesztelhetők a valós világban. Például a VPIN elmélet előre jelezte, hogy a piaci készítők veszteségeket szenvedhetnek el a tartós rendelési áramlási egyensúlyhiány következtében, ami a flash crash során be is következett.

A backtestek tehát csupán egy segédeszközként szolgálnak, és nem pótolhatják a mélyebb elméleti megértést. A pénzügyi elméletek megalkotásához szükséges módszerek alkalmazásával, például a kovarianciák elemzésével, a modellek kiértékelésével és a változók fontosságának meghatározásával, sokkal biztosabb alapokra helyezhetjük stratégiáinkat. A pénzügyi modellezés célja, hogy a lehető legpontosabb előrejelzéseket készítsük el a jövőbeli eseményekre, de ehhez elengedhetetlen a megfelelő adatfeldolgozási és tesztelési módszerek alkalmazása.

A pénzügyi modellezés során alkalmazott módszerek és eszközök rendkívül széleskörűek, és mindegyik más-más előnyökkel és korlátokkal rendelkezik. A különböző elméletek és a mögöttük álló statisztikai módszerek alapos ismerete nélkülözhetetlen ahhoz, hogy ne csak sikeres, de fenntartható stratégiákat dolgozzunk ki a pénzügyi piacokon. A Monte Carlo szimulációk, a kombinatorikus keresztellenőrzés és a szintetikus adatállományok mind olyan hasznos eszközök, amelyek segítenek elkerülni a téves következtetéseket, és megbízhatóbb döntéseket hozni.

A legfontosabb, amit meg kell értenünk, hogy a tesztelés és a validálás során mindig érdemes többféle módszert alkalmazni, mivel egyetlen megközelítés sem adhat teljes képet a piaci viselkedésről. A modellek megbízhatóságának növelése érdekében szükség van arra, hogy különböző adatgeneráló folyamatokkal, szimulációkkal és szintetikus adatállományokkal dolgozzunk, hiszen így kerülhetjük el a valódi piacokkal kapcsolatos túlzott bizonytalanságot és kockázatot.