A pénzügyi piacok megértéséhez és előrejelzéséhez szükséges tudás gyakran egybeesik azokkal a mechanizmusokkal, amelyek a váratlan események, más néven a „fekete hattyú” jelenségeket eredményezik. Az ilyen események előrejelzése évtizedek óta akadályba ütközik, mivel a hagyományos adatbázisok és előrejelzési rendszerek nem képesek figyelembe venni a soha nem látott helyzeteket. A gépi tanulás (ML) alapú megközelítések sokszor arra a következtetésre jutnak, hogy a „fekete hattyú” események, mint a hirtelen piaci összeomlások, nem jósolhatók meg. Azonban, mint ahogyan azt saját tapasztalatom mutatja, ez nem teljesen igaz.
2010 májusában, amikor az Egyesült Államok egyik vezető hedge fundjának high-frequency futures osztályát vezettem, a szokásos likviditáskezelő algoritmusaink működésbe léptek, és körülbelül 12:30-kor a rendszerek elkezdtek automatikusan csökkenteni a pozícióikat. Mivel nem avatkoztunk bele, percek alatt gyakorlatilag nulla piaci kitettségünk lett. Ezt a viselkedést a rendszerek soha nem mutatták korábban, és egy alapos vizsgálatot kezdtünk annak kiderítésére, hogy mi okozhatta ezt. Két órával később, 14:30-kor az S&P 500 index szinte 10%-ot zuhant a nyitó árfolyamhoz képest, majd a rendszerek elkezdtek agresszívan vásárolni, és így 5%-os nyereséget realizáltak a piac zárásáig. A sajtó ezt az eseményt „flash crash”-nek nevezte, és valóban meglepett minket, hogy a rendszerek képesek voltak előre jelezni egy olyan eseményt, amelyet mi, a fejlesztők, nem vártunk. Második meglepetésként, nem értettük, miért kezdtek el vásárolni a rendszerek közvetlenül a piaci mélypont után.
Később egy hivatalos vizsgálat arra a következtetésre jutott, hogy az összeomlást egy 75 000 darabos E-mini S&P 500 futures eladási megbízás okozta, amely tartós rendelési áramlási egyensúlytalanságot idézett elő. Ez a rendkívüli eladási nyomás tette lehetetlenné a piaci alkuszok számára, hogy megfelelően védekezzenek a veszteségek ellen. A likviditás hiánya végül a piac összeomlásához vezetett. Ez a jelenség alapvetően nem volt kiszámíthatatlan, és az alapjául szolgáló okok rendkívül gyakoriak. Az egyensúlytalanság a piacokon mindenhol jelen van, és a mi rendszereink a szélsőséges helyzetekben csökkentették a pozíciókat, elkerülve a potenciálisan kialakuló fekete hattyúkat. Miután a piac összeomlott, rendszereink az alacsony árfolyamoknál felismertek egy lehetőséget, és visszavásároltak, nyereséget termelve a zárásig.
Ez az élmény két fontos leckét tartalmaz, amelyek elengedhetetlenek a pénzügyi stratégiák fejlesztéséhez és alkalmazásához.
Első tanulság: Szükséges egy elmélet. Ellentétben a közhiedelemmel, a visszatesztelés (backtest) nem alkalmas arra, hogy egy stratégia valódi hatékonyságát bizonyítsa. A visszatesztelés csak arra adhat bizonyítékot, hogy egy stratégia téves pozitív eredményeket ad. Soha ne fejlesszünk stratégiát kizárólag visszatesztelések alapján. A stratégiák mögött elméletnek kell állnia, nem pedig történeti szimulációknak. Az elméletnek elég általánosnak kell lennie ahhoz, hogy különböző eseteket magyarázzon, még akkor is, ha azok fekete hattyú események.
Második tanulság: A gépi tanulás segíthet az elméletek felfedezésében. A gépi tanulás alkalmazásának egyik legfontosabb szerepe, hogy segít az új pénzügyi elméletek felismerésében. Az ML algoritmusok képesek azonosítani azokat a rejtett változókat, amelyek egy bonyolult jelenség megértéséhez szükségesek. Az algoritmusok segítenek felismerni az összetevőket, de nem adnak pontos egyenleteket a kapcsolatok összekapcsolására. Ezt követően az elmélet összeköti ezeket az összetevőket egy struktúrált kijelentéssel, amely a valódi ok-okozati összefüggéseket tartalmazza.
Fontos megérteni, hogy az ML nem csupán egy „fekete doboz” eszköz, amely a jövőt megjósolja. A gépi tanulás legfontosabb alkalmazása nem abban rejlik, hogy közvetlenül előrejelezzen, hanem hogy lehetőséget adjon arra, hogy új elméleteket fedezzünk fel, amelyek később segíthetnek pontos előrejelzéseket alkotni. Ezen elméletek tesztelése nem egy egyszerű visszatesztelésen alapul, hanem összetett empirikus kutatáson és gyakorlati alkalmazáson. Az igazi kihívás nem az algoritmusok fejlesztésében, hanem az elméleti keret kidolgozásában rejlik.
A pénzügyi piacon a gépi tanulás alkalmazása tehát nem csupán előrejelzési eszközként működik, hanem segít az új gazdasági és pénzügyi elméletek felfedezésében, amelyek segíthetnek jobban megérteni a piaci dinamikát. Az új technológia alkalmazása nem a régi hagyományos módszerek ellenállásával, hanem azok kiegészítésével kell hogy történjen, miközben figyelembe kell venni az elméleti alapok fontosságát a hosszú távú siker eléréséhez.
Hogyan számítható ki a hibák és a csalás kockázata egy befektetési stratégia értékelése során?
A legjobb választás a minimális szórású allokáció, mivel megakadályozza, hogy a magas szórású egyéni próbák dominálják a klaszterek hozamait. Legyen a k-stratégia klasztere, pedig a kovariancia mátrixa, amely a -ban lévő stratégiákra van korlátozva. A a stratégia hozamai az klaszteren belül, míg az -hez tartozó súly. Ez alapján az -t számolva meghatározhatjuk az egyes stratégiák hozzájárulását az összesített hozamhoz.
Ezeket az adatsorokat a klaszterek hozamainak időbeli sorozataként számoljuk ki, amelyeket a Sharpe arány alapján értékelhetünk. Azonban ezek az arányok nem összehasonlíthatók, mivel a fogadások gyakorisága eltérhet. Ahhoz, hogy összehasonlíthatóvá váljanak, évente kell annualizálni őket. Ennek érdekében először számoljuk ki az éves fogadások számát a következő képlettel:
A fogadási gyakoriságot pedig a következő képlettel számoljuk:
Ahol a stratégia hozamának hossza. Ezek után meghatározhatjuk az annualizált Sharpe arányt, azaz az -t, amely lehetővé teszi a különböző klaszterek összehasonlítását. A végső kiszámított Sharpe arányok figyelembevételével az éves fogadási gyakoriságot is figyelembe kell venni a becsült szórás korrekciója érdekében, hogy az összehasonlítás korrekt legyen.
A családra vonatkozó hibaarány (Familywise Error Rate, FWER) az egyik legfontosabb fogalom a többszörös tesztelés során. A Neyman–Pearson hipotézisvizsgálati keretrendszer szerint elutasítjuk a nullhipotézist , ha egy eseményt figyelünk meg, amely a nullhipotézis igazsága mellett csak -valószínűséggel következhet be. A csalás kockázatát az értékére alapozzuk. Azonban, amikor többszörös tesztelést végzünk, az egyes tesztek téves pozitív kockázata összegződik, és a kombinált hibaarány megnő. Különböző számítási technikák segíthetnek az ilyen hibák csökkentésében, például a Šidák-korrekció alkalmazása.
A Šidák-korrekció egy olyan módszer, amely lehetővé teszi az egyes tesztek hibahatárának csökkentését annak érdekében, hogy figyelembe vegyük a többszörös tesztelés hatását. Ez a korrekció megadhatja az egyes tesztek hibahatárát , ahol a tesztek száma, és a családra vonatkozó hibaarány. Egy másik megközelítés a Bonferroni-approxmáció, amely az egyszerűbb számítás érdekében alkalmazza a -t.
A típus I hibák gyakoriak a többszörös tesztelés során, mivel a tesztek száma és a statisztikai modell nem mindig felel meg a valóságnak. Az ilyen típusú hibák csökkentésére fontos figyelembe venni a visszafordított szórásokat és a nemnormális eloszlásokat is. A visszafordított statisztikák és a Z-értékek segítségével meghatározhatjuk a hibák valószínűségét és a szükséges korrekciókat.
A kockázatok és hibák kezelése során fontos megérteni, hogy a többszörös tesztelés esetén nemcsak a statisztikai modellek és eredmények figyelembevételével, hanem az adatok közötti korrelációk és a reális kockázatok figyelembevételével is elkerülhetők a téves következtetések. A csalás és a hibák kockázata így minimalizálható, ha megfelelő módszereket alkalmazunk és tisztában vagyunk a statisztikai számítások hatásaival.
Miért bukhat el egy politikai vezető? A demokrácia válsága és a vezetői felelősség kérdései
Milyen előnyökkel és korlátokkal járnak a sűrített levegős motorok és hibrid hajtásláncok?
Hogyan dolgozhatunk okos objektumokkal és paraméteres módosításokkal a képszerkesztésben?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский