A QLBS (Quantitative Learning-Based Stochastic) modell, amely a Black-Scholes (BS) modellt egy nem-aszimptotikus esethez bővíti, új lehetőségeket kínál az opciók árazására és fedezésére. Az alapvető elmélet szerint a hedge arányt először kell meghatározni, majd a következő lépésben az opciók árat. Az optimális cselekvési értékek és a stratégiai döntések meghatározásához, amelyeket a pénzügyi eszközök kezelésében alkalmazunk, az analitikus megoldások nem elegendőek; helyettük egy iteratív, visszafelé történő rekurzív megoldást alkalmazunk, amely a Monte Carlo módszert és a diszkrét időmodell felhasználásával a legjobb elérhető eredményeket biztosítja.

A Black-Scholes egyenletek korlátai között nem veszi figyelembe a nem-aszimptotikus hatásokat, így a standard modell csak akkor ad pontos eredményeket, ha az idő lépései, illetve a piac mozgásai infinitesimálisan kicsik. A QLBS modell viszont lehetővé teszi az ilyen dinamikák pontosabb kezelését, különösen azáltal, hogy a hedge arányt és az opció árat közvetlenül egyetlen egyenletben kombinálja, ahelyett hogy két különálló számítást igényelne.

A folyamat pontos megértéséhez először is meghatározzuk a hedge arányt, majd a megfelelő cselekvést (vagyis az optimális fedezeti stratégia meghatározása). Ezt követően a következő lépés az opció árazása, amely a negatív optimális Q-funkcióként van definiálva. Ez egyben magyarázatot ad arra, hogy miért van szükség a megfelelő határértékek figyelembevételére a Black-Scholes modellben, és hogyan valósítható meg a nem-aszimptotikus változat.

A QLBS modell előnye, hogy az egyes akciók optimalizálása nem igényel diszkrét akciótér reprezentációt; mivel minden lépésnél csak egyetlen optimális akcióra van szükség, az eljárás lényegesen egyszerűsíti a problémát a Bellman-optimalitás egyenletén keresztül. Az optimális cselekvés meghatározásához az akciók kvadratikus funkcionális minimalizálása szükséges, amelyet a Monte Carlo szimulációk alapján végezhetünk el.

A rekurszív visszafelé számítások során az optimális akciók és az opciók árai iteratívan kerülnek meghatározásra, kezdve az utolsó időponttól (T − 1) és haladva visszafelé egészen a jelenig (t = 0). A modellezés során a Bellman-egyenlet által biztosított szabályok alkalmazásával lehetőség van az optimális döntések meghozatalára a következő időpontban elérhető legjobb eredmény alapján.

A QLBS modell használata során a következő alapvető kérdéseket kell figyelembe venni:

  1. A modellezés során használt alapfunkciók (például az akciók és a Q-funkciók) egy időtől függő, diszkrét bővítéseken alapulnak.

  2. A közelítések és szimulációk során alkalmazott minimalizálási technikák lehetővé teszik az optimális akciók meghatározását.

  3. A modell alkalmazásakor fontos, hogy a diszkrét időintervallumok és az egyes piaci állapotok közötti összefüggéseket helyesen ábrázoljuk.

A gyakorlati megvalósításhoz a fenti módszereket a Monte Carlo módszert alkalmazva kell implementálni. Ezáltal a QLBS modell sikeresen adaptálható a valós piaci környezetekhez, lehetővé téve a dinamikus fedezés és árazás pontos meghatározását.

Végül, a modellezés egyik fontos aspektusa, hogy a QLBS modell nemcsak az optimális árképzést és fedezést biztosítja, hanem integrált módon kezeli a kockázatot és annak hatásait az eszközök árazására. A megfelelő hedging stratégia mellett a Monte Carlo szimulációk használata biztosítja, hogy a modell figyelembe vegye az összes lehetséges piaci forgatókönyvet, ezzel lehetővé téve a pontosabb és megbízhatóbb pénzügyi döntéseket.

Hogyan érhetjük el a mély hálózatok előnyeit a funkciók összetételén keresztül?

A mesterséges neuronhálózatok egyre inkább központi szerepet kapnak a modern gépi tanulásban és adatfeldolgozásban. A legegyszerűbb perceptronoktól kezdve, amelyek alapvetően egyetlen réteget alkotnak, egészen a mély neurális hálózatokig, amelyek több rétegből épülnek fel, a neuronhálózatok képességei az idő előrehaladtával folyamatosan fejlődtek. A mély neurális hálózatok, különösen azok, amelyek ReLU aktivációs függvényeket használnak, kiemelkedően jól alkalmazhatók az olyan nemlineáris függvények közelítésére, amelyek egyszerűbb modellekkel, mint a lineáris regresszió, nem közelíthetők meg.

A neurális hálózatok által alkalmazott funkciók összetétele a kulcsa a sikeres funkciók közelítésének, különösen akkor, ha több réteget alkalmazunk. A mély hálózatok elméletének egyik alapvető aspektusa, hogy miért van szükség több rétegre, és hogyan segíti a funkciók összetétele a pontosabb közelítést.

A függvények összetételével kapcsolatos alapvető elméleti hátteret az alábbiakban illusztrálhatjuk. Vegyünk egy példát a bináris kiterjesztésre. Mivel az x ∈ [0, 1] tartományban bármely számot fel lehet bontani egy végtelen sorozatra, ahol a bináris kiterjesztésnél a számok a kiterjesztett számjegyek alapján követhetők, egy mély hálózat segítségével ezek a bináris számjegyek előállíthatók. Az ilyen típusú bővítések során a neuronhálózatok a különböző kiterjesztéseket egymás után alkalmazzák, minden réteg újabb pontosságot ad a közelítéshez.

A mély neurális hálózatok a különböző aktivációs függvények alkalmazásával képesek egy-egy nemlineáris függvényt különböző darabokra bontani, és minden darabot egy-egy rekurzív rétegben kezelni. Ez a folyamat a ReLU aktivációs függvények esetében különösen fontos, mivel a ReLU egy darabos affine (lineáris) függvényeket generál, amelyeket a mélyebb rétegeken keresztül kombinálhatunk egyre bonyolultabb formákban. A ReLU függvények összekapcsolásával a hálózat képes lesz bonyolultabb nemlineáris függvények közelítésére, amelyek egyszerűbben nem érhetők el.

A matematikai részletek, mint például a Lipshitz-kontinuitás alkalmazása a közelítések során, biztosítják, hogy a hibák minimalizálhatók legyenek. Ez a folyamat azzal érhető el, hogy a bemeneti adatok és a kimeneti eredmények közötti eltérések (például |f(x) − f̂(x)|) korlátozottak maradnak, figyelembe véve a funkcionalitás folyamatos közelítését a neurális hálózat segítségével.

A Voronoi-diagramokkal való analógia az, hogy minden egyes adatpontnak van egy saját régiója a hálózaton belül. Az MLP-k (Multi-Layer Perceptrons) esetében a különböző elrejtett egységek ilyen Voronoi-sejtekre hasonlítanak, amelyek az adatpontokat különböző területekre osztják. Ezen sejteken belül a hibák az élek körül minimalizálódnak, és minden adatpont környezetében a hálózat optimálisan közelíti meg az elvárt értékeket.

A mély hálózatok alkalmazásának egyik legfontosabb előnye, hogy az információ a rétegek között hatékonyan "decoupling"-ra kerülhet, amely lehetővé teszi, hogy az egyes változók közötti kapcsolatok könnyebben kezelhetők legyenek. A Tishby és Zaslavsky (2015) által említett statisztikai "decoupling" elv az, hogy minden új réteg egyre jobban szétválasztja a bemeneti változókat, és segít a hálózatnak jobban "megérteni" az összefüggéseket.

A mélyebb hálózatok tehát előnyösebbek, mint a sekélyek, mivel képesek bonyolultabb összefüggések kezelésére. A különböző aktivációs függvények, mint a ReLU, segítenek abban, hogy minden egyes réteg egy újabb nemlineáris formát adjon hozzá a modellezéshez. Ahogyan a kompozíciós modellek jobban kifejezik a nemlineáris függvényeket, úgy a mély hálózatok is rendkívül pontos közelítéseket adhatnak, amelyeket a sekélybb hálózatok nem tudnak hatékonyan elérni.

A statisztikai és információelméleti alapok is támogatják a mély hálózatok előnyös teljesítményét. A közelmúltbeli elméleti kutatások (Poggio 2016; Mhaskar et al. 2016) azt mutatják, hogy a mély hálózatok képesek a magasabb rendű polinomok hatékonyabb közelítésére, mint a sekély hálózatok, miközben elkerülik a dimenzióbővítés csapdáját. Az ilyen elméleti megközelítések segítenek abban, hogy jobban megértsük, miért van szükség mélyebb hálózatokra és hogyan érhetünk el nagyobb kifejezőképességet több réteg alkalmazásával.

A mélyebb hálózatok ezen túlmenően hatékonyan képesek automatikusan szabályozni magukat, viselkedve úgy, mint egy Tikhonov-szabályozás, amely megakadályozza a túltanulást, miközben növeli a modell kifejezőerejét. A rétegek közötti statisztikai decoupling, amelyet a hálózatok különböző rétegeiben való előrehaladás során elérhetünk, lehetővé teszi a pontosabb, adatvezérelt modellek építését.