Considérons un espace probabiliste où la probabilité n’est pas fixée d’avance, mais déterminée par une règle linéaire de prix sur un ensemble d’actifs dérivés liquides. Cette approche, qui s’éloigne du cadre classique où une mesure de probabilité est donnée, permet d’établir une version du théorème fondamental de la valorisation des actifs sans référence préalable à une probabilité PP.

Sous certaines hypothèses, en particulier la dominance par convexité croissante μt+1cxμt\mu_{t+1} \succeq_{cx} \mu_t sur les lois marginales des prix d’actifs à différents instants, on construit un noyau stochastique Qt+1Q_{t+1} assurant la propriété centrale d’une mesure de martingale. Ce noyau satisfait yQt+1(x,dy)=x\int y Q_{t+1}(x, dy) = x et relie les distributions marginals μt\mu_t et μt+1\mu_{t+1} par μt+1=μtQt+1\mu_{t+1} = \mu_t Q_{t+1}. La mesure produit P=μ1Q2QTP^* = \mu_1 \otimes Q_2 \otimes \cdots \otimes Q_T alors définie sur le chemin complet du processus prix XX conserve la propriété que la loi marginale de XtX_t sous PP^* est μt\mu_t.

Cette mesure PP^* possède la propriété de Markov : la valeur conditionnelle d'une fonction mesurable bornée f(Xt)f(X_t) donnée l'information Fs\mathcal{F}_s dépend seulement de la valeur XsX_s. De plus, elle est une mesure de martingale, ce qui signifie que l'espérance conditionnelle des incréments du processus prix, compte tenu du passé, est nulle. Cette construction garantit que les prix calculés sous PP^* respectent la règle linéaire Φ\Phi initiale sur les actifs dérivés, assurant ainsi l'absence d'arbitrage dans ce cadre.

Le cadre peut être simplifié en considérant uniquement les options d'achat (calls) liquides à maturité fixe TT. L'espace des actifs dérivés se réduit alors à des combinaisons linéaires de fonctions constantes, de contrats à terme et d’options d'achat à cette maturité. La règle de prix ΦT\Phi_T, restreinte à cet espace, continue à satisfaire les hypothèses nécessaires, notamment que le prix des calls décroît vers zéro lorsque le prix d’exercice tend vers l’infini.

Sous ces conditions, la classe PΦ\mathcal{P}_\Phi des mesures de martingale compatibles avec la règle de prix est non vide. Chaque mesure PPΦP^* \in \mathcal{P}_\Phi peut être vue comme une extension cohérente de ΦT\Phi_T à un espace plus large, permettant d’évaluer toute réclamation européenne H0H \geq 0 sans arbitrage via l’espérance E[H]E^*[H].

Pour des options plus complexes, telles que les options digitales à barrière, on peut dériver des bornes supérieures sur leurs prix sans recourir à un modèle probabiliste spécifique. Par exemple, la valeur maximale arbitrage-free d’une option digitale avec barrière BB est donnée par une infimum sur les prix des calls à des prix d’exercice inférieurs à BB, ce qui repose sur l’inégalité liant la valeur de l’option digitale à une combinaison d’options vanilles. Cette borne exploite la propriété de martingale et le théorème de l’arrêt, assurant la cohérence des prix obtenus.

L’analyse des dérivées à gauche et à droite du prix des options vanilles, en lien avec la distribution marginale μT\mu_T du prix à maturité, permet d’identifier un quantile λ\lambda de cette distribution. Ce quantile joue un rôle clé dans la construction explicite d’une mesure de martingale P^\hat{P} qui réalise la borne optimale sur le prix de l’option digitale. La mesure P^\hat{P} est construite par un couplage soigneux entre une variable uniforme et la fonction quantile associée à μT\mu_T, assurant ainsi la propriété de martingale tout en respectant la distribution marginale imposée.

La compréhension fine des relations entre les prix des options vanilles, les distributions marginales des actifs sous-jacents, et les mesures de martingale compatibles constitue la base du superhedging dans un cadre sans modèle probabiliste fixé a priori. Cette approche modélise la valorisation d’actifs dérivés dans des environnements incertains, où la volatilité et la dynamique des prix ne sont pas présupposées, mais implicites dans la structure des prix observés.

Il est crucial de saisir que la non-emptied de PΦ\mathcal{P}_\Phi garantit la cohérence interne des prix observés des options vanilles et offre un cadre rigoureux pour évaluer et couvrir les risques des options exotiques. La construction des mesures PP^* reflète en quelque sorte un univers de marché compatible avec l’observation, sans nécessité d’imposer une mesure de probabilité préalable, ce qui constitue une avancée conceptuelle majeure pour la finance sans modèle.

Endtext

Comment caractériser et construire une stratégie localement de minimisation du risque dans un marché incomplet ?

L’existence d’une stratégie localement de minimisation du risque dans un marché financier, où plusieurs actifs risqués sont négociés, repose sur une décomposition spécifique de la valeur finale d’une créance contingente. Plus précisément, une telle stratégie existe si et seulement si la créance HH admet une décomposition dite orthogonale par rapport au processus des prix X=(X1,,Xd)X = (X_1, \ldots, X_d). Cette décomposition s’écrit sous la forme

H=c+t=1Tξt(XtXt1)+LT,P-presque suˆrement,H = c + \sum_{t=1}^T \xi_t \cdot (X_t - X_{t-1}) + L_T, \quad P\text{ -presque sûrement},

cc est une constante, ξ\xi est un processus prévisible à valeurs dans Rd\mathbb{R}^d tel que les incréments ξt(XtXt1)\xi_t \cdot (X_t - X_{t-1}) sont dans L2(P)L^2(P), et LL est une martingale carré-intégrable sous PP, orthogonale au processus XX (au sens fort, c’est-à-dire que le produit LML M est une martingale pour toute martingale MM issue de XX) et satisfaisant L0=0L_0 = 0.

Cette décomposition reflète un principe fondamental : le risque ne peut pas être complètement éliminé par couverture dynamique dans un marché incomplet. Ainsi, la composante LL représente le risque résiduel, strictement orthogonal aux mouvements des actifs négociés, qui ne peut être réduit par des stratégies basées uniquement sur ces actifs. La stratégie localement minimisante du risque est alors donnée par le processus ξ\xi apparaissant dans la décomposition, accompagné d’un processus de coût ξ^0\hat{\xi}_0 défini par une relation récursive qui incorpore la martingale LL.

Dans le cas où XX est une martingale sous PP, cette décomposition se réduit à la décomposition dite de Kunita–Watanabe, qui généralise la projection orthogonale dans un espace de Hilbert. Le cadre fonctionnel s’appuie sur l’espace H2H^2 des martingales carré-intégrables, muni d’un produit scalaire naturel. La stabilité des sous-espaces (fermeture sous l’opération d’arrêt à un temps d’arrêt) permet d’utiliser des projections orthogonales pour isoler la composante parfaitement couverte par des stratégies sur XX et la composante orthogonale.

Lorsque le marché est complet, la mesure PP est unique et chaque martingale peut être représentée intégralement comme une intégrale stochastique contre XX, ce qui signifie que le risque peut être totalement couvert. À l’inverse, dans un marché incomplet, la présence de la composante LL est inévitable et traduit la part du risque qui ne peut être éliminée.

La construction effective de la stratégie localement minimisante du risque repose donc sur l’identification de ce processus ξ\xi, solution à un problème d’orthogonalité dans H2H^2, et sur l’utilisation d’une mesure martingale, souvent appelée mesure minimale, qui permet d’interpréter le prix du risque et de garantir la propriété martingale des processus considérés.

Il est important de comprendre que la notion d’orthogonalité forte des martingales dépasse la simple indépendance classique ; elle est liée à la propriété que le produit des incréments est lui-même une martingale, ce qui assure une sorte d’absence d’anticipation commune dans l’évolution des risques représentés par ces martingales.

La théorie présentée met en lumière la dualité entre la couverture dynamique parfaite (dans les marchés complets) et la minimisation locale du risque dans les marchés incomplets, et propose un cadre rigoureux pour identifier la stratégie optimale dans ce dernier cas.

Au-delà de la seule existence et construction des stratégies localement minimisantes du risque, il est essentiel d’appréhender l’importance de la mesure de probabilité sous laquelle les processus de prix deviennent des martingales. Cette mesure martingale, si elle existe, donne un cadre naturel pour le calcul des prix sans arbitrage. La mesure minimale martingale, en particulier, est souvent la plus adaptée pour définir la dynamique des prix ajustée du risque dans un marché incomplet. Cette notion relie la théorie mathématique à des applications concrètes en finance, telles que l’évaluation et la gestion du risque de portefeuille.

Par ailleurs, la compréhension fine des décompositions orthogonales dans H2H^2 et de la projection sur les sous-espaces stables est une clé conceptuelle majeure pour toute modélisation avancée en finance stochastique, permettant de distinguer clairement la part du risque modélisable par la stratégie et la part intrinsèquement aléatoire non couverte.

Enfin, cette approche suggère des directions pour la modélisation et l’approximation numériques, puisque la recherche effective de la stratégie ξ\xi s’appuie sur des projections dans des espaces de Hilbert et sur la résolution d’équations intégrales stochastiques discrètes. La maîtrise de ces outils mathématiques est donc indispensable pour une mise en œuvre rigoureuse et opérationnelle des stratégies localement minimisantes du risque.

Comment la stratégie du portefeuille universel surpasse-t-elle les portefeuilles équilibrés ?

Les stratégies d'investissement, notamment celles qui visent à maximiser les rendements sur le long terme, ont longtemps été un sujet d'étude dans la finance quantitative. L'une des approches les plus intéressantes dans ce domaine est celle du portefeuille universel. Cette stratégie repose sur la gestion optimale d'un portefeuille en fonction de l'évolution du marché et de la dynamique de ses actifs. Mais comment cette stratégie se compare-t-elle aux portefeuilles classiques, comme ceux qui sont pondérés de manière égale, ou à des stratégies idéales basées sur la connaissance parfaite du futur, comme la stratégie optimale rétrospective ?

Pour mieux comprendre la performance des portefeuilles, considérons une étude de cas utilisant des données synthétiques. Imaginons un portefeuille composé de 10 actifs répartis dans différents secteurs du marché, chacun ayant des caractéristiques propres de rendement et de volatilité. À l'aide de la distribution multivariée log-normale, nous générons des vecteurs de performance dépendants et calculons la valeur des portefeuilles sur un nombre d'itérations élevé.

Les simulations montrent que la stratégie du portefeuille universel surperforme largement un portefeuille pondéré de manière égale. Cependant, cette performance relative semble fluctuer au fil du temps, comme le suggèrent les graphiques des figures comparant la croissance logarithmique des différentes stratégies. Dans certaines périodes, notamment celles de forte volatilité, le portefeuille universel semble légèrement en retard par rapport à une stratégie idéale basée sur des informations rétrospectives parfaites.

Ce phénomène met en lumière une caractéristique importante de la stratégie du portefeuille universel : sa lente convergence vers un rendement optimal. En effet, même avec des données abondantes, la stratégie n'atteint pas instantanément la performance d'une stratégie rétrospective idéale. Ce retard peut être attribué à l'approche adaptative du portefeuille universel, qui ne se base pas sur des anticipations parfaites des conditions futures, mais sur l'évolution des tendances passées et des ajustements continus du portefeuille.

Les graphiques des figures 12.5 et 12.7 révèlent que malgré l'énorme quantité de données utilisées, la stratégie du portefeuille universel est parfois dépassée par des stratégies basées sur des informations parfaites. Ce décalage, bien qu'apparent, ne doit pas être perçu comme une faiblesse, mais plutôt comme une caractéristique de l'incertitude inhérente aux marchés financiers. En d'autres termes, même les stratégies les plus avancées ne peuvent garantir un rendement optimal constant dans des environnements incertains.

Ce qui ressort de ces simulations, c'est que bien que la stratégie du portefeuille universel soit supérieure à une allocation simple et égale entre les secteurs, elle n'est pas infaillible. La performance peut être affectée par divers facteurs, tels que les périodes de crise économique ou des chocs imprévus sur le marché. La gestion de portefeuille ne consiste pas simplement à maximiser les rendements à tout prix, mais à comprendre et gérer les risques de manière proactive.

Dans ce contexte, il est essentiel pour l'investisseur de comprendre qu'une stratégie de portefeuille, qu'elle soit universelle ou fondée sur une autre méthode, doit être continuellement réévaluée. La diversité des actifs dans un portefeuille permet de minimiser certains risques, mais cette diversité doit être constamment ajustée pour s'adapter aux nouvelles informations du marché.

En conclusion, les résultats des simulations montrent l'intérêt de la stratégie du portefeuille universel, qui s'adapte dynamiquement à l'évolution des conditions économiques. Toutefois, l'investisseur doit être conscient que la gestion de portefeuille est un exercice complexe et que les stratégies optimales, même celles fondées sur des principes théoriques solides, peuvent présenter des rendements imprévisibles à court terme. Pour obtenir les meilleurs résultats, il est nécessaire d'intégrer à la fois des données historiques, des analyses prospectives et une gestion flexible des risques.

Comment un modèle de marché peut-il satisfaire la loi du prix unique sans être exempt d’arbitrage ?

Dans la théorie financière, la relation entre la loi du prix unique et l’absence d’arbitrage est fondamentale mais parfois subtile. Un modèle de marché peut satisfaire la loi du prix unique, c’est-à-dire que deux actifs ou portefeuilles délivrant le même paiement futur ont le même prix actuel, sans pour autant garantir qu’il soit exempt d’opportunités d’arbitrage. Cette distinction souligne que la loi du prix unique, bien que nécessaire, n’est pas suffisante pour assurer un marché sans arbitrage.

Le prix dans un modèle financier peut être vu comme une forme linéaire sur un espace vectoriel fini de portefeuilles. L’existence d’une mesure risque-neutre équivalente étend cette forme linéaire à un espace plus vaste, celui des variables aléatoires intégrables sous cette mesure. Cependant, cet espace est souvent de dimension infinie, rendant l’unicité de la mesure risque-neutre incertaine. Cela illustre la complexité croissante des modèles à mesure que l’on introduit davantage d’actifs ou de contingences.

Dans un marché sans arbitrage, la condition que toute stratégie de portefeuille avec un gain nul presque sûrement doit avoir un prix nul implique souvent la non-redondance des actifs : aucun actif ne peut être représenté comme une combinaison linéaire des autres. Cette non-redondance est cruciale pour la stabilité et la cohérence des modèles financiers, car elle évite la présence d’actifs inutiles ou redondants, ce qui pourrait autrement brouiller la compréhension des risques et des rendements.

Un marché non redondant présente une indépendance linéaire des gains nets actualisés, ce qui signifie que toute combinaison linéaire nulle des gains implique une combinaison triviale des coefficients. En outre, sous ces conditions, certaines propriétés topologiques, comme la compacité des ensembles de portefeuilles admissibles, sont garanties, renforçant la robustesse des modèles.

La notion de rendement d’un payoff réalisable joue un rôle fondamental : il est défini comme le ratio du gain actualisé par rapport à son prix. Dans un cadre sans arbitrage, le rendement attendu sous une mesure risque-neutre est égal au taux sans risque. Cette égalité repose sur la neutralité au risque de la mesure choisie et souligne que les rendements excédentaires ne peuvent pas être obtenus gratuitement.

De plus, sous une mesure équivalente quelconque, le rendement attendu s’ajuste selon la covariance entre la densité de changement de mesure et le rendement du payoff. Cette relation met en lumière l’importance des primes de risque et de la corrélation entre les actifs et la mesure de probabilité utilisée.

Lorsque l’on s’intéresse à un nombre infini d’actifs, comme dans les modèles où les prix sont des suites bornées, certaines implications classiques ne se maintiennent plus. Par exemple, l’existence d’une mesure risque-neutre équivalente n’est plus garantie même en l’absence d’opportunités d’arbitrage, un phénomène démontré par des exemples construits rigoureusement. Ce fait complexe rappelle que les modèles infinis requièrent des précautions particulières et ne doivent pas être abordés avec les mêmes intuitions que les modèles finis.

Par ailleurs, le marché réel ne se limite pas aux actifs primaires. Il inclut des instruments dérivés dont le paiement dépend de façon non linéaire des actifs sous-jacents, tels que les options, les contrats à terme (forwards et futures), et autres titres contingents. Ces instruments permettent de gérer et de transférer le risque de manière sophistiquée, mais ils complexifient aussi l’analyse du marché, notamment en termes d’évaluation et d’arbitrage.

Un contrat à terme engage la livraison d’un actif à une date future à un prix fixé d’avance, générant un payoff qui est la différence entre le prix du marché au moment de la livraison et ce prix fixé. Les options offrent des droits conditionnels d’achat ou de vente à un prix déterminé, introduisant des profils de payoff asymétriques et souvent plus complexes.

Il est important de comprendre que ces dérivés modifient la dynamique des risques et des opportunités dans le marché, et leur prix doit être cohérent avec celui des actifs sous-jacents pour éviter des arbitrages simples. La théorie du prix des dérivés repose ainsi sur une compréhension approfondie des mesures risque-neutres et de leur rôle dans la modélisation des marchés.

Une compréhension complète du cadre d’absence d’arbitrage nécessite également de reconnaître que la simple absence d’opportunités d’arbitrage instantané ne garantit pas la stabilité du modèle à long terme ni la non-existence d’opportunités plus complexes. Le concept de non-redondance, l’indépendance linéaire des gains nets, et les propriétés topologiques des ensembles de stratégies admissibles contribuent à la rigueur mathématique indispensable à une modélisation fiable.

Par ailleurs, le lecteur doit garder à l’esprit que l’extension aux marchés avec un nombre infini d’actifs oblige à une analyse plus fine, car certaines propriétés intuitives du cadre fini ne s’y appliquent pas automatiquement. Cela a des implications profondes pour la construction de modèles réalistes et pour l’évaluation correcte des actifs, particulièrement dans des marchés sophistiqués et segmentés.

La maîtrise de ces notions ouvre la voie à une compréhension plus rigoureuse de la finance moderne, où la complexité des produits financiers et la multiplicité des sources de risque requièrent des outils théoriques puissants et précis, permettant de garantir la cohérence des prix et la stabilité des marchés.

Quelle est la nature structurelle des mesures de risque basées sur les pertes utilitaires ?

L’unicité de la solution à l’équation définissant une mesure de risque basée sur une fonction de perte utilitaire repose sur la stricte monotonie de cette dernière. Si deux valeurs, r~\tilde{r} et rr, satisfont l’égalité E[(Xr)]=x0\mathbb{E}[ \ell(-X - r) ] = x_0, et que l’on suppose r~<r\tilde{r} < r, alors la nature strictement croissante de \ell sur son domaine effectif entraîne inévitablement une contradiction. En effet, (Xr)(Xr~)\ell(-X - r) \leq \ell(-X - \tilde{r}) presque sûrement, et avec probabilité strictement positive, cette inégalité est stricte. Par linéarité de l’espérance, il s’ensuit que E[(Xr)]<E[(Xr~)]\mathbb{E}[ \ell(-X - r) ] < \mathbb{E}[ \ell(-X - \tilde{r}) ], ce qui contredit l’hypothèse initiale. Ainsi, l’unicité est assurée dans le cas général où x0(inf,sup)x_0 \in (\inf \ell, \sup \ell).

Cette unicité, cependant, ne conditionne pas l’existence de solution : même lorsque x0=infx_0 = \inf \ell, une solution peut exister, à condition que la borne inférieure soit effectivement atteinte par \ell. Cette extension sera exploitée dans des démonstrations ultérieures, notamment dans les cadres robustes de la théorie.

Chaque mesure de risque convexe et invariante par loi peut être transposée en un fonctionnel défini sur l’espace des mesures de probabilité à support borné. Cela permet une abstraction des mesures au niveau distributionnel, facilitant l’étude de leurs propriétés structurelles. En particulier, lorsque la mesure de risque provient d’une fonction de perte utilitaire, la solution du problème peut être formulée comme l’unique racine d’une intégrale paramétrique (xr)dμ=x0\int \ell(-x - r) \, d\mu = x_0, fonction affine en μ\mu. Il en découle une propriété de convexité des ensembles de niveau de ce fonctionnel, connue sous le nom de convexité des ensembles de niveau des distributions (CxLS). Cette propriété est essentielle dans la caractérisation des mesures de risque élicitables.

La continuité inférieure des mesures de risque basées sur les pertes utilitaires garantit leur stabilité sous approximations monotones. Si une suite croissante de variables aléatoires XnX_n converge vers XX, la suite des risques ρ(Xn)\rho(X_n) décroît vers ρ(X)\rho(X). Ceci se démontre par continuité de \ell et convergence dominée, ce qui préserve l’égalité définissant la mesure de risque.

Lien particulièrement éclairant entre les mesures de risque utilitaires et les expectiles : en choisissant une fonction de perte asymétrique du type (x)=(1β)x+βx\ell(x) = (1-\beta)x^+ - \beta x^-, on montre que la mesure de risque définie par ρ(X)=inf{mRE[(Xm)]0}\rho(X) = \inf\{ m \in \mathbb{R} \mid \mathbb{E}[\ell(-X - m)] \leq 0 \} coïncide (à un signe près) avec l’expectile de XX au niveau β\beta. Cette correspondance souligne l'interprétation des expectiles comme points d'équilibre entre pertes pondérées, fournissant ainsi un lien profond entre statistique robuste et finance quantitative.

Dans le cas particulier d’une fonction de perte exponentielle (x)=eβx\ell(x) = e^{\beta x}, la mesure de risque obtenue est la mesure de risque entropique. La pénalité minimale associée peut être exprimée via l’entropie relative entre mesures de probabilité : elle reflète le coût informationnel d’un déplacement de la mesure de référence. On obtient alors une représentation duale élégante du type :

\rho(X) = \frac{1}{\beta} \left( \log \mathbb{E}[e^{\beta X}] - \log x