Le concept fondamental qui sous-tend la supercouverture dans un marché financier incomplet est exprimé par la formule U~t=\esssupQQS(EQ[HEATQFt]+AtQ)\tilde{U}^\uparrow_t = \esssup_{Q \in \mathcal{Q}_S} \left( E_Q[H E - A^Q_T | \mathcal{F}_t] + A^Q_t \right), qui, pour t=0t = 0, se réduit à U~0=supQQS(EQ[HE]EQ[ATQ])\tilde{U}^\uparrow_0 = \sup_{Q \in \mathcal{Q}_S} \left( E_Q[H E] - E_Q[A^Q_T] \right). Cette expression donne le coût initial minimal nécessaire pour assurer la supercouverture d’une réclamation financière HEH E. Cette formulation se rattache directement à la théorie des mesures de risque convexes, en particulier à travers la représentation duale qui relie le risque à une fonction de pénalité définie sur un ensemble de mesures équivalentes.

Considérons l’espace LL^\infty des positions financières, où une position YY est dite acceptable si elle peut être couverte sans coût supplémentaire par une stratégie admissible ξS\xi \in S, autrement dit si Y+ξt(XtXt1)0Y + \sum \xi_t \cdot (X_t - X_{t-1}) \geq 0 presque sûrement. L’ensemble des positions acceptables ASA_S est convexe grâce à la convexité de SS. Sous la condition d'absence d'arbitrage, ASA_S induit une mesure de risque convexe ρS\rho_S, définie comme ρS(Y)=inf{mRm+YAS}\rho_S(Y) = \inf \{ m \in \mathbb{R} \mid m + Y \in A_S \}. Cette mesure est normalisée, c’est-à-dire que ρS(0)=0\rho_S(0) = 0, et sa sensibilité est équivalente à l'absence d'opportunités d'arbitrage dans SS.

La dualité fondamentale se traduit par la formule ρS(Y)=supQQS(EQ[Y]EQ[ATQ])\rho_S(Y) = \sup_{Q \in \mathcal{Q}_S} \left( E_Q[-Y] - E_Q[A^Q_T] \right), qui relie la mesure de risque au coût ajusté par la pénalité ATQA^Q_T sous chaque mesure QQ. Cette égalité révèle que la mesure de risque convexe peut être vue comme une généralisation naturelle du prix de supercouverture, intégrant la notion de pénalité pour la prise de risque.

Passant de la supercouverture à la gestion active du risque, l’approche locale de minimisation du risque quadratique propose une méthode alternative dans un marché incomplet. Plutôt que de contrôler strictement le risque à la baisse, on vise à minimiser l’erreur quadratique de couverture, c’est-à-dire la variance de la différence entre la valeur finale de la stratégie et le payoff à couvrir.

Les stratégies sont ici généralisées, définies par une paire de processus stochastiques (ξ0,ξ)(\xi^0, \xi), où ξ0\xi^0 est adapté et ξ\xi prévisible, permettant des ajustements à chaque instant dans l’actif de référence. La valeur de la position est donnée par Vt=ξt0+ξtXtV_t = \xi^0_t + \xi_t \cdot X_t, et le processus des gains accumulés Gt=k=1tξk(XkXk1)G_t = \sum_{k=1}^t \xi_k \cdot (X_k - X_{k-1}). La différence Ct=VtGtC_t = V_t - G_t représente le coût cumulé, non nécessairement nul, d’une stratégie non autofinancée.

Dans ce cadre, la minimisation locale du risque quadratique s’appuie sur la définition du processus de risque local Rtloc(ξ0,ξ)=E[(Ct+1Ct)2Ft]R^{loc}_t(\xi^0, \xi) = E[ (C_{t+1} - C_t)^2 | \mathcal{F}_t ], qui mesure le risque conditionnel à chaque étape. Une stratégie localement risk-minimizing minimise ce critère à chaque instant sous la contrainte de répliquer la réclamation finale HH.

L’intérêt de cette approche est multiple : elle s’adapte aux marchés incomplets où la réplication parfaite est impossible ou coûteuse, et elle fait intervenir une décomposition orthogonale de type Kunita–Watanabe, généralisant la théorie des martingales. La construction de telles stratégies repose sur une récursivité temporelle où la minimisation locale à chaque étape détermine les ajustements optimaux, offrant ainsi une méthodologie robuste pour le contrôle dynamique du risque.

Il convient de souligner que cette approche repose sur des hypothèses d’intégrabilité quadratique des prix et des gains, assurant la pertinence mathématique du critère et des décompositions utilisées. De plus, la liberté permise par les stratégies non autofinancées implique un cadre plus large, où les coûts et ajustements peuvent être interprétés comme des flux monétaires exogènes ou internes, ce qui enrichit la modélisation de la couverture.

Il est important de comprendre que le lien entre mesures de risque convexes et minimisation locale du risque quadratique illustre deux facettes complémentaires de la gestion des risques en finance moderne : l’une plus statique et conservatrice (supercouverture et mesures de risque convexes), l’autre plus dynamique et probabiliste (minimisation locale et stratégies quadratiques). Ensemble, elles forment une base théorique solide pour aborder la couverture dans des environnements financiers complexes et incomplets.

Comment la mesure de Shannon-Boltzmann maximise l'entropie relative : une exploration des fonctions quantiles

La notion d'entropie est au cœur de nombreuses applications en théorie de l'information, notamment lorsqu'il s'agit de comprendre comment les mesures statistiques se comportent sous transformation. Dans ce cadre, l'entropie relative joue un rôle clé, en particulier lorsqu'elle est utilisée pour comparer une mesure avec une autre, de référence. Cela est notamment illustré dans le contexte des mesures de Gibbs, qui maximisent l'entropie de Shannon-Boltzmann parmi les mesures ayant une espérance donnée.

Il est important de noter que la démonstration de (C.3) et celle du corollaire C.7 ne font pas appel au fait que la mesure P soit une mesure de probabilité. Par conséquent, l'expression (C.8) reste valide même si P est remplacée par une mesure de référence arbitraire R, tant que R ≥ 0. Par exemple, on peut utiliser la mesure de comptage sur un ensemble dénombrable Ω ou la mesure de Lebesgue sur ℝ^d. Dans ces deux derniers cas, l'entropie de Shannon-Boltzmann d'une mesure de probabilité Q par rapport à R est donnée par S(Q):=H(QR)=logdQdRdQS(Q) := -H(Q|R) = -\int \log \frac{dQ}{dR} \, dQ, et cette quantité est souvent appelée l'entropie de Shannon-Boltzmann d'une mesure de probabilité Q, avec Q ≪ R.

L'entropie de Shannon-Boltzmann S(Q) mesure donc l'écart entre une mesure Q et une mesure de référence R, et comme le montre (C.8), la mesure de Gibbs RZRZ, définie comme dans (C.4) mais avec R à la place de P, maximise cette entropie parmi toutes les mesures Q qui ont la même espérance EQ[Z]E_Q[Z]. Plus précisément, sous l'hypothèse que ER[eZ](0,)E_R[e^Z] \in (0, \infty) et ER[ZeZ]<E_R[|Z| e^Z] < \infty, il est démontré que S(Q)S(RZ)S(Q) \leq S(RZ) pour toute mesure Q ayant la même espérance EQ[Z]E_Q[Z] que la mesure de Gibbs RZRZ. Cette propriété s'appuie sur le fait que H(QRZ)0H(Q|RZ) \geq 0, ce qui donne un cadre mathématique robuste à l'entropie relative dans le contexte des mesures statistiques.

Un exemple concret de l'application de cette entropie relative est donné par la distribution normale μ=N(m,σ2)\mu = N(m, \sigma^2) sur l'ensemble Ω=R\Omega = \mathbb{R}. L'entropie de Shannon-Boltzmann associée à cette distribution est S1(μ)=12(log(2πσ2)+1)S_1(\mu) = \frac{1}{2} \left( \log(2\pi \sigma^2) + 1 \right), et elle atteint sa valeur maximale parmi toutes les distributions de probabilité sur R\mathbb{R} ayant la même variance σ2\sigma^2. Ce cas particulier démontre l'importance de l'entropie dans l'optimisation de mesures statistiques en fonction de certaines contraintes, comme la variance dans ce cas précis.

En parallèle, il existe des applications intéressantes des fonctions quantiles, notamment dans l'inversion de fonctions. Soit F:(a,b)RF : (a, b) \to \mathbb{R} une fonction croissante définie sur un intervalle non vide (a,b)(a, b). Dans le contexte des variables aléatoires continues, FF peut être la fonction de répartition cumulative d'une variable aléatoire XX sur un espace de probabilité (Ω,F,P)(\Omega, \mathcal{F}, P), où F(x)=P[Xx]F(x) = P[X \leq x] pour xRx \in \mathbb{R}. L'objectif ici est de définir une fonction q:(c,d)(a,b)q : (c, d) \to (a, b), qui agit comme l'inverse de FF, bien que FF puisse comporter des discontinuités et des étirements horizontaux. Une fonction qq est appelée fonction inverse de FF si, pour tout s(c,d)s \in (c, d), on a F(q(s))sF(q(s)+)F(q(s)-) \leq s \leq F(q(s)+). Les fonctions inverses gauches et droites, qq- et q+q+, sont définies respectivement par q(s)=sup{x(a,b)F(x)<s}q-(s) = \sup \{ x \in (a, b) | F(x) < s \} et q+(s)=inf{x(a,b)F(x)>s}q+(s) = \inf \{ x \in (a, b) | F(x) > s \}.

Les propriétés des fonctions inverses sont également cruciales pour comprendre la continuité des transformations. Par exemple, la fonction q+q+ est continue à droite, tandis que qq- est continue à gauche. Chaque fonction inverse doit être croissante et satisfait q(s)=q(s)q(s-) = q-(s) et q(s+)=q+(s)q(s+) = q+(s) pour tous s(c,d)s \in (c, d). Ces résultats sont essentiels pour l'analyse des comportements des transformations sous différentes mesures.

Enfin, il est intéressant de noter que chaque fonction inverse satisfait les propriétés de continuité et que ces fonctions peuvent être généralisées à d'autres types de fonctions FF. Par exemple, toute fonction qq inverse de FF satisfait aussi la relation F(q(s)+)=inf{t(c,d)q(t)>x}F(q(s)+) = \inf \{ t \in (c, d) | q(t) > x \} pour xx tel que F(x)<dF(x) < d, ce qui permet de relier les concepts d'inverses et de réciprocité dans les systèmes statistiques.

Il est essentiel de comprendre que ces notions d'entropie, de mesure de Gibbs, et de fonctions inverses ne sont pas seulement des outils théoriques abstraits, mais qu'elles trouvent des applications dans des domaines aussi variés que la thermodynamique, la physique statistique, et l'apprentissage automatique. Les mesures de Shannon-Boltzmann, par exemple, sont essentielles pour optimiser les distributions de probabilité sous contraintes, tandis que les fonctions quantiles permettent une meilleure compréhension des comportements asymptotiques des fonctions de répartition. Une maîtrise de ces concepts permet de mieux appréhender les structures profondes des systèmes complexes, que ce soit dans le cadre de la théorie de l'information, des statistiques bayésiennes, ou de la modélisation des phénomènes stochastiques.

Comment évaluer les prix et stratégies de supercouverture dans un modèle sans hypothèse probabiliste grâce aux options liquides ?

La fonction convexe hh appliquée à une variable aléatoire X1X_1 peut être évaluée dans un modèle binaire simple où X1X_1 ne prend que deux valeurs aa et bb. Le prix associé est donné par la combinaison convexe ph(b)+(1p)h(a)p^* h(b) + (1-p^*) h(a), où le poids pp^* est déterminé de sorte que l'espérance pondérée de X1X_1 égale un prix de marché observé π1\pi_1. Ce cadre permet d'illustrer la supercouverture, mais les stratégies issues de cette approche sont souvent coûteuses dans la pratique. Néanmoins, elles fournissent une base fondamentale pour la construction ultérieure de stratégies plus efficientes en termes de coût et de risque résiduel, notamment à travers des méthodes de couverture partielle.

Considérons un exemple simple : un modèle à une période où le prix S11S_{11} suit une loi de Poisson sous une certaine mesure PP, avec S01S_0 \equiv 1. Pour une option d'achat européenne avec prix d'exercice KK, les bornes de prix sans arbitrage coïncident avec les bornes universelles d'arbitrage. Le vendeur peut alors se couvrir de manière triviale en achetant l'actif initialement, tandis que l'acheteur peut se protéger en vendant à découvert l'actif si l'option est dans la monnaie. Ce scénario illustre la simplicité relative de la supercouverture dans des modèles discrets et ses limites pratiques.

Dans un contexte plus réaliste, certaines options comme les calls ou puts sont suffisamment liquides pour que leurs prix soient observables sur le marché, au même titre que ceux des actifs sous-jacents. Ces prix fournissent une information précieuse sur les attentes implicites du marché concernant l'évolution future des actifs. En exploitant cette information, il est possible de restreindre l'ensemble des mesures martingales compatibles avec les prix observés, autrement dit les probabilités « risquées neutres » qui justifient les prix du marché par espérance des gains actualisés.

Imaginons un actif risqué unique dont le prix initial est S0S_0 (constante positive) et la dynamique est donnée par la suite des prix Xt=S1t0X_t = S_{1t} \geq 0, avec une obligation sans risque de taux nul. Nous travaillons dans un cadre purement fonctionnel, sans mesure de probabilité donnée a priori, sur un espace produit de scénarios. On définit un espace linéaire XX de fonctions mesurables, englobant notamment l’investissement unitaire dans l’obligation sans risque, les contrats à terme (forwards) sur l’actif, et les options européennes call de toute maturité et prix d’exercice.

Un principe fondamental est que la règle de prix Φ\Phi appliquée à ces actifs doit être linéaire, normalisée (Φ(1)=1\Phi(1)=1), positive (Φ(Y)0\Phi(Y) \geq 0 si Y0Y \geq 0), et cohérente avec l’évaluation des forwards (Φ((XtXs)1A)=0\Phi((X_t - X_s) 1_A) = 0 pour tout événement AA connu à l’instant ss). De plus, le prix des calls doit tendre vers zéro lorsque le prix d’exercice devient très élevé, ce qui traduit la disparition progressive de la valeur intrinsèque de ces options.

Cette formalisation rigoureuse garantit l’absence d’opportunités d’arbitrage et ouvre la voie à l’existence d’une mesure de probabilité PP^*, dite martingale, compatible avec Φ\Phi. Autrement dit, les prix observés correspondent à des espérances sous cette mesure, ce qui permet d’étendre la valorisation aux options plus complexes, y compris les options exotiques dépendant du chemin.

La construction de cette mesure repose notamment sur la représentation intégrale des prix des options call par rapport à une mesure positive μt\mu_t, obtenue grâce à la convexité et la décroissance des prix en fonction du prix d’exercice. La mesure μt\mu_t a une moyenne égale au prix initial X0X_0, assurant ainsi la cohérence avec le prix du sous-jacent. Par des arguments de monotonie au sens de la convexité, les mesures μt+1\mu_{t+1} dominent μt\mu_t, ce qui correspond intuitivement à la propriété de martingale de la dynamique sous la mesure risque-neutre.

Il est essentiel de comprendre que ce cadre abstrait et fonctionnel de valorisation repose sur une symbiose entre la structure des marchés liquides d’options et la théorie des mesures de martingale, sans présumer d’une distribution probabiliste initiale. Cette approche révèle la profondeur des liens entre prix de marché observables, absence d’arbitrage, et modélisation des risques, tout en offrant un outil puissant pour la construction de stratégies de couverture optimales.

Au-delà de l’aspect purement mathématique, il faut aussi saisir que la supercouverture parfaite, bien que conceptuellement rassurante, est souvent impraticable en raison de son coût élevé. Les traders et gestionnaires de risque doivent donc naviguer entre des compromis impliquant une certaine prise de risque résiduel et des stratégies moins coûteuses, issues d’adaptations de la supercouverture. De plus, la disponibilité et la liquidité des options sur le marché jouent un rôle central, car elles enrichissent le référentiel d’instruments financiers permettant une meilleure réplication des risques et une tarification plus précise.

Enfin, la compréhension de ces principes est cruciale pour appréhender les développements avancés en finance quantitative, notamment dans la gestion des risques liés à des produits dérivés complexes, ainsi que dans l’étude des marchés incomplets où les hypothèses classiques de modèles probabilistes ne suffisent pas. La richesse de ce cadre « model-free » souligne l’importance d’une approche robuste, fondée sur les prix observés et la structure fonctionnelle des instruments financiers, en lieu et place de modèles probabilistes rigides et parfois irréalistes.