La problématique centrale abordée consiste à minimiser le risque de perte résiduelle lors d'une opération de couverture financière, sous contraintes de capital initial et dans un cadre de marchés sans arbitrage. Le texte met en lumière l'utilisation des mesures de risque convexes, notamment l'Average Value at Risk (AV@R), pour formuler et résoudre ce problème.

L'équation initiale illustre la relation entre le capital investi et le résultat terminal de la stratégie de couverture, encadrée par la fonction de risque ρ, qui évalue le risque résiduel après couverture. L'argument principal repose sur l'existence d'une stratégie super-hedging (supercouverture) V*, assurant que le portefeuille terminal dépasse la valeur du passif à couvrir, Y*, presque sûrement, et que cette stratégie minimise la mesure de risque.

Le théorème fondamental de la section est la Proposition 8.25, qui garantit l'existence d'une solution au problème statique d'optimisation du risque (minimisation de ρ(Y − H) sous contraintes) lorsque la mesure de risque ρ est inférieure semi-continue relativement à la convergence presque sûre et que H est borné ou que ρ est continue par le haut. Cette continuité est cruciale pour assurer la stabilité des solutions et leur atteignabilité dans un cadre probabiliste robuste.

Le texte approfondit ensuite le cas où le marché est complet, c’est-à-dire où la mesure de risque est unique (P = {P*}), simplifiant ainsi le problème à une minimisation sous contrainte d’espérance. Cette reformulation mène à un problème dual où la mesure de risque est appliquée à une variable auxiliaire Z définie par Z = H − Y. Ce changement de variable permet d’exploiter les propriétés convexes de ρ.

L’AV@Rλ, une mesure de risque cohérente et populaire, est alors détaillée. Par sa représentation duale, elle peut être exprimée comme une minimisation sur un paramètre réel r, ce qui transforme un problème de minimax en un problème de minimisation classique. Cette dualité est exploitée pour obtenir une forme explicite de la solution optimale Z*, caractérisée par des seuils critiques sur la densité de prix φ = dP*/dP, reflétant l'importance relative des scénarios dans la mesure de risque.

La solution optimale se présente sous la forme d’une fonction indicatrice liée à ces seuils, associée à une éventuelle pondération partielle sur le seuil lui-même, traduisant une couverture partielle dans certains scénarios. Cette forme est interprétable comme une stratégie adaptative, qui couvre pleinement les scénarios les plus risqués (où φ dépasse un seuil c) et partiellement les autres, afin d’atteindre le capital disponible υ̃.

Un point important est la condition d’unicité de la solution lorsque H = 1 et que φ possède une fonction quantile strictement croissante, ainsi que l’existence d’un capital critique υ*, qui délimite deux régimes distincts de couverture optimale. En dessous de ce capital, la stratégie est une couverture binaire (tout ou rien), tandis qu’au-dessus, elle implique une couverture partielle graduée. Ce phénomène reflète la sensibilité du risque résiduel aux ressources initiales allouées et illustre la nature graduelle et non linéaire de la couverture efficace.

La preuve rigoureuse repose sur des arguments d’optimalité, d’inégalités de Fatou, et sur des contradictions obtenues en testant la violation des bornes naturelles sur Z*. Cela met en lumière la structure intrinsèque du problème et la robustesse de la solution obtenue.

Au-delà de la théorie pure, il est essentiel de comprendre que cette modélisation intègre des hypothèses clés sur la structure du marché (absence d’arbitrage, continuité des mesures), la nature de la mesure de risque (convexe, cohérente), et la connaissance précise des distributions sous-jacentes des prix (densité φ). Ces éléments conditionnent fortement la validité pratique des résultats et la pertinence des stratégies dérivées.

L’approche développe ainsi une méthodologie générale permettant de concilier contraintes de capital limité, incertitude modélisée par des probabilités multiples, et critères de risque flexibles et informés. Elle illustre comment l’optimisation sous contraintes probabilistes complexes peut s’ancrer dans des outils mathématiques puissants comme la dualité, la convexité, et la convergence presque sûre.

Enfin, au-delà du résultat purement mathématique, il importe de saisir que la couverture efficace avec des mesures de risque convexes n’est pas une simple extension mécanique de la couverture classique, mais un cadre plus réaliste et robuste qui permet de gérer des marchés incomplets, des risques extrêmes, et des contraintes opérationnelles. L’adaptation des stratégies à la structure de la densité de prix traduit une sophistication accrue dans la gestion du risque, ouvrant la voie à des applications plus fines en finance quantitative, gestion de portefeuille et ingénierie financière.

Comment le modèle CRR converge-t-il vers les prix Black–Scholes et quelle est la stabilité des mesures de risque cohérentes dynamiques ?

Le modèle binomial de Cox-Ross-Rubinstein (CRR) occupe une place centrale dans la modélisation financière en temps discret, offrant une approximation constructive des prix des options dans le cadre continu du modèle Black–Scholes. Cette convergence illustre comment un cadre discret, plus accessible en termes mathématiques, peut rendre compte avec précision des dynamiques complexes du marché financier sous des hypothèses raisonnables. Le modèle CRR repose sur un processus stochastique simple qui simule l’évolution du prix d’un actif à chaque pas de temps en adoptant une approche combinatoire, permettant ainsi une évaluation progressive des dérivés financiers.

La stabilité du modèle CRR est intimement liée à sa capacité à « coller » ou « assembler » localement les solutions sur différents intervalles temporels, sans générer de discontinuités ni d’artefacts dans les prix ou les stratégies de couverture. Cette propriété de pasting garantit une cohérence dynamique essentielle pour la construction de mesures de risque cohérentes dans le temps. En effet, les mesures de risque cohérentes dynamiques, qu’elles soient basées sur des normes de type coherent risk measures ou sur des notions de cohérence dynamique, imposent que les évaluations des risques à différents horizons temporels s’emboîtent naturellement, sans contradictions ni arbitrages temporaux non désirés.

Une avancée notable est la prise en compte des mesures de risque « law-invariant », c’est-à-dire celles qui dépendent uniquement de la loi de probabilité (distribution) des gains ou pertes et non de leur réalisation particulière. Cette invariance ouvre la voie à une représentation robuste et plus réaliste du risque dans des marchés incomplets, où l’absence de couverture parfaite oblige à prendre en compte l’aversion au risque et les préférences des investisseurs. La relation entre ces mesures de risque et l’intégration de Choquet, notamment via des distorsions concaves, permet d’élargir le cadre d’analyse à des fonctions non linéaires d’évaluation des probabilités, reflétant mieux les attitudes subjectives face à l’incertitude et à l’ambiguïté.

L’étude approfondie des fondements probabilistes et analytiques de ces modèles, basée sur la théorie des martingales en temps discret, fournit une rigueur mathématique qui dépasse le simple calcul numérique. Elle met en lumière l’interaction subtile entre l’analyse fonctionnelle et la théorie des probabilités, nécessaire pour comprendre le comportement asymptotique des modèles et leur robustesse. Ces outils sont indispensables pour appréhender la complexité des marchés financiers modernes, où les hypothèses classiques de complétude et de parfaite liquidité sont rarement respectées.

Il est également essentiel de considérer que la théorie classique de l’utilité espérée, bien que fondatrice, ne suffit pas à rendre compte pleinement des préférences face à l’incertitude dans des contextes réels, souvent marqués par des ambiguïtés et des risques non quantifiables par une simple probabilité. Les mesures de risque dynamiques prennent en charge ces limitations, offrant des cadres plus souples et adaptés aux situations d’incomplétude et de modélisation robuste.

La maîtrise de ces concepts implique une compréhension des relations entre différentes approches : de la théorie du risque traditionnelle, aux méthodes de représentation robuste, jusqu’aux nouvelles formes d’évaluation fondées sur des principes de cohérence dynamique et de stabilité. Cette synthèse est indispensable pour toute analyse financière avancée, où la modélisation mathématique doit s’allier à une interprétation économique solide.

Par ailleurs, il convient de garder à l’esprit que la construction de modèles en temps discret ne doit pas être vue uniquement comme une simplification technique, mais bien comme un cadre pédagogique et conceptuel qui permet d’embrasser des questions fondamentales liées à l’arbitrage, la couverture, et l’optimisation sous contraintes de risque. Le passage progressif au temps continu se fait ainsi avec une base conceptuelle solide, évitant les pièges d’approximations hâtives.

Enfin, le développement récent des mesures de risque cohérentes dynamiques, et leur lien avec les distorsions concaves et l’intégration de Choquet, souligne l’importance de la flexibilité dans l’évaluation du risque. Cela reflète la diversité des attitudes des agents économiques et la nécessité d’outils mathématiques capables d’englober cette diversité sans sacrifier la rigueur.

Comment minimiser l'entropie dans un cadre de mesures de risque robustes ?

Le corollaire 4.129 mène à un problème de minimisation de l'entropie suivant : pour un ensemble donné QQ et un ensemble de mesures de probabilité QQ, il s'agit de trouver infH(QP)\inf H(Q|P), où PQP \in Q. Ce problème diffère du problème classique de minimisation de H(QP)H(Q|P) par rapport à la première variable QQ, comme il est abordé dans la section 3.2 et dans l'annexe C. L'objectif ici est de considérer la mesure de risque ρ(X)\rho(X) dans un cadre où l'incertitude du modèle peut être prise en compte, notamment en introduisant des fonctions convexes comme (x)\ell(x), qui modifient la structure de l'entropie dans ce type de problème.

Prenons par exemple l'exemple 4.131. Si x0=0x_0 = 0 dans la relation (4.102) et que (x):=x\ell(x) := x, alors la fonction (z)\ell^*(z) est définie comme suit : elle est égale à 00 si z=1z = 1 et prend la valeur ++\infty sinon. Par conséquent, α(Q)=\alpha(Q) = \infty si QPQ \neq P, et la mesure de risque ρ(X)\rho(X) est donnée par ρ(X)=E[X]\rho(X) = \mathbb{E}[ -X ]. Dans ce cadre, si QQ est un ensemble de mesures de probabilité, la mesure de risque ρ\rho de ce corollaire 4.129 est cohérente et se traduit par ρ(X)=supPEP[X]\rho(X) = \sup_P \mathbb{E}_P[ -X ].

Ce type de résultat se comprend mieux en examinant une situation où l'incertitude du modèle est décrite par une famille paramétrique PθP_{\theta} pour θΘ\theta \in \Theta. Pour chaque modèle PθP_{\theta}, l'utilité attendue d'une variable aléatoire XLX \in L^\infty est Eθ[u(X)]\mathbb{E}_{\theta}[ u(X) ], où u:RRu : \mathbb{R} \to \mathbb{R} est une fonction d'utilité donnée. Dans une approche bayésienne, on choisirait une distribution a priori μ\mu sur Θ\Theta, ce qui introduit un risque lié au modèle. La neutralité au risque par rapport à ce risque de modèle serait alors décrite par la fonctionnelle d'utilité U(X)=Eθ[u(X)]μ(dθ)U(X) = \int \mathbb{E}_{\theta}[ u(X) ] \mu(d\theta). Il s'agit d'un exemple de mesure de risque en présence d'incertitude, où la fonctionnelle d'utilité est définie par une intégrale, ce qui permet d'agréger l'incertitude à travers une probabilité a priori.

Pour prendre en compte l'aversion au risque par rapport à ce risque de modèle, on peut choisir une autre fonction d'utilité u^:RR\hat{u} : \mathbb{R} \to \mathbb{R} et considérer la fonctionnelle U^(X)\hat{U}(X) définie par u^(U^(X))=u^(Eθ[u(X)])μ(dθ)\hat{u}(\hat{U}(X)) = \int \hat{u}(\mathbb{E}_{\theta}[ u(X) ]) \mu(d\theta). On peut démontrer que U^\hat{U} est quasi-concave, c'est-à-dire que U^(λX+(1λ)Y)min(U^(X),U^(Y))\hat{U}(\lambda X + (1 - \lambda)Y) \geq \min(\hat{U}(X), \hat{U}(Y)) pour X,YLX, Y \in L^\infty et 0λ10 \leq \lambda \leq 1. Si u^(x)=1eβx\hat{u}(x) = 1 - e^{ -\beta x}, alors la fonctionnelle U^(X)\hat{U}(X) prend la forme U^(X)=ρ(u(X))\hat{U}(X) = -\rho(u(X)), où ρ\rho est une mesure de risque convexe. Cela montre que la fonctionnelle d'utilité peut être reliée à une mesure de risque robuste.

Dans le contexte de cette approche, il est intéressant de calculer la fonction de pénalité minimale dans la représentation robuste de ρ\rho. Lorsque Θ\Theta est un ensemble fini, il devient possible d'exprimer cette fonction en termes de la probabilité a priori μ\mu et des différentes valeurs possibles des mesures de risque. Ce calcul a une importance pratique dans l'optimisation des décisions en présence d'incertitude et dans la gestion de portefeuilles financiers ou d'assurances face aux risques extrêmes.

Les résultats ci-dessus peuvent être généralisés pour des fonctions convexes \ell, comme dans les théorèmes et corollaires suivants, où la fonction \ell^* est une fonction convexe et propre, c'est-à-dire qu'elle est convexe et prend une valeur finie. L'importance de ces propriétés est liée à la construction de mesures de risque robustes qui tiennent compte des fluctuations des modèles et des paramètres. Par exemple, la fonction \ell^* peut être utilisée pour décrire la variabilité d'un actif financier, ou pour ajuster les risques associés à une assurance en fonction des scénarios les plus extrêmes.

Ainsi, dans les analyses de risques financiers ou d'assurance, il est crucial de considérer non seulement les modèles de risque standards, mais aussi des modèles plus robustes qui prennent en compte les incertitudes de modèle et qui utilisent des outils tels que les transformations de Fenchel–Legendre. Ces approches permettent de mieux gérer les risques extrêmes et de prendre en compte les biais inhérents à la modélisation.

Qu’est-ce qu’une stratégie auto-financée et comment l’arbitrage est-il exclu dans un modèle de marché multi-période ?

Le processus des gains exprimé en unités de numéraire, noté Gt=k=1tξk(XkXk1)G_t = \sum_{k=1}^t \xi_k \cdot (X_k - X_{k-1}), représente, dans la mesure du numéraire choisi, les gains nets accumulés via la stratégie de trading ξ\xi jusqu’au temps tt. Pour une stratégie auto-financée ξ\xi, l’identité fondamentale

ξtSt=ξ1S0+k=1tξk(SkSk1)\xi_t \cdot S_t = \xi_1 \cdot S_0 + \sum_{k=1}^t \xi_k \cdot (S_k - S_{k-1})

reste vraie dès lors que toutes les quantités sont exprimées en unités de numéraire. Cette égalité exprime que toute variation de la valeur du portefeuille est uniquement due aux variations de prix des actifs détenus, sans apport ni retrait de capitaux extérieurs au portefeuille.

Trois conditions équivalentes caractérisent une stratégie auto-financée :
(a) ξ\xi est auto-financée,
(b) ξtXt=ξt+1Xt\xi_t \cdot X_t = \xi_{t+1} \cdot X_t pour tout tt,

(c) la valeur du portefeuille suit Vt=V0+Gt=ξ1X0+k=1tξk(XkXk1)V_t = V_0 + G_t = \xi_1 \cdot X_0 + \sum_{k=1}^t \xi_k \cdot (X_k - X_{k-1}).

La preuve de cette équivalence découle de la réécriture de la condition auto-financée en unités de numéraire, et de l’observation que la variation de portefeuille entre deux instants successifs s’exprime par les variations de la valeur des actifs pondérées par la stratégie.

Le processus composante ξ0\xi^0 associé au numéraire s’ajuste automatiquement pour garantir l’auto-financement, via la relation

ξt+10ξt0=(ξt+1ξt)Xt,\xi^0_{t+1} - \xi^0_t = - (\xi_{t+1} - \xi_t) \cdot X_t,

qui lie l’évolution de la position en numéraire aux variations des positions dans les actifs risqués. Ainsi, une stratégie auto-financée est entièrement déterminée par son investissement initial V0V_0 et la composante ξ\xi sur les actifs risqués, ce qui simplifie considérablement son étude.

Le choix du numéraire, souvent l’actif sans risque dans la devise domestique, peut varier selon les investisseurs, selon leurs préférences ou leur localisation géographique. Par exemple, un investisseur européen choisira le bond en euros comme numéraire, tandis qu’un investisseur américain privilégiera le bond en dollars. Cette variabilité souligne l’importance d’examiner la robustesse des concepts financiers à un changement de numéraire, garantissant ainsi la cohérence des résultats dans des cadres économiques différents.

Dans un marché sans opportunités d’arbitrage, il est démontré que l’absence d’arbitrage global découle de l’absence d’arbitrage sur chaque période individuelle. Plus précisément, une opportunité d’arbitrage existe s’il existe un instant tt et un vecteur η\eta mesurable à Ft1\mathcal{F}_{t-1} tel que

η(XtXt1)0presque suˆrement, avec une probabiliteˊ strictement positive de gain strict,\eta \cdot (X_t - X_{t-1}) \geq 0 \quad \text{presque sûrement, avec une probabilité strictement positive de gain strict},

ce qui traduit la possibilité d’obtenir un gain sans risque initial ni perte possible. Ce critère local permet d’identifier et d’éliminer les arbitrages à l’échelle du modèle multi-période, assurant ainsi une cohérence économique.

Une conséquence essentielle est que le processus de valeur d’une stratégie auto-financée dans un marché sans arbitrage doit être « juste » : les variations conditionnelles de la valeur ne peuvent être strictement positives ou négatives sans être nulles presque sûrement, ce qui empêche toute « manœuvre » profitable certaine.

La notion clé pour formaliser cette équité est celle de martingale, un processus stochastique adapté à une filtration, intégrable et dont la valeur conditionnelle future espérée, compte tenu de l’information disponible, est égale à sa valeur présente. En termes financiers, une martingale traduit l’idée d’un « jeu équitable », où aucune stratégie basée sur l’information passée ne peut espérer un gain certain.

La mesure de probabilité QQ sous laquelle le processus des prix actualisés XX est une martingale s’appelle mesure martingale. Si cette mesure est équivalente à la mesure réelle PP, c’est une mesure martingale équivalente, qui assure l’absence d’arbitrage. L’existence d’une telle mesure est ainsi un critère fondamental pour caractériser un modèle de marché sans arbitrage.

Dans cette perspective, la densité relative entre deux mesures équivalentes forme un processus qui est lui-même une martingale, garantissant la cohérence probabiliste du changement de mesure.

Ces notions mathématiques sont essentielles pour construire un cadre rigoureux d’évaluation financière, qui permet d’éviter les incohérences économiques et assure une valorisation juste des actifs.

Au-delà des concepts formels exposés, il est crucial pour le lecteur de comprendre que ces constructions garantissent que les marchés financiers sont modélisés comme des systèmes où l’information disponible est pleinement prise en compte, sans possibilité de profit certain gratuit. Cette structure évite les « failles » qui pourraient mener à des comportements irrationnels ou à l’effondrement du système.

Il est également important d’appréhender que la martingale est un concept relatif à une mesure de probabilité spécifique, et que le choix de la mesure martingale correspond souvent à un ajustement des probabilités réelles en tenant compte de la prime de risque. Cette distinction entre probabilités réelles et martingales est au cœur de la théorie moderne des prix d’actifs.

Enfin, les mécanismes de changement de numéraire et de mesure sont des outils puissants qui permettent d’adapter le cadre théorique aux différentes situations économiques et aux préférences des investisseurs, tout en préservant les propriétés essentielles d’absence d’arbitrage et d’équité dans l’évaluation.