Dans un modèle de marché complet, la mesure risque-neutre est unique, ce qui entraîne une valorisation parfaitement déterminée des actifs dérivés. En effet, pour tout actif contingent CC, il existe un portefeuille auto-financé (ξ0,ξ)(\xi_0, \xi) permettant de le répliquer exactement, ce qui garantit l’absence d’arbitrage. Cette propriété repose sur la résolution d’un système linéaire où les prix des actifs et leurs rendements futurs possibles déterminent la mesure PP^* telle que

π(1+r)=E[S]=pb+(1p)a,\pi(1 + r) = \mathbb{E}^* [S] = p^* b + (1 - p^*) a,

avec pp^* étant la probabilité risque-neutre associée au scénario favorable ω+\omega^+. L’unicité de pp^* découle directement de la condition d’absence d’arbitrage et de la complétude du marché. Ainsi, la mesure risque-neutre PP^* est caractérisée par

p=π(1+r)aba(0,1),p^* = \frac{\pi (1 + r) - a}{b - a} \in (0,1),

et la complétude se traduit par le fait que tout actif contingent peut s’écrire comme une combinaison linéaire des actifs disponibles.

La valorisation des options, notamment des calls européens, découle de cette mesure. Par exemple, le prix d’un call avec strike K[a,b]K \in [a,b] s’écrit

π(C)=11+r[p(bK)++(1p)(aK)+].\pi(C) = \frac{1}{1+r} \left[ p^*(b-K)^+ + (1 - p^*)(a-K)^+ \right].

Cette formule illustre que le prix de l’option est indépendant de la probabilité réelle pp de montée du sous-jacent, ne dépendant que de la probabilité risque-neutre pp^*. De plus, l’effet levier inhérent aux options amplifie à la fois le potentiel de gain et le risque de perte. Par exemple, en considérant un actif risqué initialement valorisé à 100, avec des scénarios b=120b=120 et a=90a=90, la possession d’un call option amplifie la volatilité des rendements, augmentant la probabilité d’importants gains ou pertes relatives.

Une autre application pertinente est la couverture dite « married put », combinant un actif risqué et une option put, offrant ainsi une forme d’assurance portefeuille. Cette stratégie réduit la volatilité du portefeuille au prix d’un coût additionnel, illustré par une diminution des pertes potentielles à la baisse en échange d’une dépense initiale plus élevée.

Les modèles de marché complets garantissent ainsi un cadre mathématique rigoureux pour l’évaluation des produits dérivés et la gestion des risques. Cependant, la notion de complétude dépend étroitement de la richesse des actifs disponibles. Par exemple, en cas d’espace des états Ω\Omega plus complexe, il est possible d’augmenter le nombre d’actifs afin de rendre le marché complet et ainsi permettre la réplication de tout actif contingent.

Du point de vue géométrique, la propriété d’absence d’arbitrage se traduit par l’inclusion de l’origine dans l’ensemble des espérances sous mesures risque-neutres équivalentes, ce qui peut être caractérisé par le barycentre des mesures sur l’espace des gains nets actualisés. Cette approche met en lumière la connexion profonde entre la théorie de l’arbitrage, la topologie convexe et la théorie des probabilités.

Il est important de noter que la valorisation des options via la mesure risque-neutre s’inscrit dans un cadre d’équilibre financier idéal, où les investisseurs sont neutres au risque. Dans la réalité, les marchés peuvent être incomplets ou sujets à des frictions, modifiant ainsi les prix observés et la structure des risques.

Comprendre ces concepts permet de mieux appréhender la structure sous-jacente des marchés financiers, le rôle des mesures risque-neutres dans la fixation des prix et la nécessité d’adapter les modèles selon la complexité des actifs disponibles. Cela invite aussi à considérer les limitations des modèles idéaux face à la diversité des situations réelles, soulignant l’importance d’une approche flexible et nuancée en finance quantitative.

Comment la cohérence des mesures de risque dynamique influence la stabilité des portefeuilles rééquilibrés

Les mesures de risque dynamique jouent un rôle crucial dans l'évaluation de la stabilité des portefeuilles financiers à travers le temps, particulièrement lorsqu'il s'agit de stratégies de rééquilibrage constantes. La question centrale qui émerge dans ce contexte est de savoir comment l'intégrité et la cohérence des mesures de risque influencent la trajectoire d'un portefeuille, surtout dans des horizons temporels infinis.

Prenons comme point de départ l'ensemble QρQ_{\rho}, défini comme Qρ:=QP0=Qmi{QM1(Pn)α0(Q)<}Q_{\rho} := Q \cap P_0 = Q_{mi} \cap \{ Q \in M_1(P^n) | \alpha_0(Q) < \infty \}. Ce sous-ensemble représente un espace de mesures de probabilité caractérisé par des propriétés spécifiques de cohérence et de stabilité, dont la pertinence pour la théorie du rééquilibrage de portefeuilles est indéniable. En effet, si l'on considère que αmin(Q)\alpha_{\text{min}}(Q) est une sous-martingale non négative pour chaque mesure QQρQ \in Q_{\rho}, nous pouvons conclure, sur la base du théorème 11.17, que αmin(Q)=0\alpha_{\text{min}}(Q) = 0 pour tout QQρQ \in Q_{\rho} à t=0t = 0, ce qui implique que la mesure de risque au départ de l’horizon est nulle. Ce phénomène démontre la stabilité des portefeuilles associés à ces mesures, établissant ainsi une base solide pour leur gestion dynamique.

Cela mène à une représentation de la mesure de risque qui est essentielle pour la compréhension de la stabilité des portefeuilles, particulièrement dans des modèles de rééquilibrage constant. Plus précisément, lorsque l'on considère des mesures de risque cohérentes ρt\rho_t, il devient évident que ces dernières sont également stables, ce qui permet de définir une dynamique robuste et prévisible pour les stratégies de rééquilibrage. À cet égard, la stabilité de QρQ_{\rho} est un facteur décisif, puisqu’elle se manifeste par une propriété clé : pour deux mesures Q1Q_1 et Q2Q_2 appartenant à QρQ_{\rho}, et pour un ensemble BFtB \in F_t, la probabilité conditionnelle de AA donnée FtF_t est également une mesure dans QρQ_{\rho}. Cette condition est cruciale pour maintenir la validité des stratégies de rééquilibrage à long terme, car elle garantit que la probabilité d'événements futurs reste cohérente avec l'information disponible.

L'étude de la stabilité des mesures de risque ne s'arrête pas là. Il est également essentiel de démontrer que, pour chaque QQρQ \in Q_{\rho}, αmin(Q)\alpha_{\text{min}}(Q) reste inchangé à travers le temps, ce qui, selon le théorème 11.17, implique que la stratégie de rééquilibrage reste stable et prévisible, en particulier lorsque l'on adopte une approche itérative basée sur des sous-martingales. L'itération de cet argument montre que, pour toute QQρQ \in Q_{\rho}, αmin(Q)=0\alpha_{\text{min}}(Q) = 0, validant ainsi l'idée que les stratégies de rééquilibrage, une fois stabilisées par des mesures cohérentes, convergent vers un comportement optimal à long terme.

Un aspect particulièrement important à comprendre pour le lecteur réside dans la notion de « stabilité asymptotique » des stratégies de rééquilibrage. Alors que dans les modèles financiers traditionnels, l'optimisation des portefeuilles se fait souvent sous l'hypothèse d'un horizon temporel fini, ici, la convergence des stratégies, en particulier des portefeuilles rééquilibrés de manière constante, repose sur l'idée que les propriétés des marchés financiers convergent vers un état stable à long terme. L'une des implications essentielles de cette convergence est que les stratégies qui ont été efficaces dans le passé continuent à produire des résultats cohérents à long terme, même en l'absence d'informations précises sur le futur immédiat.

Un autre point crucial que le lecteur doit intégrer concerne les implications pratiques du rééquilibrage constant dans un portefeuille. Par exemple, le rééquilibrage égalitaire, où chaque actif reçoit une pondération égale dans le portefeuille, est un cas typique de stratégie de rééquilibrage constant. Cette approche, bien qu'apparente dans sa simplicité, présente des avantages notables sur le long terme, notamment une réduction de la volatilité et une croissance stable du portefeuille, comme l'illustre l'exemple du S&P 500 Equal Weight Index. Cependant, même dans ce cas, la performance du portefeuille peut fluctuer en fonction de la volatilité du marché, ce qui exige une surveillance continue et des ajustements fins.

En conclusion, les stratégies de rééquilibrage constant, lorsqu'elles sont appliquées à des portefeuilles bien construits et soutenues par des mesures de risque cohérentes, permettent de garantir une performance stable et prévisible sur le long terme. Cette approche repose sur une stabilité intrinsèque des mesures de risque et une capacité à gérer l'incertitude tout en optimisant la croissance du capital. Le concept de « cohérence » dans le cadre des mesures de risque ne se limite pas à une simple formalité théorique, mais devient un pilier fondamental pour le succès des stratégies de portefeuille à long terme.

Pourquoi la fonction de pénalité basée sur le shortfall utilitaire atteint-elle un minimum effectif ?

Dans le cadre des mesures de risque fondées sur l’utilité, l’analyse de la fonction de pénalité associée à une fonction de perte convexe repose sur une construction rigoureuse utilisant des outils de dualité convexe. Il est crucial d’établir l’équivalence entre certaines formes limites du transformé de Fenchel–Legendre et les comportements asymptotiques de la fonction dérivée correspondante. Le point de départ est l’identification que la fonction dérivée à droite du transformé de Fenchel, notée JJ, converge à une constante κ\kappa lorsque l’argument tend vers zéro, i.e. J(z)κJ(z) \searrow \kappa lorsque z0z \downarrow 0. On démontre que J(0)=κJ(0) = \kappa en s’appuyant sur la convergence conjointe de J(z)z0J(z)z \to 0 et sur la continuité de \ell^*, ce qui force (J(z))inf\ell(J(z)) \to \inf \ell.

Dans la preuve du théorème principal, on considère une mesure QM1(P)Q \in \mathcal{M}_1(P) dont la densité est φ=dQdP\varphi = \frac{dQ}{dP}. Pour établir l’égalité centrale, il suffit de supposer que x0>(0)x_0 > \ell(0), ce qui permet une translation affine de la fonction de perte via ~(x):=(xa)\tilde{\ell}(x) := \ell(x - a). Cette transformation préserve la convexité tout en ajustant le niveau de seuil, rendant possible l’application des outils de dualité.

L’inégalité clé repose sur une minoration de la fonction de pénalité αmin(Q)\alpha_{\min}(Q) par une borne inférieure dépendant du paramètre dual λ\lambda. Cette borne est asymptotiquement atteinte en utilisant une suite (Xn)(X_n) construite explicitement comme des troncatures de la fonction dérivée J(λnφ)J(\lambda_n \varphi), assurant à la fois bornitude et appartenance à l’ensemble admissible A\mathcal{A}. En contrôlant la convergence de λnλ>0\lambda_n \to \lambda_\infty > 0, et en exploitant la semi-continuité inférieure de \ell^*, on obtient :

αmin(Q)lim infn1λn(x0+E[(λnφ)1{φn}](0)P(φ>n))1λ(x0+E[(λφ)]).\alpha_{\min}(Q) \geq \liminf_{n \to \infty} \frac{1}{\lambda_n} \left( x_0 + \mathbb{E}[\ell^*(\lambda_n \varphi)1_{\{\varphi \leq n\}}] - \ell(0) \cdot P(\varphi > n) \right) \geq \frac{1}{\lambda_\infty} (x_0 + \mathbb{E}[\ell^*(\lambda_\infty \varphi)]).

Pour supprimer l’hypothèse de continuité de JJ, on introduit une régularisation JεJ^\varepsilon, définie comme une moyenne glissante de JJ, garantissant