Dans un modèle à un facteur (d = 1), la minimisation de l’erreur de couverture repose sur l’étude de l’espace des gains réalisables GT, défini par des stratégies prévisibles. Sous la condition de borne supérieure sur le ratio moyenne-variance, c’est-à-dire que la dérive αt est contrôlée par la volatilité σt selon 2αt ≤ κσ²t presque sûrement pour tout t, l’espace GT s’avère être un sous-espace linéaire fermé de L²(P). Cette fermeture garantit que toute limite en L² d’une suite de gains réalisés par des stratégies admissibles appartient elle-même à GT, ce qui est crucial pour assurer la stabilité et la robustesse des approximations dans la pratique.

La preuve exploite la décomposition de Doob d’une variable aléatoire X en une martingale Y et un processus prévisible B. L’étude fine des variations conditionnelles et des espérances conditionnelles des incréments permet de contrôler la convergence en norme L², démontrant ainsi la complétude de GT.

Sur cette base, il est possible de définir une projection orthogonale p : L²(P) → GT, qui projette toute variable aléatoire intégrable en carré sur l’espace des gains réalisables. Cela permet d’identifier, pour toute demande financière H, une stratégie (V⁎₀, ξ⁎) dite variance-optimale qui minimise l’erreur quadratique moyenne entre H et la couverture fournie par la stratégie. Cette stratégie est unique à modifications sur les ensembles où la volatilité s’annule, soulignant l’importance de la non-dégénérescence du modèle pour garantir l’unicité.

Sous l’hypothèse supplémentaire que le rapport α²t/σ²t est déterministe, la stratégie optimale peut être explicitement calculée en relation étroite avec la stratégie localement à risque minimal. La formule récursive reliant la valeur actuelle du portefeuille à sa valeur future conditionnelle, ajustée par la covariance avec les incréments du prix, fournit un schéma de calcul pratique. La stratégie variance-optimale intègre alors une correction proportionnelle à la dérive αt, modifiant ainsi la stratégie localement à risque minimal lorsqu’on s’éloigne du cadre de mesure martingale.

L’analyse détaillée par induction temporelle du problème met en lumière l’interaction complexe entre l’erreur résiduelle, le coût de la couverture et la dynamique des processus martingales associés. En particulier, le processus des coûts Ĉ est une martingale orthogonale aux variations de prix, et son évolution mesure la part non couverte par la stratégie.

Il apparaît que la stratégie variance-optimale diffère en général de la stratégie localement à risque minimal, sauf dans le cas où αt = 0, c’est-à-dire lorsque P est une mesure martingale équivalente. Cette distinction souligne qu’il n’existe pas nécessairement une stratégie qui minimise simultanément l’erreur conditionnelle à chaque étape et l’erreur globale, révélant un conflit entre ces critères de minimalité.

Au-delà de ces résultats techniques, il est fondamental pour le lecteur de comprendre que la modélisation financière dans un cadre à un facteur nécessite la maîtrise des propriétés de l’espace des stratégies admissibles et la prise en compte des contraintes sur la dérive et la volatilité pour garantir l’existence et l’unicité des solutions optimales. La projection orthogonale dans L², outil central ici, illustre l’importance des méthodes fonctionnelles en finance.

Par ailleurs, la distinction entre la stratégie localement à risque minimal et la stratégie variance-optimale révèle que la notion même de couverture parfaite est limitée dans les marchés incomplets, où les mesures martingales ne coïncident pas avec la mesure réelle. La gestion du risque s’en trouve complexifiée, nécessitant des compromis entre minimisation du risque global et contrôle du risque conditionnel à chaque instant.

Enfin, le recours aux décompositions martingales et à la théorie des projections met en évidence la richesse mathématique sous-jacente aux problèmes pratiques de couverture financière, tout en offrant des méthodes effectives pour construire et analyser les stratégies optimales dans des modèles stochastiques réalistes.

Qu’est-ce que la cohérence temporelle des mesures de risque dynamiques et comment se caractérise-t-elle ?

La cohérence temporelle d’une famille de mesures de risque dynamiques, notée (ρ_t)_t=0,...,T, est une propriété fondamentale liant l’évaluation des risques à différents instants dans le temps. Elle garantit que l’évaluation à un instant donné est compatible avec celle effectuée ultérieurement, selon un principe de non-contradiction temporelle. Cette notion, qui s’inscrit dans le cadre des mesures conditionnelles de risque convexes, peut être caractérisée par plusieurs propriétés équivalentes.

Premièrement, la cohérence temporelle se traduit par une récurrence du type : pour tout Q dans un ensemble donné Q de mesures de probabilité, la pénalisation minimale α_t(Q) à l’instant t peut être décomposée en la somme de la pénalisation « à un pas » α_{t,t+1}(Q) et de la pénalisation conditionnelle à l’instant suivant α_{t+1}(Q), conditionnée par l’information disponible à t, soit F_t. Formellement, on écrit :

αt(Q)=αt,t+1(Q)+EQ[αt+1(Q)Ft].\alpha_t(Q) = \alpha_{t,t+1}(Q) + \mathbb{E}_Q[\alpha_{t+1}(Q) | F_t].

Cette décomposition explicite la dynamique des pénalités et constitue un critère clé de la cohérence temporelle.

Ensuite, un autre aspect caractéristique est donné par la structure des processus de type supermartingale associée aux mesures Q. Pour toute position X bornée, le processus défini par

UtQ,X:=ρt(X)+αt(Q)U_t^{Q,X} := \rho_t(X) + \alpha_t(Q)

est un Q-supermartingale relativement à la filtration (F_t). Cela signifie que sous la mesure Q, l’espérance conditionnelle future de U_{t+1}^{Q,X} donnée l’information à l’instant t est toujours inférieure ou égale à U_t^{Q,X}. Cette propriété traduit un comportement « décroissant en moyenne » des risques ajustés par la pénalité, témoignant d’une certaine forme de stabilité dynamique.

La preuve de ces équivalences s’appuie sur des outils techniques tels que le collage (« pasting ») de mesures de probabilité, permettant de construire de nouvelles mesures en combinant des parties de mesures existantes selon l’information disponible à des temps donnés. Cette opération préserve la structure de l’ensemble Q et joue un rôle clé dans l’étude de la cohérence temporelle.

Un autre point notable est que la famille des pénalités minimales (α_t(Q))_t forme elle-même un supermartingale sous Q, pour toute Q dont la pénalité initiale α_0(Q) est finie. Cette propriété révèle un « effet d’apprentissage » intégré : au fil du temps, la pénalisation associée à une mesure Q diminue en moyenne, reflétant une meilleure connaissance ou acceptation progressive des risques.

En outre, dans le cadre particulier des mesures de risque cohérentes — c’est-à-dire linéaires, positives et homogènes — la cohérence temporelle équivaut à l’existence d’un ensemble stable Q_ρ de mesures équivalentes, stable par collage à tout temps d’arrêt, sur lequel la mesure de risque se représente comme un supremum essentiel des espérances conditionnelles négatives des positions. Ce résultat renforce l’intuition selon laquelle la cohérence temporelle découle d’une structure robuste et stable de l’ensemble des mesures de probabilité utilisées pour évaluer le risque.

Il importe également de souligner que cette cohérence temporelle implique une inclusion décroissante des ensembles d’acceptation de risque au fil du temps, reflétant une rigueur croissante dans la définition des positions jugées acceptables.

Au-delà des définitions formelles, il est crucial de comprendre que la cohérence temporelle garantit que les décisions de gestion des risques prises aujourd’hui resteront pertinentes et compatibles avec celles prises demain. En pratique, cela évite des situations paradoxales où un risque jugé acceptable à un moment deviendrait subitement inacceptable sans modification substantielle de l’information.

Enfin, la dynamique des pénalités associées aux mesures de risque permet de modéliser la façon dont l’information nouvelle est intégrée dans l’évaluation des risques, en particulier à travers la structure de supermartingale. Cela offre un cadre mathématique rigoureux pour analyser la stabilité, l’apprentissage et la robustesse des stratégies de gestion des risques dans le temps.

Quel est le véritable prix sans arbitrage d’un produit dérivé ?

Dans le cadre de la modélisation financière moderne, la compréhension des produits dérivés et de leur valorisation repose fondamentalement sur la notion d’absence d’arbitrage. Un produit dérivé, dont le payoff dépend de la valeur d’un actif sous-jacent, peut être exprimé, sous certaines hypothèses, comme une combinaison d’instruments plus simples — contrats à terme, obligations, options de type call ou put. Cette décomposition ne résulte pas seulement d’une commodité analytique mais structure la manière même dont le marché valorise les risques.

Soit une fonction continue h:RRh : \mathbb{R} \to \mathbb{R}, représentant le payoff d’un produit dérivé en fonction de la valeur terminale V=ξSV = \xi \cdot S d’un portefeuille. Si hh est convexe, alors il existe une mesure de Radon positive γ\gamma sur R\mathbb{R} telle que :

h(V)=h(πV)+h(πV)(VπV)+πV(KV)+γ(dK)+πV(VK)+γ(dK).h(V) = h(\pi V) + h'(\pi V)(V - \pi V) + \int_{ -\infty}^{\pi V} (K - V)^+ \gamma(dK) + \int_{\pi V}^{\infty} (V - K)^+ \gamma(dK).

Cette expression montre que tout payoff convexe peut être synthétisé par une combinaison d’actifs liquides : un investissement initial dans une obligation (via h(πV)h(\pi V)), une position linéaire dans le sous-jacent (via h(πV)(VπV)h'(\pi V)(V - \pi V)), et un portefeuille d’options hors de la monnaie, où la valeur intrinsèque au prix actuel πV\pi V est nulle. Lorsque la fonction hh est la différence de deux fonctions convexes, la mesure γ\gamma devient signée, traduisant un positionnement net plus complexe sur les dérivés.

Pour les fonctions hh de classe C2\mathcal{C}^2, une représentation alternative du payoff s’obtient en utilisant une formule de Taylor avec reste en intégrale :

h(V)=h(πV)+h(πV)(VπV)+πV(KV)h(K)dK+πV(VK)h(K)dK.h(V) = h(\pi V) + h'(\pi V)(V - \pi V) + \int_{ -\infty}^{\pi V} (K - V) h''(K) dK + \int_{\pi V}^{\infty} (V - K) h''(K) dK.

Ce formalisme permet une interprétation économique directe du reste de Taylor : il s’agit d’un portefeuille continu d’options dont les strikes couvrent l’ensemble de l’axe réel, pondérés selon la convexité du payoff.

Ce principe de décomposition se retrouve dans de nombreux produits structurés. Une obligation convertible inversée (reverse convertible bond), par exemple, rémunère un intérêt plus élevé qu’une obligation sans risque mais expose l’investisseur au risque d’être remboursé en actions si le prix de l’actif sous-jacent chute. Formellement, cette structure équivaut à une combinaison d’un placement sans risque et de la vente d’une option put. Le prix de conversion KK correspond au seuil de déclenchement de cette option implicite, transformant ainsi une obligation classique en instrument hybride.

De même, le discount certificate, qui limite la participation à la hausse via un cap KK, offre une exposition au sous-jacent ξS\xi \cdot S jusqu’à ce plafond. Sa valeur de remboursement C=min(V,K)C = \min(V, K) équivaut à V(VK)+V - (V - K)^+, c’est-à-dire une position longue dans le portefeuille ξ\xi accompagnée de la vente d’un call. Ce montage — souvent désigné covered call — explique le coût réduit du certificat par rapport à l’investissement direct dans ξ\xi.

Au-delà de ces produits classiques, les marchés financiers accueillent des instruments de transfert alternatif de risque. Les cat bonds, émis par des assureurs, rémunèrent un taux supérieur au marché en l’absence d’événements extrêmes. Leur particularité réside dans la corrélation négative entre le payoff et des événements rares, difficilement réplicables via des instruments standards, mais néanmoins intégrables au cadre de l’évaluation sans arbitrage.

Il est essentiel de restreindre l’analyse à des produits dont le payoff est non négatif. Tout produit avec valeur terminale potentiellement négative peut être reconstitué comme la différence entre une position longue sur une réclamation contingente positive et une position courte sur des actifs primaires. Ce principe permet de généraliser la notion de claim : une variable aléatoire C0C \geq 0 définie sur (Ω,F,P)(\Omega, \mathcal{F}, \mathbb{P}), mesurable par rapport au sigma-algèbre engendrée par les actifs sous-jacents S0,,SdS_0, \dots, S_d.

Dès lors que le prix des actifs de base est fixé, la question centrale devient : quels prix pour CC sont compatibles avec l’absence d’arbitrage ? Introduire CC comme un actif supplémentaire Sd+1=CS_{d+1} = C, avec un prix initial πC\pi_C, revient à étendre le modèle de marché. Le

Comment comprendre les prix d'arbitrage et la mesure de martingale équivalente dans un modèle de marché complet

Un modèle de marché est dit complet lorsque chaque créance conditionnelle est réalisable et que chaque prix d'arbitrage est unique. Cette caractéristique est essentielle pour comprendre comment les prix des actifs sont déterminés dans un environnement sans opportunités d'arbitrage. Le cadre théorique de ces modèles repose sur l’utilisation de mesures de martingale et de l'existence de la mesure martingale équivalente.

Soit une suite de variables aléatoires XtX_t représentant un processus stochastique dans le cadre d'un marché, et FtF_t, la filtration associée à ce processus à l'instant tt. Nous considérons ici des prix d'arbitrage dans un modèle avec un ensemble de mesures PP pour lesquelles nous avons l'équation suivante :

E[(XtXt1)ZFt1]=0.\mathbb{E}[ (X_t - X_{t-1}) Z | F_{t-1} ] = 0.

Cela indique que le prix de l’actif à chaque instant tt est non prévisible et satisfait une condition fondamentale pour l’absence d’arbitrage. En d’autres termes, la rentabilité d’un actif sur un intervalle de temps doit être en moyenne nulle, ce qui est un des principes de l'absence d'opportunités d’arbitrage. Si l'on suppose que k<tk < t, alors les mesures PP^* et P^\hat{P} coïncident sur FkF_k, ce qui entraîne que :

E[X^kX^k1Fk1]=E[XkXk1Fk1]=0.\mathbb{E}[\hat{X}_k - \hat{X}_{k-1} | F_{k-1}] = \mathbb{E}^* [ X_k - X_{k-1} | F_{k-1} ] = 0.

Cela signifie que l'élément P^\hat{P} appartient bien à l'ensemble des mesures PP, ce qui est une condition pour l’existence d’une mesure martingale équivalente.

Dans un cadre théorique plus général, on cherche à construire une autre mesure martingale équivalente P^\hat{P} qui puisse satisfaire la condition suivante :

\pi^\hat{P} := \mathbb{E}^\hat{P}[H] < \mathbb{E}^*[H] = \pi.

Celle-ci est simplement obtenue en définissant le rapport des densités des probabilités entre P^\hat{P} et PP, comme suit :

dP^dP=2dPdPdPdP,\frac{d\hat{P}}{dP} = 2 \cdot \frac{dP^\ast}{dP} - \frac{dP}{dP^\ast},

ce qui définit une nouvelle mesure P^\hat{P} équivalente à PP. L’idée derrière cette construction est de garantir que la nouvelle mesure respecte les conditions d’absence d’arbitrage et conserve la structure martingale du processus.

Il est également possible de traiter un actif contingent dont la créance est payée à un moment T0T_0 antérieur à TT. Cela revient à analyser un modèle de marché restreint avec horizon temporel T0T_0, où les prix d’arbitrage sont également garantis. Une alternative consiste à investir la créance C0C_0 à T0T_0 dans l’actif numéraire S0S_0. En termes pratiques, cela revient à considérer un actif dont la valeur à l'instant TT est donnée par :

CS:=C0STST0,C_S := C_0 \cdot \frac{S_T}{S_{T_0}},

et dont la créance actualisée peut être analysée en appliquant les résultats développés précédemment. Dans ce cas, le prix de l’actif contingent est déterminé de manière identique à celle de l’actif H0H_0. Il est donc intuitivement clair que ces deux approches doivent conduire à des prix identiques, ce qui garantit que C0C_0 et CC ont le même prix d’arbitrage.

Un autre point important concerne la comparaison des prix des options européennes avec des maturités différentes. Par exemple, considérons deux options call C0=(STK)+C_0 = (S_T - K)^+ et C=(STK)+C = (S_T - K)^+, où T0<TT_0 < T. Le résultat montre que le prix de l’option à maturité T0T_0 est toujours inférieur à celui de l’option à maturité TT, ce qui est conforme à l’intuition selon laquelle plus la maturité d'une option est longue, plus son prix est élevé, en raison de la possibilité accrue pour l’actif sous-jacent d'atteindre une valeur plus favorable. Cette relation entre maturité et prix est cruciale pour l'analyse des prix d'options dans un marché sans arbitrage.

Enfin, un modèle de marché est dit complet lorsque chaque créance contingentielle peut être réalisée à un prix unique et sans ambiguïté. La définition formelle de cette complétude repose sur l'existence d'une mesure de martingale équivalente unique, ce qui signifie que l’ensemble des mesures martingales du marché est réduit à une seule mesure PP^*. Ce résultat est une conséquence du second théorème fondamental de la tarification des actifs et se traduit par la décomposition de l’espace de probabilité (Ω,FT,P)(\Omega, F_T, P) en un nombre fini d'atomes. Ce cadre théorique est essentiel pour garantir que chaque créance a un prix d'arbitrage bien défini, sans possibilité de spéculation.

Ainsi, les marchés complets représentent des systèmes où les prix des actifs peuvent être déterminés de manière transparente et où les créances contingentes sont accessibles à un prix unique, éliminant toute opportunité d’arbitrage.