L'évolution récente de la finance mathématique illustre l'importance grandissante des processus stochastiques et des mesures de risque dans la modélisation et la gestion des incertitudes financières. L'ouvrage de Hans Föllmer et Alexander Schied, devenu une référence incontournable, explore avec rigueur et précision les fondements de cette discipline à travers un prisme à la fois théorique et appliqué. Cette 5ᵉ édition, enrichie et étendue d’environ 15 %, témoigne de l’effort constant pour clarifier les concepts tout en intégrant les avancées contemporaines, notamment la stratégie de portefeuille universelle et les contrats d'assurance stop-loss. Le traitement renouvelé des propriétés automatiques de Fatou pour les mesures de risque invariantes par loi illustre la sophistication croissante des outils mathématiques employés.

La finance stochastique s’appuie fondamentalement sur la théorie des probabilités et des processus aléatoires, avec une attention particulière portée aux processus non stationnaires et aux incréments périodiquement stationnaires. Cette perspective est essentielle pour modéliser des phénomènes économiques qui ne se prêtent pas aux hypothèses classiques de stationnarité, comme l’évolution des marchés financiers ou les comportements multi-saisonniers des actifs. Le cadre discret, privilégié par Föllmer et Schied, facilite la compréhension progressive de notions complexes telles que l’arbitrage, la mesure de risque dynamique, et la gestion des incertitudes dans un contexte évolutif.

La prise en compte de l'incertitude du modèle, ou incertitude de Knight, constitue un axe majeur de la réflexion contemporaine. Plutôt que de supposer un modèle unique, la finance moderne s’intéresse à une famille de modèles possibles, ce qui reflète mieux la réalité économique où l'information est imparfaite et les dynamiques incertaines. Les mesures de risque jouent alors un rôle clé en tant que cadres robustes permettant d’évaluer les risques financiers sans dépendre d’hypothèses excessivement restrictives. La distinction entre mesures de risque cohérentes et convexes, ainsi que leur extension aux cas dynamiques, traduit la maturité croissante de cette théorie.

La complexité mathématique ne se limite pas à une simple abstraction : elle répond à un besoin réel de comprendre et de maîtriser les risques liés aux marchés financiers. Par exemple, les nouvelles sections portant sur les variantes robustes des problèmes classiques, tels que la sélection optimale de portefeuille et la couverture efficace, montrent comment les outils théoriques s’adaptent pour offrir des solutions plus sûres face à l'imprévisibilité des marchés.

Par ailleurs, l’insertion d’exercices nombreux et variés à travers les différentes éditions souligne l’importance d’une approche pédagogique rigoureuse pour assimiler ces concepts. La collaboration internationale des auteurs avec chercheurs et étudiants reflète un effort collectif pour enrichir et tester ces théories dans des contextes variés.

Au-delà de la simple maîtrise technique, il est crucial pour le lecteur de saisir que la finance stochastique ne prétend pas éliminer l’incertitude, mais plutôt d’en offrir une représentation formelle, permettant d’en atténuer les effets par une gestion éclairée. Cela implique une compréhension fine des limites des modèles, ainsi qu’une vigilance constante face à l’évolution des marchés et des comportements économiques. La robustesse des mesures de risque est un outil pour naviguer dans cette complexité, sans illusion de contrôle total.

Enfin, l’importance accordée à la reformulation des concepts fondamentaux — comme l’arbitrage, la dynamique du portefeuille, et les mesures de risque — invite à une réflexion continue, où l’amélioration des modèles va de pair avec une meilleure connaissance des marchés. La finance stochastique, en tant que discipline en pleine évolution, nécessite une curiosité intellectuelle et une rigueur méthodologique constantes, car elle doit s’adapter aux défis d’un monde économique toujours plus incertain et interconnecté.

Comment se caractérise la mesure la moins favorable dans un cadre de robustesse probabiliste ?

L’existence d’une mesure la moins favorable dans un ensemble QQ de mesures de probabilité, par rapport à une mesure de référence PP^*, s’enracine profondément dans des propriétés structurelles de la fonction d’ensemble associée c(A):=supQQQ[A]c(A) := \sup_{Q \in Q} Q[A]. Cette fonction, définie sur une tribu F\mathcal{F}, doit être fortement sous-additive, ou submodulaire, ce qui se traduit par l’inégalité

c(AB)+c(AB)c(A)+c(B),A,BF.c(A \cup B) + c(A \cap B) \leq c(A) + c(B), \quad A,B \in \mathcal{F}.
Cette condition est à la fois nécessaire et suffisante, sous certaines hypothèses topologiques sur QQ, pour garantir l’existence d’une mesure Q0QQ_0 \in Q qui joue un rôle central dans l’analyse robuste : elle est la mesure « la moins favorable » au sens où elle maximise certains risques ou divergences tout en étant équivalente à PP^*.

Une condition clé pour assurer l’équivalence entre Q0Q_0 et PP^* réside dans la fermeture de l’ensemble des densités Radon-Nikodym {dQ/dPQQ}\{dQ/dP^* \mid Q \in Q\} dans l’espace L1(P)L^1(P^*). Cette propriété technique permet d’appliquer des résultats classiques comme le théorème de Halmos-Savage, garantissant que la mesure extrême Q0Q_0 ne s’éloigne pas trop de la mesure de référence au point de perdre l’équivalence, et donc la comparabilité statistique.

La caractérisation précise de Q0Q_0 s’exprime par plusieurs conditions équivalentes, mêlant stochastique, convexité et dominance. Par exemple, Q0Q_0 est la mesure pour laquelle, pour toute fonction décroissante ff, l’espérance EQ[f(dP/dQ0)]E_Q[f(dP^*/dQ_0)] est minimisée parmi toutes les QQQ \in Q. Cette dominance stochastique se traduit aussi par la minimisation du gg-divergence, une mesure de dissimilarité entre QQ et PP^* construite à partir d’une fonction convexe gg. En particulier, Q0Q_0 minimise

Ig(QP):=g(dQdP)dP,I_g(Q \mid P^*) := \int g\left(\frac{dQ}{dP^*}\right) dP^*,
ce qui confère une interprétation géométrique et analytique à ce concept.

Au-delà de cette formalisation, cette mesure Q0Q_0 joue un rôle crucial en théorie statistique des tests composites. Dans un problème classique où l’on teste une hypothèse simple PP^* contre une hypothèse composite QQ, la mesure Q0Q_0 intervient comme la « pire » configuration possible de la nullité, celle qui rend la détection la plus difficile. Cette invariance de Q0Q_0 face au niveau de signification α\alpha du test souligne son rôle fondamental : c’est la configuration la moins favorable, celle qui maximise la probabilité d’erreur de type I parmi les mesures du composite.

Sur le plan de l’optimisation robuste, la structure de Q0Q_0 permet de représenter tout problème de maximisation d’utilité sous incertitude par des fonctions décroissantes de la densité φ0=dP/dQ0\varphi_0 = dP^*/dQ_0. Cette représentation exploite les quantiles et la fonction de distribution de φ0\varphi_0 pour construire explicitement des solutions optimales. Elle repose sur des inégalités classiques telles que l’inégalité de Jensen et des arguments subtils d’intégration conditionnelle, qui confèrent à la solution une forme fonctionnelle déterministe en fonction de φ0\varphi_0.

Cette approche révèle la profonde interaction entre la théorie de la mesure, l’analyse convexe, la théorie statistique des tests, et la gestion robuste des risques. Elle illustre aussi la façon dont la complexité d’un ensemble de modèles probabilistes peut être réduite à l’étude d’une mesure singulière Q0Q_0 qui concentre la « pire » incertitude.

Il est crucial de comprendre que cette mesure ne se limite pas à un simple artefact mathématique, mais constitue un outil puissant pour quantifier et maîtriser le risque dans des environnements incertains. La notion de submodularité et d’additivité forte reflète une forme d’interaction entre événements qui conditionne la robustesse même du modèle.

De plus, la dualité entre les différentes conditions équivalentes (dominance stochastique, minimisation de divergences, propriétés des fonctions décroissantes/increasantes) éclaire la richesse des outils analytiques à disposition. Elle ouvre aussi la voie à des méthodes numériques et approches pratiques pour l’identification de ces mesures dans des contextes appliqués.

L’intégration de ces concepts dans la pratique suppose une maîtrise fine des espaces fonctionnels, des mesures, et une compréhension approfondie des propriétés topologiques et convexes des ensembles de mesures considérées. Cela renforce la pertinence de cette théorie pour des disciplines aussi variées que la finance, la théorie de l’information, ou l’ingénierie des systèmes où la robustesse face à l’incertitude est primordiale.

Quels sont les fondements mathématiques des mesures de risque comonotones convexes ?

Considérons une variable aléatoire simple XX, positive, dont les valeurs décroissent, c’est-à-dire x1x2xn0x_1 \geq x_2 \geq \cdots \geq x_n \geq 0, et définie sur une partition de l’espace probabilisable Ω\Omega en ensembles disjoints A1,,AnA_1, \ldots, A_n. Sous cette hypothèse, on peut réécrire XX sous forme de somme télescopique :

X=i=1nbi1Bi,ouˋ bi:=xixi+10,Bi:=k=1iAk,xn+1:=0.X = \sum_{i=1}^n b_i \mathbf{1}_{B_i}, \quad \text{où } b_i := x_i - x_{i+1} \geq 0, \quad B_i := \bigcup_{k=1}^i A_k, \quad x_{n+1} := 0.

Cette représentation exploite l’ordre décroissant des valeurs de XX et permet une formulation particulièrement élégante du calcul de son intégrale de Choquet. En effet, pour une fonction de capacité cc, l'intégrale s'écrit alors :

Xdc=i=1n(xixi+1)c(Bi)=i=1nxi[c(Bi)c(Bi1)],\int X \, dc = \sum_{i=1}^n (x_i - x_{i+1}) c(B_i) = \sum_{i=1}^n x_i [c(B_i) - c(B_{i-1})],

où l'on pose B0:=B_0 := \emptyset. Cette formule illustre que l'intégrale de Choquet dépend fortement de la manière dont les masses sont redistribuées sur des niveaux croissants d’ensembles.

Lorsque l’on considère des mesures de risque monétaires ρ\rho qui sont comonotones, l’intégrale de Choquet apparaît naturellement comme outil fondamental. Une mesure de risque ρ\rho est dite comonotone si, pour toute paire X,YX, Y de variables comonotones, on a :

ρ(X+Y)=ρ(X)+ρ(Y).\rho(X + Y) = \rho(X) + \rho(Y).

Il s’ensuit que les mesures de risque comonotones peuvent être représentées comme des intégrales de Choquet relatives à des fonctions de capacité monotones et normalisées cc, définies par c(A):=ρ(1A)c(A) := \rho(-\mathbf{1}_A). Dans ce cadre, la comonotonicité garantit une forme d’additivité restreinte, et cette propriété est compatible avec la théorie de l'intégration non additive.

Par ailleurs, dans un espace probabilisable sans atomes, la famille des mesures de risque convexes, invariantes en loi et comonotones, est précisément constituée des combinaisons convexes d’AVaR (Average Value at Risk). Plus formellement, toute mesure ρ\rho de cette classe s’écrit comme :

ρ(X)=01AVaRλ(X)μ(dλ),\rho(X) = \int_0^1 \text{AVaR}_\lambda(X) \, \mu(d\lambda),

μ\mu est une probabilité sur [0,1][0,1]. L’invariance en loi impose que la capacité cc soit fonction seulement de la probabilité des événements, donc c(A)=ψ(P[A])c(A) = \psi(\mathbb{P}[A]) pour une fonction croissante ψ ⁣:[0,1][0,1]\psi \colon [0,1] \to [0,1], avec ψ(0)=0\psi(0) = 0, ψ(1)=1\psi(1) = 1. La comonotonicité implique alors que cette fonction ψ\psi est concave.

Les résultats plus profonds concernent la relation entre la capacité cc, la convexité de la mesure de risque, et les représentations duales en termes de mesures additives. En effet, la convexité de ρ\rho est équivalente à la sous-modularité de cc. Dans ce cas, l'intégrale de Choquet peut être interprétée comme une borne supérieure sur les espérances classiques par rapport à une famille de mesures additives dominées par cc :

ρ(X)=(X)dc=maxQQcEQ[X],\rho(X) = \int (-X) \, dc = \max_{Q \in \mathcal{Q}_c} \mathbb{E}_Q[-X],

Qc:={QM1,fQ[A]c(A) pour tout A}\mathcal{Q}_c := \{ Q \in \mathcal{M}_{1,f} \mid Q[A] \leq c(A) \text{ pour tout } A \}. Cet ensemble Qc\mathcal{Q}_c est appelé le noyau (core) de cc, et il joue un rôle central dans la représentation duale des mesures de risque. Si cc_

Quelle est la stratégie d'arrêt optimale pour un acheteur dans le contexte des créances conditionnelles américaines ?

Dans le cadre de la gestion des créances conditionnelles américaines, la stratégie d'arrêt optimale est une question cruciale pour maximiser la valeur attendue de l'option. Cette valeur dépend de l'évolution du processus d'attente des paiements dans un environnement dynamique. Lorsque l'on cherche à déterminer le moment optimal pour exercer une option, il est essentiel de comprendre comment les fonctions d'utilité, les enveloppes de Snell et les processus martingales interagissent.

Sous l'hypothèse que HtL1(Q)H_t \in L^1(Q) pour tout tt, nous pouvons construire l'enveloppe de Snell U:=UPU := U_P de HH par rapport à la probabilité PP. L'enveloppe de Snell est définie par la formule récursive suivante :

Ut:=HtetUt:=max(Ht,E[Ut+1Ft]),t=T1,T2,,0.U_t := H_t \quad \text{et} \quad U_t := \max(H_t, \mathbb{E}[U_{t+1} | \mathcal{F}_t]), \quad t = T-1, T-2, \ldots, 0.

À partir de cette définition, une nouvelle notion de temps d'arrêt optimal émerge. Le temps d'arrêt τmin\tau_{\min} est défini comme étant :

τmin:=min{t0Ut=Ht}.\tau_{\min} := \min \{ t \geq 0 \, | \, U_t = H_t \}.

Il est important de noter que τminT\tau_{\min} \leq T car UT=HTU_T = H_T. En d'autres termes, τmin\tau_{\min} maximise l'espérance de HτH_{\tau} parmi tous les temps d'arrêt possibles dans T\mathcal{T}. Autrement dit, τmin\tau_{\min} représente la solution du problème d'arrêt optimal. Un autre temps d'arrêt associé, noté τ(t)min\tau(t)_{\min}, est défini comme :

τ(t)min:=min{utUu=Hu}.\tau(t)_{\min} := \min \{ u \geq t \, | \, U_u = H_u \}.

Ce temps d'arrêt appartient à l'ensemble Tt:={τTτt}\mathcal{T}_t := \{ \tau \in \mathcal{T} \, | \, \tau \geq t \}.

Le théorème 6.18 montre que l'enveloppe de Snell de HH satisfait la relation :

Ut=E[Hτ(t)Ft]=ess supE[HτFt],minτTt.U_t = \mathbb{E}[ H_{\tau(t)} | \mathcal{F}_t ] = \text{ess sup} \, \mathbb{E}[ H_{\tau} | \mathcal{F}_t ], \quad \min_{\tau \in \mathcal{T}_t}.

Cela implique que pour toute période tt, l'espérance conditionnelle de HτH_{\tau} est maximisée par la fonction d'utilité, ce qui définit τmin\tau_{\min} comme un temps d'arrêt optimal. Cette conclusion est renforcée par l'idée que le processus UtU_t est un surmartingale, ce qui signifie que sa valeur attendue ne diminue pas avec le temps, mais peut rester constante ou augmenter.

Ainsi, un temps d'arrêt τ\tau^* est dit optimal (par rapport à PP) si et seulement si :

E[Hτ]=supτTE[Hτ].\mathbb{E}[H_{\tau^*}] = \sup_{\tau \in \mathcal{T}} \mathbb{E}[H_{\tau}].

Cela garantit que τmin\tau_{\min} est non seulement un temps d'arrêt optimal, mais aussi le plus petit parmi les temps d'arrêt optimaux. Un autre résultat clé, le théorème 6.21, montre que τmin\tau_{\min} est le plus petit temps d'arrêt optimal, ce qui signifie qu'il correspond au premier instant où l'enveloppe de Snell perd la propriété de martingale.

Dans un cadre complet de marché, l'option américaine devrait théoriquement être plus coûteuse qu'une option européenne équivalente. En effet, l'option américaine permet une flexibilité supplémentaire pour l'acheteur en termes de moment d'exercice. D'un point de vue mathématique, cela est formalisé dans la proposition 6.23 qui montre que :

UtPVtpour toutt,U^P_t \geq V_t \quad \text{pour tout} \, t,

VtV_t est la valeur de l'option européenne. En d'autres termes, l'option américaine, avec sa possibilité d'exercice à tout moment avant l'échéance, offre une valeur supérieure ou égale à l'option européenne, ce qui en fait une option plus précieuse.

Pour le vendeur, la stratégie de couverture optimale pour une créance conditionnelle américaine consiste à créer un portefeuille qui élimine le risque, en ajustant dynamiquement la position en fonction de l'évolution du processus XtX_t. Ce portefeuille est représenté par le processus martingale MtM_t, et le vendeur peut ainsi s'assurer que la valeur de l'option à tout moment reste égale à la valeur de couverture. Cela garantit qu'en cas d'exercice de l'option à un temps d'arrêt τ\tau, le vendeur ne subira pas de perte, car le profit est garanti par la stratégie de couverture.

Enfin, la relation entre les options américaines et européennes est un élément clé dans la modélisation des créances conditionnelles. Alors qu'une option européenne ne permet l'exercice qu'à l'échéance, l'option américaine, en raison de sa flexibilité, a un prix supérieur ou égal à celui de l'option européenne. Cette différence de prix est fondée sur la valeur additionnelle que confère l'option d'exercer à tout moment.