La démonstration de l'existence d'une mesure risque-neutre équivalente repose sur des arguments sophistiqués de théorie de la mesure, d'analyse fonctionnelle et de probabilités conditionnelles, intégrés dans le cadre de la théorie moderne de l'arbitrage. Le point de départ est souvent l'étude d'un cône convexe fermé C dans l'espace L¹, défini comme l'intersection de l'ensemble K − L₀⁺ avec L¹, où K représente l'ensemble des gains admissibles et L₀⁺ les variables aléatoires presque sûrement positives.

La première étape est de vérifier la condition dite d'absence d'arbitrage, qui s'exprime par l'intersection triviale de C avec L₁⁺, c'est-à-dire que C ∩ L₁⁺ = {0}. Cette condition garantit qu'aucun gain non nul ne peut être obtenu sans risque ni investissement initial. Sous cette hypothèse, un argument classique de séparation de Hahn–Banach peut être appliqué : pour tout élément non nul F de L₁⁺, on peut trouver une fonctionnelle linéaire continue ℓ sur L₁ strictement positive sur F et majorée sur C. Cette fonctionnelle ℓ, identifiée via le théorème de représentation de Riesz à un élément Z de L^∞, satisfait alors des propriétés fondamentales : Z est positive presque sûrement, bornée par 1, et annule l'espérance des éléments de C. Ce Z est précisément le densité d'une mesure Q équivalente à P, que l'on appelle mesure risque-neutre.

Un point crucial de la démonstration est de s'assurer que l'ensemble C est fermé dans L¹. Cette fermeture est liée intimement à l'absence d'arbitrage et à la stabilité de l'espace des gains admissibles. Une fois la fermeture établie, une procédure d'exhaustion permet de construire un élément Z* strictement positif, garantissant que la mesure risque-neutre est absolument continue par rapport à la mesure originale P, et que sa densité est bien définie et non triviale.

La théorie est subtile dans le cas général, notamment lorsque l'espace probabiliste Ω n'est pas dénombrable ni atomique, car alors la construction explicite de la mesure risque-neutre nécessite des arguments complexes de sélection mesurable. Cependant, dans les cas plus simples où Ω est dénombrable ou décomposable en atomes, on peut appliquer les résultats élémentaires sur chaque atome, simplifiant ainsi la démonstration.

La méthode repose aussi sur une normalisation des variables aléatoires afin d'assurer leur intégrabilité, ce qui permet de travailler dans des espaces L¹ et L^∞ où la dualité fonctionnelle est bien établie. Cette normalisation ne modifie pas la validité des hypothèses d'absence d'arbitrage ni la construction des mesures risque-neutres.

Enfin, le théorème de Kreps–Yan synthétise ces résultats en affirmant que, sous l'hypothèse d'absence d'arbitrage et de fermeture du cône C, il existe une densité strictement positive Z dans L^∞ telle que pour tout élément W de C, l'espérance de ZW est négative ou nulle. Cette densité correspond à la mesure risque-neutre recherchée.

Il est essentiel pour le lecteur de comprendre que ces constructions reposent non seulement sur des techniques d'analyse fonctionnelle abstraite, mais aussi sur une interprétation financière précise : la mesure risque-neutre reflète un monde probabiliste sous lequel les prix actualisés des actifs sont des martingales, ce qui exclut toute possibilité d'arbitrage. Ce pont entre mathématiques pures et finance appliquée est la clé de la puissance et de la beauté de la théorie.

Par ailleurs, il faut garder à l'esprit que la mesure risque-neutre est souvent non unique, ce qui reflète la multiplicité des modèles financiers compatibles avec les observations de marché et la non-completude du marché. L'existence seule garantit la cohérence sans arbitrage, mais l'étude de la structure de l'ensemble des mesures risque-neutres est un domaine riche qui influe directement sur la valorisation et la gestion des risques.

Comment représenter les préférences robustes face à l’incertitude modélisée ?

Considérons deux fonctions aléatoires modélisées par les mesures de probabilité ponctuelles X~0(ω):=pδ1000+(1p)δ0\tilde{X}_0(\omega) := p \delta_{1000} + (1-p) \delta_0 et X~1(ω):=(1p)δ1000+pδ0\tilde{X}_1(\omega) := (1-p) \delta_{1000} + p \delta_0, où p[0,1]p \in [0,1], et δx\delta_x désigne la mesure de Dirac en xx. Ces mesures illustrent un modèle simple d’incertitude liée à deux états possibles ω{0,1}\omega \in \{0,1\}. Nous introduisons une famille QQ de probabilités mixtes qδ1+(1q)δ0q \delta_1 + (1-q) \delta_0 avec q[a,b][0,1]q \in [a,b] \subseteq [0,1], qui traduit une incertitude non ponctuelle sur la distribution réelle des états. Cette modélisation permet d’aborder la robustesse des préférences, en intégrant la possible variabilité de la loi sous-jacente.

Pour toute fonction uu croissante, la fonctionnelle U~(X~):=infQQEQ[u(X~)]\tilde{U}(\tilde{X}) := \inf_{Q \in Q} E_Q[u(\tilde{X})] exprime une évaluation pessimiste de l’utilité attendue, cherchant à minimiser la valeur espérée parmi l’ensemble des modèles possibles QQ. Cette approche reflète une aversion à l’incertitude dite "knightienne", différente de l’aversion classique au risque. Ainsi, pour des pp strictement dans l’intervalle (a,b)(a,b), il est démontré que U~(X~i)>U~(Z~i)\tilde{U}(\tilde{X}_i) > \tilde{U}(\tilde{Z}_i), où Z~i\tilde{Z}_i désigne une certaine loterie, ce qui illustre une préférence nette pour des options plus robustes face à l’incertitude.

La représentation des préférences robustes nécessite des propriétés spécifiques du relation d’ordre \succ définie sur un ensemble convexe X~\tilde{\mathcal{X}} de fonctions aléatoires. La fonctionnelle U~\tilde{U} est concave au sens que pour toute combinaison convexe αX~+(1α)Y~\alpha \tilde{X} + (1-\alpha) \tilde{Y}, on a U~(αX~+(1α)Y~)αU~(X~)+(1α)U~(Y~)\tilde{U}(\alpha \tilde{X} + (1-\alpha) \tilde{Y}) \geq \alpha \tilde{U}(\tilde{X}) + (1-\alpha) \tilde{U}(\tilde{Y}). Cette concavité incarne l’aversion à l’incertitude, exprimée par la propriété suivante : lorsque X~Y~\tilde{X} \sim \tilde{Y}, la combinaison convexe αX~+(1α)Y~\alpha \tilde{X} + (1-\alpha) \tilde{Y} est strictement préférée ou égale à X~\tilde{X}. En d’autres termes, mélanger des alternatives équivalentes en utilité conduit à une préférence pour une diversification réduisant l’incertitude.

La propriété dite d’"indépendance de la certitude" complète ce cadre : si un acte certain Z~μ\tilde{Z} \equiv \mu est combiné à deux actes X~\tilde{X} et Y~\tilde{Y}, la préférence entre X~\tilde{X} et Y~\tilde{Y} se préserve sous cette combinaison. Cette restriction évite l’application trop stricte de l’axiome d’indépendance classique, qui conduirait à la représentation standard de Savage, inadaptée en présence d’incertitude non probabiliste.

Une extension notable est la notion d’indépendance comonotone, qui reconnaît l’importance du rôle des stratégies de couverture (hedging). Deux actes comonotones ne varient pas dans des directions opposées selon les états du monde, ce qui assure une cohérence dans la représentation des préférences robustes lorsque des stratégies combinées sont envisagées.

Un autre affinement est la faiblesse de l’indépendance de la certitude, appelée "faible indépendance de la certitude", qui garantit la stabilité des préférences face à des changements arbitraires du composant certain dans les mélanges, reflétant ainsi une flexibilité adaptée à la robustesse face à l’incertitude.

Les préférences sont par ailleurs supposées monotones : si un acte Y~\tilde{Y} est supérieur ou égal à X~\tilde{X} dans tous les états, alors Y~X~\tilde{Y} \succ \tilde{X}. Cette propriété s’inscrit dans une cohérence naturelle avec l’ordre usuel des gains réels.

La continuité de la préférence, analogue à l’axiome d’Archimède, garantit qu’entre deux actes strictement ordonnés, il existe des combinaisons mixtes strictement intermédiaires, assurant ainsi une représentabilité par des fonctions numériques bien définies. Ceci s’accompagne d’une continuité topologique, importante pour la stabilité des préférences dans l’espace des mesures faibles.

Sous ces hypothèses, le théorème central établit qu’il existe une fonction strictement croissante uu continue, et un ensemble convexe de mesures QM1,f(Ω,F)Q \subseteq M_{1,f}(\Omega, \mathcal{F}) (probabilités finiment additives), tel que la fonctionnelle U~(X~)=minQQEQ[u(x)X~(,dx)]\tilde{U}(\tilde{X}) = \min_{Q \in Q} E_Q\left[ \int u(x) \tilde{X}(\cdot, dx) \right] représente numériquement l’ordre \succ. Cette forme souligne que la préférence robuste s’évalue par un minimum d’utilités attendues, incarnant la prudence face à l’incertitude sur le modèle. Si en plus une continuité renforcée est supposée sur la restriction à des fonctions classiques XX~X \subseteq \tilde{X}, alors QQ se restreint aux probabilités σ\sigma-additives classiques, et on obtient la représentation robuste dite de Savage.

La signification profonde de cette représentation réside dans son caractère "worst-case", où la prise en compte de la variabilité du modèle conduit à une évaluation prudente, privilégiant les actes dont l’utilité minimale sur l’ensemble plausible de mesures est la plus élevée. Ce principe guide notamment les décisions sous incertitude modélisée, évitan