La démonstration de l'existence d'une mesure risque-neutre équivalente repose sur des arguments sophistiqués de théorie de la mesure, d'analyse fonctionnelle et de probabilités conditionnelles, intégrés dans le cadre de la théorie moderne de l'arbitrage. Le point de départ est souvent l'étude d'un cône convexe fermé C dans l'espace L¹, défini comme l'intersection de l'ensemble K − L₀⁺ avec L¹, où K représente l'ensemble des gains admissibles et L₀⁺ les variables aléatoires presque sûrement positives.
La première étape est de vérifier la condition dite d'absence d'arbitrage, qui s'exprime par l'intersection triviale de C avec L₁⁺, c'est-à-dire que C ∩ L₁⁺ = {0}. Cette condition garantit qu'aucun gain non nul ne peut être obtenu sans risque ni investissement initial. Sous cette hypothèse, un argument classique de séparation de Hahn–Banach peut être appliqué : pour tout élément non nul F de L₁⁺, on peut trouver une fonctionnelle linéaire continue ℓ sur L₁ strictement positive sur F et majorée sur C. Cette fonctionnelle ℓ, identifiée via le théorème de représentation de Riesz à un élément Z de L^∞, satisfait alors des propriétés fondamentales : Z est positive presque sûrement, bornée par 1, et annule l'espérance des éléments de C. Ce Z est précisément le densité d'une mesure Q équivalente à P, que l'on appelle mesure risque-neutre.
Un point crucial de la démonstration est de s'assurer que l'ensemble C est fermé dans L¹. Cette fermeture est liée intimement à l'absence d'arbitrage et à la stabilité de l'espace des gains admissibles. Une fois la fermeture établie, une procédure d'exhaustion permet de construire un élément Z* strictement positif, garantissant que la mesure risque-neutre est absolument continue par rapport à la mesure originale P, et que sa densité est bien définie et non triviale.
La théorie est subtile dans le cas général, notamment lorsque l'espace probabiliste Ω n'est pas dénombrable ni atomique, car alors la construction explicite de la mesure risque-neutre nécessite des arguments complexes de sélection mesurable. Cependant, dans les cas plus simples où Ω est dénombrable ou décomposable en atomes, on peut appliquer les résultats élémentaires sur chaque atome, simplifiant ainsi la démonstration.
La méthode repose aussi sur une normalisation des variables aléatoires afin d'assurer leur intégrabilité, ce qui permet de travailler dans des espaces L¹ et L^∞ où la dualité fonctionnelle est bien établie. Cette normalisation ne modifie pas la validité des hypothèses d'absence d'arbitrage ni la construction des mesures risque-neutres.
Enfin, le théorème de Kreps–Yan synthétise ces résultats en affirmant que, sous l'hypothèse d'absence d'arbitrage et de fermeture du cône C, il existe une densité strictement positive Z dans L^∞ telle que pour tout élément W de C, l'espérance de ZW est négative ou nulle. Cette densité correspond à la mesure risque-neutre recherchée.
Il est essentiel pour le lecteur de comprendre que ces constructions reposent non seulement sur des techniques d'analyse fonctionnelle abstraite, mais aussi sur une interprétation financière précise : la mesure risque-neutre reflète un monde probabiliste sous lequel les prix actualisés des actifs sont des martingales, ce qui exclut toute possibilité d'arbitrage. Ce pont entre mathématiques pures et finance appliquée est la clé de la puissance et de la beauté de la théorie.
Par ailleurs, il faut garder à l'esprit que la mesure risque-neutre est souvent non unique, ce qui reflète la multiplicité des modèles financiers compatibles avec les observations de marché et la non-completude du marché. L'existence seule garantit la cohérence sans arbitrage, mais l'étude de la structure de l'ensemble des mesures risque-neutres est un domaine riche qui influe directement sur la valorisation et la gestion des risques.
Comment représenter les préférences robustes face à l’incertitude modélisée ?
Considérons deux fonctions aléatoires modélisées par les mesures de probabilité ponctuelles et , où , et désigne la mesure de Dirac en . Ces mesures illustrent un modèle simple d’incertitude liée à deux états possibles . Nous introduisons une famille de probabilités mixtes avec , qui traduit une incertitude non ponctuelle sur la distribution réelle des états. Cette modélisation permet d’aborder la robustesse des préférences, en intégrant la possible variabilité de la loi sous-jacente.
Pour toute fonction croissante, la fonctionnelle exprime une évaluation pessimiste de l’utilité attendue, cherchant à minimiser la valeur espérée parmi l’ensemble des modèles possibles . Cette approche reflète une aversion à l’incertitude dite "knightienne", différente de l’aversion classique au risque. Ainsi, pour des strictement dans l’intervalle , il est démontré que , où désigne une certaine loterie, ce qui illustre une préférence nette pour des options plus robustes face à l’incertitude.
La représentation des préférences robustes nécessite des propriétés spécifiques du relation d’ordre définie sur un ensemble convexe de fonctions aléatoires. La fonctionnelle est concave au sens que pour toute combinaison convexe , on a . Cette concavité incarne l’aversion à l’incertitude, exprimée par la propriété suivante : lorsque , la combinaison convexe est strictement préférée ou égale à . En d’autres termes, mélanger des alternatives équivalentes en utilité conduit à une préférence pour une diversification réduisant l’incertitude.
La propriété dite d’"indépendance de la certitude" complète ce cadre : si un acte certain est combiné à deux actes et , la préférence entre et se préserve sous cette combinaison. Cette restriction évite l’application trop stricte de l’axiome d’indépendance classique, qui conduirait à la représentation standard de Savage, inadaptée en présence d’incertitude non probabiliste.
Une extension notable est la notion d’indépendance comonotone, qui reconnaît l’importance du rôle des stratégies de couverture (hedging). Deux actes comonotones ne varient pas dans des directions opposées selon les états du monde, ce qui assure une cohérence dans la représentation des préférences robustes lorsque des stratégies combinées sont envisagées.
Un autre affinement est la faiblesse de l’indépendance de la certitude, appelée "faible indépendance de la certitude", qui garantit la stabilité des préférences face à des changements arbitraires du composant certain dans les mélanges, reflétant ainsi une flexibilité adaptée à la robustesse face à l’incertitude.
Les préférences sont par ailleurs supposées monotones : si un acte est supérieur ou égal à dans tous les états, alors . Cette propriété s’inscrit dans une cohérence naturelle avec l’ordre usuel des gains réels.
La continuité de la préférence, analogue à l’axiome d’Archimède, garantit qu’entre deux actes strictement ordonnés, il existe des combinaisons mixtes strictement intermédiaires, assurant ainsi une représentabilité par des fonctions numériques bien définies. Ceci s’accompagne d’une continuité topologique, importante pour la stabilité des préférences dans l’espace des mesures faibles.
Sous ces hypothèses, le théorème central établit qu’il existe une fonction strictement croissante continue, et un ensemble convexe de mesures (probabilités finiment additives), tel que la fonctionnelle représente numériquement l’ordre . Cette forme souligne que la préférence robuste s’évalue par un minimum d’utilités attendues, incarnant la prudence face à l’incertitude sur le modèle. Si en plus une continuité renforcée est supposée sur la restriction à des fonctions classiques , alors se restreint aux probabilités -additives classiques, et on obtient la représentation robuste dite de Savage.
La signification profonde de cette représentation réside dans son caractère "worst-case", où la prise en compte de la variabilité du modèle conduit à une évaluation prudente, privilégiant les actes dont l’utilité minimale sur l’ensemble plausible de mesures est la plus élevée. Ce principe guide notamment les décisions sous incertitude modélisée, évitan
Comment les matériaux 2D améliorent l'efficacité des électrodes photoélectrochimiques pour la production de carburants solaires à partir d'hydrogène
Que symbolisent les figures anthropomorphes et les objets métalliques dans les sites mégalithiques du sud de l'Inde ?
Comment la viscosité des fluides rhéologiques électromagnétiques influence les amortisseurs semi-actifs
Comment la discrimination raciale influence la déclin urbain aux États-Unis ?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский