La relation de préférence ≽ᵢ𝑐ᵥ entre deux mesures de probabilité μ et ν constitue une forme de dominance stochastique dite du second ordre. Cette relation, partiellement ordonnée, est strictement plus fine que la dominance du premier ordre, introduisant un critère fondé sur l'aversion au risque : on préfère μ à ν si, de manière uniforme, toutes les fonctions utilité croissantes et concaves lui accordent une valeur d'espérance plus élevée.
Formellement, ≽ᵢ𝑐ᵥ est une relation réflexive, transitive et antisymétrique sur l’ensemble M des mesures de probabilité avec moment d’ordre un fini. Toutefois, cette relation n’est pas complète : il peut exister des mesures μ et ν pour lesquelles ni μ ≽ᵢ𝑐ᵥ ν ni ν ≽ᵢ𝑐ᵥ μ ne sont vérifiés. En ce sens, ≽ᵢ𝑐ᵥ ne constitue pas une relation de préférence faible au sens usuel de la théorie des préférences.
Plusieurs formulations équivalentes du critère μ ≽ᵢ𝑐ᵥ ν permettent de l’interpréter à travers différents prismes, allant de l'intégration contre des fonctions test à des constructions probabilistes.
La plus directe affirme que μ ≽ᵢ𝑐ᵥ ν si ∫ f dμ ≥ ∫ f dν pour toute fonction f croissante et concave. Cette définition donne un ancrage immédiat dans la théorie de l’utilité espérée, où les agents averses au risque préfèrent des distributions plus "concentrées" autour de leur moyenne. Une conséquence immédiate de ce critère est que si μ ≽ᵢ𝑐ᵥ ν, alors l'espérance de μ est au moins celle de ν.
D’autres formulations équivalentes expriment cette dominance à l’aide de quantités intégrées sur les fonctions de répartition F_μ et F_ν : pour tout réel c, on a ∫₋∞^c F_μ(x) dx ≤ ∫₋∞^c F_ν(x) dx. Cela traduit, de manière cumulative, que μ concentre plus de masse vers les grandes valeurs que ν. Cette interprétation est renforcée par l'équivalence avec la comparaison des quantiles : pour tout t ∈ (0,1], ∫₀^t q_μ(s) ds ≥ ∫₀^t q_ν(s) ds, où q_μ et q_ν désignent les fonctions quantiles respectives. L'aire sous la courbe quantile de μ domine celle de ν, illustrant un transfert du poids de la distribution vers des résultats plus favorables.
D’un point de vue probabiliste, la dominance s'exprime via des variables aléatoires couplées. Il existe un espace de probabilité et deux variables X_μ et X_ν de lois respectives μ et ν, telles que l’espérance conditionnelle E[X_ν | X_μ] ≤ X_μ presque sûrement. Cela reflète une situation où, conditionnellement à X_μ, la variable X_ν présente une dégradation stochastique.
Cette approche est équivalente à l’existence d’un noyau stochastique Q(x, dy) tel que ν = μQ et m(Q(x,·)) ≤ x pour tout x ∈ ℝ. Autrement dit, ν peut être obtenue à partir de μ par un mécanisme probabiliste qui, en moyenne, réduit les valeurs selon un critère concave. Cette construction fait appel à la notion de noyau de Markov, qui apparaît dans la théorie des processus stochastiques et des chaînes de Markov comme un mécanisme de transition probabiliste entre états.
L’équivalence de toutes ces formulations repose sur des arguments analytiques et mesurables sophistiqués. Une clé du raisonnement est le théorème de Fubini, qui permet d’échanger les intégrales et d’exploiter les propriétés structurelles des fonctions convexes et concaves via la dérivée à droite et les représentations intégrales. En particulier, en associant à toute fonction concave croissante f la fonction convexe décroissante h = -f, on obtient une décomposition en mesures de Radon qui permet de traduire la condition d’intégration en un ensemble d’inégalités vérifiables à partir des fonctions de répartition.
Un point remarquable est que, pour les lois normales N(m, σ²), la relation μ ≽ᵢ𝑐ᵥ ν équivaut à m ≥ m̃ et σ² ≤ σ̃². C’est-à-dire que, dans ce cas particulier, la dominance stochastique du second ordre se réduit à la comparaison des espérances et des variances : une espérance plus élevée combinée à une dispersion plus faible assure la préférence selon ≽ᵢ𝑐ᵥ.
Le caractère antisymétrique de ≽ᵢ𝑐ᵥ découle directement des équivalences intégrales : si les intégrales ∫(c−x)⁺ μ(dx) et ∫(c−x)⁺ ν(dx) coïncident pour tout c ∈ ℝ, alors les fonctions de répartition sont égales, ce qui implique μ = ν. Cela montre qu’une mesure de probabilité est entièrement déterminée par l’ensemble de ces intégrales tronquées, soulignant la richesse structurelle contenue dans cette relation d’ordre.
Comprendre la dominance stochastique du second ordre implique donc de saisir ses ramifications analytiques, probabilistes et économiques. Au-delà des définitions équivalentes, elle modélise un principe fondamental de la théorie du risque : la préférence pour des distributions qui combinent une espérance élevée et une variabilité contrôlée. Elle rend explicite l’idée selon laquelle un agent rationnel avers au risque choisira toujours une option dont les gains sont, en moyenne, plus élevés, et dont la dispersion est plus contenue selon un critère intégral.
Il est essentiel que le lecteur perçoive que cette dominance ne se réduit pas à une simple com
Comment définir une fonctionnelle concave monétaire et construire des mesures de probabilité avec des marges données ?
La représentation d'une fonctionnelle d'utilité dans un cadre où l'indépendance de certitude est affaiblie prend la forme U(X) = ϕ(u(X)), où ϕ est une fonctionnelle sur un espace X à valeurs réelles. Contrairement au cas classique, ϕ n'est plus nécessairement positivement homogène. Sous des hypothèses précises, notamment la monotonicité, la concavité et l'invariance par translation monétaire (cash invariance), il existe une unique fonctionnelle ϕ : X → ℝ telle que Ũ(X̃) = ϕ(ũ(X̃)) pour tout ̃X ∈ X̃. Ces propriétés s'expriment comme suit : si Y(ω) ≥ X(ω) pour tout ω, alors ϕ(Y) ≥ ϕ(X) ; pour tout λ ∈ [0,1], ϕ(λX + (1 − λ)Y) ≥ λϕ(X) + (1 − λ)ϕ(Y) ; enfin, pour tout z ∈ ℝ, ϕ(X + z) = ϕ(X) + z.
La démonstration de l'invariance par translation monétaire s'appuie sur la structure croissante stricte de la fonction u, et sur des constructions impliquant des décompositions en distributions de Dirac, combinées avec une version faible de l'indépendance de certitude. En particulier, cette propriété garantit que l'ajout d'une constante à une variable aléatoire X se traduit par un simple décalage de la valeur de ϕ, ce qui est essentiel pour modéliser des préférences monétaires cohérentes.
La concavité de ϕ, quant à elle, découle d'une inégalité centrale reliant ϕ appliquée à une combinaison convexe de variables aléatoires et la combinaison correspondante des valeurs de ϕ sur ces variables. Cette propriété reflète une aversion à l'incertitude, autrement dit une préférence pour les profils moins risqués.
Une fonctionnelle ϕ satisfaisant ces trois propriétés est appelée fonctionnelle d'utilité monétaire concave. Son opposé, ρ := −ϕ, est alors un mesure de risque convexe. Ces notions s'articulent dans la théorie moderne de la gestion du risque et permettent de représenter les préférences d'un agent face à l'incertitude.
Plus encore, ϕ admet une représentation duale sous la forme d'un minimum sur un ensemble de mesures de probabilité : il existe une fonction de pénalité α, bornée inférieurement, telle que pour tout X,
où désigne l'ensemble des mesures de probabilité finies. Cette dualité est centrale dans la théorie des mesures de risque convexes et permet de relier les préférences à un spectre de modèles probabilistes pondérés par un coût de pénalité.
Par ailleurs, la construction de mesures de probabilité ayant des marges prescrites est une question fondamentale, non seulement pour la caractérisation des préférences uniformes, mais aussi pour diverses applications en théorie du transport optimal, en économie et en statistique. Considérant deux mesures μ₁ et μ₂ sur un espace polonais S, on s'intéresse à l'existence d'une mesure μ sur S × S dont les marges sont précisément μ₁ et μ₂ et qui appartient à un ensemble convexe Λ fermé pour la topologie ψ-faible.
La fonction de jauge ψ, définie sur S et prenant des valeurs dans [1, ∞), permet d'introduire des espaces de mesures ψ-intégrables ainsi que des espaces fonctionnels C_ψ(S) de fonctions continues modérées par ψ. La topologie ψ-faible est la topologie la plus faible rendant continues les intégrales contre toute fonction de C_ψ(S).
Le théorème fondamental (Strassen) stipule que l'existence d'une mesure μ ∈ Λ ayant pour marges μ₁ et μ₂ est équivalente à une inégalité fonctionnelle vérifiée pour toutes fonctions f₁, f₂ ∈ C_ψ(S) :
Cette condition d'inégalité reflète un couplage compatible entre marges et contraintes, et repose sur des outils d'analyse fonctionnelle, en particulier le théorème de Hahn–Banach.
Les projections marginals π₁ et π₂, définies par intégration partielle, sont des applications continues et affines entre espaces de mesures ψ-intégrables, permettant d'étudier la structure convexe de Λ à travers ses marges. La topologie faible associée à ψ assure la bonne convergence des suites de mesures.
Le cadre localement convexe induit par ces espaces fonctionnels et espaces de mesures facilite l'utilisation des méthodes de dualité et d'analyse convexe. L'espace E, engendré par des combinaisons linéaires de mesures de probabilité, possède une topologie faible σ(E, C_ψ(S)) rendant les applications d'intégration continues, ce qui est fondamental pour garantir la séparation des points et l'application des théorèmes fonctionnels.
Ces résultats formalisent et étendent les fondements mathématiques nécessaires à la compréhension des préférences sous incertitude ainsi qu'à la modélisation rigoureuse de la dépendance entre variables aléatoires dans un cadre probabiliste.
Il est essentiel de comprendre que la concavité, la monotonicité et l'invariance par translation de la fonctionnelle ϕ ne sont pas de simples propriétés techniques, mais incarnent des principes économiques fondamentaux tels que l'aversion au risque, la cohérence monétaire des préférences, et la structure des incitations dans la prise de décision sous incertitude. De plus, la topologie ψ-faible et l'utilisation de fonctions jauges ψ permettent de gérer des espaces de mesures avec des contraintes d'intégrabilité fines, assurant ainsi la robustesse et la généralité des constructions de mesures à marges données. Ces notions sont indispensables pour relier la théorie abstraite des préférences à des applications concrètes en économie, finance, et sciences des données.
L'Utilité Exponentielle et l'Entropie Relative dans les Modèles Financiers
L'étude de l'utilité exponentielle et de l'entropie relative est essentielle pour comprendre les comportements optimaux dans les marchés financiers, notamment en l'absence d'opportunités d'arbitrage. En modélisation financière, ces concepts permettent de définir des mesures d'équilibre et de montrer la relation entre les différents types de distributions sous des transformations spécifiques.
Soit , une valeur particulière dans l'espace des paramètres, et considérons et pour . Avec ce choix, on montre que pour un facteur donné, on peut établir que:
ce qui est fini selon l'équation (3.10). Cela nous permet de comprendre comment un changement dans le paramètre affecte les distributions des variables aléatoires dans le modèle.
La famille exponentielle de par rapport à est définie comme l'ensemble des mesures , où la densité de probabilité associée à est donnée par:
où est une fonction de normalisation. Un exemple classique est celui où l'actif risqué suit une distribution de Poisson sous la mesure , avec un paramètre . Dans ce cas, la distribution de sous devient une distribution de Poisson avec un paramètre modifié .
De manière similaire, si suit une loi normale standard , alors sous la mesure , devient une variable aléatoire suivant la loi normale , ce qui illustre la flexibilité de la famille exponentielle dans la modélisation de diverses distributions.
Une remarque importante concerne les paramètres et dans . Ces deux paramètres déterminent le même élément de la famille exponentielle de si et seulement si presque sûrement sous . Cela signifie que la transformation est injective sous la condition de non-redondance, c'est-à-dire si presque sûrement entraîne .
Une fois ces concepts établis, on peut s'intéresser aux barycentres des membres de la famille exponentielle de par rapport à , notés . Ces barycentres peuvent être obtenus en tant que gradient de la fonction génératrice de moment logarithmique . Le lemme suivant montre que est précisément le gradient de :
De plus, la matrice Hessienne de au point correspond à la matrice de covariance de sous , ce qui établit la convexité de . Ces propriétés sont cruciales pour les applications pratiques, car elles permettent de manipuler les fonctions génératrices de moment et d'obtenir des informations détaillées sur les distributions des actifs financiers.
Dans le cadre des marchés financiers, l'optimisation de l'utilité exponentielle est liée à l'absence d'arbitrage, ce qui signifie qu'il existe une mesure minimisant l'entropie relative parmi toutes les mesures de probabilité ayant une espérance . L'entropie relative de par rapport à est définie par:
et une des propriétés importantes est que la mesure est unique dans le cadre de l'optimisation de cette entropie relative. En effet, la maximisation de est équivalente à la minimisation de l'entropie relative, et la mesure fournit la solution optimale.
Ainsi, la relation entre la fonction génératrice de moment, l'entropie relative et la mesure d'équilibre est étroite. Lorsque la condition de non-redondance est vérifiée, le paramètre devient bijectif, ce qui permet une identification précise des barycentres dans l'ensemble des mesures de probabilité. En d'autres termes, chaque point de l'intérieur relatif de l'enveloppe convexe des supports des mesures peut être associé à un barycentre unique de la famille exponentielle.
Il est également crucial de comprendre que la structure du modèle repose sur l'absence d'opportunités d'arbitrage. Si un marché est libre d'arbitrage, il existe une mesure de risque neutre unique qui minimise l'entropie relative sur l'ensemble de toutes les mesures , ce qui renforce la validité du modèle.
Comment déterminer l’unicité de la mesure martingale équivalente dans les modèles financiers complets ?
Dans l’étude des modèles financiers, une question fondamentale est celle de l’existence et de l’unicité de la mesure martingale équivalente (EMM), notée généralement . La mesure permet d’éliminer l’arbitrage et de définir un prix unique pour les actifs dérivés dans un marché complet. Le texte présenté explore en détail les conditions sous lesquelles cette mesure est unique, ainsi que la manière dont la structure du marché et l’ajout d’informations influencent cette unicité.
Lorsque l’on considère un espace de probabilités avec une filtration , et une famille de mesures équivalentes, le problème consiste à montrer que si deux mesures et sont toutes deux martingales équivalentes, alors nécessairement . Cette égalité repose sur le fait que toute combinaison convexe non triviale entre deux mesures différentes conduit à une contradiction avec les propriétés de martingale. En effet, en supposant l’existence d’une autre mesure dans , on peut construire une nouvelle mesure comme une perturbation convexe de et , contredisant la condition de singularité. Cette démonstration montre que doit être unique.
La démonstration s’appuie également sur la construction d’un actif fictif introduit dans le modèle, représenté par une variable indicatrice conditionnelle d’un événement pour lequel les probabilités sous et diffèrent. Cette extension du modèle permet de garantir l’existence d’une mesure équivalente à densité bornée, distincte de , ce qui impose à d’être unique dans le modèle initial non étendu, sinon il y aurait arbitrage.
Le lien entre la représentation martingale et l’accessibilité des actifs est central. Toute martingale terminale sous peut être décomposée en différences de processus accessibles, obtenus via des stratégies de portefeuille prédictibles. Cette décomposition assure que tout gain contingent peut être répliqué, caractéristique des marchés complets. Ainsi, la représentabilité des martingales par des processus prévisibles établit un lien direct entre unicité de et complétude du marché.
Le modèle binomial, ou modèle CRR (Cox-Ross-Rubinstein), illustre parfaitement ce cadre. Dans ce modèle discret, où les prix suivent une dynamique binaire avec deux états possibles à chaque étape, la mesure martingale équivalente est unique dès lors que les taux de rendement sans risque sont strictement compris entre les deux rendements extrêmes . Sous cette condition, le modèle est arbitrage-free et complet. La mesure attribue alors des probabilités et aux deux états, définissant un processus de rendement i.i.d. sous .
L’extension de modèles complets par l’ajout de nouvelles informations ou états peut toutefois introduire une incomplétude. Par exemple, en enrichissant l’espace probabiliste avec deux nouveaux états au temps final, la mesure martingale équivalente n’est plus unique. Ce phénomène met en lumière que l’incomplétude découle de l’existence de plusieurs mesures équivalentes martingales distinctes, liées à la non-atteignabilité de certains actifs ou options contingentes dans le modèle étendu.
La compréhension de ces propriétés est cruciale dans la théorie de l’arbitrage dynamique, puisqu’elle établit que la complétude du marché, garantissant unicité et e

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский