La solution à ce problème repose sur des hypothèses très spécifiques concernant la fonction φ et la mesure de risque λ. Nous commençons par supposer que φ est une fonction définie pour chaque c ≥ c0, où c0 est une valeur minimale déterminée par l’équation v~=E[ϕ;ϕ>c0]\tilde{v} = E[ \phi ; \phi > c0 ]. Selon le théorème 8.26, une solution à notre problème peut être trouvée dans la classe {Zr(c)cc0}\{ Z_r(c) | c \geq c0 \}, ce qui implique qu'il nous faut minimiser l'expression suivante sur cc0c \geq c0 :

1λAV@Rλ(Zr(c))=qZ(s)ds=λr(c)+(1r(c))1r{q(c)ϕ(s)>c}ds1 \, \lambda_{AV@R_{\lambda}}(-Z_r(c)) = \int q_Z(s) \, ds = \lambda r(c) + (1 - r(c)) \int_1^r \{ q(c) \phi(s) > c \} ds

Cette minimisation est effectuée sous des contraintes spécifiques, et le calcul peut être simplifié davantage en utilisant la reparamétrisation c=qϕ(t)c = q\phi(t), qui est injective selon nos hypothèses. Par conséquent, nous devons minimiser la fonction R(t)R(t) suivante :

R(t):=λAV@Rλ(Zρ(t))=λρ(t)+(1ρ(t))1(t,1](s)dsR(t) := \lambda_{AV@R_{\lambda}}(-Z_{\rho(t)}) = \lambda \rho(t) + (1 - \rho(t)) \int_1^{(t,1]}(s) \, ds

La minimisation de cette fonction se fait sur tt0:=Fϕ(c0)t \geq t0 := F\phi(c0). Si t1λt \leq 1 - \lambda, alors R(t)=λR(t) = \lambda, ce qui ne peut être optimal. Nous montrons ensuite que la fonction Ψ(t1+λ):=Φ(t)\Psi(t - 1 + \lambda) := \Phi(t) admet un maximiseur unique tλ(1λ,1]t_\lambda \in (1 - \lambda, 1], qui définit la solution dès que tλt0t_\lambda \geq t0, et à condition que t0t_0 ne donne pas un meilleur résultat.

En continuant cette analyse, nous démontrons que la solution optimale est définie par :

t:=t0tλt^* := t_0 \vee t_\lambda

Il est important de noter que cette solution tλt_\lambda est indépendante de v~\tilde{v}, tandis que t0t_0 varie de 1 à 0 lorsque v~\tilde{v} varie de 0 à 1. Ainsi, en prenant v~\tilde{v}^* comme niveau de capital pour lequel tλ=t0t_\lambda = t_0, nous obtenons une solution optimale sous la forme :

Z=1{ϕ>qϕ(t0)} pour v~v~,{r+(1r)1{ϕ>qϕ(tλ)}} pour v~>v~Z^* = 1_{\{\phi > q \phi(t_0)\}} \text{ pour } \tilde{v} \leq \tilde{v}^*, \quad \{ r^* + (1 - r^*) 1_{\{\phi > q\phi(t_\lambda)\}} \} \text{ pour } \tilde{v} > \tilde{v}^*

Cette solution indique que pour des valeurs de v~\tilde{v} inférieures à un certain seuil v~\tilde{v}^*, le capital est alloué selon t0t_0, tandis qu'au-delà de ce seuil, la solution s’adapte à tλt_\lambda.

Enfin, nous pouvons établir une connexion avec la théorie des tests statistiques robustes. En effet, si nous considérons le problème de maximisation suivant :

maximize E[ψ]subject to ψR et supQQλEQ[ψ]α\text{maximize } E^*[\psi] \quad \text{subject to } \psi \in R \text{ et } \sup_{Q \in Q_\lambda} E_Q[\psi] \leq \alpha

RR est l'ensemble des fonctions mesurables et QλQ_\lambda est un ensemble de mesures de probabilité, alors la solution ψ\psi^* à ce problème est un test aléatoire optimal. Ce test peut être réécrit sous la forme d'un test de Neyman-Pearson standard, ce qui est d’un grand intérêt pour la modélisation et l’analyse des risques dans un cadre dynamique.

L'importance de cette approche réside dans la capacité à ajuster les stratégies de couverture sous des contraintes de capital tout en maintenant une minimisation efficace du risque. Elle permet de traiter les problèmes de couverture dans des marchés où des limitations sont imposées sur les investissements, et ce type de solution est crucial pour la gestion des portefeuilles dans des contextes de risques complexes.

Comment peut-on garantir une représentation numérique continue des préférences et quelle est la portée de la représentation de von Neumann–Morgenstern ?

Il est essentiel, dans l'étude des préférences, de comprendre les conditions sous lesquelles une relation d'ordre continue sur un espace topologique peut être représentée numériquement par une fonction continue. L'absence de densité ordinale dans certains sous-ensembles souligne que la connexité topologique joue un rôle fondamental. En effet, dans un espace topologique X, la propriété que tout intervalle contient un élément de l'ensemble dense Z est cruciale ; sans elle, on ne peut espérer que Z soit densément ordonné dans X. Cette observation met en lumière l'importance de l'hypothèse de connexité dans la proposition relative à l'existence d'une représentation numérique continue des préférences.

La théorie générale, établie sans démonstration ici, affirme que si un espace X possède une base dénombrable d'ouverts ou s'il est à la fois séparable et connexe, alors toute préférence continue sur X admet une représentation numérique continue. Cette assertion offre un cadre solide pour construire des fonctions d'utilité cohérentes avec des préférences topologiquement bien structurées.

Plus spécifiquement, lorsqu’on dispose d’une fonction continue U définie sur X et dont la restriction à un sous-ensemble dense Z représente numériquement la préférence restreinte à Z, alors U représente aussi la préférence sur tout X. La démonstration repose sur une double implication entre la préférence et l’ordre strict sur les valeurs de U, exploitant la densité de Z, la continuité de U et la connexité de X. Par l’usage d’arguments de convergence et de transitivité négative, on établit que la fonction U traduit fidèlement la relation d’ordre sur l’ensemble complet.

Dans le contexte économique, lorsque les choix correspondent à des distributions de probabilités sur un espace mesurable, le problème devient celui de caractériser les préférences sur un ensemble convexe M de ces distributions, dites "lotteries". Une représentation numérique U est dite de von Neumann–Morgenstern si elle s’écrit comme l’intégrale d’une fonction u sur la mesure μ : U(μ) = ∫ u(x) μ(dx). Cette forme garantit une affinité d’U sur M, c’est-à-dire que U préserve la structure convexe de M.

Deux axiomes fondamentaux sous-tendent cette représentation. Le premier, appelé axiome d’indépendance, impose que la préférence relative entre deux distributions μ et ν soit maintenue même dans un mélange convex avec une troisième distribution λ, traduisant ainsi une cohérence dans les préférences vis-à-vis de compositions probabilistes. Le second, l’axiome archimédien, affirme qu’entre trois distributions μ ≻ λ ≻ ν, il existe des combinaisons convexes qui "approximent" λ par des mixtures entre μ et ν. Cette condition, qui traduit une forme de continuité dans la préférence, est analogue à un principe archimédien en analyse réelle et permet d’éviter des "sauts" discontinus dans la structure des préférences.

L’axiome d’indépendance se justifie par une interprétation probabiliste simple : un mélange à deux étapes d’un jeu aléatoire est équivalent à un tirage direct d’une distribution composée. Cette cohérence intuitive explique pourquoi si μ est préféré à ν, ce choix doit se maintenir dans tout contexte combinatoire où ces distributions sont impliquées.

La représentation affine qui découle de ces axiomes est unique à une transformation affine positive près, assurant ainsi une normalisation possible sans perte d’information. Toutefois, affinité n’implique pas nécessairement forme de von Neumann–Morgenstern. Néanmoins, pour l’ensemble des distributions simples, celles composées finiment de masses de Dirac, cette forme est assurée, ce qui est crucial pour la modélisation pratique des préférences sous risque.

Cette formalisation rigoureuse établit un pont essentiel entre la topologie, la théorie des probabilités et la théorie économique des choix sous incertitude, offrant une base solide à la modélisation des comportements rationnels.

Il est important de considérer que la continuité des préférences n’est pas seulement une condition technique mais reflète une cohérence comportementale : des préférences discontinues sont souvent difficiles à justifier empiriquement. De plus, l’axiome d’indépendance, bien que fondamental, a fait l’objet de débats quant à sa validité dans des situations réelles, notamment en raison de paradoxes observés en économie comportementale. L’axiome archimédien souligne quant à lui l’importance de l’"approchabilité" des préférences, impliquant que les décisions peuvent être comprises comme des limites de combinaisons de choix extrêmes. Enfin, la structure convexe de l’ensemble des lotteries garantit la pertinence des outils analytiques continus et affines, offrant une compréhension profonde des mécanismes de prise de décision sous incertitude.

Pourquoi les individus violent-ils l’axiome d’indépendance dans leurs choix économiques ?

Le paradoxe d’Allais constitue l’une des critiques les plus profondes et empiriquement fondées du modèle classique de l’utilité espérée tel que formulé par von Neumann et Morgenstern. Ce paradoxe repose sur une simple expérience de choix entre différentes loteries monétaires, dans lesquelles les préférences déclarées par une majorité significative de participants s’avèrent incompatibles avec l’axiome d’indépendance. Maurice Allais fut le premier à observer que de nombreux individus, lorsqu’on leur présente les choix entre μ₁ et ν₁, puis entre μ₂ et ν₂, préfèrent successivement μ₁ à ν₁, mais aussi ν₂ à μ₂. Or, cette double préférence est logiquement incohérente avec le cadre de l’utilité espérée.

David Kahneman et Amos Tversky ont validé empiriquement cette observation : 82 % des participants préféraient μ₁ à ν₁, tandis que 83 % préféraient ν₂ à μ₂. Cela implique que plus de 65 % des individus effectuaient les deux choix simultanément, démontrant une violation explicite de l’axiome d’indépendance. Cet axiome stipule que si un individu préfère un certain résultat à un autre, il devrait conserver cette préférence même lorsque les deux résultats sont mélangés de manière identique avec une troisième alternative. Mathématiquement, cela signifie que si μ₁ ≻ ν₁, alors, pour tout α ∈ (0,1), la combinaison αμ₁ + (1−α)μ₂ devrait être préférée à αν₁ + (1−α)μ₂. Mais si dans le second choix l’individu préfère ν₂ à μ₂, la structure logique s’effondre : une contradiction apparaît dès lors que l’on applique les règles de composition linéaire des distributions.

Ce paradoxe révèle non seulement une limite descriptive de la théorie de von Neumann–Morgenstern, mais aussi une faille normative, si l’on suppose que cette théorie doit modéliser une rationalité idéale. En réalité, l’humain manifeste une rationalité contingente, souvent dépendante du contexte, de l’émotion, du cadre de référence. C’est précisément cette rationalité observée qui a mené Kahneman et Tversky à élaborer la théorie des perspectives, où l’utilité espérée est remplacée par une fonction de valeur centrée sur un point de référence, souvent influencée par les gains ou les pertes récents.

Dans le cadre théorique classique, on suppose que les distributions de résultats monétaires sont connues et décrites par une mesure de probabilité sur un intervalle de ℝ. On définit alors une relation de préférence ≻ sur l’ensemble des mesures, et on suppose qu’elle admet une représentation par une fonction d’utilité espérée U(μ) = ∫u(x)μ(dx), où u est continue, strictement croissante et, dans le cas de l’aversion au risque, strictement concave. Cela permet d’expliquer pourquoi un agent rationnel préfère une somme certaine à une loterie avec une même espérance, mais comportant un risque : c’est l’effet de l’aversion au risque, formalisé par l’inégalité de Jensen.

Cette aversion au risque est quantifiée par le concept de prime de risque, soit la différence entre la valeur espérée m(μ) et l’équivalent certain c(μ), ce dernier étant la somme monétaire certaine telle que l’agent est indifférent entre celle-ci et la loterie μ. Ainsi, la prime de risque ϱ(μ) = m(μ) − c(μ) mesure combien un individu est prêt à sacrifier pour éliminer le risque inhérent à une distribution donnée.

Cependant, cette représentation normative est contredite par de nombreux résultats empiriques : les agents économiques ne suivent pas une seule fonction d’utilité, m

Comment les modèles continus de prix des options convergent-ils vers la solution de Black-Scholes ?

L’étude des modèles continus en finance mathématique, en particulier pour les options européennes, repose sur une compréhension précise de la dynamique des actifs risqués et des techniques d’évaluation des options. L'un des concepts clés dans l’évaluation des options est la volatilité, qui influence directement le prix des options. La fonction Vega, qui mesure la sensibilité du prix d'une option aux changements de volatilité, se définit comme suit :

Vσ=xtϕ(d+(x,t)),ouˋϕ(d+(x,t)) est la densiteˊ de la distribution normale standard.\frac{\partial V}{\partial \sigma} = x \sqrt{t} \phi(d^+(x, t)), \quad \text{où} \quad \phi(d^+(x, t)) \text{ est la densité de la distribution normale standard.}