L'enveloppe de Snell supérieure UtU^{\uparrow}_t est un concept central en finance pour la valorisation des options américaines et d'autres instruments financiers dans un cadre de mesure probabiliste. Elle représente le processus qui maximise, au moment tt, la valeur attendue d'un actif, sous la contrainte de l'évolution de certains paramètres, comme le taux d'intérêt ou les ajustements de risque à chaque instant. Pour une réclamation américaine HH, le processus UtU^{\uparrow}_t est essentiel pour déterminer une stratégie de couverture optimale qui minimise le coût de la couverture tout en satisfaisant les contraintes imposées par les marchés financiers.

Considérons un jeu de mesures QQ dans un espace filtré FtF_t qui modélise l'évolution du prix des actifs au cours du temps. L'enveloppe de Snell supérieure UtU^{\uparrow}_t à un temps tt peut être interprétée comme la valeur maximale d'une réclamation HH, en tenant compte des informations passées et des mesures de risque, sous l'hypothèse que les stratégies de couverture sont adaptées aux conditions du marché. Cette maximisation implique que pour chaque mesure QQ du groupe QSQS, on cherche l'espérance conditionnelle de la réclamation ajustée par les processus AtQA^Q_t, qui représentent des ajustements en fonction des risques pris par la couverture.

La théorie des enveloppes de Snell supérieures repose sur la notion de supremum essentiel, ce qui signifie que, dans le cadre de la maximisation des espérances conditionnelles, il faut prendre en compte les cas où les erreurs de couverture peuvent être négligeables ou infiniment petites sous certaines conditions. Le théorème de base qui régit cette approche implique que pour toute mesure Q0QSQ_0 \in QS et tout instant tt, UtU^{\uparrow}_t est l'espérance supérieure de la réclamation ajustée par les différents AtQA^Q_t, pondérés par la mesure QQ. La solution optimale consiste à équilibrer les risques tout en maximisant les gains attendus.

Dans ce cadre, des ensembles Λδ\Lambda_\delta, associés à une probabilité 1δ1-\delta, jouent un rôle crucial. Ils représentent des sous-ensembles de FtF_t où les stratégies de couverture peuvent être ajustées avec une probabilité arbitrarily proche de 1. Ces ensembles sont construits de manière récursive, en utilisant des mesures QkQ_k qui coïncident avec Q0Q_0 sur des sous-ensembles FtF_t, et en ajustant progressivement les couvertures jusqu'à atteindre un résultat optimal. Ainsi, les stratégies de couverture peuvent être définies comme des processus QkQ_k qui satisfont des relations spécifiques, comme Utmax(UtQ0+AtQ0)U^{\uparrow}_t \leq \max \left( U^{Q_0}_t + A^{Q_0}_t \right), où chaque étape suit l'évolution des conditions de marché et des risques associés.

Le rôle des supermartingales, en particulier, est crucial dans la démonstration de l'optimalité de ces stratégies. Une supermartingale UAQU - A^Q est un processus qui, à chaque instant tt, est plus petit que son espérance conditionnelle future E[Ut+1Ft]E[U_{t+1} | F_t]. La relation UtAtQ0=\esssupE[Ut+1Q0At+1Q0Ft]U^{\uparrow}_t - A^{Q_0}_t = \esssup E[ U^{Q_0}_{t+1} - A^{Q_0}_{t+1} | F_t] est un résultat clé qui relie la valorisation des réclamations à la dynamique de la couverture et au contrôle des risques.

En conclusion, les enveloppes de Snell supérieures offrent une méthode efficace pour évaluer les réclamations américaines et autres instruments dérivés sous contraintes de risque, en prenant en compte les informations passées et les ajustements nécessaires en fonction des mesures de risque. Leur application pratique permet d'établir des stratégies de couverture optimales, garantissant ainsi une couverture adéquate contre les fluctuations du marché tout en minimisant les coûts. Cependant, il est essentiel de comprendre que la simplicité apparente de l'approche masquée sous ces enveloppes cache une complexité liée à la construction des ensembles Λδ\Lambda_\delta et aux ajustements progressifs de la couverture, ce qui requiert une analyse approfondie des mesures QQ et des processus AQA^Q.

Comment les mesures conditionnelles de risque s’articulent-elles et se représentent-elles de manière robuste ?

Dans un cadre probabiliste muni d’une filtration (Ft)t=0,,T(\mathcal{F}_t)_{t=0,\ldots,T}, les mesures conditionnelles de risque monétaires sont des applications ρt:LLt\rho_t : L^\infty \to L^\infty_t satisfaisant plusieurs propriétés fondamentales : invariance conditionnelle par rapport à la trésorerie, monotonie et normalisation. Cette structure permet d’évaluer à chaque instant tt la quantité de capital nécessaire pour rendre acceptable une position financière XX, compte tenu de l’information disponible jusqu’à ce moment. La notion de convexité conditionnelle renforce cette définition en assurant une cohérence dans la diversification des risques, tandis que l’homogénéité positive conditionnelle caractérise les mesures cohérentes, renforçant ainsi leur interprétation financière.

L’objet clé associé à chaque mesure de risque conditionnelle ρt\rho_t est son ensemble d’acceptation At={XLρt(X)0}\mathcal{A}_t = \{X \in L^\infty \mid \rho_t(X) \leq 0\}, qui regroupe les positions jugées acceptables au temps tt. Cet ensemble est stable par ordre et convexe lorsqu’il correspond à une mesure convexe. La mesure ρt\rho_t peut alors être entièrement reconstruite à partir de At\mathcal{A}_t par la formule ρt(X)=ess inf{YLtX+YAt}\rho_t(X) = \operatorname{ess\,inf}\{Y \in L^\infty_t \mid X + Y \in \mathcal{A}_t\}, incarnant la recherche du capital minimal requis pour sécuriser XX.

Au-delà de cette construction intrinsèque, les mesures conditionnelles de risque conviennent d’une représentation robuste, analogue à celle des mesures non conditionnelles. Cette représentation s’écrit sous la forme d’une borne supérieure essentielle sur un ensemble de mesures de probabilité QQ, équivalentes à la mesure de référence PP sur Ft\mathcal{F}_t, et pondérée par une fonction de pénalité αt(Q)\alpha_t(Q) dépendante de l’information disponible jusqu’à tt. Formellement,

ρt(X)=ess supQQt(EQ[XFt]αt(Q)),\rho_t(X) = \operatorname{ess\,sup}_{Q \in \mathcal{Q}_t} \left( E_Q[-X \mid \mathcal{F}_t] - \alpha_t(Q) \right),

Qt={QM1(P)QP sur Ft}\mathcal{Q}_t = \{Q \in M_1(P) \mid Q \approx P \text{ sur } \mathcal{F}_t\}. La fonction de pénalité minimale αtmin\alpha_t^{\min} est définie comme la pire perte conditionnelle sur toutes les positions acceptables au temps tt,

αtmin(Q)=ess supXAtEQ[XFt].\alpha_t^{\min}(Q) = \operatorname{ess\,sup}_{X \in \mathcal{A}_t} E_Q[-X \mid \mathcal{F}_t].

Cette dualité reflète une profonde symétrie : d’un côté, l’évaluation du risque en capital requis, de l’autre, une pondération des scénarios alternatifs selon leur plausibilité et leur coût implicite. Elle est conditionnée par une continuité précise, connue sous le nom de propriété de Fatou conditionnelle, qui garantit la stabilité de la mesure face à des limites descendantes de positions financières.

L’analyse rigoureuse démontre que ces différentes propriétés — représentation robuste, continuité de Fatou et continuité par descente — sont équivalentes et permettent d’assurer la cohérence temporelle des mesures dynamiques. Cette cohérence se traduit notamment par la décomposition spéciale de Doob de certains processus liés à la pénalisation, et par des propriétés de supermartingale, qui assurent que le capital requis ne sous-estime pas le risque futur au regard de l’information progressive.

Enfin, l’étude précise du comportement local des mesures, exprimée par la relation ρt(1AX)=1Aρt(X)\rho_t(\mathbf{1}_A X) = \mathbf{1}_A \rho_t(X) pour tout événement AFtA \in \mathcal{F}_t, révèle une structure modulable et compatible avec la filtration, essentielle pour l’implémentation pratique de ces mesures dans des environnements financiers dynamiques.

Au-delà de ces constructions formelles, il est crucial de reconnaître que la représentation robuste des mesures conditionnelles de risque incarne un équilibre subtil entre prudence et adaptabilité. La pénalisation des mesures alternatives modélise non seulement la plausibilité statistique, mais aussi l’aversion au risque et la confiance dans les modèles sous-jacents. Cette perspective invite à une interprétation dynamique où le risque n’est pas une grandeur statique, mais un objet mouvant, attaché à l’évolution de l’information.

Ainsi, comprendre cette dualité et ses conditions d’existence éclaire non seulement la théorie du risque dynamique mais éclaire aussi les pratiques de gestion financière, où la mesure du risque conditionnelle permet d’ajuster en temps réel les besoins en capital, en s’appuyant sur des évaluations robustes face à l’incertitude et à la complexité des marchés.

Qu’est-ce que les mesures de risque convexes et invariantes par loi dans la finance moderne ?

Les mesures de risque jouent un rôle fondamental dans la théorie financière contemporaine, en particulier lorsqu'il s'agit d’évaluer et de gérer l’exposition aux incertitudes des marchés. Parmi elles, les mesures de risque convexes et invariantes par loi se distinguent par leur capacité à modéliser le risque en fonction de la distribution probabiliste des pertes, indépendamment de leur réalisation spécifique. Cette propriété d’invariance par loi signifie que deux positions financières identiques en termes de distribution de pertes induisent la même mesure de risque, ce qui confère à ces outils une grande robustesse face aux fluctuations et aux particularités des marchés.

L’étude approfondie des propriétés de ces mesures a été enrichie par des contributions notables, notamment celles de Frittelli et Rosazza Gianin qui ont caractérisé les mesures de risque invariantes par loi dans le cadre des espaces convexe (Adv. Math. Econ., 2005). Elles mettent en avant la nécessité d’une structure convexe pour permettre la diversification et le partage des risques, conditions essentielles pour une gestion efficace et économiquement pertinente des portefeuilles. Ces mesures satisfont également la propriété de Fatou, démontrée par Gao, Leung, Munari et Xanthos (Finance Stoch., 2018), qui assure une continuité inférieure et garantit la stabilité face à des approximations de risque, une caractéristique cruciale pour leur extension sur des espaces fonctionnels larges comme ceux d’Orlicz.

L’intégration des contraintes dynamiques, telles que celles liées aux transactions entières étudiées par Gerhold et Krühner, montre comment ces mesures s’adaptent à la réalité opérationnelle des marchés où les actifs ne peuvent être fractionnés indéfiniment. De même, Frittelli et Scandolo ont étendu le concept à des processus stochastiques complexes, proposant des cadres plus larges pour l’évaluation des exigences de capital dans un contexte temporel (Math. Finance, 2006).

Du point de vue théorique, ces mesures s’appuient sur des fondations solides issues de la théorie de l’utilité et des probabilités subjectives, telles que développées par Gilboa et Schmeidler dans leur modèle d’utilité maximale avec priors non uniques (J. Math. Econ., 1989). Ce cadre permet de capter l’ambiguïté et l’aversion à l’incertitude, des phénomènes bien connus en finance comportementale, notamment dans la théorie du prospect de Kahneman et Tversky (Econometrica, 1979). Ces approches remettent en cause la modélisation classique fondée sur des probabilités objectives, ouvrant la voie à des représentations plus réalistes des comportements face au risque.

La dualité mathématique est omniprésente dans la représentation de ces mesures, notamment à travers les théorèmes du type Radon–Nikodym, qui fournissent des formulations duales essentielles pour la compréhension des mécanismes sous-jacents à la gestion du risque (Halmos et Savage, 1949). De plus, la théorie des martingales, illustrée par les travaux de Harrison et Kreps (J. Econ. Theory, 1979), offre un cadre rigoureux pour la modélisation des prix sans arbitrage, un principe clé reliant les mesures de risque à la dynamique des marchés financiers.

Il est également important de comprendre que ces mesures de risque ne se limitent pas à des outils purement mathématiques. Elles sont intimement liées à la prise de décision économique, à la réglementation financière et à la gestion pratique des portefeuilles. Leur capacité à intégrer des préférences subjectives, des contraintes de marché, et des conditions d’équilibre les rend indispensables pour les professionnels confrontés à des environnements incertains et complexes.

Au-delà des résultats techniques, la compréhension des implications de ces mesures invite à considérer la nature même du risque financier, non seulement comme une quantité objective à mesurer, mais comme une notion intrinsèquement liée à la perception, à l’information disponible et à la structure du marché. La robustesse et la cohérence de ces outils dépendent de la justesse avec laquelle ils modélisent ces aspects, ainsi que de leur capacité à s’adapter à des environnements en constante évolution.

Endtext

Optimisation de portefeuille et absence d’arbitrage dans un cadre de préférences économiques

La théorie de l'optimisation de portefeuille repose sur la maximisation de l'utilité attendue du rendement d'un portefeuille d'actifs financiers. Ce processus repose sur un certain nombre de prémisses, notamment l'absence d’opportunités d’arbitrage, ce qui permet de formuler un cadre économique cohérent et robuste pour les investisseurs. L'optimisation, dans ce contexte, s’effectue en équilibrant le risque et la rentabilité selon les préférences individuelles, souvent modélisées à l'aide d'une fonction d’utilité.

Prenons le cas d'un agent économique dont les préférences peuvent être exprimées à travers une fonction d'utilité u~\tilde{u}, qui est continue, strictement croissante et strictement concave. Cette fonction décrit la satisfaction de l’investisseur en fonction des rendements possibles de son portefeuille, et l’objectif est de maximiser l’utilité espérée du rendement du portefeuille à travers une sélection optimale de celui-ci. Dans ce cadre, le portefeuille choisi ξ=(ξ0,ξ)\xi = (\xi_0, \xi) est composé de d+1d + 1 actifs, où ξi\xi_i représente la quantité de titres de l'actif ii. Le premier actif correspond à un actif sans risque, et son rendement est modélisé par une constante rr.

L'investisseur choisit donc son portefeuille de manière à maximiser l'espérance de l'utilité de son rendement, en respectant la contrainte budgétaire qui stipule que l'investissement initial doit être inférieur ou égal à la richesse disponible. L'optimisation de portefeuille devient ainsi une question de maximisation de l’utilité attendue sur le rendement net, après ajustement des coûts associés à l'investissement initial.

Un élément clé de ce processus est l'absence d’arbitrage, qui garantit l'existence d'une solution optimale. Cette condition se traduit par l'idée qu'il n'existe pas de possibilité de réaliser un profit sûr à partir de transactions sans risque. En d'autres termes, l’optimisation ne peut aboutir à un portefeuille de rendement positif sans risque d’une manière qui violerait les principes économiques fondamentaux. Cette absence d’arbitrage est intimement liée à la présence de solutions optimales dans les modèles d’utilité, et elle est souvent utilisée comme base pour la démonstration du théorème fondamental de la tarification des actifs financiers.

Dans ce cadre, il existe une formulation alternative de la théorie des portefeuilles, qui passe par l’utilisation d’une mesure martingale équivalente, définie à travers l’utilité marginale. Ce concept repose sur la relation entre les prix des actifs risqués et leur évaluation sous l’optique d’une mesure de probabilité qui préserve l’espérance des rendements. Un autre aspect central du modèle est l’utilisation des inégalités de Jensen, qui permettent de relier les propriétés des mesures de probabilité aux fonctions concaves et aux rendements d’un portefeuille d’actifs.

À mesure que l'on examine ces relations, l'importance de la concavité des fonctions d'utilité devient évidente. En effet, une fonction concave assure que l'investisseur préfère un portefeuille diversifié à un portefeuille plus risqué avec le même rendement attendu, illustrant ainsi un comportement typique d'aversion au risque. Cette propriété de concavité est utilisée pour formuler des ordres de domination entre différentes mesures de probabilité, ce qui nous permet de comparer différents portefeuilles en termes d’utilité attendue et de dominance stochastique.

Les concepts d’ordre concave et croissant jouent un rôle crucial dans l’analyse des préférences des agents économiques, et sont utilisés pour établir des relations d’équivalence entre différentes configurations de portefeuille. Par exemple, on dit qu’une mesure de probabilité μ1\mu_1 domine μ2\mu_2 dans l’ordre concave si, pour toute fonction concave ff, l’intégrale de ff par rapport à μ1\mu_1 est supérieure ou égale à celle par rapport à μ2\mu_2. Cela permet de formaliser la notion de domination de portefeuille, où l'un est préféré à l'autre en fonction des critères de concavité et d’aversion au risque.

L'optimisation de portefeuille dans ce cadre peut se généraliser à des espaces polonais dotés d’un ordre de préférence, et la condition d'absence d’arbitrage est souvent remplacée par des hypothèses de continuité sur les fonctions d'utilité, permettant d'étendre l'analyse à des systèmes plus complexes et variés. Les méthodes et théorèmes développés dans ce contexte, comme le théorème de Jensen et le théorème fondamental de la tarification des actifs, permettent d'obtenir des solutions optimales en termes de rentabilité et de risque.

Il est également important de noter que l’optimisation de portefeuille ne se limite pas à des modèles simples d’actifs financiers mais s'étend à des réclamations contingentes plus complexes, comme les dérivés financiers. Ces instruments, bien que plus complexes, sont largement utilisés dans les marchés financiers pour ajuster le profil de risque et de rendement d’un portefeuille, en permettant de couvrir des risques spécifiques tout en maximisant l’utilité attendue.

L'une des difficultés pratiques majeures réside dans le fait que, dans un cadre de marché réel, les prix des actifs risqués ne sont pas fixés d’avance mais sont déterminés par un équilibre de marché. Cela introduit une dynamique supplémentaire dans le modèle, où les préférences des agents, leurs contraintes budgétaires et les prix des actifs se rencontrent dans une recherche d’équilibre économique. Cette interaction peut conduire à des profils de portefeuilles non linéaires, motivant la demande pour des instruments financiers dérivés qui permettent d’atteindre des objectifs d’optimisation sous des contraintes stochastiques.

Enfin, l'optimisation sous contraintes d'ordre stochastique est une problématique fréquente en finance, où l'agent économique cherche à minimiser le risque tout en respectant des exigences spécifiques de rendement. La modélisation et la résolution de ces problèmes nécessitent une approche sophistiquée qui intègre à la fois la théorie des préférences économiques et l’analyse des probabilités conditionnelles, rendant les instruments financiers dérivés particulièrement utiles dans cette démarche.

Quelle est la nature de l'optimisation de portefeuille dans un modèle sans arbitrage?

Soit xn:=λnx+(1λn)αnξx^* n := \lambda_n x + (1 - \lambda_n) \alpha_n \xi, où λn\lambda_n est tel que xxn=1|x^* - x_n| = 1, ce qui est possible pour tous les nn suffisamment grands. Grâce à la compacité de la sphère unitaire euclidienne centrée en xx^*, on peut supposer que xnx_n converge vers un certain xx. Dans ce cas, nécessairement, xx=1|x - x^*| = 1. Comme αnξ\alpha_n \xi diverge, il en découle que λn1\lambda_n \to 1. En utilisant l’hypothèse selon laquelle h(αnξ)h(\alpha_n \xi) est bornée, on obtient ainsi :

h(x)lim infh(xn)limn(λnh(x+(1λn)αnξ))=h(x)h(x) \leq \liminf h(x_n) \leq \lim_{n \to \infty} \left( \lambda_n h(x^* + (1 - \lambda_n) \alpha_n \xi) \right) = h(x^*)

Ainsi, xx est un autre minimiseur de hh en plus de xx^*, ce qui contredit la convexité stricte de hh. Par conséquent, (3.4) doit être vrai si la fonction strictement convexe hh atteint son minimum.

Il est important de noter que la démonstration du théorème 3.3 sous l’hypothèse 3.1(a) n’a pas utilisé le fait que les composants de YY sont bornés par en bas. Le résultat demeure valide même pour un YY arbitraire.

Nous passons maintenant à une caractérisation de la solution ξ\xi^* de notre problème de maximisation d’utilité pour des fonctions d’utilité continuellement différentiables.

Soit uu une fonction d’utilité continuellement différentiable sur DD telle que E[u(ξY)]E[u(\xi \cdot Y)] est fini pour tout ξS(D)\xi \in S(D). Supposons que ξ\xi^* soit une solution au problème de maximisation d’utilité, et qu’une des deux conditions suivantes soit remplie :

  • uu est définie sur D=RD = \mathbb{R} et est bornée par le haut.

  • uu est définie sur D=[a,)D = [a, \infty), et ξ\xi^* est un point intérieur de S(D)S(D).

Alors, u(ξY)YL1(P)u'(\xi^* \cdot Y) |Y| \in L_1(P), et la condition du premier ordre suivante s’applique :

E[u(ξY)Y]=0E[u'(\xi^* \cdot Y) Y] = 0

La concavité de uu implique que :

ΔϵΔδpourϵδ\Delta_\epsilon \geq \Delta_\delta \quad \text{pour} \quad \epsilon \leq \delta

Ainsi, Δϵu(ξY)(ξξ)Y\Delta_\epsilon \to u'(\xi^* \cdot Y) (\xi - \xi^*) \cdot Y lorsque ϵ0\epsilon \to 0. Nos hypothèses impliquent que u(ξY)L1(P)u(\xi \cdot Y) \in L_1(P) pour tous ξS(D)\xi \in S(D). En particulier, on a Δ1L1(P)\Delta_1 \in L_1(P), et donc la convergence monotone et l'optimalité de ξ\xi^* donnent :

0E[Δϵ]E[u(ξY)(ξξ)Y]lorsqueϵ00 \geq E[\Delta_\epsilon] \to E[u'(\xi^* \cdot Y) (\xi - \xi^*) \cdot Y] \quad \text{lorsque} \quad \epsilon \to 0

Cela montre que l’espérance du terme à droite de (3.7) est finie et non positive. Les deux ensembles d’hypothèses impliquent que ξ\xi^* est un point intérieur de S(D)S(D). Par conséquent, pour ηRd\eta \in \mathbb{R}^d avec η|\eta| suffisamment petit, on a encore ξ:=η+ξD\xi := \eta + \xi^* \in D. On déduit alors de (3.7) que :

E[u(ξY)ηY]0E[u'(\xi^* \cdot Y) \eta \cdot Y] \leq 0

En remplaçant η\eta par η-\eta, on montre que l’espérance doit être nulle.

Commentaires sur l’hypothèse d’un point intérieur

L’hypothèse selon laquelle ξ\xi^* est un point intérieur de S(D)S(D) mérite quelques précisions :

  1. Si la condition de non-redondance (1.10) n’est pas satisfaite, alors chaque solution, ou aucune, du problème de maximisation d’utilité ne se trouve dans l’intérieur de S(D)S(D).

  2. On peut noter que ξY\xi \cdot Y est bornée par en bas par πξ-\pi \cdot \xi lorsque ξ\xi a uniquement des composants non négatifs. Ainsi, l’intérieur de S(D)S(D) est toujours non vide.

  3. Comme le montre l’exemple suivant, le point optimal ξ\xi^* peut ne pas se trouver dans l’intérieur de S(D)S(D), et dans ce cas, la condition du premier ordre échouera généralement.

Prenons r=0r = 0, d=1d = 1, et supposons que S1S_1 soit intégrable mais non borné. Nous choisissons D=[a,)D = [a, \infty) avec a:=π1a := -\pi 1, et supposons que P[S1ε]>0P[S_1 \leq \varepsilon] > 0 pour tout ε>0\varepsilon > 0. Dans ce cas, S(D)=[0,1]S(D) = [0, 1]. Si 0<E[S1]<π10 < E[S_1] < \pi 1, alors l’optimalité de l’investissement ξ=0\xi^* = 0 est obtenue, et donc ξ\xi^* se trouve à la frontière de S(D)S(D). Ainsi, si uu est suffisamment lisse, la condition du premier ordre échouera.

Mesure de risque neutre et théorème fondamental de la tarification des actifs

La proposition 3.7 permet de définir la densité d’une mesure équivalente à la mesure neutre au risque. Rappelons qu’une mesure PP^* est neutre au risque si et seulement si E[Y]=0E^*[Y] = 0. Corollaire 3.10 : Supposons que le modèle de marché soit sans arbitrage et que les hypothèses de la proposition 3.7 soient satisfaites pour une fonction d’utilité u:DRu : D \to \mathbb{R} et un maximiseur associé ξ\xi^* de l’utilité attendue E[u(ξY)]E[u(\xi \cdot Y)]. Alors la densité de la mesure équivalente neutre au risque PP^* est donnée par :

dPdP=u(ξY)E[u(ξY)]\frac{dP^*}{dP} = \frac{u'(\xi^* \cdot Y)}{E[u'(\xi^* \cdot Y)]}

Exemple de l’utilité exponentielle et de l’entropie relative

Examinons le cas d’une fonction d’utilité exponentielle u(x)=1eαxu(x) = 1 - e^{ -\alpha x} avec une aversion au risque constante α>0\alpha > 0. La condition que E[u(ξY)]E[u(\xi \cdot Y)] soit fini pour tout ξS(D)\xi \in S(D) est équivalente à la condition E[eξY]<E[e^{\xi \cdot Y}] < \infty pour tout ξR\xi \in \mathbb{R}. Si ξ\xi^* est un maximiseur de l’utilité attendue, la densité de la mesure équivalente neutre au risque PP^* dans (3.8) prend la forme suivante :

dPdP=eαξYE[eαξY]\frac{dP^*}{dP} = \frac{e^{ -\alpha \xi^* \cdot Y}}{E[e^{ -\alpha \xi^* \cdot Y}]}

En effet, PP^* est indépendant de α\alpha puisque ξ\xi^* maximise l’utilité attendue 1E[eαξY]1 - E[e^{ -\alpha \xi \cdot Y}] si et seulement si λ:=αξ\lambda^* := -\alpha \xi^* est un minimiseur de la fonction génératrice des moments Z(λ):=E[eλY]Z(\lambda) := E[e^{\lambda \cdot Y}], λR\lambda \in \mathbb{R}.