Le problème d’analyse fonctionnelle posé ici s’inscrit dans le cadre de la théorie de l’utilité exponentielle et de l’entropie relative, où la compacité faible séquentielle joue un rôle fondamental. Le point de départ est l’étude d’un ensemble DL1D \subset L^1, convexe et fermé, qui par le théorème H.7 se révèle également faiblement fermé dans L1L^1. La fonctionnelle FF, définie par F(φ)=E[φlogφ]F(\varphi) = \mathbb{E}[\varphi \log \varphi], est caractérisée par une structure de type dual via le théorème C.5 : elle se présente comme un supremum de fonctionnelles linéaires continues faibles, ce qui implique sa semi-continuité inférieure faible sur DD.

Cette propriété assure que les ensembles de niveaux {φD:F(φ)α}\{\varphi \in D : F(\varphi) \leq \alpha\} sont faiblement fermés dans L1L^1. En conjonction avec le critère de de la Vallée Poussin (proposition H.16), ces ensembles de niveaux sont aussi uniformément intégrables. L’application conjointe des théorèmes d’Eberlein–Šmulian et de Dunford–Pettis (théorèmes H.13 et H.19) garantit ainsi la compacité faible séquentielle dans L1L^1 de ces ensembles, fondement essentiel pour démontrer l’existence d’éléments optimaux.

Sur le plan probabiliste, ce cadre s’applique à l’étude des mesures QQ absolument continues par rapport à une mesure de référence PP, avec une contrainte sur l’espérance de la variable aléatoire YY. L’inégalité fondamentale

infQ:EQ[Y]=mH(QP)supλRd(λmlogZ(λ)),\inf_{Q : \mathbb{E}_Q[Y] = m} H(Q|P) \leq \sup_{\lambda \in \mathbb{R}^d} \left( \lambda \cdot m - \log Z(\lambda) \right),

H(QP)H(Q|P) est l’entropie relative, se connecte à la transformée de Fenchel–Legendre de la fonction convexe logZ\log Z. Lorsque mm n’appartient pas à la fermeture convexe du support de la mesure image μ=PY1\mu = P \circ Y^{ -1}, l’entropie minimale est infinie, ce qui s’explique par l’absence d’une mesure QQ réalisant cette contrainte. La théorie des hyperplans séparateurs permet alors de montrer que le supremum Fenchel–Legendre diverge également vers l’infini.

Pour les points mm situés sur la frontière du convexe Γ(μ)\Gamma(\mu) (hors de l’intérieur relatif), une argumentation de passage à la limite avec des suites (mn)(m_n) appartenant à l’intérieur relatif permet d’étendre la validité de cette dualité. L’approximation mn=nm1+(1n)mm_n = n m_1 + (1-n)m assure que les valeurs des transformées de Fenchel–Legendre convergent vers celle de mm, et que les mesures associées PλnP_{\lambda_n} possèdent des densités dont la limite faible en L1L^1 existe. Cette limite donne une densité φ\varphi pour une mesure PP_\infty satisfaisant les propriétés d’entropie minimale et la contrainte sur l’espérance.

L’application à la théorie de l’utilité repose sur le choix de fonctions utilité uu strictement concaves, souvent différentiables, pour lesquelles l’optimisation attendue correspond à la résolution d’un problème convexe dual. Le candidat optimal XX^* pour la maximisation de l’espérance d’utilité sous contrainte budgétaire se caractérise alors par une relation entre la dérivée uu' et la densité φ\varphi :

u(X)=cφ,u'(X^*) = c \varphi,

cc est une constante d’ajustement. L’inverse de la dérivée uu' fournit alors explicitement la forme optimale X=I(cφ)X^* = I(c \varphi).

Au-delà de ces résultats techniques, il est crucial de comprendre que ces théorèmes reposent sur des propriétés profondes de l’analyse fonctionnelle et de la théorie de la mesure : la compacité faible, la semi-continuité inférieure faible et la dualité convexe. La délicatesse consiste à assurer que les contraintes de moments et de supports convexe ne compromettent pas l’existence d’un optimum. En particulier, l’uniforme intégrabilité et la gestion des queues lourdes des distributions via les conditions de type de la Vallée Poussin sont indispensables pour contrôler la stabilité des suites de densités dans L1L^1.

Enfin, dans un cadre appliqué, la connexion entre l’entropie relative et l’utilité exponentielle offre un cadre robuste pour la modélisation des comportements sous incertitude, permettant de décrire les mesures optimales en termes de principes variationnels. Cette approche met en lumière comment la théorie de l’utilité peut s’appuyer sur des constructions fonctionnelles rigoureuses pour définir des stratégies optimales dans des contextes financiers ou statistiques complexes.

Comment représenter les mesures de risque convexes dans un contexte d'incertitude ?

Le concept de mesure de risque, lorsqu'il est appliqué aux fonctions mesurables et aux intégrales non linéaires, se révèle essentiel pour caractériser et évaluer l'acceptabilité du risque en présence de différentes informations. En particulier, l'intégrale de Choquet, utilisée pour mesurer les risques monétaires, fournit une méthode puissante, bien que non linéaire, d'évaluation des pertes. Elle est définie par l'intégrale suivante :

0Xdc:=0c(X>x)dx\int_{0}^{\infty} X \, dc := \int_{0}^{\infty} c(X > x) \, dx

Cela permet de calculer une mesure de risque en termes d'un fonctionnel non linéaire. En fait, lorsqu'on applique cette formule à une fonction de perte, ρ(X):=(X)dc\rho(X) := \int (-X) \, dc, on obtient une mesure de risque monétaire homogène et positive. Si cc est sous-modulaire ou fortement sous-additif, la mesure de risque devient cohérente et peut être représentée par l'intégrale de Choquet.

Les mesures de risque cohérentes et convexes, comme dans le cas de l'intégrale de Choquet, sont cruciales dans des contextes où les informations sont incertaines ou incomplètes. Ce type de mesure trouve une application particulièrement utile dans les situations d'incertitude de Knight, où la probabilité d'événements n'est pas nécessairement définie à priori, ce qui rend difficile l'utilisation de mesures probabilistes classiques.

L'approche de la mesure de risque convexes repose sur l'idée de maximiser un certain fonctionnel sur un sous-ensemble QQ d'un espace de mesures de probabilité. Plus précisément, une mesure de risque cohérente ρ\rho peut être représentée comme suit :

ρ(X)=supQQEQ[X]\rho(X) = \sup_{Q \in Q} \mathbb{E}_Q [-X]

QQ est un sous-ensemble d'une famille de mesures de probabilité finiment additives. Cette représentation permet de saisir l'idée selon laquelle les risques peuvent être évalués à travers un ensemble de mesures de probabilité, chaque mesure prenant en compte différentes perceptions de l'incertitude.

Lorsque ρ\rho est une mesure de risque convexes, cette représentation peut être généralisée à des fonctionnels convexes qui incluent des pénalités. Ainsi, une mesure de risque convexes peut être formulée de la manière suivante :

ρ(X)=supQM1,fEQ[X]α(Q)\rho(X) = \sup_{Q \in M_1,f} \mathbb{E}_Q [-X] - \alpha(Q)

α\alpha est une fonction de pénalité, appelée fonction de pénalité minimale. Cette formulation montre qu'une mesure de risque convexes peut être vue comme une version généralisée de la mesure de risque cohérente, intégrant des ajustements selon la mesure de probabilité utilisée.

Dans le cadre d'une incertitude de Knight, cette représentation robuste des mesures de risque convexes est essentielle. En effet, dans de tels contextes, où aucune mesure de probabilité a priori n'est disponible, il devient fondamental de se baser sur des familles de mesures finiment additives pour caractériser de manière fiable les risques.

En termes plus pratiques, cela signifie que pour une fonction de perte XX, nous pouvons choisir une mesure QXQ_X dans cet ensemble de mesures additives, de manière à ce que l'évaluation du risque ρ(X)\rho(X) soit compatible avec les observations faites dans des contextes incertains. L'approche par la pénalité permet de mieux gérer cette incertitude en fournissant une estimation plus robuste du risque.

Il est important de noter que la robustesse des représentations de mesures de risque repose sur l'existence de fonctions de pénalité spécifiques. Ces fonctions servent de base pour ajuster la valeur du risque selon l'ensemble de mesures disponibles. Cette robustesse est primordiale dans les contextes financiers et économiques modernes où les informations sont incomplètes ou floues.

Le fait que la fonction α(Q)\alpha(Q) soit une fonction de pénalité minimale implique qu'elle définit un seuil au-dessous duquel la mesure de risque ne peut être améliorée, ce qui a des implications profondes dans les théories financières, notamment en ce qui concerne la régulation des risques et la gestion des portefeuilles dans des conditions d'incertitude.

En fin de compte, la compréhension de ces mesures de risque convexes et de leurs représentations robustes offre une nouvelle perspective pour évaluer et gérer les risques dans des environnements d'incertitude. Il est crucial de comprendre que ces approches ne se limitent pas à des simples évaluations probabilistes ; elles permettent d’adopter une approche plus flexible et plus réaliste face à des incertitudes économiques et financières complexes.

Quelle est l'importance de la compacité des ensembles de probabilités dans les mesures de risque convexes ?

Les mesures de risque convexes jouent un rôle central dans la gestion des risques financiers et économiques. L’une des caractéristiques fondamentales de ces mesures est leur compacité, qui se manifeste souvent à travers des ensembles relativement compacts de probabilités. Pour comprendre cette notion, il est essentiel d'explorer l’idée de compacité relative et ses implications théoriques et pratiques.

Une mesure de risque convexes ρ\rho est dite serrée (tight) si, pour chaque fonction XX dans l'espace des variables aléatoires, il existe une suite croissante K1K2K_1 \subseteq K_2 \subseteq \cdots de sous-ensembles compacts de Ω\Omega tel que ρ(λ1Kn)ρ(λ)\rho(\lambda_1 K_n) \to \rho(\lambda) lorsque λ1\lambda \geq 1. Cela implique que les valeurs de la mesure de risque ρ\rho sont bien contrôlées sur ces ensembles compacts, garantissant ainsi la stabilité des estimations de risque dans des conditions d'incertitude.

Un résultat important concernant les mesures de risque convexes serrées est que, si l'espace Ω\Omega est compact, toute mesure de risque convexes est nécessairement serrée. Cela repose sur un principe fondamental qui lie la compacité de l’espace sous-jacent à celle des ensembles de probabilités. En effet, si Ω\Omega est compact, alors les ensembles de probabilités définis sur cet espace tendent à être relativement compacts sous la topologie faible, ce qui permet de garantir la convergence de certaines suites de probabilités et de fonctions associées.

Lorsque la mesure de risque est serrée, elle permet une meilleure gestion des incertitudes. Prenons l'exemple où l’on suppose que XnX_n est une suite croissante de fonctions dans Cb(Ω)C_b(\Omega), l’espace des fonctions bornées et continues sur Ω\Omega, telle que Xnλ>0X_n \to \lambda > 0. L'idée est d'exploiter la compacité de la mesure de risque pour démontrer que ρ(Xn)ρ(λ)+2ε\rho(X_n) \leq \rho(\lambda) + 2\varepsilon à un certain point, où ε\varepsilon est une petite quantité positive. Cela montre que même dans des contextes complexes, la valeur de la mesure de risque reste contrôlée et stable.

Ce concept est encore plus pertinent dans des espaces plus complexes tels que les espaces de probabilité polonais, où l’on utilise des fonctions de pénalité pour représenter les mesures de risque. En particulier, si la mesure de risque est représentée par une fonction de pénalité α\alpha telle que ρ(X)=supQM1(E[X]α(Q))\rho(X) = \sup_{Q \in M_1} \left( \mathbb{E}[ -X ] - \alpha(Q) \right), les ensembles de probabilités associés Λc={QM1α(Q)c}\Lambda_c = \{ Q \in M_1 | \alpha(Q) \leq c \} sont relativement compacts sous la topologie faible. Cela garantit que les mesures de risque peuvent être calculées de manière précise même dans des situations complexes, avec une convergence stable des résultats à mesure que les paramètres évoluent.

Un autre aspect important est l’étude de la compacité relative des ensembles de probabilités Λc\Lambda_c dans l’espace des mesures de probabilité. Il est possible de démontrer que pour tout ε>0\varepsilon > 0, il existe un ensemble compact KεΩK_\varepsilon \subseteq \Omega tel que pour tout c>0c > 0, l'infimum de Q[Kε]Q[K_\varepsilon] est proche de 1 moins un petit terme d’erreur. Ce résultat repose sur des outils de topologie et de convergence des suites, qui permettent d’assurer que les mesures de risque restent fiables même lorsque l'on travaille avec des ensembles de probabilités complexes et non complètement définis.

L’un des défis supplémentaires liés à l'étude des mesures de risque convexes repose sur la continuité et la stabilité de ces mesures dans des espaces comme LL^\infty, l’espace des fonctions mesurables limitées. Dans de tels espaces, la mesure de risque doit être continue et respecter des propriétés de Fatou et de semi-continuïté pour garantir des résultats fiables. Si une fonction aléatoire XnX_n converge presque sûrement vers XX, alors la mesure de risque ρ(Xn)\rho(X_n) doit converger vers ρ(X)\rho(X), et ce processus doit être stable même lorsque la suite XnX_n est uniformément bornée.

Ce cadre théorique offre une description complète des propriétés fondamentales des mesures de risque convexes serrées, tout en soulignant leur stabilité dans des espaces complexes. Il est ainsi possible d'identifier les conditions sous lesquelles une mesure de risque peut être représentée de manière précise à l’aide de fonctions de pénalité, et de garantir que les processus de gestion des risques restent fiables, même dans des contextes de grande complexité.

En pratique, ces théories permettent de concevoir des instruments financiers plus robustes et des stratégies de gestion du risque plus efficaces, particulièrement dans des environnements incertains où les ensembles de probabilités peuvent être très vastes et hétérogènes. Les décideurs doivent donc être conscients que, au-delà de la normalisation et de la convexité des mesures de risque, la compacité relative des ensembles de probabilités et la stabilité des mesures jouent un rôle crucial dans la prévision des pertes potentielles et l’évaluation des risques associés.

Comment le principe de réflexion éclaire-t-il la distribution des marches aléatoires et le prix des options exotiques ?

Le principe de réflexion joue un rôle fondamental dans l’analyse des marches aléatoires simples, notamment dans le contexte des modèles binomiaux en finance. Considérons un processus aléatoire ZTZ_T représentant la position finale d’une marche simple après TT étapes, et MTM_T son maximum atteint jusqu’au temps TT. L’ensemble Ak,lA_{k,l}, formé des trajectoires ω\omega telles que ZT(ω)=klZ_T(\omega) = k - l avec un maximum MTkM_T \geq k, est mis en bijection par une application φ\varphi avec l’ensemble {MTk,ZT=k+l}\{ M_T \geq k, Z_T = k + l \}, lequel, sous l’hypothèse l0l \geq 0, coïncide avec {ZT=k+l}\{ Z_T = k + l \}. Cette bijection induit l’égalité des probabilités attribuées à ces deux ensembles par la mesure uniforme, et conduit ainsi à une première formule essentielle.

L’utilisation du principe de réflexion permet alors d’établir des relations précises entre les probabilités portant sur le maximum MTM_T et celles concernant la position finale ZTZ_T. Par exemple, la formule

P[MTk]=P[ZT=k]+2P[ZT>k]\mathbb{P}[ M_T \geq k ] = \mathbb{P}[ Z_T = k ] + 2 \mathbb{P}[ Z_T > k ]

exprime la distribution du maximum en fonction de celle de la position finale. De même,

P[MT=k]=P[ZT=k]+P[ZT=k+1]\mathbb{P}[ M_T = k ] = \mathbb{P}[ Z_T = k ] + \mathbb{P}[ Z_T = k + 1 ]

relie la probabilité d’atteindre un maximum exact kk aux probabilités des positions finales kk et k+1k+1.

Ces formules s’inscrivent naturellement dans le cadre de la marche aléatoire symétrique avec mesure uniforme, mais leur intérêt se prolonge dans l’étude du modèle binomial pondéré par une mesure de martingale PP^*, modifiant la distribution initiale. La densité de PP^* par rapport à P\mathbb{P} est donnée explicitement, permettant de transposer le principe de réflexion dans ce cadre pondéré. En particulier, on obtient des identités modifiées reliant les événements sur MTM_T et ZTZ_T sous la nouvelle mesure, ce qui est crucial pour l’évaluation des dérivés financiers.

Cette extension est appliquée dans le calcul des prix d’options exotiques telles que les options à barrière. Par exemple, le prix d’une option « up-and-in call » dépend non seulement de la distribution terminale du sous-jacent mais aussi du passage du prix au-dessus d’une barrière BB. Le principe de réflexion, adapté à la mesure martingale PP^*, permet d’exprimer explicitement ce prix comme une combinaison d’espérances conditionnelles sur des événements liés à la marche ZTZ_T et à son maximum MTM_T. De même, les options « up-and-out » s’obtiennent par complémentarité en soustrayant le prix de l’option « up-and-in » du prix de l’option vanille correspondante.

Le principe de réflexion s’avère également précieux dans le calcul du prix des options de type lookback, dont le payoff dépend du maximum ou du minimum du sous-jacent sur la période d’observation. L’évaluation de la valeur attendue du maximum ou du minimum nécessite une compréhension fine de la distribution de MTM_T, accessible par les formules dérivées du principe de réflexion. Ces résultats ouvrent la voie à des expressions explicites, utiles dans les modèles binomiaux pour la fixation de prix arbitrage-free.

Au-delà des résultats techniques, il est essentiel de saisir que le principe de réflexion établit un lien profond entre le comportement extrême d’un processus stochastique (comme le maximum atteint) et sa position finale, sous diverses mesures probabilistes. Cette dualité est au cœur de nombreuses méthodes d’évaluation en finance quantitative. La possibilité d’adapter ce principe à des mesures déformées (martingale) garantit la pertinence des calculs dans un cadre économique réaliste, intégrant la notion de prix neutre au risque.

Enfin, la compréhension de ce principe éclaire aussi la manière dont les options à barrière et lookback capturent des informations sur le chemin du prix, et non seulement sur sa valeur terminale. Cela souligne l’importance d’une approche path-dependent dans la modélisation des dérivés exotiques, renforçant la nécessité d’outils probabilistes sophistiqués tels que le principe de réflexion et ses généralisations.