L'intégrabilité uniforme est une propriété essentielle dans l'analyse fonctionnelle et la théorie de la mesure, particulièrement dans l'étude de l'espace de Banach L1(Ω,F,P)L^1(\Omega, \mathcal{F}, P). Elle sert de pont fondamental entre la convergence faible et la convergence forte des suites de variables aléatoires, en offrant un critère permettant d'assurer une maîtrise uniforme des moments « lourds » des variables considérées.

Une famille XX de variables aléatoires est dite uniformément intégrable si, intuitivement, les queues de distribution au-delà d'un certain seuil deviennent négligeables de manière uniforme pour toutes les variables du groupe. Formellement, cela s'exprime par la condition suivante :

limcsupXXE[X1{X>c}]=0.\lim_{c \to \infty} \sup_{X \in X} E\left[|X| \mathbf{1}_{\{|X| > c\}}\right] = 0.

Cette définition souligne que la masse moyenne portée par les valeurs extrêmes tend vers zéro uniformément sur l'ensemble XX.

Un résultat clé découle de cette propriété : toute famille uniformément intégrable est nécessairement bornée dans L1L^1. Cette borne provient de la décomposition naturelle de l'espérance en parties « petites » (inférieures à un certain seuil) et « grandes » (supérieures à ce seuil), où la contribution des grandes valeurs est contrôlée par l'intégrabilité uniforme.

Le critère de Vallée Poussin fournit une méthode pratique pour vérifier l'intégrabilité uniforme : si l'on peut trouver une fonction croissante h:[0,)Rh: [0, \infty) \to \mathbb{R}, minorée et à croissance superlinéaire (c'est-à-dire telle que h(x)/xh(x)/x \to \infty lorsque xx \to \infty), telle que les espérances E[h(X)]E[h(|X|)] soient uniformément bornées sur XX, alors XX est uniformément intégrable. Ce critère est une generalisation précieuse car il permet de passer au-delà de la simple borne en norme L1L^1.

L'importance majeure de l'intégrabilité uniforme apparaît dans la convergence des suites de variables aléatoires. Le théorème de Vitali établit que pour une suite (Xn)L1(X_n) \subset L^1 convergeant en probabilité vers une variable XL1X \in L^1, la convergence en norme L1L^1 est équivalente à l'intégrabilité uniforme de la suite (Xn)(X_n). Ce résultat révèle que la convergence en probabilité seule est insuffisante pour garantir la convergence forte : il faut contrôler la masse portée par les grandes valeurs de façon uniforme. L'intégrabilité uniforme agit ainsi comme un gage de stabilité dans le passage à la limite.

Un raffinement de cette idée est donné par le théorème de Riesz, qui établit que si (Xn)(X_n) converge presque sûrement vers XL1X \in L^1, la convergence en norme L1L^1 équivaut à la convergence des espérances E[Xn]E[X]E[|X_n|] \to E[|X|], ce qui est aussi équivalent à l'intégrabilité uniforme de (Xn)(X_n). Ce résultat offre une compréhension profonde des modes de convergence et des relations entre convergence presque sûre, convergence en norme, et contrôle uniforme des queues.

Enfin, la connexion entre l'intégrabilité uniforme et la topologie faible de L1L^1 est rendue précise par le théorème de Dunford–Pettis. Ce théorème affirme que les ensembles relativement compacts pour la topologie faible de L1L^1 sont exactement ceux qui sont uniformément intégrables. Cela traduit que l'intégrabilité uniforme n'est pas seulement une condition analytique pratique, mais aussi une caractérisation intrinsèque des propriétés topologiques de L1L^1.

Ces résultats soulignent que la maîtrise des comportements extrêmes et la structure fine des familles de variables aléatoires sont essentielles pour comprendre la nature des convergences dans les espaces de Banach, et notamment dans L1L^1. La notion d'intégrabilité uniforme transcende ainsi une simple condition technique pour devenir un concept central reliant mesures, topologies faibles, et modes de convergence.

Il est important de noter que, pour appréhender pleinement l'impact de l'intégrabilité uniforme, le lecteur doit comprendre la distinction entre convergence en probabilité, convergence presque sûre, convergence forte dans L1L^1, et convergence faible. De plus, l'usage des fonctions test à croissance superlinéaire dans le critère de Vallée Poussin illustre comment des outils analytiques permettent de contrôler uniformément des ensembles potentiellement très irréguliers.

Cette compréhension est également cruciale pour l'étude des espaces LpL^p avec p>1p > 1, où des analogues des résultats sur l'intégrabilité uniforme existent, mais où les techniques requièrent des adaptations subtiles. En particulier, les généralisations du théorème de Vitali dans ces espaces LpL^p ouvrent la voie à des applications en probabilités, en statistiques, et dans la théorie des processus stochastiques.

Comment caractériser une mesure de risque convexe sensible par des mesures équivalentes ?

La mesure de risque cohérente et convexe occupe une place centrale dans la théorie moderne du risque financier. Une des questions fondamentales est la représentation de ces mesures par des probabilités équivalentes, ce qui permet d’établir un cadre dual reliant la perception du risque à des scénarios alternatifs pondérés différemment. Plus précisément, considérons une mesure de risque convexe ρ\rho définie sur l’espace LL^\infty et possédant la propriété de Fatou, c’est-à-dire la continuité inférieure par rapport à la convergence presque sûre. La mesure ρ\rho est dite représentable par des mesures équivalentes si elle peut s’écrire sous la forme

ρ(X)=supQP(EQ[X]α(Q)),\rho(X) = \sup_{Q \approx P} \left( E_Q[-X] - \alpha(Q) \right),

où la suprématie est prise sur l’ensemble des mesures QQ équivalentes à PP (i.e. absolument continues réciproquement) et α(Q)\alpha(Q) est un terme de pénalité correspondant à chaque mesure.

Cette représentation a une signification profonde : elle formalise l’intuition que le risque est évalué en considérant les pires scénarios pondérés par des mesures alternatives plausibles, mais pas trop éloignées de la mesure de référence PP. La condition de sensibilité (ou pertinence) est essentielle ici. Une mesure de risque ρ\rho est dite sensible si, pour toute variable aléatoire XLX \in L^\infty non constante et positive, il existe un facteur λ>0\lambda > 0 tel que ρ(λX)>ρ(0)\rho(-\lambda X) > \rho(0). Autrement dit, la mesure de risque doit réagir de manière significative à toute perte non triviale.

Les théorèmes établissent l’équivalence entre la représentation par des mesures équivalentes et cette propriété de sensibilité, ainsi que d’autres conditions associées, notamment l’existence, pour chaque événement AA de probabilité positive, d’une mesure QQ dans la classe admissible qui attribue une probabilité strictement positive à AA et pour laquelle la pénalité est finie. Cette propriété garantit que la mesure de risque est attentive à tous les événements non négligeables, excluant la possibilité de "cacher" des risques dans des événements ignorés par la mesure.

Dans le processus de démonstration, l’utilisation du théorème de Halmos–Savage est cruciale pour assurer l’existence d’une mesure QQ équivalente à PP dans les ensembles de niveaux, grâce à la convexité et la fermeture adéquates des ensembles concernés. Ce cadre met en lumière l’importance de la convexité et de la structure duale dans l’étude des mesures de risque.

Il est également pertinent de noter que cette représentation s’étend naturellement aux espaces LpL^p avec 1p<1 \leq p < \infty, sous la forme d’une dualité impliquant les espaces conjugués LqL^q, où la continuité inférieure (Fatou) est traduite en propriété de semicontinuité basse sur ces espaces. Cette généralisation est fondamentale pour traiter des risques sur des espaces fonctionnels plus larges et adaptés aux différentes applications.

Une autre famille importante est celle des mesures monétaires basées sur la notion de quantile, notamment le Value at Risk (VaR). Cette mesure est définie comme le quantile supérieur de la distribution des pertes, autrement dit le seuil minimal de capital nécessaire pour garantir que la probabilité de pertes excédant ce seuil reste inférieure à un niveau λ\lambda. Le VaR, bien que très utilisé, présente des limitations, notamment le fait qu’il ne soit pas convexe. En effet, il peut encourager la concentration des risques sur des événements rares plutôt que leur diversification, ce qui va à l’encontre de la gestion prudente du risque.

La construction des mesures de risque sensibles et représentables par des mesures équivalentes permet ainsi d’assurer une évaluation cohérente et robuste, réagissant adéquatement à toutes les pertes possibles, en opposition aux mesures telles que le VaR qui peuvent sous-estimer certains aspects du risque.

Il est essentiel de comprendre que la représentation par des mesures équivalentes confère à la mesure de risque un cadre analytique permettant des calculs effectifs et des interprétations économiques précises. Cette dualité facilite notamment la gestion du risque via des techniques d’optimisation et l’analyse des scénarios extrêmes.

De plus, il importe de considérer la nature des pénalités α(Q)\alpha(Q) dans la représentation duale, car elles reflètent la "distance" ou le coût d’adopter une mesure alternative QQ. La maîtrise de cette pénalité est au cœur de la régulation du risque et de la modélisation financière prudente.

Enfin, une compréhension approfondie du rôle des espaces fonctionnels LpL^p et des propriétés de semicontinuité assure la robustesse mathématique des mesures de risque et leur applicabilité dans des contextes variés, notamment en finance, en assurance, et dans la gestion des risques opérationnels.

La convergence des prix des options dans les modèles d'arbitrage dynamique et leur interprétation

Dans le contexte des modèles d’arbitrage dynamique, l’analyse du prix d’une option "up-and-in call" repose sur la notion de convergence des approximations discrètes vers une solution continue. Considérons une option d’achat qui s’active lorsque l’actif sous-jacent dépasse une barrière donnée, et dont le payoff est conditionné par la valeur du prix d’exercice et de la barrière. Plus précisément, nous avons un prix d’exercice KK et une barrière BB tels que l’option paye (STK)+(S_T - K)^+ lorsque l’actif atteint ou dépasse BB à un moment donné avant l’expiration.

L'approximation de ce modèle par les processus binomiaux, comme ceux illustrés dans l'Exemple 5.56 avec les modèles de Cox-Ross-Rubinstein (CRR), repose sur la discretisation de l’évolution du prix de l’actif sous-jacent. Les paramètres aNa_N et bNb_N des modèles de CRR sont choisis de manière à simuler la dynamique de l’actif dans un cadre discret, avec des taux d’intérêt rr constants et des volatilités σ\sigma connues.

En appliquant ces approximations à la formule de l’option up-and-in call, on observe que la convergence des prix d’options calculés dans les modèles binomiaux vers ceux issus du modèle de Black-Scholes s’effectue. Plus précisément, la limite des prix obtenus par l’approximation discrète converge vers le prix Black-Scholes de l'option en question. Ce prix limite peut être écrit comme une espérance conditionnelle discrétisée de (STK)+(S_T - K)^+, où STS_T représente le prix de l’actif sous-jacent à la maturité.

Ce processus de convergence est important à comprendre, car il démontre que les modèles discrets peuvent fournir une approximation efficace des prix dans les modèles continus. La continuité du processus de prix sous-jacent garantit que la solution des options dans ces modèles peut être exprimée sous forme d'espérances intégrées par rapport à une distribution log-normale, comme c'est le cas dans le modèle de Black-Scholes.

Cependant, même dans les modèles les plus simples, comme ceux basés sur un mouvement brownien géométrique, des défis subsistent. Lorsque la volatilité devient stochastique, c’est-à-dire qu’elle n’est plus constante mais suit un processus aléatoire, on entre dans un cadre d'incomplétude des marchés. Dans ces situations, la simplicité de la diffusion géométrique est perdue et des modèles plus complexes, comme ceux des processus de Lévy ou de Poisson géométriques, deviennent nécessaires. Ces modèles incluent des sauts, ce qui introduit de nouvelles sources d’incomplétude, car la distribution des rendements de l'actif sous-jacent devient alors non seulement aléatoire mais aussi discontinue.

L'un des concepts clés dans la gestion d'options, notamment dans un cadre d'arbitrage, est la notion de mesure de martingale équivalente. Dans les modèles où les prix de l’actif suivent une dynamique gouvernée par une équation différentielle stochastique, il est essentiel de travailler avec la mesure martingale P\mathbb{P}^*. Cela permet de reformuler le processus de tarification d’options dans le cadre de la mesure P\mathbb{P}^*, ce qui assure que l'on travaille dans un cadre d'absence d’arbitrage. En effet, un des résultats fondamentaux est que la valorisation d'une option peut être réalisée en calculant l’espérance sous cette mesure martingale, ce qui donne une expression exacte du prix de l'option en termes de la distribution de l'actif sous-jacent.

Lorsque nous passons au modèle continu, l’importance de la mesure martingale équivalente devient plus apparente. Sous la mesure P\mathbb{P}^*, les processus sous-jacents à l’évaluation des options deviennent des martingales, ce qui signifie que leurs espérances futures, une fois actualisées, sont égales à leur valeur actuelle. Cela simplifie les calculs et permet une tarification précise des options dans des modèles de diffusion stochastiques.

Toutefois, ce cadre de mesure martingale équivalente repose sur l’hypothèse cruciale que le marché est complet. Lorsque des éléments comme la volatilité stochastique sont introduits, ou lorsque des processus discontinuous (tels que les sauts) sont utilisés, cette hypothèse d’un marché complet est violée. Dans de tels cas, les modèles deviennent incomplets et l’évaluation des options devient plus complexe, car il n’existe plus de stratégie de couverture parfaite pour se prémunir contre tous les risques associés à une option.

L'importance de cette transition entre modèles complets et incomplets ne doit pas être sous-estimée. En effet, dans les marchés incomplets, les stratégies de couverture sont limitées, et les prix des options deviennent moins déterministes et plus sujets à des variations dues à l'incertitude sur la future évolution des paramètres de marché. Cela conduit à des modèles plus sophistiqués et à la nécessité de comprendre les concepts avancés de gestion de risques et de mesures de couverture, comme la théorie de la super-couverture.

À ce point, la compréhension de la stratégie de couverture optimale devient primordiale. Dans le cadre des options américaines, par exemple, la possibilité d’exercer une option à tout moment avant l’échéance introduit un problème d'arrêt optimal, où le détenteur de l’option cherche à maximiser son espérance de profit en choisissant le meilleur moment pour exercer l'option. Cela renvoie à des questions plus profondes sur la gestion du risque dynamique, et sur l’importance de la stabilité des mesures martingales dans un environnement de marché dynamique.