La notion de mesure de risque est essentielle dans de nombreux domaines, en particulier en finance, où les décisions sont prises en tenant compte de l'incertitude quant aux événements futurs. Les concepts présentés dans les sections précédentes apportent des éclairages puissants sur cette question, en utilisant des approches avancées comme les intégrales de Choquet, les mesures de risque cohérentes et les différentes extensions des résultats classiques dans des cadres spécifiques. La Proposition 4.59, par exemple, trouve une nouvelle preuve dans le cadre de la théorie classique des suites uniformément distribuées modulo 1. Cette approche met en lumière la relation entre la distribution uniforme et les propriétés de convergence dans les espaces de probabilité, une idée qui est souvent négligée dans les discussions plus traditionnelles sur les mesures de risque.

Le rôle des suites uniformément distribuées modulo 1, qui fait appel à la théorie des suites de nombres réels et à leurs propriétés statistiques, est crucial pour démontrer des résultats de convergence qui peuvent être appliqués à des contextes financiers. Plus précisément, la preuve nouvelle s'appuie sur des résultats de la théorie des suites uniformes pour établir des liens solides entre l'approximation de lois de probabilité et la distribution d'événements dans des modèles de risque. L'application de cette approche classique permet de surmonter certaines limites de la théorie moderne des risques, en offrant une vision plus profonde des structures sous-jacentes des systèmes financiers complexes.

En ce qui concerne la Théorème 4.58, il existe une alternative pour sa démonstration qui utilise l'extension du bord de Hardy-Littlewood dans la Proposition 4.66 à un cadre finitement additif, comme le suggèrent Liebrich et Munar. Une telle approche permet non seulement d’élargir le spectre des mesures de risque, mais aussi de répondre à des questions fondamentales sur la cohérence des modèles dans des contextes d'incertitude. Dans ce contexte, la cohérence des mesures de risque est abordée en termes de convexité, un aspect qui est exploré davantage par des chercheurs tels que Kusuoka et Kunze, et dont les applications sont multiples dans les domaines de la finance et de l’assurance.

Les représentations des mesures de risque invariant à la loi, comme celles trouvées dans la Section 4.7, offrent des perspectives inédites pour la gestion des risques. Les travaux de Frittelli et Rosazza Gianin, notamment, ont ouvert des voies de compréhension de la convexité en rapport avec les mesures de risque. Ces approches permettent d'élargir la compréhension des dynamiques des risques dans des systèmes financiers complexes et non linéaires.

Cependant, il est crucial de comprendre que la recherche sur les mesures de risque et les intégrales de Choquet, qui est présente dans la Section 4.9, ne se limite pas à des applications purement théoriques. L’analyse des risques à travers les mesures de Choquet implique un changement fondamental dans la manière dont on aborde les préférences et l'incertitude, notamment dans le cadre des préférences bayésiennes déformées, introduites par Klibanoff et al. Ces préférences sont particulièrement importantes lorsqu’il s’agit d’évaluer les risques dans un cadre dynamique, où les informations disponibles évoluent au fil du temps.

Il est également pertinent de noter que les mesures de risque comme MINVAR, MAXVAR, et les autres variantes associées (par exemple, MINMAXVAR, MAXMINVAR) jouent un rôle essentiel dans la gestion des portefeuilles. Ces concepts sont explorés dans des exercices pratiques et théoriques qui aident à appréhender des risques spécifiques dans différents contextes économiques. Le lien entre les risques mesurés de manière convexes et les représentations de l’optimum de risque ne doit pas être sous-estimé, car il ouvre la voie à des stratégies de couverture plus efficaces dans des environnements incertains.

Enfin, bien que la théorie des martingales joue un rôle de plus en plus central dans la gestion des risques financiers, comme le montre l’utilisation des martingales dans la théorie de l’arbitrage dynamique, il est essentiel de ne pas oublier que la dynamique des processus de risque est profondément influencée par les choix de modèles et les hypothèses de base. Par exemple, les résultats historiques relatifs à l’approche de Cox-Ross-Rubinstein, qui repose sur des approximations de la volatilité, continuent d’être appliqués dans des contextes plus complexes tels que le pricing des options.

Les théories abordées par les chapitres suivants, notamment ceux qui traitent des problèmes de fermeture de stratégies de couverture et d’optimisation des risques de perte, sont également des éléments clés pour comprendre les défis pratiques qui se posent en finance moderne. Mais ce n’est pas tout, car la capacité d’identifier des mesures de risque appropriées et de les appliquer à des problèmes réels reste l’un des principaux défis pour les chercheurs et les praticiens dans le domaine financier. C’est cette capacité d’extension de la théorie mathématique vers des applications concrètes qui continue d’être un moteur essentiel dans l’évolution de la gestion des risques.

Comment optimiser l’utilité espérée dans un cadre probabiliste et financier ?

Considérons une fonction d’utilité uu définie sur (0,)(0, \infty), strictement concave, dérivable, et satisfaisant des conditions aux bornes appelées conditions d’Inada, c’est-à-dire

limx0+u(x)=+,limx+u(x)=0.\lim_{x \to 0^+} u'(x) = +\infty, \quad \lim_{x \to +\infty} u'(x) = 0.

Ces conditions garantissent une bonne structure pour l’optimisation de l’utilité espérée. On s’intéresse à la maximisation de l’espérance E[u(X)]E[u(X)] sur une classe convexe de variables aléatoires XX, représentant des profils de gains ou des payoffs, soumis à une contrainte budgétaire donnée par une espérance sous une autre mesure PP^*, dite mesure risque-neutre ou mesure équivalente, et à une borne supérieure WW sur les gains admissibles.

L’optimisation se formalise ainsi :

maxXBE[u(X)],ouˋB={XL1(P)0XW, E[X]w},\max_{X \in \mathcal{B}} E[u(X)], \quad \text{où} \quad \mathcal{B} = \{ X \in L^1(P^*) \mid 0 \leq X \leq W, \ E^*[X] \leq w \},

avec ww représentant un budget fixé et EE^* l’espérance sous la mesure PP^*.

L’élément fondamental de la résolution de ce problème est l’introduction de la fonction inverse I+I^+ de la dérivée uu', définie sur l’intervalle (a,b)[0,+](a,b) \subseteq [0, +\infty]

a:=limx+u(x)0,b:=limx0+u(x)+.a := \lim_{x \to +\infty} u'(x) \geq 0, \quad b := \lim_{x \to 0^+} u'(x) \leq +\infty.

La fonction I+I^+ est strictement décroissante, bijective et continue, et s’étend naturellement sur [0,][0, \infty] en posant I+(y)=0I^+(y) = 0 si yby \geq b et I+(y)=+I^+(y) = +\infty si yay \leq a.

Le profil optimal XX^* s’écrit alors sous la forme

X=I+(cφ)W,X^* = I^+(c \varphi) \wedge W,

c>0c > 0 est une constante à déterminer, et φ=dPdP\varphi = \frac{dP^*}{dP} est la densité de la mesure risque-neutre PP^* par rapport à la mesure initiale PP. La constante cc est choisie de manière à respecter la contrainte budgétaire :

E[X]=w.E^*[X^*] = w.

Cette expression s’appuie sur un principe fondamental de la théorie de l’optimisation convexe, qui découle de la concavité de uu et de l’inégalité de Jensen, couplée avec la dualité entre les mesures PP et PP^*. L’unicité de XX^* est assurée sous des conditions de strictes concavité et de continuité de uu, et on montre que l’espérance E[u(X)]E[u(X^*)] est finie, garantissant ainsi l’existence d’une solution réalisable et bien définie.

Dans le cas particulier d’une fonction d’utilité exponentielle, définie par

u(x)=1eαx,u(x) = 1 - e^{ -\alpha x},

avec un coefficient d’aversion absolue au risque constant α>0\alpha > 0, la solution se simplifie. La fonction inverse I+I^+ s’écrit alors

I+(y)=1αlogyα,I^+(y) = -\frac{1}{\alpha} \log \frac{y}{\alpha},

et le problème d’optimisation est lié à la notion d’entropie relative H(PP)H(P^* \mid P), mesurant la divergence entre PP^* et PP. La condition d’existence de la solution optimale est la finitude de cette entropie relative, et le profil optimal est donné explicitement par

X=1αlogφ+w+1αH(PP),X^* = -\frac{1}{\alpha} \log \varphi + w + \frac{1}{\alpha} H(P^* \mid P),

avec une utilité maximale

E[u(X)]=1exp(αwH(PP)).E[u(X^*)] = 1 - \exp\left(-\alpha w - H(P^* \mid P)\right).

Lorsque l’on applique ce cadre à un modèle financier avec actifs primaires S=(S0,,Sd)S = (S_0, \ldots, S_d), la mesure PP^* est choisie comme la mesure risque-neutre minimisant l’entropie, correspondant à un prix de marché sans arbitrage. Le profil optimal XX^* devient alors le payoff actualisé d’un portefeuille ξ\xi^*, linéaire dans ces actifs, sans nécessité d’actifs dérivés.

La généralisation à un espace convexe de variables aléatoires bornées par WW et respectant la contrainte budgétaire ww assure l’existence et l’unicité d’une solution optimale. Cette approche s’appuie sur des arguments classiques d’analyse fonctionnelle et probabiliste, notamment la fermeture de B\mathcal{B} pour la convergence presque sûre, la semi-continuité supérieure de uu, et la compacité par convexitée.

Le formalisme de la fonction υ(y,ω)=sup0xW(ω)(u(x)xy)\upsilon(y, \omega) = \sup_{0 \leq x \leq W(\omega)} (u(x) - x y) joue un rôle essentiel dans la caractérisation du profil optimal XX^* comme point où cette borne est atteinte. Cette dualité entre fonction d’utilité et contrainte duale permet d’interpréter XX^* comme une solution d’un problème de maximisation locale, paramétrée par cφc \varphi.

Il est crucial de comprendre que ces résultats s’inscrivent dans un cadre probabiliste rigoureux où la mesure initiale PP représente la probabilité réelle, tandis que PP^* est une mesure équivalente, ajustée pour refléter la neutralité au risque. La densité φ\varphi exprime ainsi la pondération relative des événements selon la mesure risque-neutre, et la fonction inverse I+I^+ permet de traduire cette pondération en un profil optimal de gains.

La maîtrise de cette dualité mesure/fonction d’utilité est centrale pour l’analyse avancée en théorie financière, en particulier dans la détermination de portefeuilles optimaux et dans la tarification des actifs. L’approche met en lumière les liens profonds entre entropie, aversion au risque, et stratégie optimale, offrant une compréhension fine des mécanismes d’équilibre en présence d’incertitude.