La mesure de risque conditionnelle à un instant donné, notée ρt\rho_t, joue un rôle central dans la théorie moderne de la gestion des risques financiers dynamiques. Elle s'appuie sur une famille de mesures de probabilité conditionnelles QQtQ \in Q_t adaptées à l'information disponible à l'instant tt, et sur des ensembles d'acceptation AtA_t définissant les positions financières jugées acceptables à cet instant. Une propriété essentielle est l'existence d'une représentation robuste : la mesure ρt\rho_t peut s'exprimer comme un esssup (essentiel supérieur) de valeurs d'espérances conditionnelles négatives, corrigées par une fonction de pénalité minimale αtmin(Q)\alpha_t^{\min}(Q).

Plus précisément, pour tout QQtQ \in Q_t et 0st0 \leq s \leq t, on a l'égalité fondamentale

EQmin[αt(Q)Fs]=ess supYAtEQ[YFs].E^{\min}_Q[\alpha_t(Q) \mid \mathcal{F}_s] = \operatorname{ess\,sup}_{Y \in A_t} E_Q[-Y \mid \mathcal{F}_s].

Cette relation découle de la propriété de convexité conditionnelle de l'ensemble AtA_t et de la direction ascendante de la famille des espérances conditionnelles. Elle garantit que la fonction de pénalité αt\alpha_t agit comme un « prix » minimal à payer pour évaluer le risque sous la mesure QQ.

Un exemple paradigmatique est celui de la mesure de risque entropique conditionnelle, associée à une fonction d’utilité exponentielle u(x)=1eβxu(x) = 1 - e^{ -\beta x} avec β>0\beta > 0. Cette mesure s’écrit sous la forme

ρt(X)=1βlogE[eβXFt],\rho_t(X) = \frac{1}{\beta} \log E\left[e^{ -\beta X} \mid \mathcal{F}_t \right],

qui est monétaire, convexe et admet une représentation robuste avec une fonction de pénalité proportionnelle à l’entropie relative conditionnelle entre QQ et la mesure de référence PP. Cette propriété illustre le lien profond entre les notions d’utilité, d’entropie et de mesure du risque dans un cadre dynamique.

Dans le cas particulier où la mesure de risque est cohérente — c’est-à-dire monotone, translation-invariante, positive-homogène et sous-additive — la fonction de pénalité minimale αtmin(Q)\alpha_t^{\min}(Q) ne prend que les valeurs 0 ou \infty. La représentation se simplifie alors à une expression sans pénalité, sous la forme

ρt(X)=ess supQPtρEQ[XFt],\rho_t(X) = \operatorname{ess\,sup}_{Q \in \mathcal{P}_t^\rho} E_Q[-X \mid \mathcal{F}_t],

Ptρ\mathcal{P}_t^\rho est l'ensemble des mesures pour lesquelles la pénalité est nulle presque sûrement.

L'exemple du Value at Risk (VaR) conditionnel illustre une mesure monétaire et conditionnellement positive-homogène, mais non nécessairement convexe. Ce dernier est défini par un ensemble d'acceptation où la probabilité conditionnelle d'une perte dépasse un seuil λ\lambda. Son extension cohérente, la Average Value at Risk (AVaR) conditionnelle, s'exprime via une optimisation sur un ensemble de mesures QλtQ_\lambda^t dont la densité est bornée par 1/λ1/\lambda. Cette mesure combine la rigueur de la cohérence avec la gestion du risque au-delà d’un certain quantile.

Un résultat technique important est la caractérisation de la cohérence temporelle forte des mesures ρt\rho_t, qui assure la cohérence des évaluations du risque dans le temps. La propriété de récursivité

ρt=ρt(ρt+1),\rho_t = \rho_t(-\rho_{t+1}),

équivaut à une condition d'ordonnancement compatible entre les mesures à différents instants, ce qui est fondamental pour une gestion dynamique cohérente du risque.

Il est crucial de comprendre que la robustesse de ces représentations ne repose pas uniquement sur la mesure PP de référence, mais implique un ensemble plus large Q\mathcal{Q} de mesures probabilistes, reflétant l'incertitude modélisée par la gestion du risque. Le choix et la structure de ces ensembles déterminent la nature et la sensibilité de la mesure de risque, d’où l’importance de leurs propriétés analytiques, notamment la convexité et la cohérence.

Outre la formulation mathématique, il faut garder à l’esprit que ces mesures de risque conditionnelles traduisent des préférences et des aversions au risque dynamiques, prenant en compte non seulement la distribution future des pertes, mais aussi l'information disponible au fil du temps. Leur étude implique un subtil équilibre entre modélisation probabiliste, optimisation fonctionnelle et contraintes économiques ou réglementaires.

L’intégration des mesures conditionnelles dans un cadre temporel dynamique soulève des questions cruciales sur la cohérence et la stabilité des décisions financières. Le concept de cohérence temporelle garantit que les ajustements de portefeuille ou les réserves de capital basés sur ces mesures ne conduisent pas à des contradictions ni à des décisions incohérentes d’une étape à l’autre.

La compréhension approfondie des fonctions de pénalité minimales, des ensembles d'acceptation, ainsi que des relations entre différentes mesures comme le VaR, l’AVaR, et la mesure entropique conditionnelle, permet de mieux appréhender la gestion des risques dans un contexte réel où l’information évolue constamment. Enfin, la théorie souligne que toute mesure de risque dynamique repose sur une évaluation robuste, résiliente face à l'incertitude et intégrée à l’ensemble des informations disponibles, assurant ainsi une prise de décision financière cohérente et prudente.

Quelle est la nature des mesures de risque conditionnelles et leur représentation dans la théorie financière moderne ?

La théorie des mesures de risque conditionnelles occupe une place centrale dans la compréhension moderne de la gestion des risques en finance. Ces mesures, qui s'inscrivent dans le cadre des probabilités conditionnelles, sont conçues pour évaluer les risques à plusieurs étapes temporelles, en tenant compte des informations disponibles à chaque instant. Les travaux pionniers d’Artzner, Delbaen, Eber, Heath et Ku ont posé les fondements de la notion de cohérence pour ces mesures, introduisant des concepts tels que la cohérence temporelle et la compatibilité avec la dynamique des marchés financiers.

La cohérence temporelle, ou "time consistency", est une propriété clé qui garantit que la réévaluation des risques à différentes dates reste compatible, ce qui est indispensable pour la prise de décision rationnelle sur des horizons multiples. Cette caractérisation a été approfondie par de nombreux auteurs, notamment dans le cadre des mesures convexes, étendant la notion initiale au-delà des mesures strictement cohérentes. La compréhension fine de cette propriété permet d’assurer que les stratégies de couverture ou d’allocation des risques s’ajustent correctement avec l’évolution des informations et des conditions de marché.

La représentation des mesures de risque conditionnelles repose souvent sur des outils avancés de théorie des probabilités et d’analyse fonctionnelle. Les travaux de Föllmer, Penner et Riedel ont illustré comment ces mesures peuvent être exprimées via des systèmes de martingales ou par des fonctions convexes définies sur des espaces de probabilités, offrant ainsi une représentation duale qui facilite à la fois la compréhension théorique et la mise en œuvre pratique. Cette approche repose notamment sur l’analyse fine des ensembles convexes, comme exposé dans les travaux classiques de Rockafellar, et sur la manipulation rigoureuse de mesures absolument continues, suivant les développements apportés par Bauer.

L’application directe de ces concepts à la finance se manifeste dans la construction de stratégies de couverture optimales, notamment dans le cadre de l’optimisation quadratique dite "variance-optimal hedging". Introduite par Duffie et Richardson, puis raffinée par Schweizer, cette méthode vise à minimiser la variance du gain d’une stratégie, assurant ainsi une forme de "meilleure couverture" sous certaines contraintes. L’élaboration de formules explicites pour ces stratégies, comme celles proposées par Melnikov et Nechaev, montre que la relaxation de certaines conditions, par exemple celle de la carré-intégrabilité à des temps intermédiaires, permet d’élargir le champ des solutions admissibles, tout en conservant l’optimalité du point de vue de la variance.

La théorie des portefeuilles universels, développée notamment par Cover, illustre une autre facette de la dynamique adaptative des stratégies d’investissement en contexte incertain. Cette théorie vise à concevoir des stratégies robustes, capables de s’adapter à des marchés évolutifs, sans présupposer une connaissance exacte des distributions sous-jacentes. Elle complète ainsi les approches basées sur les mesures de risque conditionnelles en offrant une perspective plus pragmatique, mais rigoureuse, sur la gestion des risques.

Un aspect essentiel pour comprendre pleinement ces concepts est la place de la théorie de l’information et de l’entropie relative dans leur formulation. La représentation dite de Donsker–Varadhan, qui s’appuie sur des résultats classiques de la mécanique statistique (tels que ceux établis par Gibbs), permet de reformuler certaines mesures de risque ou divergences dans un cadre de mesure générale. Cette approche relie ainsi la gestion financière à des principes fondamentaux de la théorie des probabilités et de la physique statistique, élargissant le champ d’application des outils mathématiques employés.

En complément, l’étude des fonctions quantiles et des réarrangements croissants, qui trouve ses racines dans les travaux de Hardy, Littlewood et Pólya, apporte un éclairage précieux sur la manière dont les risques peuvent être mesurés et comparés de manière ordonnée. Ces outils sont indispensables pour formaliser les notions d’ordre stochastique, de dominance et de cohérence des risques, concepts fondamentaux en théorie financière.

Il est crucial pour le lecteur de saisir que ces approches mathématiques sophistiquées ne sont pas purement abstraites, mais qu’elles constituent la base rigoureuse sur laquelle reposent les décisions de gestion des risques, la valorisation des actifs contingents, et les stratégies de couverture dans des marchés réels. La complexité apparente masque une volonté profonde de garantir la robustesse, la cohérence et l’efficacité des modèles financiers dans un environnement incertain et dynamique.

Comment la théorie des préférences robustes résout-elle l'incertitude dans les modèles de décision ?

Soit un espace X avec une norme suprême, définie par ‖Y‖ = supω∈Ω |Y(ω)|. Si un élément Y ∈ C est de la forme Y = αY₁ + (1 − α)Y₂, où Yᵢ ∈ Cᵢ et α ∈ [0, 1], on peut en déduire que ϕ(Y) ≤ ϕ(α + (1 − α)Y₂) = α + (1 − α)ϕ(Y₂), ce qui implique que B et C sont disjoints. Cela fait écho à la structure des ensembles convexes dans les espaces de Banach et à l'application de théorèmes de séparation pour les fonctionnels linéaires continus.

Dans un tel cadre, C₁, et donc C, contient la boule unité dans X. Cela implique que C possède un intérieur non vide. En conséquence, il est possible d’appliquer un raisonnement de séparation fondé sur le théorème H.2, ce qui conduit à l'existence d'un fonctionnel linéaire continu ℓ sur X tel que c := sup ℓ(Y) ≤ inf ℓ(Z). Si C contient la boule unité, c doit être strictement positif, et il est légitime de supposer que c = 1 sans perte de généralité. En particulier, ℓ(1) ≤ 1 car 1 ∈ C. Par ailleurs, tout b > 1 appartient à B, d'où ℓ(1) = lim ℓ(b) ≥ c = 1. Il en découle que ℓ(1) = 1.

Lorsqu’un élément A appartient à F, on constate que 1ₐᶜ ∈ C₁ ⊆ C, ce qui donne ℓ(1ᵃ) = ℓ(1) − ℓ(1ₐᶜ) ≥ 1 − 1 = 0. Par le théorème G.21, il existe alors une fonction additive QX ∈ M₁,f(Ω, F) telle que ℓ(Y) = Eᵩ[Y], pour tout Y ∈ X. Ce résultat repose sur un principe fondamental, celui de l’invariance monétaire de ϕ, qui permet de s'intéresser uniquement aux cas où ϕ(Y) > 0. L'étude de telles fonctions de risque repose sur l’analyse de l’égalité suivante :

Yₙ := ϕ + B (Y ∈ n), et Yₙ converge vers Y/ϕ(Y) de manière uniforme. Par conséquent, on peut conclure que Eᵩ[Y] ≥ ϕ(Y) pour tout Y ∈ X, avec égalité lorsque Y = X.

Dans ce contexte, le théorème H.2 conduit à des résultats significatifs concernant la stabilité des préférences dans un cadre de décision sous incertitude. Les préférences robustes, qui s'inscrivent dans le cadre des mesures de risque cohérentes, se caractérisent par leur capacité à résoudre l’incertitude en prenant en compte non seulement les préférences individuelles mais aussi les choix dans des ensembles convexes, comme celui que nous avons décrit précédemment.

En outre, il est crucial de comprendre que la robustesse des préférences dans les décisions sous incertitude repose sur la capacité à s’adapter à l'évolution des préférences tout en préservant certaines propriétés fondamentales de continuité et de cohérence. L’application du théorème de représentation de Savage, par exemple, démontre que les préférences peuvent être représentées numériquement sous forme de fonctions convexes, ce qui constitue un modèle extrêmement utile dans la prise de décision en présence d’incertitude.

L'un des aspects essentiels à noter est que ces préférences ne se limitent pas uniquement à des choix entre alternatives déterministes, mais elles s’étendent aussi à des scénarios où l’incertitude est omniprésente. La possibilité de définir un représentant numérique des préférences, comme dans le cadre des mesures de risque cohérentes, permet d'obtenir des résultats plus prévisibles et adaptatifs. En effet, l'existence de telles représentations numériques ouvre la voie à des applications pratiques dans les modèles de finance, d'économie comportementale, ainsi que dans la gestion des risques.

Il est aussi important de considérer que la continuité des préférences, notamment à travers les fonctions de risque, joue un rôle clé dans la modélisation des comportements économiques et financiers sous incertitude. Dans des situations pratiques, cette continuité permet de garantir que les choix effectués par les agents économiques ou financiers soient cohérents et prévisibles, même lorsque l'incertitude des modèles augmente.

Qu’est-ce qu’un équilibre d’Arrow–Debreu et comment se caractérise-t-il dans un cadre microéconomique avec des utilités exponentielles ?

Un équilibre d’Arrow–Debreu est défini comme une allocation où chaque agent maximise son utilité sous la contrainte budgétaire imposée par une densité de prix d’équilibre φ∗. Cette densité de prix joue un rôle fondamental en « décentralisant » la contrainte globale de faisabilité des échanges sur le marché, c’est-à-dire qu’elle ajuste les ensembles budgétaires individuels pour que les demandes des agents, bien que déterminées indépendamment, satisfassent collectivement la condition d’équilibre du marché.

Considérons le cas où chaque agent possède une fonction d’utilité exponentielle caractérisée par un paramètre de risque αa > 0. En absence de contraintes sur l’espace des échanges, la solution d’équilibre est unique et explicite. Sous une mesure de probabilité de prix P∗ équivalente à la mesure initiale P, et pour laquelle les dotations initiales Wa sont intégrables, le problème d’optimisation pour chaque agent a est résoluble si et seulement si l’entropie relative H(P∗|P) est finie. La demande optimale de l’agent se présente alors sous la forme linéaire :

Xa=wa+H(PP)αalogϕαaX^*_a = \frac{w^*_a + H(P^*|P)}{\alpha_a} - \frac{\log \phi^*}{\alpha_a}

wa=E[Wa]w^*_a = \mathbb{E}^*[W_a]. La condition de compensation des marchés se traduit par une équation liant la somme des demandes à la dotation totale W, conduisant à la forme suivante de la densité de prix normalisée :

ϕ=eαWE[eαW]\phi^* = \frac{e^{ -\alpha W}}{\mathbb{E}[e^{ -\alpha W}]}

avec α\alpha défini comme la somme des inverses des coefficients de risque des agents. Cette forme garantit unicité et existence de l’équilibre sous des conditions d’intégrabilité, notamment si les dotations sont minorées.

Dans un cadre financier, où les dotations initiales sont exprimées en portefeuilles de titres actualisés, cette allocation optimale implique que les agents partagent le portefeuille du marché proportionnellement à leur aversion au risque inversement pondérée. Notons que l’extension de l’espace admissible des actifs de gains accessibles ne modifie pas la structure de l’équilibre dans cet exemple, et donc aucune demande spécifique pour des dérivés n’apparaît.

En supposant désormais que les préférences des agents sont décrites par des fonctions d’utilité différentiables sur (0,)(0,\infty) et que leurs dotations initiales sont positives, on définit une densité de prix positive φ intégrable, appelée densité de prix d’équilibre, qui vérifie les contraintes budgétaires et d’optimalité. Chaque agent obtient alors une allocation XaX^*_a caractérisée par la fonction inverse de la dérivée marginale d’utilité appliquée à un multiple positif de φ, ce qui confère une continuité et une monotonie dans la dépendance à la dotation totale.

Dans les cas contraints, notamment lorsque certaines allocations optimales non restreintes ne respectent pas la non-négativité, l’équilibre peut nécessiter des instruments financiers non linéaires comme des options d’achat (calls) sur le portefeuille de marché. Ce phénomène est illustré dans le cas simple à deux agents, dont un satisfait la condition d’optimalité sans contrainte tandis que l’autre ne la satisfait pas. Un paramètre seuil cc est alors déterminé, découpant la densité de prix en tranches où les agents partagent le portefeuille différemment, impliquant des allocations combinant actifs sous-jacents et options.

Plus généralement, pour un nombre fini d’agents, l’équilibre s’organise en couches définies par une partition croissante (ci)i=0N(c_i)_{i=0}^N des valeurs du portefeuille de marché. Sur chaque couche, la densité de prix prend une forme exponentielle à pentes βi\beta_i qui sont des moyennes pondérées inverses des coefficients d’aversion au risque des agents actifs sur cette couche. Les allocations optimales XaX^*_a deviennent ainsi des fonctions croissantes, continues, et en morceaux linéaires du portefeuille du marché, reflétant un partage par tranches du risque et de la richesse.

L’étude de cet équilibre révèle que les mécanismes microéconomiques d’optimisation sous contraintes budgétaires, couplés aux préférences des agents, engendrent une structure complexe mais rigoureuse des prix et allocations, qui s’adaptent aux caractéristiques individuelles des agents et aux contraintes de marché. La compréhension précise de cette structure est essentielle pour appréhender la formation des prix sur les marchés financiers, notamment dans la présence de risques non négociables ou de contraintes réglementaires.

Il est crucial de noter que l’équilibre d’Arrow–Debreu repose sur des hypothèses fortes, notamment l’intégrabilité et la continuité des utilités, l’équivalence des mesures de prix, ainsi que la faisabilité globale des allocations. La robustesse des conclusions dépend donc de la validité de ces hypothèses dans des contextes réels. Par ailleurs, la modélisation des dérivés comme outils d’allocation de risque ne doit pas être vue uniquement sous l’angle mathématique, mais aussi en tenant compte des implications économiques et institutionnelles, telles que la liquidité, la transparence des marchés, et les comportements stratégiques des agents.