Il est possible de toujours ajuster le processus ZZ de manière à ce qu’il soit borné par un certain ε>0\varepsilon > 0 tout en respectant l’inégalité fondamentale donnée par (9.22). En effet, il suffit de constater que pour chaque élément WCStW \in C S_t, il existe un ξt(XtXt1)KSt\xi_t \cdot (X_t - X_{t-1}) \in K S_t, qui domine ce processus et possède une partie négative intégrable. Cette observation permet de conclure que E[W]E[ξt(XtXt1)]lim infE[ξtc(XtXt1)1{ξc}]0E[W] \leq E[\xi_t \cdot (X_t - X_{t-1})] \leq \liminf E[\xi^c_t \cdot (X_t - X_{t-1})1\{| \xi \leq c\}] \leq 0, où nous avons utilisé le lemme de Fatou et supposé que PPSP \in PS. Cela montre qu’il est possible de définir Zε:=ε1+(1ε)ZZ_\varepsilon := \varepsilon 1 + (1 - \varepsilon) Z, ce qui permet de garantir que E[ZεW]0E[Z_\varepsilon W] \leq 0 pour tous WCStW \in C S_t. De plus, pour ε\varepsilon suffisamment petit, l’espérance E[Zε(UtUt1)]E[Z_\varepsilon (U_t - U_{t-1})] reste supérieure à α\alpha. Ainsi, ZεZ_\varepsilon satisfait toujours (9.22), et par conséquent, on peut supposer que ZZ est borné inférieurement par une constante ε>0\varepsilon > 0 pour les étapes suivantes.

À partir de cette base, on définit Zt1:=E[ZFt1]Z_{t-1} := E[Z | F_{t-1}] et dQdP:=Zt1\frac{dQ}{dP} := Z_{t-1}. Pour s=1,,Ts = 1, \dots, T, supposons que Ys0Y_s \geq 0 soit mesurable par rapport à FsF_s. En utilisant la proposition B.8, on démontre que, comme dans la preuve du théorème 7.5, on peut écrire :

E[YFst]=E[YsFs1]etE[YtFt1]sis=t.E[Y | F_s \neq t] = E[Y_s | F_{s-1}] \quad \text{et} \quad E[Y_t | F_{t-1}] \quad \text{si} \quad s = t.

Puisque la densité Z/Zt1Z/Z_{t-1} est bornée et que PPSP \in PS, on peut conclure que E[XsXs1Fs1]<E[|X_s - X_{s-1}| | F_{s-1}] < \infty, presque sûrement pour tout ss. De plus, on a E[ξs(XsXs1)Fs1]0E[\xi_s \cdot (X_s - X_{s-1}) | F_{s-1}] \leq 0 pour sts \neq t, et pour s=ts = t, le fait que la famille E[ξt(XtXt1)Ft1]E[\xi_t \cdot (X_t - X_{t-1}) | F_{t-1}] soit dirigée vers le haut permet de conclure que

E[Zt1supξSE[ξt(XtXt1)Ft1]]supξSE[ξt(XtXt1)Z]α.E[Z_{t-1} \, \sup_{ \xi \in S } E[\xi_t \cdot (X_t - X_{t-1}) | F_{t-1}]] \leq \sup_{\xi \in S} E[\xi_t \cdot (X_t - X_{t-1}) Z] \leq \alpha.

Cela implique que E[AQtAQt1]εE[A_Q^t - A_Q^{t-1}] \leq \varepsilon, et donc E[AQT]α/εE[A_Q^T] \leq \alpha / \varepsilon. En conséquence, QQSQ \in QS.

Nous abordons ensuite le cas où UAQU - A_Q ne pourrait être un supermartingale sous QQ, ce qui mène à une contradiction avec l'hypothèse (a). En appliquant les relations établies, on constate que l'inégalité E[UtUt1Ft1]AQtAQt1]E[U_t - U_{t-1} | F_{t-1}] \leq A_Q^t - A_Q^{t-1}] ne peut pas tenir, ce qui prouve que UAQU - A_Q ne peut être un supermartingale sous QQ, contredisant ainsi l'hypothèse de départ.


L’élément clé pour comprendre ces constructions et démonstrations repose sur l’idée d’adaptation et de domination des processus en utilisant des densités et des conditions de croissance contrôlées. Une telle approche permet de manipuler des stratégies de couverture dans des modèles de marché avec contraintes, et la possibilité de modifier des processus de manière à les rendre compatibles avec des conditions d’optimalité tout en restant dans des espaces de probabilités donnés. Il est également crucial de noter que la stabilité des mesures de probabilité, notamment à travers des processus de pasting comme Q1Q_1 et Q2Q_2 à une certaine τ\tau, est un aspect fondamental qui garantit que les processus ainsi obtenus restent dans le cadre des stratégies admissibles. Ce type de démarche est indispensable pour garantir la cohérence des stratégies de couverture dans un cadre où des mesures alternatives sont envisagées.

Comment calculer un portefeuille universel et l'approximation de sa performance à long terme

Supposons qu'un processus de performance soit défini par une séquence de vecteurs Y1,Y2,Y_1, Y_2, \ldots dans (0,)d(0, \infty)^d, dont les distributions empiriques convergent ψ\psi-faiblement vers une mesure de probabilité μψ\mu_\psi dans M1M_1 lorsque tt \to \infty. Dans ce cadre, une relation fondamentale pour l'évaluation du portefeuille, en termes de la performance à long terme, peut être établie. Cela repose sur le fait que si ν\nu a un support complet, alors, sous certaines conditions, le logarithme du processus V^t\hat{V}_t converge vers la fonction F(μ)F^*(\mu) :

limt1tlogV^t=F(μ).\lim_{t \to \infty} \frac{1}{t} \log \hat{V}_t = F^*(\mu).

Pour prouver cette convergence, on commence par utiliser une proposition clé qui lie V^t\hat{V}_t à VtV^*_t, en démontrant que la limite supérieure de 1tlogV^t\frac{1}{t} \log \hat{V}_t est inférieure ou égale à F(μ)F^*(\mu). La démonstration implique un raisonnement sur les propriétés de la fonction FF, et l'on utilise la continuité de FF pour conclure que, dans le cas inverse, la limite inférieure de 1tlogV^t\frac{1}{t} \log \hat{V}_t est également supérieure ou égale à F(μ)F^*(\mu). Ce résultat montre que, sous des conditions appropriées, l'évolution du portefeuille suit cette fonction limite F(μ)F^*(\mu) à mesure que tt devient grand.

Le calcul du portefeuille universel repose sur l'intégration des polynômes associés à la valeur Vt(π)V_t(\pi) et les poids πiVt(π)\pi_i V_t(\pi), sur le simplexe Δ\Delta avec respect à la mesure ν\nu. L'intégration exacte des polynômes dans ce cadre peut être réalisée en utilisant la mesure de Lebesgue λ\lambda sur Δ\Delta, et en exploitant des propriétés géométriques du simplexe. Cela implique une compréhension approfondie de la structure géométrique de Δ\Delta en tant que surface de dimension d1d-1 dans Rd\mathbb{R}^d.

La formule d'intégration de type polynômiale x1k1x2k2xdkdλ(dx1,,dxd) \int x_1^{k_1} x_2^{k_2} \cdots x_d^{k_d} \, \lambda(dx_1, \ldots, dx_d), exprimée par la proposition 12.17, permet d'approcher les quantités nécessaires pour le calcul de la performance à long terme. Cependant, cette méthode devient rapidement impraticable pour des valeurs de tt ou dd relativement grandes en raison de la complexité croissante des factorielles impliquées. Par conséquent, une approche numérique plus pratique, telle que la méthode de Monte Carlo, s'avère plus efficace.

La méthode de Monte Carlo repose sur la loi des grands nombres, et consiste à générer des vecteurs aléatoires indépendants Π1,Π2,\Pi_1, \Pi_2, \ldots ayant la même distribution que ν\nu. Pour chaque tt, les approximations V^t(n)\hat{V}_t^{(n)} et π^t(n)\hat{\pi}_t^{(n)} peuvent être utilisées pour estimer les valeurs de V^t\hat{V}_t et de π^t\hat{\pi}_t. Cela permet d'obtenir des résultats fiables, même pour de grandes valeurs de tt, lorsque le calcul exact devient prohibitif. Cette approche est particulièrement utile dans le cadre des simulations de portefeuilles sur des horizons temporels longs.

La clé du calcul numérique réside dans l'utilisation de la distribution Dirichlet, un cas particulier de mesure de probabilité sur Δ\Delta, qui se trouve être étroitement liée aux distributions gamma. Lorsque les variables aléatoires indépendantes X1,,XdX_1, \ldots, X_d sont gamma-distribuées, on peut créer des vecteurs aléatoires (Π1,Π2,,Πd)(\Pi_1, \Pi_2, \ldots, \Pi_d) suivant une distribution Dirichlet, ce qui facilite la génération de simulations de portefeuille à partir de variables aléatoires simples.

La distribution Dirichlet est particulièrement intéressante car elle est bien adaptée pour modéliser les proportions dans des stratégies d'allocation de portefeuille. Les paramètres de cette distribution, α1,α2,,αd\alpha_1, \alpha_2, \ldots, \alpha_d, jouent un rôle crucial dans le contrôle de la dispersion des poids alloués aux différents actifs. En particulier, lorsque tous les paramètres αi\alpha_i sont égaux à 1, la distribution Dirichlet se réduit à la mesure de Lebesgue sur Δ\Delta, qui est un cas particulier de la distribution uniforme.

Ainsi, le calcul du portefeuille universel passe par une compréhension approfondie de ces distributions et de leurs propriétés, notamment en ce qui concerne leur utilisation dans les simulations Monte Carlo pour l'évaluation de la performance à long terme. L'intégration des polynômes associés aux processus Vt(π)V_t(\pi) et l'estimation de la performance à long terme ne sont possibles que grâce à la maîtrise des outils numériques et théoriques permettant de gérer les complexités combinatoires et analytiques des modèles de portefeuille.

Comment la topologie vectorielle locale influence-t-elle la séparation des ensembles convexes et la dualité fonctionnelle ?

Dans l'espace L0, la topologie utilisée est celle de la convergence en mesure P, définie par la métrique d(X,Y):=E[XY1]d(X,Y) := E[|X - Y| \wedge 1] pour X,YL0X, Y \in L0. Cette métrique n'est toutefois pas une norme, ce qui pose une première nuance dans la structure topologique de cet espace. Un espace vectoriel topologique EE se caractérise par le fait que chaque singleton {x}\{x\} est fermé, et que les opérations vectorielles — l'addition et la multiplication par un scalaire — sont continues. Ces propriétés assurent une compatibilité entre la structure algébrique et la topologie, nécessaire pour étudier des phénomènes analytiques dans un cadre plus général que les espaces normés classiques.

Un résultat fondamental en analyse fonctionnelle est le théorème de séparation des ensembles convexes dans un espace vectoriel topologique. Si BB et CC sont deux ensembles convexes disjoints, dont l'un possède un point intérieur, alors il existe une forme linéaire continue non nulle \ell qui sépare ces ensembles, c’est-à-dire que (x)(y)\ell(x) \leq \ell(y) pour tout xCx \in C et yBy \in B. Ce théorème généralise la séparation usuelle dans un cadre infini-dimensionnel, mais la stricte séparation, où l’inégalité est stricte, requiert des conditions supplémentaires sur les ensembles et l’espace.

Le concept clé pour approfondir ces résultats est celui d’espace localement convexe, où la topologie admet une base formée d’ensembles convexes. Si un espace vectoriel normé est un exemple classique d’espace localement convexe, ce n’est pas toujours le cas, notamment pour l’espace L0(Ω,F,P)L_0(\Omega, \mathcal{F}, P) sans atomes. La localement convexité est cruciale pour appliquer le théorème de Hahn–Banach, qui garantit l’existence d’hyperplans séparateurs entre ensembles convexes fermés et compacts dans un tel espace.

L’existence d’une dualité riche découle de cette structure : le dual topologique EE' d’un espace localement convexe EE est l’ensemble des formes linéaires continues qui séparent les points de EE. Dans les espaces LpL_p, le dual est explicitement identifié à LqL_q avec la relation 1/p+1/q=11/p + 1/q = 1, via l’accouplement (X)=E[XY]\ell(X) = E[XY]. La topologie faible, induite par la dualité, se construit en prenant pour base les ensembles où les formes linéaires duales varient peu. Cette topologie faible est plus lâche que la topologie originale mais plus favorable à certaines propriétés compactes.

L’introduction de la topologie σ(E,F)\sigma(E,F) induite par une famille FF de fonctionnelles linéaires séparant les points est une construction naturelle pour analyser la continuité et la convergence sous un prisme plus faible, notamment dans des espaces infinidimensionnels où la métrisabilité peut faire défaut. Cette topologie est la plus grossière pour laquelle chaque fonctionnelle de FF est continue. Elle permet également de caractériser le dual : le dual de (E,σ(E,F))(E, \sigma(E,F)) est précisément FF.

Dans un espace localement convexe, la fermeture d’un ensemble convexe peut être étudiée aussi bien dans la topologie initiale que dans la topologie faible, les deux notions coïncidant pour les ensembles convexes. Ce fait, lié à la séparation par des hyperplans, permet d’approfondir l’analyse des propriétés fonctionnelles dans ces espaces, notamment par l’étude des transformées de Fenchel–Legendre. Cette transformation associe à une fonction convexe ff son conjugué ff^* sur le dual, ouvrant la voie à des résultats de dualité puissants, dont la double conjugaison f=ff = f^{**} sous conditions de semicontinuité.

La topologie faible joue aussi un rôle fondamental dans la compacité : bien que plus faible que la topologie forte, elle admet davantage de compacts. Le théorème de Banach–Alaoglu affirme ainsi que la boule unité du dual d’un espace de Banach est compacte dans la topologie faible* (weak*). Cette propriété est essentielle dans l’étude des espaces de fonctions et de leurs duals, et sous-tend l’analyse des fermetures faibles* par des résultats comme le théorème de Krein–Šmulian.

Plus précisément, la caractérisation des fermetures faibles* dans LL^\infty s’appuie sur des intersections avec des boules bornées fermées dans L1L^1, ce qui permet d’élargir la compréhension des propriétés fonctionnelles dans ce cadre. Ces outils aboutissent à des théorèmes fondamentaux comme celui d’Eberlein–Šmulian, qui lie la compacité faible à des propriétés séquentielles, cruciales pour manipuler les espaces de Banach en analyse fonctionnelle avancée.

Au-delà de la formalisation rigoureuse, il importe de saisir que l’étude des topologies localement convexes et faibles constitue une étape clé pour aborder les espaces fonctionnels complexes, où la structure normée classique est insuffisante. La dualité et les notions de convergence faibles facilitent la compréhension des phénomènes limités, l’existence de solutions optimales en optimisation convexe et l’analyse des opérateurs continus dans des contextes infinis.

Ainsi, la maîtrise de ces concepts permet non seulement de généraliser les résultats de séparation et de dualité mais aussi d’enrichir la compréhension des mécanismes sous-jacents à la théorie fonctionnelle moderne, notamment dans des domaines où l’approximation, la compacité et la continuité ne peuvent être traitées qu’au travers de ces topologies moins rigides mais plus adaptées.

Comment déterminer la valeur équivalente certaine à partir de différentes fonctions d'utilité ?

Dans le cadre de la théorie des préférences et de l'utilité attendue, le concept de valeur équivalente certaine, ou "certitude équivalente", joue un rôle central dans la prise de décision sous incertitude. Cette notion permet de traduire un pari risqué en une somme certaine équivalente pour un individu, selon sa fonction d'utilité spécifique. Prenons, par exemple, les fonctions d'utilité u1(x)=xu_1(x) = \sqrt{x} et u2(x)=logxu_2(x) = \log x, proposées respectivement par G. Cramer et D. Bernoulli. Pour ces deux fonctions, les valeurs équivalentes certaines sont données par:

c1(μ)=2+22.91c_1(μ) = 2 + \sqrt{2} \approx 2.91
et
c2(μ)=2c_2(μ) = 2

Ces valeurs se situent dans la plage des prix que les individus sont généralement prêts à payer. Cependant, il est essentiel de noter que pour toute fonction d'utilité non bornée par le haut, il serait possible de modifier la rémunération de manière à ce que le paradoxe réapparaisse. Par exemple, remplacer le paiement 2n2n par u1(2n)u^{ -1}(2n) pour n1000n \geq 1000 rendrait udμ=+\int u dμ = +\infty, ce qui pourrait potentiellement résoudre le problème d’un modèle de fonction d’utilité trop généreux ou non borné.

Un choix judicieux d’une fonction d’utilité bornée permettrait d'éviter cette difficulté, mais de nouvelles problématiques surgiront, comme discuté entre les pages 80 et 84.

Prenons un exemple d'optimisation simple pour approfondir cette idée. Supposons que XX soit une variable aléatoire intégrable sur un espace de probabilité (Ω,F,P)(Ω, F, P), avec une distribution non dégénérée μM\mu \in M. Supposons que XX soit bornée par un nombre aa, situé dans l'intérieur de l'ensemble SS. Quelle serait la meilleure combinaison Xλ:=(1λ)X+λcX_\lambda := (1 - \lambda)X + \lambda c entre le gain risqué XX et une somme certaine cc appartenant également à l’intérieur de SS ? Si l’on évalue XλX_\lambda en termes de son utilité attendue E[u(Xλ)]E[u(X_\lambda)], et en désignant μλ\mu_\lambda la distribution de XλX_\lambda sous PP, on cherche à maximiser la fonction f(λ)f(\lambda) définie par:

f(λ):=U(μλ)=udμλ=E[u((1λ)X+λc)]f(\lambda) := U(\mu_\lambda) = \int u d\mu_\lambda = E[u((1 - \lambda)X + \lambda c)]

Il est démontré que si uu est une fonction d'utilité concave stricte, f(λ)f(\lambda) atteint son maximum en un point unique λ[0,1]\lambda^* \in [0, 1]. Selon le théorème, si l’utilité est dérivable, alors :

  • λ=1\lambda^* = 1 si E[X]cE[X] \leq c,

  • λ>0\lambda^* > 0 si cc(μ)c \geq c(\mu),

  • et λ=0\lambda^* = 0 si E[Xu(X)]E[u(X)]E[Xu'(X)] \leq E[u'(X)].

Ce cadre d’optimisation est crucial, car il permet de formaliser l’impact de la préférence pour la certitude sur les décisions risquées. Ce modèle d'optimisation peut être étendu aux investissements dans des actifs risqués, comme dans l'exemple du bien risqué S=S1S = S_1 avec un prix π=π1\pi = \pi_1, ou encore dans les contrats d'assurance, où les individus évaluent la pertinence de s’assurer contre des pertes aléatoires YY.

L'agent économique peut, par exemple, choisir d’investir dans un actif risqué ou de souscrire à une assurance en fonction de son aversion au risque. Si le prix de l’actif risqué est inférieur à son rendement attendu, un investisseur avers au risque sera incité à investir, bien que cette incitation ne se produise que lorsque la prime d’assurance soit suffisamment basse par rapport à l’espérance de la perte. Il est également possible de concevoir des formes d’investissement ou d’assurance non linéaires, comme les contrats "stop-loss", qui se comportent de manière similaire à des options d'achat.

En outre, la notion de "prime de risque" ρ(μ)\rho(\mu) d'une loterie μ\mu peut être approximée à l'aide de l'expansion de Taylor d'une fonction u(x)u(x) suffisamment lisse et strictement croissante autour de x=c(μ)x = c(\mu), où m:=m(μ)m := m(\mu). À partir de cette approximation, la prime de risque peut être calculée et dépendra du coefficient d’aversion absolue au risque d’un agent économique. Ce coefficient, défini par:

α(x):=u(x)u(x),\alpha(x) := -\frac{u''(x)}{u'(x)},

caractérise la façon dont un agent pondère le risque associé à une loterie donnée. Plus l'agent est averse au risque, plus la prime de risque qu'il est prêt à accepter sera élevée. Un exemple classique de fonction d'utilité est celui de l'aversion absolue au risque constante (CARA), où α(x)\alpha(x) est une constante α>0\alpha > 0, et un autre exemple est celui de l’aversion au risque hyperbolique (HARA), où α(x)=1γx\alpha(x) = \frac{1 - \gamma}{x}.

Il est donc important pour un agent économique de comprendre non seulement la fonction d’utilité qui reflète ses préférences, mais aussi comment cette fonction détermine ses choix face à l’incertitude. La prise en compte de la forme spécifique de la fonction d'utilité permet d'affiner les modèles de prise de décision et d'optimisation sous incertitude, en particulier dans des contextes tels que les investissements financiers et la souscription à des assurances.

Comment les distorsions concaves caractérisent-elles les mesures de risque cohérentes et invariantes par loi ?

On considère une fonction ψ définie sur l’intervalle [0, 1], croissante et concave, avec la condition ψ(0) = 0. Une telle fonction, appelée fonction de distorsion concave, sert à transformer la mesure de probabilité P en une nouvelle mesure déformée, notée cψ, définie pour tout événement A par cψ(A) = ψ(P[A]). Cette transformation conserve la normalisation (cψ(∅) = 0, cψ(Ω) = 1) et la monotonie (A ⊆ B ⇒ cψ(A) ≤ cψ(B)).

L’étude approfondie de ces distorsions révèle qu’elles incarnent une propriété essentielle des mesures de risque dites cohérentes et invariantes par loi, utilisées notamment en finance pour quantifier les pertes potentielles dans un cadre probabiliste. La concavité de ψ est précisément ce qui garantit la submodularité (ou forte sous-additivité) de la fonction cψ, exprimée par l’inégalité cψ(A ∪ B) + cψ(A ∩ B) ≤ cψ(A) + cψ(B) pour tous événements A, B. Cette propriété traduit la diversification du risque : la mesure globale d’un risque combiné est inférieure ou égale à la somme des mesures des risques pris séparément.

Le lien entre ces distorsions et les mesures de risque s’exprime à travers l’intégrale de Choquet. Cette intégrale, adaptée aux fonctions monotones non nécessairement additives, permet de généraliser la notion d’espérance et de définir la mesure de risque ρμ comme une intégrale de Choquet du négatif de la variable aléatoire X, représentant la perte, par rapport à la distorsion cψ. Ainsi, pour X bornée, on a la relation ρμ(X) = ∫ (−X) dcψ.

Un point fondamental réside dans la représentation explicite des mesures de risque cohérentes à travers ces intégrales. En effet, toute mesure de risque convexe, invariante par loi et continue par rapport à une convergence monotone décroissante, peut s’exprimer comme un supremum sur une famille de distorsions concaves ψ, pondérées par un terme de pénalisation γmin(ψ). Cette dualité lie la structure mathématique des fonctions concaves à la gestion du risque, offrant ainsi un cadre général englobant des mesures connues comme l’Average Value-at-Risk (AV@R).

Plus précisément, la fonction dérivée à droite ψ'+ joue un rôle clé, se décomposant en mesure de Radon positive ν sur (0, 1], ce qui permet de reconstruire μ via μ(dt) = t ν(dt). Cette construction technique s’appuie sur le théorème de Fubini et permet d’obtenir des expressions intégrales précises reliant les quantiles de X aux valeurs de la fonction ψ. Ces formules dévoilent comment la mesure de risque dépend de la distribution de X et de la forme de la distorsion.

Les propriétés de cash-invariance, monotonicité et convexité des mesures de risque se traduisent par des caractéristiques spécifiques des fonctions ψ et des mesures associées μ. Par exemple, lorsque μ({0}) = 0, la mesure ρμ peut être exprimée à l’aide d’une fonction inverse φ de ψ, ce qui enrichit la compréhension géométrique et fonctionnelle de ces risques.

Le concept de distorsion est également lié à des notions fondamentales en théorie des probabilités atomless, comme la possibilité de construire des variables aléatoires uniformes sur [0,1], ce qui facilite la démonstration de la concavité via des constructions d’ensembles A et B satisfaisant des contraintes précises sur leurs probabilités.

La généralisation aux intégrales de Choquet ouvre la voie à des représentations variées des mesures de risque, notamment en lien avec des fonctions de densité fλ dans le cas de mesures cohérentes spécifiques comme ρλ, fonctionnelle mélangeant espérance et dispersion autour de la moyenne.

Au-delà de la formalisation, ces concepts soulignent l’importance de la nature concave de la fonction de distorsion dans la gestion du risque : la concavité garantit que la prise en compte collective des risques est plus prudente que leur simple somme, incarnant une aversion naturelle pour le risque dans la prise de décision financière.

Les exemples et exercices mentionnés, comme MAXVARβ ou MAXMINVARβ, illustrent des applications concrètes de cette théorie, où la distorsion correspond à la loi du maximum ou du minimum d’échantillons indépendants, reliant ainsi la mesure de risque à des événements extrêmes.

Il est crucial de comprendre que la distorsion concave ne modifie pas simplement la mesure de probabilité, mais reflète une modification qualitative de la perception du risque, traduisant une attitude d’aversion par rapport aux pertes importantes. Par conséquent, l’utilisation des intégrales de Choquet avec des distorsions concaves offre un cadre robuste pour modéliser et analyser les risques financiers tout en respectant des axiomes essentiels comme la cohérence, l’invariance par loi et la continuité.