L'optimisation de la couverture variance est un domaine clé dans la gestion des risques financiers, particulièrement lorsqu'il s'agit de minimiser l'erreur de couverture quadratique. Le problème fondamental ici est de réduire cette erreur de couverture, définie comme la distance quadratique L2(P) entre un actif risqué H et la valeur terminale d'un processus de valeur V, résultant d'une stratégie de trading auto-financée. Cette approche repose sur une analyse mathématique approfondie, en particulier sur l'utilisation des martingales et des mesures minimales de martingales, éléments essentiels pour garantir une gestion optimale des risques.

Pour comprendre cela, supposons un retour aléatoire RtL2(P)R_t \in L^2(P) avec des rendements indépendants et identiquement distribués. L'hypothèse selon laquelle l'arbitrage est exclu est implicite, bien qu'elle ne soit pas explicitement mentionnée dans la théorie. Dans ce cadre, la condition de minimisation de l'erreur de couverture peut être formulée à travers des critères quadratiques. Cela implique notamment d'analyser le risque conditionnel restant associé à une stratégie admissible (ξ0,ξ)(ξ_0, ξ), et d'identifier des stratégies qui minimisent ce risque à chaque instant.

Un aspect fondamental de cette démarche est la formulation de la condition de couverture optimale. Cette condition, définie par l'expression (m̃ - r)(R_1 - m̃) < \sigmã^2, est directement liée à l'existence d'une mesure de martingale minimale, ce qui est crucial pour garantir la stabilité et la prévisibilité des rendements futurs sous certaines hypothèses de distribution des rendements.

L'une des conséquences les plus importantes de cette analyse est l'existence d'une stratégie de couverture variance optimale lorsqu'une mesure de martingale minimale est en place. En effet, en l'absence d'arbitrage et en assurant l'existence d'une telle mesure, il est possible de minimiser l'erreur de couverture quadratique. Dans ce cadre, la stratégie de couverture optimale peut être définie comme celle qui minimise l'écart entre l'actif risqué et la valeur terminale d'une stratégie de couverture auto-financée, comme le montre la proposition 10.37.

La compréhension de ces résultats implique également une analyse des processus de densité et des martingales. Par exemple, le processus de densité Zt=s=1t(1+λs(YsYs1))Z_t = \prod_{s=1}^t(1 + λ_s \cdot (Y_s - Y_{s-1})), où λsλ_s représente le paramètre de la stratégie de couverture, doit être strictement positif pour que la stratégie soit viable. Ce processus de densité est une caractéristique centrale, car il détermine la relation entre la mesure de probabilité de l'actif risqué et la stratégie de couverture optimale.

Il est également essentiel de comprendre que la couverture optimale ne se limite pas à un simple calcul de l'écart quadratique entre le prix de l'actif et la valeur de la stratégie de couverture. En effet, la mise en œuvre de telles stratégies nécessite une approche dynamique, où chaque ajustement de la position de couverture dépend des variations passées des prix de l'actif, ainsi que des attentes futures en matière de rendements. C'est pourquoi les stratégies de couverture variance optimale s'inscrivent dans une logique de prévision et d'ajustement continus, prenant en compte l'évolution de la dynamique du marché.

Enfin, bien que l'existence d'une stratégie de couverture optimale soit garantie dans des conditions idéales, il convient de noter que dans la pratique, une telle stratégie peut ne pas toujours exister en raison de la complexité des marchés financiers. Des situations où les rendements sont non stationnaires ou présentent des comportements extrêmes peuvent rendre cette minimisation difficile, voire impossible, sans faire appel à des hypothèses supplémentaires sur la structure du marché.

Quelle est la croissance asymptotique d’un portefeuille rééquilibré de manière constante?

L’analyse de la croissance asymptotique d'un portefeuille rééquilibré de manière constante repose sur la compréhension de la dynamique de la valeur de portefeuille, en particulier à travers l’étude de la fonctionnelle F(π,μ)F(\pi, \mu), qui joue un rôle fondamental dans la modélisation du taux de croissance du portefeuille. Cette fonctionnelle est définie comme une intégrale qui lie la performance d'un portefeuille, représentée par le vecteur des rendements YkY_k, et un mesure de probabilité μ\mu, qui capture la distribution empirique des rendements jusqu'à un certain moment tt.

Considérons la fonctionnelle F(π,μ)F(\pi, \mu), qui peut être formulée sous la forme:

F(π,μ)=log(πy)μ(dy),F(\pi, \mu) = \int \log(\pi \cdot y) \mu(dy),

π\pi est un vecteur de poids de portefeuille et yy représente les rendements des actifs. Cette relation nous permet d’analyser la croissance exponentielle de la valeur d'un portefeuille à partir de la probabilité μ\mu et de la distribution empirique des rendements. En d'autres termes, la fonctionnelle FF capture l'effet du rééquilibrage constant d'un portefeuille en prenant en compte les performances cumulées des actifs sur une période donnée.

En particulier, la croissance asymptotique de la valeur du portefeuille Vt(π)V_t(\pi) est donnée par l'expression:

Vt(π)=exp(tF(π,ρt)),V_t(\pi) = \exp(t \cdot F(\pi, \rho_t)),

ρt\rho_t est la mesure empirique associée à la distribution des rendements des actifs à l'instant tt, et tt représente le temps. Cette fonctionnelle permet de modéliser la performance d'un portefeuille à long terme, tout en prenant en compte l’évolution dynamique des rendements.

Il est crucial de comprendre que F(π,μ)F(\pi, \mu) dépend fortement de la mesure μ\mu, et plus précisément de la nature des distributions de probabilités qui représentent les rendements des actifs. L’utilisation de mesures de probabilité bien définies, comme celles des distributions log-normales multivariées, est essentielle pour garantir la validité de cette approche. Ces distributions sont couramment utilisées pour modéliser les rendements financiers, ce qui permet une analyse précise du comportement asymptotique des portefeuilles rééquilibrés.

Un aspect clé de l’analyse réside dans l'optimalité de π\pi^*, la stratégie rééquilibrée optimale qui maximise la valeur de portefeuille Vt(π)V_t(\pi). Cette stratégie optimale, bien que théoriquement identifiable, n'est généralement pas connue avant la période tt, ce qui implique que des stratégies basées sur des informations historiques, comme l'optimisation en fonction de la performance passée, sont souvent utilisées.

Ainsi, pour un investisseur, la clé de la performance optimale d'un portefeuille rééquilibré réside dans l'optimisation continue des poids de portefeuille en fonction des rendements passés, tout en s'assurant que les distributions de rendements sont bien comprises et prises en compte dans le modèle. Les stratégies qui impliquent l'ajustement dynamique des poids en réponse à des changements dans la distribution des rendements des actifs, comme les stratégies de "rééquilibrage constant", sont donc cruciales pour maximiser la croissance à long terme.

Il est important de noter que, dans la pratique, le rééquilibrage constant d’un portefeuille peut souvent surpasser la performance de simples indices boursiers ou d’autres stratégies d'investissement basées sur des moyennes géométriques des rendements individuels. Par exemple, un portefeuille rééquilibré de manière constante peut surpasser les rendements des indices boursiers populaires tels que le Dow Jones ou le S&P 500, qui sont souvent basés sur des moyennes pondérées par la capitalisation boursière ou le prix.

La théorie montre également que la valeur optimale VtV_t^*, obtenue par la stratégie de rééquilibrage constant, est toujours supérieure à celle de tout indice géométrique de rendements des actifs, comme le montre l'inégalité:

Vti=1dVt(ϵi),V_t^* \geq \prod_{i=1}^d V_t(\epsilon_i),

ϵi\epsilon_i est une stratégie qui investit exclusivement dans l’actif ii, et où Vt(ϵi)V_t(\epsilon_i) représente la performance de ce portefeuille dans le temps. Cela démontre que la stratégie optimale de rééquilibrage constant surperforme non seulement chaque actif individuellement, mais également toute stratégie basée sur des indices géométriques des rendements des actifs.

En résumé, pour maximiser la performance d'un portefeuille rééquilibré de manière constante, il est crucial de comprendre non seulement la dynamique de la fonctionnelle F(π,μ)F(\pi, \mu), mais aussi l'importance de l’optimisation dynamique des poids de portefeuille en réponse aux évolutions des rendements des actifs. Cette approche offre une perspective puissante pour l'investisseur à long terme, en permettant de surperformer non seulement les actifs individuels, mais également les indices boursiers traditionnels.

Pourquoi C n'est-il pas fermé dans L1, et quelles sont ses implications pour les espaces mesurables ?

Le théorème de Bolzano-Weierstrass est un pilier central de l'analyse mathématique, et, lorsqu’il est appliqué à des espaces fonctionnels tels que L1L^1, il offre un cadre puissant pour comprendre la convergence des suites de fonctions. Cependant, dans le contexte des ensembles convexes définis par des espaces mesurables, il est crucial de comprendre pourquoi certains ensembles comme C=(KL0+)L1C = (K - L_0^+) \cap L_1 ne peuvent pas être fermés dans L1L_1. Cette section examine de près les raisons pour lesquelles CC ne peut pas être fermé et les conséquences de cette propriété dans l'analyse des fonctions mesurables.

Nous commençons par rappeler qu'un ensemble est fermé dans un espace métrique s'il contient toutes ses limites de suites convergentes. Cependant, dans le cas de l’ensemble CC, la situation est particulière. Bien que CC soit un sous-ensemble de L1L_1, il ne contient pas toutes les fonctions de L1L_1. En effet, CC ne contient aucune fonction FL1F \in L_1 telle que F1F \geq 1. Si une telle fonction existait, on pourrait la représenter comme F=ξYUF = \xi \cdot Y - U, avec UU une fonction non négative. Cependant, une telle représentation mène à une contradiction. Si F=ξYU1F = \xi \cdot Y - U \geq 1, cela implique que ξY1+U\xi \cdot Y \geq 1 + U, ce qui est impossible pour toute fonction ξ\xi.

Malgré cette restriction, la fermeture de CC dans L1L_1 reste possible, mais elle exige une analyse plus approfondie. En particulier, l'ensemble CC ne peut pas être fermé dans L1L_1 car la convergence dans L1L_1 implique une convergence dans L0L_0, ce qui montre que des éléments de CC peuvent converger vers une fonction qui ne fait pas partie de CC mais qui est néanmoins un élément de la fermeture de CC dans L1L_1.

Pour mieux comprendre, considérons une suite de fonctions Fn:=(F+n)1/2FF_n := (F^+ \wedge n)^{1/2} - F, définie pour une fonction FL1F \in L_1. Cette suite converge vers FF lorsque nn \to \infty. De plus, chaque fonction de la suite FnF_n appartient à CC, ce qui montre que FF est un élément de la fermeture de CC dans L1L_1. Ce processus de convergence joue un rôle crucial dans l'analyse des espaces fonctionnels mesurables.

Une autre observation clé dans cette analyse concerne la construction de séquences mesurables de sous-suites convergentes dans des espaces L0(Ω,F0,P;Rd)L_0(\Omega, F_0, P; \mathbb{R}^d). Le lemme 1.66 décrit un processus de sélection d'une sous-suite convergente à partir d'une séquence de fonctions mesurables. Cette construction est essentielle pour prouver que la fermeture de CC dans L1L_1 contient toutes les fonctions qui peuvent être obtenues par une telle convergence.

Il est également important de noter que dans certains cas particuliers, comme F0={0,Ω}F_0 = \{0, \Omega\}, la fermeture de CC peut être prouvée plus directement à l'aide d'une version simplifiée du lemme 1.70. Cela permet d’obtenir une preuve alternative du théorème 1.7 dans ces situations spécifiques.

Dans l'analyse de ces espaces fonctionnels, un concept fondamental qui émerge est celui de la décomposition unique des fonctions dans des sous-espaces linéaires. Le lemme 1.68 offre une construction utile pour décomposer chaque élément de L0(Ω,F0,P;Rd)L_0(\Omega, F_0, P; \mathbb{R}^d) en une somme de deux éléments uniques η\eta et ξ\xi^\perp, où ηN\eta \in N et ξN\xi^\perp \in N^\perp. Cette décomposition permet de séparer les éléments "redondants" des éléments "non redondants", ce qui est crucial pour mieux comprendre les propriétés de ces espaces mesurables.

Finalement, les considérations sur les sous-espaces linéaires NN et NN^\perp sont également d’une grande importance. En effet, la fermeture de CC dans L1L_1 est liée à la manière dont ces sous-espaces interagissent, et la décomposition ξ=η+ξ\xi = \eta + \xi^\perp aide à clarifier les structures sous-jacentes de ces espaces fonctionnels.

Il est essentiel pour le lecteur de saisir l’importance de ces constructions, notamment en ce qui concerne la convergence dans L1L_1 et la décomposition des éléments en sous-espaces linéaires. Une compréhension approfondie de ces concepts est indispensable pour toute étude avancée des espaces mesurables et de leurs propriétés de convergence.

Comment la répétition des paris influence-t-elle l’utilité espérée et la prime de risque ?

Considérons une fonction d’utilité différentiable uu, définie sur un intervalle SS, avec un lot favorable μ~\tilde{\mu} dont la moyenne positive m+(μ~)m_+(\tilde{\mu}) excède la moyenne des pertes m(μ~)m_-(\tilde{\mu}). Cette inégalité se traduit par une décroissance exponentielle de la dérivée uu' en fonction de la richesse, ce qui implique que uu est bornée à l’infini : la limite u()u(\infty) existe et est finie. Pour des fonctions d’utilité telles que l’exponentielle, cette borne supérieure contraint la valeur d’un gain potentiel à ne pas dépasser un certain seuil critique.

Dans le cadre d’une répétition indépendante d’un même pari, par exemple, l’enchaînement de tirages successifs X1,X2,,XnX_1, X_2, \ldots, X_n suivant la même distribution μ\mu, la somme Zn=i=1nXiZ_n = \sum_{i=1}^n X_i représente le gain cumulé. Si SS est un intervalle tel que les ZnZ_n restent dans SS, alors la richesse finale après nn répétitions est modélisée par Wn=w+ZnW_n = w + Z_n, où ww est la richesse initiale.

Il est remarquable qu’un agent, bien que refusant un pari unique défavorable à tout niveau de richesse, ne devrait pas être incité à accepter une série de ces paris indépendants, si les règles de cohérence décisionnelle sont respectées. En effet, l’espérance conditionnelle de l’utilité après chaque étape est strictement décroissante, ce qui conduit à rejeter également la série ZnZ_n. Cela reflète la stabilité de la décision face au risque lorsque la fonction d’utilité exprime une aversion au risque constante ou croissante.

La distribution de ZnZ_n possède une moyenne m(μn)=nm(μ)m(\mu_n) = n \cdot m(\mu), une équivalente certaine c(μn)c(\mu_n), ainsi qu’une prime de risque ϱ(μn)=nm(μ)c(μn)\varrho(\mu_n) = n \cdot m(\mu) - c(\mu_n). L’étude asymptotique de ces quantités pour nn \to \infty révèle des comportements contrastés selon la nature de la fonction d’utilité. Par la loi des grands nombres de Kolmogorov, la moyenne empirique 1nZn\frac{1}{n} Z_n converge presque sûrement vers m(μ)m(\mu).

Dans le cas d’une fonction d’utilité à aversion constante au risque (CARA), telle que u(x)=1eαxu(x) = 1 - e^{ -\alpha x}, la prime de risque relative ne diminue pas avec le nombre nn de répétitions. Plus précisément, la certitude équivalente est proportionnelle à nn, ce qui signifie que la répétition du pari ne réduit pas la perception du risque relatif : la prime de risque reste constante, témoignant d’une forme d’invariance au volume du pari.

En revanche, pour les fonctions d’utilité HARA (aversion au risque hyperbolique), caractérisées par un indice γ[0,1)\gamma \in [0,1), la situation évolue différemment. Pour γ>0\gamma > 0, la certitude équivalente c(μn)c(\mu_n) croît moins vite que linéairement, et les primes de risque relatives décroissent strictement vers zéro à mesure que nn augmente. Ceci illustre qu’avec une aversion au risque décroissante, une accumulation suffisante de paris indépendants rend le jeu global plus acceptable, voire attractif, pour un agent initialement réticent à un seul pari. Ainsi, un investissement ou un risque diversifié peut apparaître plus sûr, traduisant la diversification du risque.

La loi forte des grands nombres assure également que la suite 1nZn\frac{1}{n} Z_n converge presque sûrement vers m(μ)m(\mu), et par continuité et concavité stricte de uu, on a la convergence des certitudes équivalentes vers la moyenne, avec une diminution corrélative de la prime de risque. Ce phénomène illustre que l’attitude envers le risque dépend aussi de la forme spécifique de la fonction d’utilité, et notamment de la manière dont l’aversion au risque évolue en fonction de la richesse.

Par ailleurs, le processus (1nZn)n1\left( \frac{1}{n} Z_n \right)_{n \geq 1} est un martingale inversé, ce qui signifie que la convergence de la moyenne empirique peut être vue à travers le prisme des théorèmes de convergence des martingales inversées, fournissant ainsi une structure probabiliste robuste à ces phénomènes asymptotiques.

Il est essentiel pour le lecteur de comprendre que ces résultats mettent en lumière une tension fondamentale dans la théorie de l’utilité espérée : la répétition de paris indépendants peut changer la nature du risque perçu selon la forme de l’aversion au risque. Alors que pour certains profils d’utilité (comme CARA), le risque relatif ne diminue pas, pour d’autres (comme HARA) une diversification ou une accumulation large de petits risques améliore la tolérance au risque. Ce contraste est central pour la conception de produits financiers, de politiques d’assurance ou de stratégies d’investissement.

Enfin, la notion de dominance stochastique croissante concave (μicvν\mu \succeq_{icv} \nu) établit une relation d’ordre entre distributions indépendamment de la fonction d’utilité spécifique, en s’appuyant uniquement sur la préférence universelle des agents averses au risque. Cela ouvre la voie à une analyse plus générale des préférences face au risque, au-delà du cadre strict de l’utilité espérée, et souligne l’importance d’une approche fonctionnelle des distributions de gains et pertes.

Comment prouver l’existence d’une mesure risque-neutre dans un modèle sans arbitrage ?

Considérons un ensemble convexe CC dans un espace vectoriel, supposé ne pas contenir l’origine. Par un argument classique basé sur le théorème de séparation des convexes, il existe un vecteur ξRd\xi \in \mathbb{R}^d qui sépare strictement CC de l’origine, c’est-à-dire que ξx0\xi \cdot x \geq 0 pour tout xCx \in C et ξx0>0\xi \cdot x_0 > 0 pour un certain x0Cx_0 \in C. En traduisant cette propriété dans le cadre probabiliste où CC est l’ensemble des espérances sous des mesures QQ équivalentes, on obtient une inégalité impliquant ξY\xi \cdot Y, avec YY un vecteur aléatoire. La condition de séparation conduit à EQ[ξY]0\mathbb{E}_Q[\xi \cdot Y] \geq 0 pour toute mesure QQ dans une certaine classe Q\mathcal{Q}, et strictement positive pour au moins une de ces mesures. Cette dernière inégalité garantit que la probabilité sous la mesure initiale PP que ξY>0\xi \cdot Y > 0 est strictement positive.

L’enjeu est alors de démontrer que la fonction aléatoire ξY\xi \cdot Y est presque sûrement non négative sous PP. On introduit l’ensemble A:={ω:ξY(ω)<0}A := \{\omega : \xi \cdot Y(\omega) < 0 \} et on construit une suite de fonctions ϕn\phi_n qui approchent la fonction indicatrice de AcA^c tout en étant strictement positives, afin de définir de nouvelles mesures QnQ_n équivalentes à PP. Ces mesures QnQ_n appartiennent à la classe Q\mathcal{Q} par construction. La condition d’espérance non négative sous toutes ces mesures implique, par passage à la limite via le théorème de convergence dominée de Lebesgue, que l’espérance sous PP de ξY\xi \cdot Y restreinte à AA est non négative, ce qui ne peut être que si P(A)=0P(A) = 0. Ainsi, ξY0\xi \cdot Y \geq 0 PP-presque sûrement.

Ce résultat est crucial car il conduit à une contradiction si l’on suppose que 0C0 \notin C. Il en découle que l’origine appartient nécessairement à CC, ce qui s’interprète comme l’existence d’une mesure risque-neutre PP^* équivalente à PP, dont la densité est bornée, et qui neutralise le risque en rendant la valeur espérée des gains nulle. Cette mesure PP^* garantit l’absence d’arbitrage dans le modèle financier.

Lorsque la variable aléatoire YY n’est pas intégrable sous PP, on peut toujours changer de mesure pour une mesure équivalente P~\tilde{P} sous laquelle YY devient intégrable, sans modifier la structure d’absence d’arbitrage. Cette technique repose sur une repondération de PP par une densité bornée, assurant la validité des résultats précédents dans un cadre plus général.

L’exemple d’un espace fini Ω={ω1,,ωN}\Omega = \{\omega_1, \ldots, \omega_N\} illustre ces notions dans un cadre discret simple. La condition d’absence d’arbitrage s’écrit alors comme la contrainte que le prix actualisé d’un actif doit appartenir à l’intervalle ouvert défini par ses valeurs possibles, exprimée via une combinaison convexe des valeurs possibles du prix futur sous une mesure équivalente. La mesure risque-neutre se caractérise ainsi par la résolution d’un système linéaire soumis à des contraintes de positivité des probabilités, solution unique lorsque N=2N=2, mais généralement non unique si N>2N > 2.

Il importe aussi de comprendre le rôle de la mise à l’échelle des prix, dite « mise en numéraire ». Le passage aux prix actualisés via une mesure sans risque, ou par rapport à un actif strictement positif, homogénéise les unités et permet une comparaison cohérente entre prix à différents horizons. Le concept d’absence d’arbitrage est alors invariant par changement de numéraire, ce qui renforce la robustesse de la notion de mesure risque-neutre.

Enfin, la loi du prix unique garantit que, pour tout gain réalisable par deux portefeuilles différents, leur prix initial doit être identique, ce qui empêche la possibilité d’arbitrages. Cette propriété découle directement de l’existence d’une mesure risque-neutre et constitue un pilier fondamental de la théorie moderne des prix des actifs.

La compréhension fine de ces constructions est essentielle pour appréhender les modèles financiers modernes. La neutralité au risque via la mesure PP^* offre un cadre mathématique rigoureux à l’évaluation des actifs dans des marchés où aucune stratégie ne permet de réaliser un profit sans risque. Elle permet de relier des concepts probabilistes, fonctionnels et économiques, et d’établir une base solide pour le calcul des prix, la gestion des risques, et la formulation de stratégies d’investissement cohérentes.

Au-delà de l’existence, la nature des mesures risque-neutres et leur relation avec la topologie des espaces de mesures jouent un rôle fondamental dans l’étude des marchés incomplets ou en présence d’incertitudes plus complexes (incertitude dite de Knight). La souplesse du cadre mathématique permet d’aborder des extensions où les probabilités ne sont pas pleinement connues, et où les notions classiques doivent être reformulées avec prudence.

La manipulation des fonctions indicatrices et l’application habile du théorème de convergence dominée soulignent l’importance d’une maîtrise fine des outils d’analyse fonctionnelle et de mesure. Ces techniques garantissent la rigueur des arguments et leur validité dans des cadres plus larges que les espaces finis.

Comprendre le lien entre absence d’arbitrage, existence de mesures risque-neutres, et la structure des prix actualisés est crucial pour saisir les fondements de la finance mathématique contemporaine. Cela éclaire aussi la nécessité d’une modélisation soigneuse des probabilités, en particulier lorsque l’intégrabilité des variables aléatoires n’est pas assurée, ou lorsque les mesures initiales doivent être modifiées pour assurer la cohérence du modèle.