L'ensemble des processus prévisibles d'ordre dd-dimensionnel, noté SS, définit un cadre où le capital investi dans des actifs risqués doit satisfaire des contraintes spécifiques. Ces contraintes prennent la forme d’une inégalité impliquant les variables ξt\xi_t et Xt1X_{t-1}, telle que aξtXt1ba \leq \xi_t \cdot X_{t-1} \leq b en probabilité, pour t=1,,Tt = 1, \dots, T. Cette condition impose des marges dynamiques sur l’investissement dans les actifs risqués. Lorsqu’on suppose que la condition de non-redondance est satisfaite, ces contraintes sont étendues, et une généralisation permet d'introduire des marges dynamiques définies via des processus prévisibles (at)(a_t) et (bt)(b_t).

Nous introduisons également l’ensemble des stratégies de trading autogérées SS, qui regroupe toutes les stratégies ξ=(ξ0,ξ)\xi = (\xi_0, \xi) issues d’un investissement ξS\xi \in S. Le but principal ici est de caractériser les conditions sous lesquelles il n’existe pas d’opportunités d’arbitrage dans SS. Cela s’avère possible si et seulement si il existe une mesure martingale équivalente PPP^* \in P, qui constitue une condition suffisante pour l'absence d'arbitrage.

En outre, sous une hypothèse technique supplémentaire, nous élargissons la classe des mesures à PSPS, qui inclut des mesures P~ dans lesquelles les processus XtX_t restent intégrables pour i=1,,di = 1, \dots, d et t=1,,Tt = 1, \dots, T, et où la valeur de chaque stratégie de trading dans SS est un processus local martingale P~-supermartingale. Cette extension permet de formuler une condition nécessaire et suffisante pour l’absence d’arbitrage dans le cadre de marchés contraints.

La définition d'un processus stochastique local martingale est cruciale pour comprendre la structure des stratégies de trading. Si un processus ZZ est local martingale sous une mesure QQ, cela signifie qu’il existe une séquence de temps d'arrêt (τn)nN(\tau_n)_{n \in \mathbb{N}} telle que les processus stoppés ZτnZ_{\tau_n} soient des martingales sous QQ. Ce concept, qui mène à la notion de supermartingale local, permet de formaliser l’idée d’une "stratégie sans arbitrage" en utilisant des processus stochastiques adaptés.

Une autre caractéristique importante réside dans la relation entre les martingales et l'intégrabilité des processus. Dans un cadre plus général, l'absence d’opportunités d’arbitrage peut être déduite de l’existence d’un ensemble non-vide PSPS, ce qui garantit l'absence d’arbitrage sous des conditions spécifiques. Ce résultat se relie directement au théorème fondamental du prix des actifs, qui stipule qu’un marché ne présentant pas d’opportunités d’arbitrage doit nécessairement être associé à une mesure martingale équivalente.

Dans ce contexte, il est pertinent de noter que l’existence d’opportunités d’arbitrage dans le marché de base (non contraint) équivaut à la possibilité d'une stratégie ξt\xi_t telle que ξt(XtXt1)0\xi_t \cdot (X_t - X_{t-1}) \geq 0 en probabilité, avec une probabilité positive que cette expression soit strictement positive. L’extension de ce raisonnement à un marché contraint, où des stratégies comme ξt\xi_t sont restreintes par des intervalles dynamiques (par exemple, [at,bt][a_t, b_t] pour tt), montre que les contraintes imposées sur les positions long et short peuvent empêcher l’apparition de telles opportunités.

L’absence d’opportunités d’arbitrage dans le marché contraint peut être garantie si et seulement si l’ensemble des stratégies autogérées SS respecte la condition de fermeté des cônes générés par des ensembles convexes CtC_t. Dans ce cas, les stratégies de trading contraintes par des intervalles [at,bt][a_t, b_t] pour chaque tt ne permettent pas d’exploiter des différences de prix non compensées, garantissant ainsi qu'aucune stratégie d’arbitrage ne peut être construite. En particulier, l'existence d'une mesure PPSP^* \in PS avec une densité bornée par rapport à la mesure PP assure la non-existence d’arbitrage, conformément aux théorèmes de pricing des actifs.

Les exemples illustratifs, comme celui des stratégies de trading dans des ensembles convexes contraints, montrent bien comment les limites imposées sur la taille des positions long et short, ou encore l’existence de marges dynamiques, permettent de maintenir l’absence d’arbitrage. Il est ainsi essentiel de comprendre que les conditions de fermeté des cônes RtR_t associés aux ensembles CtC_t et les propriétés des mesures martingales sont des éléments fondamentaux pour éviter toute forme d’arbitrage dans les marchés contraints.

Enfin, il est crucial de noter que ces théorèmes ne sont valables que dans un cadre où l’absence de redondance est respectée, et où la classe des stratégies admissibles ne permet pas de concevoir des positions risquées non couvertes. L’arbitrage, dans un tel contexte, devient une notion strictement liée à l’équilibre des prix sous des mesures martingales, et non à des déséquilibres passagers ou des incohérences ponctuelles dans les prix.

Qu’est-ce que l’entropie relative et pourquoi est-elle fondamentale en théorie des probabilités et en statistique ?

Considérons la fonction h(x)=xlogxh(x) = x \log x définie pour x>0x > 0. Cette fonction possède plusieurs propriétés cruciales : elle est strictement convexe et admet une borne inférieure h(x)1eh(x) \geq -\frac{1}{e}, atteinte uniquement en x=1ex = \frac{1}{e}. De plus, la limite h(x)0h(x) \to 0 lorsque x0+x \to 0^+ permet d’étendre hh de manière continue et strictement convexe sur [0,+)[0, +\infty) en posant h(0)=0log0:=0h(0) = 0 \log 0 := 0.

La notion d’entropie relative, ou divergence de Kullback–Leibler, est une mesure fondamentale de la distance asymétrique entre deux mesures de probabilité QQ et PP sur un même espace mesurable. Formulée par

H(QP):={EQ[logdQdP]si QP,+sinon,H(Q \mid P) := \begin{cases} \mathbb{E}_Q\left[ \log \frac{dQ}{dP} \right] & \text{si } Q \ll P, \\ +\infty & \text{sinon},
\end{cases}

cette quantité quantifie la "différence" de QQ par rapport à PP en termes d’information.

L’entropie relative satisfait la fameuse inégalité de Gibbs, qui affirme que pour toute mesure de probabilité QQ, on a H(QP)0H(Q \mid P) \geq 0, avec égalité si et seulement si Q=PQ = P. Cette propriété découle directement de l’inégalité de Jensen appliquée à la fonction convexe hh. En effet, puisque hh est strictement convexe, l’égalité n’est obtenue que lorsque la densité relative dQdP\frac{dQ}{dP} est identiquement égale à 1, presque sûrement selon PP.

Pour mieux saisir cette notion, considérons un espace fini Ω\Omega muni de la loi uniforme PP. Toute mesure QQ y est absolument continue par rapport à PP et peut s’écrire en termes de probabilités ponctuelles Q(ω)Q(\omega). L’entropie relative s’exprime alors comme

H(QP)=ωΩQ(ω)logQ(ω)+logΩ.H(Q \mid P) = \sum_{\omega \in \Omega} Q(\omega) \log Q(\omega) + \log |\Omega|.

La quantité S(Q):=ωΩQ(ω)logQ(ω)S(Q) := -\sum_{\omega \in \Omega} Q(\omega) \log Q(\omega) est appelée l’entropie de QQ, et on a H(QP)=S(P)S(Q)H(Q \mid P) = S(P) - S(Q), ce qui signifie que la distribution uniforme maximise l’entropie parmi toutes les distributions sur Ω\Omega.

Lorsque les distributions sont continues, comme les lois normales μ=N(m,σ2)\mu = \mathcal{N}(m, \sigma^2) et μ~=N(m~,σ~2)\tilde{\mu} = \mathcal{N}(\tilde{m}, \tilde{\sigma}^2), l’entropie relative s’exprime en termes explicites de leurs paramètres, mêlant moyenne et variance, reflétant ainsi la divergence entre deux distributions gaussiennes.

Une caractérisation duale puissante de l’entropie relative est donnée par une représentation variationnelle :

H(QP)=supZ{EQ[Z]logEP[eZ]},H(Q \mid P) = \sup_{Z} \left\{ \mathbb{E}_Q[Z] - \log \mathbb{E}_P[e^{Z}] \right\},

où le supremum est pris sur l’ensemble ZZ des variables aléatoires F\mathcal{F}-mesurables avec des conditions d’intégrabilité appropriées. Ce théorème établit que l’entropie relative est le résultat d’une optimisation convexesur la famille de fonctions exponentielles, avec la fonction réalisant le maximum étant précisément Z=logdQdPZ = \log \frac{dQ}{dP} si QPQ \ll P.

Ce résultat a des implications profondes, notamment la monotonie de l’entropie relative lorsque l’on agrandit la tribu sous-jacente, et permet de comprendre comment la quantité d’information "perdue" ou "gagnée" évolue avec la précision des observations ou la granularité de la modélisation.

Un corollaire essentiel est l’identité de Fenchel–Legendre appliquée à l’entropie relative qui relie la maximisation du terme EQ[Z]H(QP)\mathbb{E}_Q[Z] - H(Q \mid P) à logEP[eZ]\log \mathbb{E}_P[e^{Z}]. Cela donne naissance à la mesure de Gibbs PZP_Z, qui minimise l’entropie relative sous la contrainte sur l’espérance de ZZ. Cette mesure joue un rôle central en mécanique statistique où elle incarne l’état d’équilibre thermique et, en théorie des probabilités, elle est reliée à des principes variationnels fondamentaux.

Ces concepts s’articulent étroitement avec l’analyse des risques convexes en finance, où la représentation duale via l’entropie relative permet d’interpréter certains critères de décision comme des compromis entre espérance et divergence informationnelle.

Il est crucial de saisir que l’entropie relative ne constitue pas une distance au sens métrique classique : elle est asymétrique et ne satisfait pas nécessairement l’inégalité triangulaire. Cependant, elle fournit une mesure rigoureuse de la dissemblance informationnelle, adaptée à de nombreux domaines, notamment la théorie de l’information, la statistique inférentielle, la mécanique statistique et l’apprentissage automatique.

Le lecteur gagnera à approfondir la compréhension des propriétés analytiques de la fonction h(x)=xlogxh(x) = x \log x, notamment sa convexité stricte et ses comportements limites, ainsi que la manipulation des densités de Radon–Nikodym dans les espaces probabilisés. Par ailleurs, la dualité entre fonctions convexes et leurs transformées de Fenchel–Legendre éclaire le rôle central de l’entropie relative dans les cadres variationnels. Enfin, la généralisation à des espaces mesurables plus complexes, où la σ-algèbre évolue, révèle la dynamique subtile entre information, connaissance partielle et modélisation probabiliste.

Comment la fonction de pénalité minimale caractérise-t-elle les mesures de risque convexes ?

La fonction de pénalité minimale αmin\alpha_{\min}, définie par la formule

αmin(Q)=supXX(EQ[X]ρ(X)),\alpha_{\min}(Q) = \sup_{X \in \mathcal{X}} \left( \mathbb{E}_Q[-X] - \rho(X) \right),

est un objet fondamental dans l’analyse des mesures de risque convexes. Elle se révèle convexe et inférieurement semi-continue lorsqu’on considère la topologie induite par la distance variation totale sur l’espace des mesures finitement additives M1,f\mathcal{M}_{1,f}. Cette propriété découle du fait que αmin\alpha_{\min} est la borne supérieure d’une famille de fonctions affines continues sur cet espace.

Si la mesure de risque ρ\rho est définie à partir d’un ensemble d’acceptation AXA \subseteq \mathcal{X} (via ρ:=ρA\rho := \rho_A), alors cet ensemble détermine entièrement la fonction de pénalité minimale. En effet,

αmin(Q)=supXAEQ[X].\alpha_{\min}(Q) = \sup_{X \in A} \mathbb{E}_Q[-X].

Ce résultat repose sur la fermeture de l’ensemble d’acceptation AρA_\rho dans la norme du supremum et sur la continuité de la fonction XEQ[X]X \mapsto \mathbb{E}_Q[-X] pour toute mesure QQ dans M1,f\mathcal{M}_{1,f}.

La fonction de pénalité minimale s’interprète également comme la transformée de Fenchel–Legendre (ou conjuguée) de la fonction convexe ρ\rho sur l’espace de Banach X\mathcal{X}. Plus précisément,

αmin(Q)=ρ(Q),\alpha_{\min}(Q) = \rho^*(\ell_Q),

ρ\rho^* est la fonction conjuguée de ρ\rho, définie sur le dual X\mathcal{X}', et Q\ell_Q est l’application linéaire associée à QQ, Q(X)=EQ[X]\ell_Q(X) = \mathbb{E}_Q[-X]. Cette dualité permet une représentation robuste et élégante de ρ\rho, souvent appelée représentation duale, par

ρ(X)=supQM1,f(EQ[X]αmin(Q)).\rho(X) = \sup_{Q \in \mathcal{M}_{1,f}} \left( \mathbb{E}_Q[-X] - \alpha_{\min}(Q) \right).

Cette représentation est en lien direct avec la topologie faible-* sur M1,f\mathcal{M}_{1,f}, dont la compacité découle du théorème de Banach–Alaoglu.

Dans le cas particulier des mesures de risque cohérentes, la fonction de pénalité minimale ne prend que les valeurs 00 ou ++\infty, ce qui se traduit par une représentation simplifiée :

ρ(X)=maxQQmaxEQ[X],\rho(X) = \max_{Q \in \mathcal{Q}_{\max}} \mathbb{E}_Q[-X],

Qmax\mathcal{Q}_{\max} est l’ensemble maximal de mesures pour lesquelles la pénalité est nulle. La cohérence impose que l’ensemble d’acceptation soit un cône, ce qui induit la dichotomie des valeurs de αmin\alpha_{\min}.

L’additivité d’une mesure de risque cohérente se traduit par une condition stricte sur la classe Q\mathcal{Q} : la mesure de risque est additive si et seulement si la classe Q\mathcal{Q} se réduit à un unique élément, ce qui signifie que la mesure de risque correspond à la perte espérée sous une unique probabilité.

Pour les mesures de risque convexes normalisées, la fonction de pénalité peut ne pas être unique, et il est parfois utile de considérer une pénalité non minimale. La prise du supremum de mesures de risque convexes ρi\rho_i conduit à une nouvelle mesure de risque ρ\rho, représentée par la pénalité

α(Q)=infiIαi(Q),\alpha(Q) = \inf_{i \in I} \alpha_i(Q),

ce qui préserve la convexité et la structure de la représentation.

Une attention particulière est portée aux mesures de risque représentables uniquement par des mesures probabilistes M1\mathcal{M}_1 (sigma-additives), où la continuité dite « par le haut » (continuity from above) joue un rôle essentiel. Cette propriété, équivalente à la propriété de Fatou, garantit que la mesure de risque est inférieurement semi-continue face à une convergence ponctuelle bornée. Elle assure que les limites des suites décroissantes convergent correctement au niveau de la mesure de risque.

En revanche, la continuité « par le bas » (continuity from below) est une condition encore plus forte qui, lorsqu’elle est satisfaite, garantit que la fonction de pénalité est concentrée sur les mesures de probabilité, et non seulement sur les mesures finitivement additives.

Il est important de saisir que ces propriétés de continuité influencent directement la nature des mesures considérées dans la représentation duale, ainsi que l’existence ou non d’un maximum atteint dans la formule duale. De plus, elles conditionnent la robustesse de la mesure de risque face aux perturbations des positions financières.

Au-delà de ces aspects techniques, il convient de comprendre que la théorie de la dualité en analyse convexe, incarnée ici par la transformée de Fenchel–Legendre, fournit un cadre puissant pour étudier les mesures de risque. Elle établit un lien profond entre les propriétés analytiques des fonctions convexes sur des espaces de Banach et leurs représentations via des mesures ou des fonctionnelles linéaires.

Enfin, la distinction entre mesures de risque cohérentes et convexes souligne l’importance du choix des ensembles d’acceptation et des fonctions de pénalité dans la modélisation du risque financier. Chaque type de mesure apporte ses propres exigences et propriétés, reflétant différentes attitudes face à l’aversion au risque et à la gestion du portefeuille.