La décomposition uniforme de Doob, appliquée aux processus adaptés non négatifs dans un cadre de contraintes de stratégie, révèle une subtilité fondamentale dans l’analyse des marchés financiers où les stratégies admissibles ne sont pas nécessairement toutes possibles. Considérons un processus qui peut s’écrire sous la forme
où est un processus prévisible à valeurs dans un ensemble de stratégies admissibles, et est un processus adapté croissant avec . Cette décomposition (9.15) correspond à une représentation où est la valeur initiale ajustée des gains ou pertes réalisés par la stratégie , minorée par un terme de perte cumulée .
Dans le cadre non contraint, il est connu qu’une telle décomposition existe si et seulement si est un supermartingale sous toutes les mesures martingales équivalentes, autrement dit, lorsque respecte une certaine « neutralité au risque ». En présence de contraintes, l'ensemble des mesures pertinentes devient , un sous-ensemble adapté au cône engendré par . Chaque valeur associée à une stratégie admissible est alors un supermartingale local sous toutes ces mesures, ce qui suggère que la décomposition pourrait être caractérisée par cette propriété. Toutefois, cette intuition s’avère incomplète.
Un exemple simple dans un marché à une période illustre ce point : une mesure peut faire de un supermartingale sous , mais ne peut pas forcément se décomposer comme en (9.15) pour certains choix de . Cette incohérence provient du fait que ne reflète que le cône généré par , sans prendre en compte la structure complète des contraintes.
Pour pallier cette limitation, on introduit un processus de variation supérieure associé à chaque mesure , qui encode la meilleure évaluation possible des variations attendues des gains admissibles sous . Ce processus croissant est défini par
La classe regroupe les mesures équivalentes à pour lesquelles est intégrable. Cette construction intègre pleinement la structure de en tenant compte non seulement des directions permises par les stratégies, mais aussi des bornes et contraintes spécifiques.
Une propriété clé est que, pour toute stratégie admissible, la différence entre sa valeur et est un supermartingale local sous . Si la valeur terminale est intégrable, cette propriété s’élève à un supermartingale global. Cette observation relie la dynamique des stratégies contraintes aux propriétés de ces processus de variation supérieure.
Dans certains cas particuliers, on retrouve que coïncide avec , notamment lorsque contient toutes les stratégies bornées à composantes non négatives, ce qui montre la généralité de la construction de .
Le résultat principal, énoncé dans le théorème de décomposition uniforme sous contraintes, affirme que, si est non vide, alors un processus adapté non négatif admet une décomposition comme en (9.15) si et seulement si, pour toute mesure , est un supermartingale sous . Autrement dit, la condition de supermartingale relative au processus ajusté caractérise exactement la possibilité d’exprimer par la décomposition uniforme associée aux stratégies contraintes.
La démonstration utilise un raisonnement par séparation convexe dans l’espace , exploitant le théorème de Hahn–Banach pour établir l’existence d’une stratégie réalisant l’incrément jusqu’à un terme positif, qui correspond à la variation du processus .
Il importe de souligner que cette théorie généralise le cadre classique des martingales, en tenant compte des limitations réelles imposées sur les stratégies d’investissement, telles que restrictions sur les positions ou contraintes réglementaires. Elle ouvre la voie à une analyse fine de la couverture (hedging) dans les marchés incomplets et soumis à des contraintes opérationnelles.
Il est essentiel de comprendre que la notion de supermartingale locale, ainsi que l’intégrabilité des variations supérieures , jouent un rôle central dans l’analyse financière moderne des stratégies sous contraintes. La distinction entre et reflète la complexité sous-jacente à la modélisation des marchés réels, où les risques ne sont pas toujours compensés uniformément selon toutes les mesures équivalentes.
Cette compréhension profonde du rôle joué par les processus de variation supérieure permet d’appréhender les mécanismes d’arbitrage, la valorisation sous contraintes et les limites de réplication. Par conséquent, le lecteur doit intégrer cette construction comme un outil fondamental pour la modélisation et l’évaluation des portefeuilles soumis à des restrictions structurelles, enrichissant ainsi la théorie classique par une perspective plus réaliste et robuste.
Comment les préférences robustes redéfinissent-elles l’incertitude face à l’imprévisibilité des modèles probabilistes ?
Dans l’analyse économique et financière, les actifs sont conceptualisés comme des fonctions attribuant des gains réels à chaque scénario possible. Plus précisément, on considère un espace de fonctions mesurables et bornées définies sur un espace mesurable , sans présupposer l’existence d’une mesure de probabilité donnée sur cet espace. Cette absence de mesure a priori marque une distinction cruciale : on est confronté à l’incertitude au sens strict, et non simplement au risque quantifiable.
La relation de préférence sur est supposée monotone, c’est-à-dire que si pour tous , , alors . Sous une certaine continuité, cette relation peut être représentée numériquement. L’approche classique, introduite par L. J. Savage, consiste à supposer que les préférences admettent une représentation par utilité espérée subjective :
où est une mesure de probabilité subjective sur et est une fonction d’utilité strictement croissante, déterminée par la restriction de aux fonctions constantes. Cette représentation implique que les préférences de l’agent sont cohérentes avec l’évaluation moyenne pondérée des résultats, selon ses croyances subjectives codifiées par .
Cependant, la réalité des comportements observés expose des limites de ce modèle. Par exemple, l’agent peut percevoir que l’objectif ne décrit pas fidèlement l’incertitude, et choisir un qui accentue les scénarios défavorables, introduisant une distorsion subjective des probabilités. Un exemple est donné par la combinaison convexe
qui met un poids positif sur le pire scénario, ici représenté par la masse en 0, et pondère le reste par la mesure objective . Cette transformation traduit une aversion accrue au risque défavorable et peut expliquer des phénomènes comme le paradoxe d’Allais, qui contredit les axiomes de l’utilité espérée classique.
Le paradoxe d’Ellsberg va plus loin encore : il met en lumière le comportement d’aversion face à l’ambiguïté, où un agent préfère un risque connu à un risque incertain même lorsque les résultats attendus sont équivalents. Cette observation met en échec la théorie de Savage car elle ne permet pas d’attribuer une mesure subjective unique compatible avec ces choix. Il est alors nécessaire de dépasser le cadre de l’utilité espérée simple.
La solution envisagée est une extension robuste des préférences, où au lieu d’une seule mesure , on considère une famille de mesures possibles. Le critère d’évaluation devient alors
une approche dite de « pire scénario » ou robustesse, qui reflète l’incertitude sur le modèle probabiliste lui-même. Cette formulation est compatible avec une prise en compte systématique des doutes sur la probabilité vraie, et s’adapte naturellement aux situations d’ambiguïté extrême.
Pour enrichir cette approche, on étend l’espace des gains aux fonctions aléatoires à valeurs dans des mesures de probabilités bornées sur , ce qui permet de modéliser des « actes » ou des « loteries » complexes. Cette généralisation englobe non seulement les fonctions déterministes, mais aussi les distributions de résultats, intégrant ainsi pleinement la dimension aléatoire et incertaine des gains.
La représentation robuste inclut alors une fonction d’utilité affine définie sur l’ensemble des mesures de probabilité, ce qui permet de caractériser rigoureusement l’aversion au risque par la concavité stricte de au niveau des mesures. Cette structure donne aussi un cadre pour expliquer des anomalies comportementales telles que celles observées dans le paradoxe d’Ellsberg, en choisissant judicieusement l’ensemble .
Il est essentiel de comprendre que cette approche ne réduit pas simplement l’incertitude à un risque probabilisable, mais reconnaît la complexité et la diversité des modèles possibles. L’agent devient ainsi un décideur prudent, évaluant ses options selon la performance la moins favorable parmi plusieurs scénarios plausibles, et non selon un seul scénario moyen espéré.
En outre, la robustesse ouvre la voie à une compréhension plus riche des comportements économiques et financiers, notamment dans la gestion du risque, l’assurance, et la théorie des marchés incomplets. Elle invite aussi à une réflexion approfondie sur la nature même de l’incertitude et les moyens d’y répondre rationnellement dans la prise de décision.
Cette conception place l’incertitude au cœur du raisonnement économique, invitant à dépasser la simple utilité espérée pour embrasser la pluralité des croyances et des anticipations. Elle souligne l’importance d’un cadre flexible et adaptable pour modéliser les préférences humaines, souvent marquées par l’aversion à l’ambiguïté et la prudence.
Quelles méthodes permettent de mesurer la consommation de carburant et les émissions de véhicules en fonction des conditions réelles de conduite ?
Comment les matériaux semi-conducteurs 2D transforment-ils les dispositifs de stockage d'énergie et d'applications électroniques ?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский