La función cuantil es un concepto fundamental en la teoría de probabilidades y estadísticas. Si se tiene una función de distribución acumulada FF de una variable aleatoria XX, la función cuantil qq está definida como la inversa de FF, aunque en muchos casos, especialmente cuando FF no es estrictamente continua, puede ser necesario considerar versiones izquierda y derecha de la función cuantil. Estas versiones corresponden a los menores y mayores valores posibles que satisfacen ciertas desigualdades basadas en la distribución acumulada.

En particular, si FF es una función acumulativa creciente y continua a la derecha, entonces F(x):=F(x)F^{ - }(x) := F(x^{ - }) y F+(x):=F(x+)F^{+}(x) := F(x^{+}) representan las versiones más pequeña y más grande de la inversa de FF, respectivamente. Este resultado es muy relevante, ya que implica que cualquier función F~\tilde{F} que esté entre FF^{ - } y F+F^{+} también es una inversa de FF. Esto es útil en la construcción de intervalos de confianza y en la representación precisa de las distribuciones.

La función cuantil es particularmente importante porque nos permite revertir el proceso de transformación de una variable aleatoria de acuerdo con su distribución acumulada. Si FF es la función de distribución acumulada de una variable aleatoria XX, entonces la variable X(ω):=q(U(ω))X(\omega) := q(U(\omega)), donde UU es una variable aleatoria uniformemente distribuida en el intervalo (0,1)(0, 1), tiene la misma función de distribución acumulada FF. Esta propiedad es la base de muchos métodos de simulación de variables aleatorias.

Más formalmente, el teorema muestra que si UU tiene una distribución uniforme en (0,1)(0, 1), entonces XX y q(U)q(U) tendrán la misma distribución, y esto establece una conexión fundamental entre las distribuciones acumuladas y los cuantiles. En términos prácticos, esto significa que el valor q(U)q(U) es el cuantil de XX asociado con el valor UU.

Además, es importante entender cómo las distribuciones de probabilidad pueden asociarse con funciones de distribución acumulada y cómo estas pueden ser manipuladas a través de la función cuantil. Un resultado crucial aquí es que cualquier función de distribución acumulada FF de una variable aleatoria XX, bajo ciertas condiciones de continuidad, puede ser invertida para dar lugar a una función cuantil. Este proceso es relevante tanto en la teoría pura como en aplicaciones estadísticas donde se necesiten transformaciones de distribuciones.

Cuando se trabaja con funciones cuantil, también se puede extender el concepto a distribuciones discontinuas. En este caso, la noción de cuantil puede ser extendida al concepto de función cuantil superior e inferior, que representan los valores que corresponden a las fronteras de los intervalos en los que las probabilidades son distribuidas. Estas funciones juegan un papel importante en la comprensión de las distribuciones con saltos, como en el caso de distribuciones de masa puntual, donde la función cuantil refleja cómo la probabilidad se acumula en puntos específicos.

El concepto de función cuantil también puede ser extendido más allá de la teoría de probabilidad de variables aleatorias continuas. Por ejemplo, si se considera el caso de medidas positivas de Radon, el concepto de cuantil se adapta a las distribuciones de medidas que no necesariamente son probabilísticas. Este enfoque generalizado de la función cuantil permite que la teoría se aplique en contextos más amplios, como en la teoría de medidas, y tiene aplicaciones significativas en análisis funcional y en la modelización de fenómenos aleatorios no necesariamente gaussianos.

Finalmente, para comprender completamente la utilidad de las funciones cuantiles, se debe tener en cuenta que la función cuantil puede ser vista como una herramienta para convertir entre representaciones probabilísticas y aleatorias. Por ejemplo, dada una función acumulada FF, la función cuantil proporciona una forma explícita de encontrar los valores específicos que corresponden a ciertos percentiles de la distribución de XX. En este contexto, entender la relación entre FF y qq se convierte en un aspecto clave en la modelización estadística y la simulación numérica.

El estudio de la función cuantil y su relación con las distribuciones acumuladas es esencial para las aplicaciones estadísticas avanzadas y para la teoría de la probabilidad. Además, la manipulación adecuada de estas funciones proporciona un marco poderoso para entender cómo se distribuyen las probabilidades en los sistemas aleatorios, lo que abre la puerta a muchas aplicaciones en campos como la econometría, la física estadística, la ingeniería y la inteligencia artificial.

¿Cómo influyen las medidas de riesgo invariante ante la ley en la teoría financiera?

En la teoría financiera moderna, las medidas de riesgo juegan un papel fundamental en la evaluación y gestión de la incertidumbre. Las medidas de riesgo invariante ante la ley se han convertido en una herramienta clave en este campo, permitiendo una comprensión más profunda y precisa de los riesgos en situaciones de incertidumbre. Este enfoque es crucial para el desarrollo de estrategias financieras robustas, ya que proporciona una forma de evaluar el riesgo que no depende de la distribución específica de los activos o de la probabilidad de los eventos, sino que se enfoca en la ley subyacente que describe cómo los riesgos se comportan en general.

El concepto de medidas de riesgo invariante ante la ley fue introducido por Frittelli y Scandolo (2006) y se refiere a aquellas medidas de riesgo que permanecen constantes incluso si se modifican las distribuciones de probabilidad de los activos, siempre que estas sean equivalentes en términos de ley. Es decir, estas medidas no cambian si la ley subyacente de los rendimientos cambia, siempre que la distribución de los riesgos no altere la estructura general del problema. Este enfoque es especialmente útil en mercados financieros con incertidumbres profundas o cuando los datos disponibles son limitados, ya que permite tomar decisiones sin depender de supuestos demasiado específicos o de distribuciones que pueden no ser confiables.

Una de las propiedades más interesantes de las medidas de riesgo invariante ante la ley es la propiedad de Fatou, que establece que los riesgos deben comportarse de una manera que garantice la consistencia de las decisiones a lo largo del tiempo, incluso si se realizan ajustes en el modelo o se incorporan nuevas observaciones. Esta propiedad asegura que las estrategias que se desarrollen con estas medidas sean robustas y fiables, incluso ante cambios imprevistos en las condiciones del mercado.

El estudio de las extensiones de estas medidas sobre espacios de Orlicz generales, como lo propusieron Gao, Leung, Munari y Xanthos (2018), permite aplicar estos conceptos a contextos más amplios y complejos. Las representaciones y extensiones de las medidas de riesgo invariante ante la ley ayudan a mejorar las técnicas de optimización financiera al permitir que las decisiones de inversión y cobertura se basen en principios más generales, que no están restringidos a modelos específicos de distribución.

Para los gestores de riesgos y otros profesionales financieros, este tipo de enfoque es esencial para el desarrollo de estrategias de cobertura y diversificación más eficientes. Los métodos que utilizan medidas de riesgo invariante ante la ley permiten la construcción de portafolios que no dependen de las distribuciones específicas de los activos subyacentes, lo que los hace más resistentes a las fluctuaciones impredecibles del mercado. Por ejemplo, los portafolios que emplean medidas coherentes de riesgo (como las propuestas por Heath y Ku, 2004) tienen la ventaja de ajustarse a cambios de mercado sin perder eficacia en la gestión de riesgos.

Una de las implicaciones más destacadas es que las decisiones basadas en estas medidas no están atadas a distribuciones específicas de probabilidad, lo que implica que los inversores pueden tomar decisiones más informadas sin tener que predecir o confiar en modelos demasiado detallados. En mercados donde la incertidumbre y la volatilidad son altas, este enfoque ofrece una ventaja competitiva significativa al no requerir la precisión de las predicciones exactas.

Además, las medidas de riesgo invariante ante la ley proporcionan una base sólida para abordar la ambigüedad y la información incompleta. En situaciones donde la información es parcial o los modelos tradicionales de riesgo no se aplican adecuadamente, las medidas invariante ante la ley permiten mantener una coherencia en la gestión del riesgo. Estas herramientas se utilizan también en la formulación de estrategias de cobertura que protejan a los inversionistas frente a posibles pérdidas extremas, basadas en la idea de maximizar la utilidad esperada de manera robusta y sin sobreexponer al portafolio a eventos inesperados.

En conclusión, las medidas de riesgo invariante ante la ley han revolucionado la forma en que los economistas, estadísticos y financieros abordan el análisis de riesgos. Con una base matemática sólida, estas medidas ofrecen una forma de gestionar el riesgo más general, menos susceptible a los errores de modelado y a las predicciones incorrectas de distribuciones. A medida que las teorías de riesgo evolucionan, los profesionales financieros deberían incorporar este enfoque en su conjunto de herramientas para asegurar una gestión de riesgos más efectiva y un futuro más estable en los mercados financieros.

¿Cómo se relacionan las preferencias robustas con la incertidumbre en los modelos?

Supongamos que YCY \in C tiene la forma Y=αY1+(1α)Y2Y = \alpha Y_1 + (1 - \alpha) Y_2 para algunos YiCiY_i \in C_i y α[0,1]\alpha \in [0, 1]. En este caso, podemos deducir que φ(Y)φ(α+(1α)Y2)=α+(1α)φ(Y2)1\varphi(Y) \leq \varphi(\alpha + (1 - \alpha) Y_2) = \alpha + (1 - \alpha) \varphi(Y_2) \leq 1. Esto nos lleva a la conclusión de que los conjuntos BB y CC son disjuntos. Consideremos ahora que XX está dotado de la norma supremo Y=supωΩY(ω)\|Y\| = \sup_{\omega \in \Omega} |Y(\omega)|. Así, el conjunto C1C_1 y, por lo tanto, CC, contiene la bola unitaria en XX, lo que implica que CC tiene un interior no vacío. En consecuencia, podemos aplicar el argumento de separación en la forma del Teorema H.2, lo cual nos proporciona un funcional lineal continuo \ell sobre XX tal que c:=sup(Y)inf(Z)c := \sup \ell(Y) \leq \inf \ell(Z), para YCY \in C y ZBZ \in B.

Como CC contiene la bola unitaria, cc debe ser estrictamente positivo, y sin pérdida de generalidad, podemos asumir que c=1c = 1. Además, dado que 1C1 \in C, se tiene que (1)1\ell(1) \leq 1. Por otro lado, cualquier constante b>1b > 1 está contenida en BB, por lo que (1)=limb1(b)c=1\ell(1) = \lim_{b \to 1} \ell(b) \geq c = 1. Esto demuestra que (1)=1\ell(1) = 1.

Si AFA \in F, entonces 1AcC1C1_{A^c} \in C_1 \subseteq C, lo que implica que (1A)=(1)(1Ac)11=0\ell(1_A) = \ell(1) - \ell(1_{A^c}) \geq 1 - 1 = 0. Según el Teorema G.21, existe una función aditiva finita QXM1,f(Ω,F)Q_X \in M_{1,f} (\Omega, F) tal que (Y)=EQ[Y]\ell(Y) = \mathbb{E}_Q[Y] para cualquier YXY \in X. Lo que nos queda por demostrar es que EQ[Y]φ(Y)\mathbb{E}_Q[Y] \geq \varphi(Y) para todos los YXY \in X, con igualdad cuando Y=XY = X. Debido a la invariancia respecto al efectivo de φ\varphi, basta con considerar el caso en el que φ(Y)>0\varphi(Y) > 0. Así, sea Yn:=φ+BY_n := \varphi + B y YnY/φ(Y)Y_n \to Y/\varphi(Y) uniformemente, lo que implica que EQ[Y]1\mathbb{E}_Q[Y] \geq 1. Por otro lado, X/φ(X)C2CX/\varphi(X) \in C_2 \subseteq C nos da la desigualdad EQ[X]c=1\mathbb{E}_Q[X] \leq c = 1, y por lo tanto, se concluye que EQ[X]=φ(X)\mathbb{E}_Q[X] = \varphi(X).

Ya estamos en condiciones de completar la demostración del primer resultado principal de esta sección.

El Teorema 2.78 establece que es suficiente para el análisis de preferencias inducidas \succ en XX una vez que se haya determinado la función uu. Según el Lemma 2.81 y las Proposiciones 2.83 y 2.84, existe un conjunto convexo QM1,fQ \subseteq M_1,f tal que la representación numérica de \succ en XX es U(X)=minEQ[u(X)]U(X) = \min \mathbb{E}_Q[ u(X)], donde u(X)u(X) es la representación numérica de \succ.

Cuando se aplica la condición (2.41)(2.41) al caso en que X=1X = 1 y Y=b<1Y = b < 1, obtenemos que cualquier secuencia Xn1X_n \to 1 debe implicar que XnbX_n \succ b para valores suficientemente grandes de nn. Esto lleva a la conclusión de que U(Xn)u(1)=1U(X_n) \to u(1) = 1. De lo contrario, si U(Xn)U(X_n) creciera hacia algún valor a<1a < 1, se podría elegir bb tal que a<u(b)<1a < u(b) < 1, pero eso contradiría la suposición de continuidad y estricto aumento de uu. Por lo tanto, obtenemos que para cualquier secuencia creciente de eventos AnFA_n \in F tal que nAn=Ω\bigcup_n A_n = \Omega, limnEQ[An]=1\lim_{n \to \infty} \mathbb{E}_Q[A_n] = 1, lo que es equivalente a la aditividad σ\sigma-de QQ. La continuidad necesaria para todos los XnXX_n \in X es, por tanto, una condición bastante estricta.

Por otro lado, podemos observar que en un contexto topológico, la discusión sobre las medidas de riesgo en el Capítulo 4 implica una versión del teorema de representación de preferencias robustas. Si Ω\Omega es un espacio polaco con σ\sigma-álgebra de Borel FF y si (2.41)(2.41) se cumple para XnX_n y XX continuos, entonces existe una clase de medidas de probabilidad QM1(Ω,F)Q \subseteq M_1(\Omega, F) tal que el orden de preferencia inducido en XX tiene la representación robusta de Savage U(X)=infEQ[u(X)]U(X) = \inf \mathbb{E}_Q[ u(X)] para XXX \in X.

Ahora consideremos un escenario alternativo en el que fijamos previamente una medida de referencia PP sobre (Ω,F)(\Omega,F). En este contexto, XX se identificará con el espacio L(Ω,F,P)L^\infty(\Omega, F, P), y la representación de preferencias involucrará medidas que sean absolutamente continuas con respecto a PP. Sin embargo, cabe destacar que este paso de funciones medibles a clases de equivalencia de variables aleatorias en L(Ω,F,P)L^\infty(\Omega,F,P), y de medidas de probabilidad arbitrarias a medidas absolutamente continuas, puede implicar una cierta pérdida de robustez frente a la incertidumbre del modelo.

Este tipo de resultados refuerzan la idea de que las preferencias robustas, cuando se enfrentan a la incertidumbre en el modelo, requieren de representaciones y medidas específicas que mantengan la coherencia en contextos de incertidumbre y variabilidad en las predicciones. La comprensión de estos teoremas es fundamental para la creación de modelos matemáticos que reflejen decisiones bajo condiciones de riesgo, sin perder la consistencia de las evaluaciones de preferencia frente a diferentes tipos de incertidumbre modelística.