En los mercados financieros, la cobertura es una estrategia utilizada para reducir el riesgo asociado con una posición financiera. Sin embargo, la cobertura perfecta, que elimina completamente el riesgo, puede ser costosa o inviable en muchos casos. Por ello, surge la necesidad de encontrar una solución que optimice la probabilidad de éxito en la cobertura, sin tener que comprometer grandes sumas de capital inicial. A esta estrategia se le conoce como cobertura de cuantiles.
Imaginemos un mercado libre de arbitraje donde se encuentra una reclamación europea descontada . Dicha reclamación cumple con la condición y su precio de supercobertura es finito, es decir, . Este precio de supercobertura representa la cantidad mínima que debe invertirse para cubrir todo el riesgo de la reclamación . En términos prácticos, sin embargo, este monto puede ser excesivamente alto, lo que limita su viabilidad económica.
En este contexto, el vendedor de podría no estar dispuesto a invertir la cantidad inicial necesaria para realizar una supercobertura. En cambio, podría optar por aceptar cierto riesgo y realizar una cobertura parcial, donde el objetivo es maximizar la probabilidad de que la cobertura sea exitosa, dado un capital inicial limitado.
La clave para abordar esta problemática radica en encontrar una estrategia de cobertura que maximice la probabilidad de éxito bajo una restricción en el costo inicial de la cobertura. Supongamos que el vendedor tiene un capital inicial . El objetivo es encontrar una estrategia de trading autofinanciada cuyo proceso de valor maximice la probabilidad , sujeto a la restricción de que el capital inicial no supere y que la estrategia sea admisible, es decir, que para .
Este problema se puede formular como una maximización de la probabilidad de éxito de la estrategia de cobertura, en términos de una medida de riesgo denominada Value at Risk (VaR), que se centra exclusivamente en la probabilidad de que se produzca un déficit (una "falta" en el valor de la cobertura), sin considerar el tamaño de la pérdida si esta ocurre. Este enfoque de cobertura de cuantiles se basa en minimizar la probabilidad de corto fallo, pero no necesariamente tiene en cuenta el impacto de dicho fallo.
En modelos de mercado completo, el conjunto de éxito asociado con una estrategia de cobertura, es decir, el conjunto , se puede construir de forma que maximice esta probabilidad. En este caso, el enfoque se basa en la aplicación de la medida equivalente martingala , y la optimización consiste en buscar el conjunto que maximice la probabilidad bajo la restricción de que .
Cuando se trata de mercados incompletos, la estrategia de cobertura puede no ser tan directa. Sin embargo, los principios generales siguen siendo válidos, y la clave está en identificar el conjunto de éxito que maximiza la probabilidad de cobertura. Aquí es donde entra en juego el Lema de Neyman-Pearson, que se utiliza para maximizar la probabilidad de un conjunto bajo una restricción de riesgo, formulada en términos de la medida . Este enfoque permite encontrar la estrategia óptima de cobertura cuando no es posible encontrar una cobertura perfecta.
En términos prácticos, la solución óptima se logra mediante una estrategia de réplica de una opción knock-out, lo que implica una selección estratégica de las condiciones de mercado para lograr la máxima probabilidad de éxito dentro de las limitaciones del capital disponible.
Es crucial entender que, aunque la cobertura de cuantiles maximiza la probabilidad de evitar pérdidas, no tiene en cuenta el tamaño de las pérdidas que podrían ocurrir si la cobertura falla. Esto implica que, si bien la estrategia minimiza la probabilidad de que se produzca un déficit, no necesariamente protege contra grandes pérdidas en caso de que el riesgo no se materialice como se espera. Por lo tanto, en muchas situaciones prácticas, podría ser más apropiado considerar otros criterios de optimización que tomen en cuenta tanto la probabilidad de corto fallo como el tamaño de las pérdidas en caso de fallo.
¿Cómo se puede construir una representación de von Neumann-Morgenstern para preferencias en distribuciones?
La teoría de decisiones y las preferencias en los sistemas probabilísticos pueden modelarse adecuadamente utilizando la representación de von Neumann-Morgenstern. Este tipo de representación se basa en la noción de utilidad numérica, que permite transformar las preferencias sobre eventos inciertos en valores numéricos, lo cual es fundamental para la toma de decisiones en entornos de incertidumbre.
La representación de von Neumann-Morgenstern se establece bajo el supuesto de que existe una función de utilidad tal que, dada una distribución de probabilidad , se puede expresar como una combinación convexa de las utilidades de los elementos del espacio de probabilidades. Es decir, si es una medida de probabilidad, la utilidad se determina sumando las utilidades de los valores de la medida, ponderados por la probabilidad de cada uno. Esta representación, aunque de carácter teórico, tiene implicaciones prácticas muy relevantes.
El resultado principal de este enfoque es que las preferencias de un agente sobre diferentes distribuciones de probabilidad pueden ser modeladas numéricamente mediante una función de utilidad, y que esta representación es única hasta transformaciones afines positivas. Este hecho se conoce como el Teorema de Representación de von Neumann-Morgenstern.
Un caso particular importante surge cuando el conjunto de medidas de probabilidad se limita a un conjunto finito . En este caso, cada medida de probabilidad es simple, lo que implica que las utilidades pueden ser representadas de manera sencilla y única dentro de una transformación afín. Un corolario importante de este resultado establece que, si es el conjunto de todas las distribuciones de probabilidad sobre un conjunto finito y es una relación de preferencias sobre que satisface los axiomas de Archimedeano e independencia, entonces existe una representación de von Neumann-Morgenstern única, hasta transformaciones afines positivas.
Para demostrar este teorema, se recurre a un lema auxiliar que establece que la combinación convexa de distribuciones de probabilidad se comporta de manera monótona con respecto a la relación de preferencias . Este lema garantiza que las combinaciones convexas de medidas de probabilidad siguen la misma relación de preferencia. Además, si las preferencias son indiferentes, el análisis de las combinaciones convexas de distribuciones permite definir de manera precisa la utilidad de las distribuciones intermedias.
La parte más crucial de este desarrollo es la existencia de una representación numérica de las preferencias, definida a través de una función . Dada una distribución , la utilidad asociada a es simplemente el valor de , que puede interpretarse como un índice numérico que refleja la preferencia del agente sobre la distribución . Esta representación es útil porque permite comparar de manera numérica diferentes distribuciones de probabilidad y tomar decisiones informadas.
Por otro lado, si se desea extender esta representación a espacios más generales que involucren medidas de probabilidad más complejas, como en el caso de un conjunto infinito , el proceso se complica considerablemente. Aunque el teorema de von Neumann-Morgenstern garantiza la existencia de representaciones en el caso finito, en el caso de un conjunto infinito pueden surgir dificultades, y en algunos casos, no es posible encontrar una representación adecuada. Esto se debe a que la estructura de las distribuciones de probabilidad sobre espacios infinitos puede ser más compleja y no siempre es compatible con los axiomas utilizados en la representación de von Neumann-Morgenstern.
Como ejemplo, se puede considerar el conjunto de todas las medidas de probabilidad sobre el conjunto , donde la utilidad se define como , donde es la probabilidad de que el valor ocurra en la distribución . En este caso, es una función afín que induce una relación de preferencia sobre , que satisface ambos axiomas: el de Archimedeano y el de independencia. Sin embargo, como se demuestra en el ejercicio propuesto, esta función no admite una representación de von Neumann-Morgenstern.
Este fenómeno destaca una diferencia importante entre los espacios finitos e infinitos: mientras que las representaciones de von Neumann-Morgenstern son fáciles de definir y aplicar en espacios finitos, en espacios infinitos la situación es más compleja y puede que no sea posible encontrar una representación adecuada en algunos casos.
Además, el hecho de que la representación de von Neumann-Morgenstern sea única hasta transformaciones afines positivas implica que cualquier otra función de utilidad que represente las mismas preferencias puede ser obtenida mediante una transformación lineal positiva. Esto hace que la representación sea robusta frente a cambios de escala y permite que se mantenga la coherencia entre diferentes modelos y contextos de toma de decisiones.
Es importante señalar que la extensión de esta representación a espacios más generales, como el caso de las distribuciones de probabilidad sobre espacios continuos, puede involucrar conceptos avanzados como la descomposición de Lebesgue. Este tipo de descomposición permite representar una medida de probabilidad como una combinación de medidas más simples, lo que puede ser útil para entender cómo se pueden construir representaciones en espacios más complejos.
Finalmente, aunque la teoría de von Neumann-Morgenstern es poderosa, su aplicación práctica se ve limitada cuando se trata de distribuciones de probabilidad sobre conjuntos infinitos o distribuciones con propiedades no convencionales. Este es un área de investigación activa, donde se buscan generalizaciones y nuevas herramientas para manejar las preferencias en contextos más complejos.
¿Cómo se relaciona la ausencia de arbitraje con la existencia de una cartera óptima en mercados financieros?
En el estudio de la optimización de carteras, una condición fundamental para garantizar la existencia de una estrategia óptima que maximice la utilidad esperada es la ausencia de oportunidades de arbitraje en el modelo de mercado. Consideremos una función de utilidad definida sobre un dominio , con restricciones del tipo casi seguro, donde representa el vector de posiciones en activos riesgosos y el vector aleatorio de rendimientos. La utilidad esperada debe ser finita para todo portafolio admisible .
Para funciones de utilidad típicas, como la exponencial , o aquellas con dominios restringidos como las funciones logarítmicas desplazadas o las funciones de potencia con parámetro , se cumplen las condiciones de integrabilidad necesarias para que la utilidad esperada sea finita. Esta integrabilidad se asegura cuando el vector de rendimientos tiene esperanza de valor absoluto finita, pues toda función cóncava puede ser acotada superiormente por una función afín.
El conjunto de portafolios admisibles contiene todos los vectores tales que casi seguro. Cuando , este conjunto coincide con . El objetivo es encontrar un que maximice la utilidad esperada. La existencia de tal está intrínsecamente ligada a la estructura del mercado y, más específicamente, a la ausencia de arbitraje.
El teorema central establece que existe un portafolio óptimo que maximiza la utilidad esperada si y solo si el mercado es libre de arbitraje. Además, bajo una condición de no redundancia del modelo (es decir, que no existan activos cuya información sea superflua), este máximo es único debido a la estricta concavidad de la función de utilidad esperada respecto a .
La prueba descansa en identificar el subespacio de vectores que anulan casi seguro, y su ortogonal , en donde el problema puede ser reformulado sin redundancias. Si existiera arbitraje, se podría aumentar indefinidamente la utilidad añadiendo un portafolio que garantice rendimientos no negativos y no nulos, contradiciendo la optimalidad del supuesto .
El caso en que el dominio con conduce a la compacidad del conjunto . Esto se prueba mostrando que es cerrado y acotado. La acotación se obtiene por reducción al absurdo: una secuencia de portafolios con norma creciente que mantengan la restricción implicaría la existencia de un portafolio de arbitraje, lo cual no es posible. La continuidad de la función de utilidad esperada sobre , combinada con la compacidad, garantiza la existencia del máximo.
Para dominios con funciones de utilidad acotadas superiormente, se utiliza un enfoque basado en funciones convexas y semicontinuas inferiores. Definiendo , la existencia de un minimizador de (equivalente al maximizar la utilidad) depende de una condición de coercividad: para todo . Esta condición refleja la imposibilidad de obtener rendimientos arbitrariamente altos sin riesgo negativo, garantizando de nuevo la ausencia de arbitraje.
La equivalencia entre la ausencia de arbitraje y la coercividad de se deduce del hecho de que, para funciones estrictamente crecientes y cóncavas, los portafolios con probabilidad positiva de pérdidas ilimitadas llevan la utilidad esperada a menos infinito cuando se amplifican. Por ende, la coercividad implica que no existen vectores que puedan explotarse indefinidamente sin riesgo negativo, y viceversa.
Se demuestra también que las condiciones técnicas sobre la función permiten asegurar que la utilidad esperada está acotada por funciones dominantes integrables, facilitando la aplicación de teoremas de convergencia dominada para validar la semicontinuidad y la existencia de máximos.
Es crucial comprender que la ausencia de arbitraje no es simplemente una condición técnica abstracta, sino la piedra angular que garantiza que el problema de optimización financiera sea bien planteado y resoluble. Si el mercado admitiera arbitraje, los inversores podrían obtener beneficios ilimitados sin riesgo, eliminando la existencia de una solución óptima racional.
Además, la unicidad del portafolio óptimo bajo no redundancia implica estabilidad y predictibilidad en la toma de decisiones financieras, evitando múltiples soluciones equivalentes que dificultarían la implementación práctica.
Más allá del formalismo matemático, la interpretación económica subyacente señala que los mercados eficientes, donde no existen oportunidades de arbitraje, permiten que los inversores optimicen sus carteras basándose en preferencias y riesgos, sin la distorsión de beneficios garantizados sin costo. Esto fundamenta la teoría moderna de carteras y modelos financieros contemporáneos.
Para el lector es importante considerar también que la elección de la función de utilidad, y su dominio, reflejan distintos comportamientos y aversiones al riesgo, influyendo en la forma y existencia de la solución óptima. El entendimiento de estas funciones y sus propiedades matemáticas resulta fundamental para aplicar correctamente los resultados a casos concretos.
Además, la compactación del conjunto admisible y la continuidad de la utilidad esperada son conceptos claves que aseguran la robustez del modelo frente a perturbaciones y cambios en las condiciones de mercado.
En definitiva, la relación entre la ausencia de arbitraje y la existencia de carteras óptimas muestra cómo las condiciones del mercado afectan directamente la viabilidad y estabilidad de las estrategias de inversión, subrayando la importancia de un análisis riguroso tanto desde el punto de vista financiero como matemático.
¿Cómo se representan los riesgos coherentes de manera invariante a la ley?
Los riesgos coherentes son medidas fundamentales en la teoría de riesgos financieros, proporcionando una forma de evaluar las pérdidas o ganancias bajo condiciones de incertidumbre. En este contexto, se exploran las representaciones matemáticas de estas medidas a través de distribuciones de probabilidad y sus correspondientes transformaciones. Un enfoque clave para comprender estas medidas es la noción de invariancia a la ley, que establece que el riesgo de una variable aleatoria no debe depender de la forma específica en que se presenta, sino solo de su distribución de probabilidad.
Para entender cómo se representa un riesgo coherente, consideremos que existe una correspondencia entre las funciones de densidad y las medidas de probabilidad. Un ejemplo relevante es el uso de funciones cuantil y sus integrales, como se describe en el teorema de representación 4.68. Este teorema establece que una medida de riesgo coherente es invariante a la ley si y solo si su representación se puede expresar a través de un valor máximo de integrales ponderadas por medidas de probabilidad específicas. La medida más común en este contexto es el valor en riesgo (VaR), que se utiliza para estimar las pérdidas extremas en un portafolio financiero. A través de un cambio de variables y la aplicación de integrales de Choquet, se puede obtener una medida coherente del riesgo, permitiendo evaluar las situaciones bajo incertidumbre con mayor precisión.
El concepto de "invariancia a la ley" se refiere a que el valor de una medida de riesgo no debe verse afectado por transformaciones no esenciales de las variables aleatorias, siempre que estas transformaciones no alteren la distribución de probabilidad. Así, si dos variables aleatorias tienen la misma distribución, entonces sus medidas de riesgo coherente, como el VaR, deberían coincidir. Este principio asegura que las medidas de riesgo reflejan únicamente las propiedades fundamentales de las distribuciones subyacentes y no dependen de representaciones particulares de las variables.
Un aspecto crucial que emerge de esta discusión es la relación entre las medidas de riesgo y la noción de dominancia estocástica, que permite ordenar las distribuciones de probabilidad de acuerdo con el riesgo que representan. El principio de dominancia estocástica de primer orden establece que, si una distribución domina estocásticamente a otra, la primera tendrá un menor valor de riesgo bajo cualquier medida coherente. Este orden de dominancia está directamente relacionado con la invarianza a la ley de las medidas de riesgo coherentes, pues garantiza que, si una variable aleatoria domina estocásticamente a otra, la medida de riesgo será más favorable para la primera.
Además, un riesgo coherente también debe ser monótono bajo el orden cóncavo, lo que implica que si una variable aleatoria tiene una distribución que se puede representar como una distorsión cóncava de la probabilidad, su medida de riesgo será más pequeña que la de una variable aleatoria que no lo sea. Este tipo de monoticidad refleja una propiedad adicional que resulta de la invariancia a la ley y tiene aplicaciones importantes en el diseño de estrategias de mitigación de riesgos.
En cuanto a la implementación práctica, las medidas de riesgo que son invariantes a la ley pueden ser representadas mediante integrales de Choquet. Estas integrales permiten modelar las pérdidas como una distorsión concava de la medida de probabilidad original, lo cual es útil cuando se desea representar el comportamiento no lineal de los riesgos. La distorsión concava implica que se otorgan más probabilidades a los eventos más frecuentes y menos a los eventos extremos, lo que refleja un comportamiento más conservador ante el riesgo.
Por último, si bien estas representaciones teóricas son útiles para entender los riesgos en un sentido abstracto, en la práctica es fundamental tener en cuenta que las distribuciones de probabilidad que se utilizan en estos modelos deben ser consistentes con la realidad del mercado y la estructura del portafolio. En particular, las distribuciones deben ser "atomless", es decir, no contener puntos de probabilidad discreta, lo que asegura que los resultados de las medidas de riesgo sean aplicables en situaciones reales.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский