Superhedging är en strategi som tillämpas för att säkra en framtida betalning i situationer där marknaden är ofullständig, det vill säga när det inte finns en perfekt hedge tillgänglig för att täcka hela risken. I en sådan miljö, där vanliga hedgingmetoder inte fungerar effektivt, är superhedging ett sätt att minimera potentiella förluster genom att överkompensera för riskerna. Det betyder att även om en perfekt hedge inte är möjlig, kan man ändå skapa en portfölj som täcker alla möjliga utfall, men till en potentiellt högre kostnad. Detta säkerställer att vi aldrig kommer att stå utan skydd om marknaden utvecklas oväntat.

Ett klassiskt exempel på hur superhedging tillämpas är genom att köpa upp derivatinstrument som har en inneboende värdeskyddande egenskap. Ett sådant instrument kan vara en up-and-in eller up-and-out option, som anpassas efter specifika tröskelvärden. Genom att konstruera strategier baserade på dessa instrument kan vi maximera våra chanser att lyckas hedga en viss position samtidigt som vi bibehåller en acceptabel nivå på risk och kostnad.

En intressant aspekt av superhedging är dess användning i relation till barriärer som definierar när en viss position "aktiveras". Om vi till exempel har en barrier på en viss aktiekurs, kommer vi endast att genomföra en transaktion när den prisnivån passeras. Detta skapar ett effektivt sätt att styra risk, men innebär också att vi kan behöva anpassa våra positioner efter förändringar på marknaden för att bibehålla ett tillräckligt skydd.

I den ekonomiska modellen som beskrivs i de teorem och bevis vi tittar på, skapas en martingal som kan användas för att beräkna det förväntade värdet av en position givet vissa marknadsförhållanden. Detta gör det möjligt att fastställa exakta nivåer där hedgingstrategin bör förändras beroende på om marknaden går mot de nivåer som definieras av barriererna.

Vidare diskuteras också kvantilehedging, som är en strategi som fokuserar på att maximera sannolikheten för att en position inte hamnar utanför ett givet intervall. Denna metod minskar risken för stora förluster och ger en effektivare lösning på det problem som uppstår när den fullständiga marknadsdatan inte är tillgänglig. Målet här är att hitta en balans mellan kostnader och säkerhet genom att utforma hedgingstrategier som fokuserar på att minimera risken för "shortfalls", det vill säga när en position inte räcker för att täcka en förlust.

Det är också viktigt att förstå att superhedging och kvantilehedging, även om de erbjuder skydd mot marknadsrisken, kommer med en högre kostnad jämfört med traditionella metoder. Därför är det av stor vikt att noggrant överväga de specifika förutsättningarna för marknaden innan en sådan strategi genomförs, särskilt när det gäller hur barrierer och stop-loss nivåer sätts upp.

Denna typ av hedgingstrategi är inte utan sina utmaningar. Att skapa en sådan strategi kräver en djup förståelse för de marknader där den tillämpas, samt förmågan att analysera de osäkerheter som finns i varje enskilt scenario. Det är också viktigt att ha i åtanke att vissa av dessa metoder är mer lämpade för vissa typer av risker än andra, och att det finns olika sätt att anpassa strategierna beroende på marknadens dynamik.

För att tillämpa superhedging effektivt måste man kunna identifiera de exakta villkor som styr marknaden och förstå hur olika derivat kan användas för att maximera säkerheten i en portfölj. Dessutom måste man vara medveten om att det inte finns några garantier för att den valda strategin alltid kommer att lyckas, även om risken för förlust kan minimeras.

Superhedging handlar i slutändan om att hitta en balans mellan kostnad och skydd. Det är en metod för att navigera i en osäker värld där de vanliga hedgingverktygen inte är tillräckliga, och där det krävs innovativa lösningar för att skydda sina investeringar mot oförutsedda marknadsrörelser.

Hur kan robusta preferenser hanteras i ett osäkert modelleringsparadigm?

När man diskuterar preferenser i en osäker värld där agenten möter modelleringsosäkerhet, måste vi tänka på hur val, mellan olika lotterier eller osäkra utfall, formas av agentens attityd mot osäkerhet. Specifikt handlar det om att förstå hur agenten svarar på olika former av risk och osäkerhet i sina beslut, särskilt när den framtida modellen inte kan förutses exakt. Ett centralt begrepp i detta sammanhang är robusta preferenser – preferenser som tillåter agenten att bevara konsistens i sina val även under osäkra och föränderliga omständigheter.

En möjlig representation av preferenser i denna typ av osäkra sammanhang är att använda funktionalen U~(X~)Ũ(X̃), där X~ representerar ett lotteri eller en osäker situation. Denna funktional baseras på en infimum (lägsta värde) av ett förväntat värde över alla sannolikhetsmått QQ, som ligger inom ett visst intervall Q:={qδ1+(1q)δ0aqb}Q := \{ q \delta_1 + (1 − q) \delta_0 | a \leq q \leq b \}, där δ0\delta_0 och δ1\delta_1 representerar deterministiska resultat, och pp är en parameter som styr hur sannolikt det är att agenten väljer det ena eller andra alternativet.

En viktig aspekt av robusta preferenser är att de bör uppfylla två axiom: osäkerhetsaversion och självständighet av visshet. Osäkerhetsaversion innebär att om två alternativ X~ och Y~ är lika, så föredrar agenten en kombination av dessa i stället för att bara välja ett av dem. Med andra ord föredrar agenten att hantera en viss osäkerhet i förväg, vilket reducerar den totala osäkerheten. I praktiken innebär detta att när agenten blandar två osäkra alternativ, tenderar han eller hon att föredra resultatet där osäkerheten minskas, istället för att förlita sig på en enskild osäker variant.

Det andra viktiga axiom, självständighet av visshet, handlar om att preferenser för att kombinera osäkra lotterier inte ska förändras om en säker alternativ läggs till. Om agenten föredrar X~ framför Y~, så ska den preferensen fortfarande gälla när en tredje osäker variant Z~ kombineras med båda alternativen, förutsatt att Z~ är osäkert i samma omfattning för båda alternativen.

I praktiken innebär detta att agentens val är robust mot förändringar i den specifika modelleringen av osäkerheten, så länge som den grundläggande strukturen av osäkerhet inte ändras fundamentalt. Därför blir det också viktigt att inse att denna typ av preferensrepresentation inte nödvändigtvis söker efter en exakt modell utan snarare en form av "värsta fall" representation där man inte förlitar sig på osäkra förutsägelser men fortfarande söker efter ett optimalt beslut inom ramarna för osäkerheten.

En annan aspekt av robusta preferenser är kontinuiteten och monotoniciteten av preferensordningen. Om ett alternativ X~ är svagare än ett annat Y~ enligt någon sannolikhetsmått, och om vi ser till en kontinuerlig förändring mellan alternativen, så måste preferenserna också förändras på ett kontinuerligt sätt. Detta är viktigt för att säkerställa att agentens val inte gör några plötsliga eller irrationella hopp i preferenser när modellen förändras lite grann.

Vidare, om agenten föredrar X~ framför Y~, då ska även X~ fortsätta vara föredraget när en viss osäkerhet (representerad av ett säkert lotteri Z~) introduceras, så länge som Z~ inte förändrar preferensordningen dramatiskt. Detta ger också stöd för att fatta beslut i mer komplexa och oförutsägbara miljöer.

En annan aspekt som ska beaktas är den möjligheten att agenter i dessa sammanhang kan föredra en form av hedging. Hedging innebär att agenten söker att skydda sig mot möjliga negativa utfall genom att diversifiera sina alternativ. Ett exempel kan vara att, trots att två scenarier verkar lika sannolika, kan agenten fortfarande föredra att kombinera dessa med ett riskfritt alternativ för att minska den totala osäkerheten.

Det finns även vissa problem som kan uppstå om vi försöker applicera en fullständig självständighet axiom i alla situationer. Till exempel, om agenten har en preferens för att hedga mot ett osäkert scenario, kan det hända att en strikt tillämpning av självständighetsteorin leder till felaktiga eller orealistiska val. I dessa fall behövs en modifiering av axiomens strikthet, vilket leder oss till begreppet "comonotonic independence", där preferenser för ett osäkert lotteri kan vara beroende av dess relation med andra lotterier, men endast om dessa är komonotona, det vill säga de delar en gemensam riskstruktur.

Det är också viktigt att notera att även om dessa preferenssystem verkar ganska teoretiska, så är de användbara i många praktiska beslutssituationer, särskilt när vi hanterar risker och osäkerheter i beslut som inte kan modelleras exakt. Det är därför som teorier om robusta preferenser är så viktiga när vi ser på hur människor och ekonomiska aktörer gör val i verkliga livet när de ställs inför osäkerhet.

Hur riskmått och deras acceptanssätt påverkar riskhantering och investering

Riskhantering är en central del inom finans och investeringar, och för att kunna mäta och hantera risker används olika typer av riskmått. Ett sådant riskmått kan beskrivas som en funktion som tilldelar varje finansiellt position (eller portfölj) ett tal som reflekterar positionens risk. Riskmåttet kan definieras som en monetär funktion, där målet är att beskriva och kvantifiera risken som en kapitalmängd som kan krävas för att undvika obehagliga förluster. I denna kontext, när ett extra belopp m investeras på ett riskfritt sätt, minskas den totala risken med m. En funktion som är monotont och uppfyller vissa villkor kan beskriva ett riskmått som definieras som ρ(X) = ρ̃((1 + r)X), där r är den avkastning som uppnåtts.

Lipschitz-kontinuitet och riskmått

Ett viktigt kännetecken för monetära riskmått är att de är Lipschitz-kontinuerliga, vilket innebär att skillnaden mellan två riskmått, ρ(X) och ρ(Y), kan begränsas av normdifferensen mellan X och Y. Detta betyder att när riskmåtten beräknas för två olika positioner, så kommer skillnaden mellan riskmåtten inte att överstiga avståndet mellan positionerna i den norm vi använder. Denna egenskap är väsentlig då den hjälper till att stabilisera riskbedömningen, vilket i sin tur är avgörande för att säkerställa att riskhantering inte leder till osäkra beslut eller överdrivna förluster.

Konvexa riskmått och diversifiering

Ett konvex riskmått definieras som ett riskmått som uppfyller en viss egenskap som kallas för konvexitet: när man skapar en ny portfölj som är en linjärkombination av två ursprungliga portföljer, så ska risken för denna nya portfölj inte vara större än den vägda genomsnittliga risken för de ursprungliga portföljerna. Detta återspeglar idén att diversifiering inte ska öka risken. Om vi investerar en del λ av vårt kapital i en strategi X och den resterande delen (1-λ) i en annan strategi Y, så innebär konvexitet att den nya positionen λX + (1-λ)Y inte kommer att innebära en större risk än genomsnittet av riskerna för X och Y.

Denna egenskap är särskilt viktig för investerare eftersom den ger en matematisk grund för att diversifiering i allmänhet ses som en riskreducerande strategi. För ett riskmått som är konvext, finns det även en svagare form av denna egenskap, känd som kvasi-konvexitet, där risken för den nya portföljen inte blir större än det maximala värdet av risken för X och Y individuellt.

Koherenta riskmått och positiva homogeniteter

Vidare utvecklas riskmåtten till så kallade koherenta riskmått genom att de uppfyller egenskaper som positiv homogenitet och subadditivitet. Positiv homogenitet innebär att om kapitalet multipliceras med ett positivt tal λ, så multipliceras även riskmåttet med samma faktor λ. Det innebär att ett koherent riskmått är normaliserat, så att ρ(0) = 0. Subadditivitet å andra sidan innebär att riskmåttet för en sammansatt position är mindre än eller lika med summan av riskmåtten för de individuella positionerna.

Dessa egenskaper gör riskmåttet användbart i situationer där risk måste hanteras decentraliserat, såsom när olika delar av en organisation tilldelas olika riskgränser. Sammanfattningsvis, koherenta riskmått hjälper till att skapa en stabil och förutsägbar ram för riskbedömning och säkerställer att risken inte ökar på ett icke-linjärt sätt när positionerna blir större.

Acceptanssätt och deras roll i riskhantering

Varje monetärt riskmått ρ definierar en uppsättning av acceptabla positioner, Aρ, som består av de positioner där riskmåttet är mindre än eller lika med noll. Dessa positioner är acceptabla i den meningen att de inte kräver ytterligare kapital för att hanteras. Acceptanssättet har därför en central roll i att bestämma vilka positioner som kan anses som säkra eller tillräckligt säkra för att undvika förluster.

För att kunna analysera acceptanssättet, definieras funktioner som beskriver det minimala kapitalbehovet för att en viss position ska bli acceptabel. Detta kapitalbehov är avgörande för att fatta informerade beslut om investeringar och riskhantering. Om vi exempelvis har en acceptanssats A, så kan vi definiera kapitalbehovet för en position X som det minsta belopp m för vilket m + X blir acceptabelt enligt A.

Därför kan riskmåttet återvinnas från acceptanssättet genom att definiera det som inf{m ∈ ℝ | m + X ∈ A}. Om A är ett konvex acceptanssätt, innebär det att riskmåttet är konvext. På samma sätt, om A är en kon, så innebär det att riskmåttet är positivt homogent och därmed koherent.

Viktiga tillägg

För att förstå riskmått och deras acceptanssätt fullt ut, är det viktigt att beakta den underliggande strukturen hos de olika typerna av riskmått. För investerare handlar det inte bara om att mäta risk på ett exakt sätt utan även om att skapa en metod för att hantera och minska risker genom olika strategier, såsom diversifiering och begränsning av positioner. Samtidigt är det avgörande att förstå att riskhantering ofta innebär att balansera mellan olika typer av risker och att försöka optimera den avkastning som kan uppnås i relation till den risk som tas. Det är också viktigt att komma ihåg att medan konvexa och koherenta riskmått erbjuder starka matematiska egenskaper, kan det finnas situationer där dessa mått inte ger den bästa lösningen för specifika riskhanteringsbehov.

Hur konvexa riskmått fungerar på L∞ och deras tillämpningar i finansiell riskhantering

För alla λ0\lambda \geq 0 gäller att λY+ρ(0)Aρ\lambda Y + \rho(0) \in A_{\rho}. Därför följer att <γ<(λY+ρ(0))=λ(Y)+(ρ(0))-\infty < \gamma < \ell(\lambda Y + \rho(0)) = \lambda \ell(Y) + \ell(\rho(0)). Detta innebär att (Y)0\ell(Y) \geq 0 när λ\lambda \to \infty, vilket i sin tur leder till att Z0Z \geq 0 med sannolikhet 1. Vidare gäller att P[Z>0]>0P[ Z > 0 ] > 0 eftersom \ell inte är noll. Därmed definieras en sannolikhetsmått Q0M1(P)Q_0 \in M_1(P) som dQ0Z/dP:=E[Z]dQ_0 Z / dP := E[ Z ]. Enligt (4.37) följer att:

minβα(Q0)=supEQ[Y]=E[Y]\min \beta \alpha (Q_0) = \sup E_Q [ -Y ] = -E[Y]

För alla XAρX \in A_{\rho}, och detta leder till att m+Xm + X måste tillhöra AρA_{\rho}, vilket innebär att mρ(X)m \geq \rho(X). Denna teorem visar att alla konvexa riskmått på LL_{\infty}, som är kontinuerliga från ovan, uppstår på följande sätt. Vi överväger ett sannolikhetsmodell QM1(P)Q \in M_1(P), men dessa modeller tas mer eller mindre på allvar enligt den bestraffningsfunktion som används. Därmed beräknas värdet ρ(X)\rho(X) som worst-case scenariot över alla modeller QM1(P)Q \in M_1(P), där förlusten EQ[X]E_Q[-X] minskas med α(Q)\alpha(Q).

Som ett exempel, låt oss överväga bestraffningsfunktionen α:M1(P)(0,]\alpha : M_1(P) \to (0, \infty] definierad av:

α(Q):=βH(QP)\alpha(Q) := \beta H(Q|P)

där β>0\beta > 0 är en given konstant och H(QP)=E[logdQdP]H(Q|P) = E[ \log \frac{dQ}{dP} ] är den relativa entropin för QM1(P)Q \in M_1(P) med avseende på PP. Det motsvarande entropiska riskmåttet ρβ\rho_{\beta} ges då av:

ρβ(X)=supQM1(P)(EQ[X]βH(QP))\rho_{\beta}(X) = \sup_{Q \in M_1(P)} \left( E_Q[-X] - \beta H(Q|P) \right)

Enligt variationalprincipen för den relativa entropin, som beskrivs i Teorem C.5, kan vi visa att:

EQ[X]βH(QP)βlogE[eβX]E_Q[-X] - \beta H(Q|P) \leq \beta \log E[e^{ -\beta X}]

och att övre gränsen uppnås av måttet med densiteten eβX/E[eβX]e^{ -\beta X}/E[e^{ -\beta X}]. Således får det entropiska riskmåttet formen:

ρβ(X)=βlogE[eβX]\rho_{\beta}(X) = \beta \log E[e^{ -\beta X}]

Det är viktigt att notera att α\alpha faktiskt är den minsta bestraffningsfunktionen som representerar ρβ\rho_{\beta}, eftersom Teorem C.5 implicerar att min(Q)=sup(EQ[X]logE[eβX])=βH(QP)\min (Q) = \sup (E_Q[-X] - \log E[e^{ -\beta X}]) = \beta H(Q|P).

Ett finansiellt exempel på det entropiska riskmåttet, i termer av risk för underskott, kommer att diskuteras i Exempel 4.125.

För att förstå de praktiska tillämpningarna av detta riskmått är det centralt att notera att det entropiska riskmåttet konvergerar till det sämsta möjliga riskmåttet när β\beta \to \infty och till den förväntade förlusten under PP när β0\beta \to 0. Detta innebär att riskmåttet kan justeras för att anpassa sig till olika nivåer av osäkerhet i den underliggande modellen.

En annan viktig aspekt är att det entropiska riskmåttet inte är koherent för något β(0,)\beta \in (0, \infty). För ett XLX \in L_{\infty} som har en positiv förväntan men också bär på en viss nedåtgående risk (det vill säga E[X]>0E[X] > 0 och P[X<0]>0P[X < 0] > 0), kan λX\lambda X vara acceptabelt för små λ>0\lambda > 0, men inte för stora λ\lambda. Därmed är inte acceptanssättet AρA_{\rho} en konvex mängd. Denna egenskap är central för att förstå hur riskmåtten kan reagera på stora förändringar i osäkerheten.

Den konvexa riskmåttet ρβ\rho_{\beta} är inte koherent för alla β(0,)\beta \in (0, \infty), men det är kontinuerligt från ovan, vilket gör att det kan användas för att studera risker på ett mer gradvis sätt genom att justera β\beta.

En korollär till detta är att konvexa riskmått på LL_{\infty} som är kontinuerliga från nedan också uppfyller Lebesgue-egenskapen, vilket innebär att ρ(Xn)ρ(X)\rho(X_n) \to \rho(X) när XnX_n är en begränsad sekvens i LL_{\infty} som konvergerar till XX nästan säkert. Detta innebär att riskmåttet är stabilt under vissa typer av konvergens, vilket är en viktig egenskap vid simuleringar och modellering av finansiell risk.

För de riskmått som är koherenta, kan vi representera dem som en mängd QM1(P)Q \subset M_1(P) om och endast om de villkor som beskrivs i Teorem 4.33 är uppfyllda. I detta fall är den maximala representerande delmängden QmaxM1(P)={QM1(P)α(Q)=0}Q_{\text{max}} \cap M_1(P) = \{Q \in M_1(P) | \alpha(Q) = 0\}.

Ett exempel på ett koherent riskmått är det så kallade worst-case riskmåttet, vilket tar formen:

ρmax(X):=ess infX=inf{mRX+m0 P-a.s.}\rho_{\text{max}}(X) := -\text{ess inf} X = \inf \{ m \in \mathbb{R} | X + m \geq 0 \ P\text{ -a.s.} \}

Detta mått är koherent och uppfyller Fatou-egenskapen, vilket innebär att det är stabilt för gränsvärden och kan användas för att modellera extremvärden i finansiella data.

Slutligen kan vi överväga exempel på riskmått som är representerade genom divergensmått, såsom g-divergens:

Idg(QP):=E[g(dQdP)],QM1(P)I_d g(Q|P) := E[g\left( \frac{dQ}{dP} \right)], \quad Q \in M_1(P)

Denna divergens kvantifierar avvikelsen från den referensmodell PP och används för att skapa riskmått som är mer flexibla än de entropiska riskmåtten, beroende på valet av funktion gg.