I økonometriske analyser er et sentralt problem at forskere ofte forveksler årsak og sammenheng, noe som kan føre til misforståelser og feilslutninger, spesielt når man anvender teknikker som regresjon for å forklare økonomiske fenomener. En vanlig feil i tradisjonelle modeller er at de ikke kan besvare intervensjonsspørsmål, noe som gjør dem lite nyttige for teoriutvikling. En annen svakhet er at disse modellene ikke er konsistente med den kausale betydningen av minste kvadraters regresjon (least-squares) spesifikasjonen, som på et grunnleggende nivå refererer til den kausale tolkningen av estimerte koeffisienter.
For å unngå denne feiltolkningen av sammenhenger som kausalitet, benyttes en tilnærming kalt eksplisitt eksonomitet, hvor det antas at feilleddet (ε) representerer alle årsaker til Y som er ukorrelerte med X. Dette gjør at eksonomiteten blir støttet av et kausalt argument, ikke kun en assosiasjonell definisjon. Når X er tilfeldig tildelt, for eksempel i et randomisert kontrollert eksperiment (RCT) eller et naturlig eksperiment, følger eksonomitet av eksperimentets design. I rent observasjonsstudier er gyldigheten av denne antagelsen avhengig av at modellen er korrekt spesifisert. Under denne tilnærmingen vil det estimerte β-parameteret ha en kausal tolkning, nemlig den forventede verdien av Y gitt en intervensjon som setter verdien til X.
Det å forsvare antagelsen om en korrekt spesifisert modell krever at man kan identifisere en kausal graf som er konsistent med den observerte prøven. Hvis denne informasjonen mangler, mister β sin kausale betydning og blir redusert til en enklere assosiasjonell tolkning, som er utilstrekkelig for å bygge teorier og inkonsistent med minste kvadraters kausale betydning. Økonomer bruker ofte en "ceteris paribus"-forutsetning, som er kompatibel med en kausal tolkning av det estimerte β, hvor modellen simulerer et kontrollert eksperiment. Dette har vært ansett som en viktig utvikling i økonometrisk teori, men det er fortsatt et gap mellom teoretiske prinsipper og praktisk anvendelse.
En annen viktig utfordring er misforståelsen av assosiasjon som kausalitet, som skjer hyppig i økonomisk forskning, spesielt når man bruker metoder som Granger årsakssammenheng. Granger (1969) introduserte en statistisk test som søker å identifisere om X forårsaker Y ved å vurdere om en koeffisient i en regresjonsmodell er signifikant. Problemet med denne tilnærmingen er at den definerer kausalitet i termer av sekvensiell assosiasjon, som er et trekk ved den felles sannsynlighetsfordelingen. Denne tilnærmingen kan ikke etablere kausalitet alene, da kausalitet krever en intervensjonell eller naturlig eksperimentell ramme, eller i fravær av disse, en simulert intervensjon som er rettferdiggjort av en oppdaget eller antatt kausal graf.
For eksempel kan en Granger-test feilaktig indikere at hønens gal (X) forårsaker soloppgang (Y) dersom koeffisienten er statistisk signifikant, men det er enkelt å falsifisere dette ved å stille hønen til å være stille før soloppgang eller tvinge den til å gale på midnatt. Et annet problem med Granger årsakssammenheng er at dersom både X og Y påvirkes av en tredje variabel Z, vil testen fortsatt feilaktig indikere at X forårsaker Y, et klassisk eksempel på konfounding. Denne feilen er spesielt problematisk i multivariate tidsserieanalyser.
En ytterligere utfordring ved Granger-testen er at den er utsatt for seleksjonsbias, da valg av lags kan involvere flere tester på et stort antall mulige spesifikasjoner uten hensyn til en kausal graf, som ved hjelp av algoritmer for stegvis spesifikasjonssøking. I tillegg antar testen at den kausale relasjonen må være lineær, noe som er en forenkling av virkeligheten. Granger årsakssammenheng kan derfor være nyttig som et første steg for å indikere retningen på kausalflyt mellom to ukonfundert variabler, men den kan ikke brukes til å fastslå eksistensen av kausalitet.
I økonomisk teori og praksis, spesielt innen faktorinvestering, har disse misforståelsene om årsak og sammenheng ført til mange feilaktige påstander. For eksempel, mange økonometriske modeller brukt i faktorinvesteringslitteraturen har tatt utgangspunkt i antagelsen om sammenheng uten å vurdere den underliggende kausaliteten. Dette har skapt et fundament som er skjørt og utsatt for feilslutninger. Det er derfor viktig for forskere og praktikere i finanssektoren å forstå den grunnleggende forskjellen mellom assosiasjon og kausalitet og å bruke riktig metodologi for å analysere og forutsi økonomiske fenomener. Forståelsen av kausalitet kan ikke bare forbedre prediksjonene, men også føre til mer pålitelige investeringsstrategier.
Det er også viktig å merke seg at kausalt orienterte metoder som instrumentvariabelmetoden, den differensierte forskjellen (DID)-metoden, og metoder for naturlige eksperimenter i økende grad får betydning i økonomiske studier. For eksempel ble økonomene Joshua Angrist og Guido Imbens tildelt Nobelprisen i økonomi i 2021 for deres metodologiske bidrag til analysen av kausale relasjoner, som setter nye standarder for anvendelse av naturlige eksperimenter i økonometrisk forskning. Dette bør inspirere økonomer og finansanalytikere til å integrere streng kausal resonnering i sine metoder for å unngå feilaktige tolkninger og forbedre kvaliteten på empiriske analyser i faktorinvestering.
Hvordan en Medierende Variabel kan Skape Feilaktige Positive Resultater i Økonometriske Modeller
Når vi bruker statistiske metoder for å analysere økonomiske data, er det viktig å være klar over hvordan medierende variabler (mediatorer) kan påvirke resultatene av analysen. I enkelte tilfeller kan en slik variabel føre til feilaktige positive resultater, også kjent som falske positive. Dette skjer når modellen indikerer en sammenheng mellom to variabler som i virkeligheten ikke eksisterer, som følge av at den medierende variabelen er inkludert i analysen. For å illustrere hvordan dette kan skje, vil vi bruke et eksempel som involverer en forvekslet mediator og en modell som estimerer forholdet mellom to variabler.
I vårt første eksperiment ser vi på et enkelt lineært forhold mellom to variabler, X og Y. Her er X en årsak, og Y er effekten. Vi setter opp en grunnleggende lineær regresjonsmodell for å estimere sammenhengen mellom X og Y. Hvis vi ser på resultatene fra en OLS-regresjon (Ordinary Least Squares), vil vi få en korrekt estimert sammenheng mellom X og Y uten innblanding fra eksterne variabler. Modellen kan se slik ut:
Dette gir oss en god forståelse av forholdet mellom de to variablene uten forstyrrelser.
Derimot, når vi innfører en tredje variabel, Z, som fungerer som en mediator, kan vi få et helt annet resultat. Vi antar at Z er en variabel som både er påvirket av X og påvirker Y, og at den dermed formidler en del av sammenhengen mellom X og Y. Hvis vi inkluderer Z i modellen, kan den mediere effekten av X på Y på en måte som gir oss et feilaktig resultat. Dette kan føre til en falsk positiv, hvor det ser ut som om X har en sterkere effekt på Y enn det egentlig har:
I dette tilfellet kan den medierende effekten av Z føre til at vi overvurderer betydningen av X som årsak til Y, et klassisk eksempel på et falskt positivt resultat.
Denne type feiltolkning er spesielt viktig i økonometriske analyser, hvor feilkilder kan være subtile, men betydelige. Når man arbeider med komplekse datasett og modeller, er det avgjørende å vurdere alle potensielle mediatorer og konfunderende variabler. Ikke bare for å unngå feilaktige konklusjoner, men også for å sikre at modellene som brukes er tilstrekkelig robuste til å gi pålitelige estimater.
I neste steg tar vi for oss et mer komplisert eksperiment der vi inkluderer en forvekslet mediator, W, som kan påvirke både X og Z. Denne ytterligere kompleksiteten kan føre til en enda større utfordring i identifiseringen av de sanne årsakssammenhengene i dataene. Modellen ser slik ut:
Ved å bruke en OLS-modell for å estimere effekten av X på Y, vil vi oppdage at modellen kan gi et korrekt estimat:
Men når vi introduserer Z i modellen, kan vi se at vi får et feilaktig estimat:
I begge eksemplene er det viktig å merke seg at modellen gir feilaktige resultater på grunn av inkluderingen av en mediator som skjuler den virkelige årsak-virkning-sammenhengen.
For å unngå falske positive i slike analyser, er det nødvendig å ha en grundig forståelse av datastrukturen og de underliggende prosessene. Økonometriske modeller bør ikke bare være statistisk valide, men også teoretisk begrunnede, slik at man kan identifisere og kontrollere for de riktige variablene. Feilaktige konklusjoner kan føre til feilaktige økonomiske beslutninger, som i sin tur kan ha store konsekvenser både for forskning og praksis.
I tillegg til den statistiske korrektheten i modellene, er det også viktig å forstå at modellene våre er kun en forenklet representasjon av virkeligheten. De økonomiske prosessene vi prøver å forstå er komplekse, og ofte finnes det flere skjulte variabler som vi ikke har tilgang til eller ikke har tatt hensyn til i analysen. Derfor bør vi være skeptiske til konklusjoner som ikke er tilstrekkelig robuste, og alltid være forberedt på å revidere våre resultater etter videre undersøkelse.
Hvordan Data Science og Evidens kan Transformere Finansiell Forskning og Porteføljestyring
I løpet av de siste tiårene har finansverdenen opplevd en betydelig omveltning som følge av fremveksten av data science og avanserte statistiske metoder. Fra aksjeanalyse til porteføljestyring har mange tidligere tradisjonelle metoder blitt utfordret av kraftige nye verktøy og teknikker. Innenfor dette landskapet er spørsmålet om hvordan evidens og datavitenskap kan bidra til å forme fremtiden for finansforskning og beslutningstaking i porteføljeforvaltning.
En viktig utfordring som ofte oppstår i finansforskning er å sikre at de metodene som benyttes for å analysere markeder og forutsi finansielle resultater er robuste, pålitelige og ikke påvirket av tilfeldige eller systematiske feil. Klassiske økonometriske modeller har vært utsatt for kritikk, spesielt når det gjelder deres evne til å forklare og forutsi markedsanomalier. For eksempel, Fama og Frenchs arbeid (1993) på risikofaktorer i aksje- og obligasjonsavkastning har hatt stor betydning, men har også blitt møtt med kritikk ettersom tradisjonelle faktormodeller ikke alltid fanger opp de kompleksitetene som observeres i markedet. Mange økonomer og finansforskere har derfor argumentert for at det er nødvendig å bruke flere og mer sofistikerte modeller for å forstå markedsbevegelser og investeringsstrategier.
I denne sammenhengen har data science blitt en avgjørende komponent. Den store mengden tilgjengelig finansdata, fra historiske aksjekurser til makroøkonomiske indikatorer, har gjort det mulig å utvikle modeller som tar hensyn til flere variabler samtidig. Dette skaper nye muligheter for å identifisere mønstre som kan være skjult i tradisjonelle modeller. Et relevant eksempel er Bayesiansk statistikk, som gir forskere muligheten til å inkorporere usikkerhet i modellene sine og oppdatere hypoteser basert på ny informasjon, noe som er viktig når man jobber med finansielle tidsserier.
En annen viktig utfordring i dagens finansforskning er hvordan man håndterer problemet med flere tester og feilaktige konklusjoner som kan oppstå når man analyserer store mengder data. Fabozzi og López de Prado (2018) tar for seg denne problematikken og foreslår en mer åpen og ærlig tilnærming til hvordan man rapporterer backtestresultater. Når flere hypotesetester blir utført på samme datasett, øker sannsynligheten for falske positiver, og det er essensielt å bruke metoder som kan kontrollere for denne typen feil. Her kan metoder som Bonferroni-korreksjoner eller mer sofistikerte falsk oppdagelsesrater være avgjørende.
De som ønsker å utvikle mer pålitelige modeller for finansielle beslutninger, må også ta hensyn til modellens underliggende antagelser. Modellene som brukes for å vurdere risiko og avkastning, er bare så gode som de antagelsene som ligger til grunn. For eksempel kan Grangers arbeid (1969) om årsakssammenhenger være nyttig for å forstå hvordan ulike økonomiske variabler påvirker hverandre. Videre må man være forsiktig med multikolinearitet, som kan føre til at koeffisientene i en regresjonsmodell blir forvrengt og gir feilaktige konklusjoner.
Når det gjelder porteføljestyring, er det viktig å merke seg at nye teknikker som maskinlæring har ført til nye tilnærminger til risikostyring og optimalisering. López de Prado (2018) diskuterer hvordan maskinlæring kan brukes til å forutsi markedstrender og bygge mer effektive porteføljer, basert på en mer detaljert forståelse av risikofaktorer og investeringsmuligheter. Maskinlæringsalgoritmer kan finne mønstre i dataene som menneskelige analytikere kanskje overser, og de kan tilpasse seg raskt når nye data blir tilgjengelige.
Likevel er det viktig å erkjenne at data science og evidensbasert forskning ikke er en "magisk løsning". Uansett hvor kraftige teknologiene blir, er det alltid en risiko for overfitting, hvor modeller blir for komplekse og tilpasser seg støy i dataene. Et viktig aspekt ved effektiv bruk av data science i finans er å opprettholde en sunn balanse mellom kompleksitet og forståelse, og å erkjenne at det aldri finnes en "perfekt" modell. En effektiv modell må være både robust og enkel nok til å forstå og forklare de beslutningene den baseres på.
I tillegg bør man være oppmerksom på de etiske dimensjonene ved bruk av data science i finans. Når algoritmer og maskinlæring benyttes for å ta investeringsbeslutninger, kan det oppstå spørsmål om ansvar og transparens. Det er viktig at både forskere og praktikere forholder seg kritisk til hvordan disse verktøyene brukes og at de utvikles med hensyn til langsiktig stabilitet og ansvarlighet i finansmarkedene.
Derfor bør forskning innen finans fortsette å utvikles i en retning der evidensbaserte metoder og datavitenskap er grunnleggende for beslutningsprosessen, men også med en forståelse av de potensielle fallgruvene som følger med kompleksiteten av de modellene som benyttes. Gode metoder og riktige datakilder er ikke nok på egenhånd. Det krever også innsikt og vurdering av de grunnleggende økonomiske mekanismene som driver markedene, samt en bevissthet om hvordan dataene tolkes og anvendes.
Hvordan induktiv resonnering og falsifisering bidrar til utviklingen av vitenskapelige teorier
Induktiv resonnering skjer når, basert på noen premisser, en sannsynlig konklusjon trekkes på en ikke-reduserende måte, ved å generalisere eller ekstrapolere fra spesifikke tilfeller til en generell regel. Bevisene som støtter denne ekstrapoleringen kan komme fra et stort antall tilfeller (enumerativ induksjon) eller et bredt spekter av tilfeller (variativ induksjon). Dette innebærer en form for induktiv tenkning som, selv om den ikke nødvendigvis gir definitive svar, gir et grunnlag for videre utforskning og hypotesedannelse.
For eksempel kan en forsker observere at forskjellen mellom kjøps- og salgsprisene på aksjer øker når det er en ubalanse i ordreflyten (det vil si når mengden aksjer som byttes ut i handler initiert av kjøpere ikke er lik mengden aksjer som byttes ut i handler initiert av selgere over en viss tidsperiode), og at denne utvidelsen ofte forutser en økning i volatilitet på kort sikt. Dette er et overraskende fenomen fordi det under den effektive markeds hypotesen er forventet at aksjeprisene alltid reflekterer all tilgjengelig informasjon, noe som gjør prediksjoner i teorien meningsløse. Eksistensen av en ubalanse i ordreflyten, den sekvensielle naturen av disse hendelsene og deres forutsigbarhet peker på markedsineffektivitet, men kilden til denne ineffektiviteten er uklar. Slike observasjoner, selv om de gir interessante innsikter, utgjør ikke en teori på egenhånd, og de forklarer ikke nødvendigvis hvorfor fenomenet skjer.
I det teoretiske steget fremmer forskere en mulig forklaring på de observerte assosierte hendelsene. Dette er en øvelse i logisk abduksjon (noen ganger kalt retroduksjon): Gitt det observerte fenomenet, trekkes den mest sannsynlige forklaringen ved å eliminere konkurrerende alternativer. Observasjoner kan ikke forklares av hypoteser som er mer ekstraordinære enn observasjonene selv, og av flere hypoteser bør den minst ekstraordinære velges. Når en forsker påstår at X og Y er assosierte fordi X forårsaker Y, innebærer det at sannsynligheten for Y er større gitt at X er til stede enn når X ikke er til stede. For at en forklaring skal være vitenskapelig, må den foreslå en kausal mekanisme som er falsifiserbar, det vil si at den må foreslå et system av strukturelle ligninger langs den kausale veien fra X til Y, hvor gyldigheten av hver kausale lenke og kausale vei kan testes empirisk.
Et vitenskapelig forsøk på å forklare et fenomen inkluderer nødvendigvis en rekke antakelser som gir betydning til observasjonene. Disse antakelsene er uunngåelige, fordi selve handlingen med å ta målinger og tolke data innebærer subjektive valg. Dermed blir oppdagelsesprosessen en kreativ virksomhet. Matematikkens teorier adskiller seg fra vitenskapelige teorier på denne måten, da matematiske teorier ikke kan bevises eller motbevises gjennom empiriske data, mens vitenskapelige teorier er åpne for falsifisering.
Når teorier kan deduseres direkte fra observasjoner, er det ikke nødvendig med eksperimenter for å teste validiteten av antakelsene. For eksempel forklarer teorien om Probability of Informed Trading (PIN) hvordan likviditetstilførsel kan være et resultat av et sekvensielt strategisk spill mellom markedsprodusenter og informerte tradere. I fravær av informerte tradere er ordreflyten balansert, ettersom uinformerte tradere utfører kjøp og salg i omtrent like mengder, og derfor har markedsvirkningen liten innvirkning på midtprisen. Når markedsprodusenter tilbyr likviditet til uinformerte tradere, tjener de på forskjellen mellom kjøps- og salgsprisene. Imidlertid fører tilstedeværelsen av informerte tradere til en ubalanse i ordreflyten, som endrer midtprisen. Denne teorien er vitenskapelig fordi den beskriver en presis mekanisme og identifiserbare variabler, som kan testes individuelt.
I falsifiseringssteget, som er et essensielt aspekt av vitenskapelig metode, skal forskere som ikke har vært involvert i teoriformuleringen, uavhengig: (i) dedusere de viktigste implikasjonene fra teorien, slik at det er umulig for teorien å være sann og implikasjonene å være falske, og (ii) designe og utføre eksperimenter med det formål å bevise at implikasjonene er falske. Dette steget krever betydelig kreativitet og ekspertise, da det handler om å balansere styrken i de deduserte implikasjonene med testbarheten (kostnader, målefeil, reproduksjonsevne osv.). Hver eksperiment i falsifiseringsprosessen fokuserer på å motbevise én spesifikk lenke i den kausale mekanismen ved hjelp av verktøy som mediansanalyse.
Et falsifiseringsforsøk kan innebære å vise at den observerte assosiasjonen ikke er kausal, eller at det ikke eksisterer noen assosiasjon i det hele tatt. Et annet alternativ kan være å vise at den teoretiserte kausale mekanismen ikke fungerer som forutsagt. For eksempel, når den faktiske kausale grafen er mer kompleks enn den som ble foreslått i teorien, kan dette indikere at mekanismen er feilaktig. En tredje metode kan være å bruke maskinlæringsteknikker til å vise at de antatte assosiasjonene faktisk ikke eksisterer.
For at et vitenskapelig prosjekt skal lykkes, er det derfor avgjørende at teoriene ikke bare kan forklares logisk, men også at de kan motbevises gjennom systematisk testing og eksperimentering. Induktiv resonnering, abduksjon og falsifisering er uatskillelige deler av vitenskapelig utvikling, og deres samspill fører til stadig mer robuste teorier.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский