Satellittbaserte teknologier som Interferometrisk syntetisk aperturradar (InSAR), GPS og GRACE (Gravity Recovery and Climate Experiment) har revolusjonert vår evne til å observere og analysere deformasjoner i jordskorpen samt hydrologiske prosesser på en regional og global skala. Disse metodene gir unike muligheter til å måle små vertikale og horisontale bevegelser som ofte er knyttet til naturlige og menneskeskapte prosesser, som for eksempel vulkansk aktivitet, grunnvannsuttak, klimaendringer og sesongvariasjoner i vannlagring.

En av de sentrale anvendelsene av InSAR er å overvåke deformasjon knyttet til vulkansk aktivitet, som vist ved Volcán Alcedo på Galápagosøyene. Her gir radardata presise kart over hvordan jordskorpen beveger seg i respons til magmatiske prosesser under overflaten, noe som gir innsikt i den geodynamiske aktiviteten. Samtidig kan GPS-data benyttes til å kvantifisere sesongmessige variasjoner i vannlagring og påfølgende stressendringer i jordskorpen, slik det er dokumentert i California, hvor sesongbasert vannlagring påvirker seismisk aktivitet. Denne koblingen mellom hydrologi og geologi belyser hvordan vannets bevegelser i jordens øvre lag kan modulere spenninger i litosfæren og dermed påvirke jordskjelvsmønstre.

GRACE-satellittene har åpnet for direkte observasjoner av endringer i terrestrisk vannlagring over store områder ved å måle små variasjoner i jordens gravitasjonsfelt. Dette har særlig stor betydning for å følge med på grunnvannsressurser i områder med begrenset direkte måledata, som California Central Valley eller de store akviferene i Midtvesten i USA. Kombinasjonen av GRACE-data med hydrologiske modeller gjør det mulig å anslå grunnvannsnivåendringer og deres innvirkning på landhevning eller landssenkning. Slike prosesser kan føre til varig kompaktering av akviferene, som igjen påvirker landets stabilitet og vannressurser.

Bruken av GPS som en reflektometrisk sensor gjør det mulig å estimere jordfuktighet, snødybde og vegetasjonens vanninnhold, og gir dermed nyttig informasjon for hydrologisk modellering og klimaforskning. Dette er et eksempel på hvordan teknologiske innovasjoner innen geodesi bidrar til tverrfaglige forståelser av jordens overflateprosesser.

Atmosfæriske forhold som turbulens i troposfæren og ionosfærisk interferens kan påvirke presisjonen i InSAR- og GPS-målinger, og må derfor modelleres og korrigeres for å oppnå nøyaktige resultater. Særlig i vulkanske områder eller komplekse terreng kan slike effekter være betydelige og krever avanserte korreksjonsmetoder for å sikre pålitelig tolkning av deformasjonsdata.

Det er også viktig å forstå hvordan sesongvariasjoner i vannlagring, atmosfærisk trykk og temperatur påvirker bakgrunnsspenninger i jordskorpen. Slike belastningssykluser kan forstyrre stressfeltet og føre til endringer i frekvensen og plasseringen av jordskjelv, noe som må tas i betraktning i seismisk risikovurdering.

Satellitt- og geodetiske data gir dermed ikke bare informasjon om deformasjoner og hydrologi, men gir også et rammeverk for å forstå komplekse koblinger mellom jordens geofysiske prosesser, klimatiske faktorer og menneskelig påvirkning. Å integrere data fra ulike satellittplattformene og jordbaserte målinger øker vår evne til å overvåke og modellere dynamiske endringer i jordskorpen og vannkretsløpet på en sammenhengende og detaljert måte.

Det er vesentlig å erkjenne at modellering av disse prosessene forutsetter en grundig forståelse av jordens elastiske egenskaper, samt nøyaktige tidsserier over deformasjoner. Lokale geologiske forhold og menneskelig aktivitet kan komplisere tolkningen, noe som krever tverrfaglig ekspertise for å skille naturlige fra antropogene signaler.

Den komplekse samspillet mellom hydrologiske sykluser, klimaendringer og jordskorpedeformasjoner innebærer at fremtidige studier bør fokusere på høyoppløselige data og integrerte observasjonssystemer. Slik kan vi bedre forutse og håndtere konsekvenser knyttet til grunnvannsuttak, landssenkning, vulkanisme og jordskjelv.

Hvordan fjernmålingsteknologier kan forme overvåkningen av geohazarder og ressurser i fremtiden

I løpet av de siste tiårene har teknologiske fremskritt innen fjernmåling revolusjonert vår evne til å overvåke geohazarder og naturlige ressurser. Fra satellittdata til avanserte analysesystemer, har disse utviklingene gitt oss kraftige verktøy for både å forstå og håndtere globale utfordringer som knytter seg til miljøpåvirkninger, naturkatastrofer og ressurstap. I denne sammenhengen er det viktig å belyse tre hovedområder der fremtidige fremskritt kan ha størst innvirkning: sensorteknologier, overvåkingsprogrammer og metodiske fremskritt i datainnsamling og analyse.

Teknologiske Fremskritt i Sensorer og Plattformteknologier

Utviklingen av sensorer og plattformene de benytter seg av har vært i kontinuerlig rask fremdrift. I de tidlige dagene av fjernmåling var optiske systemer de dominerende verktøyene for å samle inn data om jordens overflate. Siden 1970-tallet, da Landsat-1 ble lansert, har optiske sensorer hatt en viktig rolle i å overvåke geohazarder som jordskjelv, vulkanutbrudd og skred, samt i ressursforvaltning som vann- og mineralutvinning.

De siste tiårene har det vært en betydelig forbedring av både den romlige og spektrale oppløsningen i passive optiske systemer. Tidligere kunne man kun få bilder med oppløsninger på 30 meter eller mer, men i dag kan vi få tilgang til bilder med en oppløsning på under 1 meter, og til og med på 0,31 meter, som med Digital Globe’s WorldView-3 satellitt. Denne økte oppløsningen har gjort det mulig å skape mer detaljerte modeller av geohazarder og ressurser, noe som gir både forskere og beslutningstakere en mer presis forståelse av situasjonen.

En annen viktig utvikling har vært bruken av stereobilder for å lage digitale høydemodeller (DEMs), som er avgjørende for vurdering av jordskjelvfare, skred og vulkanske utbrudd. For eksempel har ArcticDEM, et prosjekt som gir høydedata med en oppløsning på 2 meter, revolusjonert studier av isbreer og vulkaner i arktiske områder. Dette er et betydelig fremskritt sammenlignet med de eldre, grovere DEM-ene som var tilgjengelige tidligere.

Aktiv Sensorbruk og Avanserte Metoder

Mens passive optiske sensorer har hatt en dominerende rolle, ser vi en økende bruk av aktive sensorer, som radar og LiDAR (Light Detection and Ranging). Active sensorsender signaler som returneres til satellitten, og gir dermed muligheten til å samle inn data uavhengig av sollys eller værforhold, noe som gjør dem spesielt nyttige i områder med hyppig skydekke eller på natten.

En viktig utvikling innen aktiv fjernmåling er bruken av Synthetic Aperture Radar (SAR), som muliggjør presis overvåkning av jordbevegelser og deformasjoner som kan indikere jordskjelv eller skred. For eksempel har SAR-teknologi blitt brukt til å overvåke strukturelle endringer etter store jordskjelv, som i Japan og Chile, der disse dataene har vært essensielle for både umiddelbare katastrofeaksjoner og langsiktige rehabiliteringsplaner.

Videre er LiDAR-teknologi spesielt effektiv for å kartlegge tredimensjonale strukturer i terrenget, som kan være avgjørende for å vurdere farer som oversvømmelser eller jordskred. LiDAR-data har allerede vært et nyttig verktøy i både urban planlegging og geohazard-overvåkning.

Fremtidige Utviklinger og Demokratisering av Data

En av de mest spennende trendene innen fjernmåling er utviklingen av store datasett og maskinlæring. Med økningen i tilgjengelige satellittbilder og den raske veksten i datamengde, blir det nå mulig å bruke maskinlæringsalgoritmer for å analysere data på en måte som tidligere var utenkelig. Fra vulkanovervåking til identifisering av vannreserver, kan disse teknologiene ikke bare forbedre vår evne til å forstå geohazarder, men også gjøre det mulig å oppdage skjulte ressurser som kan være avgjørende i fremtidens kriser.

Den pågående utviklingen av "Space 2.0", hvor både offentlige og private aktører sender opp flere og mer sofistikerte satellitter, lover godt for fremtidig overvåking. Kommersiell tilgang til høykvalitetsdata blir stadig mer vanlig, og det har ført til at programvarer og verktøy som Google Earth og Copernicus gjør det mulig for nesten hvem som helst å få tilgang til satellittbilder. Denne demokratiseringen av data gir både forskere og enkeltpersoner tilgang til presis informasjon om naturfenomener, og har potensial til å forbedre både beslutningstaking og krisehåndtering.

Viktige Aspekter for Fremtidig Bruk og Forskningsbehov

I løpet av de kommende årene vil det være viktig å bygge videre på de eksisterende teknologiene og forbedre metoder for datainnsamling og analyse. Dette inkluderer ikke bare å forbedre oppløsningen og nøyaktigheten av målingene, men også å utvikle algoritmer som kan tolke og integrere disse store datamengdene mer effektivt. For eksempel, for å kunne forutsi jordskjelv eller forstå komplekse naturprosesser som vulkanutbrudd, vil vi måtte kombinere data fra ulike sensorer og plattformer for å skape helhetlige modeller av geohazarder.

Videre er det avgjørende at vi forholder oss til etiske spørsmål knyttet til datainnsamling og personvern, spesielt når det gjelder bruken av kommersielle satellittbilder. Mens tilgang til slike data kan være en fordel for samfunnene som trenger dem, kan det også føre til potensielle utfordringer rundt hvem som kontrollerer dataene og hvordan de brukes.

Som fremtidens fjernmålingsteknologier fortsetter å utvikle seg, vil evnen til å bruke disse dataene til å adressere presserende globale utfordringer—fra naturkatastrofer til ressurshåndtering—bli stadig mer avgjørende for å sikre en bærekraftig fremtid.

Hvordan Satellittmålinger og Havoverflatehøyde Kan Avsløre Klimarisikoer og Endringer

Når man analyserer havets dynamikk og de geofysiske forholdene som påvirker havoverflatehøyden (SSH), er det flere korreksjoner som må tas i betraktning for å oppnå nøyaktige resultater. Den mest betydningsfulle er korrigeringen for satellittens bane, som krever presis modellering av satellittens bevegelse, samt posisjonsmålinger fra forskjellige systemer som Global Positioning System (GPS), Doppler Orbitography and Radiopositioning Integrated by Satellite (DORIS) eller Satellite Laser Ranging (SLR). I tillegg kommer sensorfeil, forstyrrelser i elektromagnetiske bølger som går gjennom ionosfæren, atmosfæren med vanndamp og aerosoler, samt retrofleksjon på havoverflaten, også kjent som havtilstandsbias (SSB). Geofysiske korreksjoner må også gjøres for å ta høyde for atmosfærens trykk på havoverflaten og tidevannseffekter, både fra havet og fast jord.

For å beregne havstrømmer ved hjelp av SSH, er det nødvendig å estimere den dynamiske topografien (DT) ved å fjerne geoid-modellen, som kan beregnes gjennom forskjellige metoder som for eksempel GOCE geoid-modellen. Den dynamiske topografien er deretter brukt til å beregne de geostrofiske havstrømmene, som er vinkelrett på sporene fra satellittene, og hvor man tar hensyn til gravitasjonsakselerasjon og Coriolis-parameteren.

I et globalt perspektiv er det viktig å kombinere satellittmålingene av SSH med andre metoder for å få en helhetlig forståelse av havnivåendringer. For eksempel, GRACE-misjonene (Gravity Recovery and Climate Experiment), som har vært i drift siden 2002, gir innsikt i massefordelinger på jorden, som kan observeres ved deres gravitasjonseffekt. Disse observasjonene er avgjørende for å forstå endringer i ismassene på land og endringer i vannlagring på jorden. GRACE-misjonens etterfølger, GRACE-FO, ble lansert i 2018 og fortsetter dette arbeidet. Satellittene i disse misjonene er utstyrt med systemer som gjør det mulig å måle endringer i avstanden mellom to satellitter i en lav bane, noe som gjør det mulig å kartlegge gravitasjonsfeltet med stor presisjon.

Satellitter som Jason og Cryosat, som er utstyrt med altimetre, måler havoverflatehøyden og gir data som er viktige for å kartlegge havstrømmer og deres rolle i det globale klimaet. Altimeterdataene samles på et spesifikt romlig grid, og gjennom ulike metoder kan man også beregne geostrofiske strømmer. Dataene som samles gjennom disse metodene gir oss et klart bilde av hvordan havnivået har endret seg over tid, og gir verdifull informasjon om potensielle klimaendringer og risikoer.

Siden 1992 har det blitt utviklet produkter som gir en global oversikt over SSH basert på flere satellittmisjoner. Disse produktene er tilgjengelige i forskjellige versjoner og er viktig for å overvåke langtidstrender. I tillegg har nyere radarteknologier som SWOT (Surface Water Ocean Topography), lansert i 2022, muliggjort måling av SSH i to dimensjoner med svært høy presisjon, ned til 1 km x 1 km. SWOT-målingene gir en mer detaljert forståelse av havets overflate enn de tradisjonelle metodene som er basert på enkeltretninger.

Når vi ser på havnivåtrender fra 1992 og frem til i dag, viser dataene en økning i havnivået globalt, særlig i den subtropiske delen av Stillehavet, hvor vinden har økt i styrke. Det er estimert at havnivået har steget med 3,1 ± 0,3 mm per år siden 1993. For å få et klarere bilde av lokale effekter, spesielt langs kystområder, er det nødvendig med spesifikke metoder for å fjerne støy forårsaket av kontinentene, og i noen tilfeller kan trendene i kystsonen være høyere enn de som observeres i åpent hav.

Det er i kystområdene at de største risikoene kan oppstå som følge av havnivåstigning. Når vind, bølger, tidevann og stormer kombineres, kan de føre til havsvingninger og flom som kan påvirke nærliggende områder. Et konkret eksempel er at langs kysten av Afrika i Atlanterhavet har man sett høyere SSH-trender enn i åpent hav. Forståelsen av disse trendene er avgjørende for å kunne forutsi og håndtere de potensielle risikoene for oversvømmelse og klimaendringer som følge av stigende havnivåer.

I tillegg til disse observasjonene, gir satellittmålinger også verdifulle data om havstrømmer, som har stor betydning for klimaforskning. Geostrofiske havstrømmer, som er nært knyttet til SSH og DT, spiller en viktig rolle i global varmefordeling og i reguleringen av klimaet. Ved å overvåke disse strømningene kan man få innsikt i endringer i havsirkulasjon som kan være relatert til klimaendringer, noe som kan bidra til en bedre forståelse av hvordan klimaet vil utvikle seg i fremtiden.

Samtidig er det viktig å merke seg at havnivåstigning og havstrømmer ikke bare har betydning for kystområdene, men også for det marine økosystemet som helhet. Havet fungerer som en stor regulator av karbon i atmosfæren, gjennom biologiske prosesser som involverer plankton, som er grunnlaget for marine næringskjeder. Økt planktonaktivitet, forårsaket av endringer i havets temperatur og næringsinnhold, kan ha store konsekvenser for det marine livet og for den globale karbonsyklusen.

Hvordan løse integer-ambiguity i GNSS-systemer med presisjonsposisjonering

I moderne GNSS-teknologi er presis posisjonering avhengig av korrekt håndtering av flere feilkilder og usikkerheter i målingene. En av de mest utfordrende oppgavene er å løse integer-ambiguity, spesielt når man prøver å oppnå posisjonering med sub-centimeter presisjon. Denne prosessen innebærer flere steg, fra innledende estimering av differensialfeil til mer avanserte metoder for å løse integer-ambiguities ved hjelp av nettverksbehandling og presis punktbehandling.

En tidlig del av denne prosessen involverer å estimere widelane integer ambiguity. Dette kan gjøres på en enkel måte ved å bruke et målte parameter som er kjent for å gi et forhold mellom satellittenes signaler. Estimatet for denne integer-ambiguity kan forbedres ytterligere gjennom flere målinger over flere tidsperioder, og man kan bruke forskjellige metoder for å gjøre denne estimeringen mer robust. Hvis man derimot baserer seg på høykvalitetsdata og gjennomfører en grundig løsning, kan dette estimerte tallet brukes til å videre estimere L1- og L2 integer-ambiguities, som deretter kan brukes i det endelige posisjoneringsmodellen.

En viktig utfordring her er at disse estimeringene ikke tar høyde for effektene av ionosfæriske forstyrrelser, som kan påvirke presisjonen. En viktig neste fase i arbeidet er å eliminere disse forstyrrelsene for å oppnå nøyaktig posisjonering. I denne sammenhengen vil data fra tredjefrekvenssystemer kunne bidra med ekstra nøyaktighet, spesielt i sammenheng med høykvalitetsobserasjoner.

Men dette er bare én del av prosessen. Integer-ambiguity-løsningene avhenger også sterkt av datakvaliteten. Det er viktig å forstå at metodene som brukes for å løse disse problemene kan ha sine egne begrensninger. For eksempel er det ikke alltid en garanti at man vil kunne løse ambiguity fullt ut, selv når dataene er av høy kvalitet. Det finnes metoder som LAMBDA-algoritmen, som først finner en "float"-posisjon uten å ta hensyn til integer-egenskapene til ambiguities, og deretter dekorrelaterer disse for å redusere søkefeltet og finne en løsning som gir de endelige integer-ambiguity-verdiene.

Når man beveger seg videre til presis posisjonering, er det viktig å ta hensyn til de forskjellige feilkildene som kan påvirke resultatene. For eksempel er signalforsinkelser på grunn av ionosfæriske og troposfæriske forhold en konstant utfordring. Det er også multipath-feil, der signaler kan reflekteres eller forvrenge signalet på vei til mottakeren. Derfor er det viktig å implementere metoder som kan korrigere for disse feilkildene for å få pålitelige og nøyaktige posisjoner.

En vanlig metode for å takle noen av disse utfordringene er differensialbehandling eller nettverksbehandling, der observasjoner fra flere stasjoner sammenlignes for å eliminere visse feilkilder. Ved å differensiere observasjonene fra ulike satellitter kan man for eksempel eliminere satellittens klokkefeil, og ved å dannne doble differenser kan man også fjerne feil relatert til mottakeren. Denne metoden kan være svært effektiv, men den krever at det er et tilstrekkelig antall stasjoner tilgjengelig for å oppnå nøyaktige løsninger.

Alternativt kan man bruke presis punktposisjonering (PPP), en metode hvor man behandler hver stasjon individuelt, og ikke nødvendigvis trenger et nettverk av stasjoner for å oppnå resultater. Denne metoden er enklere i oppsettet, men har sine egne utfordringer, spesielt når det gjelder å håndtere klokkefeil og andre eksterne forstyrrelser. PPP krever at man benytter seg av eksterne korreksjoner for å kompensere for satellittens klokkefeil og ionosfæriske forsinkelser, og den store fordelen med denne metoden er at den tillater nøyaktige løsninger med færre stasjoner.

En ekstra utfordring som må tas hensyn til, er effekten av tidevann og jordens elastiske reaksjon på ocean tidevann (OTL). Disse effektene kan forårsake posisjonsfeil på opptil 10 cm og bør korrigeres i den endelige prosessen for å oppnå sub-centimeter presisjon. Slike korreksjoner kan være teknisk krevende, da de krever nøyaktige modeller for tidevann og jordens respons på disse kreftene.

Når vi ser på de konkrete applikasjonene, er det viktig å merke seg at selv om disse metodene kan gi høy presisjon, krever de at man har tilgang til pålitelige data fra et stort antall stasjoner. Når man for eksempel ser på daglige posisjonsløsninger for stasjoner som AC12 og AC53, viser det seg at man kan oppnå svært presise posisjoner med riktig behandling av de nevnte feilkildene.

Det som er viktig for leseren å forstå er at selv om det er tekniske løsninger tilgjengelig for å korrigere for disse feilkildene, krever presis posisjonering mer enn bare nøyaktige målinger. Det kreves avanserte metoder for å håndtere dataene, og den kontinuerlige utviklingen av GNSS-teknologi og metoder gir hele tiden nye muligheter for forbedringer i presisjonen.