Satellittbasert geodesi, spesielt gjennom teknologier som InSAR (Interferometric Synthetic Aperture Radar), har blitt et uunnværlig verktøy i studier av landdeformasjoner som skyldes menneskelig aktivitet. Et klart eksempel på dette er overvåkingen av byer som ligger i deltaområder, som Shanghai ved Yangtze-elven, New Orleans ved Mississippi, og Jakarta ved Ciliwung-elven. Disse områdene er spesielt utsatt for flom, som forverres av havnivåstigning, noe som legger til et ekstra lag med risiko og utfordringer for både byplanlegging og katastrofehåndtering.

I denne konteksten kan InSAR-teknologi brukes til å oppdage små endringer i jordens struktur, som for eksempel lokale sett av væskeutvinning, oksidasjon av organiske jordarter, eller til og med sårbare områder som opplever senkning. Dette kan inkludere byer som Mexico City, hvor landdeformasjoner på grunn av grunnvannsuttak har vært et kjent problem i flere tiår. Satellittbasert overvåkning gjør det mulig å fange opp disse små, men viktige bevegelsene som kan ha store konsekvenser for byens infrastruktur og sikkerhet.

Det finnes flere applikasjoner for InSAR-teknologi. En av de mest benyttede er måling av strukturell skade på bygg og infrastruktur som følge av vinkelendringer i bakken. Dette er spesielt viktig for overvåkning av bygninger i urbane områder, hvor det er høy risiko for at små jordbevegelser kan føre til store skader på grunn av svakere grunnforhold, ofte forverret av grunnvannsuttak. I slike tilfeller er det viktig å bruke X-band radarsatellitter, ettersom disse gir høyere oppløsning på småbevegelser sammenlignet med C- eller L-band.

Imidlertid står brukere av slike data ofte overfor barrierer knyttet til tilgang og tilgjengelighet. Mange land, spesielt utviklingsland, har begrenset tilgang til satellittdata, noe som kan hindre videre forskning og utvikling av effektive metoder for risikovurdering og -håndtering. For å lette utviklingen av forebyggende tiltak og tilpasse seg effektene av landdeformasjon, bør fremtidige satellittmisjoner fremme åpen tilgang til data.

Den langsiktige potensialet for InSAR som verktøy for å kartlegge landdeformasjoner er stort. Slik som små jordskjelvaktivitet ble bedre forstått først etter at tette seismiske nettverk ble etablert, kan InSAR-teknologi på nasjonalt og globalt nivå oppdage subtile endringer i landheving og -senking som har blitt oversett tidligere. For eksempel har Norge, Storbritannia, Japan og Italia allerede gjennomført nasjonale InSAR-tidseriestudier som har gitt verdifull innsikt i de langsiktige effektene av jordens senkning og de relaterte prosessene.

Det er viktig å merke seg at slike teknologier ikke bare bidrar til å overvåke eksisterende problemer, men også til å utvikle mer presise risikokart og modeller som kan forutsi fremtidige hendelser. Den økende tilgjengeligheten av høykvalitets satellittdata og avanserte analyser åpner dørene for en mer nøyaktig vurdering av miljørisikoer som jordens senkning, særlig i storbyer.

En annen viktig komponent i risikoanalyse er å forstå de forskjellige faktorene som driver landdeformasjon. Grunnvannsuttak er en av de mest kjente årsakene, men det finnes også naturlige prosesser som kan bidra til senkning, slik som endringer i underliggende geologi eller tektonisk aktivitet. I områder med store vannreservoarer kan for eksempel trykkforandringer føre til senkning som påvirker både jordoverflaten og bygninger. Denne typen kompleksitet krever ofte tverrfaglige tilnærminger, der geofysikere, ingeniører og planleggere samarbeider om å utvikle helhetlige løsninger.

Samlet sett er det tydelig at satellittgeodesi og InSAR-teknologi er et kraftfullt verktøy for å analysere og overvåke landdeformasjon på tvers av byer og land. Men for at disse metodene skal kunne utnyttes på en effektiv måte, er det essensielt med et sterkt samarbeid mellom myndigheter, forskere og teknologiske aktører for å sikre bred tilgang til data og for å utvikle metodologier som er tilpasset de spesifikke utfordringene i ulike deler av verden.

Hvordan påvirker vann­damp atmosfærens mikrobølge­refraktivitet og GNSS-målinger?

Vann­dampens rolle i atmosfærens mikrobølge­refraktivitet er vesentlig større enn det dens relative masse i atmosfæregassenes blanding skulle tilsi. Dette skyldes hovedsakelig vann­dampens permanente dipolmoment, som gir omtrent 20 ganger sterkere bidrag til refraktiviteten enn den induserte dipolen som også finnes i vanndamp og andre gasser. Variasjonen i vann­dampkonsentrasjonen forekommer på alle skalaer i atmosfæren, fra noen titalls meter til planetariske dimensjoner. På de korteste skalaene, 10 til hundrevis av meter, styres vann­dampens variasjon primært av turbulens og transport i atmosfæren, hvor vanndampen i praksis fungerer som en passiv markør som transporteres med vindfeltet. Forskjeller i vanndampkonsentrasjon mellom to punkter øker typisk med økende avstand etter en potenslov.

På mellomliggende skalaer, fra hundrevis til tusenvis av meter, har vann­damp en aktiv rolle i dannelsen av viktige atmosfæriske fenomener, slik som konvektive celler og ødeleggende fenomener som tornadoer. På mesoskalautstrekningene, ti til hundre kilometer, kontrollerer vann­damp kondensasjon og den tilhørende latente varmeutgivelsen utviklingen av tordenvær. På enda større, synoptiske skalaer, som lavtrykkssystemer, fronter og orkaner, er vann­dampens signatur og påvirkning tydelig. På global skala er vann­damp avgjørende for varmeoverføringen i atmosfæren og kan være en sensitiv indikator på klimaendringer.

Utviklingen av GNSS-meteorologi som disiplin kan forstås som en stadig mer detaljert utvinning av vann­dampinformasjon fra mikrobølgegeodetiske sensorer, for å forbedre evnen til å avbilde, modellere og forutsi atmosfæriske strukturer og prosesser.

Når radiosignaler fra satellitter passerer gjennom atmosfæren, blir de påvirket av atmosfærens refraktivitet, som gir en forsinkelse og brytning av signalet. Denne refraktiviteten består hovedsakelig av to komponenter: den ionosfæriske, som kan fjernes ved hjelp av GNSS-systemers flere frekvenser, og den nøytrale atmosfæren, som er ikke-dispersiv og dermed vanskeligere å korrigere for. Den nøytrale atmosfærens bidrag til refraktiviteten består av en hydrostatisk del, som domineres av tørre gasser og er relativt stabil og forutsigbar, og en våt del som skyldes vann­damp, og som er mer variabel og vanskeligere å modellere.

Denne forsinkelsen, kjent som Zenith Neutral Delay (ZND), deles ofte opp i Zenith Hydrostatic Delay (ZHD) og Zenith Wet Delay (ZWD). ZHD kan i stor grad estimeres ut fra overflatetrykk, mens ZWD i hovedsak avhenger av vann­dampens mengde og temperatur. For å beregne forsinkelsen for satellitter i ulike posisjoner på himmelen brukes mapping-funksjoner som omregner mellom zenit og satellittens elevasjonsvinkel, og det er viktig å bruke korrekte mapping-funksjoner for hver komponent fordi de varierer forskjellig med satellittens posisjon.

Estimering av ZND fra GNSS-observasjoner krever også å ta hensyn til atmosfærens vertikale struktur, temperaturprofil og lokale meteorologiske forhold, da disse påvirker forholdet mellom den målte forsinkelsen og den integrerte vann­dampmengden i atmosfæren. Siden hydrostatisk forsinkelse hovedsakelig bestemmes av trykk og kan modelleres relativt godt, er usikkerheten i ZND i stor grad knyttet til den våte forsinkelsen, som igjen gjenspeiler vann­dampens romlige og tidsmessige variasjoner.

Det er også viktig å merke seg at væskeinnhold i form av flytende vann, som skyer og regn, normalt ikke kan skilles fra vanndampen i disse målingene og derfor ofte ignoreres, selv om de kan påvirke signalet i mindre grad.

For å fullt ut forstå og anvende GNSS-baserte vann­dampmålinger i meteorologi må man også ha innsikt i de atmosfæriske prosessene som styrer vann­dampens dynamikk, fra turbulente transportmekanismer til storskala værsystemer. Det er vesentlig at leseren forstår sammenhengen mellom mikrobølgenes refraksjon, den atmosfæriske sammensetningen, og hvordan denne koblingen muliggjør fjernmåling av vann­damp med høy romlig og tidsmessig oppløsning. Slik kunnskap legger grunnlaget for forbedrede værvarslinger, klimamodeller og studier av atmosfærens sammensetning i endring.

Hvordan Lidar Teknologi Brukes til Nøyaktig Terrengmodellering og Analysering av Vegetasjon

Lidar-teknologi har revolusjonert måten vi samler inn geografisk informasjon på. Den gir en utrolig høy presisjon når det gjelder å skape 3D-punktskyer av terreng, og er spesielt verdifull i sammenhenger som terrengmodellering, vegetasjonsanalyse og endringsdeteksjon. Teknologien benytter laserpulsinger som sendes fra et fly eller et annet luftfartøy og som deretter reflekteres tilbake til sensoren. Dette gir informasjon om både overflateformene og objektets høyde. På tross av den høye presisjonen som Lidar gir, finnes det flere tekniske utfordringer som kan påvirke nøyaktigheten av dataene.

En av de største kildene til usikkerhet er nøyaktigheten av flyets posisjon og vinkelen på laserpulsene som sendes ut. Flyet beveger seg raskt, mellom 150 og 300 km/t, og kan derfor oppleve atmosfærisk turbulens som kan føre til avvik i målingene (NOAA 2012). For å håndtere dette benyttes høypresisjon GNSS-enheter sammen med IMU og INS-systemer. Disse systemene er essensielle for å bestemme både flyets posisjon og laserens utsendelseskartlegging med høy nøyaktighet. Men på grunn av tekniske begrensninger, som for eksempel drift av gyroskopene, mister IMU og INS systemene presisjon etter kort tid, vanligvis etter ca. 1 sekund. Dette krever reinitiering basert på GNSS-systemet ombord på flyet, for å opprettholde nøyaktigheten (NOAA 2012).

En annen viktig utfordring som påvirker kvaliteten på Lidar-dataene, er vegetasjonsdekningens tetthet. Hvis vegetasjonen er for tett, kan laserpulsene som treffer toppen av trærne, ikke alltid nå bakkenivået. I slike tilfeller vil det digitale terrengmodellen (DTM) vise interpolerte flater over områder uten målinger av bakken, noe som gir kunstig flate overflater. For å unngå dette er det viktig at flylinjene overlapper hverandre tilstrekkelig, spesielt i områder med tett vegetasjon. Flere studier, som Lin et al. (2013), antyder at minst fire individuelle flylinjer må overlappe for å sikre tilstrekkelig dekning av bakkenivået i tette vegetasjonsområder.

Lidar-scanning gir en 3D-punktsky, som inneholder et stort antall målepunkter som er georeferert og registrert i henhold til tidspunktet de ble mottatt. I tillegg til de 3D-koordinatene blir intensiteten til refleksjonene, samt returnummer og tidspunkt, også registrert. Disse dataene er essensielle for etterbehandling og klassifisering, som gjør det mulig å skille mellom forskjellige typer objekter som bakkenivå, vegetasjon, vannflater eller menneskeskapte strukturer. For terrestrielle Lidar-innsamlinger kombineres scanningprosessen ofte med innsamling av optiske bilder med høy oppløsning, og deretter kombineres de for å tildele RGB-farger til hvert scannet punkt. Lidar-data lagres vanligvis i *.LAS-filformatet, som er standarden for utveksling av 3D-punktskydata (ASPRS 2009).

I etterbehandling blir hvert punkt i Lidar-skanningen klassifisert. Klassifisering er prosessen med å tildele en numerisk etikett til hvert punkt for å kunne identifisere hvilke objekter som finnes i punktene (for eksempel om det er et hustak, en grein på et tre, en vannflate eller bakkenivå). Uklassifiserte punktskyer mangler denne etiketten, og derfor kan det være utfordrende å trekke ut spesifikke objektinformasjoner fra dem. Klassifiseringen skiller mellom returene fra bakken, ikke-bakke og vann, og dette muliggjør genereringen av DTMs, normaliserte DSM-er (Digital Surface Models) og deteksjon av kystlinjer.

Lidar-data gir en detaljert representasjon av bakken og vegetasjon, men for å analysere disse dataene effektivt er det nødvendig med spesialverktøy. Softwarepakker som LasTools og CloudCompare er utviklet for å håndtere store Lidar-datasett og gjør det mulig å trekke ut nødvendige data, sammenligne ulike datasett og utføre klassifisering. Med hjelp av slike verktøy kan man analysere store mengder data, som kan inneholde hundrevis av millioner av punkter, og gjøre det mer håndterbart for videre forskning og anvendelse.

Lidar-dataene kan visualiseres på ulike måter for å fremheve forskjellige aspekter av terrenget. For eksempel kan man bruke høydeinformasjon til å generere digitale høydemodeller (DHM), og ved å subtrahere DTM fra DSM kan man beregne høyden på vegetasjonen, som vist i eksemplene fra Marlborough-feilsonen i New Zealand (Figur 6). En annen vanlig tilnærming er å beregne terrenghelling og -orientering, som gir informasjon om hvordan skråninger og terrengformer fordeler seg på et gitt område.

Lidar-dataanskaffelse har blitt raskere og mer kostnadseffektiv, noe som gjør at mange lokale, statlige og føderale etater nå aktivt planlegger og gjennomfører store Lidar-undersøkelser. Mange av disse dataene blir gjort tilgjengelig online i form av rasteriserte DEM-er (digital elevation models) og som 3D-punktskyer, og det er flere tilgjengelige plattformer som OpenTopography som tilbyr offentlig tilgang til disse datasettene.

For å få maksimalt utbytte av Lidar-dataene, er det viktig å forstå hvordan de kan brukes til ulike formål, enten det er for nøyaktige terrengmodeller, vegetasjonsanalyser, overvåking av endringer eller for å identifisere geologiske strukturer. Bruken av maskinlæring og intensitetsdata i den automatiserte klassifiseringen kan ytterligere forbedre nøyaktigheten i analysene, og åpner nye muligheter for fremtidige studier innen geospatiale vitenskaper.

Hvordan kan vi rekonstruere geometrien til en feil basert på overflatebevegelser?

Feilbevegelser kan være mer komplekse enn man først antar. I stedet for å observere enkle feil med et ensartet forskyvningsmønster, viser data fra fjernmåling ofte flere segmenter med variabelt slip på hvert segment. Et vesentlig aspekt ved feilgeometri er at det finnes en sammenheng mellom slipfordelingen og feilens geometri. Dette innebærer at selv små endringer i feilens geometri kan føre til store variasjoner i de overflatebevegelsene som måles. Et viktig aspekt er at et lite slip fordelt over et stort segment kan gi de samme overflatebevegelsene som et stort slip på et lite segment, noe som fører til usikkerheter i tolkningen av dataene. Høyere oppløsning i dataene eller lavere støynivå er ikke nødvendigvis en løsning på dette problemet, da trade-off-en mellom slip og geometri er innebygd i de matematiske modellene som brukes til å forutsi overflatebevegelser.

Når vi forsøker å rekonstruere feilens geometri ved hjelp av overflatebevegelser, er det flere faktorer som spiller en rolle. Den mest grunnleggende er behovet for å forstå de romlige gradientene av belastningen som oppstår som et resultat av feilens bevegelse. Overflatebevegelsene må dekke et så stort område som mulig for å kunne fange de nødvendige gradientene i belastningene som har skjedd under jordskjelvet eller feilbevegelsen. For eksempel, i tilfelle av Tohoku-jordskjelvet i Japan i 2011, var det mulig å måle overflatebevegelsene over flere hundre kilometer på grunn av den store slipbevegelsen, som i enkelte områder var mer enn 50 meter, samt den enorme størrelsen på feilen som brøt opp.

Nøyaktigheten i målingene er avgjørende for å rekonstruere den underliggende geometrien. Selv små endringer i vinkelen på feilens helling kan føre til store forskjeller i belastningsgradientene, og derfor er presisjonen i målingene på overflaten av stor betydning. Videre påvirker støyen i dataene i stor grad muligheten til å rekonstruere feilens geometri, og det finnes flere metoder som forsøker å minimere denne støyen for å få frem den mest sannsynlige geometri-modellen.

En vanlig fremgangsmåte for å rekonstruere feilgeometrien er å bruke en inversjonsmetode der en kostnadsfunksjon blir minimert. Denne funksjonen sammenligner de målte overflatebevegelsene med de forutsagte bevegelsene som et gitt feils geometri og slipfordeling vil forårsake. Når feilens geometri er kjent, kan denne tilnærmingen løses som et lineært inversjonsproblem. En annen metode er å anta enkle geometriske modeller for feilen, for eksempel en plan feil, og finne parametrene for denne geometriens vinkler og lengder. Mer komplekse tilnærminger inkluderer modeller med mer avanserte strukturer som for eksempel de som finnes i Nepal, hvor hovedfeilen i Himalaya har en rampe og en flat struktur. Slike modeller er mer utfordrende å håndtere, da de gir flere mulige løsninger for geometri og slip samtidig.

En spesiell utfordring oppstår når man prøver å finne løsninger for geometriske parametere, som for eksempel strekningsvinkler, fordi enkelte modeller kan føre til de samme overflatebevegelsene, selv om feilene har forskjellige orienteringer. For å unngå denne tvetydigheten kan man teste forskjellige geometriske modeller og finne den som gir den beste løsningen med hensyn til tilgjengelig data. Et praktisk eksempel på dette er studiene av Main Himalayan Thrust i Nepal, hvor man hadde tilgang til detaljerte data om den grunnleggende geometri i området rundt Kathmandu.

Det er også viktig å merke seg at feilens geometri på dypet ikke bare påvirkes av dens orientering, men også av de elastiske egenskapene til jordskorpen. For de fleste inversjoner er det antatt at jorden er et homogent elastisk halvrom, som er en rimelig tilnærming for mange scenarioer, men i virkeligheten er jordens struktur mer kompleks, og dette kan ha en betydelig innvirkning på modellens nøyaktighet.

Fjernmåling av overflatebevegelser gir verdifull informasjon for å rekonstruere feilens geometri, men det er fortsatt et stort behov for mer presise målinger, spesielt de som kan gi innsikt i feilens struktur på dypet. Til tross for de fremskrittene som er gjort med fjernmålingsteknikker, som satellittbilder og radar, er det fortsatt vanskelig å få fullstendig informasjon om feilens tredimensjonale struktur.

Det er også viktig å forstå at ulike observasjonsteknikker gir forskjellig informasjon om jordskjelv og feilbevegelser. Mens lokale seismiske stasjoner og høyhastighets GNSS-målinger kan gi innsikt i bevegelsene på dypet, er det fortsatt en mangel på rombaserte teknikker som kan fange seismiske bølger og gi et mer komplett bilde av feilens aktivitet.