For å fange opp og modellere usikkerheten som følger med geologisk risiko, spesielt i forbindelse med tunnelboring, er det utviklet en observerbar skjult Markovmodell (OHMM). Denne modellen etablerer en strukturert kobling mellom observerbare data – i dette tilfellet jordkomponentene per tunnelring – og underliggende skjulte tilstander som representerer forskjellige nivåer av geologisk risiko. Ved å implementere en sanntidsoppdatering av modellparametrene muliggjør OHMM kontinuerlig læring og adaptiv respons på endringer i miljøet.
Modellen består av fire skjulte tilstander: lav risiko, middels risiko, høy risiko og usikker tilstand. Disse tilstandene er koblet til fem observerbare hendelser, som representerer variasjoner i jordens sammensetning. Tilstandsrommet beskrives gjennom en overgangssannsynlighetsmatrise hvor alle overganger mellom tilstandene i utgangspunktet anses som like sannsynlige. Emisjonsmatrisen, som definerer sannsynligheten for å observere en gitt jordtype i en spesifikk risikotilstand, initialiseres med tilfeldige verdier for å sikre variasjon, men med en fast seed for reproduserbarhet.
I treningsfasen brukes en uniform sannsynlighetsfordeling for initiering av tilstandssannsynligheter og tilstrekkelige statistikker. Disse statistikkene, nødvendige for parameteroppdatering, samles først i løpet av de første 250 observasjonene før modellen begynner å oppdatere sine parametere løpende. Dette sikrer at modellen ikke overtilpasses i starten og gir rom for stabilisering før sanntidslæring trer inn. Når modellen har konvergert, vil overgangs- og emisjonsmatrisene tilpasses stedsspesifikke mønstre, noe som er essensielt i geologiske scenarier hvor forholdene kan variere betydelig på kort avstand.
For å evaluere nøyaktigheten og effektiviteten til OHMM, ble den sammenlignet med en rekke alternative maskinlæringsmodeller: nevrale nettverk (NN), støttevektormaskiner (SVM), og lang korttidsminne-nettverk (LSTM), samt med den klassiske HMM-modellen. I disse sammenligningene ble to datasett brukt – ett med 300 observasjoner og ett med 600 – for å vurdere hvor godt modellene presterte med begrenset informasjonsgrunnlag. Mens NN, SVM og LSTM krever tilgang til tidligere tilstandssekvenser for å oppnå høy ytelse, klarer OHMM å opprettholde høy nøyaktighet kun basert på observasjonsdata. Dette er spesielt kritisk i anvendelser der tilstandene ikke direkte kan observeres eller dokumenteres pålitelig.
Resultatene viste at OHMM oppnår svært høy prediksjonsnøyaktighet selv under begrensede observasjonsforhold, og overgår klart både HMM og de diskriminative modellene. Spesielt for observasjon #600 opprettholder OHMM en robust ytelse, noe som vitner om modellens evne til å håndtere komplekse, dynamiske systemer. Modellen klarer å forutsi ikke bare tilstandene men også deres overgangsmønstre, og gir dermed ikke bare punktprediksjoner, men også et sannsynlighetsbasert risikobilde langs tunneltraséen.
OHMMs største styrke ligger i dens generative natur og dens evne til å modellere både observerbare og skjulte prosesser. Den er ikke bare et klassifiseringsverktøy, men en systemmodell som fanger underliggende dynamikk og avhengigheter mellom jordobservasjoner og geologisk risiko. Dette gjør den anvendelig i fremtidsrettet risikoplanlegging og beslutningsstøtte, særlig i prosjektfaser hvor faktiske observasjoner er sparsomt tilgjengelige eller fragmenterte.
For å sikre effektiv konvergens må initialiseringsprosedyren håndteres med presisjon. En dårlig tilpasset startmodell vil kunne bremse læringen eller lede til suboptimale parametere. I den aktuelle modellen anvendes derfor en balanse mellom uniform initiering og stokastisk variasjon i emisjonssannsynligheter. Den observerte ustabiliteten i de første 250 iterasjonene er en konsekvens av at parameteroppdatering holdes tilbake i denne fasen, hvilket er nødvendig for å tillate at de tilstrekkelige statistikkene fanger opp nok informasjon før modellen justeres.
Det som gjør OHMM spesielt egnet til prediktiv geologisk analyse er dens evne til å representere variasjon i både tilstands- og observasjonsrommet som en funksjon av romlig posisjon. Der andre modeller antar stasjonaritet og krever store mengder historiske data, tilpasser OHMM seg lokale forhold ved å lære kontekstuelle overgangs- og emisjonsmønstre. Dette gir en detaljert og fleksibel modell for risikoanalyse i uforutsigbare undergrunnsmiljøer, og åpner for utvidet bruk i adaptiv styring av boreprosesser, ressursallokering og beredskapsplanlegging.
For å oppnå full nytte av OHMM i praktisk anvendelse må leseren også forstå følgende: Observasjonenes kvalitet og representativitet er avgjørende – modellen lærer kun så godt som dataene tillater. I tillegg må man være bevisst på at modellen er følsom for hyperparameteren ts, som styrer når læringen starter. En feilkalibrert verdi kan føre til for rask eller for sen læring, og må derfor justeres i samsvar med prosjektets kompleksitet og datatilgjengelighet. Samtidig er det viktig å merke seg at OHMMs styrke ligger i kontinuerlig tilpasning – det er en modell som ikke skal fryses etter trening, men heller løpende foredles med nye data, i tråd med den dynamiske naturen til geologiske prosesser.
Hvordan velge marginalfordeling og kopula for modellering av tunnelens ansikts pålitelighet
I vurderingen av påliteligheten til tunnelansikter er det avgjørende å forstå hvordan de ulike statistiske modellene kan brukes for å beskrive avhengigheten mellom de variablene som påvirker konstruksjonsprosessen. De to hovedvariablene som blir vurdert i denne sammenhengen er støttepresset (X1) og jordens settling (X2). For å oppnå nøyaktige resultater i beregningene er det viktig å velge de riktige marginalfordelingene og en passende kopula som kan beskrive forholdet mellom disse variablene.
En viktig del av analysen er valget av marginalfordeling for hver av de to parameterne. For støttepresset (X1) er den beste marginalfordelingen den trukne normale fordelingen, som gir de laveste verdiene for både Akaike Information Criterion (AIC) og Bayesian Information Criterion (BIC), som er metoder for å evaluere hvordan godt en modell passer dataene. Den log-normale fordelingen har også en god tilpasning, men den trukne normale fordelingen er den mest presise. På den annen side viser jordens settling (X2) best tilpasning med den log-normale fordelingen, som viser seg å være mer passende for å beskrive den statistiske oppførselen til denne variabelen. Dette resultatet ble bekreftet gjennom histrogrammer og K-S tester, som viser hvordan de valgte fordelingene passer de målte dataene på en tilfredsstillende måte.
I tillegg til valget av marginalfordeling, er det også viktig å forstå avhengigheten mellom støttepresset og jordens settling. Den valgte kopulaen spiller en essensiell rolle her, og resultatene viser at Frank-kopulaen gir den beste tilpasningen. Dette er en viktig innsikt, da det tradisjonelt har blitt antatt at Gaussian-kopulaen er tilstrekkelig til å beskrive slike avhengigheter, men i dette tilfellet er den ikke like passende. Frank-kopulaen gir et bedre bilde av den negative korrelasjonen mellom de to variablene, som er tydelig bekreftet gjennom både Kendall-rangkorrelasjonskoeffisienten (τk) og simuleringene. Figuren som viser Frank-kopulaens sannsynlighetstetthetsplot og konturplottet, understreker hvordan denne kopulaen nøyaktig fanger den negative korrelasjonen mellom støttepresset og jordens settling.
Når det gjelder å bruke disse modellene til å vurdere påliteligheten av tunnelens ansikt, er det viktig å benytte Monte Carlo-simulering (MCS) sammen med kopula-modellen for å estimere sikkerheten. Dette gjør det mulig å få en mer presis forståelse av sikkerhetsstatusen for tunnelens ansikt under utførelsen av gravingen. Modellen som benytter seg av trukne normale fordeling for støttepresset og log-normal fordeling for jordens settling, gjør det mulig å beregne realistiske scenarier for hvordan disse variablene kan påvirke tunnelen, og dermed gi bedre grunnlag for sikkerhetsstyring.
Valget av marginalfordelinger og kopula kan påvirke nøyaktigheten i simuleringene, og det er viktig å ta hensyn til disse valgene for å få realistiske resultater. I tunnelingkonstruksjoner, hvor sikkerhet er avgjørende, kan feilaktig valg av modell føre til unødvendige risikoer. Gjennom kontinuerlig testing og validering, som beskrevet med Kolmogorov-Smirnov-testen, kan man sikre at de valgte modellene reflekterer den virkelige verden på en pålitelig måte.
Ved å bruke AIC, BIC og K-S tester på de valgte marginalfordelingene og kopulaene, kan man optimalisere modelleringen av de ulike avhengighetene mellom variablene, og dermed forbedre påliteligheten til analysene som brukes i tunnelgravingsprosjekter. Dette gjør det mulig å bedre vurdere risikoene som kan oppstå under konstruksjonen og å ta nødvendige forholdsregler på et tidlig stadium.
Det er viktig å merke seg at simuleringene ikke bare gir et bilde av hvordan variablene samhandler under normale forhold, men de kan også brukes til å analysere ekstreme scenarier. Dette er avgjørende i risikoanalysen av tunneler, der det er nødvendig å forberede seg på mulige katastrofale hendelser, som kan oppstå dersom de variablene ikke oppfører seg som forventet.
I tillegg til å fokusere på den matematiske modelleringen, bør leseren også være oppmerksom på betydningen av kontinuerlig overvåking under tunneldriftsprosessen. Å ha sanntidsdata for støttepresset og jordens settling gjør det mulig å justere modellene og prediksjonene basert på virkelige forhold, noe som er avgjørende for å opprettholde sikkerheten i tunnelkonstruksjoner.
Hvordan Bestemme Adequate MCS Prøvestørrelser for Pålitelighetsanalyse i Tunnelkonstruksjon
Når man gjennomfører pålitelighetsanalyser i tunnelkonstruksjon, er valg av passende prøvestørrelse en kritisk faktor som påvirker nøyaktigheten og stabiliteten til de estimerte resultatene. Bruken av Monte Carlo-simulering (MCS) har blitt en vanlig metode for å håndtere usikkerheter knyttet til variabler som påvirker stabiliteten til tunnelens ansiktsflate. For å sikre at analysen gir pålitelige resultater uten unødvendig lange beregningstider, er det viktig å forstå hvordan prøvestørrelsen påvirker påliteligheten av resultatene.
I analysen av feilprobabilitet, viser det seg at prøvestørrelser under 10 000 kan føre til plutselige endringer i estimatene. Dette kan gjøre resultatene ustabile og usikre. I kontrast viser prøvestørrelser over 100 000 mer stabile resultater, der feilene er betydelig mindre. En prøvestørrelse på 100 000 prøver anses derfor som et fornuftig valg i situasjoner der man ønsker en balanse mellom pålitelighet og beregningshastighet. Dette er en viktig faktor å vurdere for ingeniører og forskere som arbeider med tunnelprosjekter.
For å estimere feilen i feilprobabiliteten, benyttet Lü og Low en spesifikk formel (Eq. 15), som tar hensyn til både prøvestørrelse (N) og feilprobabilitet (pf). Her vises en konkret sammenheng mellom ønsket feilmargin og antall prøver som må genereres. For eksempel, for et 95% konfidensintervall og en feilmargin på 0,1, kreves det minst 38 031 prøver for å oppnå ønsket nøyaktighet. Det er viktig å merke seg at feilen i feilprobabiliteten kan reduseres betydelig ved å bruke et robustere prøvetakingssett.
En annen faktor som påvirker resultatene, er den målte prøvestørrelsen som brukes i MCS. Når man arbeider med data fra virkelige prosjekter, er det ofte begrenset med målte data. Dette gjør det vanskelig å trekke definitive konklusjoner, spesielt når prøvestørrelsen er liten. For å utforske påvirkningen av prøvestørrelsen, er det blitt utført simuleringer med varierende størrelser på målte data, fra 11 til 61. Simuleringene viser tydelig at mindre prøvestørrelser gir mer spredte og usikre resultater, mens større prøvestørrelser gir en mer konsentrert spredning som bedre reflekterer de faktiske forholdene i tunnelens ansiktsflate.
Mindre målte datasett med for eksempel 11 eller 31 prøver kan føre til store variasjoner i feilprobabiliteten, og disse kan avvike betydelig fra resultater basert på et større datasett (for eksempel 61 prøver). Dette understreker viktigheten av at målinger skal inkludere et tilstrekkelig antall data for å kunne gjennomføre pålitelige analyser. Prøvestørrelser på minst 41 målinger er nødvendige for å få stabile og pålitelige resultater.
I praksis er det avgjørende å ta hensyn til både simuleringen av MCS-prøver og kvaliteten på de målte dataene. Selv om større prøvestørrelser generelt fører til mer stabile og nøyaktige estimater, er det også viktig å vurdere de praktiske begrensningene i virkelige prosjekter. Begrenset tilgang på målinger kan tvinge ingeniører til å jobbe med mindre prøver, men det er viktig å være bevisst på de potensielle konsekvensene for resultatets pålitelighet.
Når man gjennomfører pålitelighetsanalyse i tunnelprosjekter, kan man ikke undervurdere verdien av en godt valgt prøvestørrelse. Det er viktig å forstå at for små prøvestørrelser kan føre til upålitelige resultater, mens større prøver gir mer presise og stabile estimater som reflekterer de virkelige forholdene bedre. En balanse mellom beregningstid og nøyaktighet må derfor nøye vurderes før valg av prøvestørrelse.
Endtext
Hvordan Digital Tvilling kan Optimere TBM-operasjoner i Tunnelkonstruksjon
I de siste årene har det vært en økt interesse for å bruke digitale tvillinger (DT) i tunnelkonstruksjon, spesielt når det gjelder å forbedre ytelsen til tunnelboremaskiner (TBM). Tidligere studier har forsøkt å knytte TBMs operasjonelle parametere med ytelsesindikatorer ved hjelp av ulike metoder som nevrale nettverk og genetiske algoritmer. Imidlertid har disse tilnærmingene ofte vært begrenset av manglende hensyn til tidsavhengigheter og en integrert plattform for sanntidsovervåking og kontroll.
TBM-operasjonene er komplekse og krever kontinuerlig tilpasning basert på variabler som fremdrift, sikkerhet, energiforbruk og verktøyutslitt. I denne sammenhengen har man nylig begynt å anvende multimåloptimering (MOO) som en metode for å balansere de ulike målsetningene i TBM-drift. En populær algoritme som benyttes til dette formålet er NSGA-II (Non-Dominated Sorting Genetic Algorithm II), som har vist seg å være effektiv for å finne optimaliserte løsninger på tverrfunksjonelle problemer, som for eksempel TBMs ytelse under forskjellige forhold.
Problemet med de fleste eksisterende tilnærmingene er at de ikke tar tilstrekkelig hensyn til den dynamiske naturen av TBM-operasjoner. TBM-ens ytelse på et gitt tidspunkt kan være sterkt påvirket av operasjoner fra tidligere tidspunkter, noe som kan gjøre det vanskelig å forutsi resultatene nøyaktig ved bruk av statiske modeller som ikke fanger opp temporale avhengigheter. Dette kan føre til suboptimale løsninger, hvor de foreslåtte driftsparametrene ikke nødvendigvis er praktiske i virkeligheten.
Digital tvilling-teknologi, som bygger på en kontinuerlig datautveksling mellom fysiske objekter og deres virtuelle representasjoner, har potensialet til å adressere disse utfordringene. Gjennom sanntidsdata samlet inn via sensorer på TBM, kan en digital tvilling-modell gi et nøyaktig og oppdatert bilde av maskinens tilstand og ytelse. Denne informasjonen kan deretter benyttes til å gjøre justeringer i sanntid, basert på både historiske og nåværende operasjonelle forhold.
Det er imidlertid fortsatt noen hindringer for videre implementering av DT i TBM-kontroll. Mange studier har hittil fokusert på utviklingen av algoritmer for MOO, men har ikke adressert behovet for en praktisk plattform som kan koble algoritmene med fysiske systemer. For å oppnå effektiv TBM-kontroll i sanntid, er det viktig å utvikle et integrert system som kan koble de digitale modellene med faktiske konstruksjonsoperasjoner.
Dette kan oppnås ved å kombinere metoder som NSGA-II med dyplæringsmodeller som kan kartlegge de komplekse forholdene mellom TBMs operasjonelle parametere og dens ytelse. Ved å integrere disse metodene med et digitalt tvillingmiljø, kan man oppnå en avansert optimalisering av TBMs operasjoner under faktiske tunnelboreforhold. Dette gir mulighet for mer nøyaktig og dynamisk beslutningstaking, som er essensielt for å sikre både effektivitet og sikkerhet i tunnelprosjekter.
Det er også viktig å merke seg at selv om den digitale tvillingteknologien har vist seg lovende i bygg- og anleggsindustrien, er de fleste implementeringene fortsatt på prototypestadiet. Det er derfor behov for videre forskning og utvikling for å gjøre DT-teknologi praktisk anvendelig i stor skala for TBM-kontroll. Spesielt må infrastrukturen for datautveksling mellom fysiske og virtuelle systemer forbedres, noe som kan innebære bedre integrasjon av IoT-sensorer og andre datainnsamlingsverktøy.
Med denne utviklingen kan vi forvente en fremtid hvor TBM-operasjoner ikke bare blir mer effektive, men også mer pålitelige og sikkerhetsfokuserte, ved at de tilpasses sanntidsforholdene på byggeplassen.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский