Online Hidden Markov Model (OHMM) är en avancerad statistisk modell konstruerad för att koppla ihop observerade data från en plats med dolda tillstånd som representerar geologiska risker. Modellen består av fyra dolda tillstånd och fem observerbara händelser, vilka tillsammans skapar ett system där övergångar mellan tillstånden och sannolikheten att observera specifika händelser vid varje tillstånd kan beräknas och uppdateras i realtid. Denna dynamiska uppdateringsmekanism möjliggör en kontinuerlig anpassning till ny insamlad data, vilket gör OHMM särskilt lämpad för användning i situationer där observationerna ständigt förändras, som exempelvis under tunnelborrning.
I OHMM representeras övergångarna mellan tillstånden av en sannolikhetsmatris där varje element anger sannolikheten för att gå från ett tillstånd till ett annat. Likaledes används en emissionssannolikhetsmatris för att beskriva sannolikheten att en specifik observation uppträder givet ett visst dolt tillstånd. Initialt är dessa sannolikheter satta med uniforma eller slumpmässiga värden, eftersom de verkliga parametrarna inte är kända i förväg. Under modellens träningsfas uppdateras parametrarna stegvis med hjälp av insamlade observationsdata, vilket leder till en förbättrad förmåga att representera systemets verkliga dynamik.
En viktig aspekt i träningsprocessen är initieringen av tillräckliga statistikvariabler, vilka används för att samla information från observationerna innan modellparametrarna uppdateras. Genom att använda ett förinställt tröskelvärde, exempelvis 250 observationer, säkerställs att den initiala uppdateringen sker först när tillräcklig information samlats in, vilket stabiliserar inlärningsprocessen och minskar brus i tidiga skeden.
OHMM har testats i jämförelse med flera etablerade maskininlärningsmetoder såsom neurala nätverk, stödvektormaskiner (SVM), LSTM-nätverk samt den klassiska Hidden Markov Model (HMM). Resultaten visar att OHMM uppvisar en hög grad av noggrannhet, särskilt vid begränsade mängder observationsdata, där modellen överträffar de konkurrerande metoderna. Detta beror till stor del på OHMM:s förmåga att hantera online-inlärning och inkorporera ny information kontinuerligt utan att behöva tränas om från början, till skillnad från många andra algoritmer som kräver batchträning.
I praktiken innebär detta att OHMM kan ge en probabilistisk profil av geologisk risk längs tunnelbanan i realtid, där sannolikheten för olika risknivåer kan uppskattas baserat på aktuella jordartsobservationer. Denna profil kan användas för att fatta informerade beslut om tunneldrivningens säkerhet och anpassa insatser för att minska risken för olyckor och förseningar.
Förutom modellens arkitektur och träningsmetodik är det avgörande att förstå betydelsen av parameterinitialisering. Eftersom OHMM:s konvergens och prestanda är starkt beroende av hur nära den initiala modellen är den verkliga underliggande processens natur, är valet av initiala sannolikhetsmatriser och distributioner en nyckelfaktor för framgångsrik tillämpning. Slumpmässiga emissioner och uniforma övergångssannolikheter kan leda till en instabil inledande fas, vilket understryker behovet av noggrant utformade initieringsprocedurer.
Vidare är det centralt att uppskatta modellen inte bara utifrån dess prediktiva noggrannhet utan också genom dess sensitivitet och specificitet vid olika risknivåer. OHMM uppvisar i tester hög sensitivitet och specificitet, vilket innebär att modellen både korrekt identifierar när risk föreligger och undviker falska larm, en balans som är vital i geologiska tillämpningar där överdriven försiktighet kan orsaka onödiga kostnader och fördröjningar.
Det är också väsentligt att inse att OHMM:s styrka ligger i dess kapacitet att hantera komplexa, rumsligt varierande processer där övergångs- och emissionsbeteenden inte är homogena längs hela tunnellinjen. Denna flexibilitet gör modellen särskilt lämplig för geologisk riskbedömning där jordartens sammansättning och dess påverkan på borrmaskinens säkerhet kan förändras snabbt och oväntat.
En djupare förståelse av OHMM kräver också insikt i hur statistiska och sannolikhetsbaserade modeller fungerar i dynamiska system med osäkerhet. Att geologisk risk inte kan ses som ett statiskt tillstånd utan snarare som en stokastisk process med flera potentiella tillstånd är centralt. OHMM:s metodik för att kontinuerligt uppdatera sannolikhetsfördelningar reflekterar denna verklighet och erbjuder ett kraftfullt verktyg för att modellera och hantera osäkerheten i praktiken.
Slutligen bör läsaren beakta att effektiv implementering av OHMM kräver inte bara matematisk förståelse utan också insikt i de praktiska förutsättningarna för datainsamling och kvalitet. Då modellens prestanda är direkt kopplad till kvaliteten och kvantiteten av observerbara händelser, är korrekt och konsekvent insamling av geologiska data fundamentalt för att realisera modellens fulla potential.
Hur kan OHMM användas för att förutsäga geologiska risker vid tunnelbyggande?
Användningen av dolda Markovmodeller (HMM) för att förutsäga geologiska risker i tunnelbyggande har visat sig vara mycket effektiv, men för att förbättra deras anpassningsförmåga och precision kan en onlineversion av HMM, även kallad OHMM, vara ännu mer kraftfull. OHMM erbjuder fördelar genom sin förmåga att kontinuerligt uppdatera sina parametrar baserat på ny, lättillgänglig observationsdata. Denna anpassningsförmåga är särskilt viktig vid tunneldrivning, där geologiska förhållanden kan förändras snabbt och utan förvarning.
En viktig aspekt av OHMM är dess förmåga att hantera och förutsäga förändringar i geologiska tillstånd långt innan tunneln nått dessa områden. Genom att använda historisk observationsdata från olika tidsinstanser under tunnelarbetet kan modellen förutse framtida dolda tillstånd baserat på aktuella mönster i data. Detta gör det möjligt att genomföra mer informerade beslut om de kommande etapperna av tunnelbyggandet, vilket minskar risken för oväntade geohazarder och fördröjningar.
För att förutsäga de framtida dolda tillstånden kan OHMM anpassas för att hantera kontinuerliga observationsflöden. Denna anpassningsförmåga gör att modellen är särskilt användbar vid tillstånd där fullständig historik över data inte finns tillgänglig vid modellens initialisering. Istället kan OHMM baseras på de första stegen av insamlad data och sedan förbättras med varje ny observation som görs. Det innebär att till och med på tidiga stadier av tunnelbyggandet kan modellen ge värdefulla prognoser som kan vägleda arbetet framåt.
Vid analys av OHMM:s prestanda, särskilt när det gäller förutsägelser av geologiska risker, har det visat sig att modellen kan ge mycket höga förutsägelseaccurracies för framtida tillstånd, även långt före det faktiska tunnelarbetet når de områden som förutsägs. Detta gör OHMM till ett ovärderligt verktyg för att förhindra geohazarder och optimera tunneldrivningsprocessen.
För att effektivt kunna förutsäga geologiska risker med OHMM är det dock avgörande att samla tillräcklig mängd observationsdata från byggarbetsplatsen. Studien visar att modeller som tränas med data från minst 200 observationer ger de mest tillförlitliga förutsägelser. Före denna tröskel är modellen mindre stabil, vilket kan leda till osäkra resultat och instabilitet vid längre tidsförutsägelser. Denna minimi mängd data är därför en viktig parameter att ta hänsyn till när man planerar användningen av OHMM i tunneldrivning.
Genom att använda en observationsförlängningsmekanism kan OHMM:s förutsägelser förbättras genom att förlänga de korta sekvenserna av observationer till att matcha hela sekvenser av data. Denna förlängning gör det möjligt för modellen att producera mer exakta förutsägelser även när historiska data är begränsade. Enligt resultaten från Fig. 14, som visar effekten av antal steg som förutses framåt, kan OHMM:s förmåga att förutsäga geologiska risker förbättras avsevärt med ett större antal steg framåt, vilket ger en bättre balans mellan noggrannhet och detaljerade mönster i varje enskild förutsägelse.
En annan viktig observation är att när modellen används för att förutsäga geologiska risker för ett större antal steg framåt, tenderar förutsägelserna att vara mer stabila och motståndskraftiga mot förändringar baserade på ett fåtal nya prover. Detta innebär att även om nya data samlas in under tunnelarbetet, kommer förutsägelserna inte att påverkas i stor utsträckning av variationer i de senaste mätningarna, vilket är en stor fördel i långsiktiga prognoser.
Sammanfattningsvis ger OHMM ett robust och exakt sätt att förutsäga geologiska risker vid tunnelbyggande. Modellen är inte bara tillämpbar för att förutsäga kortsiktiga risker utan kan även ge långsiktiga prognoser med minimal mängd historisk data, vilket gör den särskilt användbar för att vägleda arbetsflödet under hela byggprocessen. För att uppnå den bästa möjliga förutsägelsen är det dock nödvändigt att noggrant överväga den initiala datamängden och se till att modellens parametrar justeras i takt med nya observationer.
Hur påverkar provstorlek tillförlitligheten i beräkningar av tunnelansiktsstabilitet?
När man utför reliabilitetsanalyser för tunnelansiktsstabilitet är provstorleken en avgörande faktor för att uppnå noggranna och pålitliga resultat. Små provstorlekar, särskilt under 10 000 samplingsstorlekar, kan leda till plötsliga och instabila förändringar i estimerade resultat. I kontrast till detta visar provstorlekar över 100 000 mer stabila resultat, utan plötsliga variationer, och som ett resultat blir estimationerna mer pålitliga i takt med att provstorleken ökar. Det har visat sig att en provstorlek om 100 000 samplingspunkter är tillräcklig för att uppnå en balans mellan tillräcklig tillförlitlighet i resultaten och beräkningshastighet.
För att uppskatta fel, använde Lü och Low en specifik formel för att beräkna felet (ε) vid uppskattning av misslyckandets sannolikhet baserat på MCS-provstorleken (N). Genom att använda Frank-kopulafunktionen, där felvärdet för 100 000 prover var 0,06, kan man säga att det krävs ett tillräckligt stort antal prover för att säkerställa att estimatet är tillräckligt exakt. Med en 95%-ig konfidensintervall, och ett k-värde på 1,96, visar dessa beräkningar att ett MCS-prov om 100 000 prover är tillräckligt för att uppnå trovärdiga tillförlitlighetsanalyser utan att det krävs för lång beräkningstid.
I praktiken kan man använda denna metod för att bestämma den minsta provstorleken för MCS-beräkningar. Wang föreslog en formel där det minsta antalet prover ska vara åtminstone tio gånger större än det omvända värdet av den sannolikhet man är intresserad av. För ett mål om 0,01 i misslyckandets sannolikhet och ett antal möjliga diskreta värden för X1 och X2 som är lika med 61, blir den minsta provstorleken 61 000, vilket innebär att prover större än detta antal kommer att säkerställa noggrannhet i analysen.
En annan viktig aspekt är att den uppmätta provstorleken i ett verkligt ingenjörsprojekt kan vara begränsad. När man simulerar misslyckandets sannolikhet med hjälp av MCS kan den uppmätta provstorlekens variationer ha en direkt påverkan på resultatet. Om provstorleken är för liten kommer simuleringen att ge mindre stabila och mer osäkra resultat. Till exempel visade simuleringar med endast 11 uppmätta datapunkter att resultaten varierade kraftigt jämfört med simuleringar med större provstorlekar, som 61 datapunkter. Ju större provstorlek, desto mer koncentrerade och pålitliga blir de simulerade datapunkterna.
Det visade sig att resultatet för misslyckandets sannolikhet, när det beräknades med små uppmätta datamängder (11, 21 och 31 prover), var mycket instabilt och avvek kraftigt från resultaten med större prover. Detta innebär att det inte är tillräckligt att använda provstorlekar under 41 datapunkter i sådana analyser. För att få tillförlitliga och användbara resultat krävs minst 41 uppmätta datapunkter.
Den praktiska tillämpningen av denna metod kan illustreras genom ett fallstudie av Wuhan-metrosystemet, där en copula-baserad metod användes för att noggrant karakterisera beroendestrukturer och förbättra tillförlitligheten i analysen av tunnelansiktsstabilitet under konstruktion. Denna metod bidrar till att ge en mer övertygande uppskattning av tunnelansiktsstabilitet även i fall där tillgången till fullständig mätdata är begränsad. När den samlade tillförlitlighetsanalysen genomförs med en stor MCS-provstorlek ger metoden trovärdiga och robusta resultat som är användbara för att säkerställa säkerheten och stabiliteten hos tunnlar under konstruktion.
För att sammanfatta, visar forskning och tillämpning att provstorlek spelar en avgörande roll för noggrannheten i beräkningarna av misslyckandets sannolikhet. En tillräcklig provstorlek, särskilt över 100 000 prover, minskar osäkerheten och säkerställer att analysen är tillförlitlig. Därmed bör man alltid beakta provstorlekens inverkan vid bedömningen av tillförlitligheten i tekniska analyser av tunnlar och andra stora byggprojekt.
Hur förbättras TBM-prediktion genom fusionen av 1D-CNN och GRU i C-GRU-nätverket?
Att mata in all rådata direkt i en GRU-modell kan vara ineffektivt och leda till sämre prestanda. Eftersom tidsseriedata för varje egenskap är envägs och oberoende av varandra, kombineras istället GRU och 1D-konvolutionsnätverk (CNN) i en sammansatt C-GRU-arkitektur. Denna modell består av tolv lager: tre 1D-konvolutionslager som extraherar avancerade kännetecken, två maxpoolinglager för att bredda mottagningsfältet, tre GRU-lager för sekvenshantering och fyra fullt anslutna lager som kopplar samman extraherade funktioner med målvariablerna. Aktiveringsfunktionerna i konvolutions- och fullständigt anslutna lager använder exponentiella linjära enheter (ELU) för att förbättra nätverkets icke-linjära uttrycksförmåga och därmed prediktionsnoggrannheten. Inputdimensionerna justeras efter antalet valda TBM-funktioner och tidigare tidssteg, medan outputdimensionerna anpassas efter TBM:s attitydparametrar och längden på den predikterade sekvensen.
Vid modellträning används medelkvadratfel (MSE) som förlustfunktion för att på ett heltäckande sätt utvärdera skillnaden mellan förutsagda och verkliga värden, och RMSprop optimerare hjälper till att hitta den globala minimin för förlustfunktionen. Utöver MSE används även medelabsolutfel (MAE) och R² för att ytterligare bedöma modellens prediktionskvalitet och jämföra den med andra modeller på ett standardiserat sätt. MAE ger en intuitiv bild av genomsnittsfelen medan R²-värdet, som varierar mellan 0 och 1, visar modellens förklaringsgrad.
För att förstärka modellens praktiska tillämpbarhet utförs känslighetsanalys med hjälp av Random Balance Design Fourier Amplitude Sensitivity Test (RBD-FAST). Denna metod förbättrar både beräkningseffektivitet och robusthet jämfört med traditionella metoder och används i komplexa ingångs- och utgångsscenarier, exempelvis inom bygg- och civilingenjörsområdet. Känslighetsanalysen hjälper till att klargöra hur mycket varje enskild ingångsparameter påverkar modellens slutgiltiga prediktioner.
För att verifiera modellens effektivitet har C-GRU använts på TBM-data från T308-tunnelprojektet i Singapore. Projektet innefattar en 1480 meter lång tunnel med sensorer som kontinuerligt samlar in data. För att minimera effekterna av plötsliga jordförhållandeförändringar valdes en stabil markzon, där jorden består av marint lera, som analysintervall. Trots att markförhållandena är relativt enhetliga, finns komplexa variationer i TBM:s attityddata som utgör en utmanande testbädd för modellen.
Från den ursprungliga datamängden på 767 funktioner och över 14 000 datapunkter har man, efter borttagande av driftstopp, valt ut 18 TBM-parametrar och fyra attitydparametrar baserade på ingenjörserfarenhet för att optimera både precision och beräkningshastighet. Dessa parametrar normaliseras för att skapa en enhetlig skala och underlätta inlärningen. En viktig insikt är att vissa TBM-attityder, såsom horisontella och vertikala avvikelser mellan led och svans, varierar i mönster och komplexitet, vilket gör multi-step prediktioner särskilt utmanande.
Det är avgörande att förstå att djupinlärningsmodeller som C-GRU kan hantera gradvisa variationer i jordens egenskaper, vilket möjliggör mer tillförlitliga prediktioner under stabila markförhållanden. Samtidigt är plötsliga förändringar i jordlagren oförutsägbara och kräver ytterligare metodologiska anpassningar eller kompletterande sensordata för att bibehålla prediktionsnoggrannheten. Känslighetsanalysen bidrar med värdefull kunskap om vilka parametrar som är mest inflytelserika, vilket kan styra framtida datainsamling och modellutveckling. Att välja rätt inputfunktioner baserat på ingenjörsbedömningar och att använda en kombination av konvolutionella och rekurrenta nätverk är centralt för att hantera den komplexitet och dynamik som finns i TBM-dataserier.
Hur DRL-teknologi förbättrar kontrollen av TBM:er: En djupgående analys
Vid användning av djupförstärkningsinlärning (DRL) för att optimera hållningen på Tunnel Boring Machines (TBM) visar resultaten på betydande förbättringar jämfört med manuell operation. En central del av denna förbättring är den avancerade kontrollen av avvikelser i både vertikal och horisontell riktning. För att jämföra och analysera effektiviteten av DRL, användes flera olika modeller för att förutsäga och simulera dessa avvikelser, bland annat LSTM (Long Short-Term Memory), CNN (Convolutional Neural Networks), och Transformer-nätverk.
LSTM-nätverket visade sig vara mest exakt i att förutsäga vertikala avvikelser, samtidigt som det också uppvisade en konkurrenskraftig noggrannhet för horisontella avvikelser. I en detaljerad jämförelse mellan modellerna, där R2-värdet för testdata sammanfattades, framkom det att LSTM-modellen var den mest effektiva i att förutsäga avvikelser med högsta precision. Detta underbygger metoden som en solid grund för att optimera TBM:ers hållning.
Vid implementeringen av DRL används Adam-optimeringsalgoritmen för att kontinuerligt anpassa både kritiker- och aktörnätverken under träning. De nätverk som tränas består av tre dolda lager med 128 neuroner som aktiveras via en sigmoidfunktion. De nyckelparametrar som styr träningsprocessen, inklusive diskonteringsfaktor och uppdateringshastighet, har visat sig skapa en stabil träningsmiljö som möjliggör en effektiv och kontinuerlig förbättring av TBM:ens hållning.
Jämfört med manuell drift uppvisar DRL en dramatisk minskning av både horisontella och vertikala avvikelser. I genomsnitt förbättrades den horisontella avvikelsen med 35,1%, medan den vertikala avvikelsen förbättrades med 66,3%. Detta resulterade i en övergripande förbättring av 50,7%, vilket bekräftar fördelarna med att använda DRL för att styra TBM:ens hållning mer exakt och stabilt än manuell kontroll.
Denna förbättring är särskilt märkbar i de sista faserna av den automatiserade driftcykeln, där DRL lyckas hålla vertikala avvikelser inom 10 mm, vilket är en anmärkningsvärd förbättring jämfört med manuell operation. Detta innebär att inte bara förbättras precisionen, utan även stabiliteten i processen – en kritisk faktor för långa och komplexa tunnelborrningsoperationer.
Vidare, genom att analysera den totala fördelningen av kraft från de olika drivcylindergrupperna i TBM:en, visar det sig att DRL ger en mer jämn fördelning av krafterna över hela maskinen, vilket minskar belastningarna och förhindrar onödig slitage på maskinens komponenter. Detta är en direkt konsekvens av den finjusterade kontrollen som DRL möjliggör.
För att förstå fullständigt varför DRL-teknologin är så effektiv, bör det understrykas att det inte bara handlar om att minska avvikelser, utan också om att skapa en långsiktig hållbarhet i arbetsflödet. Det handlar om att minska riskerna för maskinfel och förlänga livslängden på TBM:en genom att optimera alla aspekter av dess rörelse och kontroll. DRL:s möjlighet att bearbeta och justera i realtid gör det möjligt att förutse och förebygga problem som annars skulle ha uppkommit under operationen, vilket är en central fördel i komplexa och tekniskt krävande uppgifter som tunnelborrning.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский