Geohazards som kollaps, vanninntrengning og jordskred har en betydelig innvirkning på tunnelkonstruksjon, og fører til prosjektforsinkelser, kostnadsoverskridelser og sikkerhetsproblemer. I perioden fra 2002 til 2018 ble det rapportert 97 geohazardhendelser under tunnelkonstruksjon i fjellområder i Kina, som førte til 393 dødsfall, 467 skader og 51 savnede personer. Forhåndsvisning av geologiske forhold er derfor avgjørende for å forhindre slike negative hendelser og minimere de tilknyttede tapene. Dette omfatter både valg av grave-metoder og optimalisering av tunnelens design i pre-konstruksjonsfasen, forutsigelse av operasjonsparametre under konstruksjonen, samt tilrettelegging av nødsressurser som svar på geohazards.

Tradisjonelle teknikker for innsamling av geologiske data kan deles inn i invasive og ikke-invasive metoder. Invasive metoder benyttes vanligvis under jordeksplorasjoner for å hente kjernekjerner til geologiske analyser eller for å utføre målinger på stedet. Ikke-invasive metoder, basert på de geofysiske egenskapene til jorden, tilbyr høy romlig oppløsning, men ingen av metodene kan gi en pålitelig løsning for nøyaktig å detektere volumene til områdene som vil bli dekket av planlagte tunnelruter. Spesielt gir invasive metoder relativt nøyaktige data, men de lider av et sparsomt prøvetakingsnivå og begrenset deteksjonsoppløsning. På den andre siden tilbyr ikke-invasive metoder høy romlig oppløsning, men mangler samme nivå av nøyaktighet på grunn av målefeil og feil som oppstår under signalbehandling. Dermed er tunneling-industrien i dag på jakt etter en metode som både kan beskrive geologisk informasjon og nøyaktig vurdere de tilhørende risikoene for å støtte effektiv tunnelkonstruksjon.

De siste årene har en rekke maskinlæringsteknikker blitt benyttet for å møte utfordringen med å forutsi geologiske forhold foran tunnelboremaskiner (TBM). Imidlertid er effektiviteten av disse teknikkene ofte begrenset av tilgangen på tilstrekkelige målinger for de systemene som modelleres. Tunnelprosjekter er enorme prosjekter som kan strekke seg over flere år, eller til og med tiår, noe som er betydelig lengre enn tiden som kreves for oppdatering av modellene. Dette skaper et dilemma der høyoppløselige geologiske forhold er ønsket før utgravning, men data om disse forholdene ankommer inkrementelt ettersom graveprosessen skrider frem. Forskning har vist at ytterligere data fra utgravingen av en 200 meter lang tunnelseksjon, både ved innløp og utløp, kan betydelig forbedre prediksjonsytelsen for bergmassens vurdering (RMR) ved hver kjede i tunnelen. Imidlertid ble oppdateringsprosessen kun utført én gang, og avhengigheten av data som kan oppdateres med kjedespesifikk informasjon er fortsatt en utfordring.

Selv om det er enkelt å registrere geologiske observasjoner, forblir det utfordrende å estimere de underliggende geologiske risikoene på en nøyaktig måte. Når det gjelder modellering av potensielle usikkerheter, skiller den skjulte Markov-modellen (HMM) seg ut som en banebrytende metode for å analysere sekvensielle data. HMM er en generativ modell som fokuserer på å forstå de underliggende mekanismene og dynamikken bak observasjonsprosesser drevet av skjulte tilstander. HMM-metoden har vist seg lovende i databehandlingssystemer, men dens potensial innen tunnelkonstruksjon forblir uutforsket og er verdt videre undersøkelse.

I stedet for å fokusere utelukkende på å forbedre databehandlingshastigheten, kan prioriteringen av å forbedre evnen til å forutsi flere steg på forhånd gi tilstrekkelig tid for TBM å tilpasse seg driften. Online læring, en underkategori av maskinlæring, tilbyr tilpasningsevne til strømmede data og sanntidsprediksjon ved å utnytte historiske data. I motsetning til batch-læring benytter online læring hver prøve ettersom den blir observert. Denne oppdateringsprosessen forbedrer ikke bare effektiviteten, men muliggjør også skalering i store applikasjoner. Online læring passer dermed godt for behovet for å forutsi geologiske risikoer foran TBM-utgravning ved kontinuerlig å bruke innkommende data. For å dra nytte av disse fordelene har forskere utviklet online læringsmetoder for å oppdage geologiske anomalier basert på TBM-parametere. Applikasjonen av disse metodene er imidlertid fortsatt sterkt avhengig av tilgjengeligheten av geologiske data, noe som i stor grad begrenser deres anvendelighet.

For å overvinne de begrensede dataene i tidlig konstruksjonsfase, er en observasjonsforlengelsesmekanisme foreslått for å utvide korte observasjonssekvenser til lengden på hele observasjonssekvensen, som karakteriserer den geologiske risikoen for tunneldækningsområdet. Dette kapitlet presenterer en ny tilnærming for avansert geologisk prognose ved å bruke strømmede data fra kjedespesifikasjoner for å trekke ut skjult geologisk risiko gjennom en online skjult Markov-modell (OHMM). Denne tilnærmingen representerer et fremskritt i feltet for geologisk risikoprediksjon ved å tilby en høyoppløselig metode (per kjedespesifikasjon/ring) med flere viktige bidrag.

Endtext

Hvordan kan geologiske forhold identifiseres nøyaktig under tunnelbygging ved hjelp av dyp læring og informasjonssammenslåing?

Nøyaktig og pålitelig identifikasjon av geologiske forhold under tunnelbygging er avgjørende for både sikkerhet og effektivitet. Tradisjonelle metoder – enten destruktive eller ikke-destruktive – har gitt viktige bidrag, men de er ofte begrenset i omfang, kostbare i drift og lite egnet for sanntidsbruk. I møte med disse utfordringene har nyere forskning vendt seg mot kunstig intelligens, og spesielt dype nevrale nettverk, for å utvikle mer presise og automatiserte løsninger.

Et nytt perspektiv innen intelligent tunnelbygging er bruken av ensemble-læring, der flere modeller kombineres for å forbedre nøyaktigheten og robustheten til prediksjonene. I stedet for å stole på én enkelt modell, anvender denne tilnærmingen flere MobileNet-arkitekturer som basismodeller. Disse modellene opererer som uavhengige observatører, og deres resultater betraktes som usikre bevis. For å håndtere denne flertydigheten og utnytte variasjonen i modellresultatene, introduseres Dempster–Shafer-teorien (DST) som en metode for informasjonsfletting. DST gjør det mulig å beregne troverdighetsgrader for ulike geologiske klasser basert på den samlede informasjonen fra modellene.

Denne sammenslåingen resulterer i en ny metode, kalt EMNet – en ensemble-variant av MobileNet som integrerer DST for å tilby høytreffsikker klassifisering av jordtyper under tunnelgraving. Dette er særlig viktig i skjolddrevne TBM-operasjoner, hvor det er kritisk å forutse de geologiske forholdene umiddelbart foran borehodet. Ved å bruke EMNet reduseres behovet for menneskelig tolkning av data, noe som bringer oss nærmere autonome TBM-systemer.

Videre benyttes SHAP-metoden (Shapley Additive Explanations) for å tolke hvordan EMNet tar sine avgjørelser. SHAP gir innsikt i hvilke inngangsparametere som mest påvirker klassifikasjonsresultatet, og muliggjør dermed ikke bare høy nøyaktighet, men også transparens i beslutningsprosessen. Dette er et vesentlig skritt mot å gjøre dype læringssystemer pålitelige og anvendbare i virkelige ingeniørprosjekter.

Utviklingen av denne metoden har vokst ut av et behov for å overvinne svakhetene ved eksisterende løsninger. De destruktive metodene, som borehullslogging og laboratorietesting av jordprøver, gir kun punktbasert informasjon og krever omfattende ekspertvurderinger for å tolke forholdene mellom borepunktene. De ikke-destruktive metodene, som radar, seismiske og elektromagnetiske målinger, er riktignok i stand til å levere mer kontinuerlige data, men de er teknisk krevende og kostbare i implementering, spesielt under pågående TBM-drift. De intelligente metodene – som tidligere har brukt støttevektor-maskiner, klyngeanalyse og grunnleggende dype nevrale nettverk – har vist stort potensial, men kritikken har vært tydelig: for ofte baserer prediksjonene seg på historiske data uten klar fysisk forståelse av mekanismene bak. Manuell klassifisering av borede masser og input av geologisk informasjon undergraver målsetningen om automatisering.

I dette landskapet tilbyr computer vision en kraftig løsning. Tidligere arbeid med konvolusjonsnevrale nettverk som U-net og AlexNet har vist at sanntidsklassifisering av bergmasser er mulig, men disse studiene har i hovedsak fokusert på fjell-TBM og gir begrenset støtte for klassifisering av jord. I tillegg bruker de etablerte arkitekturer uten videreutvikling mot formålet, noe som gjør dem sårbare for varians i datagrunnlaget.

Ved å kombinere ensemble-læring, DST og SHAP adresserer EMNet disse utfordringene i en helhetlig struktur: den øker presisjonen, reduserer usikkerheten og tilbyr forståelige forklaringer. Dermed kan man ta beslutninger med høyere tillit – en forutsetning for autonom tunnelbygging.

Det er viktig at leseren også forstår betydningen av korrekt dataforbehandling før treningen av slike modeller. Bildedata som benyttes for klassifisering er ofte av liten størrelse eller lav kvalitet, og uten riktige teknikker for dataaugmentering og preprosessering vil selv de mest avanserte modellene prestere dårlig. Det er også avgjørende å tilpasse modellen til lokale geologiske forhold, noe som krever et stort, variert og korrekt annotert datasett. Til slutt må det påpekes at tolkning av resultatene – selv med SHAP – ikke erstatter geologisk ekspertise, men bør ses som et verktøy for å styrke ingeniørens beslutningsgrunnlag i sanntid.

Hvordan forutsi TBM-holdning i sanntid ved hjelp av GRU-modellen

TBM-holdningsmålinger er kjent for å ha forsinkelse, noe som ofte fører til justeringer kun etter at betydelige avvik har oppstått. Nåværende prediksjoner for TBM-holdning basert på tidsserie data er vanligvis en-trinns prediksjoner, som gir utilstrekkelig justeringstid for praktiske applikasjoner, ettersom hvert tidssteg representerer en svært kort varighet. Denne begrensningen kan delvis overkommes ved å bruke en flerstegs prediksjon.

I flerstegs prediksjon brukes en sekvens-til-sekvens-metode, der tidsserieegenskaper matas inn for å forutsi fremtidige tidsserieutganger. Selv om flerstegs prediksjon i TBM-kontroll har fått begrenset oppmerksomhet, finnes det relaterte studier på samme område. For eksempel har Wei et al. brukt adaptiv empirisk bølgelettransformasjon og bi-LSTM for å forutsi skipets rullbevegelse, og Lu et al. introduserte et tidsmessig oppmerksomhetsenkoder-dekoder-nettverk for å forutsi bygningers varmelast ved hjelp av LSTM for å modellere tidsrelasjoner i data. I TBM-applikasjoner har GRU (Gated Recurrent Unit) derimot vist seg å være et mer effektivt alternativ enn LSTM, med tanke på både ytelse og beregningshastighet. Tidligere studier har vist at GRU tilbyr en mer kompakt struktur som forbedrer beregnings-effektiviteten uten å gå på bekostning av ytelsen.

I flerstegs prediksjon er en av de største utfordringene at nøyaktigheten ofte avtar etter hvert som lengden på sekvensen øker. Hvordan man kan produsere så mange tidstrinn som mulig i prosessen med TBM-holdningsprediksjon samtidig som man opprettholder høy nøyaktighet, er derfor en vanskelig oppgave. I tillegg inneholder ofte inngangsfunksjonene forstyrrelser som er uunngåelige, og flerstegsmodellen må kunne opprettholde nøyaktigheten under slike forhold. Dette er avgjørende for ingeniørmessige anvendelser, hvor påliteligheten av modellen er en kritisk faktor.

En effektiv måte å håndtere forstyrrelser på er ved å bruke 1D CNN (Convolutional Neural Networks), som kan trekke ut høy-dimensjonale funksjoner fra tidsseriedata uten behov for forhåndsbehandling. Dette styrker modellens motstandskraft mot uregelmessigheter og gjør det mulig å bygge modeller som også kan identifisere unormale operasjoner eller tilstander i TBM-systemer. Å trene en modell på data som representerer en "normal" TBM-tilstand kan også bidra til å støtte beslutningstaking ved unormale forhold.

Denne studien foreslår en flerstegs TBM-holdningsprediksjonsmetode ved å kombinere 1D CNN med GRU for å oppnå en robust og effektiv prediksjon. For å kunne kontrollere TBM-parametre på en presis måte, er det nødvendig å benytte en tidsskjema-prosedyre som består av flere trinn, hvor hvert trinn bidrar til å forbedre forutsigbarheten. Gjennom utførlige analyser og følsomhets-testing undersøkes effekten av ulike TBM-parametre på holdningen, og dermed hvordan de kan justeres i sanntid.

Datarekruttering er den første fasen i prosessen, der TBM-data eksporteres og lagres i en CSV-fil. Disse dataene kan deles inn i to hovedkategorier: aktive og passive data. Aktive data refererer til parametere som operatøren kan justere under skjoldboring, som artikulasjonsforskyvning, CHD RPM og fremdriftskraft, mens passive data omfatter parametere som returneres av sensorer, som jordtrykk, dreiemoment og penetrasjon. Når TBM er i nedstengningsmodus, er dataene mindre relevante for flerstegs prediksjon, og disse dataene fjernes derfor fra settet før analysen starter. En algoritme brukes til å rense funksjonene basert på fremdriftskraft, som enten er null ved nedstengning eller et positivt tall ved aktiv drift.

Deretter er det avgjørende å kontrollere om det finnes høye lineære korrelasjoner mellom valgte inngangs- og utgangsfunksjoner. Hvis det ikke finnes en klar lineær relasjon, vil det være behov for en mer kompleks modell. Pearson korrelasjonskoeffisient beregnes for å vurdere forholdet mellom variabler, og eventuelle unormale data kan fjernes eller behandles.

En annen viktig fase er normalisering av dataene. De forskjellige dimensjonene og verdirekkene til de valgte inngangsfunksjonene kan føre til feil under modelltrening. Derfor er normalisering et nødvendig steg for å hindre problemer knyttet til datastrukturens skala og enheter. Når modellen er trent på normaliserte data, kan de resulterende verdiene transformeres tilbake til de faktiske TBM-holdningsparametrene gjennom denormalisering. Dette sikrer at de predikerte verdiene reflekterer den faktiske statusen til TBM-enheten.

Når dataene er normalisert og omstrukturert til en tredimensjonal matrise, kan de brukes til prediksjon ved hjelp av GRU. GRU er en forbedret versjon av RNN (Recurrent Neural Network), kjent for sin enklere struktur, raskere opplæringstid og bedre beregnings-effektivitet sammenlignet med LSTM. GRU består hovedsakelig av to komponenter: oppdateringsporten og tilbakestillingsporten. Oppdateringsporten bestemmer hvor mye informasjon fra tidligere tidstrinn som skal overføres til fremtiden, mens tilbakestillingsporten bestemmer hvor mye informasjon som skal glemmes. Gjennom disse to portene behandles dataene, og informasjonen som er relevant for prediksjonen, blir lagret.

Denne fremgangsmåten for TBM-holdningsprediksjon gjennom flerstegsmodellen som kombinerer 1D CNN og GRU viser lovende resultater for å gjøre TBM-operasjoner mer pålitelige og nøyaktige, samtidig som den reduserer behovet for kontinuerlige manuelle justeringer.

Hvordan kan intelligent bygging revolusjonere beslutningstaking i byggebransjen?

Intelligent bygging har blitt en drivkraft for transformasjon i byggeindustrien, hvor teknologiske fremskritt som smart sensoring, maskinlæring, kunstig intelligens og dataintegrering har begynt å forme nye praksiser. Dette har ført til en betydelig endring i hvordan beslutningstaking og kalkulasjoner gjøres, sammenlignet med de tradisjonelle manuelle metodene. Ved hjelp av data samlet inn fra smarte enheter og sensorer, samt teknologi for signaloverføring og kommunikasjon, er det nå programvare som med kunstig intelligens (AI) ansvarlig for å analysere, behandle og bruke data på en intelligent måte. Denne utviklingen innebærer at byggeprosjekter kan bli mer presise, effektive og automatiserte.

For å håndtere de økende kravene til intelligens og automatisering, er forskjellige dataanalysemetoder blitt integrert i programvaren som brukes i byggebransjen. Dette inkluderer simulering og modellering, maskinlæring, dyplæring og forsterkende læring. Vanlige metoder for simulering, som de endelige elementmetoder (FEM), finite difference metoder og finite volume metoder, brukes for å skape nøyaktige modeller for design og analyse, som sett i programvare som ANSYS og ABAQUS. Maskinlæringsalgoritmer som støttemaskiner (SVM) og tilfeldige skoger (Random Forest) brukes til å håndtere lavdimensjonale data og er tilgjengelige gjennom programvarer som Python’s SMT og Matlab’s Dace.

For høyere dimensjonale data er dyplæring nødvendig. Dette innebærer algoritmer som konvolusjonelle og rekurrente nevrale nettverk, og bruker biblioteker som Keras og TensorFlow for implementering. Teknikker innen forsterkende læring, som Deep Q-networks og Proximal Policy Optimization, gjør det mulig for systemene å kontinuerlig forbedre seg basert på erfaringer fra den virkelige verden. Slike fremskritt gjør det mulig å bygge og operere mer komplekse systemer som kan analysere enorme mengder data i sanntid.

Men en stor barriere for implementeringen av intelligens i byggeprosjekter er fenomenet med "informasjonøyer", hvor store mengder konfidensielle data er fragmentert og derfor hindrer oppdatering og spredning av intelligente algoritmer. Dette kan forsinke utviklingen og anvendelsen av intelligent bygging på tvers av prosjektene. Likevel er det klart at integreringen av kunstig intelligens i programvare er avgjørende for å forbedre beslutningstaking og automatisering i byggeprosesser.

En annen viktig dimensjon av intelligent bygging er systemintegrasjon. I smarte byggeprosjekter blir smarte sensorer, kommunikasjonsteknologi og programvare med kunstig intelligens ofte integrert til et sett med systemer. Disse systemene gjør det mulig å utføre spesifikke funksjoner gjennom en koordinert innsats, som skaper en helhetlig løsning for byggingens hele livssyklus, fra persepsjon og overføring av data til beslutningstaking og operasjon. Teknologier som BIM (Building Information Modeling), cyber-fysiske systemer og digitale tvillinger gjør det mulig å standardisere, digitalisere og intellektualisere byggeprosesser. Dette forbedrer samhandlingen mellom ulike aktører og øker effektiviteten i prosjektene.

Systemintegrasjon kan forbedre byggeprosesser på flere måter. Den gir muligheten til å bruke data for å optimalisere hele byggeprosessen, fra tidlig design til bygging og vedlikehold. I tunnelbygging, for eksempel, brukes smarte sensorer og IoT-enheter til å samle inn sanntidsdata om jordforhold og strukturens integritet. Denne informasjonen blir sendt til eksperter som kan ta raske beslutninger for å unngå potensielle problemer, som jordskred eller maskinsvikt. Smarte systemer gir også muligheten til å redusere kostnader, tid og risiko ved å forutsi problemer før de oppstår og dermed tillate tidlige inngrep.

I tillegg til forbedringene i sikkerhet og effektivitet, bidrar intelligent bygging også til bærekraft. Bruken av smarte ventilasjonssystemer, energieffektive maskiner og avfallsreduksjonsteknologier kan redusere bygningens miljøpåvirkning. Dette kan i sin tur bidra til å utvikle mer bærekraftig infrastruktur som er bedre tilpasset fremtidens behov.

Det er imidlertid viktig å merke seg at den største barrieren for systemintegrasjon i byggeindustrien er den fragmenterte naturen av design, bygging og vedlikehold. For at de fullstendige fordelene av intelligent bygging skal realiseres, må det være bedre koordinering mellom disse fasene. Uten en helhetlig tilnærming til bygningens livssyklus, vil potensialet for effektivitet, digitalisering og samarbeid ikke utnyttes fullt ut.

Det er også viktig å understreke at utviklingen av intelligent bygging ikke er en enkel prosess. Det er flere utfordringer knyttet til implementeringen av disse teknologiene på tvers av store byggeprosjekter, inkludert spørsmål om datasikkerhet, behovet for opplæring og opplæring av arbeidskraften, og utfordringer i å tilpasse seg nye teknologier. Samtidig kan den raske utviklingen av nye verktøy og metoder gjøre det vanskelig for selskaper å holde tritt med innovasjonen. Likevel er det tydelig at de som omfavner intelligent bygging, vil ha en betydelig fordel når det gjelder konkurranseevne, kostnadseffektivitet og bærekraft.

Hvordan DNN-Modellen Forbedrer Risikokontroll i Tunneler

Dyp læring (DNN) har vist seg å være en effektiv metode for å modellere og forutsi komplekse geotekniske utfordringer, spesielt i tunneldrift og bygningens interaksjon med undergrunnsforhold. Gjennom våre eksperimentelle studier har vi utviklet og validert en DNN-modell som kan forutsi både jordsettelse og bygningens tippning med høy nøyaktighet. Denne modellen er i stand til å lære fra 16 inngangsvariabler og gi to numeriske utganger, Y1 og Y2, som representerer henholdsvis jordsettelse (i mm) og bygningens tippingsrate (i %). Dette har gjort det mulig å forbedre både planleggingen og risikohåndteringen under tunneldriftsprosesser.

I våre eksperimenter observerte vi at DNN-modellen raskt reduserte tapet i de første 200 treningsiterasjonene. Etter dette stabiliserte tapet seg på et relativt lavt nivå med små svingninger, som til slutt førte til et plateaustadium. I trening og testsett var MSE-verdiene for Y1 og Y2 henholdsvis 0.201 og 0.370, noe som indikerer at modellen har evnen til å forutsi de relevante variablene med høy presisjon. Spesielt på testsettet, for alle de 100 testpunktene, var den relative feilen for Y1 i intervallet [−0.378, 0.373], mens for Y2 var den i området [−0.050, 0.140]. Dette viser at DNN-modellen kan gi svært pålitelige prediksjoner i et svært variert og usikkert miljø.

Vår modell viste seg å være svært robust, da bare et lite antall prediksjoner for Y1 og Y2 gikk utenfor det akseptable området. Over 95 % av testdataene gav pålitelige resultater som var svært nær de faktiske verdiene. Dette demonstrerer modellens evne til å håndtere usikkerhet i de inngangsvilkårene og dens generelle nøyaktighet under varierte forhold.

Etter å ha oppnådd tilfredsstillende prediksjonsnøyaktighet med DNN-modellen, brukte vi deretter en Gradient Descent Optimization (GDO)-algoritme for å løse multi-output optimaliseringsproblemet (MOO). Dette hjalp til å finne optimale eller nær-optimale løsninger for å redusere tunnelrelaterte risikoer. GDO-algoritmen utforsker et stort løsningrom for å minimere de to målsetningene (Y1 og Y2), og vi oppdaget at ved å justere beslutningsvariablene innenfor et ±5 % intervall, kunne vi finne løsninger som betydelig forbedret risikokontrollen.

For eksempel, for testdataene med punkt #121 og #126, viste GDO-algoritmen en betydelig forbedring av resultatene etter 50 iterasjoner, med gjennomsnittlig avstandsreduksjon på henholdsvis 0.139 % og 1.492 %. Den største forbedringen ble oppnådd ved å redusere risikoen for jordsettelse og bygningens tippingsrate, og de optimale løsningene ble lett identifisert for videre implementering i tunneldriftsprosessen.

En interessant observasjon var at de tre beste løsningene for hvert testpunkt kunne brukes til å veilede beslutningstakere i risikokontroll. Denne tilnærmingen bidro til å skape et rammeverk for datadrevet beslutningstaking, der avhengigheten av ekspertvurderinger og tidligere kunnskap kunne reduseres. Videre viste analysen at jo mindre avstanden til ideell løsning (0, 0) var, jo større ble forbedringen av risikoavlastningen.

I tillegg åpner muligheten for å justere vektene mellom de to målsetningene i den objektive funksjonen for ytterligere fleksibilitet. Ved å endre vektene mellom Y1 og Y2 kan vi tilpasse optimaliseringsprosessen for spesifikke prosjektkrav, noe som gjør denne metoden enda mer nyttig i praktiske applikasjoner som involverer kompleks tunnelbygging og tilstøtende strukturer.

I lys av dette er det viktig å forstå at bruken av DNN-modeller sammen med GDO-algoritmer ikke bare forbedrer prediksjonsnøyaktigheten, men også gir et kraftig verktøy for å håndtere usikkerhet og kompleksitet i tunnelrelaterte prosjekter. Denne tilnærmingen kan bidra til å redusere risikoen for strukturelle skader og forbedre sikkerheten for både tunnelarbeidere og beboere i nærliggende bygninger. For prosjektledere og ingeniører gir dette en effektiv metodikk for å ta informerte beslutninger basert på prediktiv analyse, noe som er avgjørende for å implementere riktige sikkerhetstiltak i utfordrende geotekniske forhold.