DTW-Kmedoids och softDTW-Kmedoids är metoder för klustring som i detta fall har applicerats på geologiska tidsseriedata från tunneldragningsprojekt. Båda metoderna bygger på dynamisk tidsvridning (DTW) som mått på likhet mellan tidsserier, vilket är särskilt användbart vid analys av komplexa och brusiga data där traditionella avståndsmått som euklidiskt avstånd inte är lika effektiva.

I jämförelse med den klassiska Kmedoids-algoritmen, som visade svag förmåga att korrekt representera geologiska förhållanden, levererar både DTW-Kmedoids och softDTW-Kmedoids betydligt bättre klustringsresultat. Deras förmåga att särskilja olika geologiska typer förbättras, särskilt typ I, medan utmaningar kvarstår vid klassificeringen av geologisk typ III, vilket kan hänföras till otillräcklig datamängd för denna kategori. Skillnaden mellan de två metoderna ligger i misstagens karaktär: DTW-Kmedoids tenderar att felklassificera typ II som typ III, medan softDTW-Kmedoids oftare förväxlar typ II med typ I.

Valet av antalet kluster (k) är avgörande för klustringskvaliteten. Genom att använda utvärderingsmått som Rand Index (RI) och Fowlkes-Mallows Index (FMI) fastställdes att fyra kluster bäst överensstämmer med de faktiska geologiska förhållandena i detta fall. Resultaten visade också att DTW-Kmedoids överträffar både softDTW-Kmedoids och grundläggande Kmedoids i prestanda över flera värden på k, vilket indikerar dess lämplighet för denna typ av data.

En vidare jämförelse mellan olika klustringsmetoder visade att partitioneringsmetoder som Kmedoids och Kmeans generellt ger bättre resultat för denna typ av data än hierarkiska och täthetsbaserade algoritmer. Detta beror bland annat på deras förmåga att hantera sferiska kluster och lämpligheten för dataset av liten till medelstor storlek. DTW som avståndsmått förbättrar signifikant klustringsresultatet över alla dessa metoder, vilket bekräftar dess effektivitet i att mäta likhet mellan tidsserier i geologiska applikationer.

För att öka förståelsen av vilka parametrar som påverkar klustringsresultatet, undersöktes effekten av att successivt utesluta olika funktionsvärden. Bland dessa visade sig TBM (Tunnel Boring Machine)-relaterade parametrar vara särskilt viktiga. Till exempel ledde borttagandet av funktionen som motsvarar penetrationshastighet till den största nedgången i både RI och FMI, vilket understryker dess betydelse för att snabbt kunna återkoppla geologiska förhållanden under tunneldrivning.

Det är av vikt att inse att metodernas framgång i detta sammanhang bygger på att de utnyttjar tidsseriernas sekventiella karaktär på ett sätt som traditionella metoder inte gör. DTW möjliggör att sekvenser med olika längd och temporala förskjutningar kan jämföras meningsfullt, vilket är centralt vid geologisk profilering där variationer i data ofta är både tidsskiftade och icke-linjära.

Viktigt är också att klustringsresultatens validitet måste bekräftas mot verkliga geologiska förhållanden och ingen algoritm kan ersätta behovet av expertanalys. Dataens kvalitet och kvantitet, liksom val av rätt parametrar för klustringen, är avgörande faktorer för att säkerställa att resultatet är praktiskt användbart.

Hur påverkar valet av kopulafunktion och beroende mellan variabler sannolikheten för ras i tunnelsäkerhet?

Vid analys av tunnelsäkerhet är det avgörande att korrekt beskriva sambandet mellan bärande tryck och markrörelser. Traditionella modeller som antar oberoende variabler kan ge kraftigt missvisande resultat, vilket framgår tydligt när man studerar sambandet mellan stödtryck och markens sättning vid tunnelgrävning. Empiriska data visar en stark negativ beroende mellan dessa variabler, vilket utesluter oberoende antagandet som rimligt. När detta antagande trots allt används, blir felberäkningen av risken för ras inte bara stor, utan den kan överstiga 100 procent jämfört med en mer korrekt modellering, vilket leder till överdrivet konservativa säkerhetsfaktorer och ökade kostnader.

För att hantera detta används kopulafunktioner för att bättre beskriva beroendestrukturen. I studien jämförs fyra olika kopulafunktioner — Frank, Gaussisk, Plackett och No. 16 — med data som simulerats via Monte Carlo-metoden (MCS). Dessa funktioner fångar olika aspekter av sambanden mellan variablerna och påverkar därmed direkt beräkningen av fel- och ras-sannolikheter. Bland dessa framstår Frank-kopulan som mest adekvat utifrån kriterier som AIC och BIC, och dess felvärde i uppskattning av ras-sannolikheten är det minsta, vilket gör den till referenspunkt för tillförlitlighetsanalysen.

En viktig observation är att val av kopulafunktion har stor betydelse för resultatens tillförlitlighet. Den Gaussiska kopulan underskattar ofta risken för ras genom att inte fånga icke-linjära beroenden på ett tillfredsställande sätt, vilket leder till mindre konservativa slutsatser och därmed potentiella säkerhetsrisker. Andra kopulafunktioner visar högre och mer realistiska sannolikheter, även om skillnaderna mellan Frank och No.16 är små.

Vidare visar analyser av hur ras-sannolikheten varierar med förändrade gränsvärden för stödtryck och markrörelser en tydlig trend: rasrisken ökar med högre krav på minimalt stödtryck och minskar när tillåtna markrörelser blir större. Dock är skillnaderna i beräknad risk beroende av kopulans val, vilket understryker behovet av dynamisk anpassning av dessa gränsvärden i praktiken.

Ur ett metodologiskt perspektiv är valet av tillräckligt stort provstorlek vid Monte Carlo-simulering kritiskt. En större provmängd minskar osäkerheten och ökar precisionen i sannolikhetsuppskattningarna, särskilt när det gäller låga sannolikheter för sällsynta händelser som ras. Samtidigt ökar beräkningstiden med fler simuleringar, vilket ställer krav på optimering mellan noggrannhet och effektivitet. För få simuleringar kan ge stora felmarginaler och därmed undermåliga beslutsunderlag.

Viktigt att förstå är att sannolikheten för tunnelfrontens kollaps är ett resultat av komplexa beroenden mellan olika parametrar, och att felaktiga antaganden om dessa beroenden leder till både överskattningar och underskattningar av risken. Att använda kopulafunktioner tillåter en mer nyanserad bild av sambanden och därmed mer realistiska och ekonomiskt rimliga säkerhetsmarginaler. Dessutom bör parametrarnas gränsvärden ses som flexibla och anpassas efter projektets unika förutsättningar för att bäst balansera säkerhet och kostnad.

I denna kontext är det avgörande att utvärdera de statistiska egenskaperna hos både mätdata och simulerade data noggrant, samt att kontinuerligt uppdatera modellerna när ny information blir tillgänglig. Att tolka resultaten med förståelse för de matematiska och statistiska antagandena bakom kopulafunktioner är nödvändigt för att inte överskatta säkerheten i tunnelbyggen. Det är också viktigt att tillämpa dessa analyser i ett bredare systemperspektiv, där andra faktorer såsom materialegenskaper, konstruktionstekniker och miljöförhållanden integreras för att säkerställa en heltäckande riskbedömning.

Hur man hanterar osäkerhet vid val av tunneldriftsutrustning: En metod för beslutsfattande under osäkerhet

I beslutssituationer som involverar val av tunneldriftsutrustning är det ofta svårt att ta hänsyn till alla variabler på ett objektivt sätt. Speciellt när det gäller att definiera vikterna för kriterier som ska utvärderas, är det vanligt att använda sig av subjektiva metoder, som expertbedömningar, vilket kan leda till olika tolkningar och osäkerheter. För att hantera dessa osäkerheter och för att öka precisionen i beslutet används ofta metoder som TOPSIS (Technique for Order Preference by Similarity to Ideal Solution) tillsammans med objektiva viktmetoder. En av de mest användbara teknikerna inom detta område är entropiviktmetoden, som erbjuder ett sätt att objektivt bestämma kriterievikter baserat på attributens informationsentropi.

I TOPSIS-ramverket är en av de första stegen att standardisera evalueringarna, vilket innebär att alla värderingar konverteras till ett gemensamt mått, ofta genom att beräkna förhållandet mellan varje alternativ och den totala summan av alla alternativ för varje kriterium. Denna standardisering möjliggör en jämförelse mellan alternativen baserat på deras relativa prestationer inom varje specifikt kriterium. För att sedan minimera de subjektiva faktorer som kan påverka resultatet, används entropiviktmetoden, som tilldelar vikter till kriterier baserat på deras informationsentropi. Här antas det att kriterier med lägre entropi, det vill säga de som ger mer konsekventa och tillförlitliga data, får högre vikter, medan kriterier med högre entropi tilldelas lägre vikter.

Efter att vikterna har bestämts, skapas en viktad utvärderingsmatris där varje alternativs prestation för varje kriterium multipliceras med den respektive vikten. Därefter identifieras de bästa (PIS, Positive Ideal Solution) och de sämsta (NIS, Negative Ideal Solution) alternativen för varje kriterium. PIS representerar de högsta värdena för fördelaktiga kriterier och de lägsta värdena för kostnadskriterier, medan NIS representerar de lägsta värdena för fördelaktiga kriterier och de högsta för kostnadskriterier.

För att rangordna alternativen beräknas sedan de relativa avstånden från PIS och NIS. Avståndet till PIS och NIS används för att beräkna närhetskoefficienten för varje alternativ. Denna koefficient ger ett mått på hur nära ett alternativ är den ideala lösningen och kan användas för att rangordna alternativen i en beslutsordning.

När det gäller beslutsfattande under osäkerhet, där subjektiva bedömningar och deras inneboende osäkerheter spelar en viktig roll, är det ofta nödvändigt att ta hänsyn till dessa osäkerheter på ett kvantitativt sätt. Här kommer en annan viktig teknik in i bilden – molnmodellen. Denna metod gör det möjligt att representera osäkerhet i mänskliga bedömningar genom användning av variabler som förväntan, entropi och hyperentropi. Genom att använda dessa egenskaper kan man beskriva osäkerheten på ett sätt som gör det möjligt att manipulera och arbeta med den på ett konkret sätt.

För att effektivt hantera osäkerheten i samband med molnmodellen och TOPSIS, används Monte Carlo-simulering för att generera probabalistiska data från molnmodellens utvärderingsmatriser. Detta gör att man kan skapa ett stort antal möjliga bedömningar och beräkna närhetskoefficienter för varje simulering, vilket leder till en mer robust och realistisk rangordning av alternativen. Genom att upprepa denna process många gånger, får man ett brett spektrum av resultat som kan ge en mer säker och stabil grund för att fatta beslut, även i osäkra och komplexa situationer.

Det är också viktigt att förstå att dessa metoder inte bara handlar om att rangordna alternativ, utan också om att hantera den osäkerhet som kommer med varje bedömning. Genom att införliva osäkerhetsmått och probabilistiska simuleringar i beslutstagandet, kan man minska risken för felaktiga beslut orsakade av subjektiva bedömningar eller bristande data.

I praktiken innebär detta att när man väljer tunneldriftsutrustning, måste man vara medveten om de potentiella källorna till osäkerhet, både i de data som samlas in och i de bedömningar som görs av experter. Genom att använda en systematisk metod som TOPSIS tillsammans med objektiva viktmetoder och simuleringar, kan man säkerställa att beslutet blir så välgrundat som möjligt, även om osäkerheten inte helt kan elimineras.

Hur kan optimering av hydraultryck förbättra TBM:ns drift?

I dagens grävteknik är hydrauliska cylindrar en grundläggande del av Tunnel Boring Machines (TBM), särskilt när det gäller den synkrona gräv- och segmentmonteringsprocessen. Effektiviteten och tillförlitligheten hos en TBM beror till stor del på att hydrauliska cylindrar fungerar korrekt, eftersom de styr både skärhuvudet och segmentinstallationen. En vanlig utmaning i denna typ av operationer är stresskoncentrationen i de hydrauliska cylindrarna, vilket kan leda till mekaniska problem och förkortad livslängd för utrustningen. För att lösa detta problem, föreslås ett ramverk för onlineoptimering av hydraultrycket baserat på en kombination av maskininlärning och flermålsoptimering, vilket inte bara ökar systemets stabilitet utan också säkerställer att cylindertrycket fördelas optimalt under segmentmonteringen.

I den här tekniken används en metod som kallas Bayesian optimization extreme gradient boosting (BO-XGBoost) för att upptäcka statusen på de hydrauliska cylindrarna i realtid. Detta system gör det möjligt att kontinuerligt övervaka och förutsäga cylinderns tillstånd baserat på historiska data. Denna metod kombineras med en online Archimedean optimization algorithm (AOA) för att omfördela trycket i de hydrauliska cylindrarna, vilket minskar stresskoncentrationen som uppstår under segmentmonteringen.

Hydrauliska cylindrar är centrala i både skärning och segmentinstallation inom TBM. Eftersom dessa operationer är direkt beroende av cylinderstatus, är det avgörande att kontrollera och förutse cylindertrycket för att upprätthålla effektivitet och säkerhet. Traditionella metoder för att kontrollera hydrauliska cylindrar, såsom empiriska, numeriska och experimentella tekniker, har sina begränsningar. Empiriska metoder är riskfyllda eftersom de är beroende av expertbedömningar som kan variera. Numeriska metoder är kostnadskrävande och kan inte användas i stor skala i praktiska ingenjörsprojekt. Experimentella metoder, även om de är de mest tillförlitliga, kräver omfattande resurser och är svåra att tillämpa på komplexa ingenjörsproblem.

Med framsteg inom maskininlärning har dock data-driven forskning blivit en populär lösning för att förbättra kontrollen av hydrauliska cylindrar. Maskininlärning gör det möjligt att exakt förutsäga cylindertrycket och rörelser baserat på historiska data och miljöparametrar. Detta gör det möjligt för operatörer att övervaka cylinderstatus i realtid och göra snabba justeringar för att förhindra problem som stresskoncentration och överbelastning.

Ett av de största hindren för att effektivt kontrollera flera hydrauliska cylindrar i ett TBM-system har varit avsaknaden av en metod för att analysera och optimera samordningen mellan cylindrarna. För att lösa detta problem har det utvecklats en flermålsoptimeringsmetod som både detekterar och styr cylindertrycket baserat på ett gemensamt mål att minska stresskoncentrationen. Detta innebär att när flera cylindrar arbetar tillsammans, kan deras tryck och rörelser justeras dynamiskt för att säkerställa att alla cylindrar arbetar i perfekt synkronisering, vilket minskar risken för skador och slitage.

I det föreslagna ramverket delas processen upp i tre huvudsakliga steg. Först beskrives den aktuella arbetsmiljön och de olika statusarna för de hydrauliska cylindrarna. Därefter används BO-XGBoost-modellen för att noggrant detektera cylinderstatus i realtid. Slutligen används AOA-algoritmen för att optimera trycket i de hydrauliska cylindrarna och skapa en ideal tryckfördelning som minimerar stress och ökar maskinens långsiktiga hållbarhet.

En ytterligare aspekt av denna optimering är förståelsen för de olika segmenttyper som används under segmentmonteringen. TBM:ns segment kan vara av tre olika typer: B-segment, H-segment och K-segment. Varje typ av segment påverkar cylindrarnas status och deras funktionella krav under montering. Genom att identifiera de olika tillstånden för de hydrauliska cylindrarna vid segmentinstallationen kan det optimala trycket för varje situation fastställas.

Det är viktigt att förstå att denna metod inte bara handlar om att förbättra cylinderprestanda utan även om att skapa en mer hållbar och effektiv drift av TBM. Genom att integrera realtidsövervakning, maskininlärning och flermålsoptimering skapas en självkorrigerande mekanism som gör det möjligt att optimera hela processen för både grävning och segmentinstallation. Detta innebär inte bara bättre resultat för varje projekt utan även minskad risk för oväntade driftstopp eller maskinskador.

Det är också väsentligt att vara medveten om att, även om optimeringen av cylindertrycket ger stora fördelar, det krävs en noggrann systematisk integrering av dessa teknologier i hela TBM:s driftssystem. Det är nödvändigt att inte bara ha rätt algoritmer för detektering och optimering utan också att alla system i TBM är korrekt kalibrerade för att stödja den här avancerade tekniken. Detta kan kräva ytterligare forskning och utveckling inom systemintegration för att säkerställa att alla delar av maskinen fungerar optimalt tillsammans.