De stabiliteit van een tunnel tijdens de graafwerkzaamheden is een complex probleem, waarbij verschillende variabelen zoals de ondersteuningsdruk en de grondsetteling met elkaar verbonden zijn. Kim et al. [5] benadrukten dat de grondheffing waarschijnlijk optreedt bij een hoge ondersteuningsdruk tijdens de tunnelgraving, wat wijst op een duidelijke afhankelijkheid tussen de ondersteuningsdruk en de grondsetteling. Yang en Qin [6] concludeerden dat een onvoldoende ondersteuningsdruk zou leiden tot grote verplaatsingen van de grondmassa en de instorting van de excavatiewand, waarbij zowel de ondersteuningsdruk als de grondsetteling de belangrijkste factoren zijn voor de controle over de stabiliteit van de tunnelwand. Ondanks de erkenning van deze onderlinge relaties, blijft er onduidelijkheid over hoe de correlatie tussen ondersteuningsdruk en grondsetteling precies gemodelleerd moet worden, voornamelijk door geologische onzekerheden.
In dit verband biedt de copula-theorie een flexibele benadering voor het modelleren van de gezamenlijke verdeling van meerdere variabelen, wat het mogelijk maakt om zowel lineaire als niet-lineaire relaties tussen deze variabelen vast te leggen. Copula's bieden de mogelijkheid om de marginale verdelingen van individuele variabelen onafhankelijk van elkaar te modelleren en vervolgens de afhankelijkheidsstructuren te integreren. Deze benadering is bijzonder waardevol wanneer men probeert de betrouwbaarheid van een tunnelgraafproject te analyseren, waarbij er vaak sprake is van beperkte data en onzekerheden in de gemeten waarden.
Ondanks dat enkele studies de toepassing van copula-theorie in betrouwbaarheidsevaluaties voor de bouwsector hebben onderzocht, bestaat er nog geen algemeen geaccepteerd raamwerk voor het modelleren van de betrouwbaarheid van de tunnelwand met inachtneming van de onderlinge afhankelijkheden tussen systeemvariabelen. Bovendien is er slechts beperkte aandacht besteed aan het effect van variërende faalcriteria op betrouwbaarheidsschattigingen. Dit onderzoek beoogt deze hiaten te vullen door een copula-gebaseerde benadering voor te stellen die de nauwkeurigheid van betrouwbaarheidsschattingen voor de tunnelwand kan verbeteren door rekening te houden met afhankelijkheidsstructuren, variaties in faalcriteria en de kwaliteit van schattingen op basis van de grootte van de beschikbare data.
Een belangrijk probleem bij het toepassen van deze methodologie is het beperkte aantal waarnemingen, wat vaak minder dan 30 is. Dit kan leiden tot vertekende statistieken en onbetrouwbare resultaten. Daarom is voldoende data essentieel voor zinvolle statistische analyses en redelijke betrouwbaarheidsschattingen. In dit hoofdstuk wordt een copula-gebaseerde benadering gepresenteerd voor het modelleren en beoordelen van de betrouwbaarheid van afhankelijke systemen met incomplete probabilistische informatie. Hierbij wordt een bivariate raamwerk voorgesteld, bestaande uit de ondersteuningsdruk en de grondsetteling, om de betrouwbaarheid van de tunnelwand te schatten onder beperkte waarnemingen. Monte Carlo-simulatie wordt gebruikt om de willekeurige onzekerheden in de metingen te modelleren, waardoor de nauwkeurigheid van betrouwbaarheidsschattingen wordt vergroot.
De copula-theorie, gebaseerd op het Sklar's theorem, is een krachtig hulpmiddel voor het opbouwen van correlaties tussen variabelen en het koppelen van marginale verdelingen om multivariate verdelingen te creëren. Het Sklar's theorem stelt dat de gezamenlijke cumulatieve verdelingsfunctie van n-dimensionale willekeurige variabelen kan worden uitgedrukt als een copula die de marginale verdelingen van de individuele variabelen koppelt. Voor het geval van twee willekeurige variabelen kan de bivariate copula-functie worden uitgedrukt als de functie C die de marginale verdelingen van deze variabelen verbindt.
Een belangrijk voordeel van copula's is hun vermogen om marginale verdelingen en afhankelijkheidsstructuren onafhankelijk van elkaar te modelleren, wat betekent dat de variabelen verschillende types van marginale verdelingen kunnen volgen. De nauwkeurigheid van de resultaten van de betrouwbaarheidsschatting is sterk afhankelijk van de keuze van de copula, die variëert in zijn afhankelijkheidskenmerken zoals symmetrie en staartafhankelijkheid. Contourplots van verschillende copula's, zoals de Gaussian, Clayton, Frank en Gumble, tonen aan dat de keuze van copula een significant effect kan hebben op de uitkomsten van de besluitvorming, zelfs wanneer de marginale verdelingen van de variabelen verschillen.
In de betrouwbaarheidsevaluatie van afhankelijke systemen met beperkte informatie, biedt de copula-gebaseerde benadering drie belangrijke stappen: (1) de identificatie van de best passende marginale verdelingsfunctie, (2) de selectie van de geschikte copula-functie en (3) de simulatie van Monte Carlo om de onzekerheden te modelleren. De keuze van de marginale verdelingsfunctie is cruciaal, aangezien verschillende variabelen niet noodzakelijk dezelfde marginale verdeling hoeven te volgen. De meest gebruikte marginaal verdelingen omvatten de lognormale verdeling, de getrapte Gumbel-verdeling, de getrapte normale verdeling en de Weibull-verdeling. Er zijn verschillende criteria, zoals de Akaike Information Criterion (AIC) en de Bayesian Information Criterion (BIC), die helpen bij de selectie van de best passende marginale verdeling. Beide criteria zijn gebaseerd op het principe van waarschijnlijkheid en bepalen de verdeling met de kleinste AIC of BIC-waarde als de beste fit voor de data.
Bij het gebruik van een copula-gebaseerde benadering in de betrouwbaarheidsevaluatie moeten ook de faalcriteria in overweging worden genomen, aangezien de keuze van deze criteria van invloed is op de betrouwbaarheidsschatting. In dit opzicht biedt de copula-theorie een effectieve manier om de onderlinge afhankelijkheden tussen de verschillende systeemvariabelen te integreren en de betrouwbaarheid van complexe systemen te verbeteren, zelfs bij beperkte data.
Hoe de Grote van het Monstersteekproef de Betrouwbaarheid van Tunnelconstructieanalyse Beïnvloedt
In de context van betrouwbaarheidsschattingen is de grootte van de steekproef een cruciale factor die de stabiliteit van de resultaten beïnvloedt. Zoals uit verschillende onderzoeken blijkt, zijn de schattingen voor kleine steekproeven vaak niet stabiel, wat leidt tot aanzienlijke onzekerheden. Voor steekproefgroottes kleiner dan 10⁴ kunnen de resultaten plotselinge en onvoorspelbare veranderingen vertonen, wat de betrouwbaarheid van de analyses vermindert. Wanneer de steekproefgrootte echter boven de 10⁴ ligt, nemen de fluctuaties af, en worden de resultaten stabieler, met een kleinere kans op onverwachte veranderingen. Dit suggereert dat een steekproefgrootte van 10⁵ monsters een redelijk compromis biedt tussen de vereiste betrouwbaarheid van de resultaten en de snelheid van de berekeningen.
Om de fout van de schatting van de faalkans te evalueren, werd in eerder onderzoek door Lü en Low een formule voorgesteld die de schattingsfout (ε) van de faalkansberekening afhangt van de grootte van de MCS-monstersteekproef N. In dit model werd een waarde van 0,06 voor de fout bij een steekproef van 10⁵ monsters behaald, gebruikmakend van het Frank copula-model. De formule voor de schattingsfout is als volgt:
Waarbij de faalkans is, de steekproefgrootte van de MCS en de betrouwbaarheidsgrens. Bijvoorbeeld, bij een betrouwbaarheidsniveau van 95% wordt de waarde van 1,96. In dit geval betekent een steekproefgrootte van 10⁵ monsters dat de schattingsfout binnen een acceptabel bereik valt, zonder dat er onnodig veel rekentijd verloren gaat.
Naast de schattingen van de fout is de bepaling van de minimale steekproefgrootte essentieel voor het verkrijgen van nauwkeurige en betrouwbare resultaten. In dit verband heeft Wang een criterium ontwikkeld om het minimum aantal MCS-monsters te berekenen. Volgens zijn aanpak moet de minimale steekproefgrootte altijd ten minste tien keer de omgekeerde waarde van de kans op falen zijn. Dit wordt wiskundig weergegeven als:
Waarbij de doelfaalkans is. In een geval waar wordt gesteld, resulteert dit in een minimum steekproefgrootte van 61.000. Dit betekent dat bij een steekproefgrootte groter dan 61.000, de nauwkeurigheid van de betrouwbaarheidsschattingen substantieel wordt gewaarborgd.
De grootte van de steekproef heeft niet alleen invloed op de stabiliteit van de faalkans, maar ook op de afhankelijkheidsstructuur van de gegevens. MCS is gebruikt om verschillende steekproefgroottes te simuleren, variërend van 11 tot 61 meetdata. Bij een kleinere steekproefgrootte zijn de gegevens meer verspreid en vertonen ze een meer chaotische verdeling, wat de statistische kracht van de analyse aanzienlijk vermindert. Dit resulteert in fluctuaties in de faalkans, die onbetrouwbaar kunnen zijn. Naarmate de steekproefgrootte toeneemt, worden de resultaten consistenter, en neemt de concentratie van de punten in de simulatiedata toe. Dit leidt tot een beter gedefinieerd patroon van de faalkans.
Het is essentieel om te begrijpen dat de meetdata in veel gevallen beperkt zijn, vooral in complexe engineeringprojecten. Hierdoor kan het moeilijk zijn om een optimale steekproefgrootte te verkrijgen. De grotere de steekproefgrootte van de gemeten data, hoe betrouwbaarder de berekeningen zullen zijn. Wanneer de meetdata bijvoorbeeld uit slechts 11 of 31 monsters bestaat, kunnen de resulterende faalkansen sterke fluctuaties vertonen, zoals blijkt uit de tabel met faalkanswaarden voor verschillende steekproefgroottes. Bij meetdata van 41 monsters of meer begint de faalkans echter meer consistent te worden en benadert deze de waarde die wordt verkregen met 61 monsters, wat als een betrouwbare referentie geldt.
In dit geval werd een steekproefgrootte van minimaal 41 aanbevolen voor het verkrijgen van zinvolle en betrouwbare resultaten. Wanneer de meetdata te klein is, kunnen de resulterende voorspellingen voor faalkansen ongegrond en zelfs onrealistisch zijn, wat leidt tot valse conclusies die de uiteindelijke analyse ondermijnen.
In de praktische toepassing van tunnelconstructies, waar betrouwbare voorspellingen van de stabiliteit van de boorgezichten van cruciaal belang zijn, is deze kennis van groot belang. De analyse van faalkansen gebaseerd op copula-theorie biedt een waardevol hulpmiddel voor het maken van probabilistische inschattingen, zelfs wanneer niet alle gegevens volledig beschikbaar zijn. Door gebruik te maken van copula-modellen kan men de onderlinge afhankelijkheden tussen variabelen beter begrijpen en nauwkeuriger voorspellingen doen over de betrouwbaarheid van tunnelgezichten, zelfs onder onvolledige data.
De betrouwbaarheid van een tunnelgezicht wordt sterk beïnvloed door de manier waarop data wordt verzameld en geanalyseerd. Het is niet alleen belangrijk om een grote steekproefgrootte te hebben, maar ook om te zorgen voor een representatieve verdeling van de meetdata die de werkelijke omstandigheden van het project weerspiegelt. Bovendien moet men zich realiseren dat, hoewel grotere steekproeven de betrouwbaarheid verbeteren, de benodigde rekenkracht ook toeneemt, wat kan leiden tot langere rekentijden. Het vinden van een balans tussen nauwkeurigheid en rekentijd is daarom essentieel voor praktische toepassingen in tunnelbouw.
Hoe Historische Gegevens en Geavanceerde Modellen de Precisie van TBM-Houdingsvoorspellingen Verbeteren
Het voorspellen van de houding van tunnelboormachines (TBM) is een complex proces waarbij verschillende parameters en tijdstappen een cruciale rol spelen. De robuustheid van een voorspellingsmodel hangt af van de stabiliteit van de voorspellingen voor elke stap in een reeks, en of de fluctuaties in de evaluatie-indices in de buurt van de algemene index blijven. Uit de resultaten blijkt dat, ondanks dat slechts de 8e en 14e stap in een 21-staps voorspelling van HDT (houdingsdata) een relatieve verandering groter dan 5% vertonen, de R2-waarden voor elke stap in de outputreeks rondom de algehele R2 blijven fluctueren. Dit bevestigt de robuustheid van het voorgestelde model.
In de praktijk blijkt dat historische gegevens een aanzienlijke invloed hebben op de voorspelling van de TBM-houding, maar dat de nabijheid van de huidige tijdstap niet noodzakelijkerwijs de invloed van deze gegevens vergroot. De 20 meest gevoelige indicatoren voor de vier TBM-houdingsparameters omvatten de laatste 11 tijdstappen van de historische gegevens. Dit toont aan dat voor het aanpassen van de TBM-houding, de aanpassingen ten minste 11 tijdstappen vooruit moeten worden ingevoerd. De meest gevoelige gegevens komen uit de vierde tijdstap van de historische gegevens. Dit biedt waardevolle inzichten voor engineers: door de houding van de machine op tijd aan te passen, kunnen toekomstige foutmarges aanzienlijk worden verkleind.
Daarnaast blijkt uit de analyse van de gegevens dat wanneer de historische gegevens van een TBM worden verwijderd, de kenmerken van de TBM steeds gevoeliger worden voor de houdingparameters naarmate de tijdstap dichterbij komt. Verschillende TBM-kenmerken beïnvloeden elke parameter op verschillende tijdstappen, waarbij bepaalde parameters, zoals de ‘Thrust Force’, gevoelig zijn voor specifieke tijdstappen, zoals te zien is in de analyse van de eerste-orde gevoeligheden. Dit benadrukt de noodzaak om bijzondere aandacht te besteden aan de parameters die gevoeliger zijn voor veranderingen op kortere termijn.
Wat verder belangrijk is om te begrijpen, is dat de methoden die momenteel worden gebruikt om de prestaties van TBM te voorspellen, zoals LSTM (Long Short-Term Memory), GRU (Gated Recurrent Units) en C-LSTM (Convolutional LSTM), ondermaats presteren wanneer ze worden vergeleken met het nieuwe C-GRU-model. De resultaten van dit model overtreffen die van traditionele methoden zowel qua nauwkeurigheid als robuustheid. Bij het vergelijken van de voorspellingsresultaten van LSTM en GRU blijkt dat deze methoden in sommige gevallen weliswaar de algemene trends van de testdata volgen, maar een groot aantal gegevenspunten valt buiten het betrouwbaarheidsinterval. Het C-GRU-model levert daarentegen consistente en betrouwbare voorspellingen, met een gemiddelde R2 van 62,16%, wat maar liefst 30,90% hoger is dan die van de LSTM- en GRU-methoden.
Wat ook naar voren komt uit de experimenten is dat de robuustheid van het C-GRU-model duidelijk beter is dan de andere modellen. Het biedt een stabiele voorspelling van de TBM-houding over meerdere tijdstappen. De traditionele methoden, LSTM en GRU, vertonen grotere fluctuaties in hun voorspellingen, vooral wanneer de TBM zich in een dynamische fase bevindt. Dit wijst op de voordelen van het gebruik van diepe netwerken, zoals C-GRU, die gebruik maken van convolutielagen en max-pooling om betekenisvolle informatie uit de gegevens te extraheren en zo de prestaties te verbeteren, vooral wanneer de gegevens variabel zijn.
Naast de voordelen van het C-GRU-model, is het belangrijk om te begrijpen dat een zorgvuldige afstemming van de hyperparameters essentieel is voor het optimaliseren van het voorspellingsproces. De prestaties van het model kunnen aanzienlijk variëren afhankelijk van de keuzes die worden gemaakt voor de netwerktopologie en de gebruikte trainingsmethoden. Dit benadrukt het belang van een grondige afstemming in het machine learning-proces om de best mogelijke resultaten te behalen.
Het is ook belangrijk te beseffen dat het implementeren van voorspellingsmodellen in de engineeringpraktijk niet alleen afhankelijk is van de techniek zelf, maar ook van de manier waarop de resultaten van deze modellen worden geïntegreerd in het dagelijkse beheer van de TBM. Het succes van een voorspellingsmodel is nauw verbonden met het vermogen om de aanbevelingen tijdig toe te passen en met de juistheid van de interpretatie van de resultaten.
Hoe Kunnen Tuinliefhebbers De Overleving Van Tuin- en Bosvogels in De Winter Ondersteunen?
Hoe Temperatuur de Eigenschappen van Halfgeleiders Beïnvloedt: Van Elektronenbeweging tot Energiebanden
Hoe Chinese Invloed Operaties de Amerikaanse Instellingen Bereiken

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский