In de traditionele tunnelbouw zijn projecten vaak afhankelijk van de uitgebreide ervaring van professionals, waarbij logistiek complexe uitdagingen en inherente veiligheidsrisico’s een belangrijke rol spelen. Het gebruik van intelligente technologieën biedt echter nieuwe mogelijkheden om deze risico's te verminderen en de efficiëntie te verhogen. Door de integratie van geavanceerde sensornetwerken, real-time data-analyse en complexe machine learning-algoritmes kunnen ondergrondse omstandigheden in real-time gemonitord worden. Deze geavanceerde technologieën vullen de traditionele technieken aan door het omzetten van complexe datasets in bruikbare inzichten, wat de voorspellende mogelijkheden verbetert en het automatiseren van het bouwproces mogelijk maakt.
Deze slimme benaderingen verminderen niet alleen de onzekerheden die inherent zijn aan tunnelbouw, maar verhogen ook aanzienlijk de efficiëntie, veiligheid en duurzaamheid van projecten. Ze zorgen ervoor dat tunnelbouwprojecten niet alleen economisch haalbaarder worden, maar ook veerkrachtiger tegen de onvoorziene omstandigheden die de ondergrond kan presenteren. De integratie van digitale systemen maakt het mogelijk om de fysieke en digitale wereld van de tunnelbouw naadloos met elkaar te verbinden, wat leidt tot betere besluitvorming en minder fouten tijdens de uitvoering.
De toepassing van intelligente systemen in de tunnelbouw strekt zich uit over meerdere belangrijke domeinen, zoals geologische voorspellingsmethoden, geologische kenmerkdetectie en betrouwbaarheid van tunnelmonden. In het tweede hoofdstuk van het boek wordt dieper ingegaan op de techniek van geavanceerde geologische voorspelling, waarmee real-time gegevens over bodemgesteldheid en andere ondergrondse factoren verzameld en geanalyseerd worden. Dit stelt bouwteams in staat om zich beter voor te bereiden op mogelijke obstakels en verhoogt de nauwkeurigheid van de bouwplanning. Het derde hoofdstuk behandelt de karakterisering van geologische kenmerken, waarbij machine learning-algoritmes helpen bij het classificeren en evalueren van bodemtypes, wat essentieel is voor het kiezen van de juiste bouwtechnieken en materialen.
Tunnels kunnen pas veilig en efficiënt worden gebouwd als de conditie van de tunnelwand en de stabiliteit van het voorste deel van de tunnel goed worden begrepen. Het vijfde hoofdstuk van het boek onderzoekt betrouwbare modellen voor het beoordelen van de stabiliteit van de tunnelmonden, een cruciale factor voor het vermijden van instortingen. Daarnaast worden in de hoofdstukken zes tot negen technieken besproken die betrekking hebben op de keuze van het juiste tunnelingmachine (TBM), de prestaties van deze machines, en hun geavanceerde attitudecontrolemechanismen. Het gebruik van TBM’s wordt geoptimaliseerd door de verzameling van gegevens die de prestaties van de machines voorspellen, wat het risico op storingen aanzienlijk vermindert.
Verder wordt de veiligheid van het bouwproces verbeterd door het gebruik van geautomatiseerde systemen die continu de risico’s monitoren. In hoofdstuk twaalf wordt bijvoorbeeld ingegaan op het gebruik van risicobeoordelingssystemen die continu de veiligheid van de bouwsite evalueren. Dit gebeurt door constante monitoring van de omgeving en door het gebruik van AI om in real-time veiligheidsrisico’s te identificeren, zoals instabiliteit van de tunnelwand of andere gevaarlijke situaties.
Met de introductie van digitale twin-platforms, zoals besproken in hoofdstuk veertien, wordt de kloof tussen de fysieke tunnel en de digitale representatie ervan overbrugd. Deze digitale replica’s stellen ingenieurs in staat om het bouwproces te simuleren, mogelijke scenario’s door te rekenen en de voortgang van het project nauwkeurig te volgen. Dit vermindert niet alleen de kans op fouten, maar maakt het ook mogelijk om een tunnelproject van begin tot eind te monitoren, zodat alles op schema blijft en binnen het budget wordt afgerond.
De intelligentie die in de tunnelbouw wordt geïntroduceerd, kan verder gaan dan alleen het verminderen van risico’s en verbeteren van de efficiëntie. Het kan ook bijdragen aan de duurzaamheid van de bouwmethoden. Door gebruik te maken van geavanceerde sensoren, die ondergrondse waterbewegingen en andere milieuvariabelen in real-time monitoren, kunnen bouwers zich aanpassen aan veranderende omgevingsomstandigheden. Dit maakt het mogelijk om de ecologische impact van het project te minimaliseren en tegelijkertijd de werkprocessen te optimaliseren.
Naast de geavanceerde technologieën die de tunnelbouw efficiënter en veiliger maken, is het van groot belang dat het hele team goed opgeleid is in het gebruik van deze technologieën. De integratie van intelligente systemen vraagt om samenwerking tussen ingenieurs, machine-experts en softwareontwikkelaars, waarbij elk van hen moet begrijpen hoe ze optimaal gebruik kunnen maken van de gegevens en de technologieën die worden aangeboden. De integratie van deze disciplines zorgt ervoor dat tunnelbouwprojecten niet alleen efficiënter zijn, maar ook veiliger en duurzamer, met de mogelijkheid om wereldwijd als voorbeeld te dienen voor de toekomst van de infrastructuur.
Hoe kunnen we de optimale tunnelboormethode bepalen onder complexe omstandigheden?
Bij de selectie van tunnelboortechnologieën voor ondergrondse projecten met complexe geologische en stedelijke beperkingen, zoals het geval is bij het Z-X-tunnelsegment van de Wuhan Metro, speelt een nauwkeurige multicriteria-analyse een cruciale rol. Het gebruik van de TOPSIS-methode (Technique for Order Preference by Similarity to Ideal Solution), gecombineerd met entropie-gebaseerde wegingsbepaling en gevoeligheidsanalyse, vormt een geavanceerde benadering voor het nemen van weloverwogen beslissingen.
De initiële fase omvat het verzamelen van linguïstische beoordelingen van vijf deskundigen op basis van zestien evaluatiecriteria. Deze beoordelingen worden omgezet in cloudmodellen om de inherente onzekerheid van natuurlijke taal te modelleren. Vervolgens worden er met een forward cloud generator monsters gegenereerd, waarmee iteratief evaluatiematrices worden opgesteld – telkens opnieuw opgebouwd uit 1000 herhaalde simulaties om robuustheid in de besluitvorming te garanderen.
Na aggregatie van de expertbeoordelingen volgens gewogen gemiddelden worden de criteria gewogen met behulp van de entropiemethode. Deze aanpak houdt rekening met de mate van informatieverschil binnen elk criterium: hoe groter de variatie in de gegevens, des te meer informatiewaarde het criterium heeft, en des te groter het gewicht dat eraan wordt toegekend. De verkregen gewichten worden vervolgens toegepast op de samengestelde beoordelingsmatrix.
Met de gewogen matrix worden vervolgens de positieve (PIS) en negatieve (NIS) ideale oplossingen berekend, waarna voor elke alternatieve methode de afstand tot beide punten wordt vastgesteld. Deze afstanden leiden tot de berekening van de closeness coefficient (CCi), waarmee de relatieve nabijheid van elke methode tot de ideale oplossing wordt gemeten. Hoe hoger de CCi, hoe gunstiger de methode wordt geacht.
Om de betrouwbaarheid van deze rangschikking te evalueren, wordt een globale gevoeligheidsanalyse uitgevoerd. Hierbij wordt de Spearman-rangcorrelatiecoëfficiënt gebruikt om te bepalen hoe veranderingen in de invoergegevens – met name de scores van de criteria – de uitkomst beïnvloeden. De gevoeligheid van elk criterium ten opzichte van het closeness-coëfficiënt van een alternatieve methode wordt wiskundig uitgedrukt als GSA(Cj). Deze waarde maakt het mogelijk om de meest kritieke criteria te identificeren die een significante invloed uitoefenen op de rangschikking van de alternatieven.
Uit de casestudy blijkt dat alternatieve methoden zoals Hard-rock TBM en Shield TBM verschillende voor- en nadelen hebben, afhankelijk van de lokale omstandigheden. Factoren zoals aankoop- en onderhoudskosten, gevoeligheid voor geologische formaties, bouwsnelheid en risico’s op vertraging vormen allemaal onderdelen van de afweging. De toepassing van deze methodologie maakt het mogelijk om niet alleen de best presterende methode te identificeren, maar ook om de robuustheid van deze keuze te onderbouwen aan de hand van gegevensgestuurde gevoeligheidsanalyses.
Belangrijk voor de lezer is te beseffen dat de betrouwbaarheid van het model niet uitsluitend afhankelijk is van de gebruikte methode zelf, maar in grote mate afhangt van de kwaliteit en volledigheid van de invoergegevens, evenals de deskundigheid van de beoordelaars. Een juiste modellering van onzekerheid en een zorgvuldig geselecteerde set van criteria, die zowel technische, economische als veiligheidsoverwegingen omvat, zijn essentieel. Daarnaast verdient het aanbeveling om de gevoeligheidsanalyse niet enkel als bevestiging van de robuustheid van de keuze te zien, maar als strategisch instrument voor risicobeheersing en het prioriteren van ontwerp- en investeringskeuzes. In dynamische en risicovolle ondergrondse omgevingen is de waarde van een goed onderbouwde, data-gedreven beslissingsstructuur niet te onderschatten.
Hoe kan een C-GRU-netwerk de prestaties van TBM-voorspellingen verbeteren?
Het invoeren van alle ruwe gegevens in de GRU kan inefficiënt zijn en mogelijk niet de beste prestaties opleveren. Aangezien de tijdreeksgegevens van elke feature 1D en onafhankelijk zijn, is de combinatie van GRU en 1D CNN een effectieve benadering. Dit resulteert in een C-GRU-netwerk, zoals geïllustreerd in Figuur 4. Het netwerk bestaat uit 12 lagen: 3 1D-convolutielagen voor het extraheren van hoog-niveau kenmerken, 2 max-pooling lagen voor het vergroten van het receptieve veld, 3 GRU-lagen en 4 volledig verbonden lagen voor het in kaart brengen van de kenmerken naar de doelintervallen. De gedetailleerde structuur en de parameters van het C-GRU-model worden weergegeven in Tabel 1. De activatiefuncties van de convolutielagen en de volledig verbonden lagen gebruiken exponentiële lineaire eenheden (ELU) om de niet-lineaire expressie en de voorspellingsnauwkeurigheid van het netwerk te verbeteren. De afmetingen van de invoerlaag variëren afhankelijk van het aantal geselecteerde TBM-kenmerken en de afgelopen tijdstappen, terwijl de afmetingen van de uitvoerlaag worden aangepast op basis van de houdingparameters van de TBM en de lengte van de voorspelde reeks.
Na het bouwen van het model moeten de trainingsparameters worden gedefinieerd. De Mean Squared Error (MSE) wordt gebruikt om de prestaties van het model tijdens de training grondig te evalueren, door de spreiding van afwijkingen tussen de voorspelde en werkelijke waarden weer te geven. Root Mean Square Propagation (RMSprop) wordt gebruikt als de optimizer van het model om het globale minimum van de verliesfunctie te identificeren.
De evaluatie van het model gaat verder met behulp van de Mean Absolute Error (MAE) en R-kwadraat (R²) als indicatoren. MAE reflecteert de gemiddelde fout tussen voorspelde en werkelijke waarden, wat intuïtief de kwaliteit van de voorspelling aangeeft. R² standaardiseert de voorspelde resultaten naar een bereik van 0–1, wat prestaties mogelijk maakt over verschillende modellen binnen hetzelfde bereik. Deze evaluatiemethoden bieden een diepere en betrouwbaardere beoordeling van de nauwkeurigheid van de voorspellingen.
Voor de gevoeligheidsanalyse wordt de invloed van elke invoerfunctie op de uiteindelijke uitvoer onderzocht om de toepasbaarheid van het model in de praktijk te verbeteren. De random balance design Fourier amplitude sensitivity test (RBD-FAST) biedt een meer robuuste en efficiënte berekening dan de traditionele FAST-methode. Deze techniek is eerder gebruikt in civiele techniek, bijvoorbeeld voor het simuleren van hygrothermische en energetische modellen van gebouwen en het berekenen van hitteoverdracht in dammen. RBD-FAST maakt gebruik van vier stappen om de eerste-orde gevoeligheidsindices te berekenen, wat essentieel is voor complexe input-output scenario’s. Het biedt een krachtig hulpmiddel voor het analyseren van de gevoeligheid van een model voor verschillende invoervariabelen.
De effectiviteit van de voorgestelde aanpak werd getest in een case study van de TBM-boring in de T308-tunnel in Singapore. Het C-GRU-model werd toegepast voor een multi-step voorspelling van de TBM-houding, waarbij gedetailleerde gegevens over de verwerking van TBM-gegevens, modeltraining, prestatiebeoordeling en modelverklaring werden verstrekt. Het is van cruciaal belang dat de experimentele omgeving geschikt is voor de validatie van het model. Onverwachte veranderingen in de bodemomstandigheden kunnen de prestaties van het model aanzienlijk beïnvloeden, wat verdere aanpassingen vereist. Een gebied met stabiele en uniforme bodemomstandigheden, zoals het segment van ring No.500 tot No.699 in Marine Clay, werd geselecteerd om de invloed van plotselinge bodemveranderingen te minimaliseren.
De TBM heeft een geavanceerd systeem van sensoren dat in staat is real-time gegevens te verzamelen, wat essentieel is voor het uitvoeren van nauwkeurige voorspellingen. Tijdens de experimenten werden 767 features en 14.247 datapunten verzameld tijdens een boring van 200 ringen. Door gegevens van stilstandperioden te elimineren, bleven 13.855 datapunten over voor analyse, die elk een tijdstap representeren. Met behulp van de juiste selectie van TBM-kenmerken werden de gegevens genormaliseerd en werden 18 belangrijke parameters gekozen, die cruciaal zijn voor het verbeteren van de nauwkeurigheid van de voorspellingen.
Naast de technische details van het model en de experimenten, moet de lezer begrijpen dat het succes van deze aanpak sterk afhankelijk is van de kwaliteit van de geselecteerde invoergegevens en de stabiliteit van de ondergrond. Variaties in de bodemgesteldheid kunnen onverwachte verstoringen veroorzaken in de voorspellingen van het model, wat de noodzaak van robuuste en flexibele algoritmen benadrukt. Het combineren van geavanceerde deep learning technieken zoals C-GRU en RBD-FAST kan dus een aanzienlijke verbetering opleveren in de nauwkeurigheid van voorspellingen in dynamische en onvoorspelbare omgevingen, zoals de TBM-boringen.
Hoe Optimalisatie en Risicobeheersing de Tunnelbouw Presteren kan Verbeteren
Het verbeteren van de veiligheid en efficiëntie in de tunnelbouw blijft een uitdagende taak, mede vanwege de onvoorspelbare geotechnische condities en de complexe interactie tussen de tunnel en haar omgeving. In recente studies wordt multi-objectieve optimalisatie (MOO) steeds vaker ingezet om te voldoen aan verschillende doelstellingen tegelijk, zoals het minimaliseren van risico’s, het verbeteren van de prestaties van tunneling machines (TBM) en het optimaliseren van tunnelontwerpen. Dit biedt een veelbelovende aanpak voor het oplossen van verschillende problemen die zich voordoen tijdens de tunnelbouw, waarbij de combinatie van geavanceerde algoritmes en deep learning technieken steeds relevanter wordt.
Een van de belangrijkste toepassingen van MOO in tunnelbouw is het afstemmen van de parameters van de TBM. Dit zorgt voor betere prestaties tijdens het graven, verhoogde efficiëntie en grotere veiligheid. In verschillende studies, zoals die van Wang et al. (2019), werd de NSGA-II-algoritme gebruikt om de meest bevredigende waarden van TBM-bedieningsvariabelen, zoals snelheid en draaisnelheid, te vinden. Deze benadering kan zelfs de automatisering van de TBM verbeteren. Andere onderzoeken, zoals die van Nikakhtar et al. (2020), hebben de Particle Swarm Optimization (PSO) techniek toegepast om de optimale operationele parameters te identificeren voor mechanisch tunnelen, wat kan helpen de bodemdaling te beperken. De toepassing van MOO in tunnelontwerpen en TBM-operaties wordt steeds gangbaarder, maar het gebruik ervan voor risicobeheersing in de tunnelbouw bevindt zich nog in de beginfase.
Ons onderzoek richt zich op het optimaliseren van besluitvormingsvariabelen tijdens het tunnelen voor verbeterde veiligheidsmaatregelen. Hierbij wordt een nieuwe benadering gepresenteerd, de DNN-GDO-methode, die de kracht van deep learning (DNN) combineert met gradient descent-gebaseerde optimalisatie (GDO). Dit hybride algoritme maakt gebruik van de rekencapaciteit en de stabiele convergentie van gradient descent om optimale oplossingen te vinden binnen een bepaald beslissingsruimte. Bovendien biedt het de mogelijkheid om de gewichten van de doelstellingen op basis van hun praktische relevantie in de echte wereld af te stellen, wat leidt tot meer bruikbare en toepasbare oplossingen. De DNN-GDO-methode biedt ook betere uitlegbaarheid door te berekenen welke variabelen het meest bijdragen aan risicobeheersing, iets wat vaak ontbreekt in de meeste MOO-studies.
Deze benadering minimaliseert tegelijkertijd meerdere risico’s onder de complexe omstandigheden van tunnelen, en identificeert de cruciale variabelen die aangepast moeten worden. De optimalisatieresultaten van de DNN-GDO-methode kunnen daarom dienen als een referentie voor managers, die vervolgens proactieve veiligheidsmaatregelen kunnen ontwikkelen om de risico’s tijdens het graven van tunnels te beheersen. Het besluitvormingsraamwerk dat we voorstellen, maakt gebruik van een hybride algoritme dat diepe leermethoden combineert met een optimalisatieproces gebaseerd op de eerste afgeleide, wat resulteert in een end-to-end leersysteem. Dit systeem bestaat uit drie belangrijke fasen: dataverzameling, DNN-gebaseerde risicovoorspelling en GDO-gebaseerde risicobeheersing.
In het DNN-model wordt de architectuur gekarakteriseerd door een feedforward-neuraal netwerk met volledig verbonden lagen. Elke verborgen laag maakt gebruik van de rectified linear activation function (ReLU), die zorgt voor een niet-lineaire benadering. Deze functie helpt bij het aanpakken van problemen zoals vervaging van gradiënten en biedt een snelle convergentie. Residuele verbindingen tussen de lagen stellen het netwerk in staat om complexe relaties effectief te modelleren, wat essentieel is voor het voorspellen van risico’s in tunnelen.
Wat het DNN-model bijzonder effectief maakt in deze context, is de mogelijkheid om continue multivariate functies te benaderen in hoge-dimensionale ruimtes, wat het ideaal maakt voor het voorspellen van risico’s in de tunnelbouw. De training van dit model gebeurt door middel van backpropagation en gradient descent, waarmee de parameters van het netwerk geoptimaliseerd worden om de fout tussen voorspelde en werkelijke waarden te minimaliseren. Hierdoor kan het model de risicovoorspellingen verfijnen en uiteindelijk bijdragen aan betere beslissingen voor risicobeheersing.
Het DNN-GDO-algoritme, dat specifiek is ontworpen om MOO-problemen aan te pakken, heeft als doel om diverse optimale oplossingen te vinden die dicht bij de Pareto-optimale frontlijn liggen. Dit wordt bereikt door een numerieke benadering van de optimale richting voor het minimaliseren van meerdere doelstellingen tegelijk. Dit optimalisatieproces is niet alleen theoretisch relevant, maar biedt in de praktijk concrete voordelen voor risicomanagement tijdens tunnelen.
Wat belangrijk is voor de lezer om te begrijpen, is dat het gebruik van geavanceerde technieken zoals DNN en GDO niet alleen een academische oefening is, maar daadwerkelijk bijdraagt aan het verminderen van de risico’s die inherent zijn aan de tunnelbouw. Deze methoden kunnen de besluitvorming verbeteren door niet alleen te kijken naar de korte termijn, maar door ook de lange termijn effectiviteit en veiligheid van het tunnelen te waarborgen. Het gebruik van dergelijke modellen maakt het mogelijk om complexe risico’s te identificeren en proactief te beheersen, waardoor de algehele veiligheid en efficiëntie van het tunnelen aanzienlijk verbeterd kunnen worden.
Hoe de Magneto-Elastische Eigenschappen van Ferromagnetische Materialen de Gedrag van Golfbewegingen Beïnvloeden
Hoe wordt het mysterie van de Magic Mine ontrafeld en wat ligt daarachter?
Hoe de Maan de Evolutie van het Leven op Aarde Vormde

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский