De methodologie die wordt gepresenteerd in dit werk, heeft tot doel het verband tussen waargenomen gegevens op locatie en de verborgen toestanden van geologisch risico te leggen. Dit wordt gerealiseerd door middel van een complex model, het zogenaamde Observational Hidden Markov Model (OHMM), dat zowel overgangs- als emissiekansen van verschillende toestanden bevat. Dit model biedt een krachtig middel voor het voorspellen van geologisch risico, gebaseerd op observaties van bodemcomponenten langs de tunnelwand.

Het OHMM is wiskundig gespecificeerd door een aantal matrices die de structuur en het leerproces van het model bepalen. De toestanden van het systeem worden gedefinieerd als een eindige set van vier mogelijke toestanden S={s1,s2,s3,s4}S = \{s_1, s_2, s_3, s_4\}, wat betrekking heeft op de verschillende risiconiveaus die het model kan aannemen. Daarnaast worden overgangswaarschijnlijkheden en emissiekansen beschreven door de matrices AA en BB, respectievelijk, die bepalen hoe de verschillende toestanden zich over de tijd ontwikkelen en hoe observaties zich verhouden tot de interne toestanden van het model.

De trainingsfase van het OHMM omvat het iteratief bijwerken van de modelparameters AA, BB en π\pi (de initiële waarschijnlijkheidsverdeling), zodat het model leert van de beschikbare gegevens totdat het convergeert. De beginwaarden van deze parameters worden ingesteld met behulp van een uniforme verdeling voor de overgangsmatrix en willekeurige waarden voor de emissiematrix, waarbij een specifieke zaadwaarde wordt gebruikt voor consistentie. Het model gebruikt de zogenaamde "sufficient statistics" q(0)q(0) en ϕ(0)\phi(0) voor het bijwerken van de parameters, waarbij een hyperparameter tsts ervoor zorgt dat het model pas wordt aangepast nadat voldoende informatie is verzameld.

Tijdens het leerproces wordt de prestaties van het OHMM continu geëvalueerd aan de hand van waarnemingen die de bodemcomponenten per tunnelring representeren. Het OHMM wordt online geüpdatet, wat betekent dat het model steeds opnieuw wordt aangepast aan nieuwe gegevens zonder de eerdere informatie te verliezen. Dit maakt het model bijzonder geschikt voor toepassingen in dynamische omgevingen, zoals het monitoren van de risico’s in een tunnelboormachine (TBM) terwijl de boor door de grond beweegt.

Om de effectiviteit van het OHMM te beoordelen, wordt het vergeleken met traditionele machine learning-algoritmen, zoals neurale netwerken (NN), support vector machines (SVM), Long Short-Term Memory (LSTM) netwerken, en een ander generatief model, het klassieke Hidden Markov Model (HMM). De vergelijking toont aan dat het OHMM superieure prestaties levert, vooral wanneer er beperkte observatiegegevens beschikbaar zijn, zoals bijvoorbeeld slechts 300 of 600 waargenomen tunnelringen. In dergelijke gevallen blijkt het OHMM beter in staat om de risicotoestanden te voorspellen dan de andere modellen, die vaak moeite hebben met het verwerken van beperkte gegevens.

In het OHMM wordt de overgang van geologische risicotoestanden van de ene locatie naar de andere geanalyseerd door middel van een ruimte-afhankelijke overgangsmatrix, wat betekent dat het model in staat is de variatie in risicotoestanden langs verschillende delen van de tunnel nauwkeurig te volgen. Dit maakt het bijzonder waardevol voor toepassingen waarin het risiconiveau langs de route varieert en er snel moet worden gereageerd op veranderingen in de geologische omstandigheden.

De efficiëntie van het model wordt verder vergroot door de manier waarop de initiële conditie van het model wordt ingesteld en het effect van de eerste iteraties wordt geminimaliseerd. Gedurende de eerste fasen van het leerproces, wanneer het model wordt geüpdatet met een reeks waarnemingen, is er vaak een onregelmatige trend te zien. Dit komt doordat het model zich nog aanpast aan de werkelijke gegevens en de overgangsmatrix in de beginfase niet perfect is. Desondanks, na verloop van tijd, zullen de geschatte waarschijnlijkheden dichter bij de werkelijke waarden liggen, en de prestaties van het OHMM zullen verbeteren naarmate meer waarnemingen worden verwerkt.

De resultaten van deze studie benadrukken het belang van het kiezen van de juiste leerparameters en het instellen van een robuuste initiële toestand voor het model. Het gebruik van een uniforme verdeling voor de overgangsmatrix en een willekeurige emissiematrix zorgt ervoor dat het model flexibel is en goed in staat om zich aan te passen aan verschillende geologische omgevingen. De uitkomsten van de vergelijking met andere modellen bevestigen de waarde van het OHMM in situaties waar dynamische, real-time voorspellingen van geologische risico’s essentieel zijn.

Bij het werken met beperkte gegevens speelt het OHMM zijn kracht uit. Het model leert iteratief van elke nieuwe waarneming, zonder afhankelijk te zijn van grote hoeveelheden historische data. Dit maakt het OHMM bijzonder nuttig in scenario’s waarin slechts een beperkte hoeveelheid gegevens beschikbaar is, maar er toch betrouwbare risicovoorspellingen vereist zijn.

Hoe de DRL-methode de besturing van de TBM-positie verbetert ten opzichte van handmatige bediening

De DRL-methode (Deep Reinforcement Learning), toegepast op de besturing van de Tunnel Boring Machine (TBM), biedt aanzienlijke voordelen ten opzichte van handmatige methoden. Een van de belangrijkste verbeteringen die de DRL-algoritmen bieden, is de mogelijkheid om het volledige ontwerp- en actiegebied te verkennen en acties vooraf te nemen om afwijkingen te voorkomen. Dit in tegenstelling tot de traditionele handmatige aanpassingen, die vaak pas plaatsvinden nadat afwijkingen zich hebben voorgedaan, wat niet alleen tijdrovend is, maar ook risicovol in situaties waarbij snelle aanpassing vereist is. Het gebruik van het TD3-algoritme in plaats van de klassieke DDPG-techniek (Deep Deterministic Policy Gradient) heeft bewezen beter te presteren, met name op het gebied van verticale afwijkingen. De voordelen van TD3 zijn onder andere de toepassing van drie belangrijke strategieën: een dubbele criticusnetwerk, vertraagde updates en een doelsmoothersstrategie.

Bij het vergelijken van de prestaties van handmatige bediening, DDPG en TD3, blijkt dat de DRL-methoden aanzienlijk betere resultaten opleveren. De handmatige besturing vertoonde bijvoorbeeld grotere variaties in de kracht van de stuwcilinders en een minder efficiënte reactie op afwijkingen van het gewenste pad van de TBM. Het verschil tussen handmatige bediening en de DRL-methoden is vooral duidelijk in de spreiding van de afwijkingen in horizontale en verticale richtingen. Waar handmatige bediening consistent minder nauwkeurig was, slaagde TD3 erin om de afwijkingen in de verticale richting met meer dan 66% te verminderen, wat de superioriteit van DRL onderstreept.

Een ander belangrijk aspect van de DRL-methoden is de variatie in acties die tijdens de operatie worden uitgevoerd. Bij gebruik van DDPG werden er meer fluctuerende acties waargenomen, wat leidde tot grotere spreiding in de stuwkracht van de cilinders, hetgeen de stabiliteit van de TBM kan ondermijnen, vooral in complexe of ondergrondse omgevingen. In tegenstelling tot DDPG is TD3 in staat om minder fluctuerende, meer gecontroleerde acties te maken, wat niet alleen zorgt voor een betere besturing van de TBM, maar ook voor grotere stabiliteit tijdens de werkzaamheden.

De DDPG-methode, hoewel effectiever dan handmatige besturing, faalt op sommige punten in het efficiënt vinden van de optimale waarden voor acties. Dit komt doordat DDPG de beloningen overwaardeert door gebruik te maken van een enkel criticusnetwerk, wat resulteert in een minder effectieve verkenning van de actieruimte. Hierdoor komt DDPG vaak tot onbetrouwbare resultaten, vooral in de vroege fasen van de operatie. TD3, met zijn geavanceerde algoritmes, biedt daarentegen een meer robuuste en betrouwbare benadering van deze uitdaging.

Met het gebruik van de LSTM-techniek (Long Short-Term Memory) wordt een milieu-model ontwikkeld dat de ruimtelijk-temporale dynamiek van de TBM nabootst. Dit model maakt nauwkeurige voorspellingen die de agent helpen om meer geïnformeerde beslissingen te nemen, niet alleen op basis van de huidige situatie, maar ook door vooruit te kijken naar mogelijke toekomstige scenario's. De training van het model maakt gebruik van een combinatie van verliesfuncties en evaluatiemetrics die zijn ontworpen om de leercurve van het algoritme te optimaliseren.

De toepassing van DRL voor de besturing van de TBM in tunneling heeft bewezen dat het een effectievere en betrouwbaardere methode is dan handmatige bediening. In de praktijk biedt deze technologie de mogelijkheid om met minder menselijke tussenkomst betere resultaten te behalen, wat zowel de efficiëntie van de werkzaamheden verhoogt als het risico van fouten verlaagt. Dit maakt DRL een waardevolle toevoeging voor moderne tunnelprojecten, vooral in omgevingen die variëren in complexiteit en waar snelle reacties op afwijkingen van het pad essentieel zijn.

Het is belangrijk om te begrijpen dat de toepassing van DRL niet alleen de precisie verhoogt, maar ook de veerkracht van het gehele systeem ten opzichte van onverwachte situaties vergroot. Terwijl handmatige aanpassingen vaak een passieve benadering vereisen, waarbij interventies worden uitgevoerd na het ontstaan van afwijkingen, is DRL in staat om anticiperende maatregelen te nemen, wat resulteert in een meer proactieve benadering van het beheer van tunnelboringen. Dit maakt het niet alleen sneller, maar ook veel veiliger voor de werknemers en efficiënter voor de bouwbedrijven.

Hoe kan de betrouwbaarheid van tunnelboormachines worden gemodelleerd en geanalyseerd?

In de tunnelbouwindustrie, waar complexe en risicovolle werkzaamheden plaatsvinden, is het van cruciaal belang om de prestaties van tunnelboormachines (TBM's) te monitoren en te analyseren. Een belangrijke stap in deze analyse is het identificeren van mogelijke fouten en de onderliggende oorzaken van storingen, zoals die in het schildsnijderhoofd van de TBM. Dit proces wordt vaak ondersteund door modellen die de betrouwbaarheid van de systemen in kaart brengen, zoals het Fault Tree Model (FTM) en de daaropvolgende conversie naar een Dynamisch Tijd-Bayesiaans Netwerk (DTBN). Dit stelt ingenieurs in staat om verschillende scenario’s van faalgedrag te simuleren en voorspellingen te doen over de mogelijke tijdlijn van storingen.

De berekening van de waarschijnlijkheid van een specifieke gebeurtenis binnen een gegeven tijdsinterval wordt bepaald door de kansverdeling van zowel de gebeurtenis zelf als de bijbehorende systeemcomponenten. Zo wordt de kans P(Xj = xj|P(R = [(i − 1)Δ, iΔ))) berekend, waarbij P(R = [(i − 1)Δ, iΔ)) de kans aangeeft dat een systeem binnen een bepaald tijdsinterval faalt. Hierin wordt de variabele xj gekoppeld aan de mogelijke toestanden van de gebeurtenis Xj, die wordt geclassificeerd op basis van tijdsintervallen die lopen van [0, Δ) tot [T, ∞), waarbij Δ de intervalgrootte is en T de maximale duur van een meting.

Het model maakt gebruik van een aantal basiscomponenten die bijdragen aan de topgebeurtenis van een systeemfout, zoals beschreven in de foutboomstructuur. Deze basiscomponenten omvatten storingen in het schijfsysteem (X1), problemen met de cuttertools (X7), en onontdekte kleigrond (X3). De identificatie van deze componenten wordt vaak ondersteund door domeinexperts en door de toepassing van technieken zoals de Delphi-methode, waarmee de consensus van deskundigen wordt bereikt. Deze methoden helpen bij het vaststellen van de onderlinge relaties tussen de oorzaken van de storingen en hun gevolgen voor de algehele systeemprestaties.

De integratie van de FTM in een DTBN biedt een robuustere manier om dynamische veranderingen in de foutkansen te modelleren. Dit model maakt het mogelijk om voorspellingen te doen over de toekomstige betrouwbaarheid van de TBM door de gegevens van de individuele componenten te combineren en de interacties tussen hen te analyseren. Via Bayesiaanse inferentie kan men de waarschijnlijkheidsverdeling van systeemstoringen voor verschillende scenario's voorspellen, wat op zijn beurt helpt bij het plannen van preventieve maatregelen en het optimaliseren van onderhoudsplannen.

Het ontwikkelen van dit soort modellen vereist gedetailleerde gegevens over de faalkansen van de componenten in het systeem. Deze kansen kunnen sterk variëren op basis van de werkelijke geologische omstandigheden en het type TBM dat wordt gebruikt. Bijvoorbeeld, storingen in de cutterdiscs (X1), het gereedschap (X7) of de schroef (X10) worden vaak geassocieerd met specifieke faalkansen die zijn afgeleid uit de prestaties van de TBM tijdens langdurige operaties. Dergelijke faalkansen worden doorgaans geleverd door de fabrikanten van de TBM's en kunnen worden verzameld door het volgen van de levensduur van de machines en het registreren van storingen tijdens het gebruik.

Een van de belangrijkste aspecten van deze modellen is de mogelijkheid om "wat-als"-experimenten uit te voeren. Door verschillende faalscenario's te simuleren, kan men anticiperen op toekomstige storingen en adequaat reageren voordat deze daadwerkelijk optreden. Dit kan leiden tot tijdige interventies die de risico's minimaliseren en de veiligheid tijdens de tunnelbouw verbeteren. Het gebruik van feedforward control, waarbij voorspellingen van systeemstoringen worden gemaakt voordat ze zich voordoen, biedt aanzienlijke voordelen op het gebied van risicomanagement.

Het toepassen van deze technieken stelt ingenieurs in staat om de faalverhouding van de verschillende knooppunten in het netwerk over de tijd te berekenen. Dit is van groot belang voor de planning van onderhoudsactiviteiten, omdat het inzicht biedt in wanneer bepaalde componenten waarschijnlijk zullen falen, en welke interventies nodig kunnen zijn om ongevallen of stilstand te voorkomen. Dit proces kan verder worden ondersteund door softwaretools, zoals MATLAB-programma’s, die in staat zijn om de complexe berekeningen van de faalkansen en de gevolgen daarvan efficiënt uit te voeren.

Naast de technische aspecten van de betrouwbaarheid en de modellen, is het essentieel om te begrijpen hoe onderhoud en reparaties moeten worden gepland om de veiligheid en kosten-effectiviteit van de werkzaamheden te waarborgen. Het bepalen van het optimale moment voor onderhoud is een balans tussen het risico van falen en de kosten van te frequente inspecties. Onderhoud dat niet op het juiste moment wordt uitgevoerd, kan leiden tot ernstige incidenten, zoals ongeplande uitvaltijd of structurele schade aan de tunnel.

Naast de technische implementatie is ook de juiste opleiding en kennisdeling tussen alle betrokkenen van groot belang. Het succes van dit soort systemen hangt niet alleen af van de nauwkeurigheid van de modellen, maar ook van de ervaring en het oordeel van de ingenieurs die ze gebruiken. Het is van cruciaal belang dat de expertise van domeinspecialisten en de input van technici in het proces worden geïntegreerd, zodat het volledige risico-systeem effectief wordt beheerd. Door deze benadering kunnen de risico's die gepaard gaan met de constructie van tunnels aanzienlijk worden verminderd, wat leidt tot een veiliger en kostenefficiënter bouwproces.

Hoe optimaliseer je tunnelbooglijnen voor maximale efficiëntie en veiligheid?

In de optimalisatie van tunnelbooglijnen is het van belang om zowel de technische haalbaarheid als de kosten en omgevingsimpact te maximaliseren. Het gebruik van geavanceerde algoritmes zoals de NSGA-II is essentieel voor het verkrijgen van optimale oplossingen, vooral wanneer meerdere tegenstrijdige doelen moeten worden gecombineerd, zoals kostenreductie, minimale wachttijden en maximaal comfort.

De NSGA-II, oftewel Non-dominated Sorting Genetic Algorithm II, is een krachtige techniek voor multi-objectieve optimalisatie. Het proces begint met de initiële populatie, F1, welke wordt geselecteerd op basis van de Pareto Front. Als de grootte van F1 kleiner is dan de vereiste populatiegrootte P1, worden de nieuwe populaties F2 en F3 gevormd, totdat het aantal individuen gelijk is aan N. Dit proces wordt herhaald tot het algoritme convergeert, dat wil zeggen dat de populatie niet significant verandert. Het einde van de optimalisatie is bereikt wanneer een vooraf gedefinieerde stopcriteria is bereikt, zoals een bepaald aantal iteraties of wanneer de oplossingen nauwelijks meer variëren.

Bij het optimaliseren van verschillende doelen, wordt de Pareto Front gebruikt om de best mogelijke oplossingen te bepalen. De 'knee point' techniek speelt hierbij een cruciale rol. De 'knee point' wordt gekozen als de uiteindelijke optimale oplossing, omdat het het punt is dat de minimale afstand tot het ideale punt vertegenwoordigt, gezien over alle doelen. Het gebruik van deze techniek maakt het mogelijk om oplossingen te rangschikken op basis van hun afstand tot dit ideale punt, hetgeen van groot belang is wanneer er conflicterende prioriteiten zijn.

Om de effectiviteit van dit proces te verbeteren, is het nodig om de verschillende doelstellingen te standaardiseren. Doelstellingen zoals kosten, doorlooptijd en comfort kunnen immers verschillende eenheden hebben. De standaardisatie wordt bereikt door het gebruik van bepaalde formules, waarmee alle waarden van de doelstellingen op een vergelijkbare schaal worden gebracht. Dit maakt het mogelijk om een eerlijke en consistente vergelijking te maken tussen verschillende oplossingen en draagt bij aan het vinden van een echt optimale oplossing.

In een specifiek geval, zoals een tunnelproject in Wuhan, China, waarbij een tunnelbooglijn moet worden geoptimaliseerd, worden drie belangrijke doelen gesteld: het minimaliseren van de investering, het verkorten van de wachttijd en het maximaliseren van het comfort voor de reizigers. Deze drie doelen zijn afhankelijk van verschillende variabelen, zoals de straal van de boog en de diepte van de tunnel. De straal van de boog kan variëren van 200 tot 450 meter, wat invloed heeft op de veiligheid en de impact op de bestaande gebouwen in het gebied. Dit brengt de noodzaak met zich mee om een balans te vinden tussen technische vereisten, kosten en de impact op de omgeving.

Om de juiste optimalisatie te realiseren, moeten de variabelen van de straal en de diepte worden geïntegreerd in de berekeningen van de lengtes van de tunnel en de kosten. Formules zoals die voor de totale lengte van de tunnel, de constructiekosten per kilometer en de diepte van de tunnel worden gebruikt om het optimale ontwerp te bepalen. Hierbij wordt rekening gehouden met de hoogteverschillen tussen stations en de invloed van de tunnel op de omliggende bebouwing.

Naast de technische optimalisatie is het belangrijk te begrijpen dat de afstemming van verschillende doelstellingen vaak gepaard gaat met complexiteit. Beslissers moeten zich bewust zijn van de trade-offs die ze maken. Bijvoorbeeld, het kiezen voor een kleinere boogradius kan leiden tot hogere kosten en een grotere impact op de omgeving, maar tegelijkertijd kan het de reistijd verkorten. Het is de taak van het algoritme om deze verschillende belangen te balanceren en de meest efficiënte oplossing te vinden, rekening houdend met de geoptimaliseerde waarden van de doelstellingen.

Verder is het essentieel dat de geselecteerde oplossing niet alleen technisch haalbaar is, maar ook rekening houdt met praktische overwegingen, zoals de beschikbaarheid van middelen en de langetermijneffecten van de constructie op de omgeving. Het proces van optimalisatie moet dus niet alleen gericht zijn op de kortetermijnwinst, maar ook op duurzaamheid en maatschappelijke impact.

In de praktijk van tunnelbouw en stedelijke ontwikkeling is het van cruciaal belang om een holistische benadering van optimalisatie te hanteren. Dit betekent dat naast technische optimalisatie, zoals de keuze van boogradius en diepte, er ook gekeken moet worden naar de bredere context van het project. Bijvoorbeeld, de invloed op de omwonenden en de toekomstige stedelijke ontwikkeling moet meegewogen worden bij het nemen van beslissingen over de uiteindelijke ontwerpkeuzes.

Het uiteindelijke doel van de optimalisatie is om de beste oplossing te vinden die niet alleen economisch haalbaar is, maar ook veilig en duurzaam. Hierbij moeten alle belangen van de stakeholders in balans worden gebracht, van de projectontwikkelaar tot de lokale bevolking. De toepassing van de NSGA-II en andere optimalisatietechnieken kan hierbij helpen door het verstrekken van duidelijke, datagestuurde inzichten in welke ontwerpkeuzes het meest voordelig zijn voor alle betrokkenen.

Hoe Digitale Tweeling Platformen de Prestaties van Tunnelboormachines Verbeteren

Het gebruik van geavanceerde technieken voor het monitoren en optimaliseren van tunnelboormachines (TBM) is cruciaal voor het verhogen van de efficiëntie en betrouwbaarheid van tunnelprojecten. In dit kader is de toepassing van digitale tweelingtechnologieën, die de virtuele representatie van een fysiek systeem gebruiken, essentieel voor het verbeteren van de prestaties van TBM’s. Dit artikel onderzoekt de aanpak van prestatie-analysemethoden voor TBM’s door middel van een diepgaand leermodel, en biedt inzicht in hoe pre-processingsdata worden verwerkt en geanalyseerd om verschillende prestatie-indicatoren te voorspellen.

In de eerste fase van het proces wordt de verzamelde data voor de TBM voorbewerkt. Pre-processing is essentieel om de ruwe gegevens om te zetten naar een formaat dat geschikt is voor diepgaand leren. Dit houdt in het berekenen van statistische waarden zoals de z-score, normalisatie en herschaling van de data. De wiskundige expressies voor deze processen worden beschreven door formules die de verandering in waarden reflecteren ten opzichte van de gemiddelde waarde en standaarddeviatie, zoals aangegeven in de bijbehorende formules (1)–(3).

Na het voorbewerken van de gegevens kunnen de benodigde parameters worden geëxtraheerd om een diepgaand leermodel te trainen. Het model moet prestatie-indicatoren van de TBM voorspellen, waarbij specifieke focus ligt op de snelheid van de boor (penetratiesnelheid), energieverbruik, over-excavatie en slijtage van de boorkop. Deze indicatoren zijn van essentieel belang voor zowel de effectiviteit als de veiligheid van het tunnelboorproces.

De penetratiesnelheid (Pr) wordt gedefinieerd als de verhouding van de uitgevoerde boorlengte ten opzichte van de tijd die nodig is om die lengte te bereiken. Een hogere penetratiesnelheid duidt op een snellere voortgang van de boor, wat resulteert in een efficiënter bouwproces. De over-excavatie ratio (Oev) reflecteert de verhouding van de daadwerkelijk verwijderde grond ten opzichte van de theoretische hoeveelheid grond, wat belangrijk is voor het behoud van de veiligheid en het voorkomen van schade aan omliggende structuren.

Een ander belangrijk aspect is het energieverbruik (ET) van de TBM, waarvan het grootste gedeelte afkomstig is van de krachten die de boorkop aandrijven. De specifieke formules voor het berekenen van de energieconsumptie omvatten de krachten die op de boor worden uitgeoefend en de rotatiesnelheid van de boorkop. Door het energieverbruik te monitoren, kan de efficiëntie van de TBM beter worden beoordeeld, wat op zijn beurt kan helpen om de totale projectkosten te verlagen.

De slijtage van de boorkop (Tw) is een indicator die de duurzaamheid van de TBM weerspiegelt. Het monitoren van de slijtage is cruciaal omdat te veel slijtage kan leiden tot een lagere boorefficiëntie en verhoogde kosten voor onderhoud. Slijtage wordt doorgaans gemeten tijdens onderhoudsintervallen, waarbij de verkregen data wordt geanalyseerd om de slijtage per sectie van de tunnel te bepalen.

Met deze indicatoren in gedachten, wordt een diepgaand leermodel ontwikkeld dat gebruik maakt van zowel Graph Convolutional Networks (GCN) als Long Short-Term Memory (LSTM) netwerken. Deze netwerken helpen bij het extraheren van zowel ruimtelijke als temporele kenmerken van de input data, wat essentieel is voor het voorspellen van de prestaties van de TBM. GCN wordt toegepast om de ruimtelijke relaties tussen de verschillende parameters van de TBM te begrijpen, terwijl LSTM helpt om de tijdsafhankelijke dynamiek van de prestaties te vangen. Het combineren van deze technieken maakt het mogelijk om de nauwkeurigheid van de voorspellingen te verbeteren door rekening te houden met zowel de huidige staat van de TBM als de eerdere gedragingen van het systeem.

Het model wordt getraind door gebruik te maken van historische data, waarbij de eerste 80% van de dataset wordt gebruikt voor training en de resterende 20% voor testen. De inputparameters omvatten de operationele parameters van de TBM, zoals krachten, snelheid en energieverbruik, terwijl de output bestaat uit de prestatie-indicatoren, zoals de penetratiesnelheid en energieverbruik. Het trainen van het model is een iteratief proces waarbij verschillende lagen van GCN en LSTM netwerken worden gestapeld om de complexiteit van de gegevens te verwerken.

Een belangrijk aspect van dit model is de keuze van activatiefuncties. Tijdens de modeltraining worden verschillende activatiefuncties toegepast, zoals de tanh, de exponentiële lineaire eenheid (ELU) en de rectified linear unit (ReLU), afhankelijk van de specifieke laag in het model. Deze functies spelen een cruciale rol in het leren van niet-lineaire relaties in de data, wat belangrijk is voor het nauwkeurig voorspellen van de TBM-prestaties.

Naast de technische uitvoering van het model en de voorbewerking van gegevens, is het belangrijk te begrijpen dat het succes van dit systeem niet alleen afhankelijk is van de nauwkeurigheid van de voorspellingen, maar ook van de betrouwbaarheid van de ingevoerde gegevens. De kwaliteit van de verzamelde data, zoals de juiste metingen van krachten, snelheden en boorparameters, bepaalt grotendeels de prestaties van het model. Daarom is het van groot belang om robuuste en accurate sensoren te gebruiken tijdens de TBM-operaties om de benodigde gegevens te verzamelen. Bovendien moet er continu aandacht zijn voor de veranderlijke omstandigheden in de ondergrond, aangezien deze direct van invloed kunnen zijn op de TBM-prestaties.

Een ander belangrijk aandachtspunt is het integreren van de feedback van de operaties. Het model moet regelmatig worden bijgesteld op basis van nieuwe data, zodat het zich blijft aanpassen aan veranderende omstandigheden, zoals veranderingen in de aard van het gesteente of de boorparameters. Dit dynamische proces zorgt ervoor dat het digitale tweelingmodel niet alleen een statische representatie blijft, maar zich blijft ontwikkelen op basis van operationele ervaringen.