Het proces van het modelleren van de betrouwbaarheid van een tunnelgezicht vereist zorgvuldige overweging van de verdelingen en functies die de relaties tussen verschillende variabelen beschrijven. In dit context wordt een copulafunctie gebruikt om de afhankelijkheid tussen twee of meer variabelen te modelleren, terwijl marginale verdelingen de individuele eigenschappen van deze variabelen weergeven. Het kiezen van de juiste copula en marginale verdelingen is cruciaal voor het verkrijgen van een nauwkeurig model dat betrouwbare voorspellingen biedt over de prestaties van de tunnel.

In de eerste stap van het modelleren wordt de marginale verdeling van de individuele variabelen bepaald. Dit vereist de berekening van de gemiddelde waarde (μ) en de standaarddeviatie (σ) van de gemeten data. Deze statistieken zijn noodzakelijk om een goed idee te krijgen van de spreiding en het centrale gedrag van de gegevens. Het tweede element in dit proces is de schatting van de distributieparameters, p en q, die gebaseerd zijn op verschillende soorten kandidaat-verdelingen. Er worden vaak verdelingen zoals de Weibull- of Gumbel-verdelingen gebruikt, omdat deze goed passen bij veel fysische en ingenieursdata, bijvoorbeeld bij de levensduur van materialen of de belasting van structuren. Ten slotte wordt de meest geschikte marginale verdeling gekozen op basis van de minimisatie van de AIC (Akaike Information Criterion) of BIC (Bayesian Information Criterion), die helpen te bepalen welke verdeling de data het beste beschrijft.

De keuze van de copula is de volgende stap in het modelleren van de afhankelijkheid tussen de variabelen. Een copula is een functie die de samenhang tussen de marginale verdelingen van verschillende variabelen vastlegt. Het is essentieel om de copula-parametervoor θ te bepalen, omdat dit de mate van afhankelijkheid tussen de variabelen meet. Dit kan worden gedaan met behulp van de Pearson's lineaire correlatiecoëfficiënt of de Kendall rank correlatiecoëfficiënt. Hoewel Pearson’s coëfficiënt betrouwbaar is bij perfect lineaire relaties, is het niet geschikt voor niet-lineaire afhankelijkheden. Daarom wordt in deze studie de Kendall rank correlatiecoëfficiënt τk gebruikt, die de afhankelijkheid tussen variabelen onafhankelijk van hun marginale verdelingen reflecteert. De relatie tussen τk en de copulafunctie wordt gegeven door de vergelijking (5):

τk=1Ni[sign(x1)sign(x2)]\tau_k = \frac{1}{N} \sum_{i} \left[ \text{sign}(x_1) \cdot \text{sign}(x_2) \right]

Deze aanpak maakt het mogelijk om de afhankelijkheid tussen variabelen te schatten, zelfs als de relatie niet lineair is, wat vaak het geval is in realistische scenario’s zoals de tunnelmodellering.

Het belang van het begrijpen van de juiste marginale verdeling en copula-functie gaat verder dan alleen de technische stappen die hierboven zijn beschreven. Het is essentieel voor de modelleur om te beseffen dat het kiezen van een onjuiste marginale verdeling of copula kan leiden tot significante vertekeningen in de betrouwbaarheidsschattingsmodellen, wat op zijn beurt kan resulteren in onjuiste beslissingen tijdens het ontwerp- en constructieproces. Bovendien is de combinatie van marginale verdelingen en copula’s niet altijd rechtlijnig. Er moeten verschillende methoden en technieken worden overwogen om de best passende combinatie te vinden.

In veel gevallen is het nuttig om niet alleen te vertrouwen op standaardformules en bestaande statistische methoden, maar ook om robuuste diagnostische tests uit te voeren. Dit zorgt ervoor dat de gekozen verdelingen en copula’s de realiteit van het tunnelgedrag zo nauwkeurig mogelijk reflecteren. Het gebruik van geavanceerde statistische software en technieken voor modelvalidatie is een belangrijke stap in dit proces. Het regelmatig testen en vergelijken van verschillende modeluitkomsten kan ook helpen bij het verbeteren van de betrouwbaarheid van het uiteindelijke model.

Hoe kan de betrouwbaarheid van een tunnelgezicht worden gemodelleerd met behulp van de copula-aanpak?

De risico’s in tunnelbouwprojecten, met name die waarbij gebruik wordt gemaakt van aarddruk-gebalanceerde (EPB) schildtunnels, zijn altijd een zorg geweest voor ingenieurs en ontwerpers. De stabiliteit van het tunnelgezicht is een van de belangrijkste elementen die moet worden gewaarborgd om de veiligheid van het project te garanderen. Dit wordt voornamelijk bereikt door het aanbrengen van een ondersteunende druk op het tunnelgezicht. Deze druk is van cruciaal belang omdat het helpt de grondverzakking te controleren en de stabiliteit van de tunnel te behouden.

Volgens studies, zoals die van Yang et al. (15), speelt de ondersteunende druk een sleutelrol in het beheersen van de impact op de omliggende omgeving en het waarborgen van de stabiliteit van het tunnelgezicht. Echter, het handhaven van deze druk op het juiste niveau blijkt een uitdaging te zijn vanwege de dynamische aard van het boren en de veranderingen in de grondstructuur. Variaties in de ondersteunende druk kunnen leiden tot grondvervorming en verplaatsing van nabijgelegen funderingen. Te veel druk kan zelfs leiden tot grondhef, terwijl onvoldoende druk kan resulteren in een gevaarlijke verzakking van de grond. Beide situaties brengen risico’s met zich mee voor de stabiliteit van het tunnelgezicht en vormen dus een bedreiging voor de algehele veiligheid van het project.

Het modeleren van de betrouwbaarheid van het tunnelgezicht vereist daarom een gedetailleerde benadering, waarbij verschillende factoren zoals ondersteunende druk en grondverzakking in overweging worden genomen. In deze context is de copula-aanpak bijzonder nuttig. Copula's stellen ons in staat om de onderlinge afhankelijkheden tussen verschillende variabelen zoals de ondersteunende druk en de grondverzakking te modelleren, wat essentieel is voor een accuraat risicomodel.

De waarschijnlijkheid van falen van het tunnelgezicht kan worden uitgedrukt door de volgende vergelijking:

Pf=P(g1(X1)<0g2(X2)>0)P_f = P( g_1(X_1) < 0 \vee g_2(X_2) > 0 )

waarbij g1(X1)g_1(X_1) de verandering in de ondersteunende druk en g2(X2)g_2(X_2) de verandering in de grondverzakking vertegenwoordigen. Deze kans kan worden berekend door de waarden van de ondersteunende druk X1X_1 en de grondverzakking X2X_2 te vergelijken met de drempelwaarden voor respectievelijk de minimale en maximale limieten van de druk en de verzakking.

Bij de uitvoering van dit model is het belangrijk om te begrijpen dat de keuze van de copula-functie de uiteindelijke berekening van de falingskans sterk beïnvloedt. Er zijn verschillende copula-functies, zoals de Gaussian, Frank, Plackett en No. 16 copula, die geschikt zijn om de negatieve correlatie tussen de variabelen te beschrijven. Elke copula heeft zijn eigen kenmerken, en de keuze van de meest geschikte functie hangt af van de specifieke data en de verwachte onderlinge afhankelijkheden. Bijvoorbeeld, de Gaussian copula behoort tot de elliptische copula-familie en kan goed omgaan met lineaire correlaties, terwijl Archimedean copula's zoals de Frank copula beter geschikt zijn voor het modelleren van niet-lineaire afhankelijkheden.

De koppeling van de variabelen wordt verder versterkt door de verdeling van de gemeten gegevens. Bij de O-C tunnelsectie, een specifiek geval uit de Wuhan Metro, werden 61 monsters verzameld van de ondersteunende druk en grondverzakking. Het grafische resultaat liet een zwakke negatieve lineaire relatie zien tussen de twee variabelen, wat wijst op een complexe dynamiek tussen de ondersteunende druk en de grondverzakking tijdens de bouw. Na normalisatie van de gegevens was de afhankelijkheid echter veel duidelijker, wat aantoont hoe essentieel het is om de onderlinge afhankelijkheden van de variabelen op een juiste manier vast te leggen.

Het is ook van belang om de spreiding in de gemeten gegevens te begrijpen. De variatie in de gemeten ondersteunende druk was aanzienlijk groter dan de variatie in de grondverzakking, zoals blijkt uit de CoV-waarde (coëfficiënt van variatie). Dit suggereert dat er meer onzekerheid is met betrekking tot de ondersteunende druk, wat impliceert dat het effect van variabiliteit in de druk op het risico van falen van het tunnelgezicht waarschijnlijk groter is dan dat van de grondverzakking.

Naast de technische aspecten van het modelleren van de betrouwbaarheid van het tunnelgezicht, moeten ingenieurs zich ook bewust zijn van de noodzaak om nauwkeurige monitoring en adaptieve strategieën in de praktijk te implementeren. Tijdens de tunnelboorwerkzaamheden kunnen de omstandigheden ter plaatse snel veranderen, wat vraagt om continue herbeoordeling van de risico's. Het dynamisch bijstellen van de ondersteunende druk en het nauwgezet monitoren van de grondverzakking zijn essentieel voor het voorkomen van mogelijke falen. Het correct toepassen van de juiste werkdrukken op basis van real-time gegevens is daarom niet alleen een theoretische uitdaging, maar ook een praktische noodzaak voor het waarborgen van de veiligheid van het project en het minimaliseren van risico’s voor nabijgelegen structuren.

Hoe Subjectieve en Objectieve Methoden de Betrouwbaarheid van Besluitvorming in MCDM Verbeteren

In het proces van Multi-Criteria Decision Making (MCDM) zijn de toewijzing van criteria gewichten en het identificeren van ideale oplossingen cruciaal voor het bereiken van betrouwbare besluitvorming. Eén van de belangrijke aspecten van dit proces is de keuze van de juiste gewichten voor de criteria, die een directe invloed hebben op de uiteindelijke beoordeling van alternatieven. De meest gangbare methoden om gewichten toe te wijzen, zoals de Delphi-methode, de AHP (Analytic Hierarchy Process) en expertbeoordelingen, zijn echter gevoelig voor subjectieve invloeden, wat kan leiden tot inconsistente resultaten. Dit is waar objectieve methoden, zoals de entropiemethode, in beeld komen.

De entropiemethode biedt een objectieve benadering voor het berekenen van gewichten door de informatiewaarde van elk criterium te meten. In essentie stelt deze methode dat criteria die minder 'wanorde' bevatten, dat wil zeggen, criteria die constanter en betrouwbaarder zijn, zwaarder wegen. Dit maakt de entropiemethode bijzonder nuttig wanneer er geen duidelijke objectieve maat is voor de relevantie van elk criterium. Door het concept van informatie-entropie, dat de graad van wanorde binnen een systeem beschrijft, kunnen de gewichten voor de criteria worden vastgesteld. Criteria met een lagere entropie, die dus meer informatieve waarde bieden, krijgen een hoger gewicht.

Het proces begint met de standaardisatie van de scores van de alternatieven om ze in één dimensie om te zetten, wat gedaan wordt door de proportie van de score van elke alternatieve optie ten opzichte van het totaal te berekenen. Vervolgens wordt de entropie van elk criterium berekend. Op basis van deze entropie worden de gewichten van de criteria bepaald. Dit resulteert in een gewogen evaluatiematrix, waarin elke alternatieve optie een score krijgt die de gewogen waarden van de criteria weerspiegelt.

Een ander belangrijk aspect in het besluitvormingsproces is het identificeren van de ideale en niet-ideale oplossingen (PIS en NIS). In dit stadium wordt er een onderscheid gemaakt tussen de zogenaamde 'benefit' criteria, die idealiter zo hoog mogelijk moeten zijn, en de 'cost' criteria, die juist zo laag mogelijk moeten zijn. De positieve ideale oplossing (PIS) wordt bepaald door de hoogste waarden van de benefit criteria en de laagste waarden van de cost criteria. De negatieve ideale oplossing (NIS) wordt gedefinieerd als de laagste waarden van de benefit criteria en de hoogste waarden van de cost criteria. Deze identificatie van PIS en NIS stelt de besluitvormer in staat om de alternatieven te rangschikken op basis van hun relatieve nabijheid tot deze ideale oplossingen.

De uiteindelijke rangschikking van de alternatieven wordt bereikt door de berekening van de verwachte nabijheidscoëfficiënten. Deze coëfficiënten worden berekend door de afstand van elk alternatief tot de PIS en NIS te meten. Alternatieven die dichter bij de PIS liggen, worden als beter beoordeeld dan die dichter bij de NIS. De formule voor het berekenen van deze coëfficiënten houdt rekening met zowel de positieve als negatieve afstand, waarbij een grotere afstand van NIS en een kleinere afstand van PIS resulteert in een hogere rangorde voor het alternatief.

De complexiteit van de besluitvorming neemt toe wanneer onzekerheden en subjectieve oordelen een rol spelen. In de praktijk is het vaak niet mogelijk om de variabiliteit in menselijke beoordelingen volledig te elimineren. Dit is waar de cloudmodeltechniek van pas komt. Het cloudmodel maakt het mogelijk om de onzekerheid in subjectieve oordelen vast te leggen door middel van karakteristieke waarden zoals verwachting, entropie en hyperentropie. Door deze technieken te combineren met Monte Carlo-simulaties kunnen probabilistische modellen worden gebruikt om duizenden mogelijke uitkomsten te genereren, waardoor een robuustere en realistischer evaluatie ontstaat.

Het toepassen van een normaal cloudmodel, gebaseerd op de Gaussische lidmaatschapsfunctie, biedt een krachtige manier om met deze onzekerheid om te gaan. Hierbij worden de gegenereerde steekproeven gebruikt om de evaluatie van alternatieven te verfijnen, wat leidt tot een betrouwbaardere besluitvorming. De resulterende statistieken kunnen de beslissers helpen bij het maken van weloverwogen keuzes, zelfs wanneer de gegevens onvolledig of subjectief zijn.

Deze benadering, waarbij zowel subjectieve als objectieve methoden gecombineerd worden, biedt een breder en betrouwbaarder kader voor het nemen van beslissingen, vooral in omgevingen die gekarakteriseerd worden door onzekerheid en complexiteit. Het biedt niet alleen een manier om met onzekerheid om te gaan, maar ook een meetbare methode om de invloed van subjectieve beoordelingen op de uiteindelijke beslissing te beperken.

Wanneer de methodologieën van TOPSIS en cloudmodellen gecombineerd worden, ontstaat er een krachtig instrument dat in staat is om zowel kwalitatieve als kwantitatieve informatie te verwerken en te integreren. Dit maakt het een ideaal hulpmiddel voor besluitvorming in omgevingen waarin meerdere criteria moeten worden geëvalueerd, maar waar onzekerheid en subjectiviteit niet volledig te vermijden zijn.

Hoe de DNN-GDO Methode de Optimalisatie van Risicobeheer in Tunneling Verbeteren

De optimalisatie van besluitvormingsprocessen bij risicobeheer, vooral in de context van tunnelconstructie, vraagt om geavanceerde technieken die meerdere doelstellingen combineren en tegelijkertijd de effectiviteit en de interpretatie van modellen verbeteren. In de ontwikkeling van de DNN-GDO (Deep Neural Network - Gradient Descent Optimization) methode wordt een bi-objectief optimalisatieprobleem aangepakt, waarbij twee concurrerende doelen tegelijkertijd moeten worden geoptimaliseerd. Het doel van deze benadering is het verbeteren van de risicobeheersing bij complexe bouwprojecten door gebruik te maken van zowel geavanceerde machine learning technieken als optimalisatie-algoritmes.

Bij dit type optimalisatie wordt gebruik gemaakt van een gewogen Tchebycheff-scalarization, zoals weergegeven in vergelijking (7), die verschillende objectieve functies combineert tot één geaggregeerde objectieve functie. Deze techniek maakt het mogelijk om met een enkele geaggregeerde functie te werken, die de verschillende doelstellingen in balans brengt, en het resultaat verder te verwerken in een gradient descent optimalisatieproces. Het belangrijkste voordeel van deze aanpak is dat het mogelijk is om door variatie in de gewichten van de doelstellingen een compleet beeld te krijgen van de Pareto-optimalen, wat cruciaal is voor het maken van weloverwogen keuzes in risicomanagementscenario’s.

Het proces begint met het willekeurig selecteren van een initiële waarde voor de beslissingsvariabelen binnen een voor gedefinieerd bereik, wat vervolgens de start is voor de gradient descent techniek. Door deze techniek wordt de waarde van de beslissingsvariabele iteratief aangepast in de richting van de steilste afname van de objectieve functie. Het gebruik van de negatieve gradient zorgt ervoor dat het algoritme snel naar een lokaal minimum convergeert. Dit iteratieve proces is echter niet zonder uitdagingen, aangezien gradient descent geen garantie biedt voor het vinden van een globaal minimum, wat betekent dat herhalingen van de optimalisatie noodzakelijk zijn om vast te stellen of het bereikte minimum echt optimaal is.

Een belangrijk aspect van de DNN-GDO methode is de mogelijkheid om de invloed van verschillende kenmerken (of beslissingsvariabelen) op het optimalisatieproces te kwantificeren. Dit gebeurt via een gevoeligheidsanalyse, waarbij de gemiddelde afgeleide van de objectieve functie wordt berekend. Hoe groter de invloedsgraad van een bepaalde variabele, hoe sterker de afname van de objectieve functie wanneer deze variabele wordt aangepast. Deze benadering biedt waardevolle inzichten in de bijdrage van specifieke variabelen aan het optimalisatieproces, en helpt besluitvormers te identificeren welke factoren cruciaal zijn voor de verbetering van de uiteindelijke oplossing. Dit is van bijzonder belang in risicobeheersing, aangezien het inzicht in welke variabelen het meeste effect hebben op de risicoscenario's, de mogelijkheid biedt om de focus te leggen op de meest invloedrijke risicofactoren.

Bijvoorbeeld, in een tunnelbouwscenario, zoals het geval in de Wuhan metro, is het van belang om de invloed van bepaalde ontwerpkenmerken van de tunnel, zoals de dekking en het dekspanbereik, te begrijpen. Onjuiste ontwerpkeuzes kunnen leiden tot aanzienlijke verstoringen in de ondergrondse omgeving, wat vervolgens de stabiliteit van de tunnel en de nabijgelegen structuren in gevaar kan brengen. De risicofactoren zoals de ophoping van grondsettlement en de kanteling van gebouwen zijn kritisch, omdat ze de veiligheid van het tunnelen en de integriteit van de omliggende structuren direct beïnvloeden.

Wat verder belangrijk is, is hoe de beslissing wordt genomen over welke oplossing het meest ideaal is, gezien de aanwezigheid van meerdere mogelijke compromissen. Een van de manieren om dit te doen is door de Euclidische afstand te berekenen tussen de geoptimaliseerde waarde en een referentiepunt. De kortere de afstand tot het referentiepunt, des te dichter de oplossing bij de ideale oplossing komt. Dit helpt bij het maken van de definitieve keuze uit de verschillende compromis-oplossingen die tijdens het optimalisatieproces zijn gegenereerd.

In praktische toepassingen is het ook belangrijk om het model te evalueren op basis van zijn voorspellende prestaties. Dit gebeurt door middel van verschillende meetwaarden, zoals de gemiddelde kwadratische fout (MSE), de gemiddelde absolute fout (MAE) en de R2-coëfficiënt van determinatie, die samen een goede indicatie geven van de nauwkeurigheid van de voorspellende output van het model. Een model met een lagere MSE en MAE en een hogere R2-waarde kan als effectiever worden beschouwd voor het voorspellen van risicofactoren en het optimaliseren van de bijbehorende beheersmaatregelen.

Hoewel de DNN-GDO methode sterk afhankelijk is van de prestaties van het onderliggende neurale netwerkmodel, maakt het een belangrijke stap in het verbeteren van de besluitvorming in risicobeheer, vooral in complexe en risicovolle omgevingen zoals tunnelbouw. Dit is een belangrijke stap richting het vervangen van subjectieve expertise door data-gedreven besluitvormingsprocessen, die niet alleen sneller, maar ook consistenter en objectiever zijn.

In de context van de tunnelbouw en risicobeheersing kunnen de belangrijkste factoren die de risicobeoordeling beïnvloeden sterk variëren afhankelijk van de specifieke kenmerken van de bouwlocatie, de gebruikte technieken en de omgevingsomstandigheden. Het is dan ook essentieel om niet alleen te vertrouwen op de geoptimaliseerde oplossing, maar ook om doorlopende metingen en updates van de omgevingsfactoren te integreren in het besluitvormingsproces, zodat het model altijd up-to-date blijft en de risicobeheersmaatregelen kunnen worden aangepast aan de laatste gegevens.