Wanneer we binnen een bepaald domein U werken, kunnen we een kwalitatief concept T koppelen aan dit domein. Elke specifieke waarneming x ∈ U – aangeduid als een "cloud drop" – representeert een numerieke concretisering van het kwalitatieve concept T. De mate waarin x tot T behoort, wordt uitgedrukt in een driedimensionale vector y = (Ex, En, He), de standaardvorm van het zogenoemde cloudmodel. Ex is de verwachtingswaarde van x, oftewel de centrale waarde van het kwalitatieve concept. En is de entropie en reflecteert de mate van onzekerheid binnen het concept – een samenspel van willekeur en vaagheid. He, de hyperentropie, drukt de onzekerheid uit van deze onzekerheid zelf, en geeft dus de stabiliteit van En weer.
Het cloudmodel gebruikt de normaalverdeling vanwege de brede toepasbaarheid ervan in natuurlijke en subjectieve verschijnselen. Daarmee ontstaat het normale cloudmodel: een familie van Gaussiaanse lidmaatschapsfuncties die gezamenlijk de semantische contouren van een subjectief begrip afbakenen. In de praktijk wordt dit model gegenereerd via een zogeheten forward cloud generator, die willekeurige instantiaties x genereert op basis van de verdelingen van En en He. Deze benadering biedt een brug tussen vage taal en harde cijfers.
Het genereren van cloud drops verloopt in drie stappen: eerst wordt een specifieke entropie En′ getrokken uit een normale verdeling met als parameters En en He². Vervolgens wordt een waarde x gegenereerd uit een normale verdeling met Ex als verwachting en En′ als standaardafwijking. Ten slotte wordt de lidmaatschapswaarde y berekend met behulp van een exponentiële formule die de afstand tussen x en Ex verwerkt ten opzichte van En′. Door deze procedure N keer te herhalen, ontstaat een wolk van numerieke waarden die een subjectieve beoordeling representeren.
In evaluatieprocessen wordt vaak gewerkt met een vijfpuntschaal: zeer laag, laag, gemiddeld, hoog en zeer hoog. Voor elk van deze niveaus wordt een eigen cloudmodel opgesteld, gekarakteriseerd door unieke triplets van (Ex, En, He). De kernwaarden van deze modellen worden berekend op basis van het gulden snede-principe, wat een gebalanceerde spreiding garandeert binnen een gestandaardiseerd interval [0,1]. Hierdoor ontstaat een semantisch evenwicht tussen de niveaus, waarbij het centrale punt (bijvoorbeeld ‘gemiddeld’) de spil vormt waarrond de overige modellen worden gestructureerd.
Voor de grenswaarden van deze schaal (zeer laag en zeer hoog) worden zogenaamde half-wolken gebruikt: asymmetrische verdelingen die ervoor zorgen dat de modellen binnen het interval [0,1] blijven. Deze constructie voorkomt dat de semantiek van bijvoorbeeld “zeer laag” zich buiten de bedoelde grenzen uitstrekt. Zo wordt het mogelijk om taaluitingen zoals “hoog” of “zeer laag” te vertalen naar nauwkeurig begrensde numerieke profielen.
Bij besluitvorming met meerdere alternatieven en beoordelingscriteria, worden de taalkundige beoordelingen van experts vertaald naar cloudmodellen volgens de eerder gedefinieerde vijfpuntschaal. Elke beoordeling – bijvoorbeeld "hoog" – wordt geconverteerd naar zijn corresponderende triplet (zoals (0.691, 0.064, 0.008)), en verwerkt in een matrix van cloudmodellen. Vervolgens genereert de forward cloud generator steekproefmatrices die enkel uit reële waarden bestaan, geschikt voor verdere numerieke analyse.
Een van de methoden om alternatieven te rangschikken is TOPSIS (Technique for Order Preference by Similarity to Ideal Solution). In zijn klassieke vorm houdt TOPSIS geen rekening met onzekerheid, maar door integratie van het cloudmodel wordt dit tekort overwonnen. Elke steekproefwaarde uit het cloudmodel representeert een mogelijke realisatie van een subjectieve beoordeling, wat leidt tot een meer genuanceerde evaluatiematrix. Door meerdere matrices te genereren, ontstaat een ensemble van mogelijke uitkomsten die de inherente onzekerheid reflecteren.
Bij het samenvoegen van de individuele evaluaties van meerdere experts, wordt rekening gehouden met hun respectieve gewicht op basis van bijvoorbeeld ervaring of academische status. Deze gewichten beïnvloeden de mate waarin iemands beoordeling doorwerkt in de gezamenlijke matrix. De eindscore van elk alternatief wordt uiteindelijk berekend op basis van de afstand tot het ideale (positieve) en anti-ideale (negatieve) alternatief.
Bij het interpreteren van deze modellen is het belangrijk te beseffen dat cloudmodellen niet enkel vaagheid beschrijven, maar vooral de mate van semantische ongrijpbaarheid coderen. Het onderscheid tussen willekeur (randomness) en vaagheid (fuzziness) – en de manier waarop deze samenvallen in entropie – is fundamenteel. De hyperentropie als meta-onzekerheid stelt de evaluator in staat rekening te houden met instabiliteit binnen subjectieve beoordelingen.
Belangrijk is ook het besef dat cloudmodellen een alternatieve denkwijze vereisen. Ze zijn geen statistische modellen in klassieke zin, maar probabilistische semantische representaties. Het kwantificeren van taal vereist niet enkel vertaling naar cijfers, maar een omarming van de inherente onzekerheid van menselijke interpretatie.
Hoe werkt een SEQ-poort in een DFT en wat betekent dit voor systeemuitval?
Een SEQ-poort (Sequence Gate) speelt een cruciale rol in het dynamisch falen van systemen en de daaropvolgende analyse van systeemgedrag bij falen. Het belangrijkste kenmerk van een SEQ-poort is dat hij pas wordt geactiveerd als de inputs zich in een specifieke volgorde voordoen. Dit betekent dat de falen van een systeemcomponent niet willekeurig mag zijn; er is een vooraf bepaalde volgorde waarin de fouten zich moeten voordoen om de SEQ-poort te activeren. Dit principe wordt vaak toegepast in de context van een Dynamisch Betrouwbaarheidsnetwerk (DTBN), waar de kans op systeemuitval in bepaalde perioden geanalyseerd wordt, afhankelijk van hoe de falen van verschillende componenten zich verhouden.
In een typisch DFT-systeem, waarin verschillende nodes (knooppunten) elkaar beïnvloeden bij falen, wordt de kans op falen van een specifiek knooppunt als een functie van de falen van voorgaande knooppunten gemodelleerd. Dit is waar de SEQ-poort zijn rol speelt: de kans dat een knooppunt in een bepaald interval faalt, is afhankelijk van de falen van voorgaande knooppunten en de volgorde waarin deze fouten zich voordoen.
Stel je bijvoorbeeld voor dat we drie knooppunten hebben: A, B en C. Het systeem beschrijft hoe de falen van knooppunt A een effect heeft op B en hoe dat vervolgens weer doorwerkt naar C. De SEQ-poort zorgt ervoor dat, als A in een bepaald interval faalt, B pas kan falen in het volgende interval, en C kan alleen falen als B ook in datzelfde interval faalt. Dit creëert een 'sequentiële' afhankelijkheid, waarbij het falen van het ene knooppunt noodzakelijkerwijs het falen van het andere in een vaste volgorde moet veroorzaken.
De kans op falen van een knooppunt in een specifiek interval kan worden gemodelleerd met behulp van de formule die we in de bijbehorende wiskundige structuur zien. De kans wordt uitgedrukt in termen van de falenparameters en , waarbij de faalfrequentie van knooppunt A is, en die van knooppunt B. Deze kans wordt verder beïnvloed door de tussenliggende falen van andere knooppunten. Dit resulteert in een complexe interactie tussen de componenten, die de algehele betrouwbaarheid en het falen van het systeem bepaalt. Het begrijpen van deze interacties is essentieel voor het modeleren en voorspellen van systeemgedrag in geval van falen.
Daarnaast is het van belang te begrijpen dat een SEQ-poort niet alleen het falen van componenten in een specifiek interval regelt, maar ook de impact van dit falen op andere delen van het systeem. Dit kan leiden tot een cascade van fouten, waarbij de falen van een enkele component het falen van meerdere andere componenten in gang zet. In sommige gevallen kan dit zelfs leiden tot een volledige systeemuitval, vooral als de falen van componenten zich in een voorbestemde volgorde voordoen.
Wanneer je de kans op falen voor knooppunt B wilt berekenen, wordt rekening gehouden met de intervalafhankelijkheid van de foutvolgorde, zoals geïllustreerd in de wiskundige functies en vergelijkingen. Dit maakt het mogelijk om de betrouwbaarheid van het systeem te berekenen door niet alleen te kijken naar de individuele componenten, maar ook naar de interacties en afhankelijkheden tussen deze componenten.
Bij het ontwerpen van betrouwbare systemen en het analyseren van hun kwetsbaarheden, is het daarom noodzakelijk om niet alleen naar de kans op falen van afzonderlijke componenten te kijken, maar ook naar de volgorde van het falen en hoe dit de werking van het systeem beïnvloedt. In veel gevallen kunnen systeemuitvallen worden voorkomen door de juiste volgorde van falen in de SEQ-poorten te garanderen, wat resulteert in een robuuster en veerkrachtiger systeemontwerp.
Het is belangrijk om te realiseren dat het modeleren van deze falenprocessen niet alleen nuttig is voor het voorspellen van uitval, maar ook voor het ontwikkelen van strategieën om falen te minimaliseren. Dit kan bijvoorbeeld door componenten zodanig te configureren dat de kans op een ongewilde volgorde van falen wordt verkleind, of door redundantie in te bouwen die een falen in de ene component kan opvangen door de andere. In veel gevallen kan het dynamische falen van systemen nauwkeurig worden voorspeld en geoptimaliseerd, zodat uitval van kritieke onderdelen kan worden voorkomen en de algehele prestaties van het systeem worden verbeterd.
Hoe de Fusie van Bewijs en Risicoanalyse de Veiligheid van Infrastructuurprojecten kan Verbeteren
In complexe infrastructuurprojecten is het essentieel om betrouwbare risicoanalyses te maken, niet alleen om de veiligheid te waarborgen, maar ook om onvoorziene gevaren vroegtijdig te identificeren. Een van de meest geavanceerde technieken voor het uitvoeren van deze analyses is het gebruik van Dempster's regel voor bewijsfusie, die verschillende bronnen van informatie combineert om tot een gedegen risicobeoordeling te komen. Echter, deze methode kan problematisch zijn wanneer de mate van tegenstrijdigheid tussen de bronnen te groot is, wat leidt tot onbetrouwbare of zelfs irrationele resultaten. Dit is met name het geval wanneer de tegenstrijdigheidscoëfficiënt (K) dicht bij 1 ligt. Het probleem van deze onvoorspelbare uitkomsten kan opgelost worden door een gewogen fusie van bewijs, een aanpak die door Zhang et al. werd voorgesteld.
Wanneer K groter is dan 0,95, kan de gewogen fusie van bewijs helpen om meer accurate resultaten te verkrijgen. In dit geval wordt eerst de afstand tussen de verschillende stukjes bewijs berekend, waarna een matrix van afstanden wordt opgesteld en de gewichten van de bewijzen worden bepaald. Door vervolgens de gewogen fusie toe te passen, kan een beter geïnformeerde beslissing worden genomen over het uiteindelijke risiconiveau. De methodologie omvat de berekening van een gewogen gemiddelde van de verschillende bewijzen, wat resulteert in een fusioneringsproces dat robuuster is tegen de invloed van tegenstrijdige gegevens.
Na de fusie van bewijs komt de volgende stap in het proces: het verkrijgen van een duidelijk risiconiveau, wat vaak vereist dat de fuzzy-informatie, die uit de Dempster's fusie voortkomt, wordt omgezet naar een precieze waarde. Dit wordt bereikt via een defuzzificatieproces. Verschillende methoden kunnen hiervoor worden gebruikt, zoals de Centroid-methode of de Middle of Maximum-methode. Deze technieken kunnen echter leiden tot verlies van informatie of kunnen te tijdrovend zijn voor complexe projecten. Zhang et al. hebben daarom een innovatieve defuzzificatiemethode geïntroduceerd, de Center of Distribution (COD), die de nauwkeurigheid van de risicobeoordeling verhoogt door een crisp getal te produceren dat het uiteindelijke risiconiveau weergeeft.
Zodra het risiconiveau is gedefinieerd, moet het visueel worden gepresenteerd om de besluitvorming te ondersteunen. In de context van grote infrastructuurprojecten, zoals de bouw van tunnels, kan deze visualisatie van cruciaal belang zijn voor het identificeren van risicogebieden en het nemen van noodzakelijke veiligheidsmaatregelen. Dynamo, een visuele programmeeromgeving voor Revit, is een krachtig hulpmiddel voor het visualiseren van de resultaten van risicobeoordelingen binnen het BIM (Building Information Modeling)-platform. Door het gebruik van een node-based programmeerinterface kunnen gebruikers automatisch de risiconiveaus van verschillende delen van een model berekenen en visualiseren. Door kleurcodes toe te passen, kan snel worden bepaald welke delen van het project verhoogde risiconiveaus vertonen, wat essentieel is voor zowel ontwerpers als veiligheidsexperts.
Bijvoorbeeld, bij de bouw van de Sanyang Road-tunnel in Wuhan werd deze technologie ingezet om risico's effectief te beoordelen en visueel weer te geven. De tunnel, die zowel een weg- als een spoorverbinding bevat, heeft een complex geologisch profiel, wat de risico's vergroot. Door het gebruik van BIM en Dynamo konden de risico's voor elke sectie van de tunnel in kaart worden gebracht, en werden kleurgecodeerde modellen gebruikt om de veiligheidsniveaus snel te evalueren.
Het gebruik van Dempster’s regel en de gewogen fusie van bewijs maakt het mogelijk om meerdere onzekerheden te integreren en tot een betrouwbare risicobeoordeling te komen, zelfs wanneer er tegenstrijdige informatie beschikbaar is. Echter, het is belangrijk om te begrijpen dat het niet voldoende is om alleen de juiste fusie- en defuzzificatiemethoden toe te passen. De effectiviteit van het proces hangt ook af van de kwaliteit van de verzamelde gegevens en de juistheid van de interpretatie van deze gegevens. In de praktijk is het essentieel dat de betrokken partijen goed getraind zijn in het gebruik van deze geavanceerde analysetools en dat er een solide informatie-infrastructuur aanwezig is om betrouwbare input te leveren.
Naast de technische aspecten van de bewijsfusie en risicobeoordeling is het ook belangrijk om rekening te houden met de menselijke factor in het besluitvormingsproces. Risicoanalyses kunnen complexe berekeningen en visuele representaties opleveren, maar het interpreteren van deze informatie vereist een goed begrip van de context en de potentiële impact van de risico's. Het is essentieel dat de betrokkenen in een projectteam effectief communiceren en dat de risicoanalyse begrijpelijk wordt gepresenteerd aan alle belanghebbenden, zodat de juiste maatregelen tijdig kunnen worden genomen.
Hoe kan het Deep Learning-model de prestaties van TBM's optimaliseren door middel van online optimalisatie?
Het gebruik van deep learning voor de optimalisatie van Tunnel Boring Machines (TBM) biedt aanzienlijke voordelen in de controle van de prestaties van de machines. Dit proces is echter niet zonder uitdagingen, vooral wanneer het gaat om het integreren van zowel ruimtelijke als temporele gegevens in de voorspellende modellen. Een van de belangrijkste stappen in dit proces is het trainen van het model, wat doorgaans gebeurt met behulp van de Mean Squared Error (MSE) als verliesfunctie en de Adam-optimalisator. De activatiefuncties voor dit model zijn de tanh-, ReLU- en ELU-functies, die alle een cruciale rol spelen bij het verbeteren van de modelprestaties door niet-lineariteiten effectief vast te leggen.
Tijdens de training worden de prestaties van het model geëvalueerd met behulp van verschillende statistische indicatoren zoals de Mean Absolute Error (MAE), Root Mean Squared Error (RMSE) en de Coëfficiënt van Determinatie (R²). Deze indicatoren geven inzicht in de nauwkeurigheid van het model door de voorspellingen te vergelijken met de werkelijke waarden (ytest). Het doel is om een model te ontwikkelen dat betrouwbaar genoeg is om optimale besturingsparameters voor de TBM te voorspellen, wat uiteindelijk leidt tot een efficiëntere werking van de machine.
Zodra het deep learning-model is getraind en geoptimaliseerd, kan het verder worden gebruikt in een online optimalisatieproces. Dit proces maakt gebruik van geavanceerde algoritmes zoals NSGA-II, die meerdere Pareto-fronten genereert. Deze Pareto-fronten bevatten verschillende mogelijke oplossingen, en de meest ideale oplossing wordt geselecteerd om de TBM-werking te sturen. Het is belangrijk te begrijpen dat de NSGA-II niet alleen de optimale oplossing selecteert, maar ook verschillende mogelijke oplossingen biedt die kunnen worden geoptimaliseerd in verschillende iteraties van het proces.
Om deze ideale oplossing te bepalen, wordt het TOPSIS-algoritme (Technique for Order of Preference by Similarity to Ideal Solution) toegepast. Dit algoritme bepaalt de meest ideale oplossing door de afstand van elke oplossing tot zowel het ideale als het slechtste geval te berekenen. Het doel is om de oplossing te vinden die het dichtst bij het ideale geval ligt, wat vervolgens kan worden gebruikt om de TBM-werking te sturen.
Een belangrijke toevoeging aan dit proces is de mogelijkheid van online bijwerking. Terwijl het model wordt uitgevoerd, worden de historische gegevens over de prestaties van de TBM continu vervangen door de geoptimaliseerde resultaten. Dit zorgt ervoor dat het model in real-time kan blijven leren en zich aanpassen aan veranderingen in de werking van de TBM. Het resultaat is een dynamisch optimalisatieproces waarin de parameters van de machine continu worden verbeterd om de prestaties te maximaliseren.
De effectiviteit van de voorgestelde benadering wordt gemeten door de verbetering in de prestaties van de TBM te berekenen, door de geoptimaliseerde resultaten te vergelijken met de oorspronkelijke prestaties. De mate van verbetering wordt weergegeven als een percentage, en het doel is om de prestaties van de TBM aanzienlijk te verbeteren door gebruik te maken van het geavanceerde deep learning-model en de online optimalisatie-technieken.
Het is belangrijk te begrijpen dat het succes van dit model sterk afhankelijk is van de kwaliteit van de data die het ontvangt. Het model moet niet alleen accuraat zijn in het voorspellen van de prestaties van de TBM op basis van de inputparameters, maar moet ook flexibel genoeg zijn om zich aan te passen aan veranderende omstandigheden in de werkomgeving. Daarom moeten de gebruikte gegevens representatief zijn voor de verschillende scenario’s die zich kunnen voordoen tijdens de operaties van de TBM, en moeten de optimalisatietechnieken robuust genoeg zijn om met onzekerheden om te gaan. De online optimalisatie biedt hierbij een flexibele en adaptieve benadering, die in staat is om de machineprestaties in real-time te verbeteren.
Hoe kan het optimaliseren van de operationele parameters de prestaties van een Tunnelboormachine verbeteren?
De prestaties van een tunnelboormachine (TBM) kunnen aanzienlijk verbeteren door het aanpassen van de operationele parameters, mits er voldoende ruimte is voor de aanpassing van deze parameters. Het vergroten van het bereik voor de afstemming van deze parameters zorgt voor een hogere efficiëntie en een verbeterd boorproces. Bijvoorbeeld, de boorsnelheid (O1) kan worden verhoogd van 40,230 mm/min naar 50,012 mm/min wanneer de operationele parameters tot 20% van hun oorspronkelijke waarden kunnen worden aangepast. Door de aanpasbare grenzen verder uit te breiden, bijvoorbeeld tot 40%, kan de snelheid zelfs toenemen tot 51,63 mm/min, wat een verbetering van 27,20% betekent. Deze verbetering wordt ook weerspiegeld in andere prestatie-indicatoren zoals de energieverbruik (O3) en de slijtage van de schijven (O2).
De afname van de beperkingen in de aanpasbare operationele parameters leidt tot een algehele prestatieverbetering. De gegevens laten zien dat er een verbetering van respectievelijk 19,74%, 21,43% en 22,18% wordt behaald bij het verhogen van het bereik van de toegestane aanpassing van [−20%, +20%] naar [−40%, +40%]. Deze verbeteringen zijn ook visueel vastgelegd in grafieken die de boxplots en distributie van de prestatie-indicatoren tonen. Deze grafieken bevestigen dat de prestatie van de TBM verbetert wanneer de operationele parameters binnen een breder bereik kunnen worden aangepast.
Hoewel het optimaliseren van de prestaties van de TBM door het vergroten van het aanpassingsbereik veel voordelen biedt, moeten er altijd andere beperkingen en veiligheidszorgen in acht worden genomen om onbeperkte aanpassingen te voorkomen. Het is essentieel om te begrijpen dat de uiteindelijke prestaties van een TBM niet alleen afhangen van het verhogen van de operationele grenzen, maar ook van het zorgvuldig beheren van de veiligheidsnormen en technische grenzen.
In de huidige benadering wordt gebruik gemaakt van een digitale tweeling (digital twin, DT) om het optimalisatieproces in real-time te begeleiden. Dit model biedt betrouwbare aanbevelingen voor het afstemmen van de actieve parameters zoals de duwkracht (x1), het koppel van de snijkop (x2) en het koppel van de schroeftransporteur (x3), op basis van passieve parameters die de lokale omstandigheden weerspiegelen. Met de door het digitale model voorgestelde waarden kan de TBM-operatie worden geoptimaliseerd.
De voorgestelde methode gebruikt online optimalisatie, wat verschilt van de conventionele optimalisatietechnieken die eerder uitsluitend werkten met statische gegevens en algemene aannames. De online optimalisatie houdt rekening met historische gegevens en dynamische veranderingen, waardoor de aanbevelingen steeds relevanter en effectiever worden. In vergelijking met conventionele multi-objective optimalisatie (MOO) toont de online benadering betere prestaties. Bij toepassing van traditionele methoden is de verbetering van de prestaties in sommige gevallen niet meer dan 13,40%, terwijl de online optimalisatie een algehele verbetering van 22,18% behaalt, wat een significante vooruitgang is van 65,52%. Deze verbetering wordt weerspiegeld in de gegevens en grafieken die de effectiviteit van het digitale tweelingmodel bevestigen.
De voordelen van het digitale tweelingmodel zijn duidelijk zichtbaar in de praktijk, waarbij het systeem in staat is om grote hoeveelheden data van de werkelijke TBM te verwerken en real-time aanbevelingen te doen voor de beste afstemmingen van de operationele parameters. Deze gegevens kunnen ook op afstand worden overgedragen om de TBM te sturen, waardoor een innovatieve vorm van virtuele-naar-fysieke besturing wordt gerealiseerd. Hierdoor kan de operator met meer precisie werken, wat de algehele prestaties van de TBM verder verhoogt.
Het digitale tweelingmodel biedt dus niet alleen de mogelijkheid om de prestaties van de TBM te verbeteren, maar stelt ook nieuwe standaarden in voor operationele controle en management. Het kan zowel conventionele als remote controle mogelijk maken, afhankelijk van de situatie en de specificaties van de booropdracht. Door het gebruik van online optimalisatie kan het systeem zich aanpassen aan de veranderende omstandigheden, wat een grotere flexibiliteit en efficiëntie biedt tijdens de operatie.
Naast de voordelen van het optimaliseren van operationele parameters, is het ook belangrijk om te begrijpen dat een zorgvuldig beheer van de veiligheidsstandaarden van cruciaal belang blijft. Ongecontroleerde aanpassingen kunnen leiden tot overbelasting van de machine, verhoogde slijtage of zelfs schade aan de TBM zelf. Het digitale tweelingmodel biedt echter waardevolle hulpmiddelen voor het monitoren van deze parameters en kan dienen als een betrouwbare gids voor de operator, zodat de prestaties worden geoptimaliseerd zonder de veiligheid in gevaar te brengen.
Wat maakt biologisch afbreekbare fotopolymeren geschikt voor 3D- en 4D-printen?
Hoe veranderde de ontwikkeling van de Royal Navy vliegdekschepen de militaire luchtvaart na de Tweede Wereldoorlog?
Wat is het belang van roofvogels in onze natuur en hoe herkennen we ze?
Hoe verschilt Ripple van Bitcoin en wat betekent dit voor vertrouwen en gebruik?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский