Verifieringen av den föreslagna metoden för simulering av subsea Blowout Preventer (BOP) system visade att modellen korrekt återskapade de grundläggande komponenterna och systemets beteende. Denna bekräftelse lade grunden för att bygga ett systemmodell och samla datauppsättningar, som skulle kunna simulera flera scenarier och analysera systemets beteende under både extrema och onormala driftförhållanden. En virtuell modell kan därför simulera systemets dynamiska och statiska processer, vilket ger detaljerad inblick i hur varje subsystem och komponent fungerar i en virtuell miljö. Detta gör det möjligt att optimera systemets prestanda innan det implementeras i verkliga förhållanden.
I det aktuella fallet byggdes en virtuell modell för BOP-systemet för att skapa en experimentell prototyp av det hydrauliska styrsystemet. Genom att göra detta var det möjligt att jämföra och analysera verkliga och virtuella data, vilket är centralt för att utveckla effektiva metoder för feldiagnos. För att kunna genomföra sådana analyser krävs en rik datamängd. Dock, data från det faktiska systemet räckte inte för att stödja alla de analyser som krävdes. Därför fokuserade arbetet på att skapa en virtuell modell av det hydrauliska kontrollsystemet i stället för att modellera hela systemet. Denna modell samlade både verkliga och simulerade data från sensorer som placerats vid strategiska noder i det hydrauliska styrsystemet.
Sensorerna som användes var uppdelade i två grupper, blå och gula, med fyra hydrauliska sensorer och två flödesensorer som fördelades mellan de olika grupperna. Dessa sensorer samlade in ett stort antal datamängder (8400 uppsättningar av data), vilket gav ett rikt underlag för framtida analyser av feldiagnosmetoder. Genom att simulera virtuella data för alla möjliga driftlägen och justera parametrarna i den virtuella modellen, kunde data för olika feltyper skapas. Detta var avgörande för att få fram simulerad data som kunde matcha de verkliga data som samlades in under experimenten.
För att kunna jämföra och analysera de insamlade data, delades dessa upp i olika dataset: Dataset A, B och C. Dataset A representerade den verkliga data från systemet, medan Dataset B var den simulerade virtuella datan och Dataset C var en kombination av de verkliga och simulerade data. Detta tillvägagångssätt gav möjlighet att exakt analysera hur bra den virtuella modellen återspeglade den verkliga världen, samtidigt som det gjorde det möjligt att identifiera fel och brister i modellen.
För att säkerställa att den virtuella datan överensstämde med verkliga systemets beteende, användes en optimeringsmetod som kallas 2DSW-algoritmen. Denna metod är hjärtat i ett ramverk för att utvärdera datakonsistens och är avgörande för att säkerställa att den virtuella modellen korrekt speglar det verkliga systemet. Optimeringsprocessen innebär en serie iterationer där olika parametrar justeras för att förbättra datakonsistensen, vilket förbättrar precisionen i simuleringarna och gör att de kan användas som en pålitlig ersättning för verkliga data vid feldiagnos.
Den virtuella datans optimering med hjälp av 2DSW-algoritmen är en teknisk förutsättning för att säkerställa att simuleringen är realistisk. Det innebär att tids- och amplitudjusteringar görs för att den simulerade datan ska stämma bättre överens med den verkliga världen. Detta gör det möjligt att effektivt använda dessa optimerade data för vidare analys och feldiagnos.
Vidare användes MC1DCNN-GRU-modellen för att optimera feldiagnossystemet. Denna modell är en hybridmodell som kombinerar konvolutionsnätverk (CNN) och Gated Recurrent Units (GRU) för att hantera både rumsliga och tidsberoende data. Genom att optimera denna modell genom att justera parametrar som antal och storlek på konvolutionskärnor samt konfigurera GRU-enhetens dolda lager, kan systemet bättre identifiera och förutsäga fel från den insamlade data. Hyperparameterjusteringen, genom tekniker som grid search och random search, gör det möjligt att hitta den mest effektiva konfigurationen för att maximera modellens prestanda utan att öka beräkningskostnaderna för mycket.
För att uppnå bästa möjliga resultat i optimeringen var det också nödvändigt att göra justeringar av arkitekturen i nätverken. Genom att experimentera med antal lager och enhetsdimensioner i nätverken, kunde en balans uppnås mellan modellens komplexitet och dess förmåga att exakt diagnostisera fel.
Denna typ av metodik har ett antal fördelar. För det första, genom att skapa en digital tvilling av det verkliga systemet, kan man simulera ett stort antal scenarier utan att riskera att skada eller förlora värdefull utrustning. För det andra kan modellen användas för att testa och optimera systemet under olika förhållanden, vilket förbättrar säkerheten och effektiviteten i drift. Slutligen gör den virtuell och realtidsdataoptimering det möjligt att identifiera fel på ett tidigare stadium, vilket minskar risken för oplanerade driftstopp och ökade underhållskostnader.
För att uppnå bästa möjliga resultat krävs en noggrant balanserad användning av både verklig och simulerad data. Verkliga data ger en solid grund för att förstå systemets faktiska prestanda, medan simulerad data gör det möjligt att testa och förutsäga systembeteenden under olika felaktiga förhållanden som annars skulle vara för riskfyllda att återskapa i praktiken. Det är också avgörande att optimera både den virtuella modellen och de algoritmer som används för att bearbeta dessa data, för att säkerställa att diagnosen blir korrekt och användbar i praktiken.
Hur ChiMerge och DBN kan förbättra felprognos med ofullständig data
När man arbetar med ofullständig eller osäker information, särskilt inom industriella sammanhang, är det viktigt att utveckla metoder som inte bara kan hantera de saknade värdena utan också förbättra prognoserna för framtida tillstånd. En av de mest effektiva teknikerna för detta syfte är användningen av Bayesian Networks (BN) och Dynamiska Bayesian Networks (DBN), särskilt när de kompletteras med metoder för diskretisering av kontinuerliga variabler, som ChiMerge, och med avancerade prediktiva teknologier som LSTM-nätverk.
För att förutse fel eller förluster i system är det ofta nödvändigt att skapa modeller som kan ta hänsyn till saknade eller ofullständiga data. Inom ramen för Bayesian Networks etableras en node för de saknade variablerna genom att använda den sannolikhetsfördelning som erhålls från de tillgängliga bevisen. En viktig del av detta är att diskretisera de kontinuerliga variablerna så att de kan införlivas i modellen. Här kommer metoden ChiMerge till användning.
ChiMerge är en binning-algoritm som används för att diskretisera kontinuerliga variabler genom att slå samman intilliggande intervall baserat på Chi-kvadrat-testet. Testet används för att avgöra om det finns ett signifikant samband mellan två variabler i angränsande intervall. Genom att tillämpa detta test på en kontingenstabell, som beskriver de observerade och förväntade frekvenserna av variabler i intervallen, kan man fastställa om intilliggande intervall ska slås samman eller inte. Detta förfarande fortsätter tills en fördefinierad stoppsignal, till exempel ett minsta antal intervall eller ett förbestämt antal sammanfogningar, uppnås.
Denna metod är användbar för att hantera osäkerheter som uppstår vid ofullständiga datamängder, där vissa parametrar kanske inte direkt kan mätas, vilket kan leda till helt saknade värden, medan andra parametrar kan ha delvis förlorad information. I sådana fall gör ChiMerge det möjligt att rekonstruera de saknade variablerna genom att effektivt använda den information som finns tillgänglig.
När man går vidare till mer komplexa prediktionsmetoder, som DBN och LSTM, kan dessa ytterligare förbättra modellernas förmåga att hantera dessa osäkerheter. Dynamiska Bayesian Networks (DBN) är särskilt användbara i dessa sammanhang eftersom de tillåter modellering av komplexa beroenden mellan variabler och kan hantera osäkerhet i ingångsdata. För industrimiljöer där vissa degraderingparametrar är direkt otillgängliga och andra lider av delvis dataförlust, är DBN en kraftfull metod för att uppdatera sannolikhetsbedömningarna för de okända variablerna baserat på observerade bevis. I praktiken innebär detta att DBN kan integrera både tillgänglig och ofullständig information för att göra mer exakta prediktioner om systemets tillstånd.
En central del av DBN-modellen är strukturell modellering och parameterisering. Strukturell modellering innebär att definiera beroenden mellan olika variabler i nätverket, vilket representeras genom riktade kanter i en graf. Denna process börjar med att identifiera alla nyckelvariabler, som faktorer för utrustningens degradering, miljöförhållanden och driftparametrar, vilka modelleras som noder i DBN. Tiden representeras genom flera tidsintervall, där varje intervall indikerar systemets tillstånd vid en viss tidpunkt, och noderna speglar variablernas tillstånd vid dessa tidpunkter.
Vid parameterisering av DBN definieras de betingade sannolikhetsfördelningarna och de betingade sannolikheterna för varje nod och kant i modellen. För diskreta variabler används betingade sannolikhetstabeller (CPT), medan kontinuerliga variabler kan använda sig av Gaussiska fördelningar eller andra lämpliga sannolikheter. De betingade sannolikhetstabellerna mellan tidsintervall härleds från den fysiska modellen genom att först diskretisera barnnoderna och inkorporera tidigare diskretiserade föräldraparametrar.
Med tanke på den stora mängd osäkerhet som kan förekomma i sådana tillämpningar är det inte ovanligt att modeller för att förutse degradering och andra fel kan ha ofullständiga eller osäkra data. DBN gör det möjligt att fylla i dessa saknade data genom att använda inferensmetoder som Monte Carlo-simuleringar, vilket ger mer exakta resultat och en mer robust modell för att hantera felprognoser. Genom att använda förbättrad data med både ofullständig och komplett information kan dessa nätverk ge en mer tillförlitlig förutsägelse för degraderingsprocesser och därigenom optimera driften av industriella system.
I denna kontext kan LSTM (Long Short-Term Memory) också vara ett viktigt komplement för att förutsäga tidsserier. LSTM-nätverk, som är en typ av tidsåterkommande neurala nätverk, har förmågan att upptäcka både kort- och långsiktiga beroenden. LSTM har tre viktiga kontrollportar: glömskeporten, inmatningsporten och utmatningsporten. Glömskeporten används för att bestämma vilket information som ska tas bort från nätverket, medan inmatningsporten kontrollerar hur mycket ny information som ska läggas till. Dessa mekanismer gör LSTM till en av de mest effektiva metoderna för att modellera och förutsäga tidsberoende data i industriella tillämpningar.
När dessa tekniker kombineras – ChiMerge för att hantera diskretisering av kontinuerliga variabler, DBN för att modellera komplexa beroenden och osäkerheter i data, och LSTM för att förutsäga tidsberoende processer – skapas en kraftfull metod för att förutse fel och degradering, även under förhållanden med ofullständig eller osäker information.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский