Den integrerade effekten av komponenternas prestanda på hållbarhetsindikatorer kan beskrivas med hjälp av viktningsfaktorer som kopplar varje komponent i systemet till specifika hållbarhetsaspekter. Varje komponent i systemet bidrar med ett visst värde till hållbarhetsindikatorn, där summan av alla komponenters bidrag till en given indikator är lika med ett. Detta värde, som betecknas ε_i→SI_j, representerar sambandet mellan komponentens tillstånd och hållbarhetsindikatorn och kan variera från -1 till 1 beroende på om komponentens försämring har en negativ eller positiv effekt på hållbarheten. Om komponenten försämras och detta påverkar hållbarheten negativt, får sambandet ett negativt värde inom intervallet [-1, 0]. Om försämringen däremot bidrar positivt till hållbarheten, antas sambandet vara positivt, inom intervallet [0, 1]. Denna bedömning baseras på teknisk dokumentation, operativ information, experters utvärderingar, olycksrapporter och intervjuer med ingenjörer.

Hållbarhetens tre pelare – miljömässig, social och ekonomisk – fungerar som en övergripande ram för att förstå olika aspekter av hållbarhet, men det är hållbarhetsindikatorerna som ger en konkret mätning av hur väl målen inom varje pelare uppnås. Varje indikator kan ha olika vikt i förhållande till varje pelare, och vikterna är normaliserade så att summan av vikterna för varje pelare är ett. På så sätt kan man reflektera att vissa indikatorer är mer relevanta för vissa hållbarhetspelare än andra.

Vikten av varje hållbarhetspelare i helheten varierar beroende på systemets specifika mål och karaktär. Det är därför nödvändigt att tilldela vikt till varje pelare i förhållande till dess betydelse för systemets övergripande hållbarhet. Den slutliga hållbarhetspoängen för systemet kan beräknas genom att kombinera komponenternas påverkan på indikatorer, indikatorernas viktning inom pelarna och pelarnas viktning i systemet som helhet.

Denna hållbarhetspoäng, benämnd OSS (Overall Sustainability Score), ligger normalt mellan -1 och 1. Ett värde nära -1 indikerar att systemet har låg hållbarhetsacceptans, medan ett värde nära 1 indikerar hög acceptans.

Underhållsaktiviteter påverkar hållbarheten både indirekt och direkt. Indirekt genom att förbättra komponenternas prestanda och därmed systemets hållbarhet. Direkt genom de miljömässiga och resursmässiga kostnader som själva underhållet medför, såsom utsläpp från transporter och avfall vid komponentbyte. För att hantera detta inkluderas underhållens påverkan som en separat komponent i hållbarhetsutvärderingen, där varje underhållsaktivitet kopplas till dess effekt på hållbarhetsindikatorerna med en korrelationsfaktor mellan 0 och 1.

Det slutliga hållbarhetsvärdet vid en senare tidpunkt, OSS*, beräknas som en kombination av komponenternas tillstånd och underhållsaktiviteterna. Denna kombinerade bedömning kan ge ett värde utanför det normala intervallet [-1, 1], men högre värden indikerar fortfarande bättre hållbarhetsprestanda. Modellen gör det möjligt att kvantifiera och balansera både förbättringar och negativa effekter av underhåll, vilket ger en mer nyanserad och realistisk bild av systemets hållbarhet över tid.

Viktigt att förstå är att viktningsfaktorerna och korrelationsvärdena i modellen är beroende av experters bedömningar och tillgänglig information, vilket innebär att modellens resultat alltid är en approximation av verkligheten. Samtidigt möjliggör modellen en systematisk och kvantitativ analys av komplexa hållbarhetsfrågor som annars är svåra att greppa. För att fullt ut förstå hållbarhetsutvärderingens resultat krävs en insikt i hur olika aspekter av hållbarhet interagerar och hur både tekniska och mänskliga faktorer påverkar systemets långsiktiga funktion och påverkan på omgivningen.

Modellen understryker också att hållbarhet inte bara är ett statiskt tillstånd, utan ett dynamiskt resultat av flera faktorer som utvecklas över tid, där underhållsstrategier spelar en central roll för att balansera ekonomiska, sociala och miljömässiga mål i praktiken.

Hur påverkar kombinationen av virtuella och verkliga data noggrannheten i felsökningsmodeller för hydrauliska styrsystem?

När digitala tvillingdata matas in i algoritmen förbättras tröskelvärdet, vilket leder till en ökad noggrannhet i själva algoritmen. Resultaten konvergerar mot ett maximum, vilket visar att ett feldiagnossystem baserat på digitala tvillingar (DT) är både mer träffsäkert och effektivt jämfört med modeller som endast använder ursprungliga data. Detta beror på synergierna mellan virtuella och verkliga data, där kombinationen utnyttjar styrkorna hos båda datatyperna för att höja robustheten och pålitligheten i diagnosmodellen.

En viktig aspekt är hur förhållandet mellan virtuella och verkliga data påverkar modellens prestanda. I studier där sex datasetstyper jämförs, visar sig datatyper med en balanserad blandning ge bäst resultat. Till exempel har Type6, som innehåller en rikare mängd verkliga data, högre noggrannhet och tillförlitlighet (ACC = 89,86 %) jämfört med Type4, som är mer känslig för datavariationer och ger hög fel- och uteblivna diagnoser. Samtidigt kan dataset som Type1 och Type5, vilka har en mindre andel verkliga data, undvika felaktiga diagnoser men får en högre andel uteblivna diagnoser.

En särskilt intressant observation är att en optimal balans mellan känslighet (SEN) och specificitet (SPE) är avgörande för att undvika både missade och felaktiga diagnoser. Type2-datasetet, som blandar tvillingdata med verkliga data i ett förhållande som undviker störningar från datafluktuationer, uppvisar överlägsen övergripande prestanda och minskar både misstag och missade fel.

DT-teknologin möjliggör en djupare extraktion av viktiga funktionsdrag från stora mängder virtuella data och skapar därigenom en mer exakt modell för felidentifiering. Genom att integrera fem dimensioner—fysisk enhet, virtuell modell, koppling, data och tjänst—förbättras diagnostiksystemets funktionalitet avsevärt. Den fysiska enheten garanterar hög precision i simuleringen av den virtuella modellen, och en tvåvägskommunikation säkerställer att den virtuella modellen reagerar i realtid på förändringar i den verkliga världen. Detta leder till optimerad datakonsistens och därmed högre tillförlitlighet i diagnosen. Slutligen ger diagnosresultaten värdefullt beslutsstöd för operatörer.

När MC1DCNN-GRU-modellen testas på rådata visar den överlägsen diagnostisk prestanda jämfört med andra djupa inlärningsmetoder som 1DCNN, LSTM och GRU. Med en genomsnittlig noggrannhet på 95,62 % överträffar den andra metoder som har snabbare beräkningstid men sämre träffsäkerhet. Användningen av Swish-aktiveringsfunktionen i modellen ger en märkbar förbättring i prestanda jämfört med ReLU, utan att förlänga beräkningstiden. Denna metod, särskilt när den kombinerar lika delar verkliga och virtuella data (förhållande 1:1), visar att en djup integration av data från olika källor—simuleringsdata, historiska data och realtidsdata—leder till en mer effektiv och pålitlig diagnos.

Det är värt att notera att traditionella data-drivna metoder är sårbara för förändringar i komplexa miljöer, såsom subsea, där signalerna lätt påverkas av oförutsedda faktorer. Digitala tvillingar kan motverka denna begränsning genom att kontinuerligt anpassa den virtuella modellen till den fysiska verkligheten, vilket minskar risken för fel- och uteblivna diagnoser.

Det är av stor vikt att förstå att diagnostikens kvalitet inte bara beror på mängden data, utan på en noggrann balans mellan virtuella och verkliga datakällor, samt en kontinuerlig anpassning till förändringar i den verkliga driftsmiljön. En felaktig balans leder lätt till överkänslighet eller för låg känslighet i modellen, vilket i sin tur påverkar felupptäckten och riskerna i systemet. Dessutom bör man beakta att även om avancerade djupinlärningsmodeller förbättrar diagnosprecisionen, är de fortfarande beroende av den datakvalitet och -mångfald som tillhandahålls, samt av tekniska lösningar som säkerställer en korrekt och snabb överföring mellan fysisk och virtuell värld.

Hur diagnostiseras samtidiga fel i elektrisk-hydrauliska system, särskilt i subsea BOP-system?

Ett elektrisk-hydrauliskt styrsystem bygger på en kedja av signalöverföringar – från elektriska signaler till lågt tryck i pilotoljan, vidare till högtryckssignaler och slutligen mekaniska rörelser. I detta system spelar ventiler som CCSV (Closed Center Solenoid Valve) och SPM (Servo Pilot Motor) en central roll. CCSV omvandlar elektriska signaler till pilotoljans låga tryck, medan SPM vidareförmedlar detta till högtryckssignaler som styr arbetsackumulatorns oljeflöde. När CCSV-ventilens spole inte fungerar korrekt, kan dess ventilkärna inte positioneras som den ska, vilket leder till instabilitet i pilottrycket. Detta resulterar i att SPM-ventilen öppnas och stängs upprepade gånger, vilket förvärrar dess mekaniska slitage och kallas ett samtidigt fel orsakat av kaskadfel.

Samtidiga fel kan också uppstå genom oberoende faktorer, där två eller flera komponenter slumpmässigt fallerar samtidigt utan inbördes påverkan. Exempelvis kan en pilotventil och en styrkortkomponent båda drabbas av fel, men utan koppling sinsemellan. Trots den låga sannolikheten för att sådana oberoende fel inträffar samtidigt, måste dessa scenarier beaktas i diagnossystemet för att uppnå en heltäckande felhantering.

Diagnos av enskilda fel i subsea BOP-systemets kritiska komponenter visar hög noggrannhet. För CCSV-fel lyckades modellen korrekt identifiera 29 av 30 prover, medan ett prov påverkades av yttre störningar som buller och tryckvariationer, vilket orsakade feltolkning. Diagnos av SPM-ventilens fel visade ännu högre precision, då dess höga arbetstryck ger stabila signaler med liten påverkan från brus. Även pilotackumulatorns fel identifierades med hög tillförlitlighet, där samtliga prover diagnoserades korrekt.

När det gäller samtidiga fel som orsakats av gemensamma orsaker (common-cause failure), där två CCSV-ventiler påverkas samtidigt, är diagnossystemet också effektivt. Det finns dock vissa utmaningar på grund av redundanta komponenter och svaga kopplingar mellan felkarakteristika, vilket kan leda till felaktiga prioriteringar i diagnosen. Samtidiga fel orsakade av kaskadfel, där SPM och CCSV samarbetar, är svårare att diagnostisera på grund av starka kopplingar mellan felkarakteristiken. Här blir det viktigt att analysera misstag och optimera sensorplaceringar för att förbättra övervakningen, särskilt i begränsade utrymmen under vatten där antalet sensorer är begränsat. Optimerad sensorplacering har visat sig kunna minska diagnostiska fel markant.

Samtidiga fel som beror på oberoende faktorer är betydligt enklare att diagnostisera eftersom deras felkarakteristika är helt separata och kan behandlas som parallella enskilda fel.

Det är avgörande att förstå att diagnos i komplexa elektrisk-hydrauliska system inte bara handlar om att identifiera fel isolerat utan också om att analysera och förstå samspelet mellan komponenters felbeteenden. Speciellt när fel uppstår i kedja eller samverkan, där ett fel orsakar eller förvärrar ett annat, krävs avancerade metoder som bevisteori för att korrekt hantera osäkerheter och kopplingar i signalerna. En viktig insikt är att extern påverkan, som buller och tryckvariationer, kan leda till feltolkningar och måste beaktas vid utformning av diagnossystem.

Begränsningar i sensorernas antal och placering under vatten gör det nödvändigt att utveckla och optimera diagnosmodeller för att kunna tolka de begränsade data som finns tillgängliga. Detta inkluderar att använda modeller som kan lära sig av tidigare diagnosfel och anpassa sig för att förbättra precisionen över tid.

Att kunna skilja på samtidiga fel som orsakas av gemensamma faktorer, kaskadfel eller oberoende faktorer är avgörande för att välja rätt diagnostisk strategi och för att kunna planera underhåll och förebyggande åtgärder effektivt. I praktiken innebär detta att felsökningsprocessen måste vara dynamisk och integrera både tekniska data och statistiska metoder för att hantera osäkerheter och komplexa felmönster.

Hur kan man med hög precision förutsäga korrosion i undervattensledningar trots ofullständig data?

Att förutsäga korrosion i undervattensledningar är en komplex uppgift, särskilt när monitoreringsdata är ofullständiga eller osäkra. En metod som kombinerar avancerade maskininlärningstekniker, såsom Long Short-Term Memory-nätverk (LSTM), med databerikning och osäkerhetshantering, visar sig ha överlägsen förmåga att hantera denna utmaning.

I en studie används 80 % av korrosionsdata som träningsmaterial och 20 % som testdata. Ett enkel-lagers LSTM-nätverk med 200 neuroner i det dolda lagret tränas med en initial inlärningshastighet på 0,005, som sedan minskas efter ett visst antal träningscykler. Resultaten visar att trenden i den genomsnittliga dagliga korrosionen som förutsägs med den berikade datamängden ligger nära den faktiska korrosionsutvecklingen, vilket tyder på att metoden är robust även med ofullständig information.

För att bedöma modellens prestanda används fyra centrala utvärderingsmått: Mean Absolute Error (MAE), som mäter genomsnittligt absolut fel; Mean Square Error (MSE), som betonar större fel genom kvadrering; Root Mean Square Error (RMSE), som är ett felmått i samma enhet som prediktionerna; och Mean Absolute Percentage Error (MAPE), som anger fel i procentform och därmed normaliserar noggrannheten. Dessa metoder ger en mångfacetterad bild av förutsägelsekvaliteten.

Jämförelser med andra modeller, såsom ARIMA med berikade data, LSTM med genomsnittsutfyllnad av data, och LSTM med borttagning av saknade datapunkter, visar att den föreslagna metoden uppnår minst fel enligt alla mått. Specifikt uppnås MAE på 0,2307 och MAPE på 0,5736, vilket tydligt överträffar andra metoder och indikerar en högre precision i korrosionsprediktionen. Vidare är den predikterade kumulativa korrosionsdjupet nära det verkliga värdet, vilket är avgörande för säkerhetsbedömningar och underhållsplanering.

Det är också viktigt att beakta driftseffektiviteten i dessa metoder. Även om den föreslagna metoden inte är den snabbaste – den kräver något längre beräkningstid på grund av osäkerhetshantering av saknade variabler – är den förlängda tiden marginell (cirka 10–40 sekunder) jämfört med alternativa metoder. Detta innebär att den höga noggrannheten nås utan att kompromissa avsevärt med operationell effektivitet.

Den föreslagna metoden illustrerar betydelsen av att inte enbart förlita sig på traditionell datarensning såsom borttagning eller enkel genomsnittsutfyllnad, utan istället använda avancerade modeller som kan hantera osäkerheter i data. Den här approachen öppnar för mer tillförlitliga prediktioner i realtid, vilket i sin tur underlättar proaktivt underhåll och säkerställer driftsäkerheten i kritisk infrastruktur.

Det är också av vikt att förstå att förutsägelsemodeller bör anpassas till de specifika egenskaperna hos data från industriella processer. Korrosionsdata kan påverkas av flera faktorer såsom tryck, temperatur, flödeshastighet och kemiska komponenter i vätskan, vilka alla kan variera och introducera komplexitet i mätningarna. Att integrera dessa parametrar i modellen och berika data innan träning ökar modellens generaliseringsförmåga och dess praktiska användbarhet.

Dessutom bör den som arbetar med sådana prediktiva system ha insikt i balansgången mellan modellkomplexitet och beräkningstid. En mer komplex modell kan ge bättre noggrannhet, men med högre kostnader i tid och resursförbrukning. I kritiska system där realtidsbeslut krävs, måste denna avvägning hanteras noggrant.

För att uppnå bästa möjliga resultat är det därför nödvändigt att kombinera en djup förståelse för den fysiska processen som ska övervakas med avancerade metoder för datahantering och maskininlärning. Detta ger inte bara förbättrad förutsägelse utan även ökad förtroende för beslut som baseras på dessa analyser.