W budownictwie tunelowym, jednym z kluczowych wyzwań jest przewidywanie warunków geologicznych przed rozpoczęciem wykopu. Zjawiska takie jak osuwiska, napływ wody czy zapadanie się ziemi mogą poważnie wpłynąć na postęp prac, prowadząc do opóźnień, przekroczenia budżetów i problemów z bezpieczeństwem. W latach 2002-2018 w Chinach odnotowano 97 incydentów geohazardowych w rejonach górskich, które zakończyły się śmiercią 393 osób i setkami rannych. Kluczowe jest zatem wcześniejsze pozyskiwanie wiedzy na temat warunków geologicznych, aby skutecznie unikać takich sytuacji.

Tradycyjne metody zbierania danych geologicznych dzieli się na inwazyjne i nieinwazyjne. Metody inwazyjne, takie jak wiercenia i pobieranie próbek rdzeniowych, zapewniają wysoką dokładność, ale ich główną wadą jest mała rozdzielczość przestrzenna i niewielka częstotliwość próbek. Z kolei metody nieinwazyjne, oparte na badaniach geofizycznych, oferują wyższą rozdzielczość przestrzenną, ale ich dokładność pozostaje ograniczona przez błędy pomiarowe oraz problemy związane z przetwarzaniem sygnałów. Mimo tych trudności, branża tunelowa pilnie poszukuje metod, które mogłyby skutecznie ocenić ryzyko geologiczne na różnych etapach budowy.

Ostatnio na pierwszy plan wysuwają się technologie oparte na uczeniu maszynowym (ML). Chociaż te metody są stosowane do prognozowania warunków geologicznych przed maszynami drążącymi tunele (TBM), ich skuteczność często zależy od jakości dostępnych danych. Budowa tuneli to przedsięwzięcia długoterminowe, które mogą trwać nawet kilka lub kilkanaście lat, co powoduje, że modele muszą być aktualizowane w miarę postępu prac. Przykładem może być proces aktualizacji ocen stanu skał w wyniku wykopania krótkiego odcinka tunelu (200 m), co znacznie poprawia wydajność prognozowania dla poszczególnych odcinków trasy.

Z tego względu staje się jasne, że precyzyjne oszacowanie ryzyka geologicznego pozostaje wyzwaniem. Chociaż dane geologiczne są łatwe do rejestrowania, dokładność przewidywań wciąż wymaga poprawy. W analizie sekwencyjnych danych wykorzystanie modelu ukrytych Markowów (HMM) może być nowatorskim rozwiązaniem. HMM jest generatywnym modelem statystycznym, który bada ukryte stany, z których wynikają obserwowane dane. Choć HMM jest powszechnie stosowany w informatyce, jego potencjał w kontekście budowy tuneli nie został jeszcze dokładnie zbadany. Zamiast koncentrować się jedynie na zwiększeniu efektywności obliczeniowej, kluczowe może okazać się rozwijanie zdolności prognozowania na wielu etapach budowy, co pozwoli na odpowiednie dostosowanie działań maszyn drążących w czasie rzeczywistym.

W tym kontekście uczenie online, będące podzbiorem technik uczenia maszynowego, staje się coraz bardziej popularne. Uczenie online jest idealnym rozwiązaniem dla danych strumieniowych, ponieważ pozwala na bieżąco aktualizować modele na podstawie nowych informacji. To podejście ma potencjał, by zrewolucjonizować sposób prognozowania ryzyka geologicznego w czasie rzeczywistym, na podstawie danych dostarczanych przez maszyny TBM. Jednak kluczowym wyzwaniem pozostaje dostępność danych geologicznych w początkowych fazach budowy, co mocno ogranicza użyteczność tej technologii.

Aby rozwiązać ten problem, proponowane jest rozszerzenie mechanizmu obserwacji, który pozwala na wydłużenie krótkich sekwencji danych do pełnej długości, odpowiadającej charakterystyce geologicznego ryzyka dla całego obszaru objętego trasą tunelu. Tego rodzaju podejście, oparte na modelu ukrytych Markowów w trybie online (OHMM), stanowi nowatorskie rozwiązanie, które wprowadza systematyczne prognozowanie ryzyka geologicznego w budowie tuneli, oferując wysoką rozdzielczość (na poziomie poszczególnych pierścieni tunelu). Takie rozwiązanie może zrewolucjonizować sposób podejścia do planowania i monitorowania warunków geologicznych w trakcie drążenia tuneli.

Ważne jest, aby zauważyć, że chociaż uczenie maszynowe i technologie pokrewne stanowią ogromny krok naprzód, wciąż istnieją liczne wyzwania związane z jakością i dostępnością danych, które mogą wpłynąć na skuteczność tych metod. Każda nowa technologia wymaga również dostosowania do specyfiki konkretnych projektów budowlanych, a także odpowiednich zasobów ludzkich i sprzętowych, które mogą zapewnić efektywne wdrożenie tych rozwiązań w praktyce.

Jakie techniki prognozowania warunków geologicznych wykorzystywane są w budowie tuneli i jakie wyzwania wiążą się z ich stosowaniem?

Wykopaliska tuneli odgrywają kluczową rolę w rozwoju infrastruktury, umożliwiając przejazd przez różne formacje geologiczne. Jednak związane z nimi ryzyka geologiczne stanowią istotne wyzwanie, prowadząc do opóźnień, wzrostu kosztów oraz obaw o bezpieczeństwo. Tradycyjnie do rejestrowania danych geologicznych wykorzystywano wiertnie rdzeniowe, które jednak mają ograniczoną rozdzielczość przestrzenną w płaszczyźnie poziomej i są ograniczone przez odległość między punktami pomiarowymi. Aby przezwyciężyć te ograniczenia, opracowane zostały tradycyjne modele geologiczne do modelowania geologii i oceny ryzyka, bazujące na technikach mapowania.

Do niedawna dominowały modele geologiczne 2D, koncentrujące się na przekrojach geologicznych. Jednak w miarę rozwoju technologii, wprowadzono modele 3D, które łączą przekroje, tworząc dodatkowy wymiar wzdłuż ścieżki łączącej poszczególne sekcje. Modele wizualizacyjne tego typu umożliwiają lepsze zrozumienie rozkładu geologicznego, w tym informacji o warstwach skalnych i nieciągłościach. Pomimo ich zalet, tradycyjne metody prospekcji geologicznej mają swoje ograniczenia, takie jak mała dokładność w poziomie czy rzadkie punkty poboru próbek. Przykładem rozwiązania w tej dziedzinie jest zaproponowany przez Xionga i współpracowników model geologiczny, który wizualizuje granice geologiczne, takie jak warstwy i nieciągłości, za pomocą danych z regionalnych badań terenowych.

W ostatnich latach rozwój technik uczenia maszynowego (ML) przyczynił się do znacznego postępu w analizie ryzyka geologicznego, w tym także w przewidywaniu warunków geologicznych w trakcie budowy tuneli. Metody takie jak regresja procesów gaussowskich, maszyny wektorów nośnych (SVM), drzewa decyzyjne (DT) oraz ich odmiany były stosowane do oszacowania jakości skał przy budowie tuneli. Przykładem może być algorytm K-means, który został wykorzystany do identyfikacji klastrów geologicznych na podstawie danych z maszyny TBM (Tunnel Boring Machine). Metody te wykazały wysoką skuteczność w precyzyjnym prognozowaniu warunków geologicznych podczas drążenia tunelu.

W miarę jak rośnie moc obliczeniowa, coraz większą uwagę przyciągają techniki głębokiego uczenia. Przykładem może być połączenie sieci długoterminowej pamięci (LSTM) z sieciami konwolucyjnymi grafów (GCN), które zostały zastosowane do prognozowania warunków geologicznych na podstawie parametrów maszyny TBM. Sieci neuronowe konwolucyjne (CNN) z kolei zostały wykorzystane do opracowania systemu analizy materiału wykopanego na podstawie segmentacji i klasyfikacji obrazów. Postępy w technologiach głębokiego uczenia mają ogromne zalety, zwłaszcza w prognozowaniu warunków geologicznych w dynamicznych środowiskach, gdzie konieczne jest uwzględnienie zarówno wzorców przestrzennych, jak i czasowych.

Pomimo tego, że techniki te wykazują obiecujące wyniki, problematyczne może być przewidywanie warunków geologicznych przed maszyną TBM, gdyż oprócz identyfikacji samych warunków geologicznych, należy określić także wielkość i lokalizację tych zmian, co ma kluczowe znaczenie dla podejmowania decyzji na placu budowy. Tradycyjnie modele prognozowania geologicznego bazowały na danych sprzed wykopu, nie uwzględniając natomiast ciągłego napływu nowych informacji, które pojawiają się w trakcie wykopu, z rozdzielczością przestrzenną wzdłuż odcinków drążonych tuneli. Ignorowanie tych nowych danych może prowadzić do pominięcia istotnych informacji, które mogłyby pomóc w ograniczeniu niepewności.

Ostatnio opracowane podejście OHMM (Online Hidden Markov Model) stara się sprostać wyzwaniu prognozowania ryzyka geologicznego z wyprzedzeniem o kilka metrów przed maszyną TBM, uwzględniając dostępne dane geologiczne, w tym dane z próbki rdzeniowej. Rozwój tego podejścia opiera się na mechanizmie rozszerzenia obserwacji, który pozwala na uzupełnienie danych przy użyciu rzadkich próbek z odwiertów w początkowej fazie budowy. Procedura OHMM obejmuje gromadzenie danych in-situ, algorytm uczenia online HMM, a także mechanizm sprzężenia zwrotnego z prób rzadkich próbek, co pozwala na bieżąco dostosowywać prognozy ryzyka.

Gromadzenie danych in-situ jest kluczowe, aby zminimalizować ryzyko wypadków budowlanych oraz uszkodzeń maszyn w trakcie wykopu. W fazie przedbudowy próbki z odwiertów są starannie dobierane i analizowane, aby dostarczyć wstępnych informacji geologicznych na temat warunków w obszarze planowanego tunelu. Niemniej jednak, wiertnie rdzeniowe wciąż przedstawiają jedynie małą część obszaru, przez który przebiega tunel. W miarę jak rozpoczyna się proces budowy, maszyna TBM zaczyna wykopać tunel na podstawie zaplanowanego przebiegu, tworząc tunel „pierścień po pierścieniu”. Systematyczne gromadzenie danych geologicznych w czasie rzeczywistym w trakcie wykopu umożliwia przewidywanie ryzyka geologicznego z wysoką rozdzielczością, co stanowi istotną innowację w tej dziedzinie.

Istotnym wyzwaniem w wykorzystywaniu tych technologii jest ciągłe dostosowywanie systemów prognozowania do dynamicznych warunków budowy, gdzie geologia zmienia się w czasie. Często, choć istnieją standardy pomagające ocenić ryzyko geologiczne, trudności pojawiają się w precyzyjnej analizie zebranych danych, co może wymagać zaawansowanych algorytmów przetwarzania danych oraz ich bieżącej analizy w kontekście postępu wykopu.

Jak rozszerzyć krótkie sekwencje obserwacji w modelach HMM w geologii?

W przypadku długich sekwencji, gdzie TT oznacza długość sekwencji, a δ(ytok)\delta(y_t - o_k) jest funkcją delta Kroneckera, której wartość wynosi 1, gdy argumenty są zerowe, a 0 w przeciwnym przypadku, obserwacja w chwili tt to yty_t, a wartość oko_k odpowiada yty_t. xt1x_{t-1}, xtx_t oraz xTx_T reprezentują stany odpowiadające indeksom czasowym t1t-1, tt oraz TT. Wartość φ^ijkh(T)\hat{\varphi}^h_{ijk}(T) obejmuje cztery indeksy: kolejne historyczne stany sis_i do sjs_j, historyczną obserwację oko_k z sjs_j, oraz najnowszy stan shs_h. W procesie estymacji parametrów wszelkie nieistotne indeksy są eliminowane przez sumowanie po pełnym zakresie indeksów, tj. i,j,hi, j, h od 1 do NN, a kk od 1 do MM.

Parametry modelu są aktualizowane w miarę jak zaktualizowane zostają statystyki wystarczające. Relacja rekurencyjna dla statystyk wystarczających odpowiadających dwóm kolejnym indeksom czasowym jest opisana przez równanie (5), które reprezentuje aktualizację na podstawie nowej próbki. Parametry modelu są ściśle związane z wprowadzoną zmienną statystyczną. Równanie dla tych statystyk jest określone przez:

φ^ijkh(T)=γlh(yT;θ^(T1))[φ^ijkl(T1)+η(T)δ(yTok)gij(l,h)]ql(T1)φ^ijkl(T1)\sum \hat{\varphi}^h_{ijk}(T) = \gamma_{lh}(y_T; \hat{\theta}(T-1)) \left[ \hat{\varphi}^l_{ijk}(T-1) + \eta(T) \delta(y_T - o_k) \cdot g_{ij}(l,h) \right] \cdot q_l(T-1) - \hat{\varphi}^l_{ijk}(T-1)

gdzie φ^ijkh(T)\hat{\varphi}^h_{ijk}(T) i φ^ijkl(T1)\hat{\varphi}^l_{ijk}(T-1) to statystyki wystarczające dla dwóch kolejnych indeksów czasowych, a γlh(yT;θ^(T1))\gamma_{lh}(y_T; \hat{\theta}(T-1)) to skomplikowany termin prawdopodobieństwa uwzględniający przejście stanów, emisję z danego stanu oraz dodanie nowej obserwacji. Można go obliczyć na podstawie najnowszych parametrów modelu.

Kolejnym elementem modelu jest prawdopodobieństwo ql(T1)q_l(T-1), które reprezentuje prawdopodobieństwo bycia w stanie sls_l, biorąc pod uwagę sekwencję obserwacji długości T1T-1, tj. y1,y2,,yT1y_1, y_2, \dots, y_{T-1}. Jest ono obliczane rekurencyjnie zgodnie z równaniem:

ql(T1)=P(xT1=sly1,y2,,yT1)=γml(yT1;θ^(T2))qm(T2)q_l(T-1) = \sum P(x_{T-1} = s_l | y_1, y_2, \dots, y_{T-1}) = \gamma_{ml}(y_{T-1}; \hat{\theta}(T-2)) \cdot q_m(T-2)

gdzie η(T)\eta(T) jest czasową funkcją dyskontującą, a δ(yTok)\delta(y_T - o_k) to funkcja delta Kroneckera. Mechanizm oparty na tych statystykach pozwala na aktualizację modeli HMM na podstawie nowych danych.

Podczas początkowych etapów budowy modelu sekwencja obserwacji może być zbyt krótka, by model OHMM (Online Hidden Markov Model) zbiegał się do optymalnych parametrów. W takich przypadkach może dojść do problemów z nadmiernym dopasowaniem modelu (overfitting) z powodu ograniczonej liczby danych, co negatywnie wpływa na jego zdolność do przewidywania. Aby poradzić sobie z tym problemem i zapewnić, że model będzie odpowiedni dla sekwencji obserwacji o różnej długości, szczególnie tych związanych z różnymi etapami budowy, proponuje się mechanizm, który rozszerza krótkie sekwencje obserwacji, dostosowując je do pełnej sekwencji.

Mechanizm ten wykorzystuje najnowsze oszacowania parametrów modelu oraz rzadkie próbki zebrane na wcześniejszych etapach. Kiedy pełna sekwencja obserwacji jeszcze nie jest dostępna, wstępny model HMM jest trenowany na dostępnych krótkich sekwencjach obserwacji. Następnie model ten jest wykorzystywany do wnioskowania najbardziej prawdopodobnych stanów. W miejscach, gdzie znajdują się otwory wiertnicze, a stany są znane, porównuje się wnioskowane stany z rzeczywistymi. Wyniki tego porównania służą jako sprzężenie zwrotne, umożliwiające rozszerzenie krótkiej sekwencji obserwacji do pełnej długości.

Podstawową zasadą w procesie wypełniania brakujących danych jest zasada minimalnych zmian. Jeśli kolejny stan (który może wystąpić kilka kroków później) pozostaje taki sam jak obecny, obserwacja nie ulega zmianie. W przypadku, gdy kolejny stan różni się od obecnego, dochodzi do przeskoku obserwacji na losowym kroku z bieżącego indeksu czasowego do czasu odpowiadającego następującemu znanemu stanowi.

Istotną rolą w tym procesie jest obliczenie odległości macierzy (MD), która służy do monitorowania zmian w parametrach. Odległość ta jest obliczana na podstawie zmiany w macierzy przejść AA oraz macierzy emisji BB. Zmiana ta jest mierzoną różnicą między macierzami w kolejnych krokach czasowych i jest normalizowana przez liczbę stanów w przestrzeni stanów. Wartość ta mieści się w przedziale [0, 1], gdzie 0 oznacza brak zmian, a 1 oznacza całkowite różnice w dwóch macierzach. Jeśli zmiana w tych macierzach jest poniżej progu 0,0005, uznaje się, że model OHMM osiągnął zbieżność.

Dzięki zastosowaniu tego mechanizmu można poprawić jakość prognoz, a także skutecznie wykorzystać skąpe dane z obserwacji w procesie predykcji. Rozszerzanie sekwencji na podstawie wstępnych oszacowań modelu oraz wyników wnioskowania jest niezbędne do uzyskania wiarygodnych wyników w geologicznych prognozach.

Jak określić optymalny czas naprawy dla TBM w kontekście awaryjności systemu?

Ograniczona przestrzeń robocza pod ziemią, charakterystyczna dla tunelowania przy użyciu maszyny TBM (Tunnel Boring Machine), wymaga podejmowania precyzyjnych decyzji odnośnie do harmonogramu napraw, zwłaszcza w kontekście drobnych i rutynowych napraw. Decyzje te muszą uwzględniać wiele czynników, a kluczowym z nich jest moment, w którym ryzyko awarii zaczyna przekraczać akceptowalny poziom, co stwarza konieczność przeprowadzenia naprawy. W celu precyzyjnego ustalenia tego momentu, przeprowadzono badanie z udziałem czternastu ekspertów, którzy specjalizują się w tej dziedzinie. Do tego celu zaprojektowano kwestionariusz, w którym eksperci zostali poproszeni o odpowiedź na dwa pytania dotyczące poziomu awaryjności, który warunkuje konieczność przeprowadzenia naprawy.

Pierwsze pytanie dotyczyło momentu, w którym awaria jest na tyle poważna, by wymagała drobnej naprawy, a drugie, w jakim momencie należy przeprowadzić pełną, normalną naprawę. Okazało się, że co najmniej 80% ekspertów uznało, że drobna naprawa jest konieczna, gdy poziom awaryjności przekroczy 0,10, natomiast normalna naprawa powinna być zaplanowana, gdy awaryjność osiągnie wartość 0,20. Na podstawie tych ustaleń zaproponowano dwa wskaźniki: T10 i T20, które oznaczają odpowiednio momenty, w których należy przeprowadzić drobne naprawy oraz normalne naprawy.

Zastosowanie metody interpolacji liniowej pozwoliło wyznaczyć dokładne wartości czasów dla T10 (moment, gdy awaryjność osiąga 0,10) oraz T20 (gdy awaryjność przekracza 0,20). Przykłady wyników dla tych czasów zostały przedstawione na wykresach i w tabelach, gdzie zaznaczono, że dla węzła głównego systemu TBM, oznaczonego jako TF (Top Failure), wartości T10 i T20 są najniższe w porównaniu do innych komponentów systemu. To oznacza, że węzeł TF jest najbardziej podatny na awarię, a naprawy w jego obrębie powinny być zaplanowane w odpowiednim czasie, by uniknąć większych problemów.

Podobnie, badania wykazały, że komponent CTF (Cutting Tool Failure) jest najwrażliwszy na awarię w systemie TBM, ponieważ jego wartości T10 i T20 są znacząco niższe niż dla innych części. Dlatego zaleca się, by naprawy związane z tym komponentem były przeprowadzane w momencie, gdy maszyna osiągnie wartości 981 i 1541 pierścieni, co odpowiada odpowiednio drobnej i normalnej naprawie.

W kontekście analizy przyczyn awarii zastosowanie kontroli zwrotnej (feedback control) pozwala na identyfikację najprawdopodobniejszych przyczyn danego zdarzenia awaryjnego. Wykorzystanie analizy diagnostycznej z zastosowaniem wnioskowania Bayesa pozwala na aktualizację rozkładu prawdopodobieństwa przyczyn w czasie, w miarę jak pojawiają się nowe dane. Jeśli awaria CTF wystąpi, przyjęte modele pozwalają na przypisanie odpowiednich prawdopodobieństw dla poszczególnych przyczyn, takich jak X5, X6, X7, czy X8. Na podstawie tych informacji można precyzyjnie ustalić, które z komponentów są najważniejsze z punktu widzenia przeprowadzenia naprawy.

Dalsze badania wykazały, że zmieniające się stany awaryjności, takie jak „bezpieczny”, „nieznacznie niebezpieczny”, „niebezpieczny” i „ekstremalnie niebezpieczny”, mogą być wykorzystane do klasyfikacji stanu komponentów maszyny i ustalenia priorytetów napraw. Wartości te pozwalają na precyzyjniejsze monitorowanie postępu awarii w czasie, co jest kluczowe dla zminimalizowania ryzyka poważniejszych uszkodzeń. W tym procesie kluczową rolę odgrywają wskaźniki takie jak T10, T20 oraz MTTF (Mean Time To Failure), które pomagają określić, w którym momencie maszyna osiągnie krytyczny punkt awaryjności.

Analiza wpływu poszczególnych przyczyn awarii na ogólną awaryjność systemu TBM pokazuje, jak zmienne rozkłady prawdopodobieństwa przyczyn wpływają na całokształt działania maszyny. Dzięki tym metodom można nie tylko lepiej planować czas naprawy, ale także optymalizować proces konserwacji maszyn w kontekście minimalizacji kosztów i ryzyka.

W praktyce, prawidłowe wykorzystanie tych wskaźników pozwala na dokładne określenie momentów przeprowadzenia napraw, co ma kluczowe znaczenie dla zapewnienia ciągłości pracy maszyny i minimalizowania kosztów związanych z awariami. Jednakże oprócz tego, warto mieć na uwadze, że rzeczywiste warunki pracy maszyny mogą wpływać na dokładność tych prognoz, dlatego ważne jest, aby w procesie diagnostycznym uwzględnić także dane z rzeczywistego eksploatowania maszyny, co może pomóc w dalszym udoskonalaniu procesu decyzyjnego.