W operacjach związanych z maszynami TBM (Tunnel Boring Machine), ogromna ilość danych generowanych przez różne parametry i czujniki może stanowić poważne wyzwanie w analizie i optymalizacji procesu wiercenia. Dane te, obejmujące m.in. czas wykopu, geometrię TBM, ciśnienie w glebie, moment obrotowy tarczy roboczej, głębokość, czy siłę naporu, mogą przyczynić się do znacznego wzrostu kosztów obliczeniowych, jeśli nie zostaną odpowiednio przetworzone. Bez zastosowania technik selekcji cech, które pozwolą na redukcję wymiarów danych, obliczenia mogą stać się zbyt skomplikowane i czasochłonne, nie przekładając się na poprawę jakości modelu.

Selekcja cech stanowi kluczowy etap w procesie analizy danych, pozwalając na usunięcie zbędnych i nieistotnych informacji. Takie podejście umożliwia nie tylko zmniejszenie objętości danych, ale także poprawia wydajność algorytmu uczenia maszynowego, skracając czas obliczeniowy oraz podnosząc dokładność wyników. W kontekście TBM, przetwarzanie danych ma na celu zoptymalizowanie wydajności modelu kontroli pozycji maszyny, co w efekcie prowadzi do bardziej efektywnego wiercenia i lepszej precyzji w nawigacji maszyny w tunelu.

Aby dostosować model do rzeczywistego środowiska operacyjnego TBM, dane te są grupowane w postaci sekwencji czasowych, które uwzględniają zmiany zachodzące w czasie. Użycie szeregów czasowych umożliwia modelowi analizowanie przeszłych decyzji i dostosowywanie strategii w odpowiedzi na zmiany warunków w tunelu. Celem przetwarzania danych jest nie tylko usunięcie hałasu z informacji (np. wartości zerowych lub brakujących danych), ale także ich normalizacja, co umożliwia właściwe skalowanie wejść do algorytmów sztucznej inteligencji, w tym do algorytmu głębokiego uczenia (Deep Reinforcement Learning, DRL).

Symulacja środowiska z uwzględnieniem dynamiki przestrzenno-czasowej jest kolejnym krokiem w opracowywaniu skutecznych algorytmów do kontroli pozycji TBM. Model środowiska jest trenowany na podstawie rzeczywistych cech otoczenia, takich jak ciśnienie gruntowe i siła naporu, aby odwzorować zachowanie maszyny w rzeczywistych warunkach. W tym procesie wykorzystywane są sieci neuronowe typu LSTM (Long Short-Term Memory), które umożliwiają modelowanie złożonych danych szeregów czasowych. LSTM charakteryzują się zdolnością do zapamiętywania istotnych informacji przez dłuższy okres, co sprawia, że są niezwykle efektywne w przetwarzaniu danych sekwencyjnych.

LSTM działa poprzez mechanizm komórek pamięci, które przechowują informacje przez dłuższy czas. Komórka ta zawiera bramki, które decydują o tym, jakie dane mają zostać zapamiętane, a jakie zapomniane. Proces ten umożliwia modelowi „zapamiętanie” kluczowych informacji o poprzednich krokach, co jest niezbędne do dokładnego przewidywania przyszłych działań maszyny.

W modelu sterowania pozycją TBM z wykorzystaniem agentów sztucznej inteligencji, kluczową rolę odgrywa algorytm DRL, który pozwala na ciągłe doskonalenie decyzji agenta. Model kontrolujący pozycję TBM oparty na algorytmie TD3 (Twin Delayed Deep Deterministic) składa się z dwóch głównych komponentów: aktora i krytyka. Aktor odpowiada za podejmowanie decyzji dotyczących sił generowanych przez cztery grupy cylindrów napędowych, natomiast krytyk ocenia efektywność tych decyzji. Zastosowanie takich technik pozwala na uzyskanie optymalnych sił sterujących, które z kolei umożliwiają precyzyjne kontrolowanie pozycji maszyny w trudnych warunkach.

Decyzje aktora są na bieżąco oceniane przez krytyka, który dostarcza informacji zwrotnej, co umożliwia dalsze dostosowywanie strategii. Ten proces ciągłej optymalizacji prowadzi do uzyskania najlepszych wyników w sterowaniu maszyną, minimalizując odchylenia między rzeczywistą a symulowaną trasą maszyny.

Ostatecznie, integracja zaawansowanych metod przetwarzania danych z algorytmami sztucznej inteligencji, takimi jak LSTM i DRL, pozwala na stworzenie systemu, który w sposób autonomiczny i efektywny kontroluje pozycję TBM, uwzględniając zmieniające się warunki w tunelu. Zastosowanie tych technologii w przemyśle budowlanym i górniczym otwiera nowe możliwości w zakresie automatyzacji procesów wykopowych, a także w poprawie precyzji i bezpieczeństwa operacji.

Jednakże, należy pamiętać, że choć technologie te oferują ogromne możliwości, wymagają one także dostępu do wysokiej jakości danych, ich odpowiedniego przetwarzania oraz zaawansowanych modeli matematycznych. Z tego powodu, niezależnie od osiągnięć technologicznych, kluczowym elementem skuteczności takich systemów pozostaje ciągła weryfikacja i dostosowywanie algorytmów do realnych warunków pracy TBM, co zapewnia ich pełną efektywność i niezawodność w trudnych warunkach pracy w tunelach.

Jak optymalizacja oparta na sieciach neuronowych może poprawić bezpieczeństwo w budowie tuneli?

W dzisiejszym świecie budowy tuneli, optymalizacja wielozadaniowa (MOO) staje się coraz bardziej popularnym narzędziem w projektowaniu i operacjach związanych z wykopami. Jej rola w redukcji ryzyka związanego z budową tuneli staje się szczególnie istotna w kontekście zmieniających się warunków geotechnicznych i wymagających operacji związanych z maszynami TBM (ang. Tunnel Boring Machines). Kluczowym wyzwaniem jest tu nie tylko zapewnienie optymalnych parametrów pracy maszyn, ale także skuteczne zarządzanie ryzykiem związanym z oddziaływaniem wykopu na otoczenie.

Zastosowanie MOO w budowie tuneli pozwala na jednoczesne dostosowanie wielu zmiennych decyzyjnych, takich jak prędkość postępu wykopu czy prędkość obrotu maszyny TBM. Dodatkowo, techniki takie jak PSO (Particle Swarm Optimization) mogą pomóc w doborze optymalnych parametrów pracy maszyn, co z kolei pozwala na zmniejszenie osiadania powierzchni, a także poprawę efektywności i bezpieczeństwa pracy. Przykładem może być badanie przeprowadzone przez Wang et al., którzy użyli algorytmu NSGA-II do znalezienia najbardziej satysfakcjonujących wartości zmiennych sterujących TBM, takich jak prędkość posuwu i obrotu, w celu osiągnięcia pożądanej efektywności i stabilności. Ich wyniki pokazały, że optymalizacja parametrów TBM może również wpłynąć na zwiększenie stopnia automatyzacji procesu tunelowania.

Wciąż jednak, mimo licznych badań w tym zakresie, zastosowanie MOO w redukcji ryzyka podczas wykopu tunelu jest w początkowej fazie rozwoju. Nasza praca proponuje nowatorskie podejście oparte na połączeniu głębokich sieci neuronowych (DNN) z optymalizacją opartą na algorytmie gradientu (GDO). Podejście to, nazwane DNN-GDO, ma na celu optymalizację zmiennych decyzyjnych podczas wykopu tunelu, biorąc pod uwagę złożoną interakcję tunelu z otoczeniem. Dzięki temu możliwe staje się jednoczesne minimalizowanie wielu rodzajów ryzyk, takich jak osiadanie powierzchni, zmiany w stabilności gruntu czy nieoczekiwane uszkodzenia maszyn.

Algorytm DNN-GDO łączy w sobie wydajność obliczeniową oraz stabilność zbieżności gradientu, umożliwiając znalezienie optymalnych rozwiązań w przestrzeni decyzyjnej. Co więcej, umożliwia on przypisanie odpowiednich wag funkcji celu, które odzwierciedlają rzeczywistą wagę poszczególnych zmiennych, co prowadzi do uzyskania bardziej praktycznych i wykonalnych rozwiązań. W odróżnieniu od klasycznych metod MOO, które często nie oferują wystarczającej przejrzystości, DNN-GDO dostarcza wartościowych informacji na temat wkładu poszczególnych zmiennych w minimalizację ryzyka, co pozwala lepiej zrozumieć wpływ różnych parametrów na ostateczny wynik.

Zaproponowana w tym kontekście metoda DNN-GDO polega na trzech kluczowych etapach: przygotowaniu danych, przewidywaniu ryzyka za pomocą sieci neuronowych, oraz optymalizacji z wykorzystaniem algorytmu gradientu. Taki system umożliwia wczesne wykrywanie potencjalnych zagrożeń w złożonych warunkach wykopu oraz precyzyjne zarządzanie ryzykiem, co jest niezwykle istotne z perspektywy prewencji wypadków. Poprzez zastosowanie DNN-GDO w planowaniu wykopu, możliwe staje się nie tylko zoptymalizowanie procesów związanych z maszynami TBM, ale także efektywne przewidywanie skutków geotechnicznych działań wykopowych.

Architektura sieci neuronowej DNN, zastosowana w naszym podejściu, składa się z warstwy wejściowej, trzech warstw ukrytych oraz warstwy wyjściowej. Używana funkcja aktywacji ReLU w warstwach ukrytych, a także zastosowanie połączeń resztkowych, pozwala na szybsze uczenie się złożonych wzorców oraz poprawia stabilność modelu w trakcie jego trenowania. Proces uczenia polega na minimalizacji funkcji błędu za pomocą algorytmu gradientu prostego, który pozwala na efektywne dostosowanie wag i minimalizację błędu predykcji.

Optymalizacja oparta na gradientowym podejściu GDO pozwala na jednoczesne minimalizowanie wielu funkcji celu w problemie MOO, dążąc do uzyskania rozwiązań możliwie najbliższych optymalnej granicy Pareto. DNN-GDO przekształca proces optymalizacji w bardziej efektywny, umożliwiając jednoczesne uwzględnienie kilku aspektów ryzyka, takich jak osiadanie terenu, zmniejszenie bezpieczeństwa czy wpływ wykopu na pobliską infrastrukturę. Dzięki temu możliwe jest uzyskanie bardziej precyzyjnych i ukierunkowanych wyników, które mogą posłużyć jako podstawa do opracowania zaleceń dotyczących działań prewencyjnych i bezpieczeństwa.

Zatem, w kontekście budowy tuneli, szczególnie ważne jest uwzględnienie złożoności środowiskowych zmiennych, które wpływają na stabilność oraz bezpieczeństwo wykopu. Istnieje także potrzeba ciągłego udoskonalania algorytmów optymalizacyjnych, by zapewnić ich elastyczność i zdolność do dostosowywania się do dynamicznie zmieniających się warunków terenowych. Należy pamiętać, że decyzje podejmowane w fazie projektowania oraz realizacji wykopu mogą mieć długofalowy wpływ na bezpieczeństwo i stabilność nie tylko samego tunelu, ale także otoczenia, przez które on przebiega. Ważne jest, by zrozumieć, że samo zastosowanie technologii, takich jak DNN-GDO, nie jest gwarancją sukcesu, ale stanowi jeden z wielu kroków w kierunku bardziej zaawansowanego i bezpiecznego zarządzania ryzykiem w budowie tuneli.