L’automazione nel settore della costruzione di gallerie rappresenta una frontiera tecnologica di grande interesse, con il potenziale di aumentare notevolmente sicurezza ed efficienza. Uno degli ostacoli principali a tale automazione è la variabilità e l’eterogeneità delle condizioni geologiche incontrate durante lo scavo, che rappresentano un rischio significativo per la sicurezza e la continuità del processo. Tradizionalmente, la regolazione dei parametri operativi della macchina da scavo meccanizzata (TBM) è affidata all’esperienza e all’osservazione diretta dell’operatore, che deve interpretare le condizioni del terreno e intervenire di conseguenza. Tuttavia, questa modalità è limitata dalla necessità di intervento umano costante e da una comprensione spesso ritardata delle condizioni reali.
Le metodologie esistenti per la rilevazione delle condizioni geologiche possono essere suddivise in tre categorie principali: metodi distruttivi, non distruttivi e intelligenti. I metodi distruttivi, quali le indagini geognostiche con carotaggi, forniscono dati precisi ma sono onerosi e limitati nella copertura spaziale, risultando insufficienti per una valutazione continua. I metodi non distruttivi, basati su tecniche sismiche, elettriche o magnetiche, offrono informazioni più rapide ma risultano costosi e di efficienza ridotta in termini di tempestività. Infine, i metodi intelligenti, basati sull’analisi dei parametri di funzionamento del TBM tramite algoritmi di machine learning o deep learning, tentano di predire in anticipo le caratteristiche del terreno. Questi ultimi hanno ottenuto risultati promettenti, ma sollevano dubbi circa la trasparenza e l’interpretabilità delle previsioni, spesso fondate sull’assunzione che le condizioni geologiche rilevate manualmente durante lo scavo rappresentino una “verità a terra”, con conseguente necessità di continua supervisione umana.
In risposta a questi limiti, si propone un approccio innovativo che emula il processo decisionale umano in modo automatico: durante lo scavo, la presenza di telecamere a circuito chiuso che monitorano in tempo reale il materiale scavato sul nastro trasportatore consente di acquisire immagini che riflettono fedelmente le caratteristiche geologiche correnti. Questi materiali rappresentano una fonte primaria d’informazione per l’operatore umano e pertanto costituiscono il punto di partenza per una rilevazione automatica tramite visione artificiale.
L’applicazione di tecniche di computer vision, e in particolare di reti neurali convoluzionali (CNN), consente di effettuare un riconoscimento accurato e in tempo reale delle condizioni del terreno attraverso l’analisi delle immagini degli scarti di scavo. Nonostante l’efficacia di modelli pre-addestrati come MobileNet, la complessità dell’ambiente operativo – caratterizzato da rumore visivo e scarsa qualità delle immagini – richiede l’adozione di sofisticate tecniche di pre-processing e data augmentation. Ad esempio, l’uso di ritagli casuali (random crops) permette di isolare le porzioni rilevanti delle immagini e uniformarne la scala, migliorando così la capacità di classificazione del modello.
Questo metodo consente di superare le limitazioni dei precedenti approcci intelligenti, offrendo una soluzione autonoma per la rilevazione delle condizioni geologiche che elimina la necessità di intervento umano diretto. Ciò rappresenta un passaggio fondamentale verso l’autonomia completa del TBM, dove i parametri operativi possono essere regolati in modo adattativo e automatico in funzione delle condizioni reali del terreno, ottimizzando così la sicurezza e l’efficienza del processo di scavo.
Va sottolineato che la corretta implementazione di tale sistema richiede un’attenzione particolare alla qualità e quantità dei dati raccolti, nonché all’integrazione dei modelli di visione artificiale con quelli di ottimizzazione operativa. La natura complessa e variabile delle condizioni geologiche impone inoltre un continuo aggiornamento e adattamento degli algoritmi per mantenere elevata l’accuratezza predittiva.
Oltre alla semplice identificazione delle condizioni del terreno, la disponibilità di dati geologici acquisiti in tempo reale apre la strada a molteplici applicazioni avanzate, quali la previsione anticipata di situazioni di rischio, la pianificazione dinamica delle strategie di scavo, e la manutenzione predittiva della macchina da scavo. La combinazione di tecniche di apprendimento automatico con sensori ambientali e telemetria consente una visione olistica e integrata del processo di scavo, indispensabile per realizzare una vera automazione.
È importante inoltre considerare che la trasparenza e la spiegabilità dei modelli di deep learning devono essere parte integrante della progettazione del sistema, per garantire che le decisioni automatiche siano comprensibili e verificabili dagli operatori e dagli ingegneri. Solo così si potrà instaurare un rapporto di fiducia con la tecnologia, necessario per l’adozione su larga scala di macchine da scavo autonome.
L’approccio basato sull’analisi visiva degli scarti di scavo rappresenta una sintesi efficace tra osservazione empirica umana e potenza computazionale delle reti neurali, offrendo un modello replicabile e scalabile per affrontare le sfide geologiche nella costruzione di gallerie. La sua implementazione apre nuove prospettive di ricerca e sviluppo in ambito ingegneristico e informatico, proponendo un paradigma di cooperazione tra uomo e macchina capace di superare i limiti imposti dalle condizioni naturali e dall’eterogeneità del terreno.
Come la metodologia cloud-TOPSIS affronta l’incertezza nella selezione dei metodi di scavo tunnellare?
L’approccio cloud-TOPSIS rappresenta un’evoluzione significativa nei metodi di decisione multicriterio (MCDM), particolarmente utile nelle situazioni in cui le valutazioni degli esperti sono soggettive e espresse in linguaggio naturale piuttosto che in valori numerici certi. L’incertezza insita nelle valutazioni di esperti si manifesta attraverso ambiguità e casualità, elementi che il modello cloud riesce a rappresentare efficacemente combinando la vaghezza delle informazioni (fuzziness) con la loro natura stocastica (randomness).
Nel caso specifico dell’analisi dei metodi di scavo per tunnel, la metodologia cloud-TOPSIS supera i limiti del classico fuzzy-TOPSIS introducendo un processo di simulazione che genera molteplici matrici di valutazione campionate casualmente. Questo permette di ottenere non un singolo risultato deterministico, bensì una distribuzione probabilistica di possibili classifiche delle alternative, con una stima della loro affidabilità. La possibilità di analizzare non solo il valore medio del coefficiente di vicinanza ma anche la sua variazione minima e massima consente di valutare la robustezza delle soluzioni proposte.
L’analisi di sensibilità evidenzia come l’incertezza nelle valutazioni influenzi in modo diverso i criteri di performance. In particolare, la variabile En, che controlla il grado di incertezza, impatta significativamente sulla consistenza dei risultati, aumentando la variabilità delle classifiche finali, mentre la variabile He, legata alla forma del modello cloud, ha un’influenza meno rilevante. Questo suggerisce che una gestione accurata della variabilità della competenza degli esperti e delle condizioni di progetto è fondamentale per ottenere valutazioni affidabili.
La simulazione di Monte Carlo, applicata al problema, consente di modellare sia scenari normali sia casi estremi nelle valutazioni, fornendo un quadro probabilistico che aiuta a comprendere la stabilità delle scelte in condizioni realistiche. Nel caso studio riportato, il metodo A4 (shield TBM) emerge come la scelta dominante nella maggior parte delle simulazioni, confermando la sua idoneità per il progetto, pur lasciando spazio a risultati alternativi che, seppur meno probabili, riflettono specifiche condizioni di valutazione differenziate.
Un altro elemento fondamentale del cloud-TOPSIS è la capacità di apprendere il peso dei criteri direttamente dai dati di valutazione, superando l’assunto del fuzzy-TOPSIS che attribuisce pesi uguali a tutti i criteri. Questo meccanismo di “weightage learning” permette di penalizzare alternative con debolezze marcate su criteri rilevanti, fornendo così una valutazione più equilibrata e aderente alla realtà del contesto decisionale.
Oltre alla rigorosità matematica e all’innovazione teorica, la metodologia cloud-TOPSIS offre un contributo pratico significativo: la sua applicazione in un progetto reale di scavo nel metropolitano di Wuhan dimostra l’efficacia del metodo nel supportare decisioni complesse in infrastrutture di larga scala, offrendo uno strumento più flessibile e completo rispetto ai metodi tradizionali.
È importante comprendere che l’adozione di modelli come cloud-TOPSIS richiede consapevolezza della variabilità delle competenze degli esperti, della qualità e completezza delle informazioni di progetto, nonché della definizione precisa dei livelli descrittivi usati nelle valutazioni. Solo con un’attenta calibrazione e interpretazione dei risultati si può ottenere un supporto decisionale realmente affidabile e rappresentativo della complessità del problema.
Infine, l’approccio probabilistico non elimina l’incertezza ma la quantifica e la integra nel processo decisionale, trasformando un limite tradizionale in un elemento di valore per una scelta informata e robusta. L’analisi della variabilità e la possibilità di considerare scenari alternativi sono strumenti indispensabili per chi opera in ambiti di ingegneria complessa e gestione di progetti infrastrutturali ad alta criticità.
Come si ottimizza la previsione delle prestazioni della TBM attraverso la fusione di reti C-GRU e analisi di sensitività
L’elaborazione diretta di tutti i dati grezzi in una rete GRU risulta spesso inefficiente e non garantisce prestazioni ottimali. Questo perché le serie temporali relative a ciascuna caratteristica sono unidimensionali e indipendenti tra loro. Per superare tali limitazioni, si integra la rete GRU con convoluzioni 1D, dando origine a una struttura ibrida definita C-GRU, come illustrato nel modello presentato. Tale rete si compone di dodici livelli funzionali: tre strati convoluzionali 1D per l’estrazione di caratteristiche di alto livello, due livelli di max-pooling per ampliare il campo recettivo, tre strati GRU e quattro strati completamente connessi che mappano le caratteristiche estratte verso gli intervalli di destinazione.
La scelta delle funzioni di attivazione è strategica: nelle convoluzioni e negli strati fully connected si adottano le unità lineari esponenziali (ELU), le quali migliorano la capacità espressiva non lineare e la precisione predittiva della rete. Le dimensioni degli strati di input variano in base al numero di feature TBM selezionate e al numero di passi temporali passati considerati, mentre l’output si adatta alle variabili di orientamento TBM e alla lunghezza della sequenza prevista.
Nel processo di addestramento, la funzione di perdita è rappresentata dall’errore quadratico medio (MSE), che misura la dispersione tra i valori previsti e quelli reali, garantendo una valutazione completa della performance. Per l’ottimizzazione si impiega RMSprop, che consente di individuare in maniera efficace il minimo globale della funzione di perdita, ottimizzando così l’apprendimento della rete.
Per una valutazione più approfondita, si utilizzano indicatori supplementari quali l’errore assoluto medio (MAE) e il coefficiente di determinazione R². Il MAE esprime l’errore medio assoluto tra predizioni e valori reali, offrendo una misura intuitiva della qualità predittiva. L’R², invece, normalizza le prestazioni entro l’intervallo 0–1, facilitando il confronto tra modelli diversi.
La rete C-GRU, oltre alla sua architettura, si distingue per la distribuzione parametrica ottimizzata, come evidenziato in tabelle dettagliate che mostrano la proporzione di parametri assegnati a ogni strato, evidenziando l’equilibrio tra capacità di apprendimento e complessità computazionale.
Per aumentare l’applicabilità ingegneristica del modello, è cruciale analizzare l’influenza di ciascuna caratteristica di input sul risultato finale. Tale analisi di sensibilità si avvale del metodo RBD-FAST (Random Balance Design Fourier Amplitude Sensitivity Test), che migliora l’efficienza computazionale rispetto a metodi classici, risultando particolarmente adatto a sistemi con input e output complessi. L’approccio RBD-FAST prevede la selezione di punti di progettazione lungo curve periodiche, la generazione di permutazioni casuali per coprire lo spazio dei fattori, l’inserimento di tali punti nel modello e il calcolo degli indici di sensibilità tramite decomposizione in serie di Fourier.
L’efficacia del modello è stata validata tramite uno studio sperimentale relativo al processo di scavo della TBM nel tunnel T308 a Singapore, un progetto caratterizzato da condizioni geologiche uniformi e stabili (argilla marina), che permettono una previsione più affidabile. I dati originali TBM, comprendenti 767 feature con oltre 14.000 punti temporali, sono stati filtrati per eliminare periodi di inattività, selezionando infine 18 parametri essenziali di TBM e 4 parametri di assetto, normalizzati per garantire uniformità.
L’analisi della distribuzione dei dati mostra caratteristiche di concentrazione variabile tra le feature, con alcune come la velocità di rotazione della testa di taglio che presentano distribuzioni molto concentrate, aspetto che influenza la complessità delle previsioni. Le variazioni di assetto della TBM, soprattutto nelle deviazioni orizzontali della coda, mostrano frequenti cambiamenti, complicando ulteriormente le previsioni multi-step.
La selezione accurata dei parametri, l’architettura ibrida C-GRU e l’analisi di sensitività integrata permettono di costruire un modello robusto, capace di adattarsi alle variazioni nelle condizioni operative senza perdere affidabilità. È fondamentale comprendere che, sebbene il modello sia ottimizzato per condizioni uniformi, variazioni improvvise nel terreno possono influenzare significativamente le prestazioni predittive, richiedendo un continuo aggiornamento e taratura del sistema.
Inoltre, la normalizzazione dei dati e la scelta accurata delle metriche di valutazione sono essenziali per assicurare che il modello apprenda correttamente le dinamiche complesse della TBM, evitando sovra-adattamenti o sottoperformance. La sensibilità ai diversi input non solo migliora la spiegabilità del modello, ma aiuta anche a identificare i parametri più critici da monitorare durante le operazioni, contribuendo a una gestione più efficiente e sicura del processo di scavo.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский