La previsione del rischio geologico lungo un percorso di scavo tunnel rappresenta una sfida complessa che richiede competenze specialistiche e una consolidata esperienza ingegneristica. Nel corso della costruzione, il volume di dati osservativi aumenta progressivamente, mentre i rischi geologici associati rimangono in gran parte ignoti. L’analisi si concentra su sezioni circolari (anelli) del tunnel, le quali, in corrispondenza di carotaggi, presentano informazioni dirette, mentre la restante porzione resta non osservata e dunque incerta. Tale situazione evidenzia la necessità di metodi capaci di inferire stati geologici nascosti partendo da dati scarsi e progressivamente ampliati.
Il modello si sviluppa lungo la direzione dell’allineamento del tunnel e si basa su tre assunti fondamentali: la profondità del tunnel non è considerata; le condizioni geologiche sono costanti per ogni anello circolare, senza variazioni spaziali all’interno dello stesso; le modifiche di tali condizioni avvengono esclusivamente tra anelli successivi lungo l’asse del tunnel, che coincide con la direzione di avanzamento della TBM (Tunnel Boring Machine) idealmente allineata.
L’approccio matematico chiave impiegato è il modello di Markov nascosto (Hidden Markov Model, HMM), in cui gli stati geologici sono considerati "nascosti", mentre si osservano indirettamente sequenze di dati geologici rilevati durante lo scavo. L’HMM si fonda sulla proprietà di “assenza di memoria” del processo, per cui la probabilità di trovarsi in uno stato dipende unicamente dallo stato immediatamente precedente (catena di Markov di primo ordine). Esistono modelli più complessi, come le catene di Markov di ordine superiore, che mantengono memoria su più stati precedenti e possono variare nel tempo (non stazionarie).
Nel modello adottato, la sequenza degli stati nascosti corrisponde alle condizioni geologiche degli anelli tunnel, mentre le osservazioni sono costituite dai dati raccolti, quali analisi di carotaggi e report giornalieri di scavo. Le transizioni di stato sono descritte da matrici di probabilità che indicano la probabilità di passare da una condizione geologica a un’altra tra anelli consecutivi, mentre le emissioni indicano la probabilità di osservare dati specifici in funzione dello stato geologico sottostante.
Un’ulteriore evoluzione del modello è rappresentata dall’HMM online (OHMM), che permette di aggiornare continuamente i parametri del modello man mano che si raccolgono nuove osservazioni, senza dover ricalcolare l’intero modello da zero. Ciò è possibile grazie all’impiego di algoritmi ricorsivi che aggiornano le statistiche sufficienti del modello in tempo reale, migliorando l’adattamento alle nuove informazioni e affinando la previsione dei rischi futuri.
L’uso di OHMM consente di integrare dati scarsi e discontinui, provenienti da carotaggi limitati, con un flusso continuo di osservazioni sul campo, fornendo così una previsione dinamica e aggiornata delle condizioni geologiche da incontrare nei successivi anelli di scavo. Questo è cruciale per pianificare interventi preventivi e mitigare i rischi associati al progetto.
È importante considerare che la modellazione non include la variabilità verticale delle condizioni geologiche (profondità) né variazioni laterali all’interno degli anelli, ipotesi che possono limitare l’accuratezza in scenari geologici complessi. Tuttavia, l’approccio rimane potente nel fornire stime ragionevoli e gestibili in un contesto di dati limitati e di grande incertezza.
La comprensione profonda di tali modelli richiede familiarità con i processi stocastici e le tecniche di apprendimento automatico, oltre a un’attenta calibrazione e validazione sul campo. L’integrazione di dati sperimentali con modelli matematici permette di ridurre l’incertezza e di trasformare progressivamente il problema da una previsione basata su pochi dati fissi a un processo adattativo, capace di apprendere e migliorare con l’avanzare dello scavo.
Al di là delle specifiche matematiche e ingegneristiche, è fondamentale per il lettore cogliere l’importanza di una visione probabilistica e dinamica della geologia, in cui le conoscenze vengono acquisite gradualmente e continuamente aggiornate. La gestione del rischio non è mai statica, ma un processo in divenire che richiede strumenti in grado di interpretare in modo sofisticato le informazioni incomplete e in continua evoluzione. Questo approccio permette di anticipare problemi, ottimizzare le strategie operative e aumentare la sicurezza nelle opere sotterranee.
Quali sono i vantaggi dell'approccio di ensemble nell'identificazione delle condizioni geologiche?
L'analisi delle prestazioni dei modelli di base in confronto al modello di ensemble (EMNet) mostra miglioramenti significativi nei parametri di valutazione come accuratezza, precisione, richiamo e F1-score. I modelli di base, che includono tre varianti di MobileNet, raggiungono valori di precisione, richiamo e F1-score che si aggirano intorno al valore medio di 0.79, con variazioni tra i singoli modelli che vanno da un 0.783 di F1-score a un massimo di 0.852. Tuttavia, l'approccio di ensemble che combina questi modelli con il Deep Set Transform (DST) porta a un miglioramento sostanziale, superando la soglia dell'0.85 in tutti gli indicatori principali. Con un'accuratezza di 0.865, una precisione di 0.860, un richiamo di 0.890 e un F1-score di 0.862, l'EMNet segna un incremento che va dal 4,42% al 10,23% rispetto ai singoli modelli, confermando l'efficacia dell'insieme di più modelli nel migliorare i risultati predittivi.
Questi miglioramenti non sono solo numerici, ma riflettono anche una maggiore stabilità nella classificazione rispetto ai singoli modelli di base. Le matrici di confusione delle singole previsioni, presentate insieme alla curva precisione-richiamo (p-r curve), evidenziano le incertezze di classificazione nei modelli di base, specialmente nel caso del terzo modello, che non riesce a identificare correttamente il tipo di suolo S3, pur performando bene per i suoli S1 e S2. In contrasto, l'EMNet riesce a combinare i punti di forza dei modelli di base per ottenere una previsione complessiva più accurata, in grado di distinguere meglio anche i casi più difficili.
Un aspetto interessante dell'analisi riguarda la SHAP (SHapley Additive exPlanations) che fornisce un'ulteriore comprensione su come il modello percepisce le immagini e prende le sue decisioni. Analizzando le immagini di campioni di suolo, la SHAP evidenzia come la texture superficiale e il colore siano caratteristiche cruciali per la classificazione. Per esempio, nel caso del suolo S1, l'area con superficie liscia viene identificata come quella che contribuisce maggiormente alla classificazione. Analogamente, per S2 e S3, i modelli sono in grado di riconoscere aree con colori specifici, come il marrone per S2 e il grigio scuro per S3, che risultano essere fondamentali per la classificazione corretta.
L'approccio EMNet non solo offre prestazioni migliori rispetto ai modelli di base, ma anche rispetto ad altre architetture di rete neurale avanzate, come ResNet, VGG e GoogleNet, che sono ampiamente utilizzate in molteplici ambiti di applicazione. Le prestazioni di queste architetture su dataset simili sono significativamente inferiori rispetto a quelle dell'EMNet. In particolare, mentre i modelli più avanzati come ResNet e VGG ottengono punteggi medi di accuratezza tra il 60% e il 70%, l'EMNet raggiunge un notevole 86,5%, mostrando così il valore dell'approccio di ensemble. I grafici delle metriche di valutazione, presentati nel confronto con queste architetture, rivelano chiaramente come il modello proposto superi di gran lunga gli altri in termini di precisione, richiamo e F1-score.
L'analisi delle matrici di confusione dei vari modelli evidenzia anche come le reti neurali profonde possano talvolta avere difficoltà a distinguere tra le classi, specialmente in presenza di dati complessi o non perfettamente separabili. Questo è uno degli aspetti chiave che giustifica l'uso di modelli ensemble come l'EMNet, che riescono a sfruttare la complementarietà tra diversi modelli di base per ottenere previsioni più robuste.
In sintesi, l'EMNet ha dimostrato di essere altamente efficace nell'identificare le condizioni geologiche durante l'escavazione con TBM, superando altre architetture di rete neurale sia in termini di accuratezza che di affidabilità delle previsioni. Questo approccio offre un'ulteriore conferma dell'importanza dell'uso combinato di modelli per migliorare le performance in compiti complessi come la classificazione delle immagini, dove la variabilità e la complessità dei dati richiedono una robustezza maggiore rispetto a quella che può essere ottenuta da un singolo modello.
È cruciale comprendere che, oltre a una buona selezione dei modelli di base e della tecnica di ensemble, una valutazione accurata dei parametri di iperparametrizzazione, come il tasso di apprendimento e la dimensione del batch, è fondamentale per ottenere performance ottimali. L'importanza di una corretta preparazione dei dati, come la riduzione delle immagini e l'uso di matrici numeriche normalizzate, non deve essere sottovalutata, poiché influisce direttamente sulla capacità del modello di apprendere in modo efficace dai dati.
Come si gestisce la fusione di evidenze conflittuali e la percezione del rischio nella valutazione della sicurezza?
Uno dei problemi principali nella fusione delle evidenze basata sulla regola di combinazione di Dempster è rappresentato dall’insorgenza di risultati controintuitivi quando il coefficiente di conflitto tra le fonti informative è elevato. In particolare, quando si avvicina a 1, l’applicazione diretta della regola di Dempster può portare a conclusioni irragionevoli e fuorvianti. Per ovviare a tale criticità, è stata proposta da Zhang et al. una regola di fusione pesata che entra in gioco proprio quando il valore di supera la soglia di 0.95. Questa regola migliorata calcola la distanza euclidea tra le diverse evidenze, costruendo una matrice di distanze all’interno del quadro evidenziale. Successivamente, i pesi di ogni evidenza vengono determinati in base alla loro vicinanza reciproca, permettendo di ottenere un’evidenza aggregata più robusta. La fusione finale è quindi effettuata con queste evidenze pesate, garantendo una maggiore affidabilità nelle situazioni di elevato conflitto informativo.
La metodologia tradizionale di Dempster viene invece mantenuta per valori di inferiori a 0.95, preservando la sua validità quando le evidenze risultano meno contrastanti. Questa distinzione tra le due modalità di fusione rappresenta un avanzamento significativo nella gestione delle informazioni incerti e contraddittorie, fondamentale per una valutazione del rischio più precisa e attendibile.
Per quanto riguarda la percezione del rischio, il risultato della fusione è spesso rappresentato da insiemi fuzzy, che necessitano di un processo di defuzzificazione per ottenere un valore numerico chiaro e utilizzabile. Le metodologie tradizionali di defuzzificazione, come il metodo del centroide o quello del bisettore, presentano difetti quali l’elevato costo computazionale o la perdita di informazioni durante la trasformazione. Anche in questo ambito, Zhang et al. hanno introdotto un metodo innovativo chiamato Centro della Distribuzione (Center of Distribution, COD), capace di estrapolare un numero netto che rappresenta il valore centrale della distribuzione fuzzy risultante. Tale valore numerico sintetizza efficacemente la percezione finale del rischio, facilitando la sua interpretazione e l’impiego nelle successive fasi decisionali.
La scala dei livelli di rischio percepito, definita in base al valore defuzzificato , consente di categorizzare il rischio su più livelli ordinati, offrendo una classificazione dettagliata e intuitiva da utilizzare nei processi di gestione e mitigazione del rischio.
Una volta ottenuto il livello di rischio, diventa cruciale la sua rappresentazione visiva, strumento essenziale per la comunicazione e il supporto alle decisioni. A tal fine, l’utilizzo di Dynamo all’interno della piattaforma BIM Revit si rivela particolarmente efficace. Dynamo permette di integrare l’informazione parametrica nei modelli BIM, fornendo un ambiente di programmazione visiva basato su nodi che automatizza l’elaborazione dati e consente una colorazione parametrica degli elementi. Tale approccio permette di visualizzare i livelli di rischio associati a segmenti specifici del modello, ad esempio anelli di un tunnel, applicando colori distinti per ciascun grado di pericolo. Questo processo automatizzato riduce significativamente il lavoro ripetitivo e rende immediatamente leggibile la distribuzione spaziale del rischio, offrendo una potente rappresentazione visiva che facilita la pianificazione e la gestione della sicurezza.
Un esempio concreto di applicazione è il tunnel sotto il fiume Yangtze a Wuhan, uno dei più grandi progetti infrastrutturali del suo genere, caratterizzato da condizioni geologiche estremamente complesse e da un modello BIM dettagliato composto da migliaia di segmenti. La fusione delle evidenze provenienti da diverse fonti e la successiva visualizzazione parametrica dei rischi ha permesso di monitorare in modo efficace il progetto, dimostrando l’efficacia del metodo integrato.
Oltre a quanto sopra, è fondamentale comprendere che la gestione del conflitto informativo e la rappresentazione della percezione del rischio non sono solo questioni di calcolo matematico, ma hanno profonde implicazioni pratiche nella sicurezza. L’accuratezza della fusione delle evidenze influisce direttamente sulla capacità di identificare e mitigare i rischi prima che si traducano in incidenti. Inoltre, la visualizzazione chiara e parametrica del rischio supporta una comunicazione efficace tra i diversi attori coinvolti, dagli ingegneri ai decisori, rendendo possibile un intervento tempestivo e mirato.
La sensibilità al conflitto tra informazioni e la scelta di metodi appropriati per la loro integrazione devono essere sempre valutate nel contesto specifico dell’applicazione, tenendo conto della natura delle fonti, dell’affidabilità delle misure e del grado di incertezza presente. Solo attraverso un approccio rigoroso e multilivello si può garantire una valutazione del rischio attendibile e operativamente utile.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский