Nel contesto della previsione geologica avanzata, il modello Hidden Markov Model Online (OHMM) si distingue per la capacità di aggiornarsi in tempo reale sulla base delle osservazioni geologiche disponibili, fornendo una stima dinamica dello stato nascosto del rischio geologico. Per monitorare efficacemente il processo di apprendimento online del modello, viene definito un errore di log-verosimiglianza che quantifica la discrepanza tra gli stati più probabili stimati dal modello e gli stati veri osservati. Questo indicatore permette di valutare la qualità dell’adattamento del modello passo dopo passo, utilizzando l’algoritmo di Viterbi per identificare la sequenza più probabile degli stati nascosti fino a un certo istante temporale. Il confronto tra la verosimiglianza calcolata a partire dalla sequenza stimata e quella corrispondente agli stati reali rappresenta una misura fondamentale della precisione del modello.

L’OHMM è progettato per svolgere due compiti principali: l’inferenza e la previsione. L’inferenza riguarda la capacità di dedurre lo stato nascosto del rischio geologico basandosi sulle osservazioni passate, mentre la previsione estende questa capacità nel futuro, oltre la finestra temporale in cui le osservazioni sono disponibili. La valutazione dell’inferenza si effettua tramite l’accuratezza retrospettiva (backward accuracy), che riflette la capacità del modello di interpretare correttamente gli stati nascosti a partire da dati osservativi già acquisiti. La previsione, invece, è giudicata tramite l’accuratezza prospettica (forward accuracy), che misura l’attendibilità della stima degli stati nascosti in un arco temporale futuro T, durante il quale non sono disponibili osservazioni. Tale capacità predittiva è di importanza cruciale nella gestione dei rischi geologici, poiché consente di attivare tempestivamente misure di mitigazione prima che i problemi si manifestino concretamente.

Il caso di studio descritto si riferisce a un tunnel situato a Singapore, caratterizzato da 915 anelli di scavo. La classificazione dei terreni è basata sul sistema unificato di classificazione dei suoli (USCS), che distingue i suoli in gruppi fondamentali secondo proprietà fisiche e comportamentali. Nel contesto del tunnel, i dati raccolti provengono sia da analisi di carotaggi sparsi sia da osservazioni più dettagliate per ogni anello. Questa disparità nella risoluzione spaziale tra le misurazioni di carotaggi e quelle di scavo rappresenta una sfida significativa nell’interpretazione dei dati geologici e nella stima del rischio associato.

Le variazioni tra le proprietà dei terreni — come resistenza, densità, e risposte statiche e dinamiche — influenzano il comportamento meccanico e le modalità di frattura, complicando l’analisi del rischio. Per semplificare l’interpretazione, il rischio geologico viene categorizzato in tre livelli: basso, medio e alto, associati rispettivamente a terreni relativamente duri, suoli fini e terreni soffici. Per tenere conto dell’incertezza dovuta a dati mancanti o ambigui, è prevista una categoria aggiuntiva di stato “incerto”. Questa categorizzazione permette di modellare il rischio geologico come uno stato nascosto in un modello HMM, dove le osservazioni sono rappresentate da eventi legati alle caratteristiche del suolo.

La peculiarità del problema consiste nel fatto che, durante la costruzione, le informazioni sugli stati di rischio geologico per ogni anello di scavo non sono direttamente accessibili e sono disponibili solo in corrispondenza dei carotaggi sparsi. Questa discrepanza nella densità dei dati comporta la necessità di meccanismi di estensione sequenziale all’interno del modello OHMM, per inferire gli stati nascosti anche in assenza di dati osservativi diretti. Tale meccanismo consente di colmare i vuoti temporali e spaziali, migliorando la robustezza della previsione.

Nel processo di sviluppo del modello, le osservazioni sono codificate secondo categorie predefinite, e le stime degli stati nascosti sono aggiornate progressivamente con l’avanzare dei dati. La capacità predittiva e inferenziale dell’OHMM viene costantemente valutata e migliorata tramite metriche specifiche, che riflettono la sua applicabilità pratica in contesti reali di scavo e ingegneria geotecnica.

Importante è la comprensione che, oltre ai dati di superficie o carotaggi, la variabilità interna del terreno e l’incertezza intrinseca nella caratterizzazione geologica impongono un approccio probabilistico e dinamico. L’utilizzo di modelli come l’OHMM permette non solo di interpretare e prevedere rischi basandosi su dati incompleti o sporadici, ma anche di aggiornare tali previsioni in tempo reale, offrendo un supporto decisionale fondamentale nelle attività di scavo e gestione del rischio.

La complessità delle interazioni geomeccaniche e le incertezze derivanti dalla natura variabile dei materiali richiedono una continua integrazione di dati e un affinamento dei modelli. La capacità di modellare e predire stati nascosti con il ricorso a modelli statistici avanzati non è solo un esercizio teorico, ma un elemento imprescindibile per migliorare la sicurezza e l’efficienza nei progetti di ingegneria sotterranea.

Qual è l’impatto della scelta della copula sulla stima dell'affidabilità del fronte di scavo?

L’analisi dell’affidabilità del fronte di scavo richiede una modellazione accurata della dipendenza tra le variabili critiche, in particolare la pressione di sostegno e il cedimento del terreno. Quando queste due grandezze vengono considerate indipendenti, esse si distribuiscono in modo uniforme e discreto, priva di relazioni strutturali tra loro. Tuttavia, l’assunzione di indipendenza si rivela spesso non realistica, soprattutto quando i dati misurati evidenziano una dipendenza negativa significativa tra le variabili.

Attraverso l’uso della simulazione Monte Carlo (MCS), sono stati generati 105 campioni sintetici per ciascuna delle quattro copule candidate: Gaussian, No.16, Frank e Plackett. Questi campioni sono stati confrontati con 61 osservazioni reali, mostrando tendenze simili lungo la diagonale a 135°, suggerendo una certa coerenza nella struttura di dipendenza catturata. Tuttavia, nonostante la somiglianza visiva nei grafici di dispersione, l’analisi quantitativa mostra che la funzione di copula Frank è quella che meglio rappresenta i dati, come indicato dai criteri AIC e BIC.

Per valutare il rischio di collasso del fronte, vengono fissate due condizioni limite: una pressione minima di 70 kPa e un cedimento massimo di 30 mm. La violazione di anche solo una di queste condizioni implica il fallimento del sistema. La probabilità di guasto si calcola come rapporto tra i campioni che si trovano fuori dall’area di sicurezza (evidenziata in verde nei grafici) e il numero totale di campioni.

L’analisi evidenzia tre osservazioni fondamentali. Primo, trascurare le correlazioni tra le variabili porta a una stima fortemente distorta della probabilità di guasto. Il modello indipendente produce una probabilità di fallimento pari a 0.0198, più del doppio rispetto al valore ottenuto con la copula Frank (0.00939), con un errore relativo superiore al 100%. Questo comporta una sovrastima della sicurezza e quindi un progetto eccessivamente conservativo, con conseguenti aumenti di costo non giustificati.

Secondo, la scelta della copula incide notevolmente sulla distribuzione dei campioni simulati e quindi sulla stima della probabilità di guasto. La copula Gaussian, ad esempio, sottostima la probabilità di fallimento del 29% rispetto alla Frank, dimostrando un’incapacità nel cogliere correlazioni non lineari. Al contrario, la copula No.16 presenta un errore marginale dello 0.02%, risultando paragonabile alla Frank e quindi adatta in contesti simili. La Plackett si colloca in una posizione intermedia, mentre il modello indipendente risulta il meno affidabile.

Terzo, la probabilità di fallimento varia in modo inverso rispetto all’innalzamento dei valori limite. Aumentando il valore limite della pressione da 65 a 75 kPa, si osserva un incremento nella probabilità di fallimento. Al contrario, all’aumentare del limite del cedimento da 26 a 32 mm, la probabilità di guasto diminuisce drasticamente. Quando il cedimento supera i 32 mm, la probabilità di fallimento si avvicina allo zero, rendendo questi scenari estremamente improbabili. Tuttavia, con valori inferiori a 26 mm, oltre la metà dei campioni fallisce, indicando un rischio elevato. È quindi essenziale adattare dinamicamente i criteri di sicurezza in funzione delle condizioni reali di scavo.

L’accuratezza della stima dipende anche dalla dimensione del campionamento MCS. Per probabilità di guasto molto piccole, un numero elevato di simulazioni è indispensabile per garantire la stabilità statistica dei risultati. Tuttavia, un numero eccessivo comporta un incremento del tempo computazionale. È quindi necessario trovare un equilibrio tra precisione e efficienza, soprattutto considerando che sotto la soglia dei 10⁴ campioni la probabilità stimata varia in modo instabile.

Per interpretare correttamente questi risultati, è essenziale comprendere il ruolo delle copule come strumenti di modellazione della dipendenza. Esse permettono di separare la struttura marginale di ciascuna variabile dalla loro dipendenza congiunta, consentendo una maggiore flessibilità rispetto ai modelli tradizionali. Questo aspetto è cruciale quando le correlazioni non sono lineari o variano lungo il dominio delle variabili.

Inoltre, non basta identificare la copula con il miglior adattamento statistico: è necessario anche considerare la sensibilità delle stime al cambiamento delle condizioni limite e alla qualità del dato osservato. Le copule come la Frank, che mostrano una maggiore stabilità in presenza di variazioni nei parametri, risultano più affidabili nei contesti ingegneristici dove la sicurezza strutturale è prioritaria.

Infine, per una corretta implementazione di questi modelli nella pratica, il lettore deve considerare che le funzioni copula, sebbene potenti, sono strumenti matematici che richiedono dati di qualità, validazioni empiriche e consapevolezza teorica. Solo attraverso una modellazione attenta e consapevole è possibile ottenere stime di affidabilità realistiche e ottimizzare la progettazione strutturale in modo economicamente e tecnicamente sostenibile.

Come vengono ponderati e valutati i criteri nelle decisioni multilivello con incertezza: metodo dell'entropia e modello a nuvola

La determinazione dei pesi dei criteri rappresenta un passaggio cruciale nell’applicazione di metodi decisionali multicriterio come il TOPSIS. Tradizionalmente, metodi soggettivi quali Delphi, AHP o sondaggi esperti sono utilizzati per definire tali pesi, ma spesso essi introducono divergenze e distorsioni dovute a bias individuali e necessitano di ulteriori input esperti. Questi metodi inoltre non riescono a gestire efficacemente l’incertezza intrinseca nella valutazione dei criteri, dovuta alla fuzziness e casualità del giudizio umano.

In alternativa, i metodi oggettivi, e in particolare il metodo del peso basato sull’entropia, si fondano sulle caratteristiche intrinseche degli attributi, riducendo l’influenza soggettiva. L’entropia, concetto mutuato dalla teoria dell’informazione, misura il grado di disordine o incertezza associato a una variabile: criteri con entropia minore implicano una maggiore capacità discriminante e quindi meritano pesi maggiori. L’approccio procede standardizzando i dati, calcolando le proporzioni normalizzate di ogni alternativa rispetto ai criteri, quindi determinando l’entropia per ciascun criterio, da cui si ricava il vettore di pesi.

Il processo di valutazione prosegue con la costruzione della matrice ponderata, dove ogni elemento è moltiplicato per il peso corrispondente. In questa matrice, vengono identificate le soluzioni ideali positive (PIS) e negative (NIS), rappresentanti rispettivamente i valori ottimali (massimi per criteri di beneficio, minimi per criteri di costo) e pessimi per ciascun criterio. La distanza di ciascuna alternativa da questi punti ideali viene calcolata per definire il coefficiente di prossimità, che permette di classificare le alternative in base alla loro idoneità complessiva.

Tuttavia, il giudizio umano porta con sé ineliminabili incertezze, sfumature linguistiche e variabilità che possono essere modellate efficacemente attraverso il modello a nuvola. Questo modello combina elementi di teoria fuzzy e probabilistica, descrivendo l’incertezza tramite valori caratteristici come aspettativa (Ex), entropia (En) e iper-entropia (He). La distribuzione normale viene adottata per modellare la variabilità delle valutazioni, mentre un generatore di nuvole produce campioni rappresentativi di tali incertezze.

L’integrazione del modello a nuvola con il TOPSIS, tramite simulazioni Monte Carlo, consente di generare numerose matrici di valutazione campionate, da cui si ottengono altrettanti coefficienti di prossimità. L’analisi statistica di questa distribuzione permette di avere non solo un valore medio della performance di ciascuna alternativa, ma anche una comprensione più profonda dell’incertezza e della variabilità associata alla decisione.

È fondamentale comprendere che l’approccio qui descritto non elimina la soggettività, ma la quantifica e la integra nel processo decisionale, aumentando così la robustezza e l’affidabilità delle scelte. Inoltre, il metodo evidenzia l’importanza di differenziare chiaramente i criteri di beneficio da quelli di costo e di adattare la metodologia al contesto specifico di valutazione, considerando attentamente la qualità e la natura dei dati utilizzati. Solo con una comprensione approfondita delle fonti di incertezza e della loro modellazione statistica è possibile realizzare decisioni multilivello realmente informate e consistenti.

Come integrare BIM e teoria Dempster-Shafer per la gestione dinamica dei rischi nelle costruzioni sotterranee

Con la rapida espansione delle aree urbane, la realizzazione di grandi opere di scavo e galleria si è trasformata in una sfida tecnica e gestionale di enorme complessità. L’aumento di scala e complessità porta con sé un incremento esponenziale delle incertezze, rendendo cruciale la gestione efficace dei rischi per la sicurezza delle costruzioni sotterranee. Tradizionalmente, la valutazione del rischio si basava su dati statici e procedure manuali, affidate in gran parte all’esperienza e ad analisi matematiche rigide, incapaci di cogliere la dinamicità intrinseca delle condizioni in cantiere. L’integrazione di sistemi in grado di percepire e aggiornare in tempo reale le probabilità di rischio rappresenta quindi un passo fondamentale e urgente per elevare gli standard di sicurezza.

Building Information Modeling (BIM) si afferma come una tecnologia innovativa, superando i limiti dei tradizionali metodi CAD bidimensionali. BIM non è solo un ambiente virtuale tridimensionale, ma una piattaforma dinamica in grado di raccogliere, gestire e condividere informazioni complesse e multidimensionali, fondamentali per una gestione puntuale e consapevole delle attività in cantiere. Le capacità di visualizzazione interattiva di BIM migliorano la percezione dei rischi, permettendo di individuare le aree critiche e di applicare strategie mitigative più efficaci.

Tuttavia, la gestione del rischio nelle costruzioni sotterranee è caratterizzata da un alto grado di fuzziness e incertezza, dovuti alla natura stessa dei dati raccolti, spesso incompleti, imprecisi o ambigui. In questo contesto, l’esperienza e la conoscenza degli esperti rimangono insostituibili, soprattutto per interpretare gli aspetti più sottili e complessi delle condizioni di cantiere. La combinazione di BIM con tecniche di ragionamento sull’incertezza può arricchire significativamente la valutazione del rischio.

La teoria delle evidenze di Dempster-Shafer si presenta come uno strumento efficace per trattare l’incertezza in modo più flessibile rispetto alla tradizionale teoria della probabilità. A differenza di quest’ultima, che associa l’evidenza a singoli eventi, la teoria D-S consente di assegnare evidenze a insiemi di possibilità, trattando le informazioni incomplete come un intervallo di probabilità. Questo approccio permette di modellare la fuzziness intrinseca dei dati di cantiere, migliorando la robustezza e l’affidabilità della valutazione del rischio. Numerosi studi hanno dimostrato l’applicabilità della teoria D-S in ambiti di costruzione sotterranea, con modelli ibridi che uniscono tale teoria a insiemi fuzzy e reti bayesiane, superando i limiti dei dati insufficienti o imprecisi.

L’approccio integrato proposto prevede lo sviluppo di un modello ibrido che unisce le potenzialità di BIM con la teoria delle evidenze di Dempster-Shafer. Attraverso interfacce di programmazione (API), le informazioni necessarie vengono estratte in modo dinamico dalla piattaforma BIM, quindi fuse e analizzate tramite la teoria D-S per percepire e quantificare il rischio in tempo reale. L’uso del plugin Dynamo consente di realizzare visualizzazioni immediate e intuitive, facilitando la comprensione e la gestione del rischio da parte degli operatori. Questo metodo non solo rappresenta un valido strumento per l’analisi statica, ma consente anche di aggiornare continuamente le valutazioni in funzione dei dati che si evolvono durante l’avanzamento dei lavori.

La capacità di lavorare con dati dinamici e di visualizzare le probabilità di rischio in modo interattivo favorisce decisioni tempestive e consapevoli, cruciali in un ambiente ad alto rischio come quello delle costruzioni sotterranee. L’integrazione tra tecnologia BIM e metodi avanzati di gestione dell’incertezza costituisce quindi un importante passo avanti nella direzione di una gestione più proattiva e sicura.

Oltre a quanto descritto, è fondamentale comprendere che la complessità crescente dei progetti edilizi implica una molteplicità di fonti informative eterogenee, spesso parzialmente discordanti o incomplete. La sfida non è solo tecnica, ma riguarda anche la capacità organizzativa di integrare conoscenze multidisciplinari e di farle dialogare efficacemente. Il valore aggiunto di modelli ibridi risiede non solo nell’aspetto computazionale, ma nella possibilità di facilitare la collaborazione e il flusso informativo tra tutti gli attori coinvolti, contribuendo a una cultura della sicurezza più solida e condivisa.

Come si può ottimizzare la mitigazione del rischio nella costruzione di tunnel attraverso l’adattamento delle variabili chiave?

L’ottimizzazione nella pianificazione della mitigazione del rischio per la costruzione di tunnel, specialmente in progetti complessi come lo scavo con scudo, si fonda sull’identificazione e regolazione delle variabili più influenti nel processo. Diciamo che esistono sedici variabili in ingresso, ma per semplicità ed efficienza è sufficiente concentrarsi sulle tre principali: la velocità di rotazione del cutter (x9), la pressione di iniezione (x11) e la distanza orizzontale relativa (x12). Queste tre variabili, regolate adeguatamente, permettono un miglioramento significativo della qualità dell’ottimizzazione e una consistente riduzione dei rischi indotti dal tunneling.

Gli esperimenti comparativi dimostrano che l’aggiustamento simultaneo di queste tre variabili produce un miglioramento medio della distanza dagli obiettivi di ottimizzazione pari al 0,018%, che rappresenta circa il 56-61% del beneficio ottenuto regolando tutte le variabili insieme. Tra le variabili singole, la velocità di rotazione del cutter (x9) emerge come la più efficace nel ridurre la distanza tra i due obiettivi (Y1 e Y2) e il punto ideale (0,0), suggerendo che un’attenzione prioritaria a questa variabile può incrementare rapidamente la sicurezza e l’efficienza del processo.

La regolazione ottimale di x9 tende a una riduzione della velocità di rotazione del cutter tra il -5% e il -3%, un intervallo relativamente ristretto ma capace di determinare miglioramenti importanti. Quando si considera la combinazione di x9 e x11, si osserva che in oltre il 57% delle soluzioni ottimali è necessario abbassare x9 di oltre il 4% e aumentare x11 di almeno il 2%. La contemporanea regolazione di tutte e tre le variabili critiche (x9, x11, x12) suggerisce una riduzione di x9 e x12 rispettivamente per l’82% e il 70% delle soluzioni ottimali, mentre x11 tende ad aumentare per la maggioranza dei casi. In sostanza, un abbassamento della velocità di rotazione del cutter e della distanza orizzontale, associato a un aumento del volume di iniezione, sembra essere la strategia più efficace per mitigare i rischi indotti dal tunnel.

Il metodo proposto si basa su un modello ibrido che integra una rete neurale profonda (DNN) con un algoritmo di discesa del gradiente multi-obiettivo (GDO). La rete neurale è stata progettata per gestire compiti di regressione non lineare multi-output, grazie anche a connessioni residue che migliorano l’addestramento e la precisione della previsione. Questo modello end-to-end è in grado di esplorare in profondità l’interazione complessa tra terreno, tunnel e strutture adiacenti, garantendo indicazioni precise per la sicurezza strutturale durante la costruzione.

Una metrica denominata “grado di influenza” permette di interpretare l’effetto di ciascuna variabile sul processo di ottimizzazione, fornendo una trasparenza fondamentale nella comprensione e nell’uso del modello. Questo rappresenta un passo avanti sia nella teoria che nella pratica: non solo si riesce a prevedere il rischio con alta precisione, ma si possono anche definire misure protettive basate su dati oggettivi e non più solo su stime esperte, migliorando l’efficacia della gestione del progetto.

Infine, è importante considerare che l’ottimizzazione e la gestione dei rischi in ambito tunneling non sono solo una questione di numeri o algoritmi, ma anche di monitoraggio continuo e adattamento alle condizioni reali che si manifestano in cantiere. Il modello proposto deve essere visto come uno strumento di supporto decisionale dinamico, capace di aggiornarsi con dati reali e di guidare l’operatore verso scelte di regolazione che tengano conto sia della sicurezza strutturale sia dell’efficienza operativa. La comprensione profonda delle variabili critiche e la loro interazione permettono inoltre di progettare strategie di intervento preventive che riducono significativamente la probabilità di incidenti o danni a edifici adiacenti.