Il modello OHMM (Online Hidden Markov Model) è concepito per correlare le osservazioni raccolte direttamente in sito con stati nascosti di rischio geologico. La struttura del modello prevede uno spazio di stati nascosti composto da quattro livelli di rischio, che rappresentano diverse condizioni geologiche del fronte di scavo: da basso a alto rischio. Questo spazio di stati è denotato da S = {s1, s2, s3, s4}. Le osservazioni, invece, appartengono a uno spazio di cinque eventi osservabili O = {o1, o2, o3, o4, o5}, che descrivono i componenti del terreno rilevati ad ogni anello scavato dal tunnel boring machine (TBM).
Matematicamente, il modello è definito da una matrice di probabilità di transizione A, che determina la probabilità di passaggio da uno stato nascosto ad un altro, e da una matrice di emissione B, che indica la probabilità di osservare un certo evento dato uno stato nascosto. Inoltre, il modello inizia con una distribuzione iniziale π, generalmente uniforme, poiché i veri parametri non sono noti a priori. L’inizializzazione delle probabilità di emissione avviene tramite una matrice generata casualmente con un seme specifico per garantire la coerenza.
Il processo di apprendimento del modello OHMM consiste nell’aggiornamento iterativo dei parametri (A e B), affinché la rappresentazione del sistema si avvicini progressivamente ai dati osservati. Le statistiche sufficienti q(0) e φ̂h ijk(0) sono inizializzate rispettivamente come la distribuzione iniziale π e come matrici di zeri, e sono utilizzate per raccogliere informazioni dalle osservazioni prima di aggiornare i parametri. Un iperparametro ts regola la finestra temporale entro cui il modello resta statico, per poi aggiornarsi a partire dal campione 250, garantendo una stabilità iniziale necessaria per l’apprendimento.
L’applicazione del modello OHMM per la previsione del rischio geologico lungo il percorso del tunnel mostra come il modello possa essere aggiornato in tempo reale sulla base delle osservazioni delle componenti del terreno ad ogni anello di scavo. In particolare, esempi con sequenze di osservazione complete hanno permesso di monitorare la convergenza dei parametri e la probabilità degli stati nascosti, evidenziando l’adattabilità del modello alle variazioni spaziali del rischio geologico.
Il confronto con altri metodi di apprendimento automatico quali reti neurali (NN), macchine a vettori di supporto (SVM), Long Short-Term Memory (LSTM) e modelli nascosti di Markov tradizionali (HMM) ha dimostrato la superiorità dell’OHMM in termini di accuratezza predittiva e capacità di lavorare online, cioè aggiornando il modello ad ogni nuova osservazione senza necessità di rielaborare completamente i dati passati. Questo è particolarmente rilevante in contesti di rischio geologico, dove la disponibilità di dati può essere limitata e il rischio varia continuamente.
Nei test eseguiti con sequenze di 300 e 600 anelli osservati, l’OHMM ha mantenuto elevate prestazioni, con una sensibilità e specificità categoriale che si mantengono molto alte anche in condizioni di dati limitati. La matrice di emissione, variabile nello spazio, permette di adattare le probabilità di osservazione alle caratteristiche locali del terreno, mentre la matrice di transizione cattura la dinamica di cambiamento degli stati di rischio da una posizione all’altra.
L’inizializzazione dei parametri riveste un ruolo cruciale nella velocità di convergenza del modello, poiché una inizializzazione più vicina alla realtà consente di ridurre i tempi necessari all’apprendimento. Le oscillazioni iniziali nelle iterazioni sono attribuibili alla fase di stabilizzazione durante la quale il modello accumula informazioni sufficienti prima di modificare i parametri.
È importante comprendere che il valore aggiunto dell’OHMM non risiede solo nell’accuratezza, ma soprattutto nella sua capacità di aggiornamento online, che consente di adattarsi rapidamente a nuove condizioni osservate, caratteristica fondamentale nelle previsioni geologiche dove le condizioni del terreno possono cambiare in modo imprevedibile e rapido. Inoltre, il modello è in grado di rappresentare efficacemente le transizioni di stato e le emissioni di osservazioni in modo variabile nello spazio, garantendo una previsione più realistica rispetto a modelli statici o a quelli che considerano parametri costanti.
La capacità di gestire in modo dinamico l’incertezza e la variabilità delle condizioni geologiche è cruciale per supportare decisioni tempestive durante la realizzazione di tunnel, riducendo i rischi di incidenti o danni strutturali. L’integrazione di statistiche sufficienti e la regolazione accurata degli iperparametri permettono un bilanciamento efficace tra stabilità e adattabilità del modello, assicurando robustezza nella previsione.
Qual è la robustezza delle classifiche nel processo decisionale sotto incertezza nei progetti di tunneling?
Nel contesto della selezione delle tecnologie di scavo nei progetti di tunneling, l’incertezza insita nelle valutazioni qualitative rappresenta un elemento critico da considerare nella costruzione di una gerarchia affidabile delle alternative. L’approccio utilizzato si basa su simulazioni iterative per valutare le variazioni nei risultati ottenuti, offrendo una panoramica più realistica rispetto alla semplice analisi deterministica.
Nel caso analizzato, sono state effettuate 1000 iterazioni con il metodo TOPSIS modificato per includere l’incertezza, osservando le distanze delle alternative rispetto alla Soluzione Ideale Positiva (PIS) e alla Soluzione Ideale Negativa (NIS). I risultati mostrano che l’alternativa A4, che corrisponde alla tecnologia Shield TBM, si distingue come opzione ottimale, ottenendo un coefficiente di prossimità (CC) medio pari a 0.684 con una deviazione standard di 0.0206. Questo valore supera leggermente quello dell’alternativa A3, che si posiziona al secondo posto con un CC di 0.656 e una deviazione standard di 0.024. Il test t a campioni appaiati conferma che la differenza tra A4 e A3 è statisticamente significativa al livello del 5%, con un valore di t pari a 35.37 e p = 0.
Tuttavia, nonostante A4 mostri un vantaggio medio, l’analisi delle iterazioni rivela una sovrapposizione nelle prestazioni tra alcune alternative, in particolare tra A3 e A4, e anche tra A1 e A5. In ben 137 iterazioni su 1000, A3 emerge come prima classificata. Questo riflette la natura stocastica del processo decisionale sotto incertezza e la necessità di considerare la stabilità dei risultati oltre alla sola media.
L’analisi di sensibilità fornisce ulteriori spunti. I criteri C5 (accettabilità delle condizioni del sottosuolo rispetto alla tecnologia di scavo) e C14 (sostenibilità della tecnologia rispetto alla sicurezza in costruzione) sono identificati come i più influenti positivamente, con coefficienti di correlazione rispettivamente pari a 0.371 e 0.232 rispetto al CC di A4. Al contrario, il criterio C7 (impatto della tecnologia di scavo sul disturbo alla superficie) mostra una sensibilità negativa marcata, pari a -0.501, riflettendo l’effetto deterrente di un alto impatto superficiale sulle preferenze.
Le prestazioni superiori di A4 non derivano solo dai valori medi dei criteri, ma anche dalla sua vicinanza costante alla PIS e distanza dalla NIS, rafforzando la sua posizione nella classifica complessiva. In almeno metà dei criteri, A4 mostra i valori migliori tra tutte le alternative, e in quasi tutti gli altri (esclusi C7, C8 e C10), si colloca ben lontano dalle prestazioni peggiori.
L’inclusione di fattori di incertezza α ∈ {0.8, 0.9, 1.1, 1.2} nei modelli cloud impiegati ha permesso di testare la sensibilità del processo decisionale rispetto a variazioni nei livelli di fiducia delle valutazioni. I risultati evidenziano che, con fattori di incertezza più elevati, la distribuzione delle classifiche delle alternative si amplia, rendendo più probabile l’emergere di soluzioni alternative come ottimali. Ciò implica che il metodo proposto non solo riflette fedelmente l’ambiguità presente nelle valutazioni, ma consente anche di esplorare la gamma di possibili esiti decisionali in funzione della qualità e stabilità delle informazioni disponibili.
Per una corretta applicazione di questo approccio in contesti reali, è fondamentale che i decisori considerino non solo il valore medio del coefficiente di prossimità, ma anche la sua deviazione standard, la distribuzione delle classifiche nelle simulazioni e la sensibilità dei criteri chiave. L’analisi simultanea di questi aspetti consente di individuare scelte non solo ottimali, ma anche robuste rispetto all’incertezza intrinseca al contesto valutativo.
In particolare, il ruolo dei criteri legati alla sicurezza e alle condizioni geotecniche si rivela cruciale, specialmente in ambienti urbani densamente popolati, dove il rischio percepito e l’impatto ambientale giocano un ruolo determinante nella selezione della tecnologia di scavo. L’attenzione posta alla variazione dei valori nei criteri di costo o disturbo sottolinea la necessità di un bilanciamento tra performance tecnica, impatto sociale ed economicità.
La modellazione dell’incertezza, quindi, non rappresenta un semplice aggiustamento metodologico, ma una componente essenziale di un processo decisionale consapevole e responsabile. Il confronto tra scenari possibili, anziché puntare ad un’unica risposta definitiva, permette di delineare margini di rischio accettabili e di rafforzare la trasparenza nei confronti degli stakeholder coinvolti.
Il Dilemma di una Giovane Heiress: Il Gioco della Società e le Scelte di Vita
Come Funzionano le Pipeline di Ingestione in Elasticsearch?
Come affrontare i guasti e le riparazioni quotidiane in casa: una guida pratica
Come la Struttura Drammatica Modella la Narrazione Politica: Trump, Brexit e il Ruolo della Fine nella Storia
Come Prenotare una Camera: Guida Completa per il Viaggiatore
Qual è la vera difficoltà di trovare qualcuno che non conosci?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский