Il modello sviluppato per il rilevamento in tempo reale della pressione idraulica rappresenta un significativo passo avanti nell’ottimizzazione delle operazioni delle macchine TBM (Tunnel Boring Machines). L’applicazione dell’algoritmo di ottimizzazione archimedea online (AOA) consente un’efficace ottimizzazione dinamica della pressione idraulica, migliorando così la stabilità operativa attraverso la riduzione delle concentrazioni di stress nei cilindri idraulici. Tale approccio è stato validato sperimentalmente tramite un banco di prova SESA TBM, dimostrando la sua efficacia e aprendo la strada a un’evoluzione teorica e pratica della tecnologia di scavo sincronizzato e assemblaggio segmentale.

L’implementazione di sistemi di monitoraggio e controllo avanzati nelle TBM richiede una profonda integrazione tra sensori IoT e modelli digitali in tempo reale, elementi chiave per la realizzazione di piattaforme digital twin. Queste piattaforme, utilizzando tecniche di deep learning come le reti convoluzionali grafiche (GCN) e le reti a memoria a lungo termine (LSTM), permettono non solo la stima della performance, ma anche l’ottimizzazione multi-obiettivo online (MOO), adattandosi alle condizioni operative variabili del cantiere. Un caso applicativo in Singapore ha confermato l’utilità di tale sistema per incrementare l’efficienza e la sicurezza nelle operazioni di scavo.

Parallelamente, l’approccio sistematico alla gestione dei rischi nelle operazioni TBM, che include modelli dinamici come le reti bayesiane discrete nel tempo (DTBN), consente una valutazione predittiva e diagnostica accurata dei guasti, come quelli del tagliente dello scudo. Ciò supporta decisioni sia in avanti (feedforward) che a ritroso (feedback), garantendo un controllo stabile e affidabile nel tempo. L’adozione di metodi multi-obiettivo, quali gli algoritmi genetici per l’ottimizzazione dell’allineamento della linea di tunnel, illustra come la ricerca di un equilibrio tra investimenti, comfort e tempi di avanzamento sia cruciale per la pianificazione strategica.

L’integrazione di tecnologie di modellazione informativa (BIM) con teorie dell’evidenza, come quella di Dempster-Shafer, arricchisce ulteriormente la capacità di percepire, visualizzare e gestire i rischi in maniera dinamica, attraverso piattaforme di visualizzazione interattive come Dynamo. Questi sistemi aumentano la prontezza e l’efficacia degli interventi di mitigazione, migliorando significativamente la sicurezza e l’efficienza complessiva del progetto.

Inoltre, l’adozione di reti neurali profonde (DNN) per la previsione e il controllo dei rischi di scavo, integrata con tecniche di ottimizzazione basate su discesa del gradiente, consente di affrontare in modo intelligente e proattivo le interazioni complesse tra tunnel, terreno e strutture circostanti. Tali approcci rappresentano un progresso sostanziale nella gestione integrata della sicurezza e della stabilità strutturale durante le operazioni di scavo, come dimostrato dallo studio di caso nella metropolitana di Wuhan.

L’interconnessione di questi diversi livelli tecnologici e metodologici crea un ecosistema digitale intelligente per la costruzione di tunnel che va oltre la semplice automazione, spostandosi verso una costruzione sostenibile, adattativa e predittiva. L’intelligenza artificiale e l’Internet delle cose, unite a modelli matematici avanzati e a una gestione integrata dei dati, stanno trasformando il settore, offrendo strumenti decisionali più raffinati e garantendo una migliore allocazione delle risorse e mitigazione dei rischi.

È fondamentale comprendere che il successo di questi sistemi dipende non solo dall’adozione di tecnologie avanzate, ma dalla loro integrazione coerente in un quadro di gestione olistica. La sinergia tra rilevamento in tempo reale, analisi predittiva, ottimizzazione multi-obiettivo e visualizzazione dinamica dei rischi crea una piattaforma robusta per il miglioramento continuo delle performance operative e della sicurezza. La trasformazione digitale nella costruzione di tunnel deve essere vista come un processo evolutivo, che richiede un costante aggiornamento delle metodologie, una profonda comprensione del contesto geotecnico e operativo, e un’attenzione particolare all’interazione tra macchine, ambiente e operatori.

La capacità di anticipare guasti e di adattare le strategie operative in tempo reale non solo riduce i costi e i tempi di costruzione, ma contribuisce a minimizzare l’impatto ambientale e a garantire la sostenibilità a lungo termine delle infrastrutture. L’adozione di modelli digitali e di intelligenza artificiale è quindi una componente essenziale per affrontare le sfide future del settore e per rispondere efficacemente alla crescente domanda di infrastrutture resilienti e intelligenti.

Come si può rilevare efficacemente la condizione geologica durante lo scavo di una galleria?

La rilevazione accurata delle condizioni geologiche è fondamentale per il successo della costruzione di una galleria. Un approccio innovativo consiste nell’identificare direttamente tali condizioni attraverso l’analisi delle immagini raccolte dal nastro trasportatore. Questo metodo si articola in tre fasi principali: acquisizione e pre-elaborazione dei dati, sviluppo di un modello di deep learning ensemble con fusione informativa basata su Dempster-Shafer Theory (DST), e infine valutazione e interpretazione del modello tramite SHAP (SHapley Additive exPlanations).

Durante lo scavo della galleria, il terreno rimosso viene trasportato da un nastro trasportatore azionato da una coclea, con un vagone posizionato dietro la TBM (Tunnel Boring Machine) che raccoglie i detriti per portarli in superficie. Per monitorare in tempo reale lo stato dello scavo e consentire aggiustamenti tempestivi, si installa normalmente una videocamera CCTV che registra le immagini del terreno sul nastro. Queste immagini rappresentano fedelmente le condizioni del terreno scavato, ma devono essere acquisite in modo controllato per evitare disturbi dovuti a fattori ambientali o umani. Ciò implica una posizione fissa della telecamera, un’illuminazione sufficiente e l’assenza di ostruzioni che possano compromettere la qualità delle riprese.

Le immagini raccolte però contengono spesso rumore e oggetti indesiderati, come parti scoperte del nastro o elementi ai margini della foto, che possono interferire con il processo di classificazione. Inoltre, la riduzione delle immagini a matrici numeriche di dimensioni standard (224x224 pixel) e la decomposizione in canali RGB possono comportare perdita di informazioni importanti, con conseguente calo di accuratezza del modello. Per questo motivo, è indispensabile un’adeguata pre-elaborazione dei dati. Nel metodo adottato si applica una tecnica di ritaglio casuale, eliminando i bordi dell’immagine più soggetti al rumore e selezionando aree centrali di 400x400 pixel che vengono successivamente ridimensionate. Questa procedura aiuta a mantenere l’informazione più rilevante, compensando anche le variazioni di scala delle immagini catturate da dispositivi differenti.

La formazione del modello avviene suddividendo il dataset in modo casuale, ma preservando la coerenza tra le immagini ritagliate provenienti dallo stesso originale, per evitare bias e migliorare la generalizzazione. Si utilizza MobileNet V2 come modello base dell’ensemble di deep learning, un’architettura particolarmente efficiente grazie alle sue innovazioni: convoluzioni depthwise separabili, linear bottleneck e residui invertiti. La convoluzione depthwise separabile consiste in due fasi distinte, che operano sui singoli canali dell’immagine e successivamente combinano le informazioni, riducendo drasticamente i costi computazionali rispetto alla convoluzione tradizionale che coinvolge tutti i canali simultaneamente.

Il concetto di linear bottleneck e residui invertiti si basa sull’idea di ridurre la perdita di informazione durante la trasformazione dei dati attraverso le funzioni di attivazione, soprattutto per tensori di dimensioni ridotte. Si espande inizialmente la dimensione del tensore con una convoluzione pointwise seguita da attivazione ReLU6, poi si applica una convoluzione depthwise e infine una proiezione lineare per ridurre la dimensione del tensore senza perdita di informazioni non lineari. Questo processo garantisce un flusso informativo più ricco e una migliore rappresentazione delle caratteristiche geologiche nelle immagini.

L’uso della fusione informativa DST all’interno dell’ensemble permette di combinare efficacemente le predizioni di modelli base diversi, migliorando la robustezza e l’affidabilità delle classificazioni. Inoltre, l’interpretazione del modello mediante SHAP offre trasparenza sulle decisioni del sistema, evidenziando quali parti dell’immagine influenzano maggiormente la classificazione, elemento cruciale per validare i risultati e facilitarne l’accettazione da parte degli ingegneri.

Oltre alla descrizione tecnica e procedurale, è essenziale comprendere che l’affidabilità di questi sistemi dipende fortemente dalla qualità e dalla coerenza delle immagini raccolte. L’infrastruttura di acquisizione deve essere progettata per minimizzare variabilità e disturbi, poiché errori o rumori persistenti possono compromettere la performance del modello. È importante inoltre considerare che le condizioni geologiche possono variare rapidamente e localmente, perciò il modello deve essere continuamente aggiornato e validato con nuovi dati per mantenere elevata la precisione predittiva.

Questa tecnologia rappresenta un significativo passo avanti verso l’automazione e l’efficienza nel monitoraggio geologico durante lo scavo, ma deve essere integrata con il giudizio esperto e le misurazioni tradizionali per garantire la sicurezza e la qualità dell’opera. Il progresso nei modelli di deep learning e nell’acquisizione dati permette di anticipar

Come si valuta e seleziona il metodo di scavo ottimale in condizioni complesse?

Il processo decisionale per la selezione del metodo di scavo ottimale si basa su una metodologia quantitativa e rigorosa, in cui i coefficienti di vicinanza (closeness coefficients) rappresentano un elemento fondamentale. Questi coefficienti, indicati con CCihCC_i^h per l’alternativa ii nella hh-esima iterazione, vengono combinati nella formula h=1HCCih=CCif\sum_{h=1}^H CC_i^h = CC_i^f, con HH numero totale di iterazioni. La graduatoria finale delle alternative si basa su questi valori CCifCC_i^f, dove l’alternativa con il coefficiente più alto è considerata la soluzione ottimale.

Dopo la determinazione di questa soluzione ottimale attraverso il metodo TOPSIS, si procede a un’analisi di sensibilità. Questa analisi ha lo scopo principale di valutare come piccole variazioni nei dati di input influiscano sui risultati finali. Un aspetto essenziale di questa valutazione è la misurazione del contributo dei diversi criteri nella decisione, così da assegnare pesi più accurati e individuare i fattori critici. In questo contesto, la sensibilità globale di ciascun criterio rispetto al coefficiente di vicinanza dell’alternativa ottimale viene calcolata utilizzando il coefficiente di correlazione di rango di Spearman, formalizzato nella formula:

GSA(Cj)=h=1H(RxhijRxij)(RCCihRCCi)h=1H(RxhijRxij)2h=1H(RCCihRCCi)2GSA(C_j) = \frac{\sum_{h=1}^H (R_{x_{hij}} - \overline{R_{x_{ij}}})(R_{CC_i^h} - \overline{R_{CC_i}})}{\sqrt{\sum_{h=1}^H (R_{x_{hij}} - \overline{R_{x_{ij}}})^2 \sum_{h=1}^H (R_{CC_i^h} - \overline{R_{CC_i}})^2}}