I problemi di Multi-Criteria Decision Making (MCDM) nel settore delle costruzioni si caratterizzano non solo per la presenza di numerosi criteri in conflitto tra loro, ma anche per la partecipazione di molteplici stakeholder con conoscenze e interessi diversi. La capacità di bilanciare le opinioni di questi soggetti eterogenei rappresenta quindi un requisito fondamentale per le tecniche MCDM, che devono gestire sia la complessità delle valutazioni sia la pluralità delle prospettive.

Il processo MCDM mira a supportare i decisori nella valutazione e nella priorizzazione di alternative tramite metodi strutturati che raccolgono e organizzano informazioni in matrici decisionali ponderate. In questi metodi, ogni alternativa è valutata rispetto a più criteri, ciascuno con un peso che ne rappresenta l’importanza relativa. Tuttavia, i modelli tradizionali, come il Weighted Sum Model o il Weighted Product Model, sebbene semplici e intuitivi, presentano limiti nel trattare l’incertezza e le relazioni non lineari tra i criteri. In particolare, la semplice aggregazione pesata può mascherare carenze estreme in alcune alternative, che rischiano di causare insuccessi nelle fasi successive.

Per superare queste criticità, la tecnica TOPSIS (Technique for Order Preference by Similarity to Ideal Solution) si è affermata come una delle metodologie più efficaci e diffuse. Essa valuta le alternative misurandone la distanza relativa rispetto a una soluzione ideale positiva (PIS) e una soluzione ideale negativa (NIS), ordinandole poi in base alla loro vicinanza a quest’ultima. TOPSIS si distingue per la razionalità, la semplicità computazionale, la logica solida e la capacità di fornire una visualizzazione chiara dei risultati. Rispetto a metodi MCDM basati su approcci soggettivi, come l’Analytic Hierarchy Process o il Best–Worst Method, TOPSIS offre maggiore oggettività e adeguatezza grazie al suo impianto matematico.

L’analisi TOPSIS si svolge seguendo alcune fasi standard: normalizzazione della matrice di valutazione, assegnazione dei pesi, identificazione delle soluzioni ideali positiva e negativa, calcolo delle distanze da queste soluzioni per ogni alternativa, determinazione del coefficiente di prossimità e infine classificazione delle alternative.

Nel contesto specifico della selezione delle attrezzature per il tunneling, la complessità decisionale è accentuata dall’incertezza e dalla molteplicità di fattori tecnici, ambientali, economici e operativi che influenzano la scelta. La selezione si basa su un framework di criteri elaborato considerando variabili come adattabilità tecnica, impatto ambientale, sostenibilità economica e fattibilità operativa. Tali criteri vengono suddivisi in gruppi e dettagliati con indicatori specifici (ad esempio, adattabilità alla tecnologia di scavo, impatto sul sito, costi iniziali e operativi, affidabilità e sicurezza).

Spesso, la valutazione diretta di questi criteri si scontra con la difficoltà di ottenere misure oggettive, per cui si ricorre al contributo di esperti che esprimono giudizi linguistici (“scarso”, “buono”, “eccellente”), introducendo una componente di fuzziness dovuta a diverse interpretazioni soggettive. Per tradurre questi giudizi qualitativi in valori quantitativi, si utilizza il modello a nuvola (cloud model), che combina teoria della probabilità e teoria fuzzy. Questo modello permette una transizione fluida tra concetti qualitativi e quantitativi, catturando la vaghezza insita nelle valutazioni umane e mantenendo al contempo la struttura matematica necessaria per l’analisi.

L’integrazione del modello a nuvola con TOPSIS, unita alla simulazione Monte Carlo, consente di gestire l’incertezza e di affinare la selezione delle attrezzature di tunneling. La simulazione Monte Carlo, iterando le valutazioni sulla base di distribuzioni probabilistiche, permette di analizzare la sensibilità dei risultati rispetto ai fattori di input, evidenziando quali criteri o valutazioni influenzano maggiormente la decisione finale.

È importante comprendere che il valore aggiunto di questo approccio ibrido risiede nella capacità di coniugare il rigore quantitativo con la flessibilità qualitativa delle valutazioni umane. Nel contesto industriale delle costruzioni, dove le condizioni operative sono spesso complesse e variabili, un modello decisionale che incorpora incertezze, opinioni divergenti e criteri multipli risulta fondamentale per evitare scelte subottimali che possono comportare costi elevati, ritardi o problemi di sicurezza.

Inoltre, la trasparenza offerta dalla metodologia TOPSIS permette di giustificare le decisioni in modo chiaro agli stakeholder, facilitando il consenso e la collaborazione. La possibilità di visualizzare la distanza dalle soluzioni ideali aiuta a capire quali alternative sono più equilibrate e quali presentano criticità evidenti.

Un aspetto cruciale da considerare è che la selezione delle attrezzature deve essere continuamente aggiornata e rivista alla luce delle nuove informazioni, cambiamenti ambientali e variazioni normative. Le tecniche MCDM, e in particolare gli approcci basati su TOPSIS integrato con modelli fuzzy e simulazioni, offrono una struttura flessibile che può essere adattata nel tempo.

Infine, oltre ai metodi matematici e ai criteri tecnici, il processo decisionale deve riconoscere l’importanza del giudizio esperto, della comunicazione tra le parti coinvolte e della comprensione approfondita delle condizioni specifiche del progetto. La combinazione di tecnologia avanzata e valutazioni umane permette di affrontare la complessità intrinseca delle decisioni nel settore delle costruzioni con efficacia e consapevolezza.

Come si prevede l’assetto delle TBM utilizzando modelli di deep learning: correlazioni, addestramento e precisione delle previsioni multi-step

L’analisi delle correlazioni tra le caratteristiche di input delle TBM e i parametri di assetto evidenzia come le relazioni lineari dirette siano generalmente deboli. La più alta correlazione negativa riscontrata è tra la “deviazione del cuscinetto” e l’HDT (-0,63), mentre la più alta positiva si osserva tra lo “spostamento di articolazione D” e la VDA (0,56). Tutte le altre correlazioni tra feature e parametri di assetto sono inferiori a 0,5 in valore assoluto, indicando l’assenza di una relazione lineare evidente tra le caratteristiche operative della TBM e il suo assetto. Ciò suggerisce la necessità di approcci non lineari, come i modelli di deep learning, per cogliere le dinamiche complesse.

Il modello proposto è stato sviluppato in Python e addestrato utilizzando un processore AMD 3500X e una GPU NVIDIA GEFORCE GTX1650. I dati, riformattati in sequenze temporali di 256 campioni, sono stati suddivisi in training (80%) e test (20%) in modo sequenziale, replicando la prassi ingegneristica. Un quarto del training set è stato utilizzato per la validazione, a scopo di evitare fenomeni di overfitting o underfitting. L’addestramento, che ha previsto un learning rate di 2×10⁻⁵ per 600 epoche, ha mostrato come i modelli con un numero inferiore di passi previsionali convergano più rapidamente, mentre l’addestramento di sequenze più lunghe stabilizza la convergenza intorno all’epoca 400. Le metriche di errore MSE e MAE confermano un andamento coerente tra training e validazione, seppur la MAE mostri maggior variabilità.

Il modello C-GRU ha dimostrato un’elevata capacità di cogliere le relazioni non lineari tra le serie temporali delle caratteristiche TBM e i parametri di assetto, permettendo previsioni multi-step accurate. Ogni campione di input comprende 18 feature e 4 parametri di assetto rilevati negli ultimi 64 step temporali. La capacità predittiva è stata valutata tramite il coefficiente R², che evidenzia come le previsioni a 21 passi raggiungano valori superiori a 0,9 per la maggior parte dei parametri, con un picco di 0,9652 per alcune grandezze. Anche in presenza di elevata variabilità, come nella deviazione orizzontale della coda della TBM, il modello mantiene prestazioni soddisfacenti (R² circa 0,78).

L’analisi di sensibilità, condotta tramite il metodo RBD-FAST su 50.000 campioni normalizzati, ha permesso di identificare le feature più influenti sulla predizione dell’assetto, escludendo l’influenza storica degli stessi parametri di assetto per approfondire l’impatto diretto delle caratteristiche operative. La robustezza del modello rimane elevata fino a circa 21 passi previsionali; oltre tale soglia, la stabilità delle previsioni inizia a deteriorarsi, sebbene il modello continui a mantenere un valore significativo di accuratezza. Nel contesto ingegneristico, questo comporta la necessità di bilanciare la lunghezza della sequenza di output con i requisiti di precisione e la tolleranza alla variabilità.

È essenziale comprendere che la previsione multi-step non solo offre un valore maggiore rispetto alla singola previsione a passo singolo, grazie alla visibilità dinamica dell’evoluzione futura dell’assetto, ma richiede anche una gestione attenta delle metriche di robustezza, in assenza di uno standard unificato per la valutazione della stabilità. La scelta della lunghezza della sequenza di previsione deve essere quindi guidata da criteri pratici, tenendo conto dell’errore previsto e della capacità di adattamento in contesti operativi reali.

La comprensione profonda del comportamento delle TBM passa inevitabilmente per l’uso di modelli in grado di interpretare le complesse relazioni temporali e non lineari tra le variabili operative e le condizioni di assetto. La metodologia presentata, che integra analisi statistiche, modelli di rete ricorrente e tecniche di sensibilità, costituisce un approccio avanzato e applicabile nella pratica ingegneristica per migliorare la previsione e il controllo delle TBM durante l’esecuzione dei lavori.

Quali parametri operativi e costruttivi influenzano maggiormente i rischi nella costruzione di tunnel?

Nel contesto della progettazione e costruzione di tunnel, l’ottimizzazione delle variabili operative e strutturali gioca un ruolo cruciale nella mitigazione dei rischi. Un approccio recente si è basato sulla combinazione di reti neurali profonde (DNN) e algoritmi di ottimizzazione multi-obiettivo (GDO), con l’obiettivo di ridurre due uscite rappresentative dei principali rischi indotti dallo scavo. I 16 input analizzati comprendono caratteristiche del tunnel (x1, x2), geologiche (x3–x5), operative (x6–x11) e costruttive (x12–x15), e sono stati messi in relazione con le due variabili di output (Y1 e Y2), indicatrici di rischio.

L’algoritmo GDO è stato applicato al modello predittivo basato su DNN, ottenendo un’accurata previsione dei rischi: l’errore quadratico medio per Y1 è risultato pari a 0.737 e per Y2 a 0.002. Questo modello ha consentito l’ottimizzazione delle variabili in un intervallo di ±5%, portando a una riduzione di Y1 del 3.275% e di Y2 dello 0.506%. Una successiva ottimizzazione focalizzata esclusivamente su sei variabili operative ha condotto a un ulteriore abbattimento dei rischi, con una diminuzione del 2.146% per Y1 e dello 0.38% per Y2.

Tra tutte le variabili analizzate, tre si sono distinte per il loro impatto preponderante: la velocità di rotazione della testa di scavo (x9), il volume di iniezione del materiale di consolidamento (x11) e la distanza orizzontale dalla struttura adiacente (x12). L’analisi differenziale tra i valori originali e quelli ottimizzati di queste variabili ha evidenziato il margine operativo entro cui è possibile intervenire senza compromettere le prestazioni della macchina, ma aumentando in modo significativo la sicurezza dell’intervento.

Le variazioni percentuali delle variabili x9, x11 e x12 mostrano una distribuzione coerente con la strategia di mitigazione adottata. In particolare, l’ottimizzazione di x11 ha mostrato una tendenza centrale ben definita, mentre x9 e x12 hanno evidenziato una maggiore dispersione, segno della loro flessibilità operativa e potenziale di intervento più ampio.

L’influenza delle caratteristiche operative e costruttive è risultata superiore rispetto a quella delle variabili geologiche e progettuali statiche. Questo dato non solo suggerisce una priorità d’intervento nelle fasi operative, ma anche la necessità di una maggiore integrazione tra analisi predittiva e controllo attivo in tempo reale delle condizioni di scavo.

Il metodo DNN-GDO ha inoltre fornito tre soluzioni ottimali, offrendo agli ingegneri una guida concreta nell’adozione di strategie operative orientate alla sicurezza. Tali soluzioni non devono essere interpretate come prescrizioni rigide, ma come configurazioni ideali entro cui è possibile navigare per mantenere l’equilibrio tra produttività e gestione del rischio.

Ciò che emerge con forza è la possibilità di leggere i meccanismi di mitigazione attraverso metriche di influenza delle variabili. L’analisi non si limita alla mera predizione del rischio, ma apre la strada alla comprensione strutturale delle dinamiche causali, fornendo così una base razionale per l’azione.

È fondamentale considerare che la mitigazione dei rischi non può essere affidata esclusivamente a strumenti computazionali. L’efficacia di modelli predittivi complessi, come quelli basati su reti neurali profonde, dipende in larga misura dalla qualità dei dati raccolti in cantiere, dalla calibrazione dei sensori, dall’interpretazione ingegneristica dei risultati e dalla capacità del team operativo di implementare correttamente le azioni correttive.

Inoltre, l’interazione tra le variabili, spesso non lineare, richiede un’attenzione continua nella valutazione dei compromessi. Ad esempio, una riduzione della velocità di rotazione può migliorare la stabilità ma compromettere la produttività; un aumento del volume di iniezione può rafforzare il terreno ma generare costi addizionali. Solo attraverso un’integrazione olistica di dati, esperienza, algoritmi e sensibilità progettuale è possibile raggiungere un vero equilibrio tra rischio e performance.