Dato un dominio di discorso U, esiste un concetto qualitativo T corrispondente a U. Un'istanza numerica x ∈ U, chiamata anche “goccia di nube”, rappresenta un’esemplificazione quantitativa di T. Il grado di appartenenza di x a T è espresso come y = (Ex, En, He), la forma standard del modello a nube. Ex (Aspettativa) rappresenta il valore atteso dell’istanza numerica del concetto qualitativo T. En (Entropia) misura l’incertezza del modello a nube, dovuta alla casualità e alla vaghezza insite nel concetto qualitativo. He (Iperentropia) quantifica a sua volta l’incertezza di En, rappresentando un livello di incertezza secondario, spesso trascurato dalle misure convenzionali.

Per descrivere fenomeni naturali e linguistici, il modello a nube sfrutta la distribuzione normale e l’insieme fuzzy gaussiano, dando vita al modello a nube normale. Questo modello si può immaginare come un insieme di funzioni di appartenenza gaussiane, formalizzate dall’equazione y = exp(−(x−Ex)² / (2 En′²)), dove x è un’istanza casuale del concetto linguistico soggettivo, Ex è la sua aspettativa e En′ è un campione casuale generato dalla distribuzione normale N(En, He²).

Il modello a nube trasferisce i concetti qualitativi in valori quantitativi tramite un generatore a nube normale in avanti, che produce istanze casuali x secondo la distribuzione normale parametrizzata da Ex, En e He. Tale processo permette di modellare in modo raffinato la vaghezza e l’incertezza proprie delle valutazioni qualitative, traducendo l’opinione linguistica in un insieme di numeri probabilistici.

Nel contesto decisionale, si utilizza spesso una scala valutativa a 5 livelli (molto basso, basso, medio, alto, molto alto), associando a ciascun livello un modello a nube caratterizzato da parametri (Ex, En, He) definiti tramite il principio del rapporto aureo, per garantire un’adeguata distribuzione degli intervalli di valutazione tra i valori minimi e massimi standardizzati. I modelli a nube agli estremi della scala sono trattati in modo particolare per assicurare una corretta rappresentazione all’interno dell’intervallo [0,1], definendo nuvole “mezze alte” o “mezze basse” per l’inizio e la fine della scala.

In scenari di valutazione multipla, con m alternative e n criteri, le opinioni di l esperti si esprimono attraverso matrici linguistiche, che vengono convertite in matrici di modelli a nube. Ogni elemento della matrice rappresenta la valutazione dell’esperto k sul criterio j dell’alternativa i e viene associato ai parametri (Ex, En, He) corrispondenti. L’insieme di queste matrici permette di tradurre le valutazioni qualitative in dati quantitativi, sui quali applicare metodi di analisi multicriterio.

Un esempio applicativo è l’integrazione del modello a nube con il metodo TOPSIS migliorato, che affronta le criticità dell’incertezza nella valutazione. Il modello a nube genera campioni di valutazioni a partire dai parametri (Ex, En, He), formando matrici numeriche “crisp” idonee all’analisi TOPSIS. Si definiscono quindi distanze dagli ideali positivi e negativi per ciascuna alternativa, considerando la varianza e il peso degli esperti, e si ottiene una classifica finale più robusta e realistica rispetto ai metodi tradizionali.

La ponderazione degli esperti tiene conto delle differenze professionali, come titolo e esperienza, attribuendo pesi tramite un sistema di punteggio che riflette l’importanza relativa delle opinioni nel processo decisionale. L’aggregazione ponderata delle matrici di valutazione garantisce che la decisione finale rifletta un consenso calibrato e informato.

Oltre alla comprensione del modello a nube e della sua applicazione, è cruciale considerare l’effetto della standardizzazione delle scale valutative: la definizione degli estremi e l’adozione di relazioni proporzionali tra parametri (come il rapporto aureo) influenzano profondamente la precisione e l’affidabilità della traduzione qualitativo-quantitativa. Allo stesso modo, la corretta interpretazione di Entropia e Iperentropia è fondamentale, poiché un’errata valutazione dell’incertezza può compromettere la validità complessiva del modello. Infine, l’integrazione con metodi di aggregazione e decisione multicriterio richiede una calibratura attenta per evitare distorsioni e sovrastime della certezza nei risultati finali.

Come individuare i guasti nei sistemi TBM: Meccanismi e analisi dinamica

Il sistema di cuscinetti e altri componenti critici sono essenziali per garantire l'affidabilità delle macchine per la perforazione dei tunnel (TBM). Tuttavia, questi componenti sono soggetti a un'usura severa durante le operazioni di perforazione prolungate. I guasti più comuni in questo sistema sono l'usura dei cuscinetti (BW) e l'usura delle viti (SW), che possono derivare da diversi fattori, tra cui guasti nel sistema di carico di spinta (X8), nei materiali di sigillatura (X9) e nel meccanismo delle viti (X10). Il riconoscimento precoce di questi guasti è fondamentale per garantire la sicurezza e l'efficienza del processo di perforazione.

Un altro aspetto cruciale per la diagnosi dei guasti nel sistema TBM è la comprensione dei meccanismi di guasto, che si riferiscono a difetti fisici o condizioni che conducono al fallimento del sistema. Identificare un meccanismo di guasto implica raccogliere informazioni sulle cause e le conseguenze di guasti nei componenti del sistema, individuando fattori di rischio che potrebbero influenzare le prestazioni del progetto. Una volta che il meccanismo di guasto è stato identificato, si può concentrarsi sull'individuazione delle cause radice e sull'attuazione di misure preventive per evitare il ripetersi del guasto.

L'approccio di analisi dei guasti nel TBM è evoluto significativamente grazie ai progressi nel settore delle costruzioni sotterranee, che hanno portato alla creazione di strumenti come il DFT (Dynamic Fault Tree). Il DFT è uno strumento di valutazione dell'affidabilità che modella le dipendenze sequenziali e le interazioni tra i componenti del sistema, mantenendo la robustezza della rappresentazione dei tradizionali alberi di guasto (SFT). L'integrazione dei gate dinamici nel modello DFT, come il gate AND prioritario (PAND), il gate di sequenza (SEQ), il gate di standby (SPARE) e il gate di dipendenza funzionale (FDEP), permette di modellare le dipendenze temporali e le interazioni tra i vari componenti del sistema.

Per applicare correttamente il DFT, è necessario considerare che il sistema TBM opera in un contesto dinamico, con la probabilità di guasto che varia nel tempo. In questo scenario, i gate dinamici del DFT sono particolarmente utili per prevedere e diagnosticare i guasti, poiché consentono di simulare le interazioni complesse tra i componenti, prendendo in considerazione le dipendenze temporali. Il DFT integra le logiche di guasto statiche (come i gate AND/OR) con i gate dinamici, creando diagrammi di guasto che analizzano i guasti a livello di componente e i modi operativi del sistema.

La sfida principale nell'analisi dei guasti dinamici è rappresentata dalla gestione delle probabilità condizionali e dalla creazione di tabelle di probabilità multidimensionali. A tal fine, sono stati sviluppati modelli formali che consentono di trattare le distribuzioni di probabilità associate ai gate dinamici. L'uso del Bayesian Network (DTBN) per mappare i gate dinamici del DFT è una soluzione efficace, poiché permette di evitare la creazione di tabelle di probabilità eccessivamente complesse. L'analisi del gate PAND, per esempio, consente di simulare guasti sequenziali tra componenti dipendenti, con una probabilità di guasto che dipende dall'intervallo temporale e dalle condizioni dei componenti coinvolti.

Infine, è fondamentale tenere conto delle caratteristiche dinamiche del sistema nel momento in cui si costruiscono modelli predittivi di guasto. I modelli probabilistici devono essere adattati per riflettere la variabilità temporale e le interdipendenze tra i componenti. L'analisi di guasto attraverso il DFT e il DTBN consente di ottenere una valutazione precisa dell'affidabilità del sistema TBM e di identificare le aree critiche che richiedono interventi di manutenzione preventiva.

Il riconoscimento tempestivo dei guasti e l'analisi predittiva delle condizioni del sistema sono essenziali per migliorare la durata e l'efficienza delle operazioni di tunneling

Quando è necessario intervenire sulla manutenzione in ambienti sotterranei limitati?

Nel contesto altamente vincolato dei lavori sotterranei, dove lo spazio operativo è ristretto e ogni interruzione ha un impatto significativo sulla produttività complessiva, la pianificazione delle riparazioni — anche quelle minori — richiede una valutazione estremamente cauta. La difficoltà principale risiede nell'incertezza del momento ottimale per l’intervento: un errore di tempismo può tradursi in inefficienze gravi o in costi esorbitanti. Per affrontare questa problematica, è stato condotto uno studio basato su un’indagine somministrata a quattordici esperti nel campo della costruzione del DCS (Decision Control System), di cui nove con almeno cinque anni di esperienza diretta e cinque accademici specializzati.

Agli esperti è stato chiesto di definire i livelli di inaffidabilità del sistema a partire dai quali ritengono necessario effettuare, rispettivamente, una riparazione minore e una normale. La soglia di inaffidabilità proposta spaziava da 0 a 0.50. L’80% degli intervistati ha concordato che un intervento minore è giustificato al superamento di un livello di inaffidabilità di 0.10, mentre una riparazione ordinaria diventa inevitabile oltre la soglia di 0.20. Da tali risultati emergono due indicatori temporali fondamentali: T10 e T20, che identificano rispettivamente il momento in cui si rende necessario un intervento minore e quello in cui diventa obbligatorio un intervento normale.

Per la determinazione esatta di T10 e T20 viene adottato il metodo dell'interpolazione lineare, applicato alla curva di inaffidabilità del sistema. I valori risultanti, specifici per ciascun nodo di guasto (TF, CDF, CTF, BSF), sono rappresentati in una tabella dettagliata. Si osserva che il nodo TF presenta i valori più bassi sia per T10 che per T20, indicando una vulnerabilità intrinseca maggiore rispetto ai suoi sottocomponenti. Questo è attribuito al fatto che il guasto di TF è causato dal fallimento di almeno uno dei suoi componenti, attraverso un meccanismo a porta logica OR.

Per ridurre la probabilità di guasto di TF, è necessario intervenire principalmente sui suoi componenti più deboli. Particolare attenzione deve essere riservata al nodo CTF, che mostra valori T10 e T20 inferiori rispetto agli altri due componenti. In termini pratici, questo suggerisce che le riparazioni degli strumenti di taglio (shield cutter tools) della TBM dovrebbero essere programmate intorno ai 981 anelli per le riparazioni minori e ai 1541 anelli per quelle ordinarie. Il CTF si rivela infatti il componente con la probabilità più alta di guasto precoce se non sottoposto a manutenzione adeguata.

Il nodo CTF funge quindi da riferimento chiave per l’analisi retrospettiva dei guasti e per l'identificazione delle cause radice più critiche. Questo approccio viene ulteriormente raffinato attraverso il controllo e l’analisi del feedback, basati sull’inferenza bayesiana. La propagazione dell’informazione osservata permette di aggiornare dinamicamente la distribuzione di probabilità a posteriori delle cause di guasto, fornendo un sistema adattivo in grado di reagire all’evoluzione reale del sistema. Le cause con probabilità posteriori elevate meritano priorità assoluta nell'analisi.

La curva di inaffidabilità del CTF, segmentata in base agli indicatori T10, T20 e MTTF, consente di distinguere quattro fasi temporali nella sua performance: Sicura (δS) nell’intervallo [0, T10), Leggermente Pericolosa (δSD) tra [T10, T20), Pericolosa (δD) tra [T20, MTTF), ed Estremamente Pericolosa (δED) da MTTF in avanti. L’osservazione di uno stato specifico di CTF consente, tramite un’equazione analitica, il calcolo della distribuzione a posteriori delle quattro cause radice: X5, X6, X7 e X8.

L’analisi dei quattro scenari mostra una notevole variabilità nelle distribuzioni posteriori in funzione dello stato osservato. Quando il CTF è in stato sicuro o leggermente pericoloso (Scenari 1 e 2), il nodo X7 è identificato come la causa più sfavorevole, dato il suo MTTF più basso (503 e 1228 anelli rispettivamente). Quando invece il sistema entra in una fase più critica (Scenari 3 e 4), la causa predominante diventa X6, con MTTF di 1792 e 2618 anelli. Tale dinamica dimostra che la causa radice più critica non è fissa, ma varia in funzione dell'evoluzione dello stato del sistema. L’interpretazione deve quindi essere costantemente aggiornata durante l’avanzamento dello scavo.

Il valore pratico del modello proposto risiede nella sua capacità di convertire distribuzioni probabilistiche complesse in indicatori chiari come T10, T20 e MTTF, che permettono un confronto quantitativo diretto e una pianificazione della manutenzione più efficien

Come si ottimizza l’allineamento di una linea tunnel per bilanciare investimento, efficienza e comfort?

L’allineamento di una linea tunnel rappresenta una sfida complessa che va oltre la semplice scelta del raggio degli archi, coinvolgendo molteplici variabili interconnesse che influenzano reciprocamente costi, funzionalità e comfort. La progettazione deve tenere conto delle caratteristiche ambientali del contesto urbano attraversato, come ad esempio vincoli legati alla profondità di scavo in determinate aree, che a loro volta incidono direttamente sull’investimento richiesto. Questo è particolarmente rilevante in città ad alta densità abitativa, dove il costo delle opere può diventare proibitivo e rappresentare un rischio economico significativo per i committenti.

L’efficienza della linea, un altro obiettivo fondamentale, è legata soprattutto alla lunghezza del tunnel, poiché nei sistemi di trasporto maturi la velocità media e la disponibilità dei treni tendono a essere valori quasi costanti. Pertanto, ottimizzare la lunghezza della linea diventa cruciale per ridurre gli intervalli tra i convogli (headway), una misura chiave che incide sul flusso di passeggeri e, di conseguenza, sulla sostenibilità economica e ambientale dell’intero sistema. Intervalli più brevi favoriscono un maggior numero di utenti, contribuendo a ridurre l’uso di veicoli privati, il traffico e il consumo energetico.

Un terzo obiettivo imprescindibile è il comfort, inteso non solo come benessere fisico dei passeggeri ma come un fattore determinante per la soddisfazione e la fidelizzazione degli utenti. Il comfort influenza direttamente la domanda e la redditività della linea, diventando così un elemento imprescindibile da integrare nella progettazione. Mantenere un livello di comfort adeguato durante il viaggio non solo migliora l’esperienza dell’utente, ma supporta anche la piena utilizzazione del servizio di trasporto.

L’ottimizzazione del progetto si basa quindi su una pluralità di obiettivi contrapposti: minimizzare gli investimenti e l’headway, mentre si massimizza il comfort. Questi obiettivi sono formalizzati tramite funzioni obiettivo che dipendono da una serie di variabili decisionali, tra cui il raggio degli archi del tunnel e altre caratteristiche specifiche del progetto. La complessità di questo sistema implica che un aumento dell’investimento può comportare un miglioramento del comfort o una riduzione degli intervalli, ma comporta anche un aumento del rischio economico.

Per affrontare questa complessità, si utilizzano algoritmi di ottimizzazione multi-obiettivo come NSGA-II, noto per la sua efficacia nel settore delle costruzioni. Questo algoritmo impiega un processo evolutivo che include selezione, crossover e mutazione, partendo da una popolazione iniziale generata casualmente. Attraverso successive iterazioni, vengono selezionate le soluzioni più efficienti in base a criteri di fitness, che rappresentano la capacità di una soluzione di competere con altre. La diversità delle soluzioni viene mantenuta tramite il meccanismo di mutazione, garantendo un’ampia esplorazione dello spazio delle soluzioni possibili. Al termine del processo, si ottiene un insieme di soluzioni ottimali che rappresentano il miglior compromesso possibile tra investimento, efficienza e comfort.

L’interpretazione e l’applicazione di queste soluzioni richiedono una comprensione approfondita delle condizioni specifiche del progetto e del contesto urbano, poiché vincoli tecnici e ambientali possono modificare significativamente le funzioni obiettivo e le variabili decisionali coinvolte. È cruciale considerare anche l’impatto a lungo termine del progetto, non solo in termini economici ma anche di sostenibilità sociale e ambientale. L’approccio multi-obiettivo permette di bilanciare queste esigenze spesso contrastanti, offrendo una strategia robusta per la pianificazione di infrastrutture complesse.

Va sottolineato che la scelta delle variabili decisionali e la loro rappresentazione matematica nelle funzioni obiettivo richiedono una modellizzazione accurata. Questo implica un’analisi preliminare dettagliata dei dati e delle condizioni operative, affinché le soluzioni generate dall’algoritmo riflettano realisticamente le possibili opzioni progettuali. Inoltre, l’implementazione pratica delle soluzioni deve essere supportata da un monitoraggio costante, per adattare il progetto in base all’evoluzione delle condizioni esterne e alle esigenze degli utenti.

Infine, il coinvolgimento degli stakeholder è fondamentale, poiché le decisioni sul bilanciamento tra investimento, efficienza e comfort hanno ripercussioni economiche, sociali e ambientali di vasta portata. Una pianificazione partecipativa, integrata da strumenti di simulazione avanzata come l’ottimizzazione multi-obiettivo, può facilitare scelte più consapevoli e condivise, incrementando il successo e l’accettazione del progetto.