L'elaborazione delle immagini iperspettrali è un campo in continua espansione, alimentato dall'ampia disponibilità di dati iperspettrali grazie all'uso di strumenti avanzati e telecamere, e dalla crescente necessità di tecniche sofisticate per l'analisi delle immagini. Tuttavia, queste tecnologie non sono prive di sfide, tra cui l'elevata dimensionalità, la variabilità spettrale e il rumore che caratterizzano i set di dati iperspettrali. Affrontare queste problematiche è diventato un obiettivo chiave per ricercatori e professionisti.

Il libro Computational Intelligence based Hyperspectral Image Processing esplora in profondità l'utilizzo delle tecniche di intelligenza computazionale nell'elaborazione delle immagini iperspettrali. L'intelligenza computazionale, una branca dell'intelligenza artificiale, comprende metodologie come le reti neurali, gli algoritmi evolutivi e le tecniche di machine learning, che hanno dimostrato un potenziale significativo nel trattare le sfide insite nei dati iperspettrali.

Il campo dell'elaborazione delle immagini iperspettrali ha visto un rapido progresso negli ultimi decenni, grazie all'aumento della disponibilità di dati spettrali ad alta risoluzione e alla crescente richiesta di analisi più complesse. La combinazione di intelligenza computazionale con l'elaborazione di immagini iperspettrali consente di superare le difficoltà legate alla gestione di set di dati ad alta dimensionalità, dove le informazioni spettrali sono distribuite su molteplici bande, e di affrontare variabilità e rumore.

I metodi di intelligenza computazionale offrono approcci efficaci per ridurre la dimensionalità, selezionare le bande più rilevanti e applicare tecniche avanzate di riduzione del rumore. Le reti neurali, in particolare, sono state impiegate con successo per l'analisi delle immagini iperspettrali, poiché sono in grado di apprendere in modo efficace le relazioni tra le diverse bande spettrali, riducendo così il numero di variabili da elaborare senza compromettere la qualità dell'informazione. Gli algoritmi evolutivi, d'altra parte, permettono di ottimizzare i processi di selezione delle bande, aumentando l'efficienza computazionale e migliorando l'accuratezza delle analisi.

Le tecniche di riduzione della dimensionalità sono fondamentali per l'elaborazione delle immagini iperspettrali. La gestione di set di dati con centinaia o addirittura migliaia di bande spettrali richiede l'adozione di metodi che riducano il numero di dimensioni senza perdere informazioni rilevanti. In questo contesto, approcci come gli autoencoder variazionali (VAE), le reti generative avversarie (GAN), l'analisi delle componenti principali sparse (Sparse PCA) e i metodi basati sull'apprendimento profondo sono stati utilizzati per estrarre le caratteristiche salienti dai dati, riducendo al contempo la complessità computazionale. Questi approcci consentono di ottenere rappresentazioni più semplici e utili dei dati, migliorando le performance nei compiti di classificazione e riconoscimento.

Un altro aspetto cruciale nell'elaborazione delle immagini iperspettrali riguarda la selezione delle bande. La selezione delle bande è essenziale per ottenere risultati ottimali senza compromettere la qualità delle informazioni. Le tecniche di selezione delle bande mirano a ridurre il numero di bande utilizzate, mantenendo però l'informazione cruciale per l'analisi. Per le immagini multispettrali, che contengono un numero inferiore di bande rispetto alle immagini iperspettrali, le tecniche di selezione possono focalizzarsi su intervalli spettrali specifici, migliorando la rilevazione degli oggetti di interesse. Nelle immagini iperspettrali, tuttavia, la selezione delle bande diventa più complessa, poiché il numero di bande è molto maggiore e le differenze spettrali tra le bande sono più sottili. Qui, le metodologie evolutive come gli algoritmi genetici e le tecniche di selezione basate su apprendimento automatico possono giocare un ruolo fondamentale.

La crescente capacità computazionale e la disponibilità di software avanzato hanno aperto nuove possibilità per applicazioni pratiche, come il monitoraggio ambientale, l'agricoltura di precisione, la medicina e la geospaziale. L'analisi delle immagini iperspettrali consente di rilevare e classificare materiali, identificare cambiamenti nel terreno, monitorare la qualità dell'acqua e persino diagnosticare malattie attraverso l'imaging medico. In agricoltura, per esempio, le immagini iperspettrali possono essere utilizzate per monitorare la salute delle colture e ottimizzare l'uso dei fertilizzanti. Nella medicina, possono essere applicate per esaminare campioni biologici e per il rilevamento precoce di anomalie nei tessuti.

Nonostante i progressi tecnologici, permangono sfide significative. La gestione di grandi volumi di dati iperspettrali richiede soluzioni efficienti sia in termini di elaborazione che di archiviazione. Inoltre, le tecniche di intelligenza computazionale non sono prive di limitazioni, come la necessità di ampi set di dati per l'addestramento dei modelli e la potenziale difficoltà nell'interpretare i risultati. Per superare queste sfide, la ricerca continua a evolversi, spingendo verso soluzioni più avanzate e robuste.

Oltre agli approcci descritti, è essenziale comprendere che l'integrazione di tecniche di intelligenza artificiale con l'elaborazione delle immagini iperspettrali non è solo un'opportunità tecnologica, ma anche un campo che pone interrogativi etici. L'uso di queste tecnologie avanzate richiede attenzione all'interpretabilità dei modelli, alla trasparenza delle decisioni e alla gestione della privacy dei dati, in particolare quando si applicano a settori sensibili come la salute o la sicurezza nazionale.

Come viene effettuata la registrazione delle immagini iperspettrali: una panoramica e le sfide future

La registrazione delle immagini iperspettrali è una tecnica fondamentale nella geoscienza e nel telerilevamento, poiché consente di allineare immagini acquisite da diverse fonti o da diverse angolazioni. L'importanza di questo processo è ancora maggiore quando si considera l'alta risoluzione e la grande quantità di dati che caratterizzano le immagini iperspettrali. Nonostante i progressi nel settore, la registrazione delle immagini iperspettrali rimane un campo sfidante e in continua evoluzione, specialmente quando si affrontano dati di risoluzione spaziale differente o l'integrazione di immagini multispettrali e iperspettrali.

La registrazione delle immagini iperspettrali è un passo critico per la fusione delle informazioni, che può migliorare significativamente la qualità delle analisi. Ad esempio, l'uso di algoritmi come il Scale-Invariant Feature Transform (SIFT) e il Speeded-Up Robust Features (SURF) è ampiamente diffuso per il rilevamento di punti di interesse nelle immagini, poiché permettono di identificare caratteristiche distintive anche in presenza di distorsioni o di cambiamenti nella scala delle immagini. Alcuni studi hanno esplorato l’uso di metodi come il CDFSL (Class-specific Discriminative Feature Selection Learning) per affrontare la registrazione di immagini iperspettrali con risoluzioni spaziali molto diverse, mentre altri hanno proposto soluzioni come il metodo MSER (Maximally Stable Extremal Regions) per ottimizzare il processo di registrazione.

Una delle principali sfide è la differenza di qualità tra le bande spettrali, poiché le immagini iperspettrali possono avere un rumore significativo, specialmente nelle bande con un basso rapporto segnale/rumore (SNR). Recenti studi hanno evidenziato l’importanza di non trascurare queste bande con bassa SNR, in quanto possono contenere informazioni utili per la registrazione. La gestione delle bande con bassa SNR è quindi un aspetto cruciale, e alcune ricerche suggeriscono che l'integrazione di queste bande attraverso metodi di fusione potrebbe migliorare l'accuratezza della registrazione.

Oltre a ciò, l’uso di tecniche di apprendimento automatico sta emergendo come un approccio promettente per la registrazione delle immagini iperspettrali. Le reti neurali profonde, in particolare, hanno mostrato un grande potenziale nell'automatizzare e migliorare i processi di registrazione e fusione delle immagini. Algoritmi come il SuperGlue, che utilizzano reti neurali per abbinare caratteristiche locali in modo più robusto, sono un esempio dell’integrazione di tecniche di intelligenza artificiale per superare le difficoltà legate alla variazione di geometria e di risoluzione tra le immagini.

Un’altra area di ricerca interessante è quella che riguarda la registrazione di immagini acquisite con fotocamere a scansione push broom. Queste immagini presentano sfide specifiche legate alla geometria e alla sincronizzazione temporale, soprattutto nelle applicazioni aeree. L’allineamento preciso di queste immagini è fondamentale per ottenere misurazioni accurate e per garantire la coerenza dei dati.

Per quanto riguarda le applicazioni pratiche, è fondamentale comprendere che la registrazione delle immagini iperspettrali non è un processo isolato, ma è spesso associata a tecniche successive come l’analisi spettrale e la classificazione. Senza una registrazione adeguata, infatti, l'accuratezza della classificazione iperspettrale potrebbe essere compromessa. Per questo motivo, la combinazione di metodi avanzati di registrazione con tecniche di machine learning può portare a risultati più affidabili.

In conclusione, la registrazione delle immagini iperspettrali rappresenta un aspetto cruciale nell'analisi di dati complessi provenienti da sensori remoti, in particolare nelle applicazioni che richiedono alta precisione come il monitoraggio ambientale, la mappatura del suolo e la rilevazione di oggetti nascosti. L'evoluzione delle tecnologie di registrazione e l'integrazione di algoritmi avanzati continuano a migliorare la qualità dei risultati ottenuti da queste immagini.

La sfida principale risiede nel miglioramento continuo degli algoritmi di registrazione, per gestire meglio le difficoltà associate alla qualità variabile delle immagini e per facilitare la loro integrazione in sistemi complessi che operano in tempo reale. In particolare, l'utilizzo di tecniche di deep learning e reti neurali sta rapidamente diventando fondamentale per affrontare le sfide delle immagini iperspettrali di grande dimensione e alta complessità.

Come Ottimizzare l'Integrazione di DWT e CNN per il Fusionamento dei Dati: Un'Architettura Multiscala

L’approccio al fusionamento dei dati che combina la Trasformata Discreta di Wavelet (DWT) e le Reti Neurali Convoluzionali (CNN) è diventato un punto cruciale nella modernizzazione delle tecniche di miglioramento delle immagini, in particolare nel contesto della pan-sharpening. Questa metodologia sfrutta la potenza delle wavelet per decomporre i segnali in diverse scale, permettendo un'analisi e una ricostruzione più dettagliata dei dati, e integra questa capacità nelle CNN, che sono ormai uno standard per l'elaborazione delle immagini. La combinazione delle due tecnologie migliora le performance, in particolare nella fase di ricostruzione delle immagini, arricchendo il processo di estrazione delle caratteristiche e migliorando l'upsampling.

Nel contesto della decomposizione multiscala, il primo passo è applicare la DWT alla sequenza di dati iniziale c0c_0. L'algoritmo di decomposizione multiscala, come mostrato nella figura 4.1, inizia calcolando i livelli di decomposizione tramite la cascata di filtri che operano su determinati coefficienti cmc_m e dmd_m, dove m=1,2,,Mm = 1, 2, \dots, M. Questi coefficienti, calcolati tramite le equazioni (4.2) e (4.3), sono successivamente utilizzati nella fase di ricostruzione dell’immagine. Il risultato di questa decomposizione è una sequenza di coefficienti che descrivono il segnale a diverse scale, permettendo di ottenere una rappresentazione più dettagliata ed efficiente dei dati.

La fase di ricostruzione avviene attraverso l'uso dell'IDWT (Trasformata Discreta Inversa di Wavelet), come illustrato nella figura 4.2. L'IDWT consente di riassemblare il segnale originale a partire dai coefficienti cMc_M e dMd_M. Il processo di ricostruzione può essere visto come una somma dei coefficienti calcolati a ciascun livello di decomposizione, dove ogni livello viene rielaborato secondo una specifica formula di convoluzione descritta nell'equazione (4.4). Questo passaggio è essenziale per garantire che le informazioni ad alta risoluzione, che erano state precedentemente isolate tramite DWT, possano essere recuperate e fuse correttamente.

L'applicazione di CNNs al processo di fusionamento dei dati avviene in una rete che si compone di diversi blocchi, inclusi l'Encoder, il modulo di Fusione e il Decoder. L'architettura di questa rete è progettata per essere robusta e ottimizzata in modo che i dati multi-sensore, come le immagini multispettrali (MS) e pancromatiche (PAN), vengano trattati separatamente all'interno dei rispettivi encoder. Le immagini PAN e MS vengono processate da due encoder distinti (E1E_1 e E2E_2), i cui risultati vengono successivamente combinati nel modulo di fusione FNFN. Questo modulo unisce le informazioni provenienti dai due flussi di dati e le prepara per la fase di ricostruzione, come mostrato nelle architetture delle reti TIWNet e T3IWNet.

Il modulo di fusione è particolarmente interessante poiché permette di fondere le caratteristiche estratte dai due flussi (MS e PAN) in un'unica rappresentazione coerente. La concatenazione dei risultati E1E_1 e E2E_2, quindi, offre una soluzione di integrazione che sfrutta la capacità di apprendimento profondo delle CNNs per migliorare il processo di ricostruzione delle immagini. La combinazione di convoluzione e funzioni di attivazione come la PReLU gioca un ruolo fondamentale nel migliorare la qualità della ricostruzione, poiché consente una gestione non lineare delle informazioni, affinando ulteriormente il processo di fusionamento.

Queste architetture, che utilizzano sia DWT che CNN, sono altamente efficaci nella generazione di immagini "pan-sharpened", cioè immagini con risoluzioni superiori ottenute dal fusionamento di immagini ad alta risoluzione spaziale (PAN) e immagini a bassa risoluzione spettrale (MS). L’architettura proposta in T3IWNet, che include un flusso di dati DWT aggiuntivo, è un esempio di come la combinazione di tecniche classiche e moderne possa ottenere risultati superiori rispetto all'uso esclusivo di una delle due metodologie.

L'approccio multiscala proposto permette una gestione dettagliata e precisa delle informazioni, facendo un uso ottimale delle capacità di estrazione delle caratteristiche delle CNN in combinazione con la potenza della DWT per una gestione migliore delle diverse risoluzioni spaziali e spettrali. Questo non solo migliora l'accuratezza del fusionamento dei dati, ma rende anche il processo complessivo più efficiente, specialmente in contesti in cui è necessario gestire grandi volumi di dati provenienti da diverse fonti, come nel caso delle immagini satellitari o delle scansioni mediche.

La possibilità di utilizzare i filtri predefiniti nelle operazioni di convoluzione consente di ridurre la complessità computazionale, poiché questi filtri sono fissi e non necessitano di essere appresi durante l'addestramento della rete, riducendo così il numero di parametri da ottimizzare. Tuttavia, la scelta dei filtri è cruciale e dipende dal tipo di wavelet e dalla specifica applicazione. In particolare, l'uso della wavelet di Haar, che si basa su operazioni di convoluzione semplici ma potenti, dimostra la sua efficacia in applicazioni pratiche come la pan-sharpening.

Importante è anche la gestione del downsampling e del max-pooling durante il processo di convoluzione. Queste operazioni riducono la risoluzione spaziale dell'immagine, ma allo stesso tempo consentono di catturare le caratteristiche più rilevanti, eliminando il rumore e migliorando l’efficienza del processo di estrazione delle caratteristiche. La strategia di padding, che aggiunge zeri ai bordi dell'immagine, è altrettanto fondamentale per mantenere la consistenza delle dimensioni durante l'applicazione delle convoluzioni, evitando che le dimensioni dell'immagine vengano alterate.

La combinazione di tutte queste tecniche, dalla decomposizione multiscala alla convoluzione tramite CNN, permette di realizzare un'architettura di fusione dei dati che non solo ottimizza la qualità delle immagini, ma è anche adattabile a una vasta gamma di applicazioni, dall'elaborazione delle immagini satellitari alla diagnostica medica.

Qual è il ruolo delle operazioni di migrazione e mutazione nel miglioramento della selezione delle bande nelle immagini iperspettrali?

La selezione delle bande in immagini iperspettrali è un processo cruciale per ottimizzare la classificazione e migliorare l'accuratezza complessiva del sistema. Un approccio innovativo che viene utilizzato in questo contesto è la tecnica BBO (Biogeography-Based Optimization), che sfrutta le dinamiche di migrazione e mutazione per ottimizzare la scelta delle bande più significative. Questi processi, attraverso il tasso di emigrazione e di immigrazione, permettono di esplorare lo spazio delle soluzioni, migliorando la qualità della selezione delle bande e, di conseguenza, l'efficacia della classificazione iperspettrale.

L'approccio BBO si basa su un modello biologico che simula la migrazione delle caratteristiche tra soluzioni. Inizialmente, il sistema seleziona casualmente un insieme di bande da un set di bande valide, e l'efficacia di ciascuna soluzione viene valutata calcolando una funzione obiettivo. Ogni soluzione è caratterizzata da un tasso di emigrazione e un tasso di immigrazione. Il tasso di emigrazione rappresenta la probabilità che una caratteristica da una soluzione migrerà in un'altra, mentre il tasso di immigrazione determina la probabilità che una soluzione venga modificata da un'altra. L'introduzione di un fattore probabilistico permette di regolare in modo dinamico la modifica delle soluzioni, adattando continuamente il processo per migliorare la selezione delle bande.

Per ogni ciclo, se una soluzione è scelta per la modifica, il suo tasso di immigrazione, indicato come λ, entra in gioco per determinare in modo probabilistico se un attributo debba essere modificato. Inoltre, la modifica di un attributo all'interno di una soluzione è influenzata dal tasso di emigrazione, μ, delle altre soluzioni. Questo sistema consente lo scambio di caratteristiche tra le soluzioni, favorendo l'interscambio di informazioni utili e migliorando progressivamente la qualità della selezione delle bande.

Tuttavia, un aspetto fondamentale del processo di migrazione è che solo le bande inizialmente selezionate sono coinvolte nelle operazioni di migrazione. Per superare questa limitazione, viene introdotta una procedura di mutazione. La mutazione consente di sostituire una caratteristica di una soluzione con una nuova, presa dal set complessivo di bande, includendo così anche bande che inizialmente non erano selezionate. Questo passaggio permette di ampliare la ricerca, esplorando nuove combinazioni di bande che potrebbero non essere state considerate durante la selezione iniziale.

Inoltre, un modello di elitismo viene applicato, garantendo che la miglior soluzione venga preservata e trasferita alla successiva iterazione. Questo aiuta a mantenere un livello ottimale di qualità nelle soluzioni, evitando regressioni nel processo di ottimizzazione.

L'algoritmo di selezione delle bande BBO è seguito da una fase di classificazione tramite Support Vector Machine (SVM). L'idea principale alla base delle SVM è quella di trovare un iperpiano che separi le diverse classi nel miglior modo possibile, massimizzando il margine tra esse. Per gestire i dati che non sono linearmente separabili, si utilizzano funzioni kernel che trasformano i dati da uno spazio di dimensioni inferiori a uno di dimensioni superiori, permettendo così di separare i dati in modo più efficace. La funzione kernel più comunemente usata in questo contesto è la Radial Basis Function (RBF), che misura la somiglianza tra due pattern in base alla loro distanza nello spazio di input.

L'uso dell'RBF come funzione kernel è particolarmente utile quando si tratta di immagini iperspettrali, in quanto i dati sono caratterizzati da una grande quantità di informazioni spaziali e spettrali che devono essere considerate simultaneamente. L'RBF permette di mappare efficacemente queste informazioni in uno spazio ad alta dimensione, migliorando così le prestazioni del sistema di classificazione.

Dopo la selezione delle bande, la classificazione è realizzata mediante SVM. Un aspetto cruciale della classificazione in SVM è la scelta delle bande ottimali che, come detto, possono essere selezionate utilizzando il metodo BBO. Il successo della classificazione dipende quindi fortemente dalla qualità delle bande selezionate: se le bande selezionate sono pertinenti e rappresentative, la classificazione avrà risultati migliori.

Infine, un altro approccio che si sta rivelando efficace nella classificazione delle immagini iperspettrali è l'uso delle reti neurali convoluzionali (CNN). Queste reti, in particolare le versioni 2D e 3D, sono in grado di apprendere le caratteristiche spaziali e spettrali dalle immagini iperspettrali, migliorando ulteriormente le prestazioni del sistema di classificazione. Le CNN 2D applicano filtri per estrarre caratteristiche spaziali locali, mentre le CNN 3D permettono di estrarre simultaneamente informazioni spaziali e spettrali, affrontando direttamente la struttura tridimensionale dei dati iperspettrali.

È importante notare che, oltre all'algoritmo BBO e alla classificazione SVM, le tecniche di rete neurale convoluzionale rappresentano un'evoluzione significativa nell'ambito dell'analisi delle immagini iperspettrali, grazie alla loro capacità di gestire dati complessi e ad alta dimensione in modo molto più efficiente rispetto ai metodi tradizionali.

Come le tecniche di apprendimento profondo stanno rivoluzionando la classificazione delle immagini iperspettrali

La classificazione delle immagini iperspettrali (HSI) è un campo in rapida evoluzione, in cui la tecnologia più avanzata si sta concentrando sull'estrazione di caratteristiche spaziali e spettrali per migliorare la precisione dei modelli predittivi. L'utilizzo di immagini iperspettrali, strutturate come cubi tridimensionali con dimensioni spettrali e spaziali, ha portato a sviluppi significativi nel settore. Nonostante la varietà di tecniche classiche per l'estrazione delle caratteristiche, l'emergere dei metodi di deep learning ha rappresentato una vera e propria svolta nel miglioramento delle prestazioni.

Le tecniche di riduzione dimensionale lineare, come l'Analisi delle Componenti Principali (PCA) e l'Analisi Discriminante Lineare (LDA), sono ancora comunemente impiegate grazie alla loro semplicità e alla bassa intensità computazionale rispetto alle tecniche non lineari, come il Kernel PCA (KPCA), l'Embedding Lineare Locale (LLE) e l'Isomap. Tuttavia, queste tecniche lineari sono limitate nella capacità di catturare la complessità spaziale e spettrale delle immagini iperspettrali, motivo per cui molte tecniche moderne si spostano verso approcci non lineari.

La classificazione delle immagini iperspettrali può essere divisa in due categorie principali: i classificatori spettrali, che si basano esclusivamente sui dati spettrali, e i classificatori spettrali-spaziali, che combinano informazioni sia spaziali che spettrali per migliorare la classificazione. I classificatori tradizionali, come le macchine a vettori di supporto (SVM) e le foreste casuali, mostrano una precisione relativamente bassa quando si basano esclusivamente sulle informazioni spettrali. Per migliorare questo limite, l'integrazione di caratteristiche spettrali e spaziali, ad esempio tramite il modello SVM-CK o l'uso di campi casuali di Markov, ha dimostrato di aumentare la precisione della classificazione.

Tuttavia, uno degli ostacoli principali nel campo della classificazione delle immagini iperspettrali è la difficoltà nell'acquisizione di etichette precise per i campioni. La necessità di un grande numero di dati etichettati, che comporta un notevole impegno di tempo, manodopera e risorse economiche, ha limitato l'applicazione dei modelli di deep learning, che richiedono un ampio set di dati etichettati per essere efficaci.

Con l'avvento del deep learning, sono stati sviluppati metodi che permettono l'estrazione automatica delle caratteristiche, catturando dipendenze spaziali e spettrali di ordine superiore. Un esempio di approccio iniziale è quello che combina PCA e regressione logistica con tecniche di deep learning per ottenere una classificazione più accurata. Inoltre, tecniche come il Contextual Deep Learning, che integra informazioni spaziali e spettrali in un processo a tre fasi (estrazione delle caratteristiche spettrali, estrazione delle informazioni spaziali e levigatura delle caratteristiche), hanno dimostrato una maggiore accuratezza, anche se la sua dipendenza da dati etichettati limitati ha sollevato alcune perplessità.

In seguito, sono emerse soluzioni semi-supervisionate, come quelle proposte da Zhao et al., che integrano reti neurali convoluzionali (CNN) con il metodo Balanced Local Discriminant Embedding (BLDE). Questa combinazione mira a catturare caratteristiche spettrali tramite il BLDE e caratteristiche spaziali attraverso le CNN. Altre innovazioni, come l'uso di Deep Belief Networks (DBN) per estrarre caratteristiche spaziali da pixel vicini con proprietà spettrali simili, hanno ulteriormente migliorato la capacità di classificazione delle immagini iperspettrali.

L'approccio del network ibrido proposto da Chen et al. estrae sia caratteristiche spaziali che spettrali-spaziali, utilizzando finestre spaziali per le prime e un kernel 3D per le seconde. Le caratteristiche estratte vengono quindi alimentate a una rete neurale completamente connessa (FCNN) per la classificazione. Un ulteriore sviluppo nel campo è il Spectral-Spatial Unified Network (SSUN), che impiega una tecnica di raggruppamento delle bande all'interno del paradigma delle Long Short-Term Memory (LSTM), un'architettura che ha mostrato notevoli miglioramenti nell'accuratezza della classificazione.

In parallelo, le architetture CNN-LSTM, come quelle proposte da Zhou et al. e da Zhong et al., hanno portato a modelli che combinano l'efficienza della CNN nell'estrazione delle caratteristiche spaziali con le capacità delle LSTM nell'analisi delle sequenze temporali o spaziali. L'introduzione dell'architettura Convolutional LSTM (ConvLSTM) ha affinato ulteriormente le prestazioni nella classificazione delle immagini iperspettrali, permettendo una maggiore precisione nell'estrazione delle caratteristiche spaziali e spettrali.

Un'area particolarmente promettente è l'uso della Transfer Learning (TL), che permette di affrontare il problema della scarsità di dati etichettati. La TL consente di trasferire la conoscenza appresa da un dominio di origine a un dominio di destinazione, migliorando la velocità e l'efficienza nell'addestramento dei modelli. Sebbene la maggior parte dei modelli di TL siano progettati per immagini naturali RGB, l'adattamento di tali modelli per le immagini iperspettrali, che possiedono una struttura multibanda complessa, è ancora in fase di studio. Tuttavia, sono stati sviluppati modelli come il 3-D-LWNet, che applicano l'apprendimento profondo per affrontare in modo più efficace le peculiarità delle immagini iperspettrali.

Infine, è importante sottolineare che, pur mostrando buone prestazioni quando addestrati con un numero adeguato di campioni etichettati, molti di questi modelli non sono stati testati sufficientemente in contesti con un numero ridotto di etichette. Il trasferimento di conoscenza tra domini distinti può essere problematico, soprattutto quando le caratteristiche spettrali delle immagini differiscono notevolmente a causa delle condizioni di acquisizione. La validità del modello di trasferimento dipende quindi in larga misura dalla somiglianza tra i domini di origine e destinazione.