La combinazione di immagini multispettrali (MS) e pancromatiche (PAN) è un compito cruciale nel campo del telerilevamento, con l'obiettivo di migliorare la risoluzione spaziale delle immagini MS mantenendo intatte le informazioni spettrali. Tradizionalmente, le tecniche di pan-sharpening si sono basate su metodi classici come la trasformazione IHS, la decomposizione in wavelet e l'analisi delle componenti principali (PCA). Tuttavia, i metodi ibridi che combinano diverse tecniche hanno guadagnato popolarità, poiché possono preservare meglio le informazioni sia spettrali che spaziali, riducendo al contempo le distorsioni.

Un esempio di approccio ibrido è quello che combina l'analisi in wavelet e la trasformazione IHS, che si è dimostrato efficace nell'integrazione delle informazioni provenienti da immagini MS e PAN. Al di fuori del contesto delle wavelet, esistono altre tecniche come il filtraggio guidato, che è stato applicato per estrarre informazioni spettrali dalle immagini MS e trasferirle nelle mappe di dettaglio PAN. Il filtraggio guidato è un'operazione lineare che utilizza un filtro il cui kernel dipende solo dall'immagine di guida, permettendo così una gestione più precisa delle informazioni spaziali.

Nei metodi basati su variabili ottiche (VO), la formulazione matematica assume che un'immagine MS con bassa risoluzione spaziale sia ottenuta tramite la degradazione di un'immagine ad alta risoluzione, il cui target è ottenuto tramite sfocatura e riduzione della risoluzione. La soluzione al pan-sharpening in questi metodi si ottiene tramite l'ottimizzazione di una funzione energetica che incorpora sia le immagini PAN che quelle MS. Approcci più sofisticati introducono altri prior come la variazione totale, le somiglianze non locali, gli spazi di Hilbert riproducibili, nonché elementi della teoria bayesiana, migliorando ulteriormente la qualità del processo.

Con l'avvento delle reti neurali profonde, la fusione di immagini MS e PAN ha beneficiato dell'integrazione di architetture di reti neurali convoluzionali (CNN). Uno degli approcci innovativi in questo campo è il residual learning, che consente di migliorare il training delle reti neurali affrontando direttamente le problematiche associate alla gestione delle informazioni ad alta e bassa risoluzione. In particolare, la rete MSDCNN (Multidepth Convolutional Neural Network) è progettata per affrontare la fusione delle immagini nel contesto del pan-sharpening, combinando una rappresentazione multiscala delle caratteristiche con l'apprendimento residuo.

Un ulteriore passo avanti è stato fatto con l'introduzione delle reti generative antagoniste (GAN), che hanno dimostrato un'alta capacità di apprendere i modelli delle immagini e di trasferirli in contesti diversi. Un esempio di applicazione delle GAN nel pan-sharpening è la proposta di PSGAN, una rete composta da un generatore e un discriminatore convoluzionale che, rispettivamente, generano immagini pan-sharpened di alta qualità e distinguono le immagini di riferimento dalle immagini ottenute dal generatore.

Inoltre, alcuni lavori hanno trattato la fusione di immagini ad alta risoluzione spettrale (HSI) con immagini MS e PAN. Un esempio in tal senso è l'HyperNet, che applica blocchi di attenzione multiscala per combinare i dati provenienti da diverse sorgenti, in modo da arricchire i dettagli spaziali dell'immagine HSI senza compromettere la sua risoluzione spettrale.

Il più recente approccio al pan-sharpening si fonda sull'architettura encoder-decoder, che viene utilizzata anche in altre tecniche di fusione dei dati. Il modello proposto da [10] ha sviluppato una rete a due flussi che elabora separatamente le immagini PAN e MS, per poi combinarle attraverso un blocco di fusione. La fusione delle caratteristiche avviene in modo da rappresentare i dati in una forma più compatta, che viene successivamente utilizzata dal decodificatore per generare un'immagine MS ad alta risoluzione. Un'ulteriore innovazione in questo ambito è l'uso della trasformazione wavelet discreta (DWT) e della sua inversione (IDWT), che consente di trattare i dati con una visione multiscala senza dover ricorrere a convoluzioni dirette.

Questo approccio, noto come T3IWNet, applica la decomposizione DWT nella parte encoder e IDWT nel decodificatore, usando le connessioni skip per trasferire i dati tra i vari stadi della rete. In questo modo, la rete sfrutta le informazioni spaziali e frequenziali delle immagini in modo più efficiente rispetto ai metodi precedenti, che invece utilizzano convoluzioni di diversa grandezza per gestire le problematiche legate alla risoluzione.

Per comprendere appieno l'efficacia di questi metodi, è fondamentale avere una conoscenza approfondita dei principi matematici alla base dell'analisi multiscala e della trasformazione wavelet discreta (DWT). La DWT è un potente strumento di decomposizione del segnale che permette di separare le componenti ad alta e bassa frequenza di un'immagine, facilitando l'elaborazione e la fusione di immagini provenienti da diverse fonti. I coefficienti DWT rappresentano versioni a bassa e alta frequenza di un'immagine, ottenute tramite convoluzioni con specifici kernel, che possono essere utilizzate per migliorare ulteriormente la qualità dell'immagine pan-sharpened.

Il contributo della DWT è cruciale per il miglioramento delle reti neurali convoluzionali, poiché consente di integrare le informazioni spettrali e spaziali in maniera efficiente, riducendo al minimo le distorsioni e migliorando la risoluzione spaziale delle immagini finali. La sfida consiste nell'ottimizzare i parametri della rete in modo da ottenere un equilibrio tra la preservazione delle informazioni spettrali e il miglioramento della risoluzione spaziale.

Come la Colorazione delle Immagini Panchromatiche Utilizzando GANs Può Trasformare l'Analisi delle Immagini Spettrali

Nel contesto dell'analisi delle immagini remote, la combinazione di diverse modalità di dati spaziali e spettrali è fondamentale per ottenere una rappresentazione completa di una scena. Le immagini iperspettrali (HSC), a causa della loro ricchezza di dati spettrali, offrono enormi vantaggi rispetto alle tradizionali immagini a colori. Tuttavia, la difficoltà risiede nella capacità di estrarre informazioni utili da questi dati complessi, che sono difficilmente gestibili senza un'adeguata elaborazione.

Un approccio promettente per affrontare questa complessità è l'uso della tecnica chiamata "colorazione artificiale", che si ispira ai processi naturali di riduzione della dimensione dei dati, simili a quelli che avvengono nel sistema visivo umano. La natura, infatti, affronta lo stesso problema di avere a disposizione un enorme flusso di dati spettrali che non può essere processato in tempo reale dagli esseri viventi. La soluzione naturale è quella di ridurre drasticamente la quantità di dati, mantenendo intatta l'informazione essenziale, tramite un processo noto come "Proiezioni su Insiemi Convessi" (POCS). Questo processo permette di ridurre la dimensione del dato spettrale, proiettandolo su curve convessi e sovrapposti, simili alle curve di sensibilità dei coni retinici umani.

Quando questo principio viene applicato alle immagini HSC, si ottiene una significativa semplificazione del processo di analisi, consentendo una segmentazione o discriminazione delle immagini molto più efficiente e realizzabile in tempo reale, attraverso l'uso di computer specializzati. L'idea alla base della "colorazione artificiale" è quella di proiettare i dati HSC su due o tre curve sovrapposte, riducendo così la complessità del processo di elaborazione. Questa tecnica non solo rende l'analisi più gestibile, ma permette anche di preservare una notevole quantità di informazione, che sarebbe stata altrimenti persa in una semplice riduzione dei dati.

Nel campo delle tecnologie di fusione delle immagini, i metodi come i GANs (Generative Adversarial Networks) offrono potenzialità straordinarie. La colorazione delle immagini panchromatiche attraverso GANs è una delle tecniche più innovative. Questi algoritmi, grazie alla loro capacità di apprendere rappresentazioni complesse dai dati, possono essere utilizzati per migliorare la qualità delle immagini, creando un'integrazione efficace tra le informazioni spaziali delle immagini panchromatiche e le informazioni spettrali delle immagini multispettrali. I GANs operano attraverso una rete di generatori e discriminatori, che si sfidano a vicenda, migliorando progressivamente la qualità della colorazione, fino a ottenere risultati che superano le tecniche tradizionali.

L'applicazione dei GANs alla colorazione delle immagini panchromatiche ha il vantaggio di migliorare la resa visiva e la qualità dell'immagine, permettendo una fusione più precisa delle informazioni spettrali e spaziali. Questo approccio non solo aiuta a migliorare la qualità delle immagini per analisi remote, ma offre anche applicazioni pratiche per la mappatura e il monitoraggio delle risorse naturali, come la vegetazione e l'uso del suolo. Utilizzare i GANs per questa finalità porta a risultati che sono non solo tecnicamente avanzati ma anche altamente utili in applicazioni pratiche, come quelle legate alla gestione ambientale e alla previsione di cambiamenti climatici.

Oltre ai vantaggi tecnici offerti dall'uso dei GANs per la colorazione delle immagini panchromatiche, è cruciale comprendere anche i limiti di questa tecnologia. Nonostante i progressi rapidi, l'implementazione dei GANs richiede una quantità significativa di dati per l'addestramento e una potenza computazionale considerevole. Inoltre, sebbene i GANs siano capaci di produrre risultati straordinari in termini di qualità dell'immagine, la loro applicazione in tempo reale richiede ottimizzazioni continue, che rimangono una sfida per molte applicazioni pratiche.

Un altro punto di riflessione riguarda la necessità di combinare questi approcci avanzati con metodologie tradizionali per garantire una robustezza e una coerenza maggiore nei risultati. Le tecniche di fusione delle immagini, come l'uso delle onde o la trasformazione IHS, continuano a giocare un ruolo fondamentale, offrendo solidi riferimenti per l'integrazione dei dati spettrali e spaziali.

In definitiva, l'uso della colorazione artificiale e dei GANs nelle immagini panchromatiche offre una soluzione potente e innovativa per migliorare la qualità e l'efficienza dell'analisi delle immagini remote. Ma è essenziale che il lettore comprenda che queste tecniche non sono una panacea e che ogni metodo ha i suoi limiti e le sue specificità. La sfida rimane quella di integrare in modo efficace diverse tecnologie per ottenere il massimo dai dati disponibili.

L'Analisi delle Tecniche di Segmentazione Multi-Otsu per i Dati Multispettrali e Iperspettrali: Un Approccio Pratico

Il processo di segmentazione delle immagini è cruciale per numerose applicazioni, tra cui il monitoraggio ambientale, l'urbanistica, e l'analisi agricola, specialmente quando si utilizzano dati multispettrali e iperspettrali. Le tecniche di segmentazione, come la Multisoglia Multi-Otsu e la segmentazione a soglia multipla, offrono metodi avanzati per separare in modo efficace le diverse classi di dati in base ai loro valori di intensità, migliorando la precisione delle analisi. Tuttavia, sebbene la Multi-Otsu offra vantaggi significativi in termini di precisione, presenta anche limitazioni relative ai tempi di elaborazione.

Nel caso della segmentazione Multi-Otsu, il numero di soglie viene determinato dinamicamente in base alla distribuzione dei dati, il che implica un maggior numero di calcoli. Al contrario, la segmentazione a soglia multipla è generalmente più veloce, poiché si basa su un algoritmo che divide iterativamente l'istogramma di intensità dei pixel in più soglie predeterminate. Tuttavia, quest'ultima tecnica potrebbe non essere altrettanto precisa nella suddivisione dei dati rispetto alla Multi-Otsu, che consente una gestione più raffinata della distribuzione dei dati nel dominio spettrale.

In uno studio condotto su dati multispettrali di Landsat 8 OLI, è stato esaminato l'effetto dell'aumento del numero di soglie sulla qualità della segmentazione. I risultati hanno mostrato che l'aumento delle soglie porta a una riduzione significativa del MSE (Mean Square Error) e dell'RMSE (Root Mean Square Error), mentre il PSNR (Peak Signal to Noise Ratio) aumenta notevolmente. Ad esempio, per il Band 1 dei dati Landsat, l'aggiunta di soglie ha portato a una drastica riduzione dell'errore e a un miglioramento della qualità della segmentazione, evidenziando l'importanza della scelta ottimale delle soglie per migliorare l'accuratezza.

La segmentazione delle immagini, oltre a facilitare la classificazione dei terreni, gioca un ruolo fondamentale in diverse applicazioni pratiche. Queste includono la mappatura dei cambiamenti stagionali nelle colture, la discriminazione tra aree mineralizzate e non mineralizzate, e il rilevamento di cambiamenti nel costruito urbano. In agricoltura, ad esempio, la segmentazione delle immagini multispettrali e iperspettrali consente una mappatura più accurata dei modelli di coltivazione e della distribuzione delle specie vegetali. Inoltre, la segmentazione è utile anche per il monitoraggio dei cambiamenti nel paesaggio urbano e rurale, come nella pianificazione dell'uso del suolo o nella valutazione delle superfici impermeabili.

Tuttavia, nonostante i vantaggi, l'uso di tecniche avanzate come la Multi-Otsu comporta anche sfide legate alla complessità dei dati iperspettrali e multispettrali. La gestione di grandi volumi di dati, la variabilità delle condizioni di illuminazione e la necessità di algoritmi più scalabili rappresentano ostacoli significativi per l'adozione diffusa di queste tecniche. La ricerca futura dovrà concentrarsi sull'ottimizzazione degli algoritmi per migliorare la loro efficienza computazionale, rendendoli più adatti all'uso in scenari ad alta risoluzione e in applicazioni in tempo reale.

Inoltre, l'integrazione delle tecniche di segmentazione con altre metodologie, come il rilevamento delle anomalie e la scomposizione spettrale, potrebbe ampliare ulteriormente le applicazioni. Ad esempio, combinando la segmentazione con l'analisi del miscuglio spettrale, è possibile ottenere una comprensione più profonda delle caratteristiche del suolo e della vegetazione, facilitando il monitoraggio delle risorse naturali e delle modifiche nel paesaggio. La creazione di mappe di copertura del suolo dettagliate, essenziali per l'agricoltura di precisione, la pianificazione urbana e la valutazione ambientale, potrebbe beneficiare enormemente da queste tecniche.

Infine, sebbene la ricerca stia facendo progressi nell'ottimizzazione di queste metodologie, la comprensione delle loro applicazioni in contesti diversi è fondamentale. Gli utenti devono essere consapevoli delle caratteristiche specifiche dei dati che stanno analizzando, poiché le tecniche di segmentazione possono comportare risultati diversi a seconda della tipologia di dati (multispettrale o iperspettrale), della risoluzione delle immagini e della qualità delle informazioni spettrali disponibili. La selezione della tecnica giusta e la calibratura accurata dei parametri sono cruciali per ottenere risultati accurati e utili.

Quali sono le differenze tra l'imaging multispettrale e iperspettrale e come vengono applicate nella tecnologia satellitare?

L'imaging multispettrale è una tecnica di acquisizione delle immagini che suddivide lo spettro elettromagnetico in pochi bande, consentendo una visione dettagliata di specifici intervalli di lunghezza d'onda. Questo approccio si presta in particolar modo alle applicazioni satellitari, dove la necessità di un monitoraggio continuo e su larga scala rende la scansione sequenziale delle bande una soluzione più economica rispetto ad altre tecniche. L'utilizzo di sensori multispettrali si basa su dispositivi come i CCD o i sensori CMOS, che catturano la luce filtrata e la convertono in segnali elettrici, creando un'immagine bidimensionale che rappresenta l'intensità luminosa per ogni pixel nelle bande spettrali selezionate. Questo metodo è fondamentale per ottenere immagini a colori rappresentativi di diversi fenomeni naturali.

Le applicazioni dell'imaging multispettrale sono numerose e di grande rilevanza per vari settori. In agricoltura di precisione, per esempio, la riflettanza della vegetazione in diverse bande spettrali permette agli agricoltori di monitorare la salute delle colture, individuare carenze nutritive e ottimizzare l'irrigazione. Inoltre, l'imaging multispettrale è utile anche in geologia, dove i geologi possono identificare minerali dalle loro impronte spettrali uniche, facilitando l'esplorazione mineraria. In silvicoltura, questa tecnologia è impiegata per monitorare la salute delle foreste, valutando l'impatto di malattie o parassiti, mentre in ambito ambientale consente di tracciare i cambiamenti nell'uso del suolo, monitorare l'espansione urbana e analizzare gli effetti della poluzione o delle catastrofi naturali sugli ecosistemi.

Un altro settore interessante in cui l'imaging multispettrale trova applicazione è l'archeologia. Questa tecnologia aiuta gli archeologi a individuare siti sepolti rilevando variazioni nella composizione del suolo e nel manto vegetale. Inoltre, i satelliti con sensori multispettrali forniscono dati cruciali per previsioni meteorologiche, ricerche climatiche e gestione delle catastrofi naturali. Sebbene l'imaging multispettrale sia utile in molti contesti, ha i suoi limiti, in quanto la quantità di informazioni che può fornire è limitata dalle poche bande spettrali selezionate.

L'imaging iperspettrale, al contrario, rappresenta un'avanzata significativa nell'acquisizione e analisi delle interazioni complesse tra la luce e la materia. Questo tipo di imaging suddivide lo spettro elettromagnetico in numerose bande contigue e strette, permettendo un livello di dettaglio spettrale senza pari per ogni pixel dell'immagine. A differenza delle immagini multispettrali, che catturano dati da un numero limitato di bande, l'imaging iperspettrale raccoglie dati da centinaia di bande, offrendo informazioni spettrali molto più dettagliate. Questa capacità consente l'identificazione e la caratterizzazione precisa dei materiali, rivelando le impronte spettrali uniche di differenti composti.

L'imaging iperspettrale può essere utilizzato su piattaforme diverse, come satelliti, aerei, droni o strumenti a terra. I sensori iperspettrali, combinando dispersori spettrali con dispositivi di imaging, catturano la luce dispersa creando immagini spaziali e spettrali per ogni pixel. La risoluzione spaziale delle immagini iperspettrali può variare in base al sensore e alla piattaforma, ma generalmente l'alta risoluzione spettrale consente di identificare minime variazioni di riflettanza a lunghezze d'onda precise.

Tra le applicazioni più rilevanti dell'imaging iperspettrale vi sono l'esplorazione mineraria, dove la capacità di identificare minerali attraverso la loro firma spettrale consente di localizzare risorse in aree remote e inaccessibili. Inoltre, in ecologia e scienze ambientali, questa tecnologia permette lo studio della salute delle piante, la diversità delle specie e i cambiamenti negli ecosistemi, grazie alla capacità di rilevare variazioni sottili nella fisiologia vegetale e nei livelli di stress. In agricoltura di precisione, l'analisi dei dati iperspettrali consente di ottenere informazioni dettagliate sullo stato di salute delle colture, sul contenuto nutritivo e su eventuali infestazioni di parassiti, ottimizzando l'allocazione delle risorse e migliorando i raccolti.

L'imaging iperspettrale ha anche applicazioni significative in ambito medico, dove potrebbe essere utilizzato per diagnosi non invasive e per la caratterizzazione dei tessuti, come ad esempio nell'individuazione di tessuti cancerosi grazie alle loro caratteristiche spettrali uniche. Inoltre, come nell'imaging multispettrale, anche in archeologia i dati iperspettrali sono utili per il rilevamento di siti archeologici attraverso variazioni sottili nella composizione del suolo e nella copertura vegetale.

Per quanto riguarda la selezione delle bande, una tecnica comune nell'imaging multispettrale è la combinazione delle bande RGB per evidenziare caratteristiche specifiche o migliorare i contrasti. Ciò consente la creazione di immagini "a falso colore" in cui diverse bande sono assegnate ai canali rosso, verde e blu, permettendo così di enfatizzare determinati dettagli visivi. Questo tipo di mappatura è particolarmente utile per analisi visive immediate in vari settori, dal monitoraggio agricolo alla gestione ambientale.

In sintesi, la tecnologia di imaging multispettrale e iperspettrale offre strumenti avanzati per l'analisi e la comprensione del nostro ambiente. Sebbene entrambe le tecniche abbiano applicazioni simili, la principale differenza risiede nella risoluzione spettrale e nella capacità di rilevare dettagli più sottili, con l'imaging iperspettrale che fornisce una precisione maggiore rispetto al multispettrale. A seconda delle necessità specifiche dell'utente e delle risorse disponibili, è possibile scegliere l'approccio migliore per ottenere i risultati desiderati.

Come affrontare la classificazione delle immagini iperspettrali con l'apprendimento profondo: il modello T-HyC

Le immagini iperspettrali (HSI) rappresentano una risorsa fondamentale per l'analisi e il monitoraggio remoto in numerosi campi, tra cui l'agricoltura, l'astronomia, la salute, la biologia molecolare e il monitoraggio ambientale. Si tratta di immagini ottenute attraverso la cattura di dati su una vasta gamma di lunghezze d'onda dell'elettromagnetico, con una risoluzione molto fine, spesso di 1 nm. A differenza delle immagini multispettrali (MSI), che acquisiscono bande a intervalli irregolari, le immagini iperspettrali offrono una continuità nelle lunghezze d'onda, fornendo così una rappresentazione più dettagliata delle caratteristiche spettrali di un'area.

Tuttavia, l'analisi di queste immagini comporta sfide significative a causa della loro alta dimensionalità e della scarsità di dati di riferimento (ground truth). La gestione di questa grande quantità di informazioni e la corretta estrazione delle caratteristiche sono le principali difficoltà che ostacolano l'uso efficiente delle immagini iperspettrali. La riduzione della dimensionalità (DR), sebbene utile per mitigare l'effetto della maledizione della dimensionalità, non sempre è in grado di preservare le caratteristiche spaziali e spettrali cruciali per una classificazione accurata.

In questo contesto, il modello T-HyC (Transfer Learning-based Multi-scale 3D-2D Feature Aggregation) si propone come una soluzione avanzata per la classificazione delle immagini iperspettrali. Il T-HyC affronta due problemi principali: l'alto numero di dimensioni delle immagini iperspettrali e la disponibilità limitata di etichette di addestramento. Questo modello, infatti, è stato progettato per operare in due fasi principali: il modulo Multi-Scale 3D CNN (M3D-CNN) e il modulo di classificazione Spatial-Spectral CNN (SS-CNN) basato sull'apprendimento trasferito.

Il primo modulo, M3D-CNN, sfrutta blocchi di convoluzione 3D a più scale per estrarre informazioni spaziali e spettrali a diverse risoluzioni, consentendo una comprensione più completa delle caratteristiche complesse delle immagini iperspettrali. La mancanza di modelli pre-addestrati specifici per le immagini iperspettrali impone l'uso delle rappresentazioni apprese dal M3D-CNN per trasferire la conoscenza al modulo successivo, il SS-CNN. Il SS-CNN integra blocchi di convoluzione 3D e 2D per catturare le informazioni spaziali e spettrali in modo separato, migliorando ulteriormente la capacità di classificazione del sistema.

Una delle principali innovazioni del T-HyC è la sua capacità di operare anche in presenza di un numero limitato di campioni di addestramento. L'integrazione dell'apprendimento trasferito consente di trasferire la conoscenza acquisita su scene con etichette fini a scene con etichette meno dettagliate, migliorando così le performance di classificazione anche quando i dati di addestramento sono scarsi. Questo approccio sfrutta il potenziale delle reti neurali convoluzionali (CNN), che sono note per la loro capacità di estrarre automaticamente caratteristiche rilevanti dalle immagini.

Il modello T-HyC ha dimostrato prestazioni superiori rispetto ad altri metodi tradizionali, che spesso non riescono a gestire adeguatamente la complessità spaziale e spettrale delle immagini iperspettrali. In particolare, la capacità di mantenere un buon livello di accuratezza anche con campioni di addestramento limitati rende questo approccio estremamente utile in scenari pratici dove la raccolta di dati di riferimento completi è difficoltosa o costosa.

Inoltre, un aspetto cruciale nella classificazione delle immagini iperspettrali è la comprensione delle caratteristiche spettrali e spaziali in modo integrato. Le immagini iperspettrali contengono informazioni sia spettrali che spaziali, che sono essenziali per una corretta interpretazione del contenuto delle immagini stesse. La combinazione di queste due informazioni permette di ottenere una rappresentazione più ricca e dettagliata, fondamentale per analizzare fenomeni complessi come la salute delle colture, la qualità del suolo o la composizione del paesaggio.

Un altro elemento importante da considerare è l'efficienza computazionale. Le immagini iperspettrali sono notoriamente pesanti e richiedono risorse di calcolo significative. Sebbene il modello T-HyC possa apparire complesso, la sua architettura ottimizzata, che riduce la necessità di pre-elaborazione intensiva, consente di bilanciare l'accuratezza con l'efficienza. La progettazione di modelli che sfruttano l'apprendimento profondo e l'apprendimento trasferito è cruciale per affrontare le sfide legate alla grandezza dei dati senza compromettere le prestazioni.

La classificazione delle immagini iperspettrali, quindi, non è solo una questione di selezione delle caratterist