Obrazy hiperspektralne (HSI) stanowią cenny zasób w monitoringu środowiskowym, aplikacjach zabezpieczeń czy eksploracji geologicznej. W porównaniu do tradycyjnych systemów RGB, HSI uchwyca znacznie bogatsze sygnatury spektralne, zachowując jednocześnie wysoką rozdzielczość przestrzenną, co umożliwia dokładniejszą charakterystykę powierzchni. Dzięki tym unikalnym właściwościom stworzono wiele metod przetwarzania danych hiperspektralnych, które są dostosowane do specyficznych potrzeb analizy tych obrazów.

W ostatnich dekadach znaczący postęp zanotowano w zakresie klasyfikacji obrazów hiperspektralnych, począwszy od tradycyjnych metod uczenia maszynowego, takich jak maszyny wektorów nośnych, po zaawansowane architektury głębokiego uczenia, w tym sieci neuronowe konwolucyjne i modele oparte na transformatorach. Choć metody nadzorowane są skuteczne, to ich efektywność jest w dużym stopniu uzależniona od ręcznie oznakowanych danych treningowych, co wiąże się z dużym nakładem pracy i specjalistyczną wiedzą. Aby przezwyciężyć wyzwania związane z ograniczoną liczbą danych oznakowanych, pojawiły się metody uczenia nienadzorowanego, w szczególności klastrowanie, które stanowi obiecującą alternatywę. Klastrowanie umożliwia automatyczną analizę obrazów hiperspektralnych, grupując piksele o podobnych cechach spektralno-przestrzennych.

Jednakże, pomimo obiecujących wyników, klastrowanie obrazów hiperspektralnych napotyka istotne trudności związane z dużą zmiennością spektralną i złożonymi wzorcami przestrzennymi. W tradycyjnych algorytmach klastrowania, celem jest maksymalizacja podobieństwa wewnątrz klas przy minimalizacji wariancji międzyklastrowej. Istnieją trzy główne podejścia do klastrowania: metody oparte na centroidach, takie jak k-średnich i fuzzy c-means, podejścia oparte na gęstości, takie jak mean shift, oraz techniki klastrowania podprzestrzennych, które wykorzystują strukturę danych do poprawy wydajności. Choć metody te są efektywne, mają swoje ograniczenia, zwłaszcza jeśli chodzi o ich odporność na zakłócenia, wrażliwość na początkowe parametry inicjalizacyjne oraz na interferencje szumowe.

Klastrowanie podprzestrzenne jest jednym z obiecujących kierunków, który skutecznie łączy techniki selekcji cech z podejściami klastrowania, przetwarzając podzbiory cech odpowiadające każdemu z klastrów danych. Do przykładów takich technik należą klastrowanie podprzestrzenne oparte na rzadkiej reprezentacji (SSC) oraz klastrowanie oparte na niskiej rangi podprzestrzeni. Metody te polegają na identyfikowaniu rzadkiej macierzy reprezentacji danych, konstrukcji grafu podobieństwa i stosowaniu klastrowania spektralnego do wyodrębnienia wyników klastrowania. Prace badawcze ostatnich lat skupiły się na lepszym wykorzystaniu informacji przestrzenno-spektralnych, które występują w obrazach hiperspektralnych, co prowadzi do znacznego poprawienia dokładności klastrowania.

Mimo że tradycyjne metody klastrowania podprzestrzennego osiągnęły zadowalające wyniki, ich skuteczność w bardziej złożonych scenariuszach obrazów hiperspektralnych wciąż jest ograniczona przez inherentne ograniczenia tych metod. W przeciwieństwie do nich, podejścia oparte na głębokim klastrowaniu wykazały wyższą zdolność do nauki wyrazistych i odpornych reprezentacji cech. Przykładem są architektury oparte na autoenkoderach, które umożliwiają lepsze wydobycie cech. Metody samo-nadzorowane, jak te opracowane przez Li i in., z zastosowaniem adaptacyjnej inicjalizacji, poprawiły wyniki klastrowania, osiągając stan najlepszej jakości. Dalszy postęp nastąpił dzięki wykorzystaniu technik opartych na grafach. Zastosowanie sieci konwolucyjnych grafów (GCN) pozwala na naturalne uchwycenie relacji sąsiedztwa w danych HSI, a metody takie jak GCSC (Graph Convolutional Subspace Clustering) skutecznie integrują informacje o strukturze i atrybutach danych.

Ostatnie badania poszły krok dalej, poszukując wyższych porządków relacji, wykorzystując hiper-grafy konwolucyjne. Prace Zhang i in. wykazały ich skuteczność w modelowaniu złożonych zależności w danych hiperspektralnych. Integracja tych wszystkich podejść pozwoliła na znaczną poprawę dokładności klastrowania oraz na odporność tych metod, zwłaszcza w trudnych aplikacjach związanych z obrazami HSI.

Pomimo postępów w zakresie wydajności klastrowania, istnieją dwa kluczowe ograniczenia, z którymi borykają się obecne algorytmy. Po pierwsze, ich bezpośrednia aplikacja do obrazów hiperspektralnych często prowadzi do "szumowych" map klastrów, wynikających z trzech czynników: ograniczonej informacji dyskryminacyjnej w domenie spektralnej, złożoności obiektów terenowych oraz heterogeniczności spektralnej w obrębie klas. Po drugie, większość metod działa tylko na pojedynczym widoku, mimo że szerokie dowody wskazują na to, że wielowidokowa, komplementarna informacja może znacząco poprawić dokładność klastrowania. Nowe podejścia w ramach klastrowania wielowidokowego zaczęły wykorzystywać informacje ze wszystkich dostępnych widoków, co może poprawić jakość wyników, ale do tej pory większość z nich nie wykorzystuje informacji o zależnościach między tymi widokami.

Proponowane podejście CMSCGC stanowi innowacyjną ramę dla klastrowania obrazów hiperspektralnych, łącząc teksturalne oraz przestrzenno-spektralne cechy. W tym przypadku, sieci konwolucyjne grafowe są wykorzystywane do uchwycenia danych sąsiedztwa lokalnego, a mechanizm adaptacyjnej fuzji uwagi poprawia spójność informacji z różnych widoków, co pozwala na wyodrębnienie bardziej wyrazistych wyników klastrowania. Dzięki tym innowacjom, uzyskano znaczne usprawnienia w zakresie precyzyjnego klastrowania i wydajności algorytmów w trudnych scenariuszach obrazów hiperspektralnych.

Jak skutecznie wykorzystać filtrację grafów w procesie klasteryzacji obrazów hiperspektralnych?

Współczesne technologie przetwarzania obrazów hiperspektralnych (HSI) stają przed wieloma wyzwaniami związanymi z jakością danych oraz efektywnością metod analizy. Jednym z kluczowych zagadnień jest przekształcanie danych w formę, która umożliwia lepsze i bardziej precyzyjne grupowanie, jak również eliminowanie zakłóceń. Podejście oparte na filtracji grafowej w połączeniu z mechanizmami kontrastywnego uczenia się oraz klasteryzacji pozwala na uzyskanie wysoce efektywnych wyników.

Matryca korelacji QRhw×NQ \in \mathbb{R}^{hw \times N}, wprowadzona przez SLIC, jest jednym z podstawowych elementów, na których opiera się proces projekcji grafowej. Wartość Qi,jQ_{i,j} wynosi 1, jeżeli punkt xix_i należy do regionu SiS_i, a w przeciwnym razie 0. Projekcja grafowa, w której wykorzystywana jest matryca korelacji, umożliwia przejście od poziomu pikseli do poziomu superpikseli, tworząc tym samym nowe cechy węzłów grafu. Przekształcenie obrazu HSI do postaci grafu pozwala na łatwiejszą analizy i wykorzystanie specyficznych właściwości struktury grafowej.

Matryca korelacji QQ jest następnie normalizowana według kolumn, co pozwala uzyskać macierz Q^\hat{Q}, w której wartości Qi,jQ_{i,j} są podzielone przez sumę wartości w danej kolumnie. Taki zabieg zapewnia, że dla każdego węzła w grafie skala wartości jest jednorodna, co jest istotne dla dalszej obróbki danych.

Filtracja grafowa niskiej częstotliwości, czyli mechanizm usuwania szumów w strukturze grafu, jest kluczowym elementem w procesie oczyszczania danych. Wykorzystanie filtrów grafowych przyczynia się do poprawy jakości sygnałów w grafie, minimalizując zakłócenia wynikające z wysokich częstotliwości. Podstawowym narzędziem w tej metodzie jest kwotient Rayleigh'a, który mierzy gładkość sygnału grafowego. Im mniejsza wartość tego kwotientu, tym bardziej wygładzony jest sygnał. Zgodnie z twierdzeniem, wygładzenie sygnału można uzyskać poprzez filtrację składników wysokoczęstotliwościowych, pozostawiając niskoczęstotliwościowe, które są bardziej reprezentatywne dla struktury danych.

Użycie filtrów Laplace'a w grafie, które bazują na niskoczęstotliwościowych komponentach sygnału, pozwala na dalsze przetwarzanie danych, przy jednoczesnym zachowaniu ich strukturalnej spójności. Zastosowanie tzw. t-warstwowych filtrów grafowych Laplace'a umożliwia wielokrotne wygładzanie danych, co poprawia efektywność późniejszej klasteryzacji.

Proces klasteryzacji w tym kontekście opiera się na dwóch kluczowych krokach. Pierwszym jest zastosowanie kontrastywnego uczenia się strukturalnego grafu, które umożliwia generowanie dwóch różnych reprezentacji danych przy użyciu różnych kodujących sieci MLP. Drugim jest fuzja tych dwóch reprezentacji w jedną, co pozwala na lepsze uchwycenie semantyki danych. Ponadto, dodanie szumów Gaussowskich do jednej z reprezentacji zapewnia większą odporność algorytmu na zakłócenia, co przekłada się na stabilność wyników.

Ostateczny etap to klasteryzacja przy użyciu algorytmu K-means, który pozwala na podział danych na odpowiednie grupy. Aby poprawić jakość tego procesu, wprowadza się straty kontrastywne między dwiema reprezentacjami, co skutkuje jeszcze bardziej precyzyjnym podziałem danych. Struktura strat opiera się na macierzy podobieństwa, która mierzy stopień podobieństwa pomiędzy węzłami w obu reprezentacjach.

Jednym z kluczowych atutów tej metody jest efektywność obliczeniowa. Złożoność obliczeniowa poszczególnych etapów jest dobrze zoptymalizowana, dzięki czemu cały proces przetwarzania danych odbywa się szybko, nawet w przypadku dużych zbiorów danych. Złożoność obliczeniowa filtrowania grafowego i kontrastywnego uczenia się jest liniowa w odniesieniu do liczby węzłów i wymiarowości danych, co sprawia, że metoda ta jest odpowiednia dla dużych zbiorów obrazów hiperspektralnych.

Przy wdrażaniu tej metody warto zwrócić uwagę na kilka aspektów. Po pierwsze, jakość klasteryzacji może być uzależniona od jakości wstępnej segmentacji obrazu, która wpływa na strukturę początkową grafu. Po drugie, dobór odpowiednich parametrów, takich jak liczba warstw filtrów Laplace'a oraz liczba iteracji w procesie uczenia, ma istotny wpływ na wyniki. Ponadto, warto zrozumieć, że dodanie szumów Gaussowskich do danych ma na celu wprowadzenie pewnego poziomu niepewności, który może poprawić odporność algorytmu, ale może również wpływać na jakość reprezentacji, zwłaszcza w przypadkach, gdzie dane są już wystarczająco czyste.

Jak zapewnić praktyczną wykonalność i wysoką dokładność w klasteryzacji obrazów hiperspektralnych bez dużego obciążenia obliczeniowego?

W kontekście analizy obrazów hiperspektralnych (HSI), klasteryzacja stanowi jedno z kluczowych wyzwań, z którym muszą zmierzyć się badacze. Obrazy te, charakteryzujące się ogromną ilością danych w różnych pasmach spektralnych, wymagają skutecznych metod do wykrywania i klasyfikowania struktur, które mogą nie być oczywiste przy tradycyjnych metodach przetwarzania obrazów. Równocześnie, tradycyjne podejścia do klasteryzacji, szczególnie te oparte na głębokim uczeniu, wymagają znacznego nakładu mocy obliczeniowej, co w wielu przypadkach utrudnia ich praktyczne zastosowanie. W tym kontekście, rozwiązanie proponowane przez metodologię SLCGC (Self-Supervised Low-Pass Contrastive Graph Clustering) staje się przełomowe, łącząc efektywność obliczeniową z wysoką jakością wyników.

SLCGC opiera się na czterech kluczowych fazach, które wspólnie tworzą efektywną ramę klasteryzacyjną, umożliwiającą grupowanie danych w przestrzeni cech w sposób zarówno precyzyjny, jak i oszczędny pod względem zasobów obliczeniowych. Pierwszym krokiem w procesie jest transformacja danych pikselowych w segmenty oparte na regionach, co pozwala na zachowanie spójności przestrzenno-spektralnej, a jednocześnie redukuje złożoność grafu. Takie podejście pozwala zmniejszyć liczbę operacji obliczeniowych, ponieważ zamiast operować na każdym pikselu z osobna, analizowane są większe, spójne segmenty, które zawierają bardziej reprezentatywne cechy danych.

Drugą kluczową fazą jest zastosowanie modułu bazującego na grafach, w którym stosowane są filtry dolnoprzepustowe do tłumienia zakłóceń wysokoczęstotliwościowych. Dzięki temu zwiększa się odporność na szum, co jest szczególnie istotne w kontekście danych hiperspektralnych, gdzie zakłócenia mogą występować w wielu pasmach spektralnych i znacznie utrudniać prawidłową analizę. Tłumienie tych zakłóceń przyczynia się do poprawy jakości uzyskanych reprezentacji, co ma kluczowe znaczenie w późniejszym procesie klasteryzacji.

Trzecim etapem jest zastosowanie podwójnych encodera Siamoza, które generują wzmocnione reprezentacje danych. Wykorzystując różne parametry w obu encodach, architektura ta pozwala na generowanie bogatszych i bardziej zróżnicowanych reprezentacji, które mogą być lepiej dopasowane do klasteryzacji. Dodatkowo, wprowadzenie zakłóceń w postaci szumów Gaussowskich w celu tworzenia negatywnych próbek do nauki kontrastowej umożliwia modelowi naukę bardziej subtelnych różnic między różnymi klasami danych, co znacząco poprawia jakość wyników.

Czwarty etap obejmuje fuzję liniową danych wzmocnionych, a także wprowadzenie straty opartej na spójności między widokami. Dzięki temu proces trenowania modelu staje się bardziej efektywny, a strukturalna zgodność danych jest wzmocniona. Zastosowanie tej metody sprawia, że model nie tylko dobrze klasteruje dane, ale także lepiej utrzymuje integralność między różnymi reprezentacjami tych samych danych, co może być szczególnie przydatne w przypadkach, gdzie zależy nam na dokładności i spójności w przetwarzaniu.

Po zakończeniu procesu wzmocnienia i fuzji, dane są klasteryzowane za pomocą algorytmu K-średnich, który skutecznie grupuje podobne próbki w klasy. Dzięki zintegrowaniu wszystkich tych elementów w jedną sieć end-to-end, możliwe jest uzyskanie wyników klasteryzacji, które są zarówno dokładne, jak i oszczędne pod względem zasobów obliczeniowych. Takie podejście pozwala na szerokie zastosowanie tej metodologii w realnych scenariuszach, gdzie zasoby obliczeniowe są ograniczone, a dokładność wyników ma kluczowe znaczenie.

W eksperymentach przeprowadzonych w ramach tego badania, wykazano, że metoda SLCGC oferuje znaczną poprawę w zakresie dokładności klasteryzacji, jednocześnie znacząco redukując obciążenie obliczeniowe w porównaniu do innych nowoczesnych technik głębokiego uczenia. Dzięki zastosowaniu technik samo-nadzorowanych oraz filtra dolnoprzepustowego, model jest również bardziej odporny na szum, co czyni go bardziej efektywnym w przypadku rzeczywistych danych hiperspektralnych, które mogą zawierać niepożądane zakłócenia.

Warto zauważyć, że przyszłe badania mogą skupić się na dalszym usprawnieniu metod nauki kontrastowej w kontekście grafów, aby jeszcze bardziej zredukować obciążenie obliczeniowe. Zastosowanie metod uczenia przez wzmocnienie może również poprawić proces wstępnego przetwarzania danych HSI, co pozwoli na jeszcze bardziej zaawansowane i precyzyjne wyodrębnianie cech w zadaniach klasteryzacji.