W tradycyjnych metodach klasteryzacji w sieciach grafowych, zwykle wykorzystywana jest iloczyn skalarny do mierzenia korelacji między węzłami. Jednak w praktyce okazało się, że podejście to nie jest optymalne. Problem polega na tym, że wyniki klasteryzacji zawierają znaczną ilość szumu w trakcie procesu uczenia sieci. Aby rozwiązać ten problem, zaproponowano mechanizm hierarchicznej estymacji korelacji. W szczególności, podobieństwo węzłów jest szacowane przez integrację wskazówek zarówno z przestrzeni ukrytej w sposób hierarchiczny, jak i z procesu klasteryzacji.

Pierwszym krokiem w tym procesie jest obliczenie tzw. twardej etykiety pseudo-węzła, która jest definiowana jako argmax qik (wzór 6.20). Na podstawie tego wzoru obliczane są etykiety pseudo-węzłów wszystkich węzłów w sieci. Następnie, w ramach każdej grupy k, wybierane są węzły o najwyższej prawdopodobieństwie przypisania do tej grupy. W efekcie powstaje podzbiór węzłów, który charakteryzuje się najwyższą pewnością przypisania do konkretnego klastra, co pozwala zmniejszyć wpływ szumu na klasteryzację.

Pomimo tego, że metoda ta pozwala na pewne usprawnienia, nadal mogą występować błędne połączenia krawędzi w przestrzeni klasterów, które negatywnie wpływają na dokładność podobieństwa między węzłami. Aby przezwyciężyć te ograniczenia, zaproponowano zastosowanie przestrzeni ukrytej do oszacowania podobieństwa między węzłami, zamiast przestrzeni klasterów. W tym przypadku, macierz osadzania węzłów Z jest obliczana, a podobieństwo między węzłami jest szacowane za pomocą operacji iloczynu skalarnego (wzór 6.22).

Wzór (6.23) wyraża podobieństwo węzłów w obrębie konkretnego klastra, co pozwala na dokładniejsze i bardziej precyzyjne ustalenie podobieństw między węzłami. Wykorzystanie tego podejścia w procesie klasteryzacji zmniejsza wpływ błędnych lub brakujących krawędzi na strukturę grafu. Poprawia to dokładność rekonstrukcji grafu i zapewnia bardziej wiarygodne wyniki uczenia struktury grafowej.

Obecne metody klasteryzacji często zakładają, że graf jest statyczny w trakcie procesu uczenia, co prowadzi do dwóch istotnych problemów. Po pierwsze, błędne połączenia krawędzi w grafie nie mogą zostać naprawione. Po drugie, takie podejście sprawia, że proces klasteryzacji staje się bardziej złożony, ponieważ nie uwzględnia zmian w strukturze grafu w trakcie uczenia. Dlatego zaproponowano metodę sparsowania krawędzi grafu. Chodzi o usunięcie krawędzi między klastrami i przywrócenie krawędzi wewnątrz klastrów, aby połączenia między węzłami w obrębie klastra były silniejsze, a połączenia między klastrami – słabsze. Wzór (6.24) definiuje proces przywracania krawędzi wewnątrz klastra, a wzór (6.26) wskazuje, jak usuwać niepotrzebne połączenia między różnymi klastrami.

Rekonstruując graf na podstawie tego procesu, możliwe jest dynamiczne dostosowanie struktury grafu, co pozwala na lepsze odwzorowanie rzeczywistych zależności między węzłami. Dzięki temu, węzły w obrębie tego samego klastra są bardziej połączone, a zbędne połączenia między różnymi klastrami zostają zredukowane. Ta hierarchiczna metoda rozwiązuje problem statycznych grafów, umożliwiając bardziej elastyczne i precyzyjne modelowanie zależności między węzłami.

Ponadto, w zaprezentowanej metodzie AHSGC, używa się dwóch funkcji strat – jednej do klasteryzacji, a drugiej do rekonstrukcji grafu. Celem jest minimalizacja całkowitej funkcji celu LO, która uwzględnia oba te aspekty (wzór 6.29). Używając tej metody, możliwe jest przeprowadzenie procesu samouczenia sieci oraz niezależnej rekonstrukcji grafu, co znacząco poprawia jakość uzyskanych wyników klasteryzacji. Klasteryzacja węzłów odbywa się na podstawie wyuczonej przestrzeni osadzania, którą uzyskuje się po kilku iteracjach przez zastosowanie adaptacyjnych filtrów grafowych.

Po zakończeniu procesu klasteryzacji, uzyskujemy ostateczne wyniki, które pozwalają na dokładniejsze przypisanie węzłów do odpowiednich grup. Dzięki tej metodzie, proces klasteryzacji jest bardziej stabilny i dokładny, a wpływ błędów w strukturze grafu jest zminimalizowany.

Ważne jest, aby pamiętać, że klasteryzacja grafowa nie kończy się na prostym przypisaniu węzłów do klastrów. Zrozumienie struktury grafu oraz odpowiednie dostosowanie parametrów (takich jak liczba iteracji czy liczba warstw filtrów grafowych) ma kluczowe znaczenie dla sukcesu całej metody. Ponadto, przy projektowaniu takich algorytmów, warto zwrócić uwagę na optymalizację parametrów hiperparametrycznych, które mogą znacząco wpłynąć na efektywność procesu klasteryzacji.

Jakie wyzwania niesie za sobą klasyfikacja obrazów hiperspektralnych?

Obrazy hiperspektralne (HSI) stanowią cenne narzędzie w wielu dziedzinach, takich jak wykrywanie minerałów, monitoring rolnictwa czy planowanie rozwoju miast. Dzięki szczegółowym podpisom spektralnym umożliwiają one dokładne rozróżnienie obiektów na podstawie ich unikalnych właściwości fizycznych. Jednakże, pomimo ich szerokiego zastosowania, przetwarzanie i analiza danych hiperspektralnych stanowi ogromne wyzwanie ze względu na ich wysoką wymiarowość oraz złożoność strukturalną. Właśnie dlatego opracowanie skutecznych metod klastrowania obrazów hiperspektralnych, które nie wymagają ręcznego oznaczania próbek, jest kluczowe dla efektywnego wykorzystania tej technologii.

Klastrowanie obrazów hiperspektralnych ma na celu grupowanie pikseli w spójne klastry na podstawie ich cech przestrzennych i spektralnych, bez potrzeby stosowania oznaczonych danych. Tradycyjne podejścia klastrowania opierają się na optymalizacji funkcji celu w celu znalezienia idealnego rozwiązania. W tym kontekście jednak występuje problem z liniowymi założeniami przyjętymi w większości metod, które nie są w stanie uchwycić złożonych reprezentacji cech, szczególnie w przypadkach obrazów hiperspektralnych, gdzie liczba cech spektralnych może sięgać setek, a różnorodność przestrzenna stawia dodatkowe trudności.

W odpowiedzi na te wyzwania, w ostatnich latach rośnie popularność głębokiego klastrowania grafowego opartego na sieciach neuronowych grafowych (GNN). W ramach tej koncepcji wyodrębnia się dwie główne grupy metod klastrowania: metody zależne od augmentacji danych oraz metody niezależne od augmentacji. Pierwsze z nich stosują transformacje takie jak rotacje, przycinanie czy wprowadzanie szumów w celu generowania nowych próbek, jednak takie manipulacje mogą zaburzyć pierwotną strukturę danych hiperspektralnych i zmieniać ich semantyczne znaczenie. Z kolei w drugiej grupie, zamiast sztucznych augmentacji, za próbki pozytywne uznaje się najbliższe sąsiedztwo próbek, a pozostałe traktowane są jako próbki negatywne. Mimo że takie podejście jest bardziej naturalne, może ono prowadzić do problemów, ponieważ wybrane sąsiedztwa nie zawsze odzwierciedlają rzeczywistą strukturę danych.

Pomimo rozwoju tych metod, wiele istniejących podejść klastrowania opartego na uczeniu kontrastywnym (contrastive learning) boryka się z poważnymi ograniczeniami. Tradycyjne podejścia, które zakładają jednolity wkład próbek w proces nauki, nie uwzględniają wyzwań związanych z danymi hiperspektralnymi. Na przykład, sieci uczą się najczęściej na łatwych, dobrze rozdzielnych próbkach, co skutkuje marginalizowaniem bardziej złożonych przypadków, które są kluczowe dla uzyskania wysokiej jakości klastrów. Dodatkowo, w klasycznych ramach kontrastywnych, proces treningu staje się podatny na szumy w tle, które mogą zaburzyć proces klastrowania, obniżając dokładność modelu.

Aby rozwiązać te problemy, zaproponowano nowe podejście: Klastrowanie Grafowe Kontrastywne z Wydobywaniem Trudnych Próbek (Spatial-Spectral Graph Contrastive Clustering with Hard Sample Mining, SSGCC). Nasza metoda opiera się na integracji cech przestrzennych i spektralnych z wykorzystaniem superpikseli jako kotwic w przestrzeni cech. Te kotwice są następnie analizowane przez autoenkodery grafowe, co pozwala na naukę silniejszych i bardziej reprezentatywnych cech bez konieczności sztucznej manipulacji danymi. Kluczową innowacją w tej metodzie jest wprowadzenie mechanizmu ważenia próbek, który dostosowuje znaczenie próbek w procesie kontrastywnego uczenia. Dzięki temu model nie koncentruje się tylko na łatwych do oddzielenia próbkach, ale także uwzględnia trudniejsze przypadki, które są kluczowe dla dokładności i spójności procesu klastrowania.

W metodzie SSGCC, wykorzystanie cech przestrzennych i spektralnych w sposób zintegrowany pozwala na dokładniejsze rozróżnianie trudnych próbek, takich jak te, które mają niską podobieństwo w ramach tej samej klasy lub, przeciwnie, należą do różnych klas, ale wykazują wysoką podobieństwo. Problem z danymi tła, które często wprowadzają szum, również zostaje rozwiązany dzięki zastosowaniu techniki ważenia próbek, która zmienia sposób traktowania różnych typów próbek. Dzięki temu możliwe jest nie tylko poprawienie jakości klastrowania, ale również uzyskanie bardziej stabilnych wyników w analizie obrazów hiperspektralnych.

To podejście nie tylko zapewnia lepszą reprezentację cech, ale również umożliwia bardziej zaawansowaną i precyzyjną klasyfikację w trudnych warunkach, takich jak zmieniające się warunki czasowe lub obecność zakłóceń w tle. Praktyczne zastosowanie tej metody może być szerokie, od monitorowania zdrowia roślin w rolnictwie, przez detekcję minerałów, aż po analizę środowiska miejskiego.

Oprócz samego zastosowania algorytmów kontrastywnych, kluczowym elementem skuteczności takich metod w rzeczywistych zastosowaniach jest ciągłe dopasowywanie i optymalizacja parametrów modelu. Wysokiej jakości dane wejściowe, jak również odpowiednia strategia przetwarzania wstępnego, mają fundamentalne znaczenie dla sukcesu w implementacji takich technik. Technologie te oferują także dużą elastyczność w kontekście specyfiki zadania – możliwość dostosowania algorytmów do różnorodnych typów obrazów hiperspektralnych oraz problemów analitycznych stanowi ogromny potencjał w ich dalszym rozwoju i zastosowaniu.