Hyperspektrala data, som ofta används för att analysera markanvändning och geospatial information, ställer särskilda krav på effektiv hantering och tolkning. Traditionella metoder för subspace-klustring har visat sig otillräckliga när det gäller att korrekt representera strukturen i hyperspektrala bilder, vilket leder till att deras prestanda inte lever upp till de möjligheter som moderna djupinlärningsmetoder erbjuder. Den föreslagna CMSCGC-ramverksmetoden erbjuder överlägsna resultat när det gäller visualisering och precision på alla utvärderade dataset. Genom att anpassa texturfunktioner har vår metod signifikant reducerat störande speckelbrus i de klassificerade resultaten jämfört med alternativa metoder. Det grafbaserade konvolutionsnätverket bidrar till att förbättra den spatiala konsistensen genom att effektivt sprida information från grannskapet, vilket resulterar i bättre enhetlighet inom varje klass och bättre bevarande av objektgränser.

Vid visualisering av kluster i dataseten Indian Pines, Pavia University, Houston-2013 och Xu Zhou framgår tydligt de fördelar CMSCGC har över traditionella metoder som k-means och SSC. I dessa jämförelser, där varje metod bedöms utifrån bildens färger och den verkliga klusterinformationen, visar CMSCGC både bättre objektgränser och högre intern enhetlighet i varje klass, vilket är avgörande för korrekt tolkning av hyperspektrala bilder.

Ramverket är särskilt effektivt när det gäller att bevara och förstärka spatiala och spektrala egenskaper genom att integrera texturdata. De traditionella metoderna, som k-means och EGCSC, misslyckas ofta med att ta hänsyn till den komplexa interaktionen mellan spektrala och spatiala komponenter i data, vilket gör att CMSCGC erbjuder en avsevärt förbättrad klusteruppdelning.

En viktig aspekt av CMSCGC-ramverket är dess förmåga att anpassa och optimera hyperparametrar för att maximera prestanda. I experimenten som utfördes för att utvärdera inflytandet av olika parametrar, såsom regulariseringskoefficienten λ och antalet närmaste grannar (k), visade det sig att val av rätt parametrar är avgörande för att undvika under- eller överskridande av prestandagränser. Ett för lågt värde på λ i vissa dataset, som Houston, ledde till försämrad prestanda, medan stabila resultat erhölls för andra dataset, som Xu Zhou, även vid olika värden. Detsamma gäller för valet av k, där det är viktigt att undvika för höga värden som kan leda till överglättning av data och därmed förlust av viktiga diskrimineringsegenskaper.

En av de mest anmärkningsvärda förbättringarna som CMSCGC-ramverket introducerar är användningen av multi-view fusion, där både spektrala och texturala data används samtidigt för att skapa mer representativa kluster. Experimenten visade att en sådan fusion ger en märkbar ökning i noggrannheten i klusteranalysen, vilket framgår av resultat från Indian Pines, Pavia University och Xu Zhou, där flerfaldig fusion ökade noggrannheten med upp till 18,56%.

Vidare spelar kontrastiv inlärning en nyckelroll för att förbättra CMSCGC:s prestanda. Genom att inkorporera en kontrastiv förlustfunktion kan nätverket effektivt distansera mellan olika kluster, vilket leder till mer precisa och skilda klassificeringar. I alla de dataset som utvärderades resulterade införandet av kontrastiv inlärning i förbättringar på mellan 2,9% och 6,09% i klusternoggrannhet.

För att optimera konstruktionen av affinitetsmatrisen introducerar CMSCGC också en adaptiv uppmärksamhetsbaserad fusionsmodul som förbättrar prestandan ytterligare. Jämfört med en grundläggande medelvärdesfusion, där alla grannar behandlas lika, ger den adaptiva metoden en dynamisk justering baserat på den specifika viktigheten av varje granne, vilket resulterar i bättre och mer precisa kluster.

Viktigt att förstå är att CMSCGC inte bara är en metod för att förbättra klusteranalys, utan också ett ramverk för att hantera komplexa, högdimensionella data med både spektrala och texturala komponenter. Genom att utnyttja djupinlärning och grafbaserade tekniker adresserar CMSCGC de svagheter som traditionella metoder inte kan hantera, som att bevara spatiala relationer och uppnå högre intra-klass enhetlighet. Det gör det till ett kraftfullt verktyg för att analysera och tolka hyperspektrala bilder på ett sätt som inte var möjligt tidigare.

Hur kan självsuperviserade graph-konvolutionella nätverk med lågpassfiltrering användas för klustring av hyperspektrala bilder?

Hyperspektrala bilder (HSI) som samlas in via fjärranalyssystem erbjuder en mängd smala spektrala band, vilket ger rik information både spatialt och spektralt över det elektromagnetiska spektrumet. På grund av dessa fördelar har HSI blivit ett viktigt verktyg inom olika områden, som militär övervakning, stadsplanering, biokemisk analys, brandövervakning och objektidentifiering. En av de centrala teknikerna för HSI-analys är hyperspektral bildklassificering (HSIC), som syftar till att kategorisera individuella pixlar i olika markanvändningstyper utan att använda förhandsdefinierade etiketter. Traditionellt har HSIC baserats på övervakade och semi-övervakade metoder som har visat lovande resultat, men dessa kräver stora mängder annoterade data för att träna modeller, vilket gör metoderna både arbetsintensiva och tidskrävande.

I takt med att behovet av att automatisera och effektivisera HSI-klassificeringen har vuxit, har okontrollerade klustringsmetoder blivit allt viktigare. Till skillnad från övervakade tekniker, där etiketterna är förutbestämda, innebär klustring att liknande pixlar grupperas i kategorier utan några förhandsinformationer. Denna metod är särskilt användbar när det gäller att arbeta med stora dataset där det inte finns tillräcklig etiketterad data för att träna traditionella modeller. HSI-klustring står dock inför många utmaningar på grund av avsaknaden av förkunskaper, stora spektrala variationer och den höga dimensionaliteten hos HSI-data.

I det förflutna har en mängd olika klustringsalgoritmer utvecklats för att hantera dessa problem. Tidiga metoder som k-means, spektral klustring och Fuzzy C-means använde endast spektral information och ignorerade den spatiala informationen som också är viktig för en korrekt klustring. Detta begränsade deras prestanda när det gäller att hantera komplexa hyperspektrala bilder. För att åtgärda denna brist har det utvecklats spektral-spatiala klustringsmetoder som bättre tar hänsyn till både spektral och spatial information, vilket har lett till förbättrade resultat. Trots detta kvarstår problemen med att hantera den höga dimensionaliteten hos HSI, och nya metoder som spars subspace clustering (SSC) har också tagits fram för att hantera detta genom att representera data i ett lägre dimensionsutrymme.

Men även om dessa metoder har visat sig vara effektiva i vissa sammanhang, har de en gemensam begränsning: de är baserade på grundläggande maskininlärningstekniker och kan inte lära sig de högnivåfunktioner som krävs för att hantera de stora variationerna och den komplexa strukturen hos hyperspektrala dataset. För att övervinna denna begränsning har djupa inlärningstekniker alltmer använts för att förbättra klustringens noggrannhet. I tidigare studier har modeller som den grafbaserade residualsubspaceklusterningsnätverket (GR-RSCNet) och den skalbara SGCNR-modellen använts för att lära sig robusta icke-linjära relationer mellan spektral och spatial information. Dessa modeller använder djupa nätverk för att extrahera funktioner från data, men de är inte specifikt anpassade för stora HSI-dataset.

De senaste framstegen inom denna teknik har lett till utvecklingen av mer sofistikerade metoder, som autoencodermodeller som använder kontrastiv inlärning för att förbättra representationen av HSI. Trots dessa framsteg har många av de existerande metoderna fortfarande problem med att effektivt hantera stora och komplexa hyperspektrala dataset, och de förbises ofta den viktiga lokala informationen som finns i varje lager av data.

För att lösa dessa problem föreslår vi en ny metod som kallas L2GCC (Self-Supervised Locality Preserving Low-Pass Graph Convolutional Embedding). Denna metod bygger på en självsuperviserad inlärningsteknik där lågpassfiltrering tillämpas för att bevara lokal information när man bearbetar grafen som representerar HSI-data. En viktig aspekt av denna metod är dess förmåga att bevara den spatiala och spektrala informationen på superpixelnivå, vilket innebär att den kan hantera både små och stora dataset genom att minska antalet grafnoder och därmed förenkla den efterföljande beräkningen.

Metoden använder också ett grafkonvolutionellt nätverk (GCN) med ett autoencoder-liknande upplägg för att återuppbygga en smidig och komprimerad representation av grafen, vilket förbättrar klustringens noggrannhet. För att stärka den lokala anpassningen ytterligare introduceras ett lager-specifikt uppmärksamhetsmodul i nätverket. Denna modul gör det möjligt för modellen att fokusera på de mest relevanta lokala funktionerna och förbättrar därmed resultatet när den tillämpas på hyperspektrala dataset med stora variationer.

Den föreslagna metoden har visat sig vara särskilt effektiv när det gäller att hantera stora och komplexa HSI-dataset, där tidigare metoder har misslyckats med att leverera tillräckligt bra resultat. Genom att kombinera självsupervision, lågpassfiltrering och grafkonvolutionell inlärning kan L2GCC ge en mer robust och flexibel lösning för klustring av hyperspektrala bilder.

Det är viktigt att förstå att medan denna metod erbjuder stora förbättringar i klustringens noggrannhet, så krävs det fortfarande noggrant förarbete med förbehandling av HSI-data för att optimera resultaten. Det är också avgörande att hålla i åtanke att varje HSI-dataset är unikt och kan kräva specifika anpassningar för att uppnå bästa resultat. Dessutom, trots att L2GCC minskar behovet av annoterade data, är det fortfarande nödvändigt att noggrant överväga de lokala funktionerna och strukturerna i varje dataset för att maximera klustringens effektivitet.

Hur man förbättrar klustring genom hierarkisk korrelationsuppskattning och grafstrukturslärande

Vid klustring av nätverksnoder används vanligtvis inre produkt för att mäta parvis korrelation mellan noder. I praktiken har vi dock upptäckt att denna metod inte alltid är optimal. Orsaken till detta är att klustringsresultaten ofta är starkt brusiga under nätverksträning, vilket försämrar noggrannheten i de resulterande klustren. För att hantera detta problem utvecklades en hierarkisk metod för korrelationsuppskattning. Här uppskattas nodegenskaper genom att integrera vägledning både från den latenta rymden och klustring på ett hierarkiskt sätt.

Processen börjar med beräkningen av en hård pseudo-etikett för varje nod, där den största sannolikheten för tillhörighet till ett visst kluster väljs ut. Pseudo-etiketterna för alla noder erhålls genom att använda en optimeringsfunktion som maximerar sannolikheten för varje nod att tillhöra ett specifikt kluster. Efter detta väljs de noder med högst sannolikhet inom varje kluster ut för vidare analys. På så sätt uppstår en delmängd noder som mer exakt representerar det aktuella klustret. Detta minskar effekterna av brus på klustringen och förbättrar precisionen.

Dock kan denna metod fortfarande vara begränsad, eftersom om kantvikterna enbart baseras på klusterstrukturen, kan felaktiga eller osäkra samband minska noggrannheten i den likhet som används för att konstruera grafen. För att övervinna detta problem introduceras en metod som använder den latenta rymden för att uppskatta likheten mellan noder, istället för att endast använda klusterbaserade metoder. Här beräknas nodegenskaper med hjälp av dot-produktoperationer mellan noder i den latenta rymden, vilket leder till en mer robust och noggrann uppbyggnad av den grafiska strukturen.

Denna metod gör det möjligt att bättre identifiera och korrigera felaktiga eller saknade kantkopplingar genom att noggrant analysera likheten mellan noder i den latenta rymden. Som ett resultat förbättras grafstrukturen, vilket leder till en mer tillförlitlig klustring.

Ett annat vanligt problem i nätverksklustring är att många metoder behandlar grafen som statisk under nätverksträning, vilket innebär att kanterna inom grafen inte ändras över tid. Detta kan orsaka problem, eftersom felaktiga kantkopplingar inte kan korrigeras, och det gör klustring mer utmanande. För att lösa detta problem har en metod för grafkant-sparsification utvecklats. Denna metod syftar till att ta bort kanter mellan olika kluster och återställa kanter inom samma kluster. Genom att göra detta närmar sig kopplingarna inom klustren varandra, medan kopplingarna mellan olika kluster görs mer sparsamma, vilket underlättar klustringen.

Inom varje kluster läggs kanter till mellan de nodepar som har den högsta likheten enligt det beräknade similitetsmåttet. Denna återställning av kanter inom kluster förbättrar nätverksklustringen genom att stärka de interna relationerna. Dessutom tas onödiga kanter bort mellan kluster, vilket ytterligare minskar komplexiteten och förbättrar klustringsprecisionen.

Det är också viktigt att förstå att de dynamiska justeringarna i grafen, genom både återställning och borttagning av kanter, gör det möjligt att upprätthålla en mer anpassningsbar grafstruktur under hela träningsprocessen. Detta gör att kluster blir mer sammanhängande och att nätverksklustring kan utföras mer effektivt och exakt.

I kombination med detta tillvägagångssätt införs en metod för homofili-förstärkt strukturlärande. Detta innebär att graphens adjacency-matris uppdateras för att återspegla förändringar i nätverkets struktur. När nya kanter tillkommer eller tas bort, justeras nätverkets lärande på ett sätt som gör det mer robust mot felaktiga eller irrelevanta kanter, vilket resulterar i en mer exakt grafuppbyggnad.

För att optimera hela processen används två förlustfunktioner för att både träna klustermodellen och rekonstruera grafstrukturen. Dessa förlustfunktioner kombineras för att minimera den övergripande förlusten i nätverket och förbättra både klustringens noggrannhet och grafens struktur. Detta gör det möjligt att genomföra en självtränande process där nätverket gradvis förbättras genom att justera sina parametrar iterativt.

En annan viktig aspekt är optimeringen av hyperparametrar, som påverkar både nätverkets konvergens och kvaliteten på klustringen. Genom att noggrant finjustera dessa parametrar kan den övergripande prestandan förbättras avsevärt, vilket gör att metoden fungerar bättre för olika typer av dataset och applikationer.

När det gäller de experimentella resultaten visade det sig att den föreslagna metoden, AHSGC, överträffade många nuvarande metoder i termer av både klustringens noggrannhet och grafstrukturens kvalitet. Detta demonstrerades genom omfattande tester med tre välkända HSI-datamängder, där AHSGC visade sig vara både snabbare och mer effektiv än andra algoritmer. De experimentella resultaten indikerar också att den föreslagna metoden är särskilt användbar i komplexa scenarier där grafstrukturer är dynamiska och måste anpassas över tid.

Hur påverkar hyperparametrar och adaptiva metoder klustringsprestanda i hyperspektrala bilder?

I denna analys undersöks hur olika hyperparametrar inom Adaptive Homophily Structure Graph Clustering (AHSGC) påverkar klustringsresultatet för hyperspektrala bilder (HSI). Parametrarna inkluderar antalet iterationer (T), inlärningshastigheten (L), andelen återställda kanter inom kluster (ξ) och andelen borttagna kanter mellan kluster (η). Genom en systematisk grid search-strategi kan vi observera betydande variationer i den totala noggrannheten (OA) beroende på dessa värden. Resultaten visar att optimal klustringsprestanda oftast uppnås när ξ ligger mellan 0.5 och 0.7, η mellan 0.3 och 0.5, T mellan 40 och 60, samt L i intervallet 3e-4 till 5e-4. Dessa intervall ger en balans mellan att behålla strukturell information inom kluster och samtidigt effektivt reducera brus från felaktiga eller irrelevanta kopplingar mellan kluster.

Visualisering av klustringsprocessen med hjälp av t-distributed Stochastic Neighbor Embedding (t-SNE) understryker AHSGC:s effektivitet. Ursprungliga dataset, som i figurerna visar fördelningen av grafnoder före klustring, uppvisar ofta hög varians och överlappande kluster. Efter klustringsprocessen med AHSGC syns tydligt minskad intern spridning inom klasser samt ökade avstånd mellan olika klasser. Detta indikerar att modellen framgångsrikt förstärker homogeniteten inom kluster samtidigt som den separerar distinkta marktyper från varandra. Den visuella kontrasten mellan pre- och post-klustring demonstrerar den adaptiva filtergrafkodarens och homofili-förstärkta strukturens bidrag till en mer kompakt och distinkt klusterstruktur.

Ablationsstudier, där vissa komponenter av AHSGC systematiskt tas bort, visar att varje modul bidrar till klustringsnoggrannheten i varierande grad. Utan homogena regioners genereringsblock (AHSGC-V1), adaptiv filtergrafkodare (AHSGC-V2), eller homofili-förstärkt strukturinlärning (AHSGC-V3), sjunker prestandan markant. Det understryker vikten av att kombinera både spatial-spektrala förbearbetningar och adaptiva grafstrukturer för att förbättra representationskvaliteten och den slutgiltiga klustringen. Dessa resultat belyser hur integrerade moduler tillsammans möjliggör en robust och effektiv klustringsmetod för hyperspektrala data.

Modellen initieras med homogena regioner, vilket bevarar lokal rumslig-spektral struktur och reducerar grafens komplexitet genom färre noder. Den adaptiva filtergrafkodaren fångar dynamiskt både hög- och lågfrekevensinformation, vilket är avgörande för att extrahera både detaljer och övergripande mönster. Homofili-förstärkt strukturinlärning justerar grafens kopplingar baserat på orienterad korrelationsbedömning och kantförtunning, vilket säkerställer att nätverket fokuserar på relevanta relationer. Självtränande dekodrar genererar pseudo-etiketter med hjälp av Kullback-Leibler-divergens, vilket ytterligare förbättrar nätverkets träningsdynamik.

Framtida forskningsvägar pekar mot integration av fler spatial-spektrala självövervakade metoder för grafinlärning och införande av förstärkningsinlärning i förbearbetningen av hyperspektrala data. Dessa tillvägagångssätt kan ytterligare förbättra funktionsextraktionen och klustringens precision, särskilt i komplexa eller högdimensionella data.

Det är väsentligt för läsaren att förstå att framgångsrik klustring i hyperspektrala bilder kräver en balans mellan bevarande av lokal struktur och global distinktion. Parametrarnas inställningar, liksom den adaptiva justeringen av grafens struktur, är centrala för att undvika överförenkling eller överkomplexitet. Även om avancerade tekniker som AHSGC erbjuder betydande förbättringar, kräver varje dataset noggrann kalibrering och förståelse för dess unika egenskaper. Att tillämpa och vidareutveckla dessa metoder innebär också att man måste vara medveten om begränsningar i dataets kvalitet, brus och den spatiala upplösningen, vilka alla påverkar slutresultatet. Därför är en djup förståelse för både teoretiska principer och praktisk anpassning avgörande för framgång inom hyperspektral klustring.

Hur kan grafbaserad klustring förbättra analysen av hyperspektrala bilder?

Djupinlärningsbaserade metoder har revolutionerat klustring av hyperspektrala bilder (HSI) genom sin förmåga att extrahera robusta, icke-linjära och högdimensionella representationer. Tekniker som neighborhood contrastive subspace clustering (NCSC) och kontrastiv inlärning med hjälp av oetiketterade data har gjort det möjligt att adressera problemet med bristande annoteringar. Trots dessa framsteg uppvisar befintliga metoder fortfarande svagheter vid hantering av komplexa, storskaliga dataset. De lider av låg klustringsnoggrannhet, otillräcklig anpassningsförmåga till olika HSI-dataset och begränsningar i förmågan att lära in adaptiva hög-nivårepresentationer, främst på grund av spektral variabilitet och det höga antalet dimensioner.

Särskilt problematiskt är att de flesta modeller försummar lagervisa lokala egenskaper, vilket minskar den kontextuella känsligheten i analysen. Detta begränsar ytterligare deras praktiska användbarhet inom tillämpningar som jordobservation, miljöövervakning och precisionsjordbruk, där detaljrikedom i spektral information är avgörande.

Grafbaserad klustring, med rötter i grafteorin, har därför vunnit mark som ett alternativ som erbjuder både strukturmedvetenhet och adaptivitet. Istället för att förlita sig enbart på spektral likhet, modellerar grafbaserade metoder relationerna mellan pixlar genom att konstruera en likhetsgraf där noder representerar pixlar och vikterna i den tillhörande adjacitetsmatrisen återspeglar likheter mellan dem. Kvaliteten på denna matris är avgörande – ju bättre den fångar de underliggande relationerna i data, desto mer exakt blir klustringsresultatet.

De mest inflytelserika grafbaserade metoderna använder varianter av så kallade graph cut-algoritmer, där målet är att maximera den inre likheten inom varje subgraf samtidigt som den yttre likheten mellan subgrafer minimeras. Spektral klustring, som utnyttjar normaliserad cut-teknik, är ett typiskt exempel. Den har legat till grund för mer sofistikerade varianter som Schrödinger-Eigenmap-algoritmen med icke-diagonala potentialer, vilken förbättrar både spektral och spatial samverkan. Andra tillvägagångssätt som grafbaserad nonlocal total variation (NLTV) samt JC-BAAM-algoritmen med block-diagonal förstärkning har visat sig effektiva för att öka separabiliteten mellan olika klasser i komplexa HSI-dataset.

Trots de uppenbara fördelarna har grafbaserad klustring utmaningar. Den största är den höga beräkningskomplexiteten, som ställer krav på optimering mellan effektivitet och noggrannhet. En annan central begränsning ligger i den initiala grafkonstruktionen – felaktig uppskattning av pixelrelationer kan leda till strukturellt bristfällig representation, vilket i sin tur påverkar hela klustringsprocessen negativt. Den spektrala variabiliteten och höga korrelationen mellan pixlar i HSI gör det dessutom svårt att identifiera meningsfulla grannskapsstrukturer utan avancerade regulariseringsstrategier.

Med inspiration från djupinlärningens framsteg växer nu intresset för att integrera grafbaserad klustring med neurala nätverk. Syftet är att konstruera modeller som både kan lära sig hierarkiska representationer och samtidigt behålla lokal strukturinformation. Det handlar inte bara om att skapa en exaktare adjacitetsmatris, utan även om att utveckla mekanismer för informationsspridning inom grafen som är mer semantiskt medvetna. Genom att kombinera spatiala och spektrala egenskaper i ett gemensamt grafnätverk, möjliggörs mer robust analys av bilder med komplex intern struktur.

Ett exempel på denna typ av integration är spatial–spectral graph contrastive clustering (SSGCC), som utnyttjar dubbla vyer – spektral och spatial – för att undvika brus som vanligtvis introduceras genom dataaugmentation. Modellen fokuserar på att identifiera och lära av svåra exempel snarare än att behandla alla datapunkter likvärdigt. Vikten hos varje exempel justeras dynamiskt beroende på dess relativa svårighetsgrad, vilket förbättrar modellens diskriminativa förmåga och minskar överanpassning till enkla mönster.

En annan lovande inriktning är multi-view subspace graph convolutional clustering, där flera typer av information – såsom textur och topologiska samband – behandlas parallellt genom olika grafkonvolutionella nätverk och sedan integreras med hjälp av uppmärksamhetsmekanismer. Denna strategi möjliggör en mer detaljerad analys av högnivåstrukturer i HSI och öppnar upp för förbättrad generalisering över olika datakällor.

Vad som också är avgörande för fortsatt utveckling är en djupare förståelse av hur spektral information och grafstruktur interagerar. Den nuvarande forskningen tenderar att antingen fokusera för mycket på att förbättra nätverksarkitekturen eller på att finjustera grafen, medan den samspelande dynamiken mellan dessa två nivåer förblir relativt outforskad. Här finns ett behov av teoretiska ramar som tydligare definierar hur grafrepresentationer bör anpassas beroende på bildens innehåll, samt vilka spektrala mönster som bäst lämpar sig för klustring i olika applikationsdomäner.

För att uppnå verklig skalbarhet i praktiska tillämpningar, som analys av satellitdata eller flygburna observationer i realtid, måste framtida metoder även optimeras för distribuerade beräkningar och minneshantering. Parallellisering av grafinlärning, reduktion av antalet parametrar utan att kompromissa med representationens uttryckskraft, och adaptiva strategier för hantering av varierande bildupplösning är alla viktiga komponenter i denna strävan.