Bij clustering wordt het vaak moeilijk om consistente patronen te vinden in gegevens die afkomstig zijn uit verschillende perspectieven. Dit kan opgelost worden door het integreren van consistente patronen over verschillende weergaven, wat de prestaties van clustering aanzienlijk kan verbeteren. In deze context speelt contrastieve leren een cruciale rol, vooral in situaties waar gegevens variëren tussen verschillende visuele of representatieve perspectieven. Het idee is om een representatie van een knooppunt te verkrijgen die tegelijkertijd de eigenschap behoudt die door de verschillende perspectieven gedeeld wordt, en tegelijkertijd de unieke eigenschappen van elk perspectief te behouden.

De basisprincipes van contrastieve leren omvatten het genereren van positieve en negatieve voorbeeldparen. Positieve paren zijn die welke hetzelfde concept representeren in verschillende perspectieven, terwijl negatieve paren afkomstig zijn van willekeurig gekozen knooppunten die geen verband houden met de doelstructuur. Het uiteindelijke doel is om de representaties van positieve paren dichter bij elkaar te brengen, terwijl negatieve paren verder van elkaar verwijderd worden, wat helpt bij het creëren van robuuste clusteringresultaten. Recent onderzoek naar contrastieve leren heeft geleid tot de ontdekking van effectieve methoden om de kwaliteit van de gegenereerde voorbeeldparen te optimaliseren, aangezien de selectie van deze paren een cruciale invloed heeft op de uiteindelijke prestaties van het model.

In ons voorgestelde kader maken we gebruik van natuurlijk voorkomende, hoogwaardige positieve paren (d.w.z. overeenkomstige knooppunten over verschillende weergaven) en gebruiken we willekeurig geselecteerde knooppunten uit verschillende grafen als negatieve voorbeelden. Wanneer we een knooppunt i in de grafiek overwegen, is de representatie van dat knooppunt in één perspectief (genoteerd als z_i) het ankerpunt. De overeenkomstige representaties in de andere perspectieven, genoteerd als z'_i, vormen de positieve voorbeelden. Het verlies wordt geoptimaliseerd door de negatieve paren zo ver mogelijk van de positieve paren te houden, wat leidt tot verbeterde representaties die beter kunnen worden geclusterd.

De verliesfunctie die we gebruiken kan wiskundig als volgt worden beschreven:

l(zi,zi)=log(esim(zi,zi)/τk=1Nesim(zi,zk)/τ)l(z_i, z'_i) = - \log \left( \frac{e^{\text{sim}(z'_i, z_i)/\tau}}{\sum_{k=1}^{N} e^{\text{sim}(z'_i, z_k)/\tau}} \right)

waarbij τ\tau een temperatuurparameter is (die in dit hoofdstuk op 1 is ingesteld), en sim()\text{sim}(\cdot) de cosinus-similariteit is. Het doel is om de gemiddelde waarde van deze verliesfunctie te minimaliseren voor alle positieve paren in het netwerk, wat leidt tot geoptimaliseerde representaties die geschikt zijn voor clustering.

Na het verkrijgen van de affiniteitsmatrices, die de relaties tussen de knooppunten representeren in verschillende perspectieven, moeten we deze matrices combineren om de uiteindelijke affiniteitsgrafiek te creëren. Dit kan worden bereikt met behulp van een attention-gebaseerd fusieproces. De rol van het attention-systeem is om de relevantie van elke weergave te beoordelen en een gewogen combinatie van de affiniteitsmatrices te creëren. Dit wordt bereikt door gebruik te maken van de tanh functie, gevolgd door een softmax en L2 normalisatie om de uiteindelijke gewichten te bepalen die de aandacht voor elk perspectief reflecteren. Deze gewichten stellen ons in staat om de belangrijkste informatie uit elke weergave effectief te combineren, wat resulteert in een geoptimaliseerde zelf-expressiematrix.

In het fusieproces worden de matrices van de verschillende perspectieven gecombineerd en gewogen volgens hun belang voor het uiteindelijke doel. De fused self-expression matrix kan dan worden gebruikt voor de spectrale clusteringprocedure, die ons de uiteindelijke clusteringresultaten oplevert.

Verder heeft het contrastieve leren een opvallend effect op de manier waarop de knooppunten in de grafiek worden gegroepeerd. Dit heeft niet alleen invloed op de precisie van de clustering, maar ook op de robuustheid van de clusterstructuren, vooral wanneer de gegevens afkomstig zijn uit meerdere, onafhankelijke visuele of andere soorten representaties.

Bij het implementeren van dergelijke methoden moeten verschillende experimentele configuraties worden overwogen. In onze experimenten gebruiken we datasets die afkomstig zijn uit hyperspectrale beeldverwerkingsscenario’s, waarbij we vier benchmarkdatasets hebben gekozen: Indian Pines, Pavia University, Houston 2013, en Xu Zhou. Elke dataset wordt gekarakteriseerd door zijn eigen unieke eigenschappen in termen van resolutie, spectrale dekking, en het aantal landbedekkingstypes.

Bijvoorbeeld, de Indian Pines dataset bevat 200 spectrale kanalen en representatieve landbedekkingen, zoals grasland en bosgebied. Pavia University biedt gedetailleerdere spectrale dekking met een resolutie van 1,3 meter per pixel en bevat 8 verschillende klassen van landbedekking. De Houston 2013 dataset bevat 12 klassen van landbedekking, terwijl Xu Zhou zich richt op beelden van een stedelijke omgeving met vijf verschillende oppervlaktetypes. Al deze datasets zijn geanalyseerd met behulp van de voorgestelde clusteringmethoden en geanalyseerd op basis van nauwkeurigheid en clusteringconsistentie.

De resultaten van deze experimenten tonen aan dat de voorgestelde aanpak zeer effectief is, vooral wanneer het gaat om het correct groeperen van knooppunten die afkomstig zijn uit verschillende visuele perspectieven. De keuze voor de juiste waardes van hyperparameters, zoals het aantal buren in de grafiek en de regularisatiecoëfficiënt, heeft een aanzienlijke invloed op de prestaties van het model. Bij het afstemmen van deze parameters is het van essentieel belang om de balans te vinden tussen de mogelijkheid om nauwkeurige clusteringresultaten te behalen en het behoud van de robuustheid van de representaties.

Het belang van contrastieve leren in combinatie met grafconvolutienetwerken en multi-view representaties is niet te onderschatten. Dit biedt de mogelijkheid om de variatie tussen verschillende datastromen te integreren en tegelijkertijd consistente, robuuste clusteringresultaten te leveren. Aangezien de prestaties van dergelijke methoden sterk afhangen van de kwaliteit van de voorbeeldparen, is het essentieel om te investeren in geavanceerde technieken voor het genereren van hoogwaardige positieve en negatieve paren, waarbij rekening wordt gehouden met de specifieke kenmerken van de data.

Hoe kan contrastieve leren in hyperspectrale beeldclustering de prestaties verbeteren?

De effectiviteit van clustering bij hyperspectrale beelden is van cruciaal belang voor verschillende toepassingen in remote sensing, zoals landbedekkingstoepassingen, milieu-analyse en landbouwmonitoring. Traditionele methoden voor hyperspectrale beeldclustering zijn vaak afhankelijk van handmatige extractie van kenmerken en hebben moeite met het omgaan met de hoge dimensionaliteit en de variabiliteit van de gegevens. De recente vooruitgangen in contrastief leren en grafgebaseerd leren bieden nieuwe mogelijkheden om deze uitdagingen aan te pakken.

Het combineren van ruimtelijke en spectrale kenmerken is een essentieel aspect bij hyperspectrale beeldanalyse, omdat het de kwaliteit van de gegenereerde clustering verbetert. Ruimtelijke informatie draagt bij aan de geometrie en de lokale structuur van de gegevens, terwijl spectrale informatie helpt bij het vastleggen van de specifieke eigenschappen van elk spectrum in hyperspectrale beelden. De uitdaging ligt in het effectief combineren van deze twee verschillende soorten gegevens voor een robuuste clustering. Contrastief leren speelt hier een sleutelrol, vooral wanneer het wordt gecombineerd met grafstructuren die de relaties tussen verschillende pixels of spectrale banden representeren.

In de context van grafgebaseerd leren worden de gegevens gepresenteerd als een graf, waarbij de knopen de individuele spectrale gegevenspunten zijn, en de randen de relaties tussen deze punten beschrijven op basis van zowel spectrale als ruimtelijke overeenkomsten. Dit biedt een krachtige benadering om de intrinsieke structuur van de gegevens vast te leggen. Door gebruik te maken van contrastief leren kunnen we knopen in de graf versterken die tot dezelfde cluster behoren, terwijl we tegelijkertijd knopen uit verschillende clusters scheiden. Dit resulteert in een nauwkeurigere en robuustere clustering van hyperspectrale beelden.

Een belangrijk aspect van dit proces is het gebruik van 'hard sample mining'. Dit betekent dat het model bewust wordt getraind om de moeilijkste gevallen van misclassificatie te identificeren en deze voorbeelden in de trainingsdata te integreren. Dit verbetert het vermogen van het model om onderscheid te maken tussen suboptimale clusters, vooral in situaties waarin er veel ruis of overlappen tussen verschillende spectrale klassen is. Dit zorgt ervoor dat de uiteindelijke clustering niet alleen accuraat is, maar ook bestand tegen variaties in de data.

Naast de structurele en spectrale elementen is de efficiëntie van het proces van cruciaal belang, vooral bij het werken met grote hyperspectrale datasets. Methodes zoals laagdoorlaatfilters worden gebruikt om de grafstructuren te denoisen, waardoor de robuustheid van het model verder wordt vergroot. Door gebruik te maken van cross-view contrastive learning, wordt het model versterkt om consistentie te behouden bij het leren van verschillende weergaven van de gegevens, wat essentieel is voor het verkrijgen van betrouwbare resultaten bij variabele omgevingsomstandigheden of sensorinstellingen.

Echter, de meeste bestaande methoden in de grafgebaseerde clustering voor hyperspectrale beelden ondervinden problemen bij het behouden van zowel de lokale structuur als de globale consistentie van de data. Veel van deze methoden zijn niet voldoende adaptief, wat betekent dat ze moeite hebben om zich aan te passen aan veranderingen in de structuur van de data naarmate de clustering evolueert. Dit kan leiden tot suboptimale prestaties, vooral in dynamische of variabele omgevingen. Om deze tekortkomingen aan te pakken, zijn recente benaderingen gericht op het verbeteren van de robuustheid en de aanpasbaarheid van de grafgebaseerde clusteringmodellen.

De toevoeging van adaptieve homofilie-structuren voor graf clustering maakt het mogelijk om de structurele informatie van hyperspectrale beelden beter te benutten. Homofilie verwijst naar het principe waarbij vergelijkbare knopen in een graf dichter bij elkaar liggen. Dit principe kan helpen om clusters nauwkeuriger te definiëren door de structuren te benutten die van nature in de data aanwezig zijn. Het gebruik van dergelijke structuren verbetert niet alleen de clusteringnauwkeurigheid, maar verhoogt ook de efficiëntie van het model bij het verwerken van grote datasets.

Het succes van deze methoden wordt gevalideerd door experimenten op benchmarkdatasets zoals Salinas, Pavia University en Trento. De resultaten tonen aan dat de voorgestelde benaderingen aanzienlijke verbeteringen bieden ten opzichte van de bestaande stand van de techniek, vooral op het gebied van clusteringnauwkeurigheid, schaalbaarheid en ruisbestendigheid. Dergelijke verbeteringen zijn essentieel voor de praktische toepassing van hyperspectrale beeldanalyse in real-world scenario's, waar de data vaak onvolledig of verstoord is.

Voor onderzoekers, praktijkmensen en studenten die geïnteresseerd zijn in remote sensing en machine learning, biedt dit werk een waardevolle bijdrage. Het biedt niet alleen theoretische inzichten in grafgebaseerde leertechnieken en contrastief leren, maar levert ook praktische tools die kunnen worden toegepast in verschillende domeinen van gegevenswetenschap en beeldverwerking. Het begrijpen van graftheorie, contrastief leren en subspace clustering is essentieel voor het effectief gebruiken van deze methoden in hyperspectrale beeldanalyse.

Het is van belang te benadrukken dat de effectiviteit van grafgebaseerd leren niet alleen afhankelijk is van de specifieke algoritmische benaderingen die worden gebruikt, maar ook van de manier waarop de data wordt voorbereid en gepresenteerd aan het model. De keuze van de juiste representatie van de gegevens speelt een cruciale rol in het succes van de clustering. Het ontwikkelen van geavanceerde preprocessing-methoden, zoals het verbeteren van de kwaliteit van de inputdata door denoising en dimensionaliteitsreductie, kan het uiteindelijke resultaat verder verbeteren. Daarnaast is de interpretatie van de resultaten van cruciaal belang: hoewel de clustering nauwkeurig kan zijn, moeten de interpretaties van de gegenereerde clusters altijd in de context van de specifieke toepassing worden geplaatst.

Hoe Kan Self-Supervised Graph Convolutional Learning de Clustering van Hyperspectrale Beelden Verbeteren?

De clustering van hyperspectrale beelden (HSI) is een essentieel onderdeel van vele toepassingen in de remote sensing en beeldanalyse, maar het blijft een uitdaging vanwege de complexiteit en de vereiste verwerkingscapaciteit. Hyperspectrale beelden bevatten duizenden spectrale banden die gedetailleerdere informatie bieden dan traditionele multispectrale beelden, wat het analyseproces zowel krachtig als complex maakt. Traditionele methoden vereisen vaak grote hoeveelheden gelabelde trainingsdata, wat in veel gevallen moeilijk te verkrijgen is. Een belangrijke richting in het verbeteren van de clustering van deze beelden is het gebruik van self-supervised learning technieken, zoals self-supervised graph convolutional networks (SLCGC), die in staat zijn om complexe patronen te leren zonder de noodzaak van uitgebreide gelabelde datasets.

Een van de belangrijkste uitdagingen bij hyperspectrale beeldanalyse is het tekort aan gelabelde gegevens. In veel gevallen is het verzamelen van voldoende gelabelde monsters duur en tijdrovend, vooral in risicovolle of moeilijk bereikbare omgevingen. Dit probleem wordt nog verergerd door de hoge dimensionaliteit van hyperspectrale gegevens, wat kan leiden tot overfitting wanneer er onvoldoende gegevens beschikbaar zijn. Het gebruik van self-supervised methoden kan echter de behoefte aan gelabelde data drastisch verminderen door de mogelijkheid te bieden om structuren in de data zelf te leren zonder expliciete supervisie.

In een self-supervised setup wordt het netwerk getraind om representaties van de input te leren door het zichzelf verschillende vormen van pretext-taken op te leggen. Deze taken zorgen ervoor dat het model nuttige representaties leert, die later kunnen worden gebruikt voor downstream clustering taken. In het geval van hyperspectrale beelden kunnen dergelijke representaties helpen om de intrinsieke structuur van de beelden te ontdekken, zonder dat er specifieke labels nodig zijn.

Een belangrijk aspect van het SLCGC-model is het gebruik van grafgebaseerde methoden. Hyperspectrale gegevens kunnen worden gemodelleerd als grafen, waarbij elke pixel in een beeld een knoop vertegenwoordigt en de randen de relatie tussen aangrenzende pixels beschrijven. Het gebruik van grafconvolutionele netwerken (GCN) maakt het mogelijk om de ruimtelijke en spectrale eigenschappen van het beeld effectief te combineren, wat cruciaal is voor het begrijpen van de complexiteit van hyperspectrale data. Het belangrijkste voordeel van grafgebaseerde benaderingen is dat ze in staat zijn om de lokale structuur van de data te behouden, wat essentieel is voor het ontdekken van betekenisvolle clusters.

Daarnaast speelt contrastief leren een cruciale rol in self-supervised graph convolutional learning. Door positieve en negatieve paren van grafrepresentaties te creëren, kan het model leren onderscheid te maken tussen vergelijkbare en verschillende datapunten, wat helpt bij het verbeteren van de nauwkeurigheid van clustering. Deze techniek maakt het mogelijk om te leren zonder expliciete labels, door het netwerk te dwingen onderscheid te maken tussen verschillende inputvoorbeelden op basis van hun relaties in de grafen.

Bij de implementatie van SLCGC is een van de belangrijkste stappen de homogene regio-generatie. Dit proces helpt om de beelddata te segmenteren in gebieden met vergelijkbare spectrale kenmerken. Door deze regio’s te clusteren, kunnen de netwerken effectiever leren, aangezien ze minder ruis ervaren en meer betekenisvolle patronen kunnen ontdekken. Het is ook van belang dat tijdens de verwerking van hyperspectrale beelden de laagdoorlaatgrafiek (low-pass graph denoising) wordt toegepast, wat helpt om ruis in de gegevens te verminderen en de kwaliteit van de resultaten te verbeteren.

Om de prestaties verder te verbeteren, wordt de grafstructuur geoptimaliseerd door middel van structureel contrastief leren. Deze techniek versterkt de representaties van de grafknoopstructuren door de relaties tussen de verschillende delen van het netwerk beter te begrijpen. Bij clustering is het essentieel om de juiste representaties te hebben die de onderliggende structuren van de hyperspectrale data kunnen vastleggen. Door de fusiemethoden van kenmerken en clustering toe te passen, kan de nauwkeurigheid van de uiteindelijke clusteringresultaten aanzienlijk worden verbeterd.

Bij het gebruik van deze technieken is het van belang de rekentechnische complexiteit goed te begrijpen. Hyperspectrale gegevens kunnen enorm groot zijn, en de verwerking vereist krachtige hardware en geoptimaliseerde algoritmen om effectief om te gaan met de grote hoeveelheden gegevens die moeten worden verwerkt. Daarom is het belangrijk om de computationale kosten te evalueren en de prestaties van de modellen in verschillende omgevingen te testen, zodat ze in praktijktoepassingen kunnen worden gebruikt.

De effectiviteit van de self-supervised graph convolutional learning methode moet grondig worden geëvalueerd door middel van experimenten met verschillende benchmarks en datasets. Het vergelijken van deze methoden met traditionele supervised clustering technieken biedt een goed inzicht in de voordelen van self-supervised leren. Vaak blijkt uit experimenten dat self-supervised modellen, zelfs zonder uitgebreide gelabelde data, in staat zijn om sterke prestaties te leveren in vergelijking met hun gelabelde tegenhangers.

Een bijkomend belangrijk punt is dat de methoden voor visualisatie van de clusteringresultaten, zoals T-SNE, van groot belang zijn voor de interpretatie van de uitkomsten. Het geeft een visueel overzicht van hoe goed de clusteringmethode heeft gewerkt en of de geïdentificeerde clusters daadwerkelijk betekenisvolle informatie bevatten.

Hoe Lokale Eigenschappen van Grafen te Bewaren bij het Clusteren van Beelden met Zelf-geleide Convolutionele Netwerken

In veel grafengebaseerde taken, zoals het clusteren van knopen, is het essentieel dat knopen die binnen dezelfde cluster vallen, sterke onderlinge relaties vertonen. Dit houdt in dat de knopen in dezelfde cluster vergelijkbare spectrale en ruimtelijke kenmerken moeten delen. Het doel is om een representatie te leren van de knopen in de graf die deze interne relaties weerspiegelt, terwijl tegelijkertijd de verschillen tussen verschillende clusters worden gemaximaliseerd. Deze benadering maakt gebruik van een zelf-geleide en lokaal behoudende laag-doorlatende grafconvolutionele encoder om de latente representatie van knopen te leren.

De kern van deze methode is het gebruik van een autoencoder die op grafen werkt. Dit type netwerk bestaat uit drie hoofddelen: een module die pixels omzet in regio's van de graf, een lokaal behoudende laag-doorlatende grafconvolutionele encoder, en een decoder die de graf reconstrueert. Elk van deze componenten draagt bij aan het algehele leerproces en zorgt ervoor dat het netwerk de benodigde clustering kan uitvoeren zonder expliciete supervisie van labels.

Pixel-naar-Regio Transformatie

In het begin worden de hyper-spectrale beelden (HSI) omgezet in een graf door de pixels te groeperen in lokale superpixels. Het gemiddelde spectrale kenmerk van de pixels binnen elk superpixel wordt vervolgens gebruikt als het kenmerk van de knoop. Dit proces zorgt ervoor dat de graf een representatie van het beeld krijgt die geschikt is voor verdere verwerking door het netwerk.

Lokale Eigenschappen Behoudende Laag-Doorlatende Graf Convolutionele Encoder

De encoder maakt gebruik van een laag-doorlatende grafconvolutionele filter om de smoothness van de grafsignalen te maximaliseren. Dit betekent dat knopen die dicht bij elkaar liggen in de graf, vergelijkbare representaties moeten hebben. De gedachte is dat deze knopen overeenkomsten vertonen in hun spectrale en ruimtelijke kenmerken. In deze encoder worden zowel de knoopkenmerken als de grafstructuur als invoer gebruikt. Het doel is om een representatie van de graf te leren die lokaal behoudend is, zodat de interne variabiliteit binnen de clusters wordt geminimaliseerd, terwijl de afstand tussen clusters wordt vergroot.

Het gebruik van een laag-doorlatende graffilter is essentieel voor deze smoothness. Wanneer de representatie van knopen op de graf wordt gesmooth, is het gemakkelijker om knopen in verschillende clusters van elkaar te onderscheiden. Dit filter werkt door de hoge frequentiecomponenten van de grafsignalen te onderdrukken en alleen de lage frequenties te behouden, wat resulteert in een gladde en goed gestructureerde representatie.

De werking van een laag-doorlatende graffilter kan wiskundig worden beschreven met behulp van de eigenspectra van de graf, en het is mogelijk om de parameter k zodanig te kiezen dat de filter de gewenste smoothness biedt. Dit is van cruciaal belang, omdat de keuze van k bepaalt hoe goed de filter de grafsignalen verwerkt en hoe effectief de clustering zal zijn.

Decoderen van de Graf- en Clustering Proces

Na de encoding van de knoopkenmerken in een lage-dimensionale ruimte, wordt de graf gereconstrueerd door het minimaliseren van de Kullback-Leibler-divergentie tussen de originele en de gereconstrueerde adjacency matrix. Dit proces zorgt ervoor dat de netwerkstructuur behouden blijft en dat de clustering resultante knopen correct worden geclassificeerd. De zelf-geleide clustering maakt gebruik van een soortgelijke benadering door de KL-divergentie te minimaliseren tussen de doelverdeling van de soft labels en de werkelijke distributie.

Deze aanpak resulteert in een end-to-end netwerk dat in staat is om hyper-spectrale beelden automatisch te clusteren, zonder de noodzaak van handmatige labels of toezicht. Door het leren van de latente representatie en het integreren van de grafconvolutionele en clusteringcomponenten, wordt de netwerkstructuur robuust en flexibel voor verschillende soorten grafengebaseerde taken.

Lokale Eigenschappen en De Relatie met Clusterafstanden

Een fundamenteel aspect van de grafrepresentatie is het behoud van lokale eigenschappen tijdens het leerproces. De afstand tussen knopen binnen dezelfde cluster moet minimaal zijn, terwijl de afstand tussen knopen in verschillende clusters maximaal moet zijn. Dit vereist een zorgvuldige afstemming van de filterparameters, zoals het k-waarde in de laag-doorlatende graffilter, om te zorgen voor een optimale smoothness. Het is belangrijk om te begrijpen dat een verkeerde keuze van deze parameters kan leiden tot een onjuiste clustering, waarbij knopen die niet behoren tot dezelfde cluster toch als zodanig worden gegroepeerd.

Daarnaast speelt de keuze van de graflaplacian en de manier waarop deze wordt genormaliseerd een sleutelrol in de prestaties van de grafconvolutienetwerken. De normalisatie van de graflaplacian zorgt ervoor dat de convolutionele filters effectief kunnen werken over het hele netwerk, ongeacht de grootte of de structuur van de graf.

Hoewel de methoden in dit hoofdstuk een solide basis bieden voor het clusteren van grafen, moeten lezers zich bewust zijn van de beperkingen van zelf-geleide benaderingen. Hoewel zelf-geleide clustering krachtige voordelen biedt, zoals de afwezigheid van handmatige labeling, kunnen er situaties zijn waarin een meer gerichte supervisie nodig is voor complexe of ongestructureerde grafen. De effectiviteit van dit netwerk kan ook sterk variëren afhankelijk van de aard van de gegevens en de specifieke toepassing, en daarom is het belangrijk om experimenten zorgvuldig af te stemmen en de parameters van het netwerk aan te passen om de beste resultaten te behalen.

Hoe Hyperparameterinstellingen de Clustering Prestaties Beïnvloeden bij Hyperspectrale Beeldanalyse?

De effectiviteit van clusteringalgoritmes wordt sterk beïnvloed door de juiste keuze van hyperparameters. Dit geldt ook voor het Adaptive Homophily Structure Graph Clustering (AHSGC) model, dat zich richt op het verbeteren van de clustering van hyperspectrale beelden (HSI). Het onderzoek naar de invloed van hyperparameters op de prestaties van clusteringmodellen heeft aangetoond dat variaties in instellingen zoals het aantal iteraties, de leersnelheid en de ratio’s van intra- en inter-cluster verbindingen de uiteindelijke clusteringresultaten aanzienlijk kunnen beïnvloeden.

In dit onderzoek zijn vier cruciale hyperparameters geëvalueerd: het aantal iteraties TT, de leersnelheid LL, de intra-cluster edge recovery ratio ξ\xi, en de inter-cluster edge removal ratio η\eta. Via een grid search strategie werden verschillende combinaties van deze parameters getest om hun effect op de clustering nauwkeurigheid te analyseren. De bevindingen tonen aan dat de prestaties van AHSGC verbeteren wanneer ξ\xi zich in het bereik van [0.5, 0.7] bevindt, η\eta tussen [0.3, 0.5], TT tussen [40, 60] en LL tussen 3×1043 \times 10^{ -4} en 5×1045 \times 10^{ -4}. Deze resultaten benadrukken de grote invloed die deze hyperparameters hebben op de uiteindelijke clustering nauwkeurigheid, wat een belangrijke overweging is bij het afstemmen van het model voor specifieke datasets.

Naast het optimaliseren van de hyperparameters, wordt in de studie gebruikgemaakt van geavanceerde technieken zoals t-distributed Stochastic Neighbor Embedding (t-SNE) voor het visualiseren van de clusteringresultaten. Door de distributie van grafknooppunten voor en na de clustering te vergelijken, blijkt dat AHSGC in staat is om betere clusteringresultaten te leveren door een kleinere covariantie tussen klassen en grotere inter-klassen afstanden te creëren. Dit resulteert in een duidelijkere en compactere distributie van de landbedekkingstypes. De t-SNE visualisatie biedt inzicht in hoe goed het model de data heeft verdeeld en in hoeverre verschillende landbedekkingstypes van elkaar zijn gescheiden na de clustering.

In de ablatiesexperimenten wordt de bijdrage van verschillende modules in het AHSGC-model beoordeeld. De experimentele opzet omvat varianten van het model waarbij bepaalde modules zoals de homogene regio-generatie, de adaptieve filter grafencoder en de homofiele structuurverbetering zijn verwijderd. De resultaten van deze experimenten benadrukken dat elke module een significante rol speelt in het verbeteren van de clustering nauwkeurigheid. Dit suggereert dat het integreren van alle onderdelen essentieel is voor het behalen van de beste prestaties bij de clustering van hyperspectrale beelden.

Een andere relevante bevinding is dat de combinatie van een homofiele structuurversterking met een adaptieve filterbenadering de prestaties van de clustering aanzienlijk verbetert. Het dynamisch aanpassen van grafverbindingen op basis van de taak resulteert in een beter gedefinieerde en meer robuuste clustering. Dit wijst op de belangrijke rol van zowel de data-preprocessing als de verfijnde netwerkarchitecturen die door AHSGC worden toegepast.

Het begrijpen van de interacties tussen deze hyperparameters is van cruciaal belang voor onderzoekers die streven naar het optimaliseren van clusteringmodellen voor hyperspectrale beeldanalyse. Het aanpassen van deze parameters biedt een krachtige manier om de prestaties te verbeteren en betrouwbare clusteringresultaten te verkrijgen. Bovendien zal de voortzetting van dit onderzoek zich waarschijnlijk richten op het ontwikkelen van nog geavanceerdere zelflerende methoden die verder verfijnen hoe we de ruimtelijke en spectrale informatie in hyperspectrale beelden kunnen benutten.