Kraterdetektion är en grundläggande uppgift inom planetär utforskning, där noggrann identifiering av olika kratertyper är avgörande för såväl vetenskaplig forskning som säkerheten vid landningar och navigering i rymden. Under åren har både traditionella metoder och maskininlärning haft sina fördelar och begränsningar. De senaste framstegen, särskilt inom djupinlärning, har dock radikalt förändrat landskapet för hur vi närmar oss denna utmaning.

Tidigare metoder för kraterdetektion var i stor utsträckning baserade på manuell funktionsextraktion. Enligt Kang et al. [2] och Wang et al. [64] användes tekniker som Histogram of Oriented Gradients (HOG) i kombination med stödvektormaskiner (SVM) för att extrahera små kratrar från CCD-bilder. Detta tillvägagångssätt, även om det var relativt robust och krävde relativt låg beräkningskapacitet, var beroende av noggrant designade funktioner och kräver ofta omfattande expertkunskap. Dessa metoder visade sig vara användbara för att hantera variationer i belysning och yttäckning, men de kämpade med att hantera mer komplexa morfologier, såsom peakringsstrukturer, centrala gropar eller högdensitetskraterfält.

Den stora omvälvningen inom området kom med framväxten av djupinlärning, och mer specifikt Konvolutionella Neurala Nätverk (CNN). Genom att automatiskt lära sig hierarkiska representationer av funktioner från data har CNN visat sig vara mycket effektiva för att upptäcka komplexa mönster och relationer som tidigare var svåra att förutsäga genom manuellt designade funktioner. Silburt et al. [53] introducerade DeepMoon, en modifierad U-Net-arkitektur som kan identifiera månkratrar genom att lokalisera deras centroids och radier, samtidigt som den genererar pixelvisa sannolikhetskartor för kratrarnas kanter. Denna teknik för att segmentera bilder på mikronivå har visat sig vara mycket effektiv för att lokalisera kratrar i stor mängd data.

En annan banbrytande metod inom djupinlärning är CraterIDNet som presenterades av Wang et al. [62]. Detta är ett slut-till-slut nätverk som kan ta emot fjärranalysbilder av planeter och ge ut resultat i form av identifierade kratrar, deras diametrar och placeringar. Tekniken innebär att nätverket själv lär sig att förstå de komplexa funktionerna som definierar en krater, vilket ger en oöverträffad noggrannhet och robusthet i detektioner, även när ytors textur eller belysning varierar.

Därutöver har det öppna samfundet bidragit med verktyg som Python Crater Detection Algorithm (PyCDA) som gör det möjligt för forskare att hitta och katalogisera okända kratrar. Detta verktyg har blivit en användbar grund för vidare forskning, särskilt för att upptäcka tidigare oupptäckta kratrar som inte finns i existerande databaser.

En annan intressant aspekt av djupinlärning är användningen av digitala höjdmodeller (DEM) och termisk infraröd bildbehandling för att hitta kratrar på andra planeter som Mars. Lee och Hogan [30] föreslog en modell baserad på ResUNET som använde denna typ av data för att identifiera och lokalisera kratrar på Mars yta. Dessa metoder gör det möjligt att analysera både synliga och osynliga egenskaper av ytan, vilket är nödvändigt för att korrekt identifiera kratrar under olika förhållanden.

Trots de imponerande framstegen inom djupinlärning för kraterdetektion finns det fortfarande utmaningar som måste hanteras. En av de största är hur man överför det lärande från en planet till en annan. Ett nätverk tränat för att känna igen månskratrar kanske inte presterar bra på Mars eller Merkurius på grund av skillnader i ytegenskaper, kraterbildningsprocesser och bildförhållanden. Detta kallas "domängapet" i maskininlärning och är ett återkommande problem. För att åtgärda detta har Unsupervised Domain Adaptation (UDA) framkommit som en lovande lösning. UDA gör det möjligt för modeller att anpassa sig till nya domäner utan att behöva omträna nätverket från grunden. Här används tekniker som adversariell lärande, där en diskriminator försöker urskilja skillnader mellan de olika domänerna, medan nätverket lär sig att skapa representationsdata som är oberoende av domänspecifika egenskaper.

Denna metod har visat sig vara effektiv för att minska behovet av omfattande annoteringar och förbättra detektionens effektivitet, men den är beroende av tillräckliga mängder data från både käll- och målplaneter. Därför har vissa forskare, som Chen et al. [8], utvecklat metoder för att generera pseudoetiketter för måldata, vilket minskar behovet av manuella etikettera.

För att kunna implementera dessa teknologier på ett praktiskt sätt, och för att verkligen kunna förstå och generalisera kraterdetekteringsmodeller mellan olika planeter, krävs vidare forskning och utveckling. Att skapa modeller som kan tillämpas på olika planetära kroppar, med dess unika krateregenskaper och bildförhållanden, är en av de största framtida utmaningarna.

Hur förbättrad pose-estimering hanterar rymdobjekt utan samarbete

När vi arbetar med icke-samarbetsvilliga rymdobjekt, är en av de största utmaningarna att korrekt estimera objektens position och orientering i rymden. I denna kontext blir rotationen en viktig parameter att överväga. När målets rotation för oss tillbaka till en konfiguration som påminner om den initiala synvinkeln, eliminerar en direkt jämförelse med denna referensram de ackumulerade felen. Detta förhindrar att eventuella driftfel sprids i efterföljande cykler. Den sista fasen i vår pipeline tar hänsyn till både mål- och observatörens rörelse. Eftersom rotationsmatrisen uppskattas i jagarens kameraram, speglar de observerade posändringarna bidrag från både målet och jagaren. Eftersom jagarens position vanligtvis är känd genom ombord-sensorer, kan vi extrahera den verkliga målrotationen genom att använda relationen:

Rtarget=R^RchaserR_{\text{target}} = \hat{R} \oplus R_{\text{chaser}}

där RchaserR_{\text{chaser}} representerar jagarens relativa rotation och R^\hat{R} är den sammansatta rotationsmatrisen uppskattad av vår modell. Denna dekomposition ger en grund för en exakt uppskattning av målens tillstånd, vilket möjliggör vidare analys, rekonstruktion och interaktionsoperationer.

För att utvärdera den föreslagna metoden utvecklade vi en omfattande dataset med nio olika icke-samarbetsvilliga rymdobjekt, som visas i figur 3.14. Dessa mål — Aura, Cubesat, Dawn, Hubble, Jason, Deep Impact, Cloudsat och Acrimat — representerar en mångfald av geometriska former, ytegenskaper och strukturella kännetecken. Majoriteten av modellerna hämtades från NASAs 3D-modellarkiv, med ytterligare objekt från offentliga CAD-bibliotek. Denna mångfald gör det möjligt att genomföra en grundlig bedömning av systemets prestanda under olika komplexitetsnivåer, från geometriskt enkla objekt som Cloudsat och Cubesat, till mer komplexa strukturer som Deep Impact och Hubble, som har utmanande konturer och böjda ytor.

För experimentella syften simulerade vi scenarier där en observationssatellit kretsade kring målet i en cirkulär bana, vilket illustreras i figur 3.15. Denna konfiguration gjorde det möjligt att systematiskt variera kamerainställningar, ljusförhållanden och målens rotationshastigheter för att noggrant utvärdera systemets robusthet under olika operativa förhållanden. För att skapa tränings- och utvärderingsdataset, samplades sju av de nio målen vid ett rotationsintervall på en grad. För varje bild valdes fem ytterligare bilder av samma mål för att skapa matchande bildpar med rotationsskillnader inom 0,30°. Denna process genererade 9 252 bildpar för träning och 2 313 par för testning. För att bedöma generaliseringskapaciteten skapades ett ytterligare osuperviserat testdataset med de två återstående målen (Cloudsat och Acrimsat), bestående av 660 bildpar. Alla bilder skapades med en upplösning på 1920 × 1080 pixlar och motsvarande djupkartor. Implementeringen genomfördes med hjälp av PyTorch-ramverket för djupinlärning, med en grafoptimeringsalgoritm baserad på Ceres Solver. Experimenten genomfördes på en GeForce RTX 3090 GPU med 24 GB minne och en i7-processor med 16 GB RAM.

För att utvärdera systemets prestanda använde vi flera komplementära metoder. För att mäta kvaliteten på matchningarna anlitade vi Area Under Curve (AUC), recall och Matching Score (MS). AUC kvantifierar prestanda över varierande tröskelvärden, medan MS representerar förhållandet mellan korrekta matchningar och totalt detekterade nyckelpunkter. För att mäta noggrannheten i pose-estimering beräknades det genomsnittliga posefelet (MPE) mellan de förutsagda och de verkliga värdena.

Den initiala segmenteringsmasken utgör en kritisk grund för efterföljande spårning. För att uppnå robust segmentering tränade vi vår SegFormer-baserade modell på ett offentligt dataset över rymdfarkoster, som innehöll 3 117 bilder med 10 350 delmasker för 3 667 rymdfarkostinstanser. Efter träning på 40 000 iterationer med en batchstorlek på 3 uppnådde modellen utmärkta resultat när det gäller att isolera målobjekt från bakgrunden och särskilja strukturella komponenter som huvudkroppar, solpaneler och antenner. För att kvantitativt utvärdera segmenteringsprestanda jämförde vi vår metod med de senaste modellerna på samma dataset. Resultaten visade på en förbättring i mIoU-scorer för kropp, solpanel och antenn jämfört med de tidigare bästa modellerna. Den största förbättringen observerades för antenner — som traditionellt är de svåraste strukturerna att segmentera på grund av deras tunna profiler och varierande utseenden.

För att bedöma effektiviteten hos vårt nyckelpunktsmatchningssystem genomförde vi jämförande experiment med sju olika state-of-the-art modeller, inklusive SIFT, SuperGlue, HardNet och LoFTR. Experimenten visade att våra metoder, särskilt vid högre rotationshastigheter, överträffade andra tillvägagångssätt. Vid rotationshastigheter på mellan 20–30 grader per sekund behöll vår metod en högre Area Under Curve (AUC) än de andra, vilket bekräftar dess förmåga att hantera utmanande och komplexa scenarier.

För att förstå hur rymdobjekt i en icke-samarbetsmiljö interagerar och uppskattas i realtid, är det viktigt att förstå den kombinerade effekten av målens och observatörens rörelser. Modeller som kan hantera dessa komplexa dynamiker genom att exakt separera de olika rotationskomponenterna är avgörande för framgångsrik operativ användning. Genom att kombinera datadriven analys med fysikalisk förståelse öppnas dörrarna för mer precisa och pålitliga uppskattningar av rymdobjektens rörelser.