Djupinlärning vilar på tre matematiska pelare: funktionsapproximation, optimeringsteori och statistisk inlärning. Denna teoretiska struktur blir begriplig först när man betraktar neurala nätverk som avbildningar mellan mätbara funktionsrum. Riskfunktionalen, som definierar förlusten för ett nätverk över en sannolikhetsfördelning av data, etableras som en funktionell avbildning över dessa rum. Den är Frechet-deriverbar under milda villkor, vilket gör det möjligt att använda variationella principer för att formulera inlärning som ett optimeringsproblem i oändligdimensionella rum.

Hypotesrymden som neurala nätverk spänner över analyseras via två centrala komplexitetsmått: VC-dimensionen för diskreta klassificeringsproblem och Rademacherkomplexitet för kontinuerliga funktioner. Dessa verktyg tillåter en exakt kvantifiering av generaliseringsförmåga och risken för överanpassning. I praktiken innebär detta att modeller med hög komplexitet kräver striktare regularisering för att undvika att bara memorera träningsdata.

Universella approximationssatser utgör en annan grundbult i förståelsen av djupinlärningens kapacitet. Ett neuralt nätverk med ett dolt lager och icke-linjära aktiveringsfunktioner kan approximera varje kontinuerlig funktion på ett kompakt intervall, vilket här visas genom en kombination av konvolutionsoperatorer och Stone-Weierstrass sats. Dock är det inte approximationsförmågan i sig, utan felets struktur, dess kontroll och nätverkets regularitetsegenskaper som avgör praktisk användbarhet.

Djup kontra bredd—kapacitetsanalysen klargör att ett mycket djupt nätverk inte alltid är bättre än ett brett, men att vissa funktioner kräver djup för att kunna uttryckas effektivt. Fourieranalys används här som ett verktyg för att gränssätta nätverkets uttryckskraft, tillsammans med inbäddningar i Sobolevrum och kompakthetsargument enligt Rellich-Kondrachov. Dessa resultat knyter ihop nätverkets arkitektur med dess funktionella kapacitet i ett exakt matematiskt ramverk.

Träningsdynamikens teori fördjupar förståelsen ytterligare. Gradiensflöde i oändligdimensionella rum, stationära punkter och Hessianspektrum kartlägger nätverkens optimeringslandskap. I det så kallade NTK-regimet (Neural Tangent Kernel) linjäriseras nätverkets beteende kring initialisering, vilket förklarar varför överparametriserade nätverk ofta konvergerar till lösningar med god generaliseringsförmåga, trots sin komplexitet.

Generaliseringsgränser härleds med hjälp av PAC-Bayes-formalism och spektralanalys. Informationsteoretiska principer tillämpas för att binda det möjliga generaliseringsfelet givet ett nätverks kapacitet och dess träningsförlopp. Spektralregularisering används för att dämpa högfrekventa komponenter i nätverkets parametrar, vilket korrelerar med förbättrad stabilitet och robusthet.

Den matematiska analysen förlängs till att omfatta moderna arkitekturer såsom konvolutionella nätverk, rekurrenta nätverk, transformermodeller, GANs och variational autoencoders. Deras uttrycksförmåga förstås bäst genom de rum av funktioner de opererar inom, snarare än genom enskilda komponenter. Detta skapar en gemensam formell grund oavsett arkitekturell variation.

Förstärkande inlärning belyses ur samma perspektiv: djup Q-inlärning och policyoptimering reduceras till funktionella optimeringsproblem med stokastiska komponenter. Genom att modellera dessa via dynamiska programmeringsprinciper och Bellmanoperatorer knyts reinforcement learning tillbaka till den kontinuerliga optimeringsteorin.

Optimiseringsalgoritmerna utgör den praktiska länken mellan teori och tillämpning. Stokastisk gradientnedstigning (SGD) formaliseras som en stokastisk differentialekvation, medan metoder som Adam och RMSProp förstås genom adaptiva momentuppskattningar. Dessa betraktas inte längre som tekniska detaljer utan som instanser av mer generella optimeringsprinciper i stokastiska miljöer.

Det är avgörande att förstå att djupinlärning i grunden inte är en samling heuristiker, utan ett djupt matematiskt ramverk som förenar approximationsteori, inlärningsteori och funktionalanalys. Det som ofta presenteras som empiriska framgångar i praktiska system är manifestationer av strukturerade egenskaper hos funktioner, rum och operatorer.

För att fördjupa denna förståelse krävs ytterligare fokus på sambandet mellan nätverksarkitektur och generaliseringsförmåga, särskilt i höga dimensioner. Stabilitetsegenskaper under små perturbationer av data, samt nätverkens robusthet mot adversariala exempel, är områden där det funktionella perspektivet erbjuder kraftfulla verktyg. Dessutom är övergången från diskreta till kontinuerliga inlärningsmiljöer—särskilt i reinforcement learning—ett rikt fält för vidare matematisk förfining.

Hur djupa nätverk överträffar ytliga nätverk i att approximera komplexa funktioner

Ett grundläggande problem inom djupa neurala nätverk är deras kapabilitet att approximera komplexa funktioner, särskilt sådana med avancerade frekvenskomponenter. Traditionellt sett kräver ytliga nätverk ett exponentiellt stort antal neuroner för att kunna approximera en funktion när värdet på e är stort. Detta beror på nätverkets bristande förmåga att utnyttja den hierarkiska strukturen för att effektivt representera högfrekventa komponenter. I kontrast kan ett djupt nätverk, genom att använda sin djupstruktur, uppnå samma approximation med ett polynomialiskt mindre antal parametrar. Denna förmåga att approximera komplexa funktioner är en viktig aspekt av djupa nätverks expressivitet.

För att bättre förstå varför djupa nätverk är så mycket mer effektiva än ytliga, är det användbart att överväga deras förmåga att approximera bandbegränsade funktioner, det vill säga funktioner vars Fourier-spektra är begränsade till vissa frekvenser. I fallet med ett ytligt nätverk, där bredden är n, krävs ett stort antal neuroner som skalar exponentiellt i relation till dimensionen d av indata. Det betyder att ju högre frekvenser som ska approximativt återges, desto större blir behovet av fler parametrar. Däremot, i ett djupt nätverk, skalar bredden istället i relation till d/L, där L representerar nätverkets djup. Detta innebär att djupet i nätverket gör att högre frekvenser kan spridas över olika lager på ett mycket mer effektivt sätt.

För att konkretisera, om f(x) = cos(2n£ • x) med ||£|| = — max, kräver ett djupt nätverk betydligt färre parametrar än ett ytligt nätverk för att approximera f med samma noggrannhet. Detta exempel visar på den stora fördelen med djupa nätverk, där strukturen gör det möjligt att representera komplexa funktioner på ett sätt som annars skulle kräva exponentiellt fler parametrar i ett ytligt nätverk.

Den Fourier-analyss som presenteras för att kvantifiera expressiviteten i djupa nätverk visar på nätverkens överlägsenhet över ytliga nätverk när det gäller att approximera funktioner med komplexa spektrala strukturer. Djupet tillåter en hierarkisk sammansättning som gör det möjligt att effektivt representera högfrekventa komponenter, medan bredden tillhandahåller en rik bas för att approximera funktionens Fourier-spektrum. Tillsammans förklarar dessa egenskaper den anmärkningsvärda kapaciteten hos djupa neurala nätverk att approximera funktioner med intrikata spektrala strukturer, och ger ett matematiskt rigoröst fundament för att förstå deras expressivitet.

När man studerar de dynamiska träningsprocesserna i djupa nätverk, måste man ta hänsyn till hur nätverken anpassar sig till förändringar under träning. Flera forskare, som Trevisan et al. (2023), har visat hur kunskapsdestillation i djupa nätverk kan förstås genom Neural Tangent Kernel (NTK)-ramverket. NTK ger insikt i hur träningen utvecklas i ett linjärt läge när nätverken blir överparametriserade, vilket innebär att många av de icke-linjära effekterna från träningens tidiga skeden blir försumbar. När nätverkets bredd närmar sig oändligheten tenderar nätverket att utvecklas som ett linjärt system, där uppdateringarna av parametrarna styrs av den så kallade NTK-matrisen.

Denna linjära beskrivning av träningsdynamik är inte bara relevant för djupa nätverk utan även för den mer praktiska tillämpningen av dessa nätverk i olika domäner, som till exempel i fysikinformerade neurala nätverk (PINNs). För PINNs, som hanterar fysikaliska system, är det viktigt att förstå när NTK-teorin inte längre räcker till. Bonfanti et al. (2024) påpekade att när PINNs arbetar utanför NTK-regimen, tenderar deras prestanda att försämras. Detta beror på att dessa nätverk blir känsliga för både initialisering och viktuppdateringar, vilket gör att deras träning inte längre följer en linjär dynamik.

En annan viktig aspekt att förstå är hur gradientflödet styrs av förlustfunktionen under träningen. Gradientflödet, som beskriver hur nätverkets parametrar förändras över tid, styrs av den negativa gradienten av förlustfunktionen. Vid stationära punkter av gradientflödet är gradienten lika med noll, vilket betyder att nätverket inte längre gör några förändringar i sina parametrar. Analys av dessa stationära punkter, genom att undersöka Hessianmatrisen (andra derivatan av förlustfunktionen), gör det möjligt att identifiera om dessa punkter motsvarar lokala minima, maxima eller sadelpunkter.

Sammanfattningsvis visar de matematiska modellerna för NTK och gradientflöde hur djupa nätverk tränas på ett stabilt sätt, även när nätverkets djup och parametrisering växer. NTK-teorin ger en kraftfull linjär approximation som förklarar träningsdynamik i överparametriserade nätverk. Denna förståelse är grundläggande för att kunna utveckla mer effektiva träningsmetoder och optimera nätverken för olika typer av problem.

Hur Hyperparameterjustering Påverkar Prestanda hos Neurala Nätverk: En Matematiskt Rigorös Process

När man tränar neurala nätverk är val av hyperparametrar en avgörande komponent som direkt påverkar modellens prestanda. Hyperparametrar, som inlärningshastighet, regularisering, viktinitiering och optimeringsstrategier, måste noggrant justeras för att säkerställa effektiv och stabil träning. Denna process, som kallas hyperparameterjustering, är både matematisk och datorintensiv, särskilt när det gäller högdimensionella och icke-konvexa hyperparameterutrymmen.

En grundläggande aspekt av denna justering är träningens förlustfunktion, som ofta uttrycks som ett empiriskt riskmått som beräknas över träningsdatasetet. I detta sammanhang används vanligen en tvär-entropi-förlust för klassificeringsuppgifter, som kvantifierar avvikelsen mellan modellens förutsägelse och den verkliga etiketten. För att optimera denna förlustfunktion används gradientbaserade metoder som stokastisk gradientnedstigning (SGD). Uppdateringarna av parametrarna styrs av formeln:

θ(t+1)=θ(t)ηθLtrain(θ(t);h)\theta^{(t+1)} = \theta^{(t)} - \eta \nabla_{\theta} L_{\text{train}}(\theta^{(t)}; h)

där η\eta är inlärningshastigheten, en kritisk hyperparameter som styr storleken på stegen under optimeringen. Valet av η\eta är avgörande för stabiliteten och konvergensen hos SGD. Om η\eta är för stor kan träningen ”överskrida” minimivärdet, medan en för liten η\eta kan leda till långsam konvergens.

När förlustfunktionen närmar sig ett kritiskt punkt kan den approximativt analyseras genom en andra ordningens Taylor-expansion. Den resulterande approximationen ger insikter om den lokala krökningen av förlustytan, där positiva egenvärden indikerar konvexa riktningar och negativa egenvärden pekar mot sadelpunkter.

För att förhindra överanpassning och förbättra generaliseringen införs ofta regularisering. L2-regularisering, till exempel, läggs till förlustfunktionen för att straffa stora parametervärden och förhindra att modellen anpassar sig för mycket till träningsdata. Den regulariserade förlustfunktionen blir då:

Lreg(θ;h)=Ltrain(θ;h)+λθ2L_{\text{reg}}(\theta; h) = L_{\text{train}}(\theta; h) + \lambda \|\theta\|^2

där λ\lambda är regulariseringskoefficienten. Gradienten för den regulariserade förlusten blir då en kombination av den ursprungliga gradienten och en extra term som beror på θ\theta.

En annan viktig aspekt av hyperparameterjustering är viktinitieringsstrategin. En bra viktinitiering är viktig för att säkerställa att aktiveringar och gradienter förblir stabila genom hela nätverket. He-initialisering, som är anpassad för ReLU-aktiveringsfunktionen, säkerställer att variansen av aktiveringar inte kollapsar under träningsprocessen.

Aktiveringsfunktionen, som ReLU (Rectified Linear Unit), spelar en avgörande roll i hur nätverket lär sig. ReLU bidrar till att eliminera problemet med försvinnande gradienter genom att sätta alla negativa värden till noll. Dock kan den också orsaka ett så kallat "död neuron"-problem, där vissa neuroner aldrig aktiveras eftersom deras indata är negativa.

Sökning av optimala hyperparametrar kan göras med hjälp av olika metoder, som grid search, random search eller mer avancerade tekniker som bayesiansk optimering. Vid bayesiansk optimering byggs en surrogatmodell (t.ex. en Gaussisk process) som approximativt förutsäger valideringsförlusten. Genom att använda en förvärvsfunktion, som förväntad förbättring, kan sökningen balansera mellan att exploatera områden med låg förlust och att utforska osäkra områden.

Hyperparameterjustering är en extremt datorkrävande process, särskilt när hyperparameterutrymmet är högt dimensionellt och optimeringsproblemet är inbäddat. Tidig stoppning är en populär strategi som innebär att träningen stoppas när förbättringen av valideringsförlusten sjunker under ett visst tröskelvärde. På så sätt förhindras överträning och onödiga beräkningskostnader.

Vidare har metoder som Hyperband börjat användas för att effektivt hantera resursfördelning och optimering. Hyperband allokerar resurser dynamiskt baserat på delvisa träningsutvärderingar, vilket gör att mer resurser kan tilldelas de lovande konfigurationerna.

Förutom de tekniker som redan nämnts, är det viktigt att förstå att hyperparameterjustering inte är en engångsprocess. Eftersom datamängder och uppgifter kan förändras, måste justeringen kontinuerligt revideras för att optimera modellen för nya förhållanden. Detta innebär att det inte finns någon "universal" uppsättning hyperparametrar som fungerar för alla problem, och att det är nödvändigt att experimentera och anpassa inställningarna baserat på specifika krav.