Ett delrum UU av ett vektorrum VV kan enkelt verifieras om det är ett subrum genom att kontrollera om det är stängt under de två operationerna av VV, det vill säga om U+UUU + U \subseteq U och KUUK \cdot U \subseteq U. Detta betyder att för varje två vektorer i UU, deras summa måste också ligga i UU, och för varje skalar λK\lambda \in K, måste skalärmultiplikationen av varje vektor i UU också vara en vektor i UU.

Kärnan och bilden av en linjär funktion T:VWT : V \rightarrow W är subrum av VV respektive WW. Om TT är injektiv, då kommer T1T^{ -1} att tillhöra Hom(im(T),V)\text{Hom}(\text{im}(T), V), vilket innebär att det finns en invers funktion mellan bilden av TT och VV. Detta är ett grundläggande resultat för att förstå hur funktioner mellan vektorrum kan påverka strukturen av dessa rum.

En annan viktig observation är att varje kropp KK är ett vektorrum över sig själv, där kroppens egna operationer tolkas som vektoroperationer. Detta är en trivial men användbar insikt när man arbetar med kroppar i linjär algebra. Om vi definierar VXV^X som mängden av alla funktioner från mängden XX till KK, blir VXV^X ett KK-vektorrum där addition och skalärmultiplikation är definierade punktvis. Ett exempel på detta är KmK^m, som är ett mm-dimensionellt vektorrum över KK där varje vektor är en mm-tuppel.

En generalisering av detta är när V1,,VmV_1, \dots, V_m är vektorrum över KK. Då är produkten V:=V1××VmV := V_1 \times \dots \times V_m ett vektorrum med operationer definierade komponentvis, vilket gör det möjligt att arbeta med direktprodukter av vektorrum och undersöka relationer mellan dem.

Det finns också intressanta strukturer i ringen av formella potenser K[[X1,,Xm]]K[[X_1, \dots, X_m]], som är ett KK-vektorrum av formella potensserier med mm oberoende variabler. Om KK är ett oändligt fält, blir det möjligt att identifiera polynom i K[X1,,Xm]K[X_1, \dots, X_m] som funktioner i K(Km)K(K^m), vilket gör att K[X1,,Xm]K[X_1, \dots, X_m] också blir ett subrum av K(Km)K(K^m).

Homomorfismer mellan vektorrum är också ett viktigt koncept. Om UU är ett subrum av VV, och THom(V,W)T \in \text{Hom}(V, W), kan man definiera den linjära funktionen TUT|_U, som är en funktion från UU till WW. Om TT är en homomorfism, gäller att bildmängden av TTUU är ett subrum av WW. Vidare kan (V,+)/U(V, +)/U beskrivas som ett KK-vektorrum, vilket leder till begreppet kvotrum, V/UV/U, som är en struktur av intresse i många områden av linjär algebra.

För att förstå hur dimensioner fungerar i vektorrum är det viktigt att känna till att ett vektorrum med en bas av mm element har dimension mm, vilket innebär att varje bas för vektorrummet kommer att ha exakt mm element. Om ett vektorrum inte har någon ändlig bas, sägs det vara oändligt dimensionellt. Detta ger oss ett sätt att klassificera vektorrum baserat på deras dimensioner.

Ett exempel på detta är KmK^m, som är ett mm-dimensionellt vektorrum. Här definieras varje vektor som en mm-tuppel, där varje element är en komponent av vektorn. Det är också viktigt att förstå att om VV har en bas {b1,,bm}\{b_1, \dots, b_m\}, kan varje vektor vVv \in V unikt uttryckas som en linjär kombination av dessa basvektorer, där koefficienterna är skalärer från KK.

I många tillämpningar av linjär algebra är det också relevant att förstå hur olika typer av funktioner mellan vektorrum kan skapa nya strukturer, såsom kvotrum eller sammansatta funktioner. Det ger en djupare insikt i hur vektorrum interagerar och hur man kan manipulera dessa strukturer för att lösa praktiska problem inom olika matematiska områden.

Hur fungerar kedjeregeln och inversa funktioners derivator?

I den här texten behandlas olika aspekter av funktioner, deras derivator och hur kedjeregeln samt inversa funktioners deriverbarhet kan förstås och tillämpas.

Kedjeregeln är ett viktigt verktyg inom differentialkalkyl för att derivera sammansatta funktioner. Antag att vi har två funktioner, f:XKf : X \to K och g:YEg : Y \to E, där ff är deriverbar vid en punkt aa, och gg är deriverbar vid f(a)f(a). Kedjeregeln säger att om både ff och gg är deriverbara vid sina respektive punkter, så är sammansättningen gfg \circ f deriverbar vid aa, och den deriverade kan uttryckas som:

(gf)(a)=g(f(a))f(a)(g \circ f)'(a) = g'(f(a)) \cdot f'(a)

För att förstå denna regel behöver man först inse att kedjeregeln bygger på antagandet att båda funktionerna är tillräckligt "smidiga", dvs. att de är deriverbara och deras derivator inte orsakar några diskontinuiteter i den sammansatta funktionen.

I en enklare form, kan vi säga att om ff representerar en transformation av en variabel och gg sedan transformerar resultatet av denna transformation, så påverkar både transformationen av ff och den av gg hur snabbt den sammansatta funktionen ändras vid en viss punkt.

Vidare diskuteras inversa funktioner och hur deras deriverbarhet kan undersökas. Om en funktion ff är injektiv (en-till-en) och deriverbar vid en punkt aa, och om inversen f1f^{ -1} är kontinuerlig vid f(a)f(a), så kan vi använda kedjeregeln för att bestämma derivatan för den inversa funktionen:

(f1)(b)=1f(a)(f^{ -1})'(b) = \frac{1}{f'(a)}

Där b=f(a)b = f(a). Detta resultat är centralt för att förstå hur förändringar i den inversa funktionen relaterar till förändringar i den ursprungliga funktionen.

Det är viktigt att poängtera att för att f1f^{ -1} ska vara deriverbar vid en punkt, så måste f(a)0f'(a) \neq 0. Om derivatan för ff är noll, kan den inversa funktionen inte vara deriverbar vid den motsvarande punkten, vilket innebär att den lokala förändringshastigheten för f1f^{ -1} inte är definierad.

En annan viktig aspekt som behandlas är definitionen av differentiabilitet i ett perfekt rum. Ett perfekt rum är ett rum där varje punkt är en gränspunkt för mängden. För att kunna säga att en funktion ff är deriverbar på en mängd XX, måste varje punkt i XX vara en gränspunkt för XX. När detta är fallet, och ff är deriverbar vid varje punkt i XX, säger vi att ff är deriverbar på XX.

Därefter diskuteras begreppet högre derivator. Om en funktion ff är deriverbar, kan man undersöka om dess första derivata är deriverbar, och på så sätt definiera en andra derivata, en tredje derivata och så vidare. Om alla derivator upp till den n:te ordningen existerar och är kontinuerliga, säger vi att funktionen är n gånger deriverbar.

Slutligen sammanfattas några grundläggande regler för deriverbara funktioner, såsom linjäritet och Leibniz regel för produktderivator. Leibniz regel säger att om ff och gg är deriverbara, så är produkten fgf \cdot g också deriverbar, och derivatan ges av en summa av termer som involverar derivatorna av ff och gg.

För att fullständigt förstå dessa begrepp är det avgörande att man har en god förståelse för hur funktioner beter sig när vi undersöker deras lokala förändringar. Det handlar om att förstå hur små förändringar i en variabel påverkar funktionen och dess sammansättningar, samt hur vi kan använda olika regler för att beräkna dessa förändringar exakt.

Hur vi förstår och bevisar smidigheten hos funktioner

I denna diskussion går vi igenom några grundläggande resultat om smidigheten och deriverbarheten hos olika typer av funktioner inom kalkyl, där vi behandlar polynom, rationella funktioner, exponentiella funktioner och trigonometri. Vi bygger på tidigare satser och teorier för att visa hur dessa funktioner beter sig under derivering och på vilken domän de är definierade som smidiga.

Låt oss börja med polynom. Ett polynom p=k=0nakxkp = \sum_{k=0}^n a_k x^k är en funktion som inte bara är kontinuerlig utan även smidig, vilket innebär att alla dess derivator existerar och är kontinuerliga. Den första derivatan av ett polynom p(x)p'(x) kan beräknas genom att derivera varje term individuellt, vilket ger en ny polynomfunktion. Detta följer direkt från teorin om derivering av en summa av funktioner och är ett enkelt exempel på smidiga funktioner.

När vi talar om rationella funktioner, som är kvoten av två polynom, får vi ett intressant resultat. Rationella funktioner är smidiga så länge deras domän inte innehåller några värden där nämnaren blir noll. Detta innebär att rationella funktioner är smidiga på sin definierade domän, vilket kan bevisas genom att tillämpa derivering på både täljare och nämnare och använda regler för derivering av kvoter.

För den exponentiella funktionen gäller att exe^x är smidig över hela sin domän, vilket innebär att dess derivata är lika med funktionen själv, ddxex=ex\frac{d}{dx} e^x = e^x. Detta kan bevisas genom att använda definitionen av derivata och en standardresultat från kalkylens teori.

Ett annat intressant resultat gäller logaritmfunktionen. Logaritmen är smidig över alla positiva reella tal, bortsett från noll. Den första derivatan av logaritmen är 1x\frac{1}{x}, vilket är ett klassiskt resultat som kan härledas från definitionen av logaritmen som den omvända av exponentiell funktion.

I teorin om trigonometriska funktioner finner vi att funktionerna cos(x)\cos(x) och sin(x)\sin(x) är smidiga på hela den komplexa planen. Derivatan av cos(x)\cos(x) är sin(x)-\sin(x) och derivatan av sin(x)\sin(x) är cos(x)\cos(x), vilket är en direkt konsekvens av deras representationer i form av exponentiella funktioner.

Även tangent- och kotangensfunktionerna är smidiga på sina respektive domäner, vilket innebär att deras derivator är definierade och kontinuerliga. För tangentfunktionen är derivatan 1+tan2(x)1 + \tan^2(x), och för kotangensfunktionen är derivatan 1cot2(x)-1 - \cot^2(x).

Det finns också funktioner som inte är deriverbara överallt, trots att de är kontinuerliga. Ett klassiskt exempel är absolutbeloppsfunktionen x|x|, som är kontinuerlig men inte deriverbar vid x=0x = 0. Detta är en funktion vars derivata inte existerar vid denna punkt, vilket är ett grundläggande resultat i teorin om kontinuerliga men icke-deriverbara funktioner.

Det finns också exempel på funktioner som är kontinuerliga överallt men inte deriverbara någonstans. Ett exempel på en sådan funktion kan konstrueras genom att använda en sekvens av funktioner som är bitvis linjära med steglös lutning och som tenderar mot en kontinuerlig funktion utan att ha någon derivata vid någon punkt.

Det är också viktigt att förstå begreppet en-sidig deriverbarhet, där vi kan definiera en derivata för en funktion från en viss riktning (vänster eller höger) vid en given punkt. Om de en-sidiga derivatorna är lika, är den totala derivatan definierad vid den punkten. Ett exempel på detta är funktionen f(x)=xf(x) = |x|, där den högra derivatan vid x=0x = 0 är 11 och den vänstra derivatan är 1-1, vilket visar att derivatan inte är definierad vid nollpunkten trots att funktionen är kontinuerlig.

I sammanhanget av dessa diskussioner är det väsentligt att komma ihåg att en funktion som är kontinuerlig inte nödvändigtvis är deriverbar. Kontinuitet innebär inte per automatik deriverbarhet, och det finns funktioner som är kontinuerliga men inte deriverbara vid vissa eller alla punkter på sin domän.

För att kunna bemästra begreppet smidighet och deriverbarhet är det också nödvändigt att ha en förståelse för de grundläggande reglerna för derivering, såsom produktregel, kedjeregel och kvotregel. Dessa regler tillåter oss att beräkna derivator för en mängd olika funktioner och är avgörande för att kunna tillämpa teorin på mer komplexa uttryck.

Hur förstår man konvergens i serier av funktioner i Banachutrymmen?

För att förstå konvergens i serier av funktioner, särskilt när de är definierade på ett Banachutrymme, är det viktigt att ha en noggrant avvägd uppfattning om de olika typerna av konvergens och deras relationer till varandra. Detta ämne är centralt i analysen av funktioner och deras egenskaper, särskilt när de handlar om funktioners konvergens i ett Banachutrymme, vilket innebär att vi arbetar med funktioner vars värden ligger i ett normerat utrymme. Ett vanligt problem är att avgöra under vilka förhållanden en given funktionserie konvergerar och vilka egenskaper den resulterande summan kommer att ha.

För att börja, låt oss reflektera över en viktig formel som kommer från trianguljämitetsolikheten för normer:
fnfmfnf+ffm\| f_n - f_m \|_\infty \leq \| f_n - f \|_\infty + \| f - f_m \|_\infty

Detta ger oss en första förståelse för hur skillnader mellan funktioner i en sekvens kan kontrolleras. Om vi betraktar en följd av funktioner fnf_n, så kan vi identifiera för varje ϵ>0\epsilon > 0 ett index N(ϵ)N(\epsilon) sådant att för alla m,nNm, n \geq N, gäller att fnfm<ϵ\| f_n - f_m \|_\infty < \epsilon. Det betyder att följden (fn)(f_n) är en Cauchy-följd i Banachutrymmet B(X,E)B(X, E), vilket innebär att denna följd konvergerar till någon funktion i detta rum, enligt teorem II.6.6.

När vi talar om funktionserier på ett Banachutrymme, är det viktigt att förstå de olika typerna av konvergens: punktvis, absolut, uniform och normkonvergens. En funktionserie k=0fk\sum_{k=0}^\infty f_k är punktvis konvergent om för varje xXx \in X, summan av serierna k=0fk(x)\sum_{k=0}^\infty f_k(x) konvergerar i EE. Om summan konvergerar för alla xXx \in X, säger vi att serien är punktvis konvergent. Om serien däremot konvergerar lika bra för alla xx på samma gång, så kallar vi serien för uniformt konvergent.

Vidare, om en serie konvergerar absolut, innebär det att summan av de absoluta värdena k=0fk(x)\sum_{k=0}^\infty |f_k(x)| konvergerar för varje xXx \in X. Denna typ av konvergens är starkare än punktvis konvergens, och för uniform konvergens är det också nödvändigt att serien är absolut konvergent. I normerade rum som B(X,E)B(X, E), om en serie konvergerar i norm, så betyder det att serien är både absolut och uniformt konvergent.

Ett viktigt resultat som kan tillämpas på serier av funktioner är Weierstrass majorantkriterium. Om vi har en serie fkB(X,E)f_k \in B(X, E) för alla kNk \in \mathbb{N} och det finns en konvergent serie αkR\alpha_k \in \mathbb{R} sådan att fkαk\| f_k \|_\infty \leq \alpha_k för alla kNk \in \mathbb{N}, så konvergerar serien fkf_k i normen. Detta betyder att serien konvergerar absolut och uniformt. Detta kriterium är särskilt användbart eftersom det ger ett lättanvänt verktyg för att bedöma konvergensen hos en serie av funktioner genom att jämföra den med en enklare serie av reella tal.

Till exempel, om vi betraktar serien av funktioner fk(x)=cos(kx)k2f_k(x) = \frac{\cos(kx)}{k^2}R\mathbb{R}, så gäller att fk1k2\| f_k \|_\infty \leq \frac{1}{k^2}, vilket gör att serien konvergerar i normen enligt Weierstrass majorantkriterium. Därmed kan vi dra slutsatsen att serien konvergerar absolut och uniformt på R\mathbb{R}.

En annan viktig tillämpning av majorantkriteriet är att vi kan bevisa att en potensserie är normkonvergent på varje kompakt delmängd av dess konvergensdisk. Om en potensserie k=0akxk\sum_{k=0}^\infty a_k x^k har positiv konvergensradie ρ\rho, och vi betraktar ett rr sådant att 0<r<ρ0 < r < \rho, så konvergerar serien normmässigt på den kompakta mängden rBr\overline{B}. Detta innebär att serien inte bara konvergerar punktvis utan också absolut och uniformt på denna mängd.

När vi studerar konvergensen i serier av funktioner i Banachutrymmen, är det avgörande att förstå dessa begrepp för att korrekt kunna bedöma hur funktioner samverkar i en serie och under vilka förutsättningar deras summor uppvisar önskade egenskaper. I synnerhet kan det vara nödvändigt att beakta skillnaden mellan olika typer av konvergens, eftersom det har en stor påverkan på den funktion som representerar serien, liksom på dess egenskaper, som till exempel kontinuitet, differentierbarhet eller integrerbarhet.