I ett vektorrum eller en delmängd av ett vektorrum är en av de mest grundläggande och ofta undersökta frågorna hur man hittar ett minimalt uppsättning av vektorer vars linjära kombinationer spänner upp hela rummet. Begreppet bas är centralt för denna undersökning och spelar en avgörande roll inom linjär algebra.

En bas för ett vektorrum är en uppsättning av linjärt oberoende vektorer som spänner upp hela rummet. Mer precist, en uppsättning B={b1,b2,,bk}B = \{ b_1, b_2, \dots, b_k \} är en bas för ett vektorrum XX om och endast om varje vektor i XX kan skrivas som en linjär kombination av vektorerna i BB, och vektorerna i BB är linjärt oberoende. Detta innebär att ingen vektor i basen kan uttryckas som en linjär kombination av de andra vektorerna i samma bas.

Ett viktigt exempel på bas är den så kallade standardbasen för Rn\mathbb{R}^n. De enhetsvektorerna e1,e2,,ene_1, e_2, \dots, e_n utgör en bas för Rn\mathbb{R}^n, eftersom varje vektor i Rn\mathbb{R}^n kan skrivas som en linjär kombination av dessa enhetsvektorer, och de är också linjärt oberoende. Formellt kan varje vektor aRna \in \mathbb{R}^n skrivas som a=a1e1+a2e2++anena = a_1 e_1 + a_2 e_2 + \dots + a_n e_n, där a1,a2,,ana_1, a_2, \dots, a_n är skalärer. Eftersom varje enhetsvektor har exakt en icke-noll komponent och alla andra komponenter är noll, är de linjärt oberoende.

För att förtydliga begreppet bas i praktiken, kan vi ta en matrisk som exempel. Om vi har en matris AA med kolumner a1,a2,,aka_1, a_2, \dots, a_k, och vi vet att dessa kolumner är linjärt oberoende, kan vi säga att de utgör en bas för det vektorrum som spänns upp av kolumnerna i AA. Detta innebär att varje vektor i det vektorrum som kolumnerna a1,a2,,aka_1, a_2, \dots, a_k spänner upp kan skrivas som en linjär kombination av dessa kolumner.

Ett vanligt sätt att hitta en bas för en kolonnrum, eller för det rum som spänns upp av kolumnerna i en matris, är att använda radreduktion. Vi kan omvandla en matris till en echelonform, där vi sedan identifierar de kolumner som inte är linjärt beroende av de andra. Dessa kolumner bildar en bas för kolonnrummet.

Enligt teoremet om kolonnrum och baser kan vi, om vi har en matris AA, reducera den till echelonform UU och använda de kolumner i UU som är linjärt oberoende för att konstruera en bas för kolonnrummet i AA. Om matrisen AA har dimensionen m×nm \times n, så kommer antalet vektorer i basen vara lika med rang av matrisen, vilket är antalet linjärt oberoende kolumner.

För att exemplifiera detta, anta att vi har en matris AA och vi reducerar den till echelonform UU. De kolumner i UU som inte kan uttryckas som en linjärkombination av de andra, kallas för "pivotkolumner", och de bildar en bas för kolonnrummet i AA. När vi har identifierat dessa kolumner i UU, kan vi återgå till den ursprungliga matrisen AA och dra slutsatsen att de motsvarande kolumnerna i AA också bildar en bas för kolonnrummet i AA.

Ett konkret exempel kan vara en matris AA i R3\mathbb{R}^3 som ser ut som följer:

A=[131262011]A = \begin{bmatrix} 1 & 3 & 1 \\ 2 & 6 & 2 \\ 0 & -1 & 1
\end{bmatrix}

När vi reducerar denna matris till echelonform får vi:

U=[131011000]U = \begin{bmatrix}
1 & 3 & 1 \\ 0 & 1 & -1 \\ 0 & 0 & 0 \end{bmatrix}

De första två kolumnerna i UU är linjärt oberoende och bildar en bas för kolonnrummet i AA. Detta betyder att vi kan skriva varje vektor i kolonnrummet som en linjärkombination av de första två kolumnerna i AA.

För att sammanfatta är det centrala begreppet när man arbetar med vektorrum och bas

Hur hittar vi en bas för ett matrisens kolonn- och radrum?

För en given matris AA, definierad som en samling av kolonner och rader, är det ofta nödvändigt att förstå strukturen hos dessa subrum för att kunna analysera lösningar till linjära system eller andra algebraiska problem. En viktig metod för att få insikt i denna struktur är att använda den så kallade echelonformen, vilket gör det möjligt att hitta baser för kolonnrummet, rad-rummet och nullrummet. I det här sammanhanget kommer vi att titta på metoder för att hitta baser för dessa subrum och diskutera vad som är viktigt att förstå för att fullt ut tillämpa dessa koncept.

Givet en matris AA, kan vi börja med att skriva den som en samling kolonner a1,a2,...,ana_1, a_2, ..., a_n. Kolonnrummet, även kallat Col(A), är den mängd av alla möjliga linjära kombinationer av dessa kolonner. För att hitta en bas för detta rum, reducerar vi matrisen AA till sin echelonform UU genom en serie radoperationer. De icke-noll raderna i UU ger oss en uppsättning av oberoende rader som definierar ett basrum för rad-rummet Row(A)Row(A), och de motsvarande kolonnerna i AA utgör en bas för kolonnrummet. Om vi ser på matrisen AA och genomgår denna process, får vi en uppsättning vektorer som är linjärt oberoende och som tillsammans bildar en bas.

Vi börjar med ett exempel. Givet en matris:

A=[123245369]A = \begin{bmatrix}
1 & 2 & 3 \\ 2 & 4 & 5 \\ 3 & 6 & 9 \end{bmatrix}

Den kan reduceras till echelonformen UU:

U=[123001000]U = \begin{bmatrix} 1 & 2 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{bmatrix}

De första två raderna i denna echelonform är oberoende, och därför utgör dessa den radbasen för Row(A)Row(A). Denna process kan sedan användas för att identifiera kolonnbasen i den ursprungliga matrisen AA, eftersom varje kolonn i UU som är linjärt oberoende motsvarar en kolonn i AA.

Vidare, för att förstå detta i praktiken, är det viktigt att notera att både rad- och kolonnrummen för en matris är relaterade till varandra genom matrisens transponat. Enligt teorem 3.4.5 är radrummet för AA lika med kolonnrummet för ATA^T, och vice versa:

Row(A)=Col(AT)Row(A) = Col(A^T)
Col(A)=Row(AT)Col(A) = Row(A^T)

Denna relation gör det möjligt att byta mellan att arbeta med kolonner och rader och är mycket användbar när man söker baser eller löser linjära system.

För att gå vidare med att hitta en bas för nullrummet Null(A)Null(A), löser vi ekvationen Ax=0Ax = 0, där xx är en vektor. För att göra detta genomgår vi en liknande reduktion till echelonform och använder den för att identifiera oberoende lösningar till den homogena ekvationen. Resultatet är en uppsättning av vektorer som spanar Null(A)Null(A), och som kan uttryckas som en linjär kombination av vissa vektorer i Rn\mathbb{R}^n.

I vårt exempel kan vi ta matrisen AA:

A=[012342668286]A = \begin{bmatrix}
0 & 1 & 2 & 3 \\ 4 & 2 & 6 & 6 \\ 8 & 2 & 8 & 6 \end{bmatrix}

När vi reducerar den till echelonformen, får vi:

U=[213301230000]U = \begin{bmatrix} 2 & 1 & 3 & 3 \\ 0 & 1 & 2 & 3 \\ 0 & 0 & 0 & 0
\end{bmatrix}

Genom att lösa Ax=0Ax = 0 får vi den allmänna lösningen x=s1[1/2200]+s2[0310]x = s_1 \begin{bmatrix} -1/2 \\ -2 \\ 0 \\ 0 \end{bmatrix} + s_2 \begin{bmatrix} 0 \\ -3 \\ 1 \\ 0 \end{bmatrix}, vilket visar att Null(A)Null(A) är ett linjärt rum spännt av dessa vektorer.

Det är också viktigt att förstå att basen för varje subrum är unik i termer av de linjärt oberoende vektorer som den består av, men det kan finnas flera sätt att representera dessa baser beroende på valet av operationsmetoder och ordningen på vektorerna. Därför är det avgörande att noggrant hantera reduceringsprocessen för att säkerställa en korrekt och konsekvent basrepresentation.

Hur man hittar en bas för nullrummet hos en matris

För att finna en bas för nullrummet av en matris, börjar vi med att lösa ekvationen Ax=0Ax = 0, där AA är en m×nm \times n-matris och xx är en vektor i Rn\mathbb{R}^n. Om vi utför en Gausselimination (eller Gauss-Jordan-elimination), kan vi uttrycka lösningarna som en linjärkombination av frivilliga parametrar. Vektorerna som associeras med dessa parametrar utgör en bas för nullrummet.

Till att börja med, om en matris AA har rang r<nr < n, innebär detta att AA har nrn - r fria variabler i lösningen av Ax=0Ax = 0. Dessa fria variabler ger oss nrn - r linjärt oberoende vektorer som spänner upp nullrummet. Varje sådan vektor har en '1' i den position som motsvarar den fria variabeln och nollor på alla andra positioner. Denna uppsättning av vektorer bildar en bas för nullrummet.

Exempelvis, om vi har en matris som förenklas till en ekvation där lösningarna kan uttryckas som x=i=1nrsivix = \sum_{i=1}^{n-r} s_i v_i, där viv_i är linjärt oberoende vektorer, så bildar dessa vektorer en bas för nullrummet.

En viktig aspekt att förstå är att dessa vektorer är linjärt oberoende. Detta betyder att den enda lösningen till ekvationen i=1nrsivi=0\sum_{i=1}^{n-r} s_i v_i = 0 är den triviala lösningen där alla si=0s_i = 0. Därför kan vi med säkerhet säga att vektorerna v1,v2,,vnrv_1, v_2, \dots, v_{n-r} är oberoende och tillsammans bildar en bas för nullrummet.

Det finns en teorem som ger oss en systematisk metod för att finna en bas för nullrummet. Enligt denna teorem, om vi utför Gausselimination på matrisen och finner att AA har rang r<nr < n, så kan vi uttrycka lösningarna till Ax=0Ax = 0 i formen x=i=1nrsivix = \sum_{i=1}^{n-r} s_i v_i, där v1,v2,,vnrv_1, v_2, \dots, v_{n-r} bildar en bas för nullrummet.

Vidare, om rang r=nr = n, så är nullrummet trivialt, det vill säga endast innehållande nollvektorn. I detta fall säger vi att basen för nullrummet är den tomma uppsättningen.

Det finns också en viktig teorem som karakteriserar linjärt oberoende vektorer i termer av deras spännvidd. Om vi har en uppsättning vektorer A={a1,a2,,an}A = \{a_1, a_2, \dots, a_n\} som spänner upp ett delrum VV i ett vektorrum, så är dessa vektorer linjärt oberoende om och endast om varje annan uppsättning som spänner upp VV innehåller minst nn vektorer.

Vidare är det viktigt att förstå att varje bas i ett icke-trivialt delrum VV är en minimal spännuppsättning av VV. Det innebär att ingen vektor i basen kan tas bort utan att förlora spännvidden för delrummet. På samma sätt är varje bas en maximal oberoende uppsättning av vektorer i VV.

Det är också relevant att nämna ett resultat som kallas "Exchange Theorem" (bytes-teorem), vilket gör det möjligt att ersätta vektorer i en uppsättning som spänner upp ett delrum med vektorer som är linjärt oberoende. Om vi har en uppsättning vektorer som spänner upp ett vektorrum XX och en uppsättning linjärt oberoende vektorer i XX, så kan vi byta ut vissa av de spännande vektorerna mot de oberoende vektorerna, så att den nya uppsättningen fortfarande spänner upp XX.

Detta teorem ger oss ett användbart verktyg för att omvandla en oberoende uppsättning av vektorer till en bas för ett vektorrum, vilket i praktiken kan göras genom att använda Gausselimination för att reducera uppsättningen till en bas.

En ytterligare viktig aspekt är förståelsen av hur baser i ett vektorrum alltid har samma antal vektorer, vilket innebär att alla baser i ett givet vektorrum måste ha samma kardinalitet. Detta resultat gör att vi kan jämföra olika baser och förstå deras strukturer bättre.

Således, även om det kan verka som en komplex process att finna en bas för nullrummet, ger de ovan beskrivna teoremerna och metoderna oss en systematisk och teoretiskt grundad vägledning för att utföra dessa operationer.

Hur rymd och ortogonala komplement förhåller sig till varandra i vektorrum

Ett av de mest intressanta och fundamentala resultaten i linjär algebra är relationen mellan dimensionerna för en matris kolonn- och radrymder samt dess nullrum. Det visade teoremet förklarar att dimensionerna av kolonnrummet och radrymden hos en matris är lika med rangens r, medan dimensionen av nullrummet är n − r, där n är antalet kolumner i matrisen. Detta teorem, som kallas rang-nullitetssatsen, ger en viktig förståelse för strukturen hos linjära transformationer representerade av matriser.

För att fördjupa sig i beviset måste vi påminna oss om att rang av en matris definieras som antalet icke-nollrader i dess trappform, vilket motsvarar antalet pivotelement i denna form. De radvektorerna som utgör en bas för radrummet kan alltså användas för att bestämma dimensionen av detta rum, vilket innebär att dimensionen av radrummet är lika med rangens r. På samma sätt kan kolonnrummet av A beskrivas av kolumnerna som motsvarar pivotelementen i trappformen, vilket gör att kolonnrummet också har dimensionen r. Nullrummet, å andra sidan, är ett underutrymme där varje lösning till Ax = 0 kan ses som en linjärkombination av basvektorer för nullrummet, vilket ger dess dimension som n − r.

Det här teoremet, även om det kan verka självklart för dem som redan är bekanta med linjär algebra, är verkligen anmärkningsvärt. Det som kanske inte är uppenbart vid första anblicken är att rad- och kolonnrum, trots att de är fundamentalt olika koncept, faktiskt har samma dimension. Det är en ganska oväntad och elegant egenskap, särskilt när man tänker på att radvektorer och kolumnvektorer representerar olika sätt att förstå matriser.

För att verkligen förstå djupet i denna struktur är det nödvändigt att betrakta orthogonalitetens roll. Teoremet om att varje vektor i nullrummet är ortogonal mot varje vektor i radrummet är grundläggande och leder till ytterligare insikter. Eftersom varje vektor i Null(A) är ortogonal mot varje vektor i Row(A), kan en vektor x i Rn unikt dekomponeras som en summa av en vektor från Null(A) och en vektor från Row(A). Denna dekomposition är inte bara unik utan också viktig för att förstå hur en vektor kan brytas ner i två komponenter som är ortogonala mot varandra.

Enligt detta teorem, givet att vektorerna från Row(A) och Null(A) är ortogonala, kan varje vektor x i Rn skrivas som en summa av två vektorer: en från Null(A) och en från Row(A). Denna decomposition är entydig, vilket betyder att det inte finns något tvivel om hur en given vektor ska delas upp mellan dessa två underutrymmen. Vektorernas ortogonalitet spelar en nyckelroll i detta, eftersom det gör att vi kan säga att varje vektor från Null(A) är helt åtskild från varje vektor i Row(A).

För att göra denna förståelse konkret kan man använda exempel där vi faktiskt gör en dekomposition av en given vektor. Om vi exempelvis betraktar en matris A och en vektor x, kan vi lösa systemet av linjära ekvationer för att finna koefficienterna som delar upp x i två komponenter, en som ligger i radrummet och en som ligger i nullrummet. Denna process kan göras effektivt genom att använda ortogonalitet och andra linjära algebraiska tekniker som Gausselimination för att snabbt finna lösningarna.

Viktigt att notera är att denna teoretiska struktur inte bara är en matematiskt intressant egenskap utan också en praktisk verktyg i många tillämpningar. Förståelsen av rad- och nullrum hjälper oss att bättre förstå lösningar till linjära system, och att kunna dekomponera vektorer på detta sätt är användbart i många områden som dataanalys, signalbehandling och maskininlärning.

Det är också viktigt att förstå den roll som ortogonala komplement spelar i linjära system. Enligt teoremet är radrummet och nullrummet ortogonala komplement till varandra. Det betyder att för varje vektor i ett av dessa rum finns en unik motsvarande vektor i det andra, och tillsammans spänner de upp hela Rn. Denna insikt leder oss till begreppet "summa av underutrymmen", vilket innebär att summan av rad- och nullrum faktiskt täcker hela vektorrummet Rn. Därmed får vi en komplett bild av hur linjära transformationer fungerar, där varje vektor kan brytas ner i komponenter som är relaterade till både rad- och nullrum, och där varje komponent är ortogonal till den andra.

När vi betraktar ortogonala komplement i en mer generell kontext, gäller samma principer för alla underutrymmen i ett vektorrum. Om U och V är två underutrymmen av ett vektorrum X, säger vi att de är ortogonala om varje vektor i U är ortogonal mot varje vektor i V. Detta leder oss till begreppet ortogonalt komplement, som är mängden av alla vektorer i X som är ortogonala mot varje vektor i U. I fallet med rad- och nullrum får vi de intressanta relationerna: Row(A) + Null(A) = Rn och Row(A) = Null(A)⊥, där ⊥ betecknar ortogonalt komplement.

Att förstå dessa samband och använda dem i praktiska tillämpningar kräver en solid grund i linjär algebra och en medvetenhet om hur dessa teoretiska resultat påverkar lösningar på linjära system och andra matematiska problem. Genom att känna till och använda egenskaper som ortogonalitet och dekomposition, kan vi lösa en mängd olika problem mer effektivt och förstå deras underliggande struktur på ett djupare plan.