En n × n-matris A är icke-singulär om och endast om den uppfyller en eller flera av följande egenskaper: 1. A är inverterbar. 2. Ranget för A är n. 3. A är rad-ekvivalent med en enhetsmatris I. 4. Ax = b har en lösning för varje b. 5. Ax = b har en unik lösning för något b. 6. Den homogena ekvationen Ax = 0 har bara den triviella lösningen.

I fallet med tal är produktens invers och den individuella inversen relaterade genom formeln (ab)1=a1b1=b1a1(ab)^{ -1} = a^{ -1}b^{ -1} = b^{ -1}a^{ -1}. För matriser finns en liknande relation, men här är en betydande skillnad att produkten inte är kommutativ. Därför måste ordningen på faktorerna på höger sida av produkten omvändas.

Teorem 2.5.6 (Inversen av produkt av två matriser): Om A och B är inverterbara matriser av samma storlek, då är även AB inverterbar, och (AB)1=B1A1(AB)^{ -1} = B^{ -1}A^{ -1}.

Beviset är enkelt: Genom upprepade tillämpningar av den associativa lagen och definitionen av enhetsmatrisen får vi:

(AB)(B1A1)=((AB)B1)A1=(A(BB1))A1=(AI)A1=AA1=I,(AB)(B^{ -1}A^{ -1}) = ((AB)B^{ -1})A^{ -1} = (A(BB^{ -1}))A^{ -1} = (AI)A^{ -1} = AA^{ -1} = I,

och på samma sätt i omvänd ordning:

(B1A1)(AB)=I.(B^{ -1}A^{ -1})(AB) = I.

Det finns även ett teorem för tal som säger att a1=aa^{ -1} = a, och detta har en analogi för matriser.

Teorem 2.5.7 (Inversen av inversen av en matris): Om A är en inverterbar matris, då är även A1A^{ -1} inverterbar, och (A1)1=A(A^{ -1})^{ -1} = A.

Ett intressant koncept i matrismatematik är den transponerade matrisen. För varje m × n-matris A definieras dess transponat ATA^T som en n × m-matris, vilken erhålls genom att kolumnerna i A blir rader i ATA^T.

För varje 1im1 \leq i \leq m och 1jn1 \leq j \leq n gäller:

(AT)ji=Aij.(A^T)_{ji} = A_{ij}.

Denna definition gör det möjligt att omvandla en kolumnvektor till en radvektor och vice versa, vilket är användbart för att förenkla uträkningar och minska komplexiteten i vissa representationer av vektorer och matriser.

Teorem 2.5.8 (Transponatet av produkten av två matriser och den inverterade matrisens transponat): Om A och B är matriser sådana att deras produkt är definierad, då gäller att:

(AB)T=BTAT,(AB)^T = B^T A^T,

och om A är inverterbar, då är även ATA^T inverterbar, och (AT)1=(A1)T(A^T)^{ -1} = (A^{ -1})^T.

För att bevisa denna egenskap, betrakta produkten av A och B. Om vi tar transponatet får vi:

((AB)T)ij=(AB)ji=kAjkBik=kBikAjk=(BTAT)ij.((AB)^T)_{ij} = (AB)_{ji} = \sum_k A_{jk} B_{ik} = \sum_k B_{ik} A_{jk} = (B^T A^T)_{ij}.

Därmed är (AB)T=BTAT(AB)^T = B^T A^T.

För den inverterbara matrisen A, tillämpas samma idé genom att använda den associativa lagen för produkten och transponatet av inversen. Därmed får vi att ATA^T är inverterbar och att (AT)1=(A1)T(A^T)^{ -1} = (A^{ -1})^T.

För att förstå dessa resultat är det viktigt att beakta att operationer som att ta inversen eller transponera en matris inte nödvändigtvis sker i vilken ordning som helst. Matrisoperationer är inte kommutativa, vilket gör att ordningen spelar en central roll i att bestämma resultaten av sammansatta operationer.

När vi arbetar med system av linjära ekvationer, matriser och deras inverser, är det nödvändigt att förstå de specifika teorem och relationer som styr dessa operationer. Förutom de regler som diskuteras här, bör läsaren vara medveten om att de egenskaper hos matriser, såsom deras rang eller om de är inverterbara, påverkar om systemet av ekvationer har en lösning, och om den lösningen är unik eller inte. Vidare innebär det att en matris som inte är inverterbar (singulär) kan orsaka problem, som att ekvationen inte har någon lösning eller att lösningen inte är entydig. Det är därför av största vikt att noggrant analysera dessa egenskaper vid lösning av linjära system.

Hur man bygger en bas för ett vektorrum och förstår dimensionen av en undergrupp

Det är en grundläggande uppgift att hitta en bas för ett givet vektorrum eller en undergrupp. Genom att förstå den strukturen som genereras av vektorer i ett givet rum, kan man också förstå många av de egenskaper som gör att rummet fungerar som det gör. Detta är en central del av linjär algebra och har tillämpningar i många områden, från geometri till datavetenskap.

När vi arbetar med linjära system, eller när vi försöker förstå ett vektorrums struktur, är det viktigt att identifiera en uppsättning vektorer som är linjärt oberoende och som spänner hela rummet. Om dessa vektorer dessutom kan kombineras för att beskriva alla andra vektorer i rummet, har vi en bas för det vektorrummet.

Exempelvis, i det givna exemplet, har vi två vektorer b1b_1 och b2b_2, som definieras som b1=2a1+a2a3b_1 = 2a_1 + a_2 - a_3 och b2=a1+a2+2a3b_2 = -a_1 + a_2 + 2a_3. Dessa vektorer är linjärt oberoende och tillhör undergrupp UU. Vi vill nu utöka uppsättningen {b1,b2}\{b_1, b_2\} till en fullständig bas för UU.

För att göra detta bildar vi en matris där vi sätter b1b_1 och b2b_2 som kolumner, tillsammans med de ursprungliga vektorerna a1a_1, a2a_2, och a3a_3. Denna matris reduceras sedan till en trappform, där vi genom en serie av radoperationer kan identifiera de linjärt oberoende kolumnerna som utgör en bas för rummet UU. Efter att ha utfört reduktionen får vi att kolumnerna b1,b2,a1b_1, b_2, a_1 utgör en bas för UU.

En viktig egenskap som vi får genom denna process är att alla baser för ett givet vektorrum har samma antal vektorer. Detta leder oss till begreppet dimension för ett vektorrum. Dimensionen definieras som antalet vektorer i en bas för rummet. Om ett vektorrum har en bas bestående av nn vektorer, säger vi att rummet har dimension nn, och vi skriver dim(X)=n\text{dim}(X) = n. Om rummet är den triviala nollrummet, har det dimension 0. För rum som inte har någon ändlig bas, säger vi att rummet är oändligdimensionellt.

I fallet med Rn\mathbb{R}^n är det inte oväntat att dimensionen av Rn\mathbb{R}^n är just nn. Detta innebär att varje uppsättning av nn linjärt oberoende vektorer i Rn\mathbb{R}^n bildar en bas, och det finns exakt nn sådana vektorer som behövs för att spänna hela rummet.

Vidare, om vi överväger en undergrupp av R3\mathbb{R}^3, till exempel U={uR3u=s(1,1,1)T+t(1,2,3)T}U = \{ u \in \mathbb{R}^3 | u = s(1, 1, 1)^T + t(1, 2, 3)^T \}, kan vi se att dimensionen av UU är två, eftersom de två vektorerna (1,1,1)T(1, 1, 1)^T och (1,2,3)T(1, 2, 3)^T är linjärt oberoende och bildar en bas för undergruppen.

För att förstå dimensionen av mer komplexa rum som polynomrum PnP_n, måste vi också ta hänsyn till alla möjliga monomier upp till en viss grad. I exemplet där vi överväger PnP_n, rummet av alla polynom med grad högst nn, har det en bas bestående av {1,x,x2,,xn}\{1, x, x^2, \dots, x^n\}. Därmed är dimensionen av PnP_n lika med n+1n + 1. Detta exempel visar att dimensionen inte bara handlar om vektorer i Rn\mathbb{R}^n, utan också om mer abstrakta rum som kan representera funktioner eller polynom.

I detta sammanhang är det också viktigt att förstå hur dimensionen är relaterad till andra koncept i linjär algebra, såsom radrum, kolonnrum och nollrum. Till exempel, om vi har en matris AA, kan vi definiera radrummet (Row(A)), kolonnrummet (Col(A)), och nollrummet (Null(A)) för att studera de olika aspekterna av matrisen. Varje av dessa rum har en dimension som kan beräknas genom att hitta en bas för respektive rum, och dessa dimensioner ger oss insikter i matrisens egenskaper, som rang och lösbarhet.

Det är också viktigt att förstå att dimensionen inte bara handlar om att räkna vektorer. Att veta hur dimensionen påverkar de strukturella egenskaperna hos ett rum, som dess oberoende, räckvidd och kapacitet att beskriva andra vektorer, är avgörande för att kunna lösa mer komplexa linjära system.

I praktiken betyder detta att dimensionen ger oss kraftfulla verktyg för att analysera och förstå vektorrumens struktur och relationer, särskilt när vi arbetar med stora och komplexa datamängder, system av linjära ekvationer, eller polynom som beskriver olika fenomen. Genom att identifiera baser och dimensioner kan vi förenkla våra beräkningar och få en djupare förståelse för de rum vi arbetar med.

Hur minimerar man rundningsfel vid Gausseliminering?

Gausseliminering är en grundläggande metod för att lösa linjära ekvationssystem, men den är känslig för numeriska problem, särskilt när det gäller hantering av små värden som kan orsaka rundningsfel. När vi löser ett system av linjära ekvationer Ax=bAx = b, där AA är en matris och xx samt bb är vektorer, kan vi vid användning av denna metod stöta på stora numeriska avvikelser. Problemet uppstår framförallt när vi försöker dela med små tal, eller när vi multiplicerar med stora tal, vilket kan magnifiera rundningsfel.

När vi genomför Gausseliminering, används förfarandet av att eliminera variabler en rad i taget genom att producera nollor i varje kolumn under pivotelementen. Om ett pivotelement är nära noll, riskerar vi att divisionen med detta tal leder till stora numeriska fel, särskilt när dessa fel ackumuleras genom olika steg i elimineringen.

För att belysa detta, kan vi ta ett exempel där maskinen avrundar alla tal till två decimaler. När ett system som Ax=bAx = b, där A=(0.001111)A = \begin{pmatrix} 0.001 & 1 \\ 1 & 1 \end{pmatrix} och b=(12)b = \begin{pmatrix} 1 \\ 2 \end{pmatrix}, löses genom Gausseliminering, leder avrundningen till felaktiga resultat. I det här fallet, genom att avrunda de stora värdena till 1000, förstärks rundningsfelen avsevärt, vilket leder till ett felaktigt resultat för x1x_1. Den korrekta lösningen för x1x_1 skulle vara nära 1, medan den felaktiga lösningen beräknar den som 0.

Sådana problem kan undvikas genom att använda en teknik som kallas skalförändrad partiell pivotering (Scaled Partial Pivoting). I denna metod omarrangeras inte direkt de rader som används i beräkningarna, utan man håller koll på vilken rad som ska användas som pivotrad baserat på ett jämförande förhållande mellan elementens storlekar.

För att implementera denna teknik följer vi dessa steg:

  1. För varje rad i matrisen beräknas ett skalafaktorer sis_i, där si=max1jnaijs_i = \max_{1 \leq j \leq n} |a_{ij}|. Detta ger oss den största absoluta värdet i varje rad.

  2. För varje rad beräknas förhållandet ri=ai1sir_i = \frac{|a_{i1}|}{s_i}, där ai1a_{i1} är det första elementet i varje rad. Detta förhållande visar hur stor den första elementet är relativt den största absoluta värdet i raden, vilket ger en indikation på stabiliteten för pivotvalet.

  3. Den rad som har det största förhållandet rir_i sätts på toppen av matrisen och används som pivot för elimineringen.

Denna metod säkerställer att vi undviker att välja små pivotelement, som kan orsaka stora numeriska fel när de används i beräkningar. Detta minskar risken för att rundningsfel ackumuleras och gör Gausseliminering mycket mer stabil i praktiska tillämpningar.

När man använder denna teknik i praktiken, är det viktigt att förstå att även om vi inte rent fysiskt byter plats på raderna, måste vi ändå hålla reda på vilket pivotelement som ska användas och i vilken ordning. Detta gör det möjligt att undvika numeriska problem utan att behöva omstrukturera själva matrisen.

Slutligen är det viktigt att komma ihåg att även om Gausseliminering med partiell pivotering är en mycket användbar och kraftfull metod, är det inte alltid den mest effektiva i alla situationer. Vid mycket stora matriser eller specifika typer av problem kan andra metoder, såsom LU-faktorisering eller Gauss-Jordan elimination, vara mer effektiva och stabila alternativ. Vid arbete med större system, där minnet och beräkningstiden kan vara en begränsning, är det också viktigt att överväga de numeriska kostnaderna för de olika teknikerna och välja den metod som bäst passar den aktuella uppgiften.