En matris är en rektangulär arrangemang av tal som representeras i form av rader och kolumner, ofta betecknad med en stor bokstav, som exempelvis ⎡A⎤. En matris som innehåller koefficienterna på vänster sida av ett system av linjära ekvationer, såsom:

A=[231152]A = \begin{bmatrix} 2 & 3 & -1 \\ 1 & 5 & -2 \end{bmatrix}

kallas en koefficientmatris. Om vi inkluderar siffrorna på höger sida av ekvationerna får vi en utökad matris, som:

[23181529]\left[\begin{array}{ccc|c} 2 & 3 & -1 & 8 \\ 1 & 5 & -2 & 9 \end{array}\right]

Den utökade matrisen används för att lösa systemet av linjära ekvationer på ett mer effektivt sätt, och det är ett verktyg som är centralt i metoden för Gausselimination.

Gausselimination innebär att man omvandlar en utökad matris till en enklare form genom att applicera elementära radoperationer, så att man kan lösa systemet genom att tillämpa bakåt substitution. Genom att arbeta med dessa radoperationer kan vi förenkla systemet utan att förändra lösningarna.

En grundläggande förutsättning för att detta ska vara möjligt är att varje matrisoperation bevarar systemets lösningar. Om vi till exempel har en matris:

[23181529]\begin{bmatrix} 2 & 3 & -1 & 8 \\ 1 & 5 & -2 & 9 \end{bmatrix}

och vi utför en radoperation för att eliminera ett element i en rad, måste den nya matrisen fortfarande representera samma lösningsmängd, men på ett förenklat sätt.

För att lösa ett system med en utökad matris, måste vi också förstå vad som händer när vi ändrar elementen i matrisen. Till exempel, om vi multiplicerar en rad med ett konstant tal, byter två rader plats, eller subtraherar en rad multiplicerad med ett tal från en annan rad, så förändras inte lösningarna – bara den matematiska representationen.

Exempelvis, om vi multiplicerar den första raden med ett konstant tal eller byter plats på rader, så kommer lösningen fortfarande att vara densamma, men det gör systemet enklare att lösa.

För att förstå Gausselimination fullt ut måste man också vara medveten om begreppet "pivot". En pivot är ett element i en matris som används för att göra de andra elementen noll i dess kolumn. Detta görs genom att subtrahera multiplar av pivotelementet från andra rader i matrisen. Pivotelementet spelar en viktig roll i eliminationsprocessen och används för att förenkla systemet.

I den specifika processen för att lösa ett 3x3-system, som vi har sett i exemplen, börjar vi med att göra ett av elementen i en rad till ett pivotelement och använder det för att eliminera andra element i samma kolumn. När vi får alla element under pivotelementet att bli noll, fortsätter vi med nästa rad, tills vi har en triangulär matris. Efter det kan vi tillämpa bakåt substitution för att finna lösningarna.

Vidare, när vi arbetar med matriser i linjära ekvationssystem, är det viktigt att förstå konceptet radoperationer, som definieras som följande:

  1. Multiplicera en rad med ett icke-noll tal.

  2. Byta plats på två rader.

  3. Subtrahera en rad multiplicerad med ett tal från en annan rad.

Dessa operationer gör att vi kan manipulera matrisen och därmed systemet utan att förändra lösningen, vilket gör att vi kan förenkla det till en nivå där lösningen är uppenbar.

För att kunna lösa ett system av linjära ekvationer effektivt genom matrisoperationer är det också avgörande att förstå definitionen av ekvivalenta system och matriser. Två system av ekvationer sägs vara ekvivalenta om de har samma lösningar. När vi utför en radoperation på den utökade matrisen, förändras systemet inte i grunden, utan vi får istället ett enklare system som är ekvivalent med det ursprungliga.

Det är också viktigt att känna till att lösningen till ett linjärt ekvationssystem kan vara unik, obestämd eller inte existera alls. Om den utökade matrisen, efter att ha genomgått Gausselimination, resulterar i en rad som representerar en omöjlig ekvation (som 0 = 1), innebär det att systemet inte har någon lösning. Om det finns en rad som bara har nollor, innebär det att systemet har oändligt många lösningar.

Att kunna tillämpa Gausselimination och förstå dessa matematiska operationer är ett centralt verktyg när man arbetar med linjära system och matriser. Ju mer vi förstår strukturen hos dessa system och operationer, desto mer effektiva och precisa kan vi bli i att lösa komplexa problem.

Vad betyder det att ett linjärt ekvationssystem har en unik lösning eller inte?

Ekvation 2.15, som löser det gamla systemet, innebär att två matriser som kan omvandlas till varandra genom ett ändligt antal elementära radoperationer anses vara rad-ekvivalenta. Detta begrepp är centralt i linjär algebra och används för att beskriva relationer mellan system av linjära ekvationer. Det är också viktigt att notera att medan kolumnoperationer är möjliga, används de sällan, och vi kommer här att fokusera enbart på radoperationer. De tre typerna av elementära radoperationer har alla specifika funktioner. Den första typen, även om den inte är nödvändig för Gausseliminering, kommer att bli viktigare vid senare reduktioner. Den andra typen av operationer måste användas när vi stöter på ett nollvärde på en position som kräver en pivotelement, som i följande exempel.

I exemplet 2.1.3 löser vi ett system av fyra ekvationer i tre okända. Vi använder radoperationer för att omvandla systemet till en ekvivalent matrisform. Här är en grundläggande förståelse av hur det går till: varje radoperation innebär att en rad ersätts med en annan rad modifierad med någon konstant faktor från en annan rad. Till exempel, om vi skriver r2 ← r2 − 3r1, betyder det att rad 2 byts ut mot rad 2 minus tre gånger rad 1. Detta är ett sätt att förenkla systemet och hitta lösningar.

Exemplet visar hur ett system av linjära ekvationer kan lösas genom att omvandla det till en trappstegsform, där de okända variablerna kan lösas steg för steg genom bakåtsubstitution. Systemet med fyra ekvationer i tre variabler representerar geometriskt fyra plan i ett tredimensionellt rum. I det här fallet sker deras skärning vid en enda punkt, vilket leder till en unik lösning.

Det är viktigt att förstå att systemet inte nödvändigtvis måste ha en lösning, särskilt när antalet ekvationer och okända inte är lika. När ett system har fler ekvationer än okända kallas det överbestämt och kan ofta vara inkonsekvent, alltså inte ha någon lösning. Om systemet har färre ekvationer än okända, är det underbestämt och har vanligen ett oändligt antal lösningar.

Ett system som är exakt bestämt, med lika många ekvationer som okända, har ofta en unik lösning, men detta är inte alltid fallet. Till exempel, om tre plan i ett tredimensionellt rum är parallella eller om de skär varandra i en linje, kommer systemet att vara inkonsekvent. Sådana system kräver särskild uppmärksamhet, och exempel på inkonsekventa system, som det i 2.1.4, visar hur två ekvationer leder till parallella plan, vilket resulterar i att det inte finns någon gemensam lösning.

För att bättre förstå när ett system är inkonsekvent, kan vi också se på en situation där tre plan inte alls har en gemensam punkt att skära vid. I det här fallet uppstår en självmotsägelse som inte kan tolkas geometriskt, men algebraiskt är det ett sätt att fastställa inkonsekvensen. När systemet reduceras till en form där det sista steget ger en ekvation som 0 = 4, vet vi att systemet inte har någon lösning. Detta ger oss en tydlig indikation på att systemet är inkonsekvent, vilket är ett viktigt begrepp att förstå vid lösning av linjära ekvationssystem.

Vidare, när vi har ett underbestämt system, till exempel ett system där det finns fler okända än ekvationer, kommer lösningarna vanligen att vara oändligt många. Detta kan visualiseras som att lösningarna bildar en linje eller ett plan, som i exemplet 2.1.5, där tre plan i ett tredimensionellt rum skär varandra längs en linje.

I andra fall, som i exempel 2.1.6, kan ett system med fler okända än ekvationer fortfarande ha en lösning som är en linje, och de fria variablerna gör att vi kan parametrera lösningarna. Detta gör att vi kan skriva lösningarna som en vektor som representerar alla möjliga lösningar längs denna linje.

Det är också viktigt att notera att vissa system, även om de verkar ha fler ekvationer än okända, faktiskt kan ge lösningar som representerar en plan i ett högre dimensionellt rum, som i exempel 2.1.7, där lösningen av ett 3×4-system ger en plan i fyra dimensioner.

Sammanfattningsvis är det viktigt att förstå inte bara själva lösningen av ett linjärt ekvationssystem, utan också de geometriska och algebraiska egenskaperna som påverkar systemets lösbarhet. Genom att förstå begrepp som rad-ekvivalens, överbestämda och underbestämda system, samt parametrisering av lösningar, kan vi få en djupare förståelse för hur dessa system fungerar och hur de ska behandlas.

Hur kan man bestämma om en matris är inverterbar?

En kvadratmatris kallas inverterbar om det finns en matris som, när den multipliceras med den ursprungliga, ger en enhetsmatris. Denna inverterade matris betecknas som A1A^{ -1}. För att avgöra om en matris är inverterbar, kan vi använda en rad tekniker, där en av de mest fundamentala är att använda radreduktion för att undersöka om den förlängda matrisen [AI][A | I] kan reduceras till formen [IC][I | C], där CC är den inverterade matrisen A1A^{ -1}.

Om [AI][A | I] kan reduceras till [IC][I | C] genom elementära radoperationer, så är matrisen AA inverterbar och CC är den unika lösningen till ekvationen AX=IAX = I, vilket innebär att A1=CA^{ -1} = C. Om radreduktionen inte kan leda till denna form, innebär det att ekvationen AX=IAX = I inte har någon lösning och därmed är AA inte inverterbar.

Bevis för matrisens inverterbarhet

Låt oss anta att AA är en inverterbar matris. Om vi genomför radreduktion på den förlängda matrisen [AI][A | I], får vi fram [IC][I | C], där CC är den inverterade matrisen. Detta innebär att AX=IAX = I har lösningen X=CX = C, och genom att använda radoperationer bakåt kan vi visa att CA=ICA = I, vilket innebär att CC är den unika lösningen på både AX=IAX = I och XA=IXA = I. Detta bevisar att AA är inverterbar och CC är dess inverse matris.

Om däremot radreduktionen inte kan leda till en enhetsmatris på vänster sida, innebär det att AA är singular, vilket betyder att AA inte har någon inverterad matris. En sådan matris ger upphov till ett inkonsekvent system och kan inte användas för att lösa linjära ekvationer på ett entydigt sätt.

Exempel på inverterbar matris

För att hitta den inverterade matrisen av en 2x2-matris, låt oss ta exemplet:

A=(2312)A = \begin{pmatrix} 2 & 3 \\ 1 & -2
\end{pmatrix}

För att hitta A1A^{ -1}, bildar vi den förlängda matrisen [AI][A | I] och utför radreduktion. Efter att ha genomfört nödvändiga radoperationer, kan vi läsa av den inverterade matrisen som A1A^{ -1}.

Exempel på en icke-inverterbar matris:

A=(1224)A = \begin{pmatrix}
1 & 2 \\ 2 & 4 \end{pmatrix}

I detta fall kan vi visa att den förlängda matrisen inte kan reduceras till en enhetsmatris, vilket innebär att AA inte är inverterbar. Detta beror på att den andra raden är en multipel av den första, vilket gör systemet inkonsistent.

Användning av den inverterade matrisen för att lösa linjära ekvationer

När en matris AA är inverterbar, kan vi använda den för att lösa linjära ekvationer av formen AX=BAX = B. Genom att multiplicera båda sidor av ekvationen med A1A^{ -1}, får vi den unika lösningen:

X=A1BX = A^{ -1}B

Detta ger oss en effektiv metod för att lösa system av linjära ekvationer, även om det inte alltid är praktiskt att beräkna A1A^{ -1} för stora matriser. I vissa teoretiska sammanhang, när flera sådana ekvationer behöver lösas samtidigt, kan användningen av inversen vara användbar.

Existens och unikhet av lösningar

En viktig egenskap hos inverterbara matriser är att de garanterar existensen av en unik lösning för varje n-vektor bb i ekvationen Ax=bAx = b. Om AA är inverterbar, så är lösningen given av x=A1bx = A^{ -1}b, och den är unik. Om å andra sidan AA inte är inverterbar, kommer systemet antingen inte ha någon lösning eller oändligt många lösningar, beroende på egenskaperna hos matrisen.

Det är också intressant att notera att om AA är inverterbar, så kommer ekvationen Ax=0Ax = 0 endast att ha den triviala lösningen x=0x = 0. Detta är ett kännetecken för nonsingulara matriser. Om ekvationen Ax=0Ax = 0 har någon annan lösning än x=0x = 0, är AA singular och inte inverterbar.

Sammanfattning

För att avgöra om en matris är inverterbar, undersöker vi om den förlängda matrisen [AI][A | I] kan reduceras till [IC][I | C]. Om detta är möjligt, är AA inverterbar och CC är dess inverse. Annars är matrisen singular. Detta innebär att för inverterbara matriser kan vi lösa linjära ekvationer effektivt, men för singulara matriser måste vi använda andra metoder för att hantera systemen.

Hur roterande matriser används i datorgrafik: Exempel och tillämpningar

Inom datorgrafik är linjära transformationer grundläggande för att manipulera objekt och deras positioner i rymden. En viktig aspekt av dessa transformationer är rotationer, som kan beskrivas genom matriser. I denna sektion undersöks hur rotationer i tre dimensioner (R3) kan hanteras och appliceras, med hjälp av matriser och deras användning inom datorgrafik.

För att illustrera en rotation i R3, låt oss ta ett exempel där vi vill finna rotationsmatrisen för en vektor p=(1,1,1)Tp = (1, 1, 1)^T som roteras med en vinkel θ\theta kring en godtycklig vektor. För detta ändamål kan vi använda en sekvens av matristransformationer. Vi börjar med att applicera en matris R1R_1 som roterar hela rummet med en vinkel π/4\pi/4 kring z-axeln. Detta får vektorn pp att rotera in i yz-planet, så att R1pR_1p ligger i en viss vinkel från z-axeln, där sinα=2/3\sin \alpha = 2/3 och cosα=1/3\cos \alpha = 1/3. Denna första rotation omvandlar vektorn till en ny position som vi sedan kan manipulera vidare.

Därefter appliceras en andra matris R2R_2, som roterar rummet med vinkeln α\alpha kring x-axeln. Vid denna punkt kommer R2R1pR_2R_1p att ligga längs z-axeln, vilket förenklar vidare beräkningar. Nu kan vi använda en tredje matris R3R_3 som representerar en rotation med en vinkel θ\theta kring z-axeln. Denna matris är enkel att skriva ut, och när den är tillämpad kan vi omvända de två första rotationerna för att återställa vektorn pp till sin ursprungliga position.

För att sammanfatta de tre rotationerna får vi den totala rotationsmatrisen genom att multiplicera alla tre matriserna:

Rθ=R3R2R1R_{\theta} = R_3 R_2 R_1

Denna matris beskriver hur en godtycklig vektor pp roteras kring en godtycklig axel. Det är denna typ av matris som används i datorgrafik för att rotera objekt på skärmen, där små justeringar av vinkel θ\theta görs för att uppnå en smidig animation av objekt som roterar. Sådana matriser används exempelvis för att visa bilder i 3D, där rotationerna utförs många gånger per sekund.

Ett intressant fenomen som vi stött på här är begreppet ortogonala matriser. Eftersom R3R_3 är en ortogonal matris, gäller att dess invers är lika med dess transponerade matris. Detta kan vara användbart för att förenkla beräkningar, då man kan använda transpositionen istället för att direkt beräkna inversen genom den vanliga eliminationsmetoden.

När vi övergår till mer avancerade applikationer i datorgrafik, ställs vi inför frågan om hur vi projicerar tredimensionella objekt på en tvådimensionell vyplan. Ett exempel på detta är orthografiska projiceringar, där vi projicerar objekt längs linjer som är vinkelräta mot vyplanet. Detta är en viktig teknik som används i bland annat CAD-system och spelmotorer, där objekt måste projiceras på en platt yta för att visa 3D-information på en 2D-skärm.

En grundläggande form av projicering är den ortogonala projiceringen på koordinatplanen. Här tas helt enkelt de z-komponenterna bort för att projicera en punkt i (x,y,z)(x, y, z)-rymden till en punkt i (x,y)(x, y)-planet. Om vi till exempel vill göra en projicering på xy-planet använder vi en matris av följande form:

P(i,j)=[100010000]P_{(i,j)} = \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 0
\end{bmatrix}

Denna typ av projicering används för att visa objekt i "top-down" vyer, där vi bara behöver information om de två första koordinaterna.

Det finns dock mer komplexa projiceringar, till exempel när man vill projicera på ett godtyckligt plan. För detta ändamål behöver vi använda en mer generell metod där vi först dekomponerar en godtycklig vektor p=(p1,p2,p3)Tp = (p_1, p_2, p_3)^T i koordinaterna längs de ortogonala enhetsvektorerna u,vu, v som spänner upp vyplanet. Projiceringen görs sedan genom att ta bort den komponent som är parallell med normalvektorn nn till planet.

Exempelvis om vi vill projicera en punkt pp på ett plan definierat av de ortogonala enhetsvektorerna uu och vv, där normalvektorn är nn, kan vi använda följande ekvation för att beräkna den projicerade punkten:

pV=(pu)u+(pv)vp_V = (p \cdot u)u + (p \cdot v)v

Denna teknik är användbar när man projicerar objekt på plana ytor som inte är parallella med koordinatplanen, till exempel vid visualisering av 3D-objekt i olika vinklar.

För att illustrera, tänk på ett exempel där vi har en byggnad som är synlig från en viss vinkel. Vi vill projicera denna byggnad på ett plan x+y+z=0x + y + z = 0. För att göra detta väljer vi lämpliga enhetsvektorer för vyplanet och använder projiceringsmatrisen för att konvertera de ursprungliga koordinaterna för byggnadens hörn till koordinater på vyplanet.

Det är också viktigt att förstå skillnaden mellan aktiva och passiva transformationer. En aktiv transformation innebär en förändring av hela rymden, medan en passiv transformation innebär en förändring av basen eller koordinatsystemet, där själva objektet inte rör sig. Detta begrepp blir centralt när vi arbetar med koordinatsystem och projiceringar, där valet av bas kan påverka hur vi tolkar och visualiserar transformationerna.

Hur man beräknar egenvärden och egenvektorer med inversa kraftmetoden

För att hitta egenvärden och egenvektorer av en symmetrisk matris, kan vi använda metoder som den inverse kraftmetoden och förskjuten kraftmetod. Dessa metoder är centrala när det gäller att arbeta med stora matriser och kan ge oss tillförlitliga resultat även om vi inte har tillgång till en exakt analytisk lösning.

En viktig teknik är att välja en lämplig startvektor, som sedan genomgår en iterativ process för att konvergera mot det största eller minsta egenvärdet. Låt oss börja med att undersöka ett exempel för att bättre förstå denna process.

Anta att vi har en matris AA och vi använder den inverterade kraftmetoden för att beräkna egenvärdena. Om vi till exempel väljer en initial vektor x0=(1,1)Tx_0 = (1, 1)^T och applicerar matrisen AA på denna vektor, får vi nya vektorer x1x_1, x2x_2, och så vidare. Med varje iteration närmar sig vektorn den egna riktningen, vilket gör att vi kan uppskatta egenvärdena. Genom att iterera denna process kan vi få en alltmer exakt uppskattning av egenvärdet. Den första approximationen av det största egenvärdet här är ungefär λ15.7016λ_1 ≈ 5.7016, medan den tillhörande egenvektorn är s1(1,0.8508,1)Ts_1 ≈ (1, 0.8508, 1)^T.

För att hitta det minsta egenvärdet använder vi den inverterade kraftmetoden, som innebär att vi istället för att applicera matrisen AA direkt, tillämpar A1A^{ -1}. Efter att ha genomfört ett antal iterationer får vi en uppskattning av det minsta egenvärdet, som här är λ30.7015λ_3 ≈ -0.7015, med egenvektorn s3(1,2.3508,1)Ts_3 ≈ (1, -2.3508, 1)^T. Denna metod kräver att vi kontinuerligt justerar och förbättrar uppskattningarna genom att tillämpa matriser och inversioner.

När vi sedan använder en förskjuten kraftmetod, som innebär att vi justerar matrisen med en konstant cc, kan vi få fram ytterligare egenvärden. Här använde vi för exempel värdet c=3c = -3, vilket gjorde att vi kunde hitta ett negativt egenvärde, vilket var λ22λ_2 ≈ -2. Metoden fungerar genom att skapa en ny matris, B=A+3IB = A + 3I, och sedan applicera de tidigare beskrivna metoderna.

Det är också viktigt att komma ihåg att egenvektorer för olika egenvärden av en symmetrisk matris är ortogonala. Detta innebär att vi kan använda en vektor x0=(1,0.5,1.5)Tx_0 = (1, 0.5, -1.5)^T, som är nästan ortogonal mot de tidigare egenvektorerna, för att få fram ytterligare egenvärden. Det faktum att de är ortogonala gör att vi kan identifiera och separera egenvärdena på ett tydligare sätt.

När vi experimenterar med olika startvektorer kan vi få en djupare förståelse för egenvärdenas karaktär. Dessa metoder, särskilt när de tillämpas på stora matriser, blir allt mer användbara, eftersom de inte kräver att vi hanterar den fullständiga matrismatematiken direkt. Resultatet är en numeriskt stabil metod som ger oss de viktiga egenvärdena och egenvektorerna.

Utöver att förstå själva metoderna för att hitta egenvärden och egenvektorer, är det också av vikt att kunna tolka och analysera dessa värden. Egenvärden speglar olika aspekter av systemets dynamik och stabilitet, och i många tillämpningar, som inom fysik, ekonomi eller ingenjörsvetenskap, spelar de en central roll i att förstå systemens beteende. Det är därför inte bara en fråga om att beräkna dessa värden utan också att kunna dra meningsfulla slutsatser från dem, vilket kräver en förståelse för kontexten där de appliceras.