En vigtig egenskab ved lineære kortlægninger og moduler over en ring er deres evne til at forbinde forskellige typer af algebraiske strukturer. Et centralt koncept i denne forbindelse er brugen af baser i frie moduler og deres kvotienter, som gør det muligt at forstå og analysere strukturerne mere effektivt.

Lad os overveje et R-modul M og en under-modul N af M. Et element i kvotientmodulet M/N repræsenteres som et coset m + N, hvor m ∈ M. Dette element er en klasse af ækvivalente elementer i M, som er udlignet i forhold til under-modulet N. Denne konstruktion gør det muligt at oprette en naturlig lineær struktur på M/N, idet vi kan definere en skalarmultiplikation r · (m + N) = rm + N. Her bemærkes det, at operationen er veldefineret, da den ikke afhænger af, hvilken repræsentant vi vælger for coset’en.

I denne kontekst bliver M/N et R-modul, og det er muligt at bygge bro mellem den oprindelige struktur af M og den resulterende kvotient ved hjælp af forskellige algebraiske værktøjer. For eksempel kan man vise, at hvis M er et frit modul, og N et under-modul af M, så er M/N også et frit modul, hvilket kan gøres ved at udvide en basis for N og M/N til at danne en basis for M.

For at konkretisere ideen kan vi bruge et eksempel: Lad L være en linje x = y i R², som er et én-dimensionelt under-rum af R². Kvotientrummet R²/L vil da bestå af alle linjer, der er parallelle med L. I dette tilfælde vil hver coset v + L være en linje parallel med L, og vi kan derfor opfatte kvotientmodulet som et rum af sådanne linjer, hvilket hjælper med at forstå, hvordan kvotientmoduler udvider den oprindelige struktur.

En yderligere relevant observation er, at hvis M er et R-modul og N et under-modul, så kan vi finde en basis for M ved at kombinere baser for N og M/N. Dette fremgår af Proposition 2.2.3, som viser, at hvis {ui}i∈I er en basis for N og {vj}j∈J er en basis for M/N, så vil {ui} og {vj} sammen danne en basis for M. Dette er en vigtig egenskab, da det tillader os at konstruere komplekse moduler ved at bygge på enklere, veldefinerede strukturer som baser.

Når man arbejder med kvotientmoduler og kvotientrum, er det også vigtigt at forstå dimensionen af disse moduler. Corollary 2.2.4 giver en nyttig formel for dimensionen af kvotientrum: Hvis V er et F-vektorrum og W et under-rum, så gælder det, at dim(V) = dim(W) + dim(V/W). Dette forhold er fundamentalt, især når man arbejder med endelige dimensioner, da det giver en måde at beregne dimensionen af det oprindelige rum baseret på dimensionerne af dets under-rum og kvotientrum.

Et centralt værktøj til at forstå strukturen af kvotientmoduler er den fundamentale sætning for homomorfismer, som siger, at der er en naturlig epimorfisme π : M → M/N, defineret ved π(m) = m. Denne epimorfisme er surjektiv og R-lineær, hvilket betyder, at den bevarer modulstrukturen og fungerer som en måde at projicere elementerne i M ned på kvotientmodulet M/N. Det er afgørende at forstå, at epimorfismen er surjektiv, da det betyder, at hver coset i M/N kan repræsenteres ved et element i M.

Når man arbejder med moduler, både i sammenhæng med kvotientmoduler og i bredere algebraiske konstruktioner, er det afgørende at have en klar forståelse af, hvordan baser, lineære kortlægninger og homomorfismer interagerer. Dette giver ikke kun en dybere indsigt i den algebraiske struktur, men også mulighed for at anvende disse værktøjer i praksis, for eksempel i løsningen af systemer af lineære ligninger, analyse af lineære transformationer og konstruktion af algebraiske objekter som vektorrum og moduler.

Hvordan finder vi de elementære matricer?

For at udføre en elementær rækkeoperation på en matrix AA svarer dette til at multiplicere AA med en elementær matrix EE fra venstre, hvilket resulterer i matrixen EAEA. Hvordan finder vi så matrixen EE? Svaret er enkelt: vi anvender den på identitetsmatrixen ImI_m. Ved at udføre den samme operation på ImI_m opnår vi EE, da EIm=EE I_m = E. På samme måde, hvis vi ønsker at finde matricen for en elementær søjleoperation, kan vi udføre den på identitetsmatrixen InI_n.

Elementære matricer er af tre typer. Vi ser nærmere på hver af disse typer og hvordan de kan udtrykkes eksplícit.

Elementære matricer af type I

Når vi skal bytte den ii-te og jj-te række i matrixen An×nA_{n \times n}, skal AA multipliceres med en matrix PijP_{ij}, som er en matrix, der bytter de to rækker. Denne matrix kan skrives som:

Pij=Imeiiejj+eij+ejiP_{ij} = I_m - e_{ii} - e_{jj} + e_{ij} + e_{ji}

Her er eiie_{ii} og ejje_{jj} elementer, der sænker de respektive diagonale elementer, mens eije_{ij} og ejie_{ji} indfører de nødvendige elementer for at bytte de to rækker. Hvis AA i stedet multipliseres med PijP_{ij} fra højre, vil det resultere i, at vi bytter de ii-te og jj-te søjler af AA.

Elementære matricer af type II

Når vi skal multiplicere den ii-te række af AA med en skalar uu, skal vi multiplicere AA med en matrix Di(u)D_i(u), som har formen:

Di(u)=Im+(u1)eiiD_i(u) = I_m + (u-1)e_{ii}

Her repræsenterer eiie_{ii} den elementære matrix, der ændrer den ii-te række, mens skalarfaktoren uu multipliceres med denne række. Hvis vi i stedet multiplicerer AA med Di(u)D_i(u) fra højre, vil det resultere i at multiplicere den ii-te søjle med uu.

Elementære matricer af type III

For at tilføje bb gange den jj-te række til den ii-te række i AA, skal vi multiplicere AA med matrixen Tij(b)T_{ij}(b), som har formen:

Tij(b)=Im+beijT_{ij}(b) = I_m + b e_{ij}

Her er eije_{ij} den elementære matrix, der skaber ændringerne i den ii-te række ved at tilføje bb gange den jj-te række. Hvis vi multiplicerer AA med Tij(b)T_{ij}(b) fra højre, vil vi i stedet tilføje bb gange den ii-te søjle til den jj-te søjle i AA.

Invertering af elementære matricer

En vigtig egenskab ved elementære matricer er, at hver operation kan vendes tilbage. Hvis vi ønsker at omvendt udføre en rækkeoperation, som for eksempel at bytte de ii-te og jj-te rækker, kan vi simpelthen bytte dem tilbage. Denne egenskab gælder også for de øvrige typer af elementære operationer. Hver elementær matrix er derfor inverterbar, og dens inverse er også en elementær matrix af samme type.

For eksempel er:

  • Inversen af PijP_{ij} lige med PijP_{ij} selv, da at bytte rækkerne tilbage bringer os til den oprindelige matrix.

  • Inversen af Di(u)D_i(u) er Di(u1)D_i(u^{ -1}), da den omvendte operation består i at multiplicere med den inverse skalar u1u^{ -1}.

  • Inversen af Tij(b)T_{ij}(b) er Tij(b)T_{ij}(-b), da den omvendte operation er at trække bb gange den jj-te række fra den ii-te række.

Determinanten af elementære matricer

Determinanten af elementære matricer er et vigtigt emne, da disse matricer ofte bruges i beregningen af determinanter for mere komplekse matricer. Lemaet nedenfor opsummerer resultaterne for determinanten af de elementære matricer:

  • det(Pij)=1\det(P_{ij}) = -1, fordi at bytte to rækker i en matrix ændrer tegn på determinanten.

  • det(Di(u))=u\det(D_i(u)) = u, da multiplicering af en række med uu simpelthen multiplicerer determinanten med uu.

  • det(Tij(b))=1\det(T_{ij}(b)) = 1, fordi tilføjelsen af en række til en anden ikke ændrer determinanten.

Når vi multiplicerer en matrix AA med en elementær matrix EE, har vi følgende:

det(EA)=det(E)det(A)\det(EA) = \det(E) \cdot \det(A)

Dette betyder, at determinanten af en produktmatrix er lig med produktet af determinanterne af de involverede matricer.

Hvad er vigtigt at forstå?

Udover de tekniske aspekter ved elementære matricer og deres operationer, er det vigtigt at forstå den praktiske anvendelse af disse matricer. Elementære matricer bruges ofte til at udføre rækkeoperationer på matricer, hvilket er grundlaget for processer som Gauss-eliminering, som anvendes til at løse systemer af lineære ligninger. Ved at forstå elementære matricer kan man få en dybere indsigt i, hvordan forskellige operationer på matricer påvirker determinanter og matrixstrukturer. Desuden er det væsentligt at bemærke, at elementære matricer spiller en central rolle i både teoretiske og anvendte områder af lineær algebra, især når man arbejder med matrixinversion, systemer af ligninger og egenværdiopgaver.

Hvordan forstå og anvende primærdekompositioner i PID-moduler?

Dy og Dz er uafhængige over D, og Dx = Dy ⊕ Dz. Hvis cy + dz = 0 for nogle c og d ∈ D, viser det samme argument som i (4.4.2), at cy = dz = 0. Dette betyder, at Dy og Dz er uafhængige over D, og dermed er Dy + Dz = Dy ⊕ Dz. Antag nu, at x = by + az. Det er tydeligt, at Dx ⊆ Dy + Dz. Vi har også, at hx = h(by + az) = bhy = bhy + agy = (ag + bh)y = y, eftersom gy = hz = 0. På samme måde har vi gx = g(by + az) = agz = agz + bhz = (ag + bh)z = z. Dette viser, at y, z ∈ Dx, og Dy + Dz ⊆ Dx. Vi kan dermed konkludere, at Dx = Dy + Dz = Dy ⊕ Dz.

Lad os nu finde annx. Da ghx = gh(by + az) = hbgy + aghz = 0, har vi, at (gh) ⊆ annx. Omvendt, lad cx = 0. Da cx = cby + caz = 0, betyder det, at cby = caz = 0, eftersom Dy og Dz er uafhængige over D. Derfor er cb ∈ (g) og ca ∈ (h). Det betyder, at g|cb og h|ca i D. Da ag + bh = 1, har vi (b, g) ∼ 1 og (a, h) ∼ 1. Det følger, at g|c og h|c fra Øvelse 2(a), §4.2. Deraf følger, at gh|c fra Øvelse 2(b), §4.2. Dette viser, at annx ⊆ (gh). Vi konkluderer, at annx = (gh). Den sidste del af udsagnet følger fra Lemma 4.3.2.

I Lemma 4.4.10 behandles en situation, hvor D er et PID, og M er et D-modul. Lad x ∈ D. Antag, at annx = (d), hvor d = upe₁₁p₂e₂···ptet, og u er en enhed i D, ei > 0 for alle i, og pi's er distinkte primtal i D. Der findes x₁, x₂, ..., xt i D, således at Dx = Dx₁ ⊕ Dx₂ ⊕ ··· ⊕ Dxt, hvor annxi = (peii ). Beviset er induktivt, og når t = 1, er der intet at bevise. Antag, at t ≥ 2. Da upe₁₁ og pe₂₂···ptet er relativt primære, kan vi ved hjælp af den kinesiske restteorem finde x₁, y ∈ Dx, således at Dx = Dx₁ ⊕ Dy, hvor annx₁ = (upe₁₁) = (pe₁₁) og anny = (pe₂₂···ptet). Resten følger fra induktionshypotesen.

Definiton 4.4.11 angiver, at et torsionsmodul over D kaldes primært, hvis dets ordensideal er af formen (pe) for et primtal p i D. En dekomposition af et modul i en direkte sum af primære cykliske moduler kaldes en primær dekomposition. Hvis et torsionsmodul over et PID D er givet, kan vi ved hjælp af strukturteoremet (Theorem 4.3.14) finde ikke-nul-elementer z₁, z₂, ..., zs i M, således at M = Dz₁ ⊕ Dz₂ ⊕ ··· ⊕ Dzs, hvor annzi = (di) ≠ (0) for alle i. Hver di kan kun have et begrænset antal primfaktorer, og derfor kan vi finde et endeligt antal distinkte primtal p₁, p₂, ..., pn i D, således at di = pe₁₁pe₂₂···peinn, hvor eij ≥ 0 for alle i, j. Fra Lemma 4.4.10 kan vi finde wij i M, så at M = ⊕ Dz_i, og annwij = (pj).

Dette fører os til Proposition 4.4.12, som hævder, at ethvert finit genereret torsionsmodul over et PID er en direkte sum af primære cykliske moduler. Med andre ord har enhver finit genereret torsionsmodul over et PID en primær dekomposition. Ét af målene i denne sektion er at forklare, hvorfor primærdekompositionen af et finit genereret modul over et PID er essentielt unik. Dette kræver, at vi forstår de grundlæggende begreber og teoremer, der er beskrevet.

I Definition 4.4.13 defineres p-komponenten Mp af et modul M som mængden af elementer {m ∈ M : p^k m = 0 for nogle k = 0, 1, 2, 3, ...}. Lemma 4.4.14 viser, at Mp er et delmodul af M, hvilket ikke afhænger af nogen dekomposition af M. Lemma 4.4.15 beskriver, at hvis c og d er relativt primære i D, og cm = dm = 0, så må m = 0. Dette spiller en vigtig rolle i at forstå moduler over PIDs og i analysen af torsionselementer.

Vigtige egenskaber ved primærdekompositioner over et PID er også afspejlet i Lemma 4.4.16, der fastslår, at et element m ∈ Mp, hvis og kun hvis annDm = peD for et ikke-negativt heltal e. Endelig viser Lemma 4.4.17, at komponenterne Mp1, ..., Mpn er uafhængige over D.

Med de nævnte resultater kan vi nå frem til Proposition 4.4.19, som giver os en metode til at finde p-komponenter i et finit genereret torsionsmodul. Hvis p er et primtal i D, som ikke er blandt de distinkte primfaktorer af ds, er Mp = 0. På denne måde opdeles M i direkte summen af komponenter relateret til hver primfaktor. Dette leder os til Corollary 4.4.20, som tilbyder en enkel øvelse, der bekræfter, at M kan opdeles i summen af primære moduler.

Som det ses, tilbyder dekompositionen af torsionsmoduler over PIDs en systematisk metode til at forstå deres struktur ved at analysere deres primære komponenter og deres annulleringsidealer. Denne tilgang giver dybere indsigt i, hvordan torsionsmoduler kan opdeles og studeres, hvilket gør dem til et uundværligt værktøj i algebraisk modulteori.

Hvordan finde en Jordan-form for en matrix og bestemme dens karakteristika?

For at bestemme en Jordan-form for en matrix AA over et felt FF kan man anvende forskellige metoder, men en af de mest effektive er at finde en passende basis, hvor transformationen TT har en simpel repræsentation. Dette er ofte lettere at gøre ved at anvende metoden, der er beskrevet i Eksempel 4.5.14, som samtidig kan give en basis for den rationelle form af AA, hvis en sådan eksisterer. Denne metode er dog ikke altid nødvendig, især når man kun er interesseret i Jordan-formen.

Når man har en lineær transformation TT, der er repræsenteret ved en matrix AA i forhold til en standard basis α=(e1,e2,e3)\alpha = (e_1, e_2, e_3), kan man finde en basis β=(v1,v2,v3)\beta = (v_1, v_2, v_3), hvor transformationen TT er simpel at arbejde med. Hvis vi kan finde en sådan basis, vil transformationen TT på de nye basisvektorer give de ønskede resultater, som for eksempel Tv1=v1T v_1 = -v_1, Tv2=v2+v3T v_2 = v_2 + v_3, og Tv3=v3T v_3 = v_3.

Ved at vælge passende løsninger for de relaterede kerner kan man finde de nødvendige egenvektorer og generaliserede egenvektorer. For eksempel kan v1v_1 vælges som en løsning i Ker(A+I)\text{Ker}(A + I), og v3v_3 som en løsning i Ker(AI)\text{Ker}(A - I). Når man har disse vektorer, kan man bestemme de nødvendige relationer mellem dem, og derved kan man opbygge en basis, der gør det muligt at finde Jordan-formen for AA.

I et andet eksempel, hvor man arbejder med matrixen AA, der er givet som:

A=(1000945183411221)A = \begin{pmatrix} 1 & 0 & 0 & 0 \\ 9 & 4 & -5 & 1 \\ 8 & 3 & -4 & 1 \\ 1 & 2 & -2 & 1
\end{pmatrix}

kan man finde en Jordan-form JJ ved at analysere de karakteristiske og minimale polynomer samt bestemme de såkaldte elementære divisorers faktorisering. Efter at have fundet de nødvendige kerner og transformationer, kan vi finde en basis, der giver JJ, og derved bestemme den ønskede basis for den rationelle form.

En vigtig egenskab ved Jordan-formen er dens unikhed. Selvom der kan være forskellige ordninger af de individuelle Jordan-blokke, er den overordnede struktur for Jordan-formen entydig. Dette betyder, at når man først har fundet Jordan-formen for en matrix, vil den være den samme, uanset hvordan man ordner blokke, så længe man ikke ændrer størrelsen af blokkene.

Desuden er det muligt at klassificere lignende matricer ved hjælp af deres kanoniske former. To matricer er lignende, hvis deres rationelle eller Jordan-former er ens, det vil sige, hvis de har de samme elementære divisorer eller de samme Jordan-blokke. Dette gør det muligt at bestemme, om to matricer er lige eller om de kan transformeres til hinanden gennem en basisændring.

Det er også vigtigt at forstå, at en matrix er diagonaliserbar, hvis den kan bringes til en diagonal form. Dette sker, når matrixen har et komplet sæt af egenvektorer, og alle dens Jordan-blokke har størrelse 1. Hvis en matrix er diagonaliserbar, vil dens Jordan-form også være en diagonal matrix, hvilket betyder, at transformationen kun består af egenvektorer og ingen generaliserede egenvektorer.

Det skal understreges, at det at finde den rationelle form eller Jordan-form for en matrix ikke kun handler om at finde en specifik form af matrixen, men også om at forstå de underliggende lineære transformationer og de algebraiske strukturer, som matrixen repræsenterer. Den rationelle form er tæt knyttet til de invariant faktorer af transformationen, mens Jordan-formen relaterer sig til de karakteristiske polynomer og egenværdier.