Het is essentieel om te begrijpen dat matrixvermenigvuldiging niet commutatief is. Dit kan worden aangetoond door directe berekeningen, maar volgt ook uit de definitie, aangezien matrixvermenigvuldiging kan worden opgevat als twee opeenvolgende transformaties, en transformaties zijn over het algemeen niet commutatief. Dit geldt zelfs wanneer de transformaties plaatsvinden in dezelfde ruimte. Stel je bijvoorbeeld de impact voor van een rekbeweging van noord naar zuid, gevolgd door een rotatie van 90 graden van een auto die naar het noorden wijst. Als we deze bewerkingen in omgekeerde volgorde uitvoeren, verandert de situatie aanzienlijk. In het eerste geval eindigen we met een langere auto die naar het westen wijst, terwijl in het tweede geval de auto breder wordt en ook naar het westen wijst. Het verschil tussen deze twee gevallen illustreert hoe de volgorde van transformaties de uitkomst beïnvloedt, wat het niet-commutatieve karakter van matrixvermenigvuldiging benadrukt.

Bijvoorbeeld, als we de twee vectoren in Corollary 2.4.1 beschouwen, is het product ba heel anders dan ab. Het product ab is een scalair, zoals gegeven in Vergelijking 2.103. Als echter de kolomvector eerst komt, hoeven de dimensies van a en b niet hetzelfde te zijn. Als we b veranderen in een kolomvector van lengte m en a in een rijvector van lengte n, dan krijgen we, volgens Theorem 2.4.2 met p = 1, een matrix die de zogenaamde buitenproduct van de twee vectoren vormt. Dit buitenproduct is een matrix in de ruimte van m × n-matrices, die de ruimtes R^m en R^n bevatten van de factoren, en die ruimtes bevatten op hun beurt de ruimte R^1 van het inproduct.

Zelfs als het product AB gedefinieerd is, is het vaak zo dat het product BA niet gedefinieerd is. Stel bijvoorbeeld dat A een matrix van 2 × 3 is en B een matrix van 3 × 1. Dan is AB, volgens Definitie 2.4.4, een 2 × 1 matrix, maar BA is niet gedefinieerd omdat de binnenste getallen van de dimensies van B en A niet overeenkomen. De interpretatie van het product in Corollary 2.4.1 als een inproduct suggereert dat de formule van Theorem 2.4.2 op een soortgelijke manier kan worden geïnterpreteerd. Het product van twee matrices kan worden opgevat als het inproduct van de rijen van de eerste matrix en de kolommen van de tweede matrix.

Bijvoorbeeld, als A een m × p matrix is en B een p × n matrix, dan kan het product van A en B worden geïnterpreteerd door het inproduct van de i-de rij van A met de k-de kolom van B. Dit is een nuttige manier om matrixproducten te evalueren en wordt vaak gebruikt om grote berekeningen te vereenvoudigen. De formulering van het product in termen van rijen en kolommen maakt het makkelijker om de componenten van de resulterende matrix uit te rekenen, wat de werklast voor complexere matrixoperaties aanzienlijk vermindert.

Bijvoorbeeld, als A = [2437]\begin{bmatrix} 2 & 4 \\ 3 & 7 \end{bmatrix} en B = [56]\begin{bmatrix} 5 \\ 6 \end{bmatrix}, kan het product AB eenvoudig worden berekend door gebruik te maken van de componenten van de rijen van A en de kolommen van B. Dit maakt de berekening intuïtiever en sneller. Als we A en B verder herstructureren, kunnen we matrixvermenigvuldiging ook als distributief beschouwen, wat het eenvoudiger maakt om verschillende vormen van matrixproducten te begrijpen.

Een ander interessant voorbeeld betreft rotatiematrices. Als we matrices gebruiken die rotaties van 30° en 60° voorstellen, zoals R30 en R60, dan is het product van deze matrices gelijk aan de rotatiematrix voor 90°, namelijk R90. Dit toont hoe matrixvermenigvuldiging kan worden toegepast in geometrische transformaties en het belang van de volgorde van transformaties in de ruimte. Dit gebruik van matrices in toepassingen zoals rotaties biedt inzicht in hoe matrixvermenigvuldiging de structuur van wiskundige objecten verandert afhankelijk van de volgorde van de bewerkingen.

Verder kan matrixvermenigvuldiging ook worden toegepast op praktische problemen, zoals het analyseren van netwerken. Neem bijvoorbeeld een luchtvaartmaatschappij die nonstopvluchten tussen steden A, B, C, D en E aanbiedt. De connectiviteit tussen de steden kan worden weergegeven door een matrix, waarbij de elementen van de matrix aangeven of er een directe vlucht is tussen twee steden. Wanneer we de matrix vermenigvuldigen, krijgen we informatie over één-stopvluchten, en door verder te vermenigvuldigen kunnen we zelfs drie-stopvluchten bepalen. Dit type netwerkmodellering toont de kracht van matrixvermenigvuldiging in het analyseren van relaties tussen elementen in een systeem.

Het is belangrijk voor de lezer te begrijpen dat matrixvermenigvuldiging niet alleen een abstracte wiskundige bewerking is, maar ook praktisch toepasbaar is in veel verschillende contexten. Het helpt bij het analyseren van geometrische transformaties, het modelleren van netwerken, en het oplossen van systemen van lineaire vergelijkingen. Bovendien, hoewel de techniek van matrixvermenigvuldiging eenvoudig lijkt, heeft het krachtige toepassingen die de basis vormen voor veel geavanceerdere wiskundige en computationele methoden.

Wat is de relatie tussen de dimensies van de rijenruimte, kolomruimte en nulruimte van een matrix?

Het rank-nullity-theorema is een van de fundamentele concepten in lineaire algebra, en biedt ons krachtige inzichten in de structuur van matrices en hun verschillende subruimtes. Dit theorema stelt dat de dimensie van de kolomruimte en de dimensie van de rijenruimte van een matrix altijd gelijk zijn en gelijk zijn aan de rank van de matrix. Dit betekent dat het aantal niet-nul rijen in de gereduceerde echelonvorm van de matrix, dat gelijk is aan het aantal pivots in de matrix, het aantal lineair onafhankelijke kolommen en rijen bepaalt.

Volgens het theorema is de dimensie van de nulruimte van een matrix gelijk aan het aantal kolommen van de matrix minus de rank. In symbolen:

dim(Null(A))=nr\text{dim}(\text{Null}(A)) = n - r

waarbij rr de rank van de matrix is, en nn het aantal kolommen van de matrix. Dit betekent dat de nulruimte een subruimte is van Rn\mathbb{R}^n, waarvan de dimensie het verschil is tussen het aantal kolommen en de rank.

Het is opmerkelijk dat de rijenruimte en de kolomruimte altijd dezelfde dimensie hebben, ongeacht de specifieke inhoud van de matrix. Dit leidt tot een belangrijk gevolg: de rang van een matrix plus de nulruimte, oftewel de nulliteit, is gelijk aan het aantal kolommen van de matrix:

rank(A)+nullity(A)=n\text{rank}(A) + \text{nullity}(A) = n

De rijruimte en nulruimte van een matrix zijn beide subruimtes van Rn\mathbb{R}^n, en het feit dat hun dimensies samen nn opleveren, betekent dat hun vectoren in zekere zin bijdragen aan de volledige ruimte Rn\mathbb{R}^n.

Er is echter nog meer te ontdekken over de relatie tussen deze subruimtes. Een van de belangrijkste eigenschappen is dat elke vector in Rn\mathbb{R}^n uniek kan worden gedecommenteerd in twee componenten: één afkomstig uit de nulruimte van de matrix en de andere uit de rijenruimte van de matrix. Dit betekent dat elke vector xRnx \in \mathbb{R}^n als volgt kan worden geschreven:

x=x0+xRx = x_0 + x_R

waarbij x0Null(A)x_0 \in \text{Null}(A) en xRRow(A)x_R \in \text{Row}(A). De vectoren x0x_0 en xRx_R zijn bovendien orthogonaal aan elkaar. Dit betekent dat de nulruimte en de rijenruimte elkaar in Rn\mathbb{R}^n raken in de zin dat elke vector in Rn\mathbb{R}^n op unieke wijze kan worden ontbonden in een vector uit de nulruimte en een uit de rijenruimte.

Deze orthogonaliteit kan als volgt worden bewezen. Als een vector uNull(A)u \in \text{Null}(A), dan geldt:

Au=0A u = 0

waarbij aia_i de i-de rij van de matrix AA is. Dit betekent dat voor elke rij ii de volgende gelijkheid geldt:

aiu=0a_i u = 0

Hieruit volgt dat elke lineaire combinatie van de rijen van AA de nulvector oplevert wanneer vermenigvuldigd met een vector uit de nulruimte. Dit impliceert dat de rijenruimte van AA orthogonaal is aan de nulruimte van AA.

De orthogonaliteit van de rijenruimte en de nulruimte kan op een wiskundig niveau worden uitgedrukt als:

Row(A)=Null(A)\text{Row}(A) = \text{Null}(A)^\perp

waarbij \perp het orthogonale complement aanduidt. Dit geeft aan dat de rijenruimte precies de orthogonale ruimte is van de nulruimte.

Deze concepten kunnen verder worden uitgebreid naar willekeurige subruimten van een vectorruimte. Als we twee subruimten UU en VV van een vectorruimte XX hebben, dan wordt de som van deze subruimten gedefinieerd als de verzameling van alle vectoren die de som zijn van een element uit UU en een element uit VV:

U+V={u+vuU,vV}U + V = \{u + v | u \in U, v \in V \}

Wanneer UU en VV orthogonaal zijn, betekent dit dat elke vector in UU orthogonaal is aan elke vector in VV. Het orthogonale complement van een subruimte UU, aangeduid als UU^\perp, bestaat uit alle vectoren in XX die orthogonaal zijn aan elke vector in UU.

Het corollarium van het rank-nullity-theorema geeft ons de volgende krachtige gelijkheden:

Row(A)+Null(A)=Rn\text{Row}(A) + \text{Null}(A) = \mathbb{R}^n
Row(A)=Null(A)\text{Row}(A) = \text{Null}(A)^\perp
Null(A)=Row(A)\text{Null}(A) = \text{Row}(A)^\perp

Deze relaties zijn van groot belang, niet alleen voor de theorie van matrices, maar ook voor vele toepassingen in verschillende takken van de wiskunde en de natuurwetenschappen.

Wat zijn de eigenschappen van Hermitische en unitaire matrices en waarom zijn ze belangrijk?

In de wiskunde en natuurkunde spelen Hermitische en unitaire matrices een fundamentele rol bij het begrijpen van complexe systemen, vooral als het gaat om kwantummechanica en elektrische circuits. Deze matrices hebben specifieke eigenschappen die ze bijzonder nuttig maken, en in deze sectie worden enkele van de belangrijkste eigenschappen besproken, evenals voorbeelden die hun toepassingen verduidelijken.

Een van de centrale eigenschappen van Hermitische matrices is dat hun eigenwaarden altijd reëel zijn. Dit kan worden bewezen door de definitie van een Hermitische matrix AA, waarbij AH=AA^H = A, wat betekent dat de matrix gelijk is aan haar Hermitische geconjugeerde. Als we λ\lambda een eigenwaarde noemen van de matrix AA, en ss het bijbehorende eigenvector, dan volgt uit de vergelijking As=λsA s = \lambda s, samen met het nemen van het Hermitische van beide zijden van de vergelijking, dat λ\lambda noodzakelijkerwijs reëel moet zijn. Dit wordt bevestigd door de volgende formule:

sHAs=λsHs.s^H A s = \lambda s^H s.

Hierbij is sHss^H s altijd een reëel getal, omdat het de kwadraten van de componenten van de vector ss vertegenwoordigt. Dit betekent dat de eigenwaarden van een Hermitische matrix altijd reëel zijn, een eigenschap die van groot belang is in de kwantummechanica, waar Hermitische matrices vaak worden gebruikt om operatoren voor fysieke grootheden te beschrijven, zoals energie.

Unitaire matrices hebben een andere belangrijke eigenschap: de eigenwaarden van een unitaire matrix hebben altijd een absolute waarde van 1. Dit kan worden bewezen door de definitie van een unitaire matrix UU, die voldoet aan de voorwaarde UHU=IU^H U = I, waarbij II de identiteitsmatrix is. Als λ\lambda een eigenwaarde is van de matrix UU en ss het bijbehorende eigenvector, dan volgt uit de vergelijking Us=λsU s = \lambda s en de eigenschappen van de Hermitische geconjugeerde dat de eigenwaarde λ\lambda voldoet aan de voorwaarde λ=1|\lambda| = 1. Dit betekent dat de eigenwaarden van een unitaire matrix altijd op de eenheidsomloop in het complexe vlak liggen, wat cruciaal is in de context van kwantummechanica en signaalverwerking.

Hermitische matrices zijn ook bijzonder nuttig omdat de bijbehorende eigenvectoren orthogonaal zijn voor verschillende eigenwaarden. Dit betekent dat de eigenspaces van een Hermitische matrix orthogonaal zijn. Dit is een direct gevolg van de eigenschappen van Hermitische matrices en wordt vaak gebruikt in de spectrale theorema, dat stelt dat elke Hermitische matrix kan worden gedicomposeerd in een eenheidsmatrix UU, waarbij de matrix wordt gerepresenteerd als UHAU=ΛU^H A U = \Lambda, waarbij Λ\Lambda een diagonale matrix is met de eigenwaarden op de diagonaal. Dit biedt een krachtige manier om een Hermitische matrix te analyseren en kan leiden tot efficiëntere berekeningen.

Bijvoorbeeld, voor de matrix

A=(1+3i3i4+i71i),A = \begin{pmatrix} 1 + 3i & 3 - i \\ 4 + i & 7 - 1i
\end{pmatrix},

kunnen we de eigenwaarden vinden door de karakteristieke vergelijking op te stellen en op te lossen. Na het oplossen van deze vergelijking vinden we de eigenwaarden λ1=6\lambda_1 = 6 en λ2=1\lambda_2 = -1, wat aantoont dat de eigenwaarden reëel zijn, zoals verwacht van een Hermitische matrix.

Een ander belangrijk concept is de diagonaliseerbaarheid van Hermitische matrices. Het spectrale theorema stelt dat een Hermitische matrix altijd kan worden geschreven in de vorm A=UΛUHA = U \Lambda U^H, waarbij UU een eenheidsmatrix is en Λ\Lambda een diagonale matrix met de eigenwaarden van AA op de diagonaal. Dit is een cruciaal concept in veel toepassingen, bijvoorbeeld bij de oplossing van lineaire systemen en bij het modelleren van kwantummechanische systemen.

Daarnaast komen we unitaire matrices tegen in veel praktische toepassingen, zoals in de kwantummechanica, waar ze de evolutie van kwantumtoestand beschrijven. De eenheidsmatrix UU heeft de eigenschap dat de eigenschatten ervan altijd op de eenheidscirkel liggen in het complexe vlak. Dit betekent dat de normen van de eigenvectoren van een unitaire matrix behouden blijven, wat belangrijk is voor de voorspellingen in systemen die kwantuminterferentie vertonen.

Hoewel het misschien ingewikkeld lijkt, is het concept van eigenwaarden en eigenvectoren van matrices essentieel in de analyse van veel fysische systemen. Dit wordt bijvoorbeeld duidelijk in elektrische circuits, waar de matrixformuleringen van de systemen vaak Hermitisch of unitair zijn, afhankelijk van de configuratie van de schakelingen. De complexiteit van eigenwaarden kan worden afgehandeld door gebruik te maken van de spectrale theorie, die de eigensystemen van dergelijke matrices onderzoekt en op basis daarvan de dynamica van het systeem voorspelt.

In meer praktische termen kan het werken met Hermitische en unitaire matrices helpen bij het begrijpen van fenomenen zoals resonantie in mechanische systemen, de stabiliteit van elektrische circuits en het gedrag van deeltjes in kwantummechanica. Wat belangrijk is, is dat deze matrices ons niet alleen inzicht geven in de structurele eigenschappen van systemen, maar ons ook helpen om de fundamenten van deze systemen te begrijpen door middel van numerieke berekeningen en analyses die de stabiliteit en evolutie van de systemen bepalen.