Het is essentieel om te begrijpen dat matrixvermenigvuldiging niet commutatief is. Dit kan worden aangetoond door directe berekeningen, maar volgt ook uit de definitie, aangezien matrixvermenigvuldiging kan worden opgevat als twee opeenvolgende transformaties, en transformaties zijn over het algemeen niet commutatief. Dit geldt zelfs wanneer de transformaties plaatsvinden in dezelfde ruimte. Stel je bijvoorbeeld de impact voor van een rekbeweging van noord naar zuid, gevolgd door een rotatie van 90 graden van een auto die naar het noorden wijst. Als we deze bewerkingen in omgekeerde volgorde uitvoeren, verandert de situatie aanzienlijk. In het eerste geval eindigen we met een langere auto die naar het westen wijst, terwijl in het tweede geval de auto breder wordt en ook naar het westen wijst. Het verschil tussen deze twee gevallen illustreert hoe de volgorde van transformaties de uitkomst beïnvloedt, wat het niet-commutatieve karakter van matrixvermenigvuldiging benadrukt.
Bijvoorbeeld, als we de twee vectoren in Corollary 2.4.1 beschouwen, is het product ba heel anders dan ab. Het product ab is een scalair, zoals gegeven in Vergelijking 2.103. Als echter de kolomvector eerst komt, hoeven de dimensies van a en b niet hetzelfde te zijn. Als we b veranderen in een kolomvector van lengte m en a in een rijvector van lengte n, dan krijgen we, volgens Theorem 2.4.2 met p = 1, een matrix die de zogenaamde buitenproduct van de twee vectoren vormt. Dit buitenproduct is een matrix in de ruimte van m × n-matrices, die de ruimtes R^m en R^n bevatten van de factoren, en die ruimtes bevatten op hun beurt de ruimte R^1 van het inproduct.
Zelfs als het product AB gedefinieerd is, is het vaak zo dat het product BA niet gedefinieerd is. Stel bijvoorbeeld dat A een matrix van 2 × 3 is en B een matrix van 3 × 1. Dan is AB, volgens Definitie 2.4.4, een 2 × 1 matrix, maar BA is niet gedefinieerd omdat de binnenste getallen van de dimensies van B en A niet overeenkomen. De interpretatie van het product in Corollary 2.4.1 als een inproduct suggereert dat de formule van Theorem 2.4.2 op een soortgelijke manier kan worden geïnterpreteerd. Het product van twee matrices kan worden opgevat als het inproduct van de rijen van de eerste matrix en de kolommen van de tweede matrix.
Bijvoorbeeld, als A een m × p matrix is en B een p × n matrix, dan kan het product van A en B worden geïnterpreteerd door het inproduct van de i-de rij van A met de k-de kolom van B. Dit is een nuttige manier om matrixproducten te evalueren en wordt vaak gebruikt om grote berekeningen te vereenvoudigen. De formulering van het product in termen van rijen en kolommen maakt het makkelijker om de componenten van de resulterende matrix uit te rekenen, wat de werklast voor complexere matrixoperaties aanzienlijk vermindert.
Bijvoorbeeld, als A = en B = , kan het product AB eenvoudig worden berekend door gebruik te maken van de componenten van de rijen van A en de kolommen van B. Dit maakt de berekening intuïtiever en sneller. Als we A en B verder herstructureren, kunnen we matrixvermenigvuldiging ook als distributief beschouwen, wat het eenvoudiger maakt om verschillende vormen van matrixproducten te begrijpen.
Een ander interessant voorbeeld betreft rotatiematrices. Als we matrices gebruiken die rotaties van 30° en 60° voorstellen, zoals R30 en R60, dan is het product van deze matrices gelijk aan de rotatiematrix voor 90°, namelijk R90. Dit toont hoe matrixvermenigvuldiging kan worden toegepast in geometrische transformaties en het belang van de volgorde van transformaties in de ruimte. Dit gebruik van matrices in toepassingen zoals rotaties biedt inzicht in hoe matrixvermenigvuldiging de structuur van wiskundige objecten verandert afhankelijk van de volgorde van de bewerkingen.
Verder kan matrixvermenigvuldiging ook worden toegepast op praktische problemen, zoals het analyseren van netwerken. Neem bijvoorbeeld een luchtvaartmaatschappij die nonstopvluchten tussen steden A, B, C, D en E aanbiedt. De connectiviteit tussen de steden kan worden weergegeven door een matrix, waarbij de elementen van de matrix aangeven of er een directe vlucht is tussen twee steden. Wanneer we de matrix vermenigvuldigen, krijgen we informatie over één-stopvluchten, en door verder te vermenigvuldigen kunnen we zelfs drie-stopvluchten bepalen. Dit type netwerkmodellering toont de kracht van matrixvermenigvuldiging in het analyseren van relaties tussen elementen in een systeem.
Het is belangrijk voor de lezer te begrijpen dat matrixvermenigvuldiging niet alleen een abstracte wiskundige bewerking is, maar ook praktisch toepasbaar is in veel verschillende contexten. Het helpt bij het analyseren van geometrische transformaties, het modelleren van netwerken, en het oplossen van systemen van lineaire vergelijkingen. Bovendien, hoewel de techniek van matrixvermenigvuldiging eenvoudig lijkt, heeft het krachtige toepassingen die de basis vormen voor veel geavanceerdere wiskundige en computationele methoden.
Wat is de relatie tussen de dimensies van de rijenruimte, kolomruimte en nulruimte van een matrix?
Het rank-nullity-theorema is een van de fundamentele concepten in lineaire algebra, en biedt ons krachtige inzichten in de structuur van matrices en hun verschillende subruimtes. Dit theorema stelt dat de dimensie van de kolomruimte en de dimensie van de rijenruimte van een matrix altijd gelijk zijn en gelijk zijn aan de rank van de matrix. Dit betekent dat het aantal niet-nul rijen in de gereduceerde echelonvorm van de matrix, dat gelijk is aan het aantal pivots in de matrix, het aantal lineair onafhankelijke kolommen en rijen bepaalt.
Volgens het theorema is de dimensie van de nulruimte van een matrix gelijk aan het aantal kolommen van de matrix minus de rank. In symbolen:
waarbij de rank van de matrix is, en het aantal kolommen van de matrix. Dit betekent dat de nulruimte een subruimte is van , waarvan de dimensie het verschil is tussen het aantal kolommen en de rank.
Het is opmerkelijk dat de rijenruimte en de kolomruimte altijd dezelfde dimensie hebben, ongeacht de specifieke inhoud van de matrix. Dit leidt tot een belangrijk gevolg: de rang van een matrix plus de nulruimte, oftewel de nulliteit, is gelijk aan het aantal kolommen van de matrix:
De rijruimte en nulruimte van een matrix zijn beide subruimtes van , en het feit dat hun dimensies samen opleveren, betekent dat hun vectoren in zekere zin bijdragen aan de volledige ruimte .
Er is echter nog meer te ontdekken over de relatie tussen deze subruimtes. Een van de belangrijkste eigenschappen is dat elke vector in uniek kan worden gedecommenteerd in twee componenten: één afkomstig uit de nulruimte van de matrix en de andere uit de rijenruimte van de matrix. Dit betekent dat elke vector als volgt kan worden geschreven:
waarbij en . De vectoren en zijn bovendien orthogonaal aan elkaar. Dit betekent dat de nulruimte en de rijenruimte elkaar in raken in de zin dat elke vector in op unieke wijze kan worden ontbonden in een vector uit de nulruimte en een uit de rijenruimte.
Deze orthogonaliteit kan als volgt worden bewezen. Als een vector , dan geldt:
waarbij de i-de rij van de matrix is. Dit betekent dat voor elke rij de volgende gelijkheid geldt:
Hieruit volgt dat elke lineaire combinatie van de rijen van de nulvector oplevert wanneer vermenigvuldigd met een vector uit de nulruimte. Dit impliceert dat de rijenruimte van orthogonaal is aan de nulruimte van .
De orthogonaliteit van de rijenruimte en de nulruimte kan op een wiskundig niveau worden uitgedrukt als:
waarbij het orthogonale complement aanduidt. Dit geeft aan dat de rijenruimte precies de orthogonale ruimte is van de nulruimte.
Deze concepten kunnen verder worden uitgebreid naar willekeurige subruimten van een vectorruimte. Als we twee subruimten en van een vectorruimte hebben, dan wordt de som van deze subruimten gedefinieerd als de verzameling van alle vectoren die de som zijn van een element uit en een element uit :
Wanneer en orthogonaal zijn, betekent dit dat elke vector in orthogonaal is aan elke vector in . Het orthogonale complement van een subruimte , aangeduid als , bestaat uit alle vectoren in die orthogonaal zijn aan elke vector in .
Het corollarium van het rank-nullity-theorema geeft ons de volgende krachtige gelijkheden:
Deze relaties zijn van groot belang, niet alleen voor de theorie van matrices, maar ook voor vele toepassingen in verschillende takken van de wiskunde en de natuurwetenschappen.
Wat zijn de eigenschappen van Hermitische en unitaire matrices en waarom zijn ze belangrijk?
In de wiskunde en natuurkunde spelen Hermitische en unitaire matrices een fundamentele rol bij het begrijpen van complexe systemen, vooral als het gaat om kwantummechanica en elektrische circuits. Deze matrices hebben specifieke eigenschappen die ze bijzonder nuttig maken, en in deze sectie worden enkele van de belangrijkste eigenschappen besproken, evenals voorbeelden die hun toepassingen verduidelijken.
Een van de centrale eigenschappen van Hermitische matrices is dat hun eigenwaarden altijd reëel zijn. Dit kan worden bewezen door de definitie van een Hermitische matrix , waarbij , wat betekent dat de matrix gelijk is aan haar Hermitische geconjugeerde. Als we een eigenwaarde noemen van de matrix , en het bijbehorende eigenvector, dan volgt uit de vergelijking , samen met het nemen van het Hermitische van beide zijden van de vergelijking, dat noodzakelijkerwijs reëel moet zijn. Dit wordt bevestigd door de volgende formule:
Hierbij is altijd een reëel getal, omdat het de kwadraten van de componenten van de vector vertegenwoordigt. Dit betekent dat de eigenwaarden van een Hermitische matrix altijd reëel zijn, een eigenschap die van groot belang is in de kwantummechanica, waar Hermitische matrices vaak worden gebruikt om operatoren voor fysieke grootheden te beschrijven, zoals energie.
Unitaire matrices hebben een andere belangrijke eigenschap: de eigenwaarden van een unitaire matrix hebben altijd een absolute waarde van 1. Dit kan worden bewezen door de definitie van een unitaire matrix , die voldoet aan de voorwaarde , waarbij de identiteitsmatrix is. Als een eigenwaarde is van de matrix en het bijbehorende eigenvector, dan volgt uit de vergelijking en de eigenschappen van de Hermitische geconjugeerde dat de eigenwaarde voldoet aan de voorwaarde . Dit betekent dat de eigenwaarden van een unitaire matrix altijd op de eenheidsomloop in het complexe vlak liggen, wat cruciaal is in de context van kwantummechanica en signaalverwerking.
Hermitische matrices zijn ook bijzonder nuttig omdat de bijbehorende eigenvectoren orthogonaal zijn voor verschillende eigenwaarden. Dit betekent dat de eigenspaces van een Hermitische matrix orthogonaal zijn. Dit is een direct gevolg van de eigenschappen van Hermitische matrices en wordt vaak gebruikt in de spectrale theorema, dat stelt dat elke Hermitische matrix kan worden gedicomposeerd in een eenheidsmatrix , waarbij de matrix wordt gerepresenteerd als , waarbij een diagonale matrix is met de eigenwaarden op de diagonaal. Dit biedt een krachtige manier om een Hermitische matrix te analyseren en kan leiden tot efficiëntere berekeningen.
Bijvoorbeeld, voor de matrix

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский