In de analytische meetkunde van Euclidische ruimten worden afstanden tussen objecten zoals punten, lijnen en vlakken vaak beschreven door middel van parametische en niet-parametische vergelijkingen. De parametische vergelijking van een vlak beschrijft bijvoorbeeld een tweedimensionale verzameling punten in een hogere dimensionale ruimte, terwijl de niet-parametische vergelijking vaak een hypervlak in een n-dimensionale ruimte aangeeft. Dit onderscheid speelt een cruciale rol bij het oplossen van geometrische vraagstukken, zoals het bepalen van de afstand van een punt tot een vlak, of de afstand tussen twee lijnen.

Een voorbeeld van een dergelijke berekening is het vinden van de afstand van een punt A(5,2,3)A(5, 2, -3) tot het vlak SS met de vergelijking 4x4y+7z=14x - 4y + 7z = 1. Om deze afstand te berekenen, beginnen we door een willekeurig punt P(2,0,1)P(2, 0, -1) te kiezen op het vlak SS door de waarden x=2x = 2 en y=0y = 0 in te vullen in de vlakvergelijking en vervolgens de waarde van zz te berekenen. Het resultaat is het punt P(2,0,1)P(2, 0, -1) op het vlak. Vervolgens wordt de vector AP\overrightarrow{AP} geprojecteerd op de normaalvector n\mathbf{n} van het vlak, welke in dit geval gelijk is aan (4,4,7)(4, -4, 7). De afstand wordt dan berekend met behulp van de formule D=APnnD = \frac{| \overrightarrow{AP} \cdot \mathbf{n} |}{|\mathbf{n}|}, wat resulteert in een specifieke waarde voor de afstand.

Een ander belangrijk voorbeeld is het berekenen van de afstand tussen twee lijnen, zoals de lijnen L1L_1 en L2L_2 gegeven door parametische vergelijkingen. Dit probleem vereist een meer complexe aanpak waarbij we een vector n\mathbf{n} vinden die orthogonaal is aan de richtingsvectoren van de gegeven lijnen. Vervolgens berekenen we de projectie van de verbindingsvector PQ\overrightarrow{PQ} tussen een willekeurig punt PP op L1L_1 en een willekeurig punt QQ op L2L_2 op deze normaalvector. Dit proces vereist het oplossen van een stel lineaire vergelijkingen om de parameterwaarden ss en tt te vinden die de loodrechte afstand tussen de twee lijnen aangeven.

In een meer algemene context kunnen deze technieken voor het berekenen van afstanden tussen objecten zoals lijnen en vlakken worden uitgebreid naar hogere dimensies. In hogere dimensies, wanneer de ruimte meer dan drie dimensies heeft, kan de keuze van de normaalvector niet meer uniek zijn, maar de algemene methode blijft hetzelfde. Dit zorgt ervoor dat deze technieken van fundamenteel belang blijven voor een breed scala aan geometrische vraagstukken.

Naast de basistechnieken voor het berekenen van afstanden, moeten lezers ook begrijpen dat de keuze van het coördinatensysteem en de parametrisatie cruciaal is voor het efficiënt oplossen van dergelijke problemen. Parametrische vergelijkingen bieden een krachtige manier om de ruimte te verkennen, maar vereisen vaak een diepere kennis van lineaire algebra en vectorberekeningen. Het is ook belangrijk om te beseffen dat, hoewel de oplossing voor afstanden in dimensie drie relatief eenvoudig is, het algoritme in hogere dimensies complexer kan worden, omdat het aantal mogelijke oplossingen toeneemt.

Het is ook essentieel om het geometrische inzicht te behouden bij het werken met parametische vergelijkingen en de concepten van projecties en loodrechte afstanden. Het begrijpen van de relaties tussen de verschillende objecten in de ruimte — zoals de verhouding tussen een lijn en een vlak, of de interactie van twee lijnen — biedt de sleutel tot het begrijpen van de diepere structuur van de Euclidische ruimte zelf.

Wat zijn de subruimten van R3 en waarom zijn ze belangrijk?

In de studie van vectorruimten wordt vaak gesproken over subruimten van R3, een van de basisvectorruimten in de lineaire algebra. Een subruimte van R3 is een verzameling van vectoren die voldoet aan drie belangrijke eigenschappen: de nulvector moet erin zitten, de subruimte moet gesloten zijn onder vectoroptelling, en de subruimte moet gesloten zijn onder scalaire vermenigvuldiging. Om deze concepten beter te begrijpen, moeten we eerst de verschillende soorten subruimten die mogelijk zijn in R3 verkennen.

De eenvoudigste subruimte in R3 is de nulruimte, die slechts de nulvector bevat. Dit is de kleinste mogelijke subruimte. Een andere veel voorkomende subruimte is de lijn door de oorsprong. Elke niet-nul vector in R3 genereert een lijn door de oorsprong, en elke lineaire combinatie van dergelijke vectoren beschrijft een vector op die lijn. Dergelijke subruimten bestaan uit de verzameling van alle mogelijke vectoren die door deze enkele vector worden gespannen.

Een iets complexere subruimte is het vlak door de oorsprong. Als we twee niet-parallelle vectoren in R3 nemen, kunnen we deze combineren om een vlak door de oorsprong te vormen. Dit betekent dat elke vector in het vlak een lineaire combinatie is van deze twee vectoren. Geometrisch gezien, als twee vectoren niet parallel zijn, spannen ze een vlak op dat door de oorsprong gaat.

De grootste subruimte in R3 is R3 zelf, dat alles bevat wat in R3 mogelijk is. Het is belangrijk te begrijpen dat een verzameling van drie niet-coplanar vectoren in R3 R3 spant, wat betekent dat ze de gehele ruimte kunnen beschrijven. Dit concept kan wiskundig worden aangetoond door aan te nemen dat er een vector b bestaat die niet in de span van drie niet-coplanar vectoren a1, a2 en a3 ligt. Dit zou betekenen dat het stelsel Ax = b geen oplossing heeft, maar dit is in tegenspraak met de aanname dat de vectoren niet-coplanar zijn. Daarom moeten drie niet-coplanar vectoren altijd R3 spannen.

Wat belangrijk is om te begrijpen is dat de spanning van een verzameling vectoren niet altijd uniek is. Dit betekent dat er soms meerdere manieren zijn om een vector als een lineaire combinatie van andere vectoren te schrijven. Dit is het geval wanneer de set van vectoren lineair afhankelijk is. Als we bijvoorbeeld drie vectoren in R3 nemen die niet onafhankelijk van elkaar zijn, dan kunnen we een van de vectoren schrijven als een lineaire combinatie van de andere twee.

Wanneer we kijken naar de lineaire onafhankelijkheid van een set van vectoren, zeggen we dat een set lineair onafhankelijk is als de enige oplossing van de vergelijking i=1nsiai=0\sum_{i=1}^{n} s_i a_i = 0 de triviale oplossing is, waarbij alle sis_i's gelijk zijn aan nul. Als er een niet-triviale oplossing bestaat, dan is de set vectoren lineair afhankelijk. Dit betekent dat ten minste één van de vectoren kan worden uitgedrukt als een lineaire combinatie van de anderen.

Bijvoorbeeld, als we twee vectoren a1 en a2 in R2 beschouwen, zijn deze afhankelijk als en alleen als de ene een scalair veelvoud is van de andere. In R3 geldt hetzelfde principe voor drie vectoren: ze zijn afhankelijk als een van hen een lineaire combinatie is van de andere twee. Geometrisch gezien betekent dit dat de vectoren niet alle drie in een ruimte met drie dimensies liggen, maar in een vlak of een lijn.

Het is belangrijk om te begrijpen dat lineaire onafhankelijkheid een cruciaal concept is voor de decompositie van vectoren. Als een set van vectoren lineair onafhankelijk is, dan is elke vector in hun span een unieke lineaire combinatie van die vectoren. Als de vectoren lineair afhankelijk zijn, dan kunnen er verschillende decomposities bestaan voor dezelfde vector.

Daarnaast moet men ook realiseren dat de geometrische interpretatie van lineaire onafhankelijkheid van vectoren in R3 diepgaande implicaties heeft voor het begrijpen van de ruimtelijke relaties tussen de vectoren. Wanneer vectoren lineair onafhankelijk zijn, vertegenwoordigen ze richtingen die niet samenvallen, en dus spannen ze een volledige ruimte op. Als ze afhankelijk zijn, kan men de ruimte waar ze zich bevinden visualiseren als een lijn of vlak, wat betekent dat sommige vectoren "overbodig" zijn voor het beschrijven van de ruimte.

Naast de vectoren zelf, kunnen we ons ook richten op andere concepten zoals de nulruimte en de manier waarop de matrix van een lineaire transformatie de structuur van de subruimten beïnvloedt. De nulruimte is bijvoorbeeld van groot belang omdat het de verzameling vectoren bevat die door een gegeven matrix naar de nulvector worden getransformeerd. Dit concept is fundamenteel voor het begrijpen van de oplossingen van lineaire systemen en de eigenschappen van matrices.

Het is ook essentieel te begrijpen dat de operaties van vectoroptelling en scalaire vermenigvuldiging in subruimten behouden blijven. Dit betekent dat als je twee vectoren binnen een subruimte optelt, de resulterende vector nog steeds in die subruimte zal liggen. Evenzo zal een scalaire vermenigvuldiging van een vector met een constant getal de vector binnen de subruimte houden. Dit sluit naadloos aan bij de definities van een subruimte, waarbij we ervoor zorgen dat de subruimte gesloten is onder deze operaties.

Wat zijn de vier fundamentele deelruimten van een matrix?

Het kan vreemd lijken dat de kolomruimte van een matrix tot nu toe weinig aandacht heeft gekregen in de discussie. Dit komt doordat we lineaire systemen meestal schrijven als Ax=bAx = b in plaats van yTA=bTy^T A = b^T. Desondanks is de kolomruimte van cruciaal belang en is het soms nodig om een andere subruimte te beschouwen die met de matrix AA geassocieerd is. Deze nieuwe subruimte zal de tijdelijke asymmetrie in de theorie opheffen.

Definitie 3.5.4. (Linker nulruimte). Gegeven een matrix AA van afmetingen m×nm \times n, wordt de verzameling van alle vectoren yRmy \in \mathbb{R}^m zodanig dat yTA=0Ty^T A = 0^T, de linker nulruimte van AA genoemd, en we duiden deze aan met Left-null(AA). Voor elke matrix AA worden de vier ruimtes Row(AA), Col(AA), Null(AA), en Left-null(AA) soms aangeduid als de vier fundamentele deelruimten van AA.

Zoals verwacht, bestaan er relaties tussen de linker nulruimte en de kolomruimte die analoog zijn aan die tussen de rijruimte en de nulruimte. Door beide zijden van de bovengenoemde definitierelatie te transponeren, krijgen we ATy=0A^T y = 0, en dus Left-null(A)=Null(AT)\text{Left-null}(A) = \text{Null}(A^T). Eveneens geldt, zoals we zagen in vergelijking 3.52, dat Col(A)=Row(AT)\text{Col}(A) = \text{Row}(A^T). De relaties tussen de linker nulruimte en de kolomruimte kunnen dus eenvoudig worden afgeleid door de voorgaande resultaten toe te passen op ATA^T. De belangrijkste kenmerken zijn als volgt.

Stelling 3.5.4. (Relaties tussen Col(AA) en Left-null(AA)). Gegeven een matrix AA van afmetingen m×nm \times n, geldt:

dim(Left-null(A))+dim(Col(A))=m,\text{dim(Left-null}(A)) + \text{dim(Col}(A)) = m,
Col(A)+Left-null(A)=Rm,\text{Col}(A) + \text{Left-null}(A) = \mathbb{R}^m,
Left-null(A)=Col(A),\text{Left-null}(A)^\perp = \text{Col}(A),
Col(A)=Left-null(A).\text{Col}(A)^\perp = \text{Left-null}(A).

Elke vector yRmy \in \mathbb{R}^m kan op unieke wijze worden gedecomponeerd in de som van een vector yCCol(A)y_C \in \text{Col}(A) en een vector yLLeft-null(A)y_L \in \text{Left-null}(A).

De linker nulruimte komt op een natuurlijke manier naar voren in het volgende type probleem. Correspondent aan de niet-parametrische en parametrische representaties van lijnen en vlakken, zijn de twee fundamentele manieren om een deelruimte VV van Rn\mathbb{R}^n te representeren:

  1. als de oplossingsruimte van een homogeen systeem Ax=0Ax = 0, dat wil zeggen, als Null(AA) voor een matrix AA van afmetingen m×nm \times n,

  2. als de verzameling van alle lineaire combinaties x=i=1psibi=Bsx = \sum_{i=1}^{p} s_i b_i = Bs van vectoren biRnb_i \in \mathbb{R}^n, dat wil zeggen, als Col(BB) voor een matrix BB van afmetingen n×pn \times p.

De vraag is hoe men van de ene representatie naar de andere kan gaan. In de richting 121 \rightarrow 2 hebben we dit probleem al opgelost in de vorige sectie. In de andere richting, gegeven de matrix BB, moeten we een matrix AA vinden zodat Null(A)=Col(B)\text{Null}(A) = \text{Col}(B). Door het orthogonale complement van beide zijden te nemen en gebruik te maken van de vergelijkingen 3.90 en 3.99, krijgen we Row(A)=Left-null(B)\text{Row}(A) = \text{Left-null}(B). We kunnen dus een geschikte matrix AA vinden door een basis voor Left-null(B)\text{Left-null}(B) te zoeken en de transponeren van deze basisvectoren als de rijen van AA te gebruiken.

Voorbeeld 3.5.6. (Het vinden van een matrix AA voor een gegeven matrix BB zodat Null(AA) = Col(BB)):

Stel dat VV de kolomruimte is van de matrix:

B=(021100002010)B = \begin{pmatrix} 0 & 2 & -1 \\ 1 & 0 & 0 \\ 0 & 0 & -2 \\ 0 & 1 & 0 \\
\end{pmatrix}

en we willen VV schrijven als de nulruimte van een matrix AA. Zoals eerder vermeld, moeten we een basis vinden voor Left-null(B)\text{Left-null}(B). Deze ruimte is hetzelfde als Null(BT)\text{Null}(B^T), en dus moeten we alle oplossingen van BTx=0B^T x = 0 vinden. We doen dit op de gebruikelijke manier door BTB^T te reduceren, wat leidt tot de vrije variabelen x4x_4 en x5x_5, die we gelijkstellen aan parameters. Na het oplossen krijgen we de vectoren die een basis vormen voor Left-null(B)\text{Left-null}(B), en de transponeren van deze vectoren geeft ons de matrix AA die we zoeken.

Numerieke relatie tussen de deelruimten van een matrix:

Er bestaat een belangrijke numerieke relatie tussen de rijruimte en de kolomruimte die verder onderzocht moet worden: beide hebben dezelfde dimensie. Als we bijvoorbeeld een vector xRx_R in Row(AA) beschouwen, dan is AxRAx_R altijd in Col(AA) omdat elke vector in Rn\mathbb{R}^n kan worden geschreven als een lineaire combinatie van de kolommen van AA. Elke vector in Col(AA) kan als AxRAx_R worden uitgedrukt, omdat de rijruimte de projectie is van Rn\mathbb{R}^n op de kolomruimte van AA.

Toepassing in elektrische netwerken (Kirchhoff’s wetten):

In elektrische netwerken kan de relatie tussen de deelruimten van een matrix ons helpen de afhankelijkheid van de vergelijkingen die de knooppunten en lussen van een schakeling beschrijven, te begrijpen. Het gebruik van de linker nulruimte kan de afhankelijkheid van de stromen in een netwerk verklaren, zoals beschreven in Kirchhoff’s eerste wet. De matrix die de randvoorwaarden van de netwerken beschrijft, kan worden verkregen door de edge-node incidentiematrix op te stellen. De stromen yy in een netwerk moeten dan in de linker nulruimte van de matrix liggen.

Hoe verandert de matrixrepresentatie van een lineaire transformatie bij een verandering van basis?

In de lineaire algebra wordt vaak gewerkt met vectoren en matrices die worden beschreven in termen van een bepaalde basis. Het veranderen van basis is een fundamenteel concept wanneer we de effecten van een lineaire transformatie vanuit verschillende perspectieven willen begrijpen. Dit proces betreft niet alleen de herschikking van de coördinaten van een vector, maar ook de herinterpretatie van de matrix die een lineaire transformatie vertegenwoordigt.

Wanneer we een vector of matrix in een bepaald coördinatensysteem (basis) beschrijven, zeggen we dat we de coördinaten ten opzichte van die basis hebben. Een verandering van basis houdt in dat we de representatie van deze vectoren en matrices omzetten naar een nieuwe basis. De matrix die een lineaire transformatie beschrijft, wordt anders wanneer we van de ene naar de andere basis overgaan.

Stel je voor dat we een matrix MM hebben die een lineaire transformatie y=Mxy = Mx beschrijft van RnR^n naar zichzelf. De vectoren xx en yy kunnen worden geschreven in termen van een basis AA als respectievelijk x=AxAx = A x_A en y=AyAy = A y_A, waarbij xAx_A en yAy_A de coördinaten van de vectoren in de basis AA zijn. Door deze uitdrukkingen in te voegen in de lineaire transformatie y=Mxy = Mx, krijgen we de relatie:

AyA=MAxA.A y_A = M A x_A.

Als we beide zijden van deze vergelijking vermenigvuldigen met A1A^{ -1}, krijgen we:

yA=A1MAxA.y_A = A^{ -1} M A x_A.

De matrix MA=A1MAM_A = A^{ -1} M A is nu de matrix die de lineaire transformatie beschrijft ten opzichte van de basis AA. Dit betekent dat, hoewel de matrix MM hetzelfde blijft, de manier waarop we de transformatie vanuit de nieuwe basis bekijken, verandert. Wanneer we een andere basis BB introduceren, kunnen we een vergelijkbare transformatie uitvoeren, en de matrix die de lineaire transformatie in basis BB beschrijft, is MB=B1MBM_B = B^{ -1} M B.

De belangrijke conclusie is dat de matrices MAM_A en MBM_B, die respectievelijk de representaties van de transformatie zijn in de basissen AA en BB, met elkaar verbonden zijn door de zogenaamde overgangsmatrix S=A1BS = A^{ -1}B. Dit resulteert in de relatie:

MB=S1MAS.M_B = S^{ -1} M_A S.

Deze formule beschrijft hoe de matrixrepresentatie van een lineaire transformatie verandert wanneer we van de ene naar de andere basis overgaan. Het is een vorm van een zogenaamde gelijkaardige transformatie, waarbij de matrix MM wordt omgezet naar een nieuwe matrix MBM_B die dezelfde lineaire transformatie beschrijft, maar in een andere coördinatenset.

Dit concept van een verandering van basis heeft veel praktische toepassingen in de wiskunde en natuurkunde, vooral wanneer we werken met complexe ruimten waarin de keuze van de basis invloed heeft op de eenvoud van berekeningen. Zo kan een matrix die in de ene basis lastig te interpreteren is, in een andere basis misschien eenvoudiger worden. Dit maakt het een krachtige tool in de theorie van lineaire systemen, matrixalgebra, en zelfs bij de analyse van natuurkundige verschijnselen.

Bijvoorbeeld, als we werken met de rotatie van een object in de ruimte, kan de matrix die de rotatie beschrijft er in de standaardbasis ingewikkeld uitzien. Wanneer we echter een geschikte basis kiezen die past bij de oriëntatie van het object, kan de matrixrepresentatie van de rotatie veel eenvoudiger zijn. Dit is van groot belang in de robotica en computergraphics, waar de efficiëntie van berekeningen cruciaal is.

Een ander voorbeeld betreft reflecties en rotaties in de ruimte. Stel dat we een spiegeling willen beschrijven die een vector spiegelt ten opzichte van een lijn. In de standaardbasis zal de matrix die deze spiegeling uitvoert, misschien lastig zijn om te interpreteren, maar als we de basis aanpassen naar een systeem dat de lijn van reflectie bevat, wordt de matrix veel eenvoudiger en beter te begrijpen.

Verder is het belangrijk te begrijpen dat de overgang van de ene naar de andere basis niet alleen van invloed is op de matrixrepresentatie van de transformatie, maar ook op de manier waarop we de vectoren zelf interpreteren. Dit betekent dat de coördinaten van een vector in de ene basis anders zijn dan in een andere, zelfs al beschrijven ze dezelfde vector in de ruimte. De coördinaten veranderen, maar de vector zelf blijft hetzelfde. Dit is een cruciaal aspect van de theorie van lineaire transformaties en de geometrie van vectorruimten.

Hoe kunnen matrices lineaire transformaties representeren en wat is de betekenis van matrixsimilariteit?

In de lineaire algebra zijn matrices krachtig gereedschap voor het representeren van lineaire transformaties. Wanneer we het hebben over de representatie van lineaire transformaties in verschillende basis, is de zogenaamde verandering van basis een essentieel concept. Dit stelt ons in staat om de representatie van een lineaire transformatie te veranderen door de gekozen basis van de vectorruimten aan te passen. Dit kan niet alleen het gemak van berekeningen verhogen, maar biedt ook diepere inzichten in de eigenschappen van de transformatie zelf.

Als we de standaardbasis InI_n in RnR^n veranderen naar een willekeurige geordende basis AA, en de basis ImI_m in RmR^m naar een andere willekeurige basis BB, dan verkrijgen we een nieuwe representatie van de matrix MM in de vorm MA,BM_{A,B}, die de matrix is die de transformatie MM beschrijft ten opzichte van deze nieuwe basissen. Dit maakt het mogelijk om bijvoorbeeld de eigenschappen van matrices te onderzoeken, zoals de bijbehorende eigenwaarden, in verschillende basis.

Een belangrijk concept in dit kader is de similariteit van matrices. Twee matrices AA en BB worden als similar beschouwd als er een invertibele matrix SS bestaat, zodat S1AS=BS^{ -1} A S = B. Dit impliceert dat de matrices dezelfde lineaire transformatie vertegenwoordigen, maar dan in verschillende basissen. Matrices die een gelijke transformatie beschrijven, kunnen dus als equivalent worden beschouwd, zelfs als ze verschillende vormen hebben.

Bijvoorbeeld, de matrices:

(1001)en(2002)\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} \quad \text{en} \quad \begin{pmatrix} 2 & 0 \\ 0 & 2 \end{pmatrix}

zijn similar omdat er een invertibele matrix SS bestaat die hen met elkaar verbindt. De bovenstaande matrices vertegenwoordigen in wezen dezelfde lineaire transformatie, namelijk de scalering van alle vectoren met een factor van 2.

Similariteit van matrices is een equivalentiereactie, wat betekent dat het reflexief, symmetrisch en transitief is. Dit betekent dat als matrix AA similar is aan matrix BB, en matrix BB similar is aan matrix CC, dan ook AA similar is aan matrix CC. Daarnaast is het belangrijk om te begrijpen dat als twee matrices similar zijn, ze dezelfde rang hebben. De rang van een matrix is immers een invariant die wordt behouden bij een verandering van basis.

In de context van lineaire transformaties is het cruciaal te weten dat de volgorde van matrixvermenigvuldiging niet altijd uitmaakt, maar de sporen van producten van matrices wel gelijk zijn. Dit leidt tot een interessant resultaat: als matrices AA en BB similar zijn, dan zullen hun sporen gelijk zijn. Het spoor van een matrix is de som van de elementen op de hoofddiagonaal van die matrix, en dit getal is invariant onder gelijke transformaties van de matrix. Dit blijkt uit de eigenschap Tr(AB)=Tr(BA)\text{Tr}(AB) = \text{Tr}(BA), die kan worden toegepast om aan te tonen dat het spoor niet verandert als we van basis veranderen.

Er zijn ook speciale gevallen van lineaire transformaties die vaak voorkomen in de praktijk, zoals de nultransformatie en de identiteitstransformatie. De nultransformatie T:UVT: U \rightarrow V is de transformatie die elke vector in de nulvector afbeeldt, en de identiteitstransformatie T:UUT: U \rightarrow U is de transformatie die elke vector naar zichzelf afbeeldt. Beide transformaties zijn lineair, maar het is belangrijk om te begrijpen dat ze verschillende eigenschappen hebben, afhankelijk van de aard van de vectorruimte waarop ze worden toegepast.

De identiteitstransformatie is bijzonder belangrijk omdat het de "neutrale" lineaire transformatie is die geen verandering aanbrengt in de vectorruimte. In veel gevallen, zoals in de algebraïsche theorie van lineaire transformaties, wordt de identiteitstransformatie als referentiepunt gebruikt voor het bestuderen van andere transformaties.

Een ander interessant voorbeeld is de projectie. Een lineaire projectie is een transformatie die elke vector naar een deelruimte van de vectorruimte projecteert. Bijvoorbeeld, de projectie op de x1x_1-as in RnR^n wordt gedefinieerd door T(x1,x2,,xn)=(x1,0,,0)T(x_1, x_2, \dots, x_n) = (x_1, 0, \dots, 0). Het is essentieel om te begrijpen dat, hoewel projecties lineaire transformaties zijn, ze over het algemeen niet-injectief kunnen zijn (ze vervormen informatie door bepaalde componenten van de vectoren "uit te wissen").

Een ander voorbeeld dat steeds vaker wordt aangetroffen in de wiskunde en de natuurwetenschappen, is de differentiatie van polynomen. De differentiatietransformatie op de ruimte van polynomen PP is lineair, aangezien de afgeleide van een lineaire combinatie van polynomen gelijk is aan de lineaire combinatie van de afgeleiden van de afzonderlijke polynomen. Dit toont aan hoe matrixrepresentaties van lineaire transformaties nuttig kunnen zijn in verschillende takken van de wiskunde, waaronder de analyse van functies en de theoretische natuurkunde.

In de studie van lineaire transformaties is het ook van belang om te begrijpen dat niet elke transformatie eenvoudig te representeren is door een matrix. Alleen die transformaties die voldoen aan de lineaire eigenschappen van additiviteit en homogeniteit kunnen door matrices worden vertegenwoordigd. Dit betekent dat transformaties zoals rotaties, schalingen en projecties gemakkelijker kunnen worden gemodelleerd, terwijl meer complexe niet-lineaire transformaties zoals kromming of andere geometrische vervormingen vaak geen matrixrepresentatie hebben.