In de studie van lineaire transformaties is het vaak nuttig om te begrijpen hoe deze transformaties zich gedragen binnen specifieke vectorruimten, zoals de ruimte van polynomen van een bepaalde graad. Laten we ons in dit hoofdstuk concentreren op de representatie van de differentiatietransformatie binnen de ruimte van polynomen en de manier waarop deze transformatie kan worden gemodelleerd met behulp van matrices.

Beschouw de ruimte U={p:p=p0+p1x++pnxn}U = \{p : p = p_0 + p_1x + \cdots + p_nx^n\}, de ruimte van polynomen van graad nn of lager, samen met het nulpolynoom. Daarnaast nemen we de ruimte V={q:q=q0+q1x++qn1xn1}V = \{q : q = q_0 + q_1x + \cdots + q_{n-1}x^{n-1}\}, de ruimte van polynomen van graad n1n-1 of lager. We definiëren de differentiatie-transformatie DD van UU naar VV door D(p)=D(p0+p1x++pnxn)=p1+2p2x++npnxn1D(p) = D(p_0 + p_1x + \cdots + p_nx^n) = p_1 + 2p_2x + \cdots + np_nx^{n-1}. Het is duidelijk dat DD een lineaire transformatie is.

Om de representatie van DD beter te begrijpen, beschouwen we de geordende bases A=(1,x,,xn)A = (1, x, \dots, x^n) voor UU en B=(1,x,,xn1)B = (1, x, \dots, x^{n-1}) voor VV. De coefficienten aja_j van basis AA en bib_i van basis BB worden als volgt gedefinieerd: aj=xj1a_j = x^{j-1} en bi=xi1b_i = x^{i-1}. De differentiatie van de basisvectoren kan worden geschreven als volgt:

D(a1)=0b1+0b2++0bn,D(a2)=1b1+0b2++0bn,D(a3)=0b1+2b2++0bn,,D(an+1)=0b1+0b2++nbn.D(a_1) = 0b_1 + 0b_2 + \cdots + 0b_n, \quad D(a_2) = 1b_1 + 0b_2 + \cdots + 0b_n, \quad D(a_3) = 0b_1 + 2b_2 + \cdots + 0b_n, \quad \dots, \quad D(a_{n+1}) = 0b_1 + 0b_2 + \cdots + n b_n.

Deze representatie van DD kan vervolgens worden uitgedrukt in matrixvorm, waarbij de transpositie van de matrix de differentiatietransformatie relative aan de basis AA en BB vertegenwoordigt. De matrix van DD in de basis AA en BB, aangeduid als DA,BD_{A,B}, ziet eruit als:

DA,B=[01000020000n].D_{A,B} = \begin{bmatrix}
0 & 1 & 0 & \cdots & 0 \\ 0 & 0 & 2 & \cdots & 0 \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \cdots & n \end{bmatrix}.

De transformatie van de coördinatenvector pA=(p0,p1,,pn)Tp_A = (p_0, p_1, \dots, p_n)^T van p=p0+p1x++pnxnp = p_0 + p_1x + \cdots + p_nx^n kan dan worden beschreven door de matrixvermenigvuldiging:

qB=DA,BpA=(p1,2p2,,npn)T.q_B = D_{A,B} p_A = (p_1, 2p_2, \dots, np_n)^T.

Het is belangrijk op te merken dat de standaardbasis alleen wordt gedefinieerd voor Rn\mathbb{R}^n, en dat de bases AA en BB voor de ruimten PnP_n en Pn1P_{n-1} het dichtst in de buurt komen van het concept van een standaardbasis. Bovendien hadden we DD ook als een transformatie van PnP_n naar zichzelf kunnen definiëren, in welk geval de matrix DA,BD_{A,B} een extra rij van nullen had moeten bevatten.

Bij het werken met dergelijke transformaties is het cruciaal om te begrijpen dat de keuze van basis een grote invloed heeft op de vorm van de matrix die de transformatie vertegenwoordigt. De representatie van DD kan eenvoudig worden aangepast door verschillende bases te kiezen, en dit kan helpen bij het oplossen van problemen die de toepassing van de differentiatie op polynomen vereisen.

Wanneer we verder gaan naar andere transformaties zoals integratie, wordt een vergelijkbare benadering gevolgd. Bijvoorbeeld, de integratietransformatie TT van UU naar VV, gedefinieerd door T(p0+p1x++pnxn)=p0x+p1x22++pnxn+1n+1T(p_0 + p_1x + \cdots + p_nx^n) = p_0x + \frac{p_1x^2}{2} + \cdots + \frac{p_nx^{n+1}}{n+1}, heeft ook een matrixrepresentatie afhankelijk van de gekozen basis. De matrix van deze transformatie kan worden berekend door de analoge benadering van de differentiatie-transformatie toe te passen, en de coëfficiënten van de transformatie zullen zich verhouden tot de integratie van de oorspronkelijke polynoom.

Bij de representatie van lineaire transformaties door middel van matrices is het ook van belang om te begrijpen dat de transformaties zoals differentiatie en integratie nauw verbonden zijn met de concepten van functieanalyse en de eigenschappen van lineaire operatoren. Het vermogen om transformaties correct te representeren maakt het mogelijk om complexere operatoren te analyseren en toe te passen op verschillende vectorruimten, wat essentieel is voor het oplossen van een breed scala aan wiskundige problemen.

Hoe komen we tot een nieuwe basis zonder menging van componenten in lineaire systemen?

Een fysiek systeem kan vaak worden beschreven door een n-dimensionale vector xx, waarvan de verandering in de tijd wordt weergegeven door een n×n matrix AA. De toestand van het systeem op een later tijdstip wordt dan gegeven door de vector y=Axy = Ax. Dit soort veranderingen wordt vaak beschreven door differentiaalvergelijkingen, waarbij de vector xx een onbekende, differentieerbare vectorfunctie van de tijd is, die een vergelijking van de vorm x=Axx' = Ax moet vervullen. Dergelijke vergelijkingen leiden tot dezelfde situatie die we willen uitleggen voor het eenvoudigere geval van y=Axy = Ax.

Beschouw het tweedimensionale geval, waarvoor we y=Axy = Ax kunnen uitdrukken als het paar scalairen:

y1=a11x1+a12x2y_1 = a_{11}x_1 + a_{12}x_2

en

y2=a21x1+a22x2.y_2 = a_{21}x_1 + a_{22}x_2.

Zoals deze vergelijkingen laten zien, mengt de matrix AA doorgaans de componenten van xx, en na vele tijdstappen (met name in hogere dimensionale gevallen) kan deze menging behoorlijk ingewikkeld worden. De vraag die we ons dan stellen is: is het mogelijk om een nieuwe basis {s1,s2}\{s_1, s_2\} voor R2\mathbb{R}^2 te vinden, waarin een dergelijke menging niet optreedt? Met andere woorden, is het mogelijk om de componenten van de vectoren zodanig te decoupleren dat ze zich onafhankelijk ontwikkelen als:

yS1=λ1xS1y_{S1} = \lambda_1 x_{S1}

en

yS2=λ2xS2,y_{S2} = \lambda_2 x_{S2},

waarbij λ1\lambda_1 en λ2\lambda_2 geschikte scalairen zijn die afhangen van de matrix AA? Het antwoord is vaak "ja", en dit leidt tot aanzienlijk vereenvoudigde berekeningen wanneer meerdere stappen elkaar opvolgen.

Stel je voor dat we de matrix AA nemen:

A=(1232322)A = \begin{pmatrix} \frac{1}{2} & \frac{3}{2} \\ \frac{3}{2} & 2 \end{pmatrix}

en de acties van deze matrix op een willekeurige vector xx onderzoeken. Stel dat s1=12(1,1)Ts_1 = \frac{1}{\sqrt{2}} (1, 1)^T en s2=12(1,1)Ts_2 = \frac{1}{\sqrt{2}} (-1, 1)^T. Dan zien we dat:

As1=2s1As_1 = 2s_1

en

As2=s2.As_2 = -s_2.

Dus, als we xx en y=Axy = Ax uitdrukken in termen van de basis {s1,s2}\{s_1, s_2\}, krijgen we de eenvoudige vormen:

y=Ax=xS1As1+xS2As2=2xS1s1xS2s2.y = Ax = x_{S1} \cdot As_1 + x_{S2} \cdot As_2 = 2x_{S1}s_1 - x_{S2}s_2.

Dit betekent dat de actie van AA op de SS-componenten van xx eenvoudige vermenigvuldiging is, terwijl in de standaardbasis lineaire combinaties zouden worden gebruikt. Deze decoupling maakt hogere machten van AA, zoals A2xA^2 x, veel eenvoudiger in expressie, met als resultaat bijvoorbeeld 22xS12^2 x_{S1} en (1)2xS1(-1)^2 x_{S1}, wat veel simpeler is dan in de standaardbasis.

Hoe vinden we nu een dergelijke basis zoals in het voorbeeld hierboven? We moeten niet-triviale vectoren {s1,s2}\{s_1, s_2\} vinden en de bijbehorende eigenwaarden λ1\lambda_1 en λ2\lambda_2 zodanig dat:

As1=λ1s1enAs2=λ2s2.As_1 = \lambda_1 s_1 \quad \text{en} \quad As_2 = \lambda_2 s_2.

Op deze manier kunnen we de vectoren s1s_1 en s2s_2 gebruiken om xx en yy eenvoudig uit te drukken. Deze benadering is essentieel voor het begrijpen van eigenwaarden en eigenvectoren, die de kern van veel lineaire algebra-problemen vormen.

Bijvoorbeeld, voor de matrix

A=(1221),A = \begin{pmatrix} 1 & 2 \\ 2 & 1 \end{pmatrix},

kunnen we de karakteristieke vergelijking gebruiken om de eigenwaarden te vinden. Het oplossen van de karakteristieke vergelijking det(AλI)=0\det(A - \lambda I) = 0 geeft de eigenwaarden λ1=1\lambda_1 = -1 en λ2=3\lambda_2 = 3. Vervolgens kunnen we de eigenvectoren vinden door deze eigenwaarden in de vergelijking (AλI)s=0(A - \lambda I) s = 0 in te vullen.

De eigenspaces kunnen van verschillende dimensies zijn, zoals in het geval van een 3×3 matrix met twee eigenwaarden, waarbij de eigenspace van de ene eigenwaarde één dimensie heeft en de eigenspace van de andere eigenwaarde twee dimensies.

Wanneer we eigenwaarden en eigenvectoren begrijpen, kunnen we niet alleen lineaire systemen vereenvoudigen, maar ook veel toepassingen in natuurkunde, techniek, en andere vakgebieden oplossen. Het vinden van een basis waarin de matrix AA werkt als een eenvoudige vermenigvuldiging, zoals in het voorbeeld met s1s_1 en s2s_2, maakt complexe problemen gemakkelijker hanteerbaar en biedt diepere inzichten in het gedrag van systemen.

Hoe de hoofdassen van symmetrische matrices worden bepaald en toegepast

De concepten van eigenwaarden en eigenvectoren van een matrix zijn fundamenteel in verschillende takken van de wiskunde en natuurwetenschappen. Vooral in de lineaire algebra speelt de diagonaliseerbaarheid van een matrix een cruciale rol, en de zogenaamde hoofdassen van een matrix helpen ons de geometrische betekenis van matrices beter te begrijpen. In dit hoofdstuk verkennen we de theorie achter de hoofdassen, te beginnen met een belangrijke eigenschap van symmetrische matrices, die essentieel is voor het toepassen van deze concepten in de praktijk.

Symmetrische matrices hebben de bijzondere eigenschap dat hun eigenwaarden altijd reëel zijn. Dit wordt verklaard door de Stelling van de Reële Eigenwaarden, die stelt dat voor elke symmetrische matrix de eigenwaarden altijd reëel zijn. Dit resulteert in de mogelijkheid om een symmetrische matrix te diagonalizeren, wat inhoudt dat we de matrix kunnen omvormen in een diagonaalvorm door middel van een geschikte orthogonale matrix.

Volgens de Hoofdassenstelling (ook bekend als de Spectrale Stelling voor Symmetrische Matrizen) kan elke symmetrische matrix AA worden getransformeerd in een diagonaal matrix Λ\Lambda door middel van een orthogonale matrix SS. De matrix SS bevat de eigenvectoren van AA, en de diagonaal van Λ\Lambda bevat de overeenkomstige eigenwaarden. Dit betekent dat de symmetrische matrix kan worden gerepresenteerd in de vorm:

S1AS=ΛS^{ -1}AS = \Lambda

waarbij SS orthogonaal is, d.w.z. S1=STS^{ -1} = S^T, en de matrix Λ\Lambda de eigenwaarden van AA bevat op de diagonaal.

Een belangrijk gevolg van deze theorie is de manier waarop we de geometrische eigenschappen van ellipsoïden en conische secties kunnen begrijpen. De transformatiestappen die leiden tot de diagonaalvorm van een matrix geven ons inzicht in de hoofdassen van de geometrische objecten die door de matrix worden beschreven. Dit proces is bijzonder nuttig in de fysica en techniek, bijvoorbeeld bij het analyseren van trillingsmodi van systemen of het beschrijven van de kleurenspectra van lichtbronnen.

Stel bijvoorbeeld dat we een quadratische vorm hebben die wordt beschreven door een symmetrische matrix AA, zoals in de vergelijking:

Q(x)=xTAxQ(x) = x^T A x

waarbij xx een vector is in Rn\mathbb{R}^n. Door een verandering van basis te maken met de orthogonale matrix SS, die bestaat uit de eigenvectoren van AA, transformeren we de kwadratische vorm naar een nieuwe vorm:

Q(x)=yTΛyQ(x) = y^T \Lambda y

waarbij y=S1xy = S^{ -1}x en Λ\Lambda de diagonaalvorm is. In deze nieuwe coördinaten is de kwadratische vorm een som van kwadraten gewogen door de eigenwaarden van AA. Dit biedt een krachtige manier om de geometrische betekenis van de matrix te interpreteren. De eigenschappen van de matrix, zoals de aard van de conische sectie die wordt beschreven door de kwadratische vorm, kunnen nu gemakkelijk worden begrepen in termen van de eigenwaarden van AA.

Bijvoorbeeld, als de eigenwaarden positief zijn en λ1<λ2\lambda_1 < \lambda_2, dan beschrijft de matrix een ellips. De assen van de ellips zijn uitgelijnd met de richting van de eigenvectoren van AA, en de lengtes van de hoofd- en bijassen zijn gerelateerd aan de omgekeerde wortels van de eigenwaarden. Dit stelt ons in staat om geometrische objecten zoals ellipsen eenvoudig te beschrijven en te analyseren.

Een ander voorbeeld van toepassing is te vinden in de fysica van trilling. Wanneer een systeem wordt gemodelleerd door een matrix, bijvoorbeeld een massaveersysteem, kunnen de eigenwaarden de natuurlijke frequenties van het systeem vertegenwoordigen, terwijl de eigenvectoren de vormen van de trillingen aangeven. De diagonaalisering van de systeemmatrix maakt het mogelijk om het systeem in onafhankelijke trillingstoestanden te ontbinden, wat de analyse van het systeem vereenvoudigt.

In veel gevallen is het van belang niet alleen de matrix zelf te begrijpen, maar ook hoe de verandering van basis de geometrie van de matrix beïnvloedt. De relatie tussen de matrix AA en de orthogonale matrix SS is essentieel voor het begrijpen van de structurele eigenschappen van de beschreven objecten, zoals de oriëntatie en de schaal van de assen in een ellips.

Bij de toepassing van deze theorie in de techniek of de natuurwetenschappen is het van cruciaal belang om te begrijpen dat de hoofdassen van een symmetrische matrix representatief zijn voor de "natuurlijke" oriëntatie van de matrix. Deze oriëntatie is onafhankelijk van de oorspronkelijke coördinaten, maar afhankelijk van de structuur van de matrix zelf. Het inzicht in deze oriëntatie helpt wetenschappers en ingenieurs bij het vereenvoudigen van problemen door het reduceren van de complexiteit van de systemen waarmee ze werken.