La AA være en n×nn \times n matrise. Hvis determinanten til AA ikke er null (det(A)0\text{det}(A) \neq 0), finnes det en invers matrise A1A^{ -1}. For en 3×33 \times 3 matrise, kan den inverse finnes ved å bruke kofaktorer og adjungerte matriser. Ifølge teorem 8.6.2, kan vi uttrykke den inverse matrisen som:

A1=1det(A)adj(A)A^{ -1} = \frac{1}{\text{det}(A)} \text{adj}(A)

Dette er grunnlaget for å finne den inverse matrisen for både små og store matriser, selv om prosessen kan bli tidkrevende for matriser av høyere orden (for n4n \geq 4).

For å illustrere hvordan det fungerer, kan vi starte med en 2×22 \times 2-matrise:

For matrisen

A=(a11a12a21a22)A = \begin{pmatrix} a_{11} & a_{12} \\ a_{21} & a_{22}
\end{pmatrix}

determinanten det(A)\text{det}(A) er:

det(A)=a11a22a12a21\text{det}(A) = a_{11}a_{22} - a_{12}a_{21}

De tilhørende kofaktorene er:

C11=a22,C12=a21,C21=a12,C22=a11C_{11} = a_{22}, \quad C_{12} = -a_{21}, \quad C_{21} = -a_{12}, \quad C_{22} = a_{11}

Adjungerte matrise for AA er derfor:

adj(A)=(a22a12a21a11)\text{adj}(A) = \begin{pmatrix}
a_{22} & -a_{12} \\ -a_{21} & a_{11} \end{pmatrix}

Den inverse matrisen kan da skrives som:

A1=1det(A)(a22a12a21a11)A^{ -1} = \frac{1}{\text{det}(A)} \begin{pmatrix}
a_{22} & -a_{12} \\ -a_{21} & a_{11} \end{pmatrix}

For en 3×33 \times 3-matrise kan prosessen være mer kompleks, men prinsippet er det samme. Vi finner kofaktorene og adjungerte matrisen og bruker formelen for å beregne den inverse.

For større matriser blir metoden mindre praktisk, og derfor introduseres en annen teknikk for å finne den inverse matrisen, nemlig ved hjelp av radoperasjoner. Denne metoden er mer effektiv, spesielt når matrisene blir større enn 3×33 \times 3.

Radoperasjonsmetoden

Hvis en n×nn \times n-matrise AA kan transformeres til identitetsmatrisen II ved en sekvens av elementære radoperasjoner, er AA nonsingular, og den samme sekvensen av operasjoner kan brukes til å transformere II til A1A^{ -1}. For å gjennomføre denne prosessen, kombinerer vi matrisen AA med identitetsmatrisen i en utvidet matrise, (AI)(A|I), og gjennomfører radoperasjoner til den venstre delen av matrisen blir identitetsmatrisen. Når dette skjer, er den høyre delen av matrisen A1A^{ -1}.

Eksempel på bruk av radoperasjoner

Anta at vi har matrisen AA:

A=(2113)A = \begin{pmatrix}
2 & 1 \\ 1 & 3 \end{pmatrix}

Og vi ønsker å finne den inverse matrisen. Vi starter med å lage den utvidede matrisen (AI)(A|I):

(AI)=(21101301)(A|I) = \begin{pmatrix} 2 & 1 & 1 & 0 \\ 1 & 3 & 0 & 1
\end{pmatrix}

Gjennom radoperasjoner kan vi gradvis redusere den venstre delen til identitetsmatrisen, og den høyre delen vil bli A1A^{ -1}. Etter radreduksjon får vi den inverse matrisen som:

A1=(0.60.20.20.4)A^{ -1} = \begin{pmatrix}
0.6 & -0.2 \\ -0.2 & 0.4 \end{pmatrix}

Singulære Matriser

En matrise AA er singulær hvis det(A)=0\text{det}(A) = 0. For en singulær matrise eksisterer ikke den inverse matrisen, og vi kan ikke bruke noen av metodene som er beskrevet tidligere for å finne en invers. Et eksempel på en singulær matrise er:

A=(2346)A = \begin{pmatrix} 2 & 3 \\ 4 & 6
\end{pmatrix}

Her er determinanten det(A)=2(6)3(4)=0\text{det}(A) = 2(6) - 3(4) = 0, så AA er singulær, og derfor finnes ikke A1A^{ -1}.

Bruk av den inverse matrisen for å løse ligningssystemer

Når et system med nn lineære ligninger i nn ukjente variabler x1,x2,,xnx_1, x_2, \dots, x_n kan skrives på matriseform som AX=BAX = B, der AA er en nonsingular matrise, kan systemet løses ved å multiplisere begge sider med A1A^{ -1}:

A1AX=A1BA^{ -1}AX = A^{ -1}B

Siden A1A=IA^{ -1}A = I, får vi løsningen:

X=A1BX = A^{ -1}B

Dette gir oss den unike løsningen for systemet AX=BAX = B.

Spesielle tilfeller og trivialløsninger

Et homogent system, som kan skrives som AX=0AX = 0, har alltid den trivielle løsningen X=0X = 0. Hvis AA er nonsingular, er den eneste løsningen den trivielle løsningen. Hvis AA derimot er singulær, kan systemet ha uendelig mange løsninger, og det vil være mulig å finne ikke-trivielle løsninger.

Viktige punkter å merke seg

Det er viktig å merke seg at den inverse matrisen kun kan beregnes for nonsingulære matriser (de som har en determinante ulik null). I praksis kan det være mer effektivt å bruke radoperasjonsmetoden for større matriser, spesielt i numeriske beregninger. Selv om det er flere måter å finne den inverse matrisen på, er forståelsen av betingelsene som gjør en matrise nonsingular eller singulær avgjørende for å bruke denne teknikken på en korrekt måte.

Hva er nullpunktene til de trigonometriske og hyperbolske funksjonene i det komplekse planet?

De reelle tallene z=nπz = n\pi, der nn er et heltall, representerer de nullpunktene hvor cosz=0\cos z = 0. På den andre siden er cosz=0\cos z = 0 kun for de reelle tallene z=(2n+1)π2z = \frac{(2n + 1)\pi}{2}, hvor nn er et heltall. Dette betyr at tanz\tan z og secz\sec z er analytiske bortsett fra på punktene z=(2n+1)π2z = \frac{(2n + 1)\pi}{2}, og cotz\cot z og cscz\csc z er analytiske bortsett fra på punktene z=nπz = n\pi.

Derivater

Fra kjerneregelens anvendelse vet vi at ddzez=ez\frac{d}{dz} e^z = e^z, og derfor er ddzeiz=ieiz\frac{d}{dz} e^{iz} = ie^{iz} og ddzeiz=ieiz\frac{d}{dz} e^{ -iz} = -ie^{ -iz}. På en enkel måte kan vi vise at derivatene til de komplekse trigonometriske funksjonene har samme form som de reelle funksjonene. Vi oppsummerer resultatene som følger:

  • ddzsinz=cosz\frac{d}{dz} \sin z = \cos z

  • ddzcosz=sinz\frac{d}{dz} \cos z = -\sin z

  • ddztanz=sec2z\frac{d}{dz} \tan z = \sec^2 z

  • ddzsecz=secztanz\frac{d}{dz} \sec z = \sec z \tan z

  • ddzcotz=csc2z\frac{d}{dz} \cot z = -\csc^2 z

  • ddzcscz=csczcotz\frac{d}{dz} \csc z = -\csc z \cot z

Identiteter

De velkjente trigonometriske identitetene gjelder også for den komplekse casen. Dette innebærer at, for eksempel, sin2z+cos2z=1\sin^2 z + \cos^2 z = 1 fortsatt holder, selv når zz er et komplekst tall.

Nullpunktene til sinus og cosinus

For å finne nullpunktene til sinz\sin z og cosz\cos z, må vi uttrykke begge funksjonene i formen u+ivu + iv, hvor uu og vv er reelle tall. Fra definisjonen av de trigonometriske funksjonene kan vi bruke Euler's formel og utføre forenklinger for å finne at nullpunktene til sinz\sin z er de reelle tallene z=nπz = n\pi, mens nullpunktene til cosz\cos z skjer kun når z=(2n+1)π2z = \frac{(2n + 1)\pi}{2}, der nn er et heltall.

For eksempel, den komplekse verdien av sinus kan finnes ved hjelp av en kalkulator som gir sin(2+i)=1.40310.4891i\sin(2 + i) = 1.4031 - 0.4891i. I vanlig trigonometri er vi vant til at sinx1|\sin x| \leq 1 og cosx1|\cos x| \leq 1, men for komplekse tall gjelder ikke disse ulikhetene, ettersom sinhy\sinh y kan variere fra -\infty til \infty. Det er derfor mulig å få løsninger for likninger som cosz=10\cos z = 10.

Eksempel på å løse trigonometriske likninger

For å løse cosz=10\cos z = 10, kan vi bruke den komplekse eksponensielle funksjonen for å omforme problemet til en kvadratisk likning:

eiz+eiz=20e^{iz} + e^{ -iz} = 20

Ved å multiplisere med eize^{iz}, får vi kvadratisk likning i eize^{iz}:

e2iz20eiz+1=0e^{2iz} - 20e^{iz} + 1 = 0

Ved å bruke den kvadratiske formelen finner vi eiz=10±3e^{iz} = 10 \pm 3. Deretter, ved å bruke logaritmer, kan vi finne løsningen til likningen cosz=10\cos z = 10.

Hyperbolske funksjoner

De komplekse hyperbolske funksjonene sinhz\sinh z og coshz\cosh z defineres på en analog måte som de reelle hyperbolske funksjonene.

For et hvilket som helst komplekst tall z=x+iyz = x + iy, er:

sinhz=ezez2,coshz=ez+ez2\sinh z = \frac{e^z - e^{ -z}}{2}, \quad \cosh z = \frac{e^z + e^{ -z}}{2}

De hyperbolske funksjonene sinhz\sinh z og coshz\cosh z er hele funksjoner, mens de trigonometriske funksjonene som defineres ved sinhz\sinh z og coshz\cosh z er analytiske bortsett fra på punktene der nevnerne er null.

Det er interessant å merke seg at trigonometriske og hyperbolske funksjoner er relaterte i komplekse kalkulus. Ved å erstatte zz med iziz i definisjonene for sinhz\sinh z og coshz\cosh z, kan vi finne forholdet:

sinh(iz)=isinz,cosh(iz)=cosz\sinh(iz) = i \sin z, \quad \cosh(iz) = \cos z

Dette gjør det mulig å uttrykke sinz\sin z og cosz\cos z i termer av de hyperbolske funksjonene, og omvendt.

Periodisitet

De trigonometriske funksjonene sinx\sin x og cosx\cos x har periode 2π2\pi, og dette gjelder også for de komplekse funksjonene sinz\sin z og cosz\cos z. For eksempel, ved å bruke formelen for sinz\sin z, ser vi at:

sin(z+2π)=sinz\sin(z + 2\pi) = \sin z

Dette viser at sinz\sin z er periodisk med periode 2π2\pi i det komplekse planet.

De hyperbolske funksjonene sinhz\sinh z og coshz\cosh z har en imaginær periode på 2πi2\pi i. Dette følger fra definisjonen av disse funksjonene og egenskapene til den komplekse eksponensielle funksjonen.

Hvordan løse høyere ordens differensialligninger ved hjelp av metoden for ubestemte koeffisienter

I differensiallikninger møter vi ofte på utfordringen med å finne en spesiell løsning av en ikke-homogen differensialligning. Når det gjelder tredje- og fjerde-ordens differensialligninger, kan metoden for ubestemte koeffisienter være svært nyttig. Denne metoden forutsetter at løsningen på den ikke-homogene differensialligningen kan uttrykkes som en sum av den komplementære funksjonen (den generelle løsningen av den homogene differensialligningen) og en spesifikk løsning som bestemmes ved ubestemte koeffisienter. For å forstå dette nærmere, skal vi se på flere eksempler og forklare de grunnleggende prinsippene.

Et eksempel på en tredje ordens differensialligning er:
y‴ + y″ = e^x cos x.
Løsningen begynner med å finne røttene til den karakteristiske likningen, som i dette tilfellet er m³ + m² = 0, som gir røttene m₁ = m₂ = 0 og m₃ = −1. Dette fører til den komplementære løsningen yc = c₁ + c₂x + c₃e^−x. Når vi ser på den spesifikke funksjonen g(x) = e^x cos x, finner vi at den spesifikke løsningen kan anta formen yp = Ae^x cos x + Be^x sin x. Ved å substituere denne i differensialligningen og løse for koeffisientene, finner vi at A = −½ og B = ¼, og den spesifikke løsningen blir dermed yp = −½e^x cos x + ¼e^x sin x. Den generelle løsningen blir da y = yc + yp.

Videre kan vi se på et eksempel med en fjerde ordens differensialligning:
y⁴ + y‴ = 1 − x²e^−x.

For å finne en spesiell løsning antar vi en løsning på formen yp = Ax³ + Bx³e^−x + Cx²e^−x + Exe^−x. Denne antakelsen er valgt for å unngå at noen funksjoner i den spesifikke løsningen overlapper med funksjonene i den komplementære løsningen. Ved å løse for koeffisientene får vi en spesifikk løsning som vi deretter kan bruke til å formulere den generelle løsningen.

Det er viktig å merke seg at når man løser en ikke-homogen differensialligning, er det lett å gjøre feil ved å anvende de initiale eller randbetingelsene kun på den komplementære løsningen yc. Feilen oppstår ofte fordi man ser på den komplementære løsningen som den eneste delen som inneholder de ukjente konstantene. Derfor er det avgjørende at de initiale betingelsene blir anvendt på hele den generelle løsningen, y = yc + yp.

Metoden for ubestemte koeffisienter har imidlertid sine begrensninger. Den fungerer ikke alltid for alle typer ikke-homogene funksjoner g(x). For eksempel, dersom g(x) er en logaritmefunksjon eller en funksjon som involverer invers trigonometriske funksjoner, vil ikke metoden for ubestemte koeffisienter være like effektiv. Dette skyldes at differensieringen av slike funksjoner kan gi et uendelig antall forskjellige funksjoner, noe som gjør det vanskelig å finne en uavhengig mengde av funksjoner som kan brukes til å konstruere en løsning.

For å unngå slike problemer, kan man i stedet bruke metoden for variasjon av parametere. Denne metoden er mer generell og kan brukes på et bredere spekter av funksjoner. Den tilnærmingen tillater at vi finner en spesiell løsning yp for en hvilken som helst ikke-homogen funksjon g(x), uavhengig av om den passer inn i de fire grunnleggende typene som ubestemte koeffisienter krever. For eksempel kan metoden for variasjon av parametere brukes når funksjonen g(x) er av typen ln x eller tan⁻¹(x), hvor tradisjonelle metoder som ubestemte koeffisienter ville feile.

Som en oppsummering kan det være nyttig å forstå at metoden for ubestemte koeffisienter, selv om den er effektiv for mange vanlige typer ikke-homogene differensialligninger, har sine begrensninger når det gjelder funksjoner som ikke passer til de grunnleggende typene nevnt tidligere. I slike tilfeller kan variasjon av parametere være et mer fleksibelt verktøy for å finne en løsning på differensialligningen.

Hvordan løse initialverdiproblemer og randverdiproblemer ved hjelp av Green's funksjon

I løsningen av differentiallikninger som involverer initialverdiproblemer (IVP) og randverdiproblemer (BVP), spiller Green's funksjon en essensiell rolle. Dette er et kraftig verktøy som lar oss konstruere løsninger ved å bruke egenskaper ved systemets respons på eksterne påkjenninger eller kilder. Spesielt når man håndterer ikke-homogene differensialligninger, kan Green's funksjon gi en effektiv metode for å finne løsninger ved å bygge på tidligere løsninger av relaterte homogene ligninger. I det følgende beskriver vi hvordan Green’s funksjon kan anvendes for å løse slike problemer.

For et initialverdiproblem, som de som diskuteres i eksemplene, er formelen for å løse det gitt av en sum av den homogene løsningen og en partikulær løsning. Hvis systemet beskrives av en lineær differensialligning med konstante koeffisienter, vil løsningen vanligvis bestå av en generell form for den homogene løsningen, sammen med en partikulær løsning som tar hensyn til kildetermen. Denne tilnærmingen blir enda mer nyttig når vi har pålegg som spesifiserer verdiene av løsningen ved bestemte tidspunkter (initialverdier).

La oss ta for oss et konkret eksempel: i en modell av et massespillsystem, der systemet er utstyrt med eksterne krefter, finner vi at løsningen kan uttrykkes som en sum av to komponenter: den frie responsen og den tvungne responsen som er påført av kilden. I eksemplet diskutert, kan denne løsningen også evalueres ved hjelp av trigonometriske identiteter og integrasjon ved deler for å komme frem til et mer kompakt uttrykk.

I eksemplet med Green’s funksjon for et initialverdiproblem, starter vi med å konstruere Green's funksjon for det spesifikke systemet. Denne funksjonen er spesielt nyttig når vi har en ikke-homogen differensialligning. Når vi har identifisert de fundamentale løsningene for systemet, kan vi bruke Green’s funksjon til å skrive løsningen som et integral over en passende variabel. I slike tilfeller kan vi enkelt anvende integralet for å finne den spesifikke løsningen, og ofte vil resultatene inneholde trigonometriske funksjoner som kan forenkles ved hjelp av identiteter.

En viktig egenskap ved Green’s funksjon er at den tillater oss å dele løsningen i to hovedkomponenter: en som beskriver systemets naturlige vibrasjon uten ekstern påkjenning (den homogene løsningen) og en annen som beskriver responsen på de pålagte eksterne kreftene (den partikulære løsningen). Dette skaper en klar separasjon i hvordan systemet responderer på forskjellige påvirkninger.

Når det gjelder randverdiproblemer (BVP), er differensiallikningene lik de som brukes i IVP, men med den viktige forskjellen at randbetingelsene ikke gis på ett punkt, men på to ulike punkter. For å løse slike problemer benytter vi en utvidet versjon av Green’s funksjon. Her innebærer løsningen at vi finner en passende Green’s funksjon for systemet, og ved hjelp av denne funksjonen kan vi bygge den totale løsningen ved å bruke et integral over området av interessen.

En spennende egenskap ved randverdiproblemer er at løsningen kan variere avhengig av hvordan Green’s funksjon er konstruert, spesielt når vi har mer komplekse randbetingelser. Det er derfor viktig å merke seg at det kan være en viss grad av fleksibilitet i hvordan vi velger de fundamentale løsningene som brukes til å bygge Green’s funksjon.

I eksemplet som diskuteres, benytter vi løsningen for et Cauchy–Euler-problem, som er en spesiell type differensialligning som ofte oppstår i fysikk og ingeniørvitenskap. Her finner vi den generelle løsningen ved å bruke den såkalte hjelpefunksjonen, som hjelper oss med å finne de spesifikke verdiene for den homogene løsningen og deretter bruke disse til å konstruere løsningen for randverdiproblemet. Denne tilnærmingen er spesielt nyttig når randbetingelsene er spesifisert som verdier ved bestemte punkter.

Det er viktig å merke seg at løsningen av slike problemer ikke alltid er trivielle. Ofte innebærer det et nøye valg av integrasjonsmetoder og en grundig forståelse av de fundamentale løsningene som er tilgjengelige. I tillegg kan endringer i randbetingelsene eller eksterne kilder føre til endringer i hvordan løsningen konstrueres, noe som krever en viss fleksibilitet i metoden som brukes.

For leseren som ønsker å få en dypere forståelse av metodene som diskuteres her, er det viktig å fokusere på hvordan Green’s funksjon kan brukes til å bygge løsninger på både homogene og ikke-homogene problemer. Videre er det nyttig å forstå hvordan forskjellige typer påkjenninger (som eksterne kilder eller tvingende krefter) påvirker den totale løsningen. Når man løser slike problemer, bør man også være oppmerksom på hvordan forskjellige typer differensialligninger kan kreve forskjellige teknikker for å finne de fundamentale løsningene og hvordan disse teknikkene kan kombineres for å finne den totale løsningen for både initial- og randverdiproblemer.