I teorin om konvergens av sekvenser spelar begreppet av gränsvärden och klusterpunkter en grundläggande roll. När vi arbetar med sekvenser i den utvidgade reella mängden R=R{,+}\mathbb{R}^\ast = \mathbb{R} \cup \{ -\infty, +\infty\}, är det viktigt att förstå hur olika typer av sekvenser beter sig när de konvergerar eller divergerar till ±\pm \infty.

För att börja definiera konvergens på R\mathbb{R}^\ast, låt oss anta att (xn)(x_n) är en sekvens i R\mathbb{R}. Om varje omgivning UU av ±\pm \infty innehåller oändligt många eller nästan alla termer i sekvensen (xn)(x_n), då säger vi att ±\pm \infty är en klusterpunkt, eller gränsvärde, för sekvensen (xn)(x_n). Detta kan skrivas som limnxn=±\lim_{n \to \infty} x_n = \pm \infty eller xn±x_n \to \pm \infty när nn \to \infty. En sekvens (xn)(x_n) sägs konvergera i R\mathbb{R}^\ast om det finns ett xRx \in \mathbb{R}^\ast sådant att limnxn=x\lim_{n \to \infty} x_n = x.

Det finns en viktig distinktion mellan konvergens och divergens. En sekvens som konvergerar till ett ändligt värde i R\mathbb{R} konvergerar också i R\mathbb{R}^\ast, men en sekvens som divergerar i R\mathbb{R}^\ast kan vara antingen oändlig eller divergera till ±\pm \infty. En sekvens som divergerar i R\mathbb{R} men som konvergerar i R\mathbb{R}^\ast till ±\pm \infty kallas för en "felaktig konvergens". Detta begrepp kräver särskild uppmärksamhet eftersom de vanliga definitionerna av konvergens inte tillämpas på felaktig konvergens och denna typ av konvergens måste studeras separat.

För att illustrera detta, låt oss titta på några exempel. För en sekvens (xn)(x_n) i R\mathbb{R}, sägs xn+x_n \to +\infty om och endast om för varje K>0K > 0, finns det ett NKNN_K \in \mathbb{N} sådant att xn>Kx_n > K för alla nNKn \geq N_K. Exempelvis, om xn=n2x_n = n^2, då konvergerar xnx_n till ++\infty när nn \to \infty, och för en sekvens som xn=2nx_n = -2n, konvergerar den till -\infty.

I den utvidgade mängden R\mathbb{R}^\ast, kan en sekvens som inte har något ändligt gränsvärde i R\mathbb{R} fortfarande ha ett oändligt gränsvärde. Till exempel, sekvensen xn=(1)nnx_n = (-1)^n n har både ++\infty och -\infty som klusterpunkter och divergerar därmed i R\mathbb{R}^\ast.

För att ytterligare förstå konvergensen av sekvenser i R\mathbb{R}^\ast, kan vi formulera några propositioner. Om (xn)(x_n) är en sekvens i R\mathbb{R}^\ast och konvergerar till ett ändligt värde xRx \in \mathbb{R}, då måste lim supxn=lim infxn=x\limsup x_n = \liminf x_n = x. Om sekvensen är monoton, det vill säga, om den är antingen växande eller avtagande, konvergerar den till ett värde i R\mathbb{R}^\ast. Mer specifikt, om (xn)(x_n) är växande och begränsad, konvergerar den till supremum (övre gräns) av sekvensen, medan om sekvensen är avtagande och begränsad, konvergerar den till infimum (nedre gräns).

Vidare kan vi definiera begreppen "limsup" och "liminf" för en sekvens (xn)(x_n). Om vi definierar två nya sekvenser, yn=supknxky_n = \sup_{k \geq n} x_k och zn=infknxkz_n = \inf_{k \geq n} x_k, så konvergerar dessa sekvenser till lim supxn\limsup x_n och lim infxn\liminf x_n respektive, där lim supxn\limsup x_n är den största klusterpunkten och lim infxn\liminf x_n är den minsta klusterpunkten för sekvensen.

Det är också viktigt att förstå att en sekvenss liminf och limsup är klusterpunkter, vilket innebär att de representerar de största och minsta värden som sekvensen närmar sig, även om sekvensen inte konvergerar till ett enda värde.

Det finns även en teorem som kallas Bolzano-Weierstrass teorem, som säger att varje begränsad sekvens i R\mathbb{R} har en konvergerande subsekvens. Detta är särskilt användbart när man arbetar med sekvenser som inte konvergerar till ett enda värde, men där en delsekvens gör det. Teoremet generaliseras i fler dimensioner, där vi även kan hantera sekvenser i Rm\mathbb{R}^m.

Sammanfattningsvis är det avgörande att förstå att konvergens i R\mathbb{R}^\ast inte enbart handlar om att en sekvens närmar sig ett specifikt tal i R\mathbb{R}, utan även om att hantera sekvenser som divergerar till oändlighet eller -\infty. Denna förståelse är grundläggande för vidare studier inom funktionalanalys och teorin för metriska rum, där begreppet av felaktig konvergens får en central plats.

Vad är konvergens och hur tillämpar vi Newtons metod för att hitta nollor av funktioner?

Det finns en unik ξ ∈ [a, b] sådan att sekvensen xkx_k konvergerar mot ξ. Konvergensen är monoton om f(x)>0f'(x) > 0 för alla x[a,b]x ∈ [a, b], och växlande om f(x)<0f'(x) < 0 för alla x[a,b]x ∈ [a, b], det vill säga ξ är mellan varje par av xkx_k och xk+1x_{k+1}.

Enligt medelvärdessatsen finns det för varje kNk ∈ \mathbb{N} någon ηk(a,b)\eta_k ∈ (a, b) sådan att:

xk+1xk=f(xk)f(xk1)=f(ηk)(xkxk1)x_{k+1} - x_k = f(x_k) - f(x_{k-1}) = f'(\eta_k)(x_k - x_{k-1})

Om f(ηk)0f'(\eta_k) ≥ 0 för alla kNk ∈ \mathbb{N}, så är (xk)(x_k) en monoton sekvens. Om f(ηk)0f'(\eta_k) ≤ 0 för alla kNk ∈ \mathbb{N}, är konvergensen växlande.

Det är viktigt att förstå att för tillämpningar av dessa metoder, måste problemet ofta analyseras teoretiskt innan det omformas så att metoden för successiva approximationer kan tillämpas effektivt.

Newtons metod

Följande situation övervägs: Låt <a<b<-∞ < a < b < ∞ och fC2[a,b]f ∈ C^2[a, b], en funktion vars derivata aldrig är noll inom intervallet [a,b][a, b]. Vi antar vidare att det finns ett ξ(a,b)\xi ∈ (a, b) sådant att f(ξ)=0f(\xi) = 0. Mål är att approximera denna nolla genom att använda linjära approximationer av ff. Geometriskt innebär detta att ξ\xi är skärningen mellan grafen av ff och x-axeln.

Vi börjar med en initial approximation x0x_0 av ξ\xi. Vi ersätter då grafen av ff med dess tangentlinje vid punkten (x0,f(x0))(x_0, f(x_0)). Eftersom ff' är icke-noll inom intervallet, skär tangentlinjen x-axeln vid en ny punkt x1x_1, som är en bättre approximation av ξ\xi. Tangentlinjens ekvation är:

xf(x0)+f(x0)(xx0)x \mapsto f(x_0) + f'(x_0)(x - x_0)

Från denna ekvation får vi lösningen för x1x_1:

x1=x0f(x0)f(x0)x_1 = x_0 - \frac{f(x_0)}{f'(x_0)}

Iterationen av denna procedur kallas Newtons metod:

xn+1=xnf(xn)f(xn),nN,x0[a,b]x_{n+1} = x_n - \frac{f(x_n)}{f'(x_n)}, \quad n ∈ \mathbb{N}, \quad x_0 ∈ [a, b]

För att Newtons metod ska konvergera till ξ\xi krävs att det initiala värdet x0x_0 ligger tillräckligt nära nollpunkten. Enligt Banachs fixpunktsats finns det ett δ>0\delta > 0 sådant att om x0x_0 ligger inom intervallet [ξδ,ξ+δ][ξ - δ, ξ + δ], så konvergerar metoden mot ξ\xi.

Teorem 4.7

Det finns ett δ>0\delta > 0 så att Newtons metod konvergerar till ξ\xi för alla initialvärden x0x_0 inom intervallet [ξδ,ξ+δ][ξ - δ, ξ + δ]. Beviset använder extremvärdessatsen och en detaljerad uppskattning av funktionen ff och dess derivator. Det viktigaste är att konvergensen sker för alla x0x_0 som ligger tillräckligt nära ξ\xi.

Kvadratisk konvergens

Newtons metod konvergerar kvadratiskt, det vill säga att det finns en konstant c>0c > 0 sådan att:

xn+1ξcxnξ2,nN|x_{n+1} - ξ| ≤ c |x_n - ξ|^2, \quad n ∈ \mathbb{N}

Detta kan härledas från Lagranges restterm i Taylorserien, vilket visar att avståndet mellan xnx_n och ξ\xi minskar mycket snabbt för varje iteration.

Monoton och växlande konvergens

Metoden konvergerar monotoniskt om ff är konvex och f(x0)f(x_0) är positiv (eller om ff är konkav och f(x0)f(x_0) är negativ). Detta följer direkt från definitionerna av konvexa och konkava funktioner och deras egenskaper.

Exempel: Beräkning av rötter

För att beräkna an\sqrt[n]{a}, där a>0a > 0 och n2n ≥ 2, överväger vi funktionen f(x)=xnaf(x) = x^n - a. Iterationen för Newtons metod ges av:

xk+1=xkxknanxkn1,kNx_{k+1} = x_k - \frac{x_k^n - a}{n x_k^{n-1}}, \quad k ∈ \mathbb{N}

Om vi väljer x0>max(1,a)x_0 > \max(1, a), så konvergerar sekvensen (xk)(x_k) monotoniskt till an\sqrt[n]{a}, eftersom f(x)f(x) är konvex och f(x0)>0f(x_0) > 0.

Slutligen

För att Newtons metod ska vara effektiv måste initialvärdet väljas noggrant och problemet ofta förberedas så att den specifika metoden kan tillämpas optimalt. När f(x)f(x) är konvex eller konkav kan metoden visa starkare konvergensbeteenden, och därför är det viktigt att förstå egenskaperna hos den funktion man arbetar med. För att säkerställa noggrannhet i resultaten måste både analytiska och numeriska metoder kombineras på ett noggrant sätt.