Chebyshev-polynomier, både första och andra graden, används ofta inom numerisk analys för att lösa problem relaterade till spektral diskretisering, som är avgörande för att studera och lösa ekvationer i olika tillämpningar, inklusive tid-fördröjningssystem. Dessa polynom är inte bara matematiska verktyg utan grundläggande element i den numeriska metoden för att beräkna egenvärden för system som kan modelleras med hjälp av diskretisering.

När det gäller polerna av .UN(x), är det viktigt att förstå att deras bestämning inte är lika enkel som för .TN(x). För att hitta dessa poler måste vi lösa en transcendental ekvation som involverar trigonometriska funktioner, vilket är en mycket mer komplex process. Den transcendenta ekvationen för polerna definieras av förhållandet:

tan((N+1)θ)=(N+1)tan(θ)\tan((N + 1)\theta) = (N + 1)\tan(\theta)

Polerna för .UN(x) finns därmed för de värden av θ\theta som uppfyller denna ekvation. När vi beräknar dessa, finner vi att extrema värden för .UN(x) har magnituder som ökar monotoniskt när x|x| avviker från noll och når sitt största värde när x=±1x = \pm 1.

En annan viktig aspekt av spektral diskretisering är relationen mellan Chebyshev-polynomier av första och andra graden, .TN(x) och .UN(x). Dessa polynom är relaterade genom en rekursiv formel som gör det möjligt att uttrycka ett polynom av högre grad som en linjärkombination av lägre gradens polynom:

TN(x)=UN(x)xUN1(x)TN(x) = UN(x) - x \cdot UN-1(x)

Denna relation ger oss ett kraftfullt sätt att koppla samman och manipulera polynomier på ett systematiskt sätt, vilket förenklar många beräkningar inom numerisk analys.

Chebyshev-differentieringsmatrisen är ett annat verktyg som är användbart vid spektral diskretisering. Denna matris används för att beräkna derivator av polynom vid givna punkter och kan uttryckas som en linjärkombination av de kända funktionvärdena. Differentieringsmatrisen, i kombination med nollställena för Chebyshev-polynomierna, ger oss ett sätt att noggrant approximera derivator av funktioner och lösa problem som involverar differentialekvationer eller system av ekvationer.

För att skapa en sådan matris, antas att vi känner till värdena av en NN-gradig polynom vid N+1N + 1 punkter. Dessa punkter är ofta nollställena för ett högre gradens polynom som .PN+1(x), vilket leder till en matrismodell för att beräkna derivator vid dessa punkter. Eftersom det är känt att Chebyshev-differentieringsmatrisen är singulär vid vissa punkter, kan vi använda specifika metoder för att säkerställa numerisk stabilitet.

Det är också viktigt att förstå den relevanta betydelsen av transformationsmetoder som kan användas för att förbättra konvergenshastigheten vid beräkning av egenvärden. En sådan metod är shift-invert transform, som syftar till att effektivt beräkna egenvärden som ligger nära en förutbestämd förskjutningspunkt. Genom att använda denna metod kan vi förflytta de kritiska egenvärdena till större modulus och distribuera dem sparsamt, vilket underlättar beräkningarna för system som involverar tid-fördröjning.

Shift-invert transform kan implementeras på två huvudsakliga sätt: DS-schemat, där både förskjutning och invertering utförs direkt på den diskretiserade matrisen, och SD-schemat, där förskjutningen görs på den ursprungliga matrisen och inverteringen sedan görs på den nya matrisen. Genom dessa scheman får vi en högre noggrannhet när vi beräknar egenvärden som ligger nära förskjutningspunkten, vilket är av stor betydelse för att lösa tid-fördröjningssystem effektivt.

För att noggrant beräkna och analysera stabiliteten hos tid-fördröjningssystem är det nödvändigt att ha en grundlig förståelse för hur dessa metoder samverkar. Kombinationen av Chebyshev-polynom, deras rekursiva relationer, och användningen av spektral diskretisering och transformationsmetoder ger en robust ram för att lösa en mängd komplexa problem inom numerisk analys och systemteori.

Hur PSOD-PS-metoden kan användas för partiell diskretisering och lösning av komplexa system

Metoden för partiell diskretisering, som här kallas PSOD-PS-metoden, är en kraftfull teknik för att hantera och lösa system där man arbetar med flera variabler och funktioner, särskilt i samband med differentialekvationer och system som kan beskrivas genom matrisoperationer. Denna metod använder olika matrisrepresentationer och operatorer för att bryta ned komplexa ekvationer och lösa dem i diskretiserad form. I denna metod är det centralt att använda operatorer som RM och PN för att applicera diskretisering på ett effektivt sätt och därmed möjliggöra numeriska lösningar.

För att förstå metodens struktur, titta på ekvation (5.9) och (5.10), där vi ser att funktionerna x(t)\mathbf{x}(t) och y(t)\mathbf{y}(t) är kopplade genom olika parametrar och tidsförskjutningar τi\tau_i. Genom att införliva dessa operatorer kan man uttrycka lösningar på ekvationerna i diskretiserad form, som i uttrycket z=F1V1φx+F1V2z\mathbf{z} = F^{ -1} \cdot V_1 \cdot \varphi_x + F^{ -1} \cdot V_2 \cdot \mathbf{z}, som representerar en typ av rekursiv lösning. Det här steget är avgörande för att isolera variabler och förenkla lösningarna genom att tillämpa lämpliga matriser och operatorer.

Vidare kan den diskretiserade lösningen användas för att förbättra noggrannheten i simuleringar och numeriska beräkningar, särskilt när man arbetar med olika tidssteg och subintervall. Denna metod gör det möjligt att tillämpa diskretisering på olika nivåer och med olika precisionsnivåer beroende på problemet som löses.

För diskretisering i högre dimensioner används matriser som V1\mathbf{V}_1, V2\mathbf{V}_2 och C0\mathbf{C}_0 för att koppla samman variablerna och skapa de nödvändiga relationerna mellan olika funktioner. Här ses också att flera olika matriser och operatorer krävs för att skapa den fullständiga diskretiserade lösningen. Genom att noggrant använda dessa operatorer kan systemet lösas effektivt och med hög precision.

När vi går vidare till metoder för att utföra diskretisering och operatorhantering, ser vi att det krävs ytterligare analyser och beräkningar, såsom i uttrycken för RM\mathbf{R}_M och RN\mathbf{R}_N. Dessa operatorer tillåter att lösningarna på differentialekvationerna hanteras på en diskret nivå, där man kan uppskatta och lösa problem med hjälp av numeriska metoder, som Lagrange-interpolation eller genom användning av förlängningsoperatorer.

Det är viktigt att förstå att PSOD-PS-metoden inte bara handlar om att tillämpa operatorer för att lösa ekvationer utan också om att effektivt hantera de mellanliggande beräkningarna och förutsäga systemets dynamik över tid. För att korrekt tillämpa metoden måste varje diskretiseringssteg utföras noggrant, med särskild uppmärksamhet på korrekt användning av de olika matriserna och operatorerna för att säkerställa att lösningen håller hög precision och stabilitet.

För att ge ytterligare klarhet i tillämpningen av metoden är det väsentligt att förstå de olika submatriserna som används för att skapa den diskretiserade lösningen. Dessa submatriser, såsom RM\mathbf{R}_M, RN\mathbf{R}_N, och deras relaterade operatorer, måste användas för att hantera de olika delarna av systemet, som kan vara uppdelade i flera intervall. Vidare, när man arbetar med dessa operatorer och matriser, krävs det också att man beaktar de dynamiska egenskaperna hos systemet, vilket gör att PSOD-PS-metoden kan appliceras på ett flexibelt sätt för många olika typer av problem.

Förutom att förstå själva metoden och dess tillämpningar, är det också viktigt att uppmärksamma de tekniska aspekterna av den numeriska implementeringen. För att uppnå hög noggrannhet och stabilitet i beräkningarna, kan det vara nödvändigt att finjustera parametrar som τi\tau_i och φx\varphi_x, såväl som att noggrant välja mellan olika diskretiseringstekniker beroende på problemets natur. Att ha en god förståelse för dessa detaljer är avgörande för att effektivt kunna implementera och tillämpa PSOD-PS-metoden på olika typer av tekniska och vetenskapliga problem.

Hur används Pseudospektrala metoder för att lösa stora dynamiska system med fördröjningar?

I studier av stora dynamiska system, särskilt de som inkluderar tidsfördröjningar som i kraftsystem, är det centralt att förstå metoder för att hantera och lösa problem relaterade till spektrala egenskaper av operatorer. Ett av de mest användbara verktygen är den så kallade Pseudospektrala Metoden (PS). Detta tillvägagångssätt innebär att man discretiserar operatorer för att göra komplexa system mer hanterbara och lösbara med numeriska tekniker. När vi arbetar med system som innehåller fördröjningar, såsom de som återfinns i många moderna kraftnät, får man ofta stå inför utmaningar kopplade till lösning av både algebraiska och differentiella ekvationer, särskilt när de är inte-linjära eller innehåller stora tidsfördröjningar.

En av de mest grundläggande komponenterna i detta sammanhang är förståelsen av hur man applicerar och arbetar med lösaroperatorer i samband med spektrala metoder. Lösaroperatorer, som beskriver hur systemets tillstånd utvecklas över tid, är centrala för att skapa en numerisk approximation som möjliggör lösning av system med tidsfördröjning. Ett exempel på en sådan operator är den infinitesimala generatorn, som fångar systemets dynamik i form av ett operator-algebraiskt uttryck. Genom att omvandla dessa operatorer till diskretiserade former med hjälp av Pseudospektrala Metoden, kan vi effektivt analysera och lösa fördröjda system.

För att korrekt lösa dessa problem är det nödvändigt att använda avancerade transformationer, såsom Shift-Invert transformen eller Cayley-transformen. Dessa metoder omvandlar det ursprungliga systemet till ett som är mer hanterbart, samtidigt som de bevarar de viktigaste spektrala egenskaperna. I synnerhet Shift-Invert transformationen hjälper till att hantera stora och komplicerade system genom att reducera problemets dimensioner. När en sådan transformation används kan den effektivt lösa fördröjningar och förenkla processer för att hitta lösningar på komplexa spektrala problem.

En annan viktig aspekt är fördelningen av spektrala egenskaper när det gäller stora system. Eftersom kraftsystem ofta innehåller mycket stora antal noder och dynamiska komponenter är det viktigt att använda metoder som inte bara löser problemen snabbt men också korrekt, genom att noggrant approximera systemets spektrum och säkerställa att ingen viktig information går förlorad under diskretisering. För att hantera dessa stora system används ibland även Kronecker-produkttransformationer, som gör det möjligt att dela upp det stora problemet i mindre hanterbara delar och på så sätt optimera beräkningarna.

En annan intressant aspekt som ofta missas i den initiala diskussionen om spektral diskretisering är noggrannheten i beräkningsmetoderna. För att säkerställa att lösningarna verkligen är användbara och korrekta för praktiska tillämpningar, behöver vi beakta felet som kan uppkomma under diskretisering och transformationer. Det är här metoder som Sparse Eigenvalue Computation, baserade på algoritmer som IRA (Implicitly Restarted Arnoldi), visar sig användbara. Genom att använda dessa metoder minskar beräkningskomplexiteten, vilket gör att man kan arbeta med mycket stora system på ett effektivt sätt.

Förutom den grundläggande diskretiseringen och spektrala transformationer, är det även av stor betydelse att noggrant förstå hur dessa metoder påverkar systemets stabilitet. Eftersom fördröjningarna ofta innebär att systemet inte längre beter sig på ett linjärt sätt, kan dessa förändringar ha en signifikant inverkan på systemets dynamik. Det är här stabilitetsanalys, till exempel genom att använda metoder för småsignalstabilitet, kommer in i bilden. Genom att modellera och analysera småstörningar i systemet kan vi identifiera och åtgärda potentiella instabiliteter innan de leder till allvarliga driftproblem.

Den vidare utvecklingen och förbättringen av dessa metoder är av stor betydelse, särskilt för tillämpningar som rör kraftsystem och andra stora, dynamiska system som är utsatta för tidsfördröjningar. Ett intressant nästa steg skulle vara att implementera dessa metoder i realtidsövervakningssystem för att snabbt kunna identifiera och åtgärda stabilitetsproblem innan de påverkar systemets drift negativt.

Hur beräknas egenvärden för stora tidsfördröjningssystem?

För ett givet .τi (i = 0, 1, . . . , m), kan .gj,k uttryckas som ∫ t −τ ∫ N N,j i tN,j −τi ∏ N,l g + j,k = N,kdt = t − t dt, . 0 0 N,k − tN,l l=1, l = t k j = 1, 2, . . . , N; k = 1, 2, . . . , N. Under den första implementationen utvecklas .gj,k till ∫ t ′ N,j −τi /α ∏N t − tN,l .gj,k = dt, j = 1, 2, . . . , N; k = 1, 2, . . . , N. 0 l l=1, l = tN,k − tN, k (5.66) Under den andra implementationen, givet att tN,k (k = 1, 2, . . . , N) omvandlas till .α gånger, utvecklas .gj,k till ∫ αt ∫ N,j −τi ∏N t − αt tN,j −τi /α ∏N N,l t= t − t g′′ j,k = d 0 N,l t =αt0 α dt0, . 0 αtN,k − αtN,l l=1, l =k 0 tN,k − tN,l l=1, l =k j = 1, 2, . . . , N; k = 1, 2, . . . , N. (5.67)

Det kan dras slutsatsen från (5.66) och (5.67) att ′ .g′ j,k = αg′ j,k och därefter .L̃ ( N = i )′ α L̃N. När man överväger systemtillståndsmatriserna ′′(2) ′(2) ′′ .Ai , ′ .B i och .Ã0 under den första implementationen är 2) (2) ′ .α gånger av ′( .Ai , ′ .B i (i = 1, 2, . . . , m) och .Ã0 under den andra implementationen, kan man få ′ ′′ .′ N = ̂N.

En sammanfattning av de två implementationerna visar att .T̂ ′ M,N och .T M,N är identiska under de två implementationerna av rotation- och multiplikationsföregrening.

5.3.3 Spars egenvärdesberäkning

I detta avsnitt används IRA-algoritmen för att successivt beräkna egenvärden .μ′′ ′ från .T̂ M,N i ordning efter modulus. Den mest kritiska och beräkningsintensiva operationen är att generera Krylov-underrum. Låt .q (n1+(Q′M+1)d j ∈ C 2)×1 vara den .j -te Krylov-vektorn, då kan den .(j + 1)-te vektorn (n .q 1+(Q′M+1)d2)×1 j+1 ∈ C erhållas genom MVP ′′ .qj+1 = T̂ M,Nqj .

Eftersom de sista .((Q − 1)M + 1)d2 raderna av .T̂ M,N är mycket sparsamma, behandlas endast beräkningen av de första .n1 + Md2 elementen av .qj+1 här. Beräkningen kan delas upp i tre steg:

′ .z = ′ ̂M,Nqj (5.68)
([ ] ) INn .w − ′′ −1 = ̂ z (5 IN ⊗ C N . 0 IN ⊗ 69) D0 ′ .qj+1(1 : n1 + Md2, 1) = ′ ′′ ̃Mqj + ̂M,Nw (5.70)

Genom att introducera två hjälpvektorer .w ∈ Nd×1 C och 1 .z ∈ Nd× C.

5.3.3.1 Implementation av (5.68)

Vektorn .qj (n1 + 1 : end, 1) omformas först i kolumnriktning, vilket leder till matriserna .Q n2×M 1 ∈ , ×M .Q l2 2 ∈ C , n .Q 2×((Q′−1)M+1) C 3 ∈ C och .Q4 ∈ l × ( ′ 1 M 1 C 2 ( Q − ) + ), respektive

⎧ ⎪⎪vec(Q⎪ 1) = qj (n1 + 1 : n1 + Mn2, 1) ⎪⎨vec(Q2) = qj (n1 + Mn2 + 1 : n1 + Md2, 1) .⎪ ( ⎪⎪vec(Q3) = q ⎪ j n1 + Md2 + 1 : n1 + ( ) Q′M + 1 n2 + ) . Ml ⎩ ( ( 2, 1 vec(Q4) = qj n1 + Q′ ) M + ( 1 n2 + Ml2 + 1 : n1 + Q′M + ) ) 1 d2, 1

Genom att använda den unika egenskapen hos Kronecker-produkt kan (5.68) effektivt beräknas som

⎡ ( ⎡ ′′ ⎤ vec à q 0qj (1 : n, 1)1TN j (1 : ⎤ n1, 1) ⎢ ⎢ ⎢ ⎥ ) ⎥ ⎢ vec(Q ⎢ m ⎢ z = ′ 1) ⎥ ⎢ ⎥ ⎢ +∑( ′′ ) (2) ′′ ( ( ) i Ai Q1 + 2 T ⎥ B L̃ , . M,N ⎢ vec(Q2) ⎥⎥ = i= i Q2 ⎥ M N,1 ⎣ ⎢ ⎥ 1 . vec(Q ⎦ ⎢ )( i ) )⎥∑m ( 3) ⎢+ ′′ T ⎥ (2) ′′(2 vec(Q4) ⎣ A 3 + ) B i= i Q i Q4 L̃ ⎥ M,N,2 ⎦ 1 0Nl×1 (5.71)

Beräkningen är effektiv tack vare användningen av Kronecker-produktens egenskaper.

För att slutföra processen och få en exakt uppskattning av egenvärden och egenvektorer kan Newtons metod användas för att konvergera till mer precisa värden.

5.3.4 Egenvärdeskorrektion

När .μ′′ ′ har erhållits från .T̂ M,N, kan uppskattningarna .λ̂ till de exakta egenvärden .λ för tidsfördröjningssystemet återställas från .λ̂ = 1 ejθ ln μ′′. Detta gör att den första .n ingångarna av egenvektorn till .μ̂ kan väljas som en bra uppskattning v̂ för egenvektorn .v. Genom att använda (λ̂, v̂) som initialvärden kan de exakta värdena av .λ och .v snabbt erhållas.

5.3.5 Karakteristikanalys

  1. Den låga dimensionen. Eftersom .n  d2, får dimensionen av diskretiseringsmatrisen .T M,N, dvs .n1 + (QM + 1)d2, ett värde som är nära det totala antalet tillståndsvariabler och påverkas minimalt av .Q och .M.

  2. Den beräkningsmässiga komplexiteten. Den beräkningsmässiga belastningen av den presenterade PSOD-PS-metoden domineras av operationerna .z = M,Nqj som visas i (5.68) och .v = J−1 N z som visas i (5.69), vilka kan uppskattas genom multiplikationer mellan systemtillståndsmatrisen .Ã0 och de variabla vektorerna.

Den beräkningsmässiga belastningen av att lösa (5.68) och (5.69) är nästan densamma som att beräkna MVP associerad med .Ã0, vilket gör den beräkningsmässiga processen effektiv.

Den totala beräkningsbördan för PSOD-PS-metoden är .T + 1 gånger den traditionella egenvärdesanalysen av ett tidsfrifritt system vars tillståndsmatris är .Ã0.

Hur effektiviteten hos PIGD-PS och DDE-baserad PIGD-PS-metod påverkar analysen av tidsfördröjda system

I den här sektionen undersöks effektiviteten hos två metoder för att analysera tidsfördröjda system, PIGD-PS och DDE-baserad PIGD-PS, genom att jämföra deras prestanda när det gäller beräkningskomplexitet och exekveringstid. Ett specifikt exempel på System III används för att demonstrera skillnaderna mellan dessa metoder, där både breda återkopplingssignaler och fördröjda algebraiska variabler beaktas.

Enligt resultaten som presenteras i Tabell 6.6, där dimensionerna av de resulterande matriserna för både PIGD-PS och DDE-baserad PIGD-PS-metod redovisas, kan det konstateras att PIGD-PS-metoden erbjuder en mycket högre beräkningshastighet. Detta beror på att DDE-baserad PIGD-PS metod lider av pseudo-fördröjda tillståndsvariabler, vilket leder till en betydligt högre dimension på de diskretiserade matriserna och därmed en större beräkningsbörda. Jämfört med detta lyckas PIGD-PS-metoden att balansera noggrannhet och beräkningshastighet på ett mer effektivt sätt, vilket ger en markant snabbare bearbetning.

Vid en närmare granskning av tabellen framgår det att när de två metoderna används för att analysera samma antal egenvärden i ett tidsfördröjt system, kan PIGD-PS-metoden uppnå hastighetsökningar på upp till 9 gånger snabbare än den DDE-baserade metoden. Detta innebär att PIGD-PS är mycket mer effektiv när det gäller att hantera system med breda återkopplingssignaler där fördröjda algebraiska variabler är involverade.

Vidare påverkar fördröjningar, särskilt när de är av icke-deterministisk natur, systemets småsignalstabilitet. I en studie där tidsfördröjningarna i System III modellerades som stokastiska variabler visade det sig att små förändringar i fördröjningarna kunde påverka systemets stabilitet avsevärt. Detta observerades genom att kritiska egenvärden för systemet ändrade sig beroende på de specifika tidsfördröjningarna och deras relationer. För att illustrera denna effekt användes Monte Carlo-simuleringar där olika fördröjningskombinationer undersöktes, vilket gav insikter om stabilitetszoner i förhållande till fördröjningarnas storlek.

Ett intressant resultat var att fördröjningar som översteg vissa tröskelvärden kunde stabilisera systemet igen, vilket tyder på att effekten av fördröjningar på systemets stabilitet inte alltid är linjär utan kan uppvisa en periodisk beteende. Fördröjningar som först ledde till instabilitet, när de ökade ytterligare, återställde stabiliteten i systemet. Detta resultat kan vara av stor betydelse för tillämpningar inom områden som kraftsystem och andra tidsfördröjda dynamiska system, där det är avgörande att förstå och hantera fördröjningarnas inverkan på systemets stabilitet.

I sammanhanget av att använda metoder som PIGD-PS och DDE-baserad PIGD-PS är det också viktigt att förstå att även om den fördröjda algebraiska variabeln spelar en central roll i att optimera beräkningshastigheten och noggrannheten, så kräver sådana metoder noggrant val av fördröjningar och korrelationer för att upprätthålla systemets stabilitet. Modeller som simulerar de stokastiska aspekterna av tidsfördröjningar måste beaktas för att förstå hur osäkerheter kan påverka resultaten.

I förlängningen av denna analys är det också nödvändigt att beakta hur dessa metoder skalas upp för användning i större och mer komplexa system. Beräkningskomplexiteten ökar snabbt när systemets storlek eller antalet fördröjningar växer, och därför måste metoder som PIGD-PS och DDE-baserad PIGD-PS optimeras för att hantera storskaliga scenarier på ett effektivt sätt. Anpassningen av dessa metoder för praktisk tillämpning, där både noggrannhet och prestanda är avgörande, är en central fråga för framtida forskning och utveckling.