Innen analyse av tidsforsinkede systemer er egenverdiberegning et sentralt verktøy for å vurdere småsignalfølsomhet og stabilitet. Den såkalte PSD-baserte (Partial Spectral Discretization) metoden muliggjør dette, men effektiviteten forringes når egenverdiene etter transformasjon ligger tett langs enhetsirkelen i z-planet. For å forbedre dette introduseres en sammensatt transformasjon — en preconditioning — som kombinerer koordinatrotasjon og multiplikativ forsterkning. Denne metoden, kalt rotasjons- og multiplikasjonspreconditioning, forsøker å avbøte konvergensproblemene ved å spre egenverdiene kunstig i det diskrete domenet.

Ved bruk av koordinatrotasjon introduseres en kompleks fasefaktor i tidsforsinkelsene, noe som i utgangspunktet genererer komplekse trinnlengder for tidsdiskretisering. Dette er i konflikt med det fysiske kravet om reelle stegverdier. For å overvinne dette anvendes en tilnærming hvor rotasjonen i koordinatrommet ikke tas nøyaktig, men erstattes med en realverdi tilnærming: tidsforsinkelsene τ′ tilnærmes av deres opprinnelige verdier τ. Selv om dette introduserer en viss feil, gjør det beregningen praktisk gjennomførbar.

Denne tilnærmingen fører til en transformert egenverdi λ′ relatert til den opprinnelige λ gjennom en kompleks eksponentialrelasjon. Den resulterende biasen i λ′, grunnet tilnærmelsen i tidsforsinkelsene, avhenger sterkt av både rotasjonsvinkelen θ og størrelsen på forsinkelsen τi. Feilen forsterkes særlig når systemets sensitivitet ∂λ/∂τi er høy, noe som skjer ved dårlig dempede eller marginalt stabile egenverdier.

For ytterligere å spre de transformerte egenverdiene μ′, og dermed øke den relative forskjellen mellom dem, løftes de til en potens α, hvor α er et heltall større enn 1. Denne forsterkningen av egenverdiens beliggenhet i det komplekse planet bidrar til å øke konvergenshastigheten for iterative metoder som anvender Krylov-underrum eller sekvensiell approksimasjon.

To implementeringsstrategier benyttes. I den første forblir tidsskrittet h konstant, mens systemmatrisene og forsinkelsene forsterkes med faktoren α. I den andre strategien holdes matrisene og forsinkelsene uendret, og h multipliseres med α. Begge metodene oppnår ønsket spredning i spekteret, men påvirker den numeriske stabiliteten og beregningens skalerbarhet ulikt.

Valget av parametrene α og θ er avgjørende. Typisk settes α til 2 eller 3, noe som i de fleste tilfeller er tilstrekkelig for å forbedre konvergens uten å overskride begrensningen αh ≤ τ_max. For θ er valget anvendelsesavhengig: høyere verdier, som 5.74°, gir bedre dekning av moduser med lav demping (typisk for oscillasjonsanalyse), mens lavere verdier som 1.72° gir presis og rask identifikasjon av de mest kritiske stabilitetsmodi.

Når rotasjons- og multiplikasjonspreconditioning sammenlignes med andre spektrale transformasjoner, fremstår den som særlig nyttig for store, komplekse systemer hvor man ønsker å beregne egenverdier under en viss dempingsgrense i én enkelt beregningsrunde. Den eliminerer behovet for flere startpunkter langs imaginæreaksen, noe som reduserer unødvendig duplisering og overlapp i spektral dekning, slik som ved shift-invert transformasjon. Den er også mer robust enn Cayley-transformasjonen i beregning av dårlig dempede eller marginalt stabile moduser, til tross for at konvergenshastigheten reduseres ved at egenverdiene klumper seg nær enhetsirkelen.

Men denne teknikken er ikke uten svakheter. Selv med forsterkning av μ′, er det et fundamentalt problem at de transformerte egenverdiene forblir tett distribuerte. Dette fører til langsom konvergens og høy beregningskostnad. Det er dermed avgjørende at forbedringer i transformasjonen balanseres med de numeriske egenskapene til de iterative algoritmene som benyttes.

Effektiviteten til PSD-baserte metoder avhenger til syvende og sist av hvordan transformasjonen endrer egenverdistrukturen. Rotasjons- og multiplikasjonspreconditioning viser at en forsiktig tilnærming til spektral manipulering, der man tar hensyn til både fysisk realisme (som reelle trinnverdier) og algoritmisk spredning, kan gi betydelig fremgang i beregning av småsignalrespons i systemer med tidsforsinkelse. Det stilles imidlertid høye krav til forståelse av transformasjonsparameterenes rolle, spesielt i forhold til demping og stabilitet.

Det er viktig å forstå at rotasjonen påvirker ikke bare størrelsen og beliggenheten til egenverdiene, men også sensitiviteten til resultatene. En liten feil i θ kan resultere i signifikante avvik i beregnet stabilitetsmargin. Videre, i store systemer, kan selv små numeriske avvik forplante seg gjennom hele spekteret og føre til feilaktige stabilitetsvurderinger. Derfor må nøyaktigheten og robustheten til preconditioningen kontinuerlig valideres mot fysiske og analytiske referanseverdier.

Hvordan kan egenverdier i store tidsforsinkede systemer beregnes effektivt og nøyaktig?

Egenverdiberegning for store systemer med tidsforsinkelse utgjør en betydelig utfordring innen numerisk analyse, særlig når systemene er høy-dimensjonale og preget av sparsitet. For slike systemer anvendes det såkalte PSOD-PS-metoden – en pseudospektral differensmetode som muliggjør nøyaktig estimering av karakteristiske røtter. Denne tilnærmingen involverer komplekse operasjoner knyttet til tidsforskyvning og transformasjon av systemmatriser under ulike implementasjonsrammer, hvor den numeriske effektiviteten avhenger av måten forsinkelsesinformasjonen er inkorporert i modellen.

Et sentralt element i denne metoden er transformasjonen av tidsvariabler ved hjelp av en skaleringsparameter α, som gir opphav til to implementasjonsstrategier. Ved første implementasjon utvikles funksjonen gj,k over tidsdomenet t ∈ [0, tN,j−τi], mens i den andre implementasjonen foregår samme utvikling over et skalert domene [0, αtN,k − αtN,l]. Til tross for ulikhetene i formulering, viser det seg at resultatene fra begge tilnærminger gir identiske transformasjonsmatriser, T̂′M,N og TM,N, under rotasjons- og multiplikasjonspre-kondisjonering.

Kjernen i beregningen er etableringen av Krylov-underrom, som bygger på successive multiplikasjoner mellom transformasjonsmatrisen T̂M,N og tidligere genererte vektorer. På grunn av den høye sparsiteten i de nedre radene av T̂M,N, konsentreres beregningene til de første n1 + Md2 elementene. Denne prosessen skjer i tre trinn: først beregnes et mellomresultat z ved hjelp av multiplikasjon med en strukturert systemmatrise ̂M,N, deretter løses en lineær ligning ved inversjon av en blokkstrukturert matrise J′N, før den endelige vektoren qj+1 konstrueres.

Den mest intensive delen av prosessen er beregningen av z = ̂M,Nqj. Dette trinnet utnytter Kronecker-produktets egenskaper for effektiv omstrukturering av data, og tillater separasjon av beregningen i delblokker Q1, Q2, Q3 og Q4. Matematisk uttrykkes dette som en vektorisering og matriseoperasjon som gir høy beregningsstabilitet til tross for store dimensjoner.

Påfølgende inversjon i (5.69) skjer ved hjelp av LU-dekomponering, grunnet den høye sparsiteten i de blokkerte delmatrisene A′N, B′N, CN og DN. Disse er konstruert som Kronecker-produkter med de underliggende dynamiske systemmatrisene A′′i og B′′i. Dermed bevares en strukturert sparsitet som gjør det mulig å unngå direkte inversjoner og heller bruke faktorisering for å oppnå numerisk effektivitet.

Etter å ha etablert vektorrekken {qj}, gjennomføres korreksjon av de estimerte egenverdiene μ′′ ved hjelp av en logaritmisk transformasjon: λ̂ = (1 / (αh))·ln(μ′′), hvor h betegner tidsdiskretisering. Den tilhørende egenvektoren v̂ estimeres ved å ta de første n komponentene av egenvektoren til μ̂. Disse estimerte verdiene fungerer deretter som startpunkt for Newton-iterasjon, hvor den eksakte løsningen (λ, v) oppnås med høy presisjon.

Det bemerkelsesverdige ved denne metoden er hvordan dimensjonen til den diskretiserte matrisen TM,N forblir nær antall tilstandvariabler, uavhengig av antall interpolasjonspunkter Q og orden M. Dette gjør metoden egnet for storskala systemer, hvor tradisjonelle tilnærminger ville resultert i numerisk eksplosjon. Videre er det slik at hele beregningsbyrden til PSOD-PS-metoden kan tilnærmes som T + 1 ganger kompleksiteten til klassisk egenverdi-analyse av et forsinkelsesfritt system med matrise Ã0.

Effektiviteten oppnås i hovedsak fordi flaskehalsene – nemlig multiplikasjonen med Ã0 og inversjonen av J′N – begge er optimalisert ved sparsitet og struktur. Dette gjør det mulig å bruke PSOD-PS-metoden i praksis for realistiske, cyber-fysiske kraftsystemer der forsinkelse er uunngåelig.

Det som i tillegg må forstås, er at til tross for den matematiske elegansen og den numeriske effektiviteten, forutsetter denne metoden en grundig forhåndsanalyse av systemstruktur og nøyaktig parametrisering av forsinkelseskomponenter. I praksis betyr det at enhver feil i identifikasjonen av tidskonstanter τi eller skaleringsparameter α umiddelbart reflekteres i nøyaktigheten til resultatene. Derfor er metoden best egnet for systemer hvor slike parametre kan bestemmes med høy presisjon, eller hvor det finnes solide mekanismer for validering og korreksjon av de samme.

I tillegg må leseren være oppmerksom på at selve dannelsen av systemmatrisene, som bygger på Kronecker-produkter og spesifikke operatorformer, krever at datastrukturen i implementasjonen er tilpasset dette. Uten en optimal datalagring og minnehåndtering kan fordelene ved sparsitet gå tapt, og systemet bli numerisk ineffektivt.