Quando ci si trova a dover risolvere problemi legati a sistemi dinamici o equazioni differenziali lineari, un approccio fondamentale consiste nell'uso delle trasformazioni di similarità e della diagonalizzazione delle matrici. Questi concetti permettono di semplificare la comprensione del comportamento del sistema riducendolo a forme canoniche più facili da analizzare. In particolare, la diagonalizzazione di una matrice consente di ridurre un sistema di equazioni differenziali lineari accoppiate a un sistema di equazioni separate, rendendo il problema più gestibile.

Nel caso di un sistema dinamico descritto da un sistema di equazioni differenziali lineari, la soluzione tipica si ottiene attraverso la diagonalizzazione della matrice che definisce la dinamica del sistema. Per esempio, se consideriamo un sistema che evolve nel tempo secondo la relazione:

dcdt=Ac\frac{dc}{dt} = A c

dove cc è il vettore delle concentrazioni e AA è una matrice quadrata, la diagonalizzazione della matrice AA permette di separare le variabili e risolvere il sistema in modo più semplice. Se la matrice AA è simmetrica, i suoi autovalori sono reali e gli autovettori possono essere normalizzati in modo che formino un insieme ortonormale. Ciò implica che esiste una matrice TT tale che:

T1AT=ΛT^{ -1} A T = \Lambda

dove Λ\Lambda è la matrice diagonale dei soli autovalori. A questo punto, il sistema dinamico può essere riscritto in termini delle variabili canoniche, rappresentate dagli autovettori di AA, che decouplano il sistema e lo rendono più facilmente risolvibile.

Per esempio, nel caso di una matrice simmetrica reale, come quella data dalla relazione:

A=(1111)A = \begin{pmatrix} -1 & 1 \\ 1 & -1
\end{pmatrix}

i suoi autovalori sono λ1=0\lambda_1 = 0 e λ2=2\lambda_2 = -2, e gli autovettori corrispondenti sono x1=12(1,1)x_1 = \frac{1}{\sqrt{2}} (1, 1) e x2=12(1,1)x_2 = \frac{1}{\sqrt{2}} (1, -1). La matrice modal TT, che contiene questi autovettori, è data da:

T=(12121212)T = \begin{pmatrix}
\frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \end{pmatrix}

In questo caso, la trasformazione canonica rappresenta una rotazione degli assi di 45 gradi, come mostrato nel diagramma associato.

Tuttavia, la diagonalizzazione non è sempre possibile in modo diretto per tutte le matrici. Ad esempio, quando la matrice AA non è simmetrica o ha autovalori complessi, può essere necessario ricorrere ad altri metodi, come la decomposizione di Jordan o le trasformazioni di similarità non ortogonali. In questi casi, è importante comprendere che la diagonalizzazione rappresenta una forma ideale, ma non sempre realizzabile in modo immediato.

Un concetto fondamentale da aggiungere riguarda il comportamento del sistema all'equilibrio. Quando il sistema raggiunge un punto di equilibrio, le variabili dinamiche si stabilizzano in uno stato stazionario. Per esempio, se in un sistema di reazioni chimiche le concentrazioni dei vari componenti raggiungono l'equilibrio, la soluzione stazionaria è data dal vettore c0c_0, che rappresenta la distribuzione delle concentrazioni a lungo termine. Se il sistema è perturbato da una piccola variazione iniziale, la risposta transitoria si evolve secondo le modalità definite dagli autovettori e dagli autovalori della matrice AA.

Inoltre, le trasformazioni di similarità, che permettono di passare da un sistema di coordinate a un altro attraverso una rotazione o una riflessione, possono essere interpretate come un cambiamento di prospettiva che semplifica il problema. Le matrici ortogonali, che descrivono rotazioni e riflessioni, formano un gruppo chiamato O(2)O(2), che rappresenta tutte le possibili trasformazioni ortogonali in due dimensioni. Queste trasformazioni possono essere utilizzate, ad esempio, per risolvere problemi di vibrazione in sistemi meccanici o di conduzione del calore in materiali anisotropi.

Oltre alla diagonalizzazione, esistono altre tecniche avanzate che riguardano le matrici speciali, come le matrici idempotenti (che soddisfano A2=AA^2 = A) o le matrici ortogonali, che hanno autovalori particolari. Le matrici idempotenti, ad esempio, hanno autovalori che sono esclusivamente 0 o 1, mentre le matrici ortogonali hanno autovalori che sono ±1, con la proprietà che le loro trasformazioni non alterano le distanze tra i punti nello spazio. Queste proprietà rendono queste matrici particolarmente utili in diverse applicazioni, tra cui la teoria dei gruppi e il calcolo numerico.

L'approccio della diagonalizzazione e delle trasformazioni di similarità è cruciale non solo in matematica pura, ma anche in fisica e ingegneria, dove è necessario modellare sistemi dinamici complessi. La comprensione di come le proprietà degli autovalori e degli autovettori influenzano la dinamica di un sistema permette di progettare soluzioni più efficienti, sia in ambito teorico che pratico.

Come Analizzare Forme Quadratiche e Matrici Definite Positive: Applicazioni e Risultati

La matrice simmetrica reale 2A (dei derivati parziali di secondo ordine di una funzione f(x1, x2, ..., xn)) è chiamata matrice Hessiana. Possiamo eliminare i termini costanti e lineari nell'equazione (7.1) tramite una traslazione dell'origine. Definendo y = x − α (7.2), otteniamo f(x) = c + bT (y + α) + (y + α)TA(y + α) = (c + bTα + αTAα) + (2αTA + bT)y + yTAy. Supponiamo di poter scegliere α tale che Aα = −1/2b (7.3), quindi i termini lineari si annullano. Definendo Q(x) = f(x) − (c + bTα + αTAα), la forma quadratica si semplifica in Q(y) = yTAy (7.4).

Si noti che l'equazione (7.3) può essere risolta per ogni b solo se A non è singolare, o se il vettore −b/2 è nello spazio delle colonne di A. Per il caso n = 2 con A = ( a b b c ), (7.5), i termini lineari possono essere eliminati solo se b² − ac ≠ 0, ovvero se la forma quadratica non è di tipo parabolico. La forma quadratica data dall'equazione (7.4) può essere scritta nella sua forma canonica, osservando che per una matrice simmetrica reale A, esiste una matrice ortogonale U tale che UTAU = Λ (diagonale). Effettuando la trasformazione delle coordinate (che è una rotazione) y = Uz (7.6), l'equazione (7.4) si riduce alla sua forma canonica Q = (Uz)TAUz = zTUTAUz = zTΛz = λ1z1² + λ2z2² + ... + λnz_n².

Per esempio, consideriamo il caso della curva definita da 5x1² − 8x1x2 + 5x2² = 10. La forma quadratica Q = 5x1² − 8x1x2 + 5x2² può essere scritta come Q = (x1 x2) (5 −4 −4 5) (x1 x2) = 10. Gli autovalori e gli autovettori di A = (5 −4 −4 5) sono λ1 = 9, λ2 = 1, x1 = (1/√2 −1/√2); x2 = (1/√2 1/√2). Pertanto, effettuando la sostituzione (rotazione) x = Uz, dove U = ( √2 √2 ) (−1 1 ) (7.7), la forma quadratica assume la forma canonica 9z1² + z2² = 10, che rappresenta un'ellisse con lunghezze degli assi semimaggiori √10/9 e √10. La figura 7.1 mostra i due sistemi di coordinate, così come la curva (ellisse) rappresentata dalla forma quadratica.

Un altro esempio è dato dalla forma quadratica definita da 5x1² + 8x1x2 + 5x2² = 10, che è anch'essa un'ellisse identica a quella del caso precedente, ma con l'asse maggiore (più lungo) inclinato di 3π/4 rispetto all'asse x1 (vedi figura 7.2). Un altro esempio ancora, 3x1² − 8x1x2 − 3x2² = 10, definisce un'iperbole, come risulta dalla seguente analisi. Gli autovalori e gli autovettori di A = (3 −4 −4 −3) sono λ1 = −5, λ2 = 5, x1 = (1/√5 2/√5); x2 = (2/√5 −1/√5). Effettuando la sostituzione (rotazione) x = Uz, dove U = (√5 √5 2 1) (−√5 −√5), la forma quadratica si riduce alla forma canonica −5z1² + 5z2² = 10, che descrive un'iperbole.

Le forme quadratiche vengono anche utilizzate per determinare la natura degli estremi delle funzioni multivariate (cioè massimi, minimi, punti di sella, ecc.), come discuteremo nella sezione successiva.

Matrici Positive Definite

Consideriamo la forma quadratica Q(x) = xTAx (7.9), dove A è una matrice simmetrica reale. Una matrice è definita positiva se la forma quadratica assume solo valori positivi per ogni scelta di x ≠ 0, e vale zero solo per x = 0, cioè xTAx > 0 per tutti x ≠ 0. Allo stesso modo, una matrice è definita negativa se xTAx < 0 per tutti x ≠ 0. Per esempio, Q(x) = 5x1² − 8x1x2 + 5x2² = 9(x1 − x2/√2)² + (x1 + x2/√2)² è positiva definita.

Esistono diversi criteri per verificare se una matrice simmetrica è positiva definita:

  1. La matrice A è positiva definita se può essere ridotta a una forma triangolare superiore utilizzando solo operazioni elementari di riga (o colonna) di tipo 3, e gli elementi diagonali della matrice risultante (i pivots) sono tutti positivi.

  2. La matrice A è positiva definita se e solo se tutti i suoi minori principali sono positivi. Un minore principale di A è il determinante di qualsiasi sottogruppo ottenuto da A eliminando le sue ultime k righe e colonne (k = 0, 1, ..., n − 1).

  3. La matrice A è positiva definita se e solo se tutti i suoi autovalori sono positivi.

Quotiente di Rayleigh

Sia A una matrice simmetrica reale (o una matrice Hermitiana complessa) e gli autovalori di A (che sono reali) siano disposti in modo tale che λ1 ≤ λ2 ≤ ... ≤ λn. Definiamo il quotiente di Rayleigh (che definisce una mappatura da ℝn/ℂn al campo dei numeri reali) come R(x) = ⟨Ax, x⟩ / ⟨x, x⟩. Il principio di Rayleigh afferma che λ1 ≤ R(x) ≤ λn, cioè il quotiente di Rayleigh raggiunge il suo valore minimo (uguale al più piccolo autovalore di A) quando x è il corrispondente autovettore di λ1, mentre R(x) raggiunge il suo valore massimo quando x è l'autovettore di λn.

Funzioni di Più Variabili: Massimi e Minimi

Ricordiamo dalla teoria del calcolo che per una funzione di valore scalare f(x) ∈ ℝ, una condizione necessaria affinché un punto x0 sia un estremo è che la derivata prima sia zero (7.10). Una condizione sufficiente è che la derivata seconda sia maggiore di zero per un minimo locale e minore di zero per un massimo locale. Se la derivata seconda è zero, si ha un punto di sella.

Quali sono le equazioni differenziali e le funzioni speciali legate a esse?

Le equazioni differenziali di secondo ordine giocano un ruolo cruciale nella matematica applicata, in particolare nella fisica teorica e in altri campi scientifici. Diverse classi di equazioni, come quelle di Legendre, Bessel, e Hermite, danno origine a funzioni speciali che sono soluzioni fondamentali per una vasta gamma di problemi fisici e ingegneristici. Qui esploreremo alcune di queste equazioni e le soluzioni che ne derivano, che sono di fondamentale importanza per lo studio delle onde, dei potenziali e dei sistemi dinamici.

L'equazione di Legendre, ad esempio, è un'importante equazione differenziale che si trova in vari contesti di fisica matematica. La sua forma standard è:

(1z2)w2zw+n(n+1)w=0,(1 - z^2) w'' - 2z w' + n(n+1) w = 0,

dove nn è un numero intero. Le soluzioni di questa equazione sono le funzioni di Legendre di prima e seconda specie, denotate rispettivamente come Pn(z)P_n(z) e Qn(z)Q_n(z). Per ogni valore di nn, esistono soluzioni specifiche che possono essere espresse come polinomi o funzioni logaritmiche. Per esempio, per n=0n = 0, la funzione di Legendre di prima specie è semplicemente P0(z)=1P_0(z) = 1, mentre la funzione di seconda specie Q0(z)Q_0(z) è espressa come:

Q0(z)=12ln(1+z1z).Q_0(z) = \frac{1}{2} \ln \left( \frac{1 + z}{1 - z} \right).

Queste funzioni sono fondamentali in molte applicazioni, come nella soluzione dei problemi di potenziale gravitazionale e elettromagnetico.

Un'altra equazione cruciale è l'equazione di Bessel, che appare frequentemente in problemi di simmetria circolare o cilindrica. L'equazione di Bessel di secondo ordine ha la forma:

z2w+zw+(z2ν2)w=0,z^2 w'' + z w' + (z^2 - \nu^2) w = 0,

dove ν\nu è un parametro che può anche non essere un intero. Le soluzioni di questa equazione sono le funzioni di Bessel, denotate Jν(z)J_\nu(z) e Yν(z)Y_\nu(z), che sono rispettivamente le funzioni di Bessel di prima e seconda specie. Queste funzioni sono importanti per la soluzione di problemi in cui le variabili indipendenti sono legate alla distanza radiale, come nel caso delle vibrazioni di membrane circolari o nelle equazioni di diffusione.

Nel caso delle funzioni modificate di Bessel, che appaiono in contesti che coinvolgono la propagazione di onde in media non omogenee o a temperatura variabile, l'equazione differenziale assume la forma:

z2w+zw(z2+ν2)w=0.z^2 w'' + z w' - (z^2 + \nu^2) w = 0.

Le soluzioni di questa equazione sono le funzioni modificate di Bessel di prima e seconda specie, denotate come Iν(z)I_\nu(z) e Kν(z)K_\nu(z). Per esempio, per ν=0\nu = 0, queste funzioni si riducono rispettivamente a I0(z)I_0(z) e K0(z)K_0(z), che sono soluzioni utilizzate in molte applicazioni ingegneristiche e fisiche, come nella teoria del calore e nella descrizione di fenomeni termici in geometrie non euclidee.

Le funzioni di Bessel e modificate di Bessel sono strettamente legate alle soluzioni di equazioni che descrivono onde in media cilindrica, e la loro importanza risiede nel fatto che esprimono le modalità di propagazione radiale in tali configurazioni geometriche.

Un altro gruppo importante di equazioni sono quelle associate alle funzioni di Legendre. L’equazione associata di Legendre ha la forma:

(1z2)w2zw+[n(n+1)m21z2z2]w=0,(1 - z^2) w'' - 2z w' + \left[n(n+1) - m^2 \frac{1 - z^2}{z^2}\right] w = 0,

dove mm e nn sono numeri interi non negativi. Le soluzioni di questa equazione sono le funzioni di Legendre associate, che vengono utilizzate in problemi come quelli di fisica atomica, teoria del potenziale e propagazione delle onde elettromagnetiche.

Inoltre, l'equazione di Hermite, che è fondamentale nella teoria delle probabilità e nell'analisi delle onde in spazi ad alta dimensione, ha la forma:

w2zw+2nw=0,w'' - 2z w' + 2n w = 0,

con soluzioni che sono i polinomi di Hermite Hn(z)H_n(z), utilizzati per descrivere funzioni di onda in problemi legati alla meccanica quantistica, come la soluzione dell'equazione di Schrödinger in coordinate cartesiane.

Un altro esempio interessante è l’equazione di Laguerre, che appare in contesti come la teoria degli operatori differenziali, e che ha la forma:

w+(1z)w+nw=0.w'' + (1 - z) w' + n w = 0.

Le soluzioni di questa equazione sono i polinomi di Laguerre Ln(z)L_n(z), che si trovano in molte applicazioni di fisica matematica, inclusi i problemi riguardanti l’energia degli elettroni in un atomo o la distribuzione di probabilità in sistemi di particelle.

Infine, l'equazione di Chebyshev, che è strettamente legata alla teoria delle approssimazioni polinomiali, ha la forma:

(1z2)wzw+n2w=0.(1 - z^2) w'' - z w' + n^2 w = 0.

Le soluzioni di questa equazione sono i polinomi di Chebyshev di prima e seconda specie, che trovano applicazione in algoritmi numerici, teoria dell'approssimazione e in numerosi problemi di analisi spettrale.

Le soluzioni di queste equazioni non sono solo importanti per risolvere problemi matematici complessi, ma anche per interpretare fenomeni naturali e tecnologici in numerosi campi, dalla fisica teorica all'ingegneria applicata. La comprensione di queste soluzioni e delle loro proprietà è cruciale per chi desidera applicare la matematica in contesti pratici.

Come l'errore di feedback ritardato influenza la stabilità di un sistema di controllo proporzionale

Il comportamento di un sistema di controllo con feedback ritardato, specialmente in un contesto di controllo proporzionale, dipende fortemente dalle caratteristiche del sistema stesso, come il guadagno proporzionale kPk_P, il tempo di ritardo τD\tau_D e il tempo di ritardo interno τ\tau. La stabilità del sistema, che è una delle principali preoccupazioni quando si progetta un sistema di controllo, è determinata dalla posizione delle radici dell'equazione di trasferimento nel piano complesso.

Un sistema di controllo con feedback ritardato può essere rappresentato dalla funzione di trasferimento

G(jω)=jωτ+1+kPejωτD=jωτ+1+kP[cos(ωτD)jsin(ωτD)]G(j\omega) = j\omega\tau + 1 + k_P e^{ -j\omega \tau_D} = j\omega \tau + 1 + k_P [\cos(\omega \tau_D) - j \sin(\omega \tau_D)]

dove jj è l'unità immaginaria, ω\omega è la frequenza angolare, e τD\tau_D è il tempo di ritardo. Riorganizzando questa equazione, otteniamo:

G(jω)=(1+kPcos(ωτD))+j(ωτkPsin(ωτD))G(j\omega) = \left(1 + k_P \cos(\omega \tau_D)\right) + j\left(\omega \tau - k_P \sin(\omega \tau_D)\right)

Per la stabilità del sistema, le radici della funzione di trasferimento G(s)=0G(s) = 0 devono trovarsi nella metà sinistra del piano complesso. Ciò implica che la parte reale delle radici deve essere negativa.

Esaminando le equazioni, si giunge a due relazioni chiave:

cos(ωτD)=1kP\cos(\omega \tau_D) = -\frac{1}{k_P}
sin(ωτD)=ωτkP\sin(\omega \tau_D) = \frac{\omega \tau}{k_P}

Queste relazioni non possono essere soddisfatte se kP<1k_P < 1. In altre parole, quando kP<1k_P < 1, le radici non attraversano mai l'asse immaginario e si trovano sempre nella metà sinistra del piano complesso, garantendo la stabilità del sistema.

Quando kP>1k_P > 1, le equazioni (17.254) e (17.255) portano a una separazione tra la regione stabile e quella instabile, che può essere descritta dalla relazione:

ωτD=cos1(1kP)\omega \tau_D = \cos^{ -1}\left(-\frac{1}{k_P}\right)

Questa separazione è descritta anche schematicamente dalla figura 17.16, dove si evidenziano le regioni di stabilità e instabilità per il controllo proporzionale con ritardo.

In pratica, l'analisi mostra che:

  1. Se 0kP10 \leq k_P \leq 1, tutte le radici della funzione di trasferimento si trovano nella metà sinistra del piano complesso, garantendo la stabilità del sistema.

  2. Se kP>1k_P > 1, la regione di separazione tra le radici stabili e instabili è definita dalla relazione ωτD=cos1(1/kP)\omega \tau_D = \cos^{ -1}(-1/k_P), che dipende dai parametri kPk_P e τD\tau_D.

Questi risultati possono essere estesi a sistemi descritti da funzioni di trasferimento di ordine superiore, come quelle di secondo o terzo ordine. L'esempio numerico con kP=2k_P = 2 e τ=1\tau = 1 illustra come variando il tempo di ritardo τD\tau_D le risposte del sistema cambiano da stabili a instabili, a seconda del valore di kPk_P.

Le radici della funzione di trasferimento possono essere calcolate numericamente risolvendo l'equazione:

G(s)=0τ(a+ib)+1+kPeτDaeiτDb=0G(s) = 0 \quad \Rightarrow \quad \tau(a + ib) + 1 + k_P e^{ -\tau_D a} e^{ -i\tau_D b} = 0

Dove s=a+ibs = a + ib rappresenta una radice complessa. Questa equazione può essere risolta numericamente per determinare i valori reali di aa e bb, e quindi le radici del sistema. Utilizzando queste radici, è possibile ottenere la curva di risposta del sistema, come mostrato nella figura 17.19, dove si confrontano i risultati numerici ottenuti con il metodo delle radici con quelli ottenuti attraverso l'inversione numerica della trasformata di Laplace.

Inoltre, è importante notare che la risposta di un sistema con feedback ritardato può essere influenzata da vari metodi di inversione numerica della trasformata di Laplace. Sebbene l'inversione numerica possa dare buoni risultati, essa può incontrare difficoltà in presenza di ritardi più grandi, come mostrato nel caso con τD=10\tau_D = 10. In questi casi, l'errore di inversione numerica può diventare significativo, in particolare nei punti in cui la risposta del sistema cambia rapidamente.

Infine, la tecnica della trasformata di Laplace può essere utilizzata anche per risolvere problemi lineari di differenza e integrazione, in cui il comportamento del sistema è descritto da equazioni differenziali o integrodifferenziali. Questo approccio consente di analizzare in modo efficiente la risposta del sistema a disturbi unitari o a ingressi periodici.