Quando si parla di funzioni di più variabili, un aspetto fondamentale da comprendere è la differenziazione, che, seppur analogica a quella delle funzioni di una variabile, richiede una comprensione più articolata. La matrice di Jacobian di una funzione scalare, ad esempio, è strettamente legata al gradiente della funzione stessa, una relazione che si manifesta in modo evidente nel caso in cui m = 1, dove la matrice Jacobiana di una funzione scalare si riduce proprio al suo gradiente. Quindi, se consideriamo un insieme aperto A in uno spazio euclideo n-dimensionale R, e se la funzione f è continua e differenziabile su A, la sua derivabilità è strettamente connessa alla continuità dei suoi derivati parziali.

Per definire più precisamente la differenziabilità, supponiamo che la funzione f : A → R abbia derivate parziali continue su A. In tal caso, si può affermare che f è differenziabile in un punto P0 appartenente a A. Se una funzione è differenziabile su A, allora anche la sua somma, il suo prodotto e, sotto alcune condizioni, il suo quoziente saranno differenziabili. In particolare, se f e g sono differenziabili in P0, anche le funzioni f + g, f ⋅ g e, se g(P0) ≠ 0, anche il quoziente f/g sono differenziabili in P0. A questa proprietà si aggiunge una regola fondamentale: la composizione di funzioni differenziabili rimane differenziabile. Se h è differenziabile su un intervallo I e f è differenziabile su un insieme A, con f(A) ⊂ I, allora anche la composizione h ∘ f sarà differenziabile, con la sua derivata data dalla catena delle derivate parziali.

Questa regola della catena, uno strumento cruciale nell'analisi delle funzioni di più variabili, è enunciata nei teoremi relativi alle composizioni di funzioni. In particolare, la catena di derivazione è più complessa quando si tratta di funzioni vettoriali. Se F è una funzione differenziabile su B ⊂ R^d e G su A ⊂ R^m, con F(B) ⊂ A, allora la composizione G ∘ F è differenziabile, e la sua matrice Jacobiana sarà il prodotto della matrice Jacobiana di G e di F. La formula risultante, spesso rappresentata come la moltiplicazione di due matrici, diventa particolarmente utile per comprendere come si comportano le composizioni di funzioni differenziabili.

Oltre a questo, nel contesto delle derivate parziali, si può andare oltre al semplice primo ordine e considerare derivate di ordine superiore. Per esempio, le derivate parziali di ordine superiore possono essere calcolate, e nel caso di funzioni di due o più variabili, si possono ottenere delle matrici Hessiane che descrivono come la funzione varia intorno ad un punto P0. La Hessiana è particolarmente utile per comprendere la curvatura della funzione, in quanto raccoglie tutte le derivate parziali seconde, inclusi i cosiddetti "mixed partials". Se questi sono uguali, si parla di simmetria della Hessiana, una proprietà che, come confermato dal teorema di Schwarz, può essere garantita se i mixed partials sono continui.

Tuttavia, è importante sottolineare che, sebbene in molti casi i mixed partials coincidano, possono esistere delle funzioni per cui questi derivati sono differenti, come nel celebre esempio di Peano, in cui la funzione f(x,y)={x2y2se x0,y0,xyse x=0,y=0.f(x, y) = \begin{cases} x^2 - y^2 & \text{se } x \neq 0, y \neq 0, \\ xy & \text{se } x = 0, y = 0. \end{cases} mostra che i mixed partials esistono ma non sono uguali.

Infine, quando si parla di espansioni di Taylor di ordine superiore, un altro aspetto cruciale è la formula di espansione di Taylor per funzioni differenziabili due volte. Se una funzione è appartenente a C², la sua espansione di Taylor permette di approssimare il valore della funzione in un intorno di un punto P0. Questa espansione include il termine lineare, il termine quadratico (legato alla Hessiana) e un termine di errore che tende a zero più velocemente di quanto la distanza dal punto P0 cresca. L'espansione di Taylor fornisce quindi un potente strumento per comprendere come una funzione si comporta in vicinanza di un punto, e per analizzare le sue proprietà locali.

In sintesi, la differenziazione nelle funzioni di più variabili è una tematica ricca e complessa, che coinvolge non solo la comprensione dei derivati parziali ma anche delle loro interazioni, simmetrie e composizioni. Il concetto di differenziabilità, e in particolare il comportamento delle derivate superiori e delle espansioni di Taylor, offre potenti strumenti per l'analisi locale di funzioni multivariabili, indispensabili in molteplici ambiti della matematica e delle scienze applicate.

Come determinare la differenziabilità e la continuità di una funzione in un punto

Nel contesto delle funzioni di più variabili, determinare la continuità, la differenziabilità e la classe di regolarità di una funzione è fondamentale per comprendere il comportamento della funzione stessa vicino a un punto. Consideriamo, ad esempio, la funzione f(x,y)f(x, y) definita da due disuguaglianze che descrivono il dominio della funzione e determinano il comportamento della funzione stessa in prossimità di determinati punti.

Per risolvere questi problemi, dobbiamo applicare i concetti di differenziabilità e linearizzazione a un punto specifico. Ad esempio, supponiamo di voler analizzare la funzione in un punto (0,1)(0, -1). La funzione data può essere scritta come una composizione di funzioni di classe C1C^1, il che implica che la funzione è differenziabile in un intorno di questo punto. In questo caso, il polinomio di Taylor di primo ordine è utilizzato per approssimare la funzione vicino al punto di interesse, e viene calcolato come segue:

P(x,y)=f(0,1)+f(0,1)(x,y+1)P(x, y) = f(0, -1) + \nabla f(0, -1) \cdot (x, y + 1)

Nel caso specifico, P(x,y)P(x, y) è il polinomio di Taylor di primo ordine che fornisce una buona approssimazione di f(x,y)f(x, y) vicino al punto (0,1)(0, -1). In seguito, possiamo calcolare le derivate parziali e determinare la linearizzazione della funzione attorno a questo punto. Le derivate parziali e il gradiente della funzione, calcolati in (0,1)(0, -1), sono fondamentali per determinare la pendenza della funzione in diverse direzioni.

Un altro punto di interesse riguarda la verifica della continuità della funzione. Se la funzione è continua in un punto, allora la sua approssimazione tramite il polinomio di Taylor risulterà corretta. Tuttavia, nel caso di discontinuità, la funzione potrebbe non essere differenziabile. In effetti, se la funzione non è continua, non è possibile definire un polinomio di Taylor valido, e la differenziabilità in quel punto è esclusa.

Nel caso di una funzione come f(x,y)=x3+y3f(x, y) = x^3 + y^3 definita su un dominio con restrizioni, come x+y>0x + y > 0, è necessario determinare i valori di α\alpha per i quali la funzione è continua e differenziabile nel punto (0,0)(0, 0). L'analisi della funzione in coordinate polari ci consente di verificare la continuità al punto (0,0)(0, 0). In particolare, se α=0\alpha = 0, la funzione risulta continua, ma la sua differenziabilità dipende dalla verifica delle derivate parziali in ogni direzione.

Per la funzione data, possiamo usare il concetto di limiti direzionali per determinare la differenziabilità. Ad esempio, se prendiamo i limiti direzionali lungo le linee coordinate, possiamo verificare che la funzione è continua per α=0\alpha = 0, ma non è differenziabile in quanto le derivate parziali non sono consistenti. Inoltre, l'analisi del comportamento della funzione in direzione radiale, cioè lungo le linee che passano per l'origine, ci permette di concludere che la funzione non è differenziabile in (0,0)(0, 0).

Infine, se consideriamo una funzione come f(x,y)=2x2y+xy2f(x, y) = 2x^2y + xy^2 definita nel piano, la determinazione della differenziabilità in (0,0)(0, 0) passa attraverso il calcolo delle derivate direzionali. Anche se esistono tutte le derivate direzionali, la differenziabilità di una funzione richiede che tutte le derivate parziali siano ben definite e che la funzione si comporti linearmente in prossimità del punto. In questo caso, possiamo verificare che la funzione non è differenziabile in (0,0)(0, 0), poiché le derivate parziali rispetto a xx e yy non sono congruenti, il che viola la condizione necessaria per la differenziabilità.

Quando si analizza una funzione di più variabili, è essenziale considerare non solo la continuità e la differenziabilità in un punto, ma anche il dominio della funzione. Il dominio è la regione in cui la funzione è definita e dove possiamo applicare le proprietà di regolarità, come la classe C1C^1, e calcolare i polinomi di Taylor di ordine superiore. La verifica della continuità e differenziabilità in ogni punto del dominio è cruciale per comprendere il comportamento della funzione, in particolare se ci sono punti di discontinuità o non differenziabilità.

Come calcolare la distanza di un punto da una retta e il momento di inerzia in vari spazi

In geometria, la distanza tra un punto e una retta in uno spazio n-dimensionale (con n = 2 o n = 3) è un concetto fondamentale, che si applica in vari contesti, dall'analisi della geometria piana alla meccanica dei corpi solidi. Consideriamo un oggetto geometrico, come un punto o una retta. Sia ll una retta nello spazio Rn\mathbb{R}^n, con n=2n = 2 o n=3n = 3, e dl(P)d_l(P) la distanza tra un punto PP e ll, definita come d(P)=min{d(P,Q):Ql}d(P) = \min \{d(P, Q) : Q \in l \}, dove QQ è un punto sulla retta ll. Un caso comune è quando n=2n = 2, e la retta ll è rappresentata in forma cartesiana come ax+by+c=0ax + by + c = 0. In questo caso, la distanza tra un punto P=(x,y)P = (x, y) e la retta ll è espressa dalla formula:

d(P)=ax+by+ca2+b2d(P) = \frac{|ax + by + c|}{\sqrt{a^2 + b^2}}

Questa formula misura la distanza perpendicolare di un punto alla retta. Se osserviamo la figura 5.4, sulla sinistra, vediamo il baricentro di una regione triangolare grigia, mentre sulla destra la distanza tra il punto PP e la retta è rappresentata come la lunghezza del segmento perpendicolare che collega il punto PP alla retta stessa.

Nel caso in cui n=3n = 3, la retta può essere espressa in forma parametrica come l={P0+tQ0:tR}l = \{P_0 + t Q_0 : t \in \mathbb{R} \}, dove P0P_0 e Q0Q_0 sono due vettori dati. La distanza di un punto PP dalla retta in questo caso è data da:

d(P)=(PP0)×Q0Q0d(P) = \frac{|(P - P_0) \times Q_0|}{|Q_0|}

dove (PP0)×Q0(P - P_0) \times Q_0 è il prodotto vettoriale tra i vettori PP0P - P_0 e Q0Q_0, che risulta essere ortogonale a entrambi. Se P0P_0 è l'origine, la formula in termini di coordinate di P=(x,y,z)P = (x, y, z) e Q0=(x0,y0,z0)Q_0 = (x_0, y_0, z_0) è:

(PP0)×Q0=(yz0zy0,zx0xz0,xy0yx0)(P - P_0) \times Q_0 = (yz_0 - zy_0, zx_0 - xz_0, xy_0 - yx_0)

L'integrale relativo al momento di inerzia di una regione Ω\Omega rispetto alla retta o ad un punto può essere definito come un'integrazione del quadrato della distanza. In due dimensioni, il momento di inerzia rispetto alla retta è definito come:

I=Ωd2(x,y)μ(x,y)dxdyI = \int_\Omega d^2(x, y) \mu(x, y) \, dx \, dy

Dove μ(x,y)\mu(x, y) è la densità di massa della regione Ω\Omega. Se n=3n = 3, la formula si estende a:

I=Ωd2(x,y,z)μ(x,y,z)dxdydzI = \int_\Omega d^2(x, y, z) \mu(x, y, z) \, dx \, dy \, dz

Un aspetto importante riguarda i momenti di inerzia rispetto agli assi coordinati. In due dimensioni, i momenti di inerzia rispetto agli assi xx e yy sono dati dalle espressioni:

Ix=Ωy2μ(x,y)dxdy,Iy=Ωx2μ(x,y)dxdyI_x = \int_\Omega y^2 \mu(x, y) \, dx \, dy, \quad I_y = \int_\Omega x^2 \mu(x, y) \, dx \, dy

In tre dimensioni, la formula si espande con i momenti di inerzia rispetto agli assi xx, yy e zz:

Ix=Ω(y2+z2)μ(x,y,z)dxdydz,Iy=Ω(x2+z2)μ(x,y,z)dxdydzI_x = \int_\Omega (y^2 + z^2) \mu(x, y, z) \, dx \, dy \, dz, \quad I_y = \int_\Omega (x^2 + z^2) \mu(x, y, z) \, dx \, dy \, dz

Infine, il momento di inerzia rispetto a un punto generico Q0Q_0 si calcola sostituendo la distanza dal punto Q0Q_0 nella formula di inerzia.

Un'importanza particolare riveste lo studio dei solidi di rivoluzione, ossia quelle regioni ottenute ruotando una regione piana SS attorno a un asse, spesso l'asse zz. Quando SS si trova nel piano yzyz e l'asse di rotazione è l'asse zz, possiamo descrivere il solido di rivoluzione tramite coordinate cilindriche:

(x,y,z)R3:x2+y2,zS(x, y, z) \in \mathbb{R}^3 : x^2 + y^2, z \in S

In questo caso, l'integrale che definisce la funzione sulla regione di rivoluzione è:

02πSf(ρcosθ,ρsinθ,z)ρdρdzdθ\int_0^{2\pi} \int_S f(\rho \cos\theta, \rho \sin\theta, z) \rho \, d\rho \, dz \, d\theta

Questa formula è una generalizzazione del teorema di Pappo (o del primo teorema di Guldino), che afferma che il volume di un solido di rivoluzione è il prodotto dell'area della sezione meridiana per la lunghezza della circonferenza tracciata dal baricentro di quella sezione. Se la sezione meridiana è uniparametrica rispetto a zz, l'area di SS può essere calcolata come:

abπφ2(z)dz\int_a^b \pi \varphi^2(z) \, dz

Dove φ(z)\varphi(z) è la funzione che definisce il confine superiore della regione in funzione di zz. Ad esempio, se la sezione meridiana è data come il grafico di una funzione φ(z)\varphi(z), l'integrale per il volume si semplifica a una forma facilmente calcolabile.

In generale, comprendere le tecniche di calcolo dei momenti di inerzia e delle distanze perpendicolari è essenziale per l'analisi di corpi rigidi, soluzioni in meccanica, e nella progettazione di strutture che devono resistere a forze rotanti.

Qual è la differenza tra convergenza puntuale e uniforme di una successione di funzioni?

Una successione di funzioni (fn)n0(f_n)_{n \geq 0} definita su un insieme II, dove ogni funzione fnf_n mappa da II in R\mathbb{R}, è una sequenza di funzioni numeriche che può essere studiata sotto diversi aspetti. Il concetto di convergenza di tale successione gioca un ruolo fondamentale nell'analisi matematica, soprattutto quando si esplorano i comportamenti delle successioni di funzioni nel limite. La convergenza di una successione di funzioni può avvenire in vari modi, ma i due principali tipi sono la convergenza puntuale e la convergenza uniforme.

La convergenza puntuale di una successione di funzioni (fn)n0(f_n)_{n \geq 0} su un sottoinsieme JJ di II a una funzione ff è definita come segue: per ogni xJx \in J, il limite limnfn(x)\lim_{n \to \infty} f_n(x) deve esistere ed essere uguale a f(x)f(x). Se tale convergenza avviene per ogni xIx \in I, allora si dice che la successione converge puntualmente su II. È utile notare che una successione può convergere puntualmente su un sottoinsieme proprio di II, ma non necessariamente sull'intero dominio. Ad esempio, consideriamo la successione di funzioni definita su I=[0,+)I = [0, +\infty) dalla funzione fn(x)=xnf_n(x) = x^n. Se consideriamo J=[0,1]J = [0, 1], vediamo che la successione converge puntualmente alla funzione f(x)=0f(x) = 0 per x[0,1)x \in [0, 1), ma per x=1x = 1 la funzione diventa 1. Tuttavia, se x>1x > 1, la successione diverge a ++\infty, quindi la convergenza puntuale avviene solo su J=[0,1]J = [0, 1] e non oltre.

La convergenza uniforme, invece, è un concetto più forte. Si dice che una successione (fn)n0(f_n)_{n \geq 0} converge uniformemente su un sottoinsieme JJ di II alla funzione ff se per ogni ϵ>0\epsilon > 0 esiste un numero naturale NϵN_{\epsilon} tale che per ogni n,m>Nϵn, m > N_{\epsilon} la disuguaglianza supxJfn(x)f(x)<ϵ\sup_{x \in J} |f_n(x) - f(x)| < \epsilon è soddisfatta. In altre parole, la differenza tra fn(x)f_n(x) e f(x)f(x) deve essere piccola uniformemente per tutti gli xx in JJ quando nn è sufficientemente grande. La convergenza uniforme implica la convergenza puntuale, ma non è vero il contrario. Un esempio classico di convergenza uniforme è la successione di funzioni fn(x)=x1+1nf_n(x) = \frac{x}{1 + \frac{1}{n}} definita su I=[0,1]I = [0, 1]. Come nn \to \infty, fn(x)f_n(x) converge puntualmente a f(x)=xf(x) = x, e la convergenza è uniforme su [0,1][0, 1] perché la massima differenza tra fn(x)f_n(x) e f(x)f(x) tende a zero per ogni xx.

La convergenza uniforme è particolarmente significativa in analisi matematica perché molte proprietà desiderabili delle funzioni si preservano quando si ha una convergenza uniforme. Ad esempio, se tutte le funzioni fnf_n sono continue e la successione converge uniformemente a una funzione ff, allora anche ff sarà continua. Questo risultato è formalizzato nel teorema della convergenza uniforme e continuità: se una successione di funzioni continue converge uniformemente, il limite della successione è anch'esso continuo. Lo stesso vale per la derivabilità: se ogni funzione della successione è derivabile e la successione converge uniformemente a una funzione ff, allora ff sarà derivabile.

Inoltre, la convergenza uniforme e l'integrazione sono strettamente collegate. Se una successione di funzioni continue fnf_n converge uniformemente a una funzione ff, allora possiamo scambiare il limite con l'integrale: limnabfn(x)dx=abf(x)dx\lim_{n \to \infty} \int_a^b f_n(x) dx = \int_a^b f(x) dx. Questa proprietà è particolarmente utile nell'analisi di serie di funzioni e nel calcolo degli integrali definiti.

Il criterio di Cauchy per la convergenza uniforme fornisce una condizione pratica per verificare la convergenza uniforme di una successione di funzioni: se per ogni ϵ>0\epsilon > 0 esiste un numero NϵN_{\epsilon} tale che per tutti n,m>Nϵn, m > N_{\epsilon} la disuguaglianza supxJfn(x)fm(x)<ϵ\sup_{x \in J} |f_n(x) - f_m(x)| < \epsilon è soddisfatta, allora la successione converge uniformemente.

Infine, un altro aspetto interessante riguarda la convergenza dominante. Se ogni funzione fnf_n di una successione è continua e c'è una funzione ff che domina tutte le fnf_n (in termini di modulo) e che è integrabile, allora la successione converge uniformemente e il limite dell'integrale della successione è uguale all'integrale del limite della successione. Questo è il teorema della convergenza dominata, che fornisce una potente tecnica per studiare il comportamento limite di funzioni integrate.

In generale, è cruciale comprendere che la convergenza uniforme non solo fornisce un controllo più rigoroso sulla differenza tra i termini della successione e il limite, ma preserva anche molte delle proprietà analitiche delle funzioni originali nel limite. Pertanto, quando si studiano successioni di funzioni, è essenziale verificare il tipo di convergenza per garantire che le proprietà desiderabili (come la continuità, la derivabilità o l'integrazione) siano preservate nel limite.

Come si calcola la serie di potenze e la convergenza delle funzioni derivate

Nel calcolo delle serie di potenze, uno degli aspetti centrali è il comportamento delle serie al variare dei parametri e la loro capacità di convergere in particolari intervalli. In questa sezione esploreremo alcuni esempi di funzioni definite da serie di potenze, prendendo come punto di partenza una funzione generica definita da un'espansione in serie.

Iniziamo considerando la serie di potenze della forma:

f(x)=n=0anxnf(x) = \sum_{n=0}^{\infty} a_n x^n

dove ana_n è il termine generale della serie, che può essere una funzione o una costante a seconda della definizione iniziale. Una proprietà importante di queste serie è il raggio di convergenza, che dipende dal comportamento dei termini ana_n. Ad esempio, se il raggio di convergenza è finito, la serie converge solo per valori di xx compresi all'interno di un certo intervallo. All'interno di questo intervallo, la funzione rappresentata dalla serie è continua e differenziabile.

Per capire la convergenza di una serie di potenze, possiamo applicare il criterio del rapporto. Esso stabilisce che la serie converge se la seguente condizione è soddisfatta:

limnan+1anx<1\lim_{n \to \infty} \left| \frac{a_{n+1}}{a_n} \right| \cdot |x| < 1

Un altro punto fondamentale è la possibilità di derivare la serie termine per termine. Questo processo può essere svolto in maniera sistematica, ottenendo la serie derivata della funzione. Se la serie di partenza è della forma:

f(x)=n=1xnn!f(x) = \sum_{n=1}^{\infty} \frac{x^n}{n!}

la sua derivata sarà data dalla serie:

f(x)=n=1nxn1n!f'(x) = \sum_{n=1}^{\infty} \frac{nx^{n-1}}{n!}

notando che i termini sono semplicemente trasformati attraverso l'operazione di derivazione.

Nel caso specifico, se consideriamo la funzione f1(x)=exf_1(x) = e^x, che ha una serie di potenze espansa come:

f1(x)=n=0xnn!f_1(x) = \sum_{n=0}^{\infty} \frac{x^n}{n!}

differenziandola otteniamo una nuova funzione, che è ancora exe^x. In generale, se una funzione è espressa come una serie di potenze, la sua derivata avrà la stessa forma, con una variazione nei termini che riflette la derivazione del termine generico.

In modo analogo, possiamo esplorare la funzione derivata di una funzione di ordine maggiore, come nel caso di f2(x)=xexf_2(x) = x e^x. La derivata di questa funzione porta alla forma:

f2(x)=ex+xexf_2'(x) = e^x + x e^x

vediamo che la funzione derivata cresce in complessità, ma può comunque essere rappresentata come una serie di potenze, in questo caso con termini che dipendono dalle potenze di xx. È interessante notare che il comportamento delle derivate successive ci fornisce una chiave di lettura per comprendere il comportamento della funzione nelle vicinanze del punto di espansione.

Passando a considerare altre funzioni, come quelle definite tramite serie di potenze con termini quadratici, vediamo che la struttura della serie e la sua derivazione sono strettamente legate. Ad esempio, la funzione:

f3(x)=n=1nxnf_3(x) = \sum_{n=1}^{\infty} n x^n

differenziata termine per termine fornisce una nuova funzione che ha la stessa forma della funzione originaria, ma con i termini modificati dalla derivata.

L'analisi di queste serie non si limita alla sola derivazione. Infatti, un altro passo fondamentale consiste nell'osservare come la funzione di potenza risponde a specifici valori di xx. Ad esempio, se consideriamo la serie di potenze di f(x)f(x) con x=1x = 1 o x=1x = -1, possiamo osservare che la convergenza della serie è garantita nell'intervallo di convergenza, ma può diventare problematica al di fuori di questo intervallo.

Il comportamento della serie al confine dell'intervallo di convergenza è un aspetto cruciale. Sappiamo, infatti, che per xx uguale a 1 o -1, la serie potrebbe non convergere, ma in certi casi specifici possiamo estendere la convergenza. Un esempio di tale fenomeno è dato dalla formula di Abel, che garantisce la convergenza uniforme della serie di potenze entro l'intervallo di convergenza. La uniformità della convergenza implica che la funzione risultante dalla somma della serie è continua e differenziabile, a meno che non si verifichino discontinuità o singolarità nel dominio della funzione.

In sintesi, calcolare e comprendere la convergenza di una serie di potenze richiede un'analisi approfondita del comportamento della funzione generata dalla serie. La derivazione e il calcolo del raggio di convergenza sono aspetti essenziali per determinare in quali intervalli la funzione esiste e quali proprietà possiede. Quando si trattano funzioni complesse, le serie di potenze forniscono uno strumento potente per studiare il comportamento locale e globale di una funzione, consentendo una comprensione precisa del suo sviluppo.