Esaminando il comportamento di alcune funzioni e delle loro derivate, possiamo osservare comportamenti interessanti e a volte sorprendenti che possono sfuggire all'intuizione iniziale. Una questione affascinante che emerge in queste analisi riguarda l'esistenza e la continuità delle derivate parziali e la possibilità che una funzione ammetta un'estensione continua in determinati punti. Il caso del piano tangente è particolarmente rivelatore: nonostante il comportamento apparentemente problematico all'origine, in molti casi il piano tangente esiste comunque. Questo è dovuto al fatto che l'ordine con cui il numeratore si annulla è sufficientemente elevato rispetto a quello del denominatore.

Ad esempio, consideriamo la funzione definita come f(x,y)=2x+y4x2+y2f(x, y) = \frac{2x + y}{4x^2 + y^2}. Esaminando le curve di livello L0L_0 e L1L_1 per valori specifici di f(x,y)f(x, y), notiamo che la funzione ha un dominio che esclude il punto (0,0)(0,0), ma è definita in tutta la zona rimanente. Le curve di livello L0L_0 e L1L_1 mostrano che la funzione assume valori differenti a seconda delle variabili. La prima curva descrive il set di punti in cui f(x,y)=0f(x, y) = 0, mentre la seconda è il set in cui la funzione assume valore pari a 1. La funzione, dunque, presenta un comportamento interessante che vale la pena esplorare, specialmente in relazione alla sua estensione continua all'origine.

Nel caso della funzione f(x,y)=2x+y4x2+y2f(x, y) = \frac{2x + y}{4x^2 + y^2}, lungo l'asse xx, la funzione non ha limite quando x0x \to 0, il che implica che non esiste un'estensione continua all'origine. Ciò accade a causa della presenza del termine x|x| nel numeratore. Questo comportamento evidenzia una discontinuità lungo l'asse xx, ma non lungo l'asse yy.

Una volta compreso il comportamento di queste curve, possiamo concentrarci sul calcolo delle derivate direzionali. Per farlo, possiamo utilizzare il vettore unitario Q=(cosθ,sinθ)Q = (\cos \theta, \sin \theta). Calcolando la derivata direzionale in una direzione specifica, otteniamo un valore massimo di 22, che corrisponde alla derivata parziale fx(0,1)\frac{\partial f}{\partial x}(0,1). Questa derivata massima si verifica lungo la direzione θ=0\theta = 0, il che suggerisce che il piano tangente è più inclinato in quella direzione rispetto ad altre.

La derivata direzionale è un concetto cruciale, in quanto permette di comprendere la velocità di variazione della funzione lungo qualsiasi direzione specifica. In questo caso, il massimo della derivata si verifica in direzione orizzontale, mentre lungo la direzione verticale, la derivata è nulla, il che ci dice che la funzione si comporta in modo piatto lungo l'asse delle ordinate.

Inoltre, la presenza di un massimo per la derivata direzionale lungo la direzione θ=0\theta = 0 ci permette di concludere che la funzione in esame è più ripida lungo l'asse delle ascisse, ma si appiattisce completamente lungo l'asse delle ordinate. Questo comportamento ricorda l'analogia di una superficie che ha una forma simile a un'onda: quando ci si "surf" lungo una direzione, il percorso è piatto, ma se lo si percorre lungo l'altra direzione, la superficie è estremamente ripida. Queste osservazioni sono importanti per capire come analizzare le superfici più complesse in matematica.

Oltre al calcolo delle derivate direzionali, è importante anche comprendere il comportamento delle derivate parziali in relazione alla continuità della funzione. Ad esempio, la funzione f(x,y)=cos(x2+y2)arctan(x)f(x, y) = \cos(x^2 + y^2) \arctan(x) è continua in tutta R2\mathbb{R}^2, poiché entrambi i fattori, cos(x2+y2)\cos(x^2 + y^2) e arctan(x)\arctan(x), sono funzioni continue. Tuttavia, per determinare la derivabilità, dobbiamo considerare anche i limiti delle derivate parziali, specialmente nel punto di origine, dove la funzione potrebbe presentare difficoltà. L'esame della continuità e della derivabilità richiede l'uso di tecniche standard come l'espansione in serie di Taylor, e talvolta è necessario calcolare i limiti delle differenze quozienti.

Nel caso della funzione f(x,y)=x4+3y2x6+y2f(x, y) = \frac{x^4 + 3y^2}{x^6 + y^2}, la situazione è più complessa. Mentre la funzione è continua ovunque tranne che nell'origine, non possiamo concludere che sia continua in quel punto senza un'analisi dettagliata del comportamento lungo le curve specifiche. Lungo le assi coordinate, la funzione si annulla, ma lungo altre curve, come la curva cubica y=x3y = x^3, la funzione non tende a zero, il che implica che la funzione non è continua all'origine. Questo è un esempio di come la continuità e la derivabilità possano dipendere dal percorso lungo cui si esamina il comportamento della funzione.

Per concludere, è fondamentale capire che il comportamento delle funzioni in analisi multivariata può essere significativamente diverso a seconda del punto in cui ci si trova e della direzione in cui si calcolano le derivate. La comprensione delle curve di livello, delle derivate parziali e direzionali, e delle condizioni di continuità e derivabilità è essenziale per comprendere i concetti avanzati di differenziazione in più variabili. Un'analisi accurata del comportamento di una funzione in diversi punti e direzioni può rivelare molto riguardo alla sua natura e alle sue proprietà locali.

Come Determinare la Convergenza Uniforme delle Serie di Potenza e le Sue Implicazioni

La convergenza uniforme delle serie di potenza è un concetto cruciale nello studio delle funzioni analitiche. Se una serie di potenza converge in un intervallo, è importante sapere se tale convergenza è uniforme, poiché questo influirà sulla possibilità di scambiare l'ordine delle operazioni, come la derivazione, con la somma infinita.

Sia data una serie di potenza n=0an(xx0)n\sum_{n=0}^{\infty} a_n (x - x_0)^n, con raggio di convergenza r>0r > 0. Si considera l'intervallo [x0r,x0+r][x_0 - r, x_0 + r] in cui la serie converge. La convergenza uniforme significa che per ogni a(x0r,x0+r)a \in (x_0 - r, x_0 + r), la serie converge uniformemente nell'intervallo [a,x0+r][a, x_0 + r], o viceversa, quando la serie converge in x0rx_0 - r, la convergenza è uniforme nell'intervallo [x0r,a][x_0 - r, a]. Questa proprietà garantisce che, all'interno di questo intervallo, non vi siano "salti" nella convergenza della serie.

Un risultato fondamentale per le serie di potenza è che la derivata di una serie di potenza può essere ottenuta derivando ogni termine della serie separatamente. Questo è formalizzato dal Teorema 6.12: se una serie di potenza ha un raggio di convergenza rr, allora la serie derivata ha lo stesso raggio di convergenza. Inoltre, la derivata della somma della serie di potenza è uguale alla serie ottenuta derivando ogni termine:

f(x)=n=1nan(xx0)n1.f'(x) = \sum_{n=1}^{\infty} n a_n (x - x_0)^{n-1}.

Questo risultato porta a una comprensione più profonda del comportamento delle funzioni analitiche, poiché implica che le derivate di una funzione rappresentata da una serie di potenza siano anch'esse rappresentabili tramite una serie di potenza con lo stesso raggio di convergenza.

Inoltre, applicando successivamente il Teorema 6.12, si giunge al Teorema 6.13, che afferma che una funzione f(x)f(x) rappresentata da una serie di potenza di raggio di convergenza rr è infinitamente derivabile nell'intervallo di convergenza. I coefficienti della serie sono determinati in modo univoco dalla funzione stessa, come evidenziato dal Teorema 6.13:

an=f(n)(x0)n!.a_n = \frac{f^{(n)}(x_0)}{n!}.

Questo teorema ha una grande importanza teorica e pratica, poiché fornisce una relazione diretta tra i coefficienti della serie di potenza e le derivate della funzione, facilitando l'analisi e la costruzione di espansioni di Taylor.

Il Principio di Identità delle Serie di Potenza, formalizzato nel Teorema 6.14, afferma che se due serie di potenza convergono allo stesso modo in un intervallo, allora i loro coefficienti devono essere identici. Questo principio ha implicazioni cruciali per l'unicità delle espansioni in serie di potenza e stabilisce che ogni funzione analitica ammette una serie di potenza unica associata ad essa.

Un concetto strettamente correlato alla serie di potenza è la Serie di Taylor, che espande una funzione liscia attorno a un punto x0x_0 come una serie infinita di termini. La Serie di Taylor di una funzione ff attorno a x0x_0 è definita come:

f(x)=n=0f(n)(x0)n!(xx0)n.f(x) = \sum_{n=0}^{\infty} \frac{f^{(n)}(x_0)}{n!} (x - x_0)^n.

Quando la funzione f(x)f(x) è analitica nell'intervallo di convergenza, questa serie di potenza coincide esattamente con la serie di potenza della funzione. Tuttavia, non tutte le funzioni ammettono una serie di Taylor che converga alla funzione stessa. Un esempio classico è la funzione f(x)=e1/x2f(x) = e^{ -1/x^2} per x0x \neq 0, la quale ha tutte le derivate nulle in x=0x = 0, e quindi la sua serie di McLaurin è identicamente nulla, pur essendo la funzione non nulla.

La funzione f(x)f(x) è detta analitica nell'intervallo II se ammette una serie di Taylor che converge alla funzione in ogni punto dell'intervallo. Questo concetto è essenziale per capire quando una funzione può essere rappresentata da una serie di potenza e come questa rappresentazione può essere utilizzata per analizzare la funzione stessa. Se ff è analitica in II, le operazioni come la somma e il prodotto di funzioni analitiche rimangono funzioni analitiche. Questo è un risultato potente che consente di costruire nuove funzioni analitiche a partire da funzioni già note.

Infine, quando si studiano le serie di potenza, non si può prescindere dalla teoria delle funzioni periodiche, che trova applicazione nelle serie di Fourier. Le funzioni periodiche, come quelle trigonometriche, sono di fondamentale importanza nel trattamento delle serie di potenza, poiché molte funzioni di interesse si comportano in modo periodico, soprattutto in contesti fisici e ingegneristici. Le serie di Fourier, che sono una combinazione lineare di seni e coseni, sono utilizzate per rappresentare funzioni periodiche, e la loro teoria è strettamente legata alla convergenza delle serie di potenza in intervalli periodici.

In conclusione, è fondamentale comprendere che non tutte le funzioni sono analitiche e che non tutte le serie di potenza convergono a una funzione in ogni punto del loro intervallo di convergenza. La differenza tra una serie che rappresenta esattamente una funzione e una che non lo fa è sottile, ma importante. Inoltre, il fatto che una funzione sia analitica implica che le sue derivate siano rappresentabili da serie di potenza, un concetto che ha ampie applicazioni sia in matematica pura che nelle sue applicazioni.

Dove e come convergono le serie di funzioni composte?

Consideriamo una funzione definita come composizione di due funzioni analitiche, f(x)=h(g(x))f(x) = h(g(x)), dove g(x)=x21g(x) = x^2 - 1 e h(y)=n=1y2n1nn+1h(y) = \sum_{n=1}^{\infty} \frac{y^{2n-1}}{\sqrt{n} - \sqrt{n + 1}}. La funzione gg è analitica su tutto R\mathbb{R}, mentre hh è analitica in (1,1)(-1, 1) come somma di una serie di potenze convergente in quell’intervallo. La funzione composta ff sarà dunque analitica nei punti xx tali che g(x)(1,1)g(x) \in (-1,1), ovvero per x(2,0)(0,2)x \in (-\sqrt{2}, 0) \cup (0, \sqrt{2}). Questo ci fornisce il dominio di analiticità della funzione: Dom(f)=(2,0)(0,2)\text{Dom}(f) = (-\sqrt{2}, 0) \cup (0, \sqrt{2}).

Il comportamento della serie cambia drasticamente fuori da questo dominio. Se x2|x| \geq \sqrt{2}, la serie diverge. Inoltre, anche all’interno del dominio, ci sono punti di interesse: per esempio, f(0)=n=1(1)nnn+1f(0) = \sum_{n=1}^\infty \frac{(-1)^n}{\sqrt{n} - \sqrt{n+1}}, che tende a meno infinito. Questo mostra che il punto zero non appartiene al dominio effettivo della funzione, anche se g(0)=1(1,1)g(0) = -1 \in (-1,1). Il dominio finale della funzione è quindi (2,0)(0,2)(-\sqrt{2}, 0) \cup (0, \sqrt{2}), con esclusione del punto zero.