Nous abordons ici la question de la convergence uniforme des séries de Fourier. Pour obtenir un critère simple et suffisant, il nous faut imposer davantage de régularité aux fonctions considérées. Soit J:=[α,β]J := [\alpha, \beta] un intervalle compact parfait. Nous disons qu'une fonction fSC(J)f \in SC(J) est par morceaux continuellement différentiable (ou possède des dérivées continues par morceaux) si il existe une partition (α0,α1,,αn)(\alpha_0, \alpha_1, \dots, \alpha_n) de JJ telle que fj:=f(αj,αj+1)f_j := f|_{(\alpha_j, \alpha_{j+1})} pour 0jn10 \leq j \leq n-1 ait une dérivée uniformément continue.

Lemme 7.19 : La fonction fSC(J)f \in SC(J) est par morceaux continuellement différentiable si et seulement s'il existe une partition (α0,,αn)(\alpha_0, \dots, \alpha_n) de JJ avec les propriétés suivantes :

(i) f(αj,αj+1)C1(αj,αj+1)f|_{(\alpha_j, \alpha_{j+1})} \in C^1(\alpha_j, \alpha_{j+1}) pour 0jn10 \leq j \leq n-1.
(ii) Pour 0jn10 \leq j \leq n-1 et 1kn1 \leq k \leq n, les limites f(αj+0)f'(\alpha_j + 0) et f(αk0)f'(\alpha_k - 0) existent.

Démonstration : "⇒" Par définition de la différentiabilité par morceaux, (i) découle immédiatement, et (ii) résulte du théorème 2.1. "⇐" D'après la proposition III.2.24, si la partition satisfait les conditions (i) et (ii), alors fjC(αj,αj+1)f'_j \in C(\alpha_j, \alpha_{j+1}) a une extension continue sur [αj,αj+1][\alpha_j, \alpha_{j+1}]. Par conséquent, le théorème III.3.13 implique que fjf'_j est continuellement différentiable.

Si fSC(J)f \in SC(J) est par morceaux continuellement différentiable, le lemme 7.19 garantit l'existence d'une partition (α0,,αn)(\alpha_0, \dots, \alpha_n) de JJ et d'une fonction dérivée normalisée par morceaux continue ff', telle que f(αj1,αj)=f(αj1,αj)f'|_{(\alpha_{j-1}, \alpha_j)} = f'|_{(\alpha_{j-1}, \alpha_j)} pour 0jn10 \leq j \leq n-1. Enfin, on appelle fSC2πf \in SC_{2\pi} par morceaux continuellement différentiable si f[0,2π]f|_{[0, 2\pi]} satisfait ces propriétés.

Remarques 7.20
(a) Si fSC2πf \in SC_{2\pi} est par morceaux continuellement différentiable, alors ff' appartient à SC2πSC_{2\pi}.
Démonstration : Cela découle directement de la définition de la normalisation sur les frontières de l'intervalle.

(b) (règle de dérivation) Si fC2πf \in C_{2\pi} est par morceaux continuellement différentiable, alors f^k=ikf^k\hat{f'}_k = ik\hat{f}_k pour kZk \in \mathbb{Z}, où f^k:=(f^)k\hat{f'}_k := (\hat{f'})_k.

Démonstration : Supposons 0<α1<<αn1<2π0 < \alpha_1 < \dots < \alpha_{n-1} < 2\pi soient tous les points de discontinuité de ff' dans (0,2π)(0, 2\pi). Il découle de l'additivité des intégrales et de l'intégration par parties (avec α0:=0\alpha_0 := 0 et αn:=2π\alpha_n := 2\pi) que :

02πf(t)eiktdt=2πikf^k.\int_0^{2\pi} f'(t) e^{ -ikt} dt = 2\pi ik \hat{f}_k.

Ainsi, f^k=ikf^k\hat{f'}_k = ik \hat{f}_k pour kZk \in \mathbb{Z}.

Nous pouvons maintenant établir un critère simple pour la convergence uniforme et absolue des séries de Fourier.

Théorème 7.21 : Supposons que f:RCf : \mathbb{R} \to \mathbb{C} soit 2π2\pi-périodique, continue et par morceaux continuellement différentiable. La série de Fourier SfS_f de ff sur R\mathbb{R} converge normalement vers ff.

Démonstration : En utilisant les remarques 7.20(a) et (b), l'inégalité de Cauchy-Schwarz pour les séries, et la relation de complétude, il découle que la série k=f^keikt\sum_{k=-\infty}^{\infty} \hat{f}_k e^{ikt} possède une majoration convergente. Cela permet d'appliquer le critère de majoration de Weierstrass (théorème V.1.6), impliquant la convergence normale de la série de Fourier SfS_f.

De plus, la série SfS_f converge dans la norme SC2πSC_{2\pi} vers une fonction gg continue et 2π2\pi-périodique. Nous avons Snfg0\|S_n f - g\|_{\infty} \to 0 lorsque nn \to \infty, ce qui montre que la série converge aussi dans la norme L2L^2. Puisque la norme \infty est plus forte que la norme L2L^2, la convergence normale est assurée, et la série SfS_f converge normalement vers ff.

Exemples 7.22
(a) Pour tπ|t| \leq \pi, nous avons :

k=0cos((2k+1)t)(2k+1)2=4π2.\sum_{k=0}^{\infty} \frac{\cos((2k+1)t)}{(2k+1)^2} = -\frac{4}{\pi^2}.

La série converge normalement sur R\mathbb{R}, ce qui découle directement du théorème précédent.
(b) (Décomposition en fractions partielles de la cotangente) Pour zCZz \in \mathbb{C} \setminus \mathbb{Z}, on a :

cot(πz)=n=1(1z+n1zn).\cot(\pi z) = \sum_{n=1}^{\infty} \left( \frac{1}{z+n} - \frac{1}{z-n} \right).

Applications 7.23
(a) La formule d'Euler pour ζ(2k)\zeta(2k) donne pour kNk \in \mathbb{N} :

ζ(2k)=(1)k+1(2π)2k2(2k)!n=11n2k.\zeta(2k) = \frac{(-1)^{k+1} (2\pi)^{2k}}{2(2k)!} \sum_{n=1}^{\infty} \frac{1}{n^{2k}}.

Par exemple, ζ(2)=π26\zeta(2) = \frac{\pi^2}{6}, ζ(4)=π490\zeta(4) = \frac{\pi^4}{90}, et ζ(6)=π6945\zeta(6) = \frac{\pi^6}{945}.

(b) La représentation en produit de sin(πz)\sin(\pi z) pour zCz \in \mathbb{C} s'écrit :

n=1(1z2n2)=sin(πz)πz.\prod_{n=1}^{\infty} \left( 1 - \frac{z^2}{n^2} \right) = \frac{\sin(\pi z)}{\pi z}.

Cela permet de démontrer des résultats intéressants, comme le produit de Wallis.

Comment résoudre les équations différentielles linéaires du second ordre à coefficients constants ?

Les équations différentielles linéaires du second ordre apparaissent fréquemment dans divers domaines des sciences appliquées et de l’ingénierie. Parmi ces équations, celle de la forme u+bu+cu=g(t)u'' + b u' + c u = g(t), où bb et cc sont des constantes réelles et g(t)g(t) est une fonction donnée, est l'une des plus étudiées. La solution de cette équation dépend de la nature des racines du polynôme caractéristique associé à l'équation homogène u+bu+cu=0u'' + b u' + c u = 0, ce qui détermine le comportement des solutions générales.

Le problème d'initialisation correspondant est défini par les conditions u(0)=a1u(0) = a_1 et u(0)=a2u'(0) = a_2, où (a1,a2)K2(a_1, a_2) \in \mathbb{K}^2, et la solution qui en résulte peut être obtenue en utilisant la théorie des systèmes d'équations différentielles linéaires du premier ordre dans l'espace des phases.

Lorsqu'on considère le système x=Ax+f(t)x' = A x + f(t), où AA est une matrice de coefficients constants, une des méthodes utilisées pour résoudre ce système consiste à recourir à une matrice fondamentale. Cela nous permet de traiter des systèmes de plus haute dimension en réduisant le problème à des équations du premier ordre. L'un des résultats fondamentaux en théorie des systèmes linéaires est que toute matrice fondamentale pour le système x=Axx' = A x permet de résoudre une équation linéaire de cette forme. En particulier, la solution générale d'une telle équation peut être écrite sous forme etAX(0)e^{tA} X(0), où X(t)X(t) est la matrice fondamentale et X(0)X(0) est la condition initiale.

Dans ce contexte, les valeurs propres de la matrice AA jouent un rôle crucial dans le comportement asymptotique des solutions. Ces valeurs propres sont déterminées en résolvant le polynôme caractéristique det(λA)=0\det(\lambda - A) = 0, dont les racines peuvent être réelles ou complexes, et influencent la stabilité du système dynamique. Si les racines sont réelles et distinctes, les solutions croissent ou décroissent de manière exponentielle. Si les racines sont complexes, les solutions oscillent, typiquement avec un terme exponentiel modifiant l'amplitude de l'oscillation.

Dans le cas particulier où les racines sont complexes conjuguées, comme dans le cas d'un oscillateur harmonique, les solutions sont de la forme eαtcos(ωt)e^{\alpha t} \cos(\omega t) et eαtsin(ωt)e^{\alpha t} \sin(\omega t), où α\alpha est une constante réelle et ω\omega est la fréquence angulaire. Ce type de solution apparaît fréquemment dans l’étude des oscillateurs non amortis, des circuits électriques ou des systèmes mécaniques à ressort.

Un autre aspect important est la méthode de variation des constantes, qui permet de résoudre l'équation non homogène en intégrant les solutions de l'équation homogène avec des fonctions qui dépendent du terme g(t)g(t). La solution particulière à l'équation u+bu+cu=g(t)u'' + b u' + c u = g(t) peut être obtenue en appliquant la formule de variation des constantes, où l'on considère une solution de la forme v(t)=0te(tτ)Af(τ)dτv(t) = \int_{0}^{t} e^{(t-\tau)A} f(\tau) \, d\tau.

Une fois les solutions particulières et générales obtenues, on peut les combiner pour former la solution complète de l’équation différentielle. Les applications de ces équations sont vastes, allant des vibrations mécaniques aux phénomènes électriques, en passant par les processus de diffusion et de relaxation dans les systèmes physiques.

Les méthodes de calcul des matrices fondamentales et des solutions d'équations différentielles linéaires ne se limitent pas aux systèmes d'ordre deux. Elles s'étendent à des systèmes plus complexes, dans lesquels les solutions sont obtenues en appliquant les techniques de décomposition en valeurs propres et en utilisant des transformations de base pour simplifier les calculs. Ces techniques sont essentielles dans la modélisation et la compréhension des systèmes dynamiques complexes, que ce soit dans le contexte des systèmes mécaniques, électriques ou même économiques.

Endtext

La continuité et les propriétés des intégrales : un cadre formel pour l'analyse

Soit ff et gg deux fonctions réelles définies sur un intervalle II et mesurables. Si l’on a fgf \leq g, alors l'intégration est une fonction monotone, c'est-à-dire que si l'on intègre une fonction ff plus petite que gg, l'intégrale de ff sera toujours inférieure ou égale à celle de gg. Cette propriété repose sur la linéarité de l'intégrale et sur le fait que les intégrales de fonctions mesurables sont continues en ce sens. L'intégrale, dans ce cas, peut être vue comme une forme linéaire continue sur l’espace des fonctions mesurables.

Prenons maintenant l'exemple d’un espace vectoriel VV réel. On y définit ce que l'on appelle une forme linéaire ou fonctionnelle linéaire, c’est-à-dire une application linéaire φ:VR\varphi : V \to \mathbb{R}. Si VV est un espace vectoriel réel et PP est un cône convexe non vide de VV, où les éléments de PP satisfont des conditions spécifiques de stabilité sous addition et multiplication par des scalaires positifs, PP est un cône convexe positif, c’est-à-dire que si xPx \in P, alors λxP\lambda x \in P pour tout λ0\lambda \geq 0, et PP est convexe, c’est-à-dire que pour tous x,yPx, y \in P, l'intervalle [x,y][x, y] est inclus dans PP. Cette structure permet d'imposer un ordre sur VV, ce qui définit un espace vectoriel ordonné.

Lorsque cet espace est associé à une forme linéaire φ\varphi, celle-ci est dite positive si φ(x)0\varphi(x) \geq 0 pour tout xPx \in P. Cela revient à dire que la forme linéaire est croissante. Une telle forme linéaire est monotone, ce qui signifie que si xyx \leq y, alors φ(x)φ(y)\varphi(x) \leq \varphi(y), ce qui est une propriété fondamentale dans l'analyse des intégrales, notamment dans le cadre des espaces vectoriels normés et des espaces de Banach.

Si VV est un espace vectoriel normé et \leq est un ordre linéaire sur VV, on parle d’un espace vectoriel normé ordonné si le cône positif est fermé. Cette propriété de fermeture du cône est essentielle car elle garantit que la convergence des suites de fonctions mesurables dans un tel espace se traduit par la préservation des propriétés de l'intégrale. En effet, si xjxx_j \to x et yjyy_j \to y, alors xjyjx_j \leq y_j pour presque tous jj, ce qui implique xyx \leq y.

Dans le cadre des intégrales, il est aussi crucial de comprendre que l’intégrale de fonctions non négatives, par exemple, peut être strictement positive. Supposons que fS+(I)f \in S^+(I) et que ff soit continue en aa, avec f(a)>0f(a) > 0. Alors, sous certaines conditions de continuité locale, l’intégrale de ff sur un intervalle contenant aa est strictement positive. En d'autres termes, l'intégrale d'une fonction continue et strictement positive en un point donné sera également positive, ce qui renforce l’idée que l’intégration préserve les propriétés de continuité et de signe des fonctions intégrées.

Une propriété importante à noter est celle qui découle du premier théorème fondamental du calcul intégral : si ff est une fonction intégrable sur II, alors la fonction F(x)=αxf(ξ)dξF(x) = \int_{\alpha}^{x} f(\xi) d\xi est Lipschitzienne, c’est-à-dire qu’il existe une constante CC telle que F(x)F(y)Cxy|F(x) - F(y)| \leq C|x - y| pour tout x,yIx, y \in I. Cela garantit la régularité de la fonction primitive FF de ff, même si ff peut ne pas être continue partout.

Enfin, le deuxième théorème fondamental du calcul assure que si ff est continue, alors ff possède une primitive, et l'intégrale de ff sur un intervalle [α,β][\alpha, \beta] est simplement la différence entre les valeurs de la primitive en β\beta et α\alpha. Cette simplification montre que l'intégration peut être considérée comme l'opération inverse de la dérivation dans le contexte des fonctions continues.

Il est également essentiel de noter que l’intégrale permet de relier des propriétés analytiques fondamentales telles que la continuité, la monotonicité et la convexité, tout en fournissant un cadre unifié pour analyser les espaces fonctionnels. Dans ce contexte, la théorie des cônes et des ordres linéaires dans les espaces vectoriels joue un rôle central, car elle permet de traiter des questions d’intégration dans des espaces plus généraux que Rn\mathbb{R}^n, ce qui ouvre la voie à des extensions de la théorie de l'intégration à des espaces de Banach ordonnés, par exemple.