La fonction ζ de Riemann, notée ζ(s), est une extension analytique de la série ∑ₙ 1/nˢ pour les nombres complexes s ≠ 1. Son importance dans l’analyse complexe et la théorie des nombres est capitale. Pour tout s ∈ ℂ tel que Re(s) > 1, la série converge absolument, ce qui permet de définir ζ(s) sur cette demi-plan. Mais son prolongement analytique au reste du plan complexe (à l’exception de s = 1, où elle admet un pôle simple) révèle la richesse structurelle de cette fonction.

L’existence de cette continuation analytique repose sur des identités fonctionnelles précises, notamment sur la représentation par séries impliquant les nombres de Bernoulli B₂ⱼ, et sur des fonctions auxiliaires telles que Fₘ(s), définies pour m ∈ ℕ et Re(s) > -2m. Par exemple, pour tout s ∈ ℂ avec Re(s) > −2m et s ≠ 1, la fonction ζ(s) peut être représentée par une formule impliquant une somme finie de termes rationnels et une fonction Fₘ(s) analytique, consolidant ainsi sa continuité analytique sur un domaine plus large que celui de sa définition initiale.

Un des résultats les plus remarquables concernant ζ est sa représentation par un produit infini sur les nombres premiers :
ζ(s) = ∏ₚ (1 − p⁻ˢ)⁻¹ pour Re(s) > 1.
Ce produit d’Euler relie de manière spectaculaire la fonction ζ à la distribution des nombres premiers. En effet, il encode l'arithmétique des entiers dans une fonction analytique, révélant une structure multiplicative cachée derrière une série additive.

La convergence absolue de cette série et de ce produit repose sur la décroissance rapide de 1/nˢ lorsque Re(s) > 1. En utilisant le critère du majorant, on démontre aisément cette convergence. Cela ouvre la voie à de multiples théorèmes fondamentaux : la non-nullité de ζ(s) dans la région Re(s) > 1, l'existence du prolongement analytique mentionné plus haut, et la construction des formules asymptotiques sur la distribution des nombres premiers.

La divergence de la série des inverses des nombres premiers ∑ 1/pₖ est une autre pierre angulaire du sujet. Elle montre que les nombres premiers, bien que de plus en plus rares, ne peuvent être trop espacés. Cette divergence est démontrée par une estimation qui fait intervenir le développement logarithmique et la série de Taylor de log(1 − z)⁻¹, renforçant la compréhension de la densité des nombres premiers.

Ce lien entre ζ(s) et la densité des nombres premiers se manifeste dans le théorème des nombres premiers :
π(x) ~ x / log x,
où π(x) dénote le nombre de nombres premiers inférieurs ou égaux à x. Ce résultat, qui repose sur les propriétés analytiques de ζ, en particulier sur l’emplacement de ses zéros, a des conséquences profondes pour la distribution des premiers.

L’erreur relative entre π(n) et n / log n, mesurée par la fonction r(n) = (π(n) − n / log n) / (n / log n), est asymptotiquement équivalente à O(1 / log n). Cependant, une estimation plus fine, conjecturée mais non encore prouvée, suggère que r(n) = O(n⁻¹ᐟ²⁺ᵋ) pour tout ε > 0. Cette amélioration serait équivalente à la célèbre hypothèse de Riemann, qui stipule que tous les zéros non triviaux de ζ(s) ont une partie réelle égale à 1/2.

La fonction ζ a en effet deux types de zéros : les zéros triviaux (situés sur les entiers négatifs pairs) et les zéros non triviaux, dont la localisation est le cœur de l’hypothèse de Riemann. Cette hypothèse, si elle était démontrée, affinerait considérablement notre compréhension de la distribution des nombres premiers.

On sait déjà que ζ(s) n’a aucun zéro dans la région Re(s) > 1, ce qui résulte directement de l’expressi

Quel est le théorème de la valeur moyenne pour les fonctions différentiables et son application dans le calcul multivariable ?

Lorsqu'une fonction f:XFf : X \to F est différentiable, il est possible d'exprimer des inégalités entre les valeurs de la fonction en des points différents de son domaine. Le théorème de la valeur moyenne en analyse multivariable, formulé dans ce contexte, s'écrit comme suit : pour x,yXx, y \in X tels que l'intervalle [x,y][x, y] soit inclus dans XX, il existe une constante t[0,1]t \in [0, 1] telle que :

f(x)f(y)supt[0,1]f(x+t(yx))(yx)yx\| f(x) - f(y) \| \leq \sup_{t \in [0, 1]} \| \partial f(x + t(y - x)) (y - x) \| \cdot \| y - x \|

Ici, l'expression f\partial f représente la dérivée de ff, et la norme \| \cdot \| mesure la distance dans l'espace FF. Ce résultat généralise la formule classique de la valeur moyenne pour les fonctions à une seule variable en l'étendant à des espaces de Banach et à des fonctions vectorielles.

L'idée principale de ce théorème est d'estimer la différence entre f(x)f(x) et f(y)f(y) en termes de la dérivée de ff sur l'intervalle reliant xx et yy. En effet, la fonction auxiliaire φ(t):=f(x+t(yx))\varphi(t) := f(x + t(y - x)) est introduite pour relier xx et yy via un paramètre tt. Grâce à la règle de la chaîne, on peut démontrer que la dérivée de cette fonction est donnée par f(x+t(yx))(yx)\partial f(x + t(y - x)) (y - x), ce qui permet d'appliquer le théorème de la valeur moyenne.

Dans le cas où ff est continûment différentiable, on peut aller plus loin et obtenir une version intégrale de ce théorème :

f(y)f(x)=01f(x+t(yx))(yx)dtf(y) - f(x) = \int_0^1 \partial f(x + t(y - x)) (y - x) \, dt

Cette forme permet de relier la variation de ff entre xx et yy à une intégrale de la dérivée sur l'intervalle [0,1][0, 1], offrant ainsi une meilleure compréhension de l'évolution de ff entre ces deux points.

Application aux fonctions différentiables

Un corollaire important du théorème est que si la dérivée de ff est continue, la variation de ff entre deux points peut être contrôlée de manière uniforme. En particulier, si ff est différentiable et si la norme de sa dérivée est bornée sur XX, alors ff est une fonction de Lipschitz. Cela signifie qu'il existe une constante α\alpha telle que pour tous x,yXx, y \in X, on ait :

f(y)f(x)αyx\| f(y) - f(x) \| \leq \alpha \| y - x \|

Cela implique que ff est continue et que la variation de ff entre deux points xx et yy est directement proportionnelle à la distance entre xx et yy.

En outre, si XX est un espace convexe et si la dérivée de ff est bornée, il est possible de prouver que ff est continue de Lipschitz, ce qui renforce les conclusions tirées du théorème de la valeur moyenne.

Fonction constante et critère d'extremum local

Une propriété notable de ce théorème est qu'il fournit un critère nécessaire pour qu'une fonction atteigne un extremum local. Si f:XRf : X \to \mathbb{R} a un point d'extrémum local en x0x_0 et si toutes les dérivées directionnelles existent en ce point, alors Dvf(x0)=0D_v f(x_0) = 0 pour tout vecteur v0v \neq 0. Cela signifie que les dérivées de ff dans toutes les directions doivent être nulles au point x0x_0, ce qui est un critère classique de présence d'un extremum local dans les fonctions de plusieurs variables.

Propriétés supplémentaires de la différentiabilité

Si la dérivée f\partial f est continue, cela implique également que la fonction ff est continue, et si l'on considère une séquence de fonctions fkf_k qui convergent localement à ff, la dérivée de la limite ff est égale à la limite des dérivées fk\partial f_k. Cette propriété peut être utilisée pour étendre des résultats connus en calcul différentiel multivariable et est une partie essentielle de l'analyse des suites de fonctions différentiables.

Conclusion sur la continuité et la différentiabilité

Dans le cadre de la théorie des espaces de Banach et de l'analyse multivariable, le théorème de la valeur moyenne est un outil central pour relier les propriétés de différentiabilité d'une fonction à son comportement entre deux points. En fournissant une estimation de la différence entre les valeurs de la fonction, il permet d'explorer des notions telles que la continuité de Lipschitz et la constance locale des fonctions. Ces concepts sont cruciaux non seulement en analyse mathématique, mais également dans de nombreuses applications pratiques où la variation d'une fonction doit être contrôlée ou limitée.