Soit EE un espace de Banach de dimension finie et AL(E)A \in L(E) une matrice linéaire associée. Le déterminant d’une matrice carrée AA, noté det(A)\text{det}(A), est défini par la formule det(A):=det[A]E\text{det}(A) := \text{det} [A]_{E}, où EE est une base de EE. Ce déterminant est bien défini, c’est-à-dire qu’il est indépendant du choix de la base EE. De plus, il satisfait les propriétés classiques des déterminants : det(1E)=1\text{det}(1_E) = 1 et det(AB)=det(A)det(B)\text{det}(AB) = \text{det}(A) \text{det}(B) pour A,BL(E)A, B \in L(E).

Le polynôme caractéristique associé à AA, noté det(λIA)\text{det}(\lambda I - A), est un polynôme en λ\lambda, dont les racines sont les valeurs propres de AA. Ce polynôme peut être écrit sous la forme k=0mαkλmk\sum_{k=0}^{m} \alpha_k \lambda^{m-k}, où les coefficients αk\alpha_k sont des fonctions symétriques élémentaires des valeurs propres λ1,,λm\lambda_1, \dots, \lambda_m, telles que αm=1\alpha_m = 1, αm1=tr(A)\alpha_{m-1} = \text{tr}(A), et α0=det(A)\alpha_0 = \text{det}(A). Les valeurs propres de AA correspondent aux racines de ce polynôme, et leur nombre est donné par la multiplicité algébrique.

Les propriétés du polynôme caractéristique conduisent à la notion de multiplicité géométrique d’une valeur propre. La multiplicité géométrique d’une valeur propre λ\lambda de AA est définie par dim(ker(λIA))\dim(\ker(\lambda I - A)), c’est-à-dire la dimension de l’espace propre associé à λ\lambda. Cette multiplicité géométrique ne peut jamais dépasser la multiplicité algébrique de λ\lambda. Par ailleurs, si les multiplicités géométrique et algébrique de λ\lambda sont égales, alors on dit que λ\lambda est une valeur propre simple, et la matrice AA est dite semi-simple.

Une autre notion importante est celle de la forme normale de Jordan, qui est utilisée pour décrire la structure d’une matrice AA dans le cas où elle n’est pas diagonalizable. Le théorème fondamental de l’algèbre garantit que toute matrice carrée AA à coefficients complexes possède exactement mm valeurs propres, comptées selon leur multiplicité algébrique. Toutefois, si la matrice est définie sur un espace de Banach réel et si son polynôme caractéristique ne se scinde pas dans R\mathbb{R}, il peut exister des valeurs propres non réelles, auquel cas le calcul de leur multiplicité et de leur espace propre exige parfois l’utilisation d’une extension complexe de l’espace. En ce cas, la matrice peut être mise sous une forme normale de Jordan étendue.

Ainsi, la diagonalisation des matrices n'est possible que si toutes les valeurs propres de AA sont semi-simples, c’est-à-dire si leur multiplicité géométrique égale leur multiplicité algébrique. Si ce n'est pas le cas, on parle de forme normale de Jordan, qui peut inclure des blocs de Jordan associés à des valeurs propres non-diagonalisables. Ces blocs décrivent l'indépendance linéaire des vecteurs propres associés à une même valeur propre, et la taille de chaque bloc est déterminée par la multiplicité algébrique de la valeur propre correspondante.

Il est également crucial de noter que les coefficients du polynôme caractéristique de AA sont des fonctions symétriques des valeurs propres de AA, ce qui signifie que la trace de AA est égale à la somme des valeurs propres, et que le déterminant de AA est le produit de ces valeurs propres. Cette relation entre les valeurs propres et les coefficients du polynôme caractéristique est un résultat fondamental en algèbre linéaire, et elle joue un rôle clé dans l'analyse spectrale des matrices.

Il est important de comprendre que, dans le cas où les valeurs propres sont complexes ou lorsque le champ sous-jacent est un corps ordonné, comme R\mathbb{R}, certaines matrices peuvent ne pas avoir de valeurs propres réelles, ce qui nécessite des méthodes supplémentaires pour les analyser. Par exemple, si une matrice a des valeurs propres complexes, on peut parfois utiliser des transformations complexes pour les étudier, ou faire appel à des formes normales de Jordan étendues pour les décrire correctement.

Enfin, en ce qui concerne les espaces de Banach réels, la possibilité d'avoir des valeurs propres complexes dans le spectre de AA amène à une extension du cadre de travail vers des matrices complexes et, parfois, vers des matrices symétriques complexes, dont la structure de Jordan étendue permet de traiter les racines complexes du polynôme caractéristique.

Comment déterminer la nature d’un point critique à l’aide de la dérivée seconde ?

Soit une fonction fC2(X,R)f \in C^2(X, \mathbb{R}), où XX est un ouvert de Rm\mathbb{R}^m. La classification des points critiques de ff repose fondamentalement sur le signe de sa dérivée seconde (ou Hessienne) au point critique considéré. Si x0Xx_0 \in X est un point critique, c’est-à-dire un point où le gradient f(x0)=0\nabla f(x_0) = 0, alors l’étude de la forme quadratique associée à la dérivée seconde 2f(x0)\partial^2 f(x_0) permet de caractériser la nature locale de ce point.

Lorsque la dérivée seconde au point x0x_0 est définie positive, c’est-à-dire que pour tout vecteur non nul ξRm\xi \in \mathbb{R}^m, on a 2f(x0)[ξ]2>0\partial^2 f(x_0)[\xi]^2 > 0, alors ff possède un minimum local isolé en x0x_0. L’idée essentielle est que, à proximité de x0x_0, la fonction ff s’élève dans toutes les directions, et la croissance quadratique domine les termes d’ordre supérieur, assurant ainsi que f(x0)f(x_0) est strictement plus petit que f(x)f(x) pour xx proche mais différent de x0x_0.

Inversement, si la dérivée seconde est définie négative, autrement dit 2f(x0)[ξ]2<0\partial^2 f(x_0)[\xi]^2 < 0 pour tout ξ0\xi \neq 0, alors ff admet un maximum local isolé en x0x_0. Ce cas est symétrique au précédent, la fonction décroissant quadratiquement dans toutes les directions autour de x0x_0.

Dans le cas où la dérivée seconde est indéfinie, c’est-à-dire qu’il existe des directions ξ1,ξ2\xi_1, \xi_2 telles que 2f(x0)[ξ1]2>0\partial^2 f(x_0)[\xi_1]^2 > 0 et 2f(x0)[ξ2]2<0\partial^2 f(x_0)[\xi_2]^2 < 0, alors x0x_0 n’est ni un minimum ni un maximum local. Le point critique est alors un point selle, où la fonction présente à la fois des directions de montée et de descente. En particulier, on peut trouver des trajectoires qui passent par x0x_0 en augmentant la valeur de ff, et d’autres en la diminuant.

Des exemples classiques illustrent bien ces situations. Pour f(x,y)=c+δx2+εy2f(x,y) = c + \delta x^2 + \varepsilon y^2 avec δ,ε{1,1}\delta, \varepsilon \in \{ -1,1 \}, le point critique (0,0)(0,0) est :

  • un minimum local isolé si δ=ε=1\delta = \varepsilon = 1 (Hessien défini positif),

  • un maximum local isolé si δ=ε=1\delta = \varepsilon = -1 (Hessien défini négatif),

  • un point selle si δε\delta \neq \varepsilon (Hessien indéfini).

Cependant, lorsque la dérivée seconde est semi-définie positive (ou négative) sans être définie stricte, la classification devient plus délicate. Des fonctions comme f1(x,y)=x2+y4f_1(x,y) = x^2 + y^4, f2(x,y)=x2f_2(x,y) = x^2 ou f3(x,y)=x2+y3f_3(x,y) = x^2 + y^3 partagent un Hessien semi-défini positif en (0,0)(0,0), mais présentent des comportements très différents : un minimum local isolé pour f1f_1, pas de minimum isolé pour f2f_2, et pas d’extrémum local pour f3f_3.

Il est donc essentiel de comprendre que la seule étude de la dérivée seconde n’est pas toujours suffisante. L’analyse des termes d’ordre supérieur peut être nécessaire pour confirmer ou infirmer la nature locale du point critique. Cette nuance est capitale pour une bonne maîtrise de l’analyse des fonctions multivariables.

De plus, cette classification locale s’appuie sur un développement de Taylor au second ordre autour du point critique. L’expression f(x0+ξ)=f(x0)+122f(x0)[ξ]2+o(ξ2)f(x_0 + \xi) = f(x_0) + \frac{1}{2} \partial^2 f(x_0)[\xi]^2 + o(|\xi|^2) montre que le comportement quadratique gouverne la forme locale de la fonction. Le reste infinitésimal o(ξ2)o(|\xi|^2) est négligeable face au terme quadratique lorsque ξ0\xi \to 0, à condition que la dérivée seconde soit définie stricte.

Au-delà des cas locaux, ces résultats permettent aussi de relier la convexité d’une fonction à la positivité de sa dérivée seconde. En effet, une fonction fC2(X,R)f \in C^2(X,\mathbb{R}) définie sur un ouvert convexe XRmX \subset \mathbb{R}^m est convexe si et seulement si sa dérivée seconde est semi-définie positive en tout point de XX. Cette caractérisation analytique est fondamentale en optimisation et en analyse fonctionnelle.

Enfin, il faut souligner que l’approche par la dérivée seconde et le Hessien s’applique naturellement dans des espaces à dimension finie. En dimension infinie ou dans des cadres plus abstraits (comme les espaces de Banach), l’étude des dérivées secondes peut nécessiter des notions complémentaires, telles que la bilinéarité continue, la symétrie, et la compacité, pour assurer une classification similaire des points critiques.