La décomposition d'une matrice en valeurs singulières (SVD) est un outil fondamental en analyse matricielle, permettant de représenter une matrice de manière simplifiée et d'analyser ses propriétés spectrales. Cela est particulièrement utile dans des contextes où les matrices sont complexes ou difficiles à manipuler directement. Examinons le processus, notamment en ce qui concerne les matrices symétriques et les matrices normales, et comment le théorème spectral facilite cette décomposition.

Considérons d'abord une matrice normale AA qui possède des valeurs propres multiples et des vecteurs propres correspondants non orthogonaux. Dans ce cas, nous procédons à un ajustement de ces vecteurs pour les rendre orthogonaux entre eux. Soit λ\lambda une valeur propre de multiplicité mm. Les valeurs propres et leurs vecteurs associés peuvent être ordonnés comme suit : λ,λ,,λ,λm+1,,λn\lambda, \lambda, \ldots, \lambda, \lambda_{m+1}, \ldots, \lambda_n et v1,v2,,vm,vm+1,,vnv_1, v_2, \ldots, v_m, v_{m+1}, \ldots, v_n. Les vecteurs vm+1,,vnv_{m+1}, \ldots, v_n sont orthogonaux entre eux et au reste des vecteurs. Il s'agit alors de trouver un nouvel ensemble de vecteurs orthogonaux v1,v2,,vmv'_1, v'_2, \ldots, v'_m, chacun étant orthogonal à vm+1,,vnv_{m+1}, \ldots, v_n, et chaque viv'_i étant un vecteur propre correspondant à AA.

Pour ce faire, on applique l'algorithme de Gram-Schmidt. Par exemple, on choisit v1=v1v'_1 = v_1, puis v2=v2+αv1v'_2 = v_2 + \alpha v_1, où α\alpha est déterminé de manière à rendre v2v'_2 orthogonal à v1v'_1. De même, v3v'_3 est calculé en ajoutant des multiples de v1v_1 et v2v_2, puis orthogonalise ce vecteur aux précédents. Ce processus peut être répété jusqu'à obtenir tous les vecteurs vmv'_m orthogonaux. Le résultat est une base orthogonale de vecteurs propres pour AA, permettant de diagonaliser la matrice.

Prenons un exemple simple avec la matrice symétrique suivante sur R\mathbb{R}:

A=(524222425)A = \begin{pmatrix}
5 & -2 & -4 \\ -2 & 2 & 2 \\ -4 & 2 & 5 \end{pmatrix}

Les valeurs propres de cette matrice sont λ1=1\lambda_1 = 1, λ2=1\lambda_2 = 1, λ3=10\lambda_3 = 10, ce qui signifie que λ=1\lambda = 1 est une valeur propre double. Les vecteurs propres correspondants sont v1=(122)v_1 = \begin{pmatrix} -1 \\ -2 \\ 2 \end{pmatrix}, v2=(102)v_2 = \begin{pmatrix} -1 \\ 0 \\ 2 \end{pmatrix}, et v3=(110)v_3 = \begin{pmatrix} -1 \\ -1 \\ 0 \end{pmatrix}.

Ensuite, à l'aide de l'algorithme de Gram-Schmidt, on génère des vecteurs propres orthogonaux v1,v2,v3v'_1, v'_2, v'_3, permettant de réécrire la matrice sous sa forme spectrale :

A = \lambda_1 v'_1 v'_1^* + \lambda_2 v'_2 v'_2^* + \lambda_3 v'_3 v'_3^*

Une fois les vecteurs propres normalisés, nous obtenons une matrice orthogonale OO qui permet de diagonaliser AA, d'où la représentation spectrale de la matrice.

En ce qui concerne la décomposition en valeurs singulières (SVD), elle s'applique aux matrices rectangulaires, qu'elles soient carrées ou non. Pour une matrice AA de dimensions m×nm \times n, la SVD décompose AA en trois matrices : A=UΣVA = U \Sigma V^*, où UU est une matrice unitaire de dimension m×mm \times m, Σ\Sigma est une matrice diagonale de valeurs singulières, et VV^* est une matrice unitaire de dimension n×nn \times n. Les valeurs singulières σi\sigma_i sont les racines carrées des valeurs propres non nulles de AAA^* A et AAAA^*, et elles sont toujours réelles et non négatives.

Cette décomposition est d'une grande utilité dans de nombreux domaines, notamment en traitement du signal, compression de données, et analyse numérique. Elle permet de réduire les dimensions d'un problème tout en conservant les informations essentielles sous forme de valeurs singulières.

Il est important de noter que, pour une matrice AA, la SVD peut être utilisée pour trouver sa pseudo-inverse de Moore-Penrose, une généralisation de l'inverse classique. La pseudo-inverse est particulièrement utile lorsque la matrice n'est pas carrée ou est singulière. La pseudo-inverse A+A^+ peut être calculée à partir de la SVD en utilisant la relation A+=VΣ+UA^+ = V \Sigma^+ U^*, où Σ+\Sigma^+ est la pseudo-inverse de Σ\Sigma, obtenue en inversant les valeurs singulières non nulles.

La pseudo-inverse est utilisée dans de nombreux problèmes d'optimisation et de régression, notamment dans les moindres carrés, et elle joue un rôle crucial dans le calcul des solutions approchées aux systèmes d'équations linéaires.

Qu'est-ce qu'une pseudo-inverse de Moore-Penrose et pourquoi est-elle essentielle?

La pseudo-inverse de Moore-Penrose, souvent notée AA^-, émerge comme une généralisation rigoureuse de l’inverse d’une matrice, définie même lorsque l'inverse usuel n'existe pas. Ce prolongement naturel de l'inversion matricielle classique repose sur la décomposition en valeurs singulières (SVD), selon laquelle toute matrice ACm×nA \in \mathbb{C}^{m \times n} peut s’écrire comme A=UΣVA = U \Sigma V^*, avec UU et VV unitaires, et Σ\Sigma diagonale contenant les valeurs singulières réelles et non négatives.

La pseudo-inverse de Moore-Penrose est alors donnée par A=VΣUA^- = V \Sigma^- U^*, où Σ\Sigma^- s'obtient en inversant les valeurs singulières non nulles de Σ\Sigma, les autres éléments restant nuls. Ce mécanisme permet de reconstruire une matrice même lorsqu’elle n’est pas de rang plein, ni carrée, ni inversible au sens strict.

L’élégance de cette construction réside dans le fait que certaines identités fondamentales sont conservées : AAA=AA A^- A = A et AAA=AA^- A A^- = A^-, accompagnées des conditions d’hermitianité (AA)=AA(A A^-)^* = A A^- et (AA)=AA(A^- A)^* = A^- A. C’est cette quadruple contrainte qui définit de manière unique la pseudo-inverse de Moore-Penrose.

En pratique, ces propriétés rendent la pseudo-inverse extrêmement utile pour résoudre des systèmes d’équations linéaires sur- ou sous-déterminés, en particulier via la solution dite « au sens des moindres carrés » x=Abx = A^- b, minimisant Axb\|Ax - b\|. Elle fournit alors la solution de norme minimale.

Un exemple illustratif est donné par la matrice non normale

A=(0010),A = \begin{pmatrix}
0 & 0 \\ 1 & 0 \end{pmatrix},

dont la décomposition singulière donne lieu à une pseudo-inverse explicite, montrant que AAAAA^- A \neq A A^-, confirmant le caractère non normal de la pseudo-inverse.

Dès lors, la pseudo-inverse devient non seulement un outil algébrique, mais également une fenêtre sur la géométrie des espaces vectoriels. En ce sens, elle est étroitement liée à la structure spectrale de la matrice via ses valeurs singulières, bien plus stables numériquement que les valeurs propres.

Un autre opérateur d’intérêt est l’opération vec, qui transforme une matrice ACm×nA \in \mathbb{C}^{m \times n} en un vecteur colonne de dimension mnmn, en empilant ses colonnes. Cette transformation linéaire conserve les opérations élémentaires : vec(A+B)=vec(A)+vec(B)\text{vec}(A + B) = \text{vec}(A) + \text{vec}(B) et vec(αA)=αvec(A)\text{vec}(\alpha A) = \alpha \text{vec}(A). Pour les matrices symétriques, l’opération vech permet de n’extraire que les composantes distinctes, c’est-à-dire celles situées sur ou sous la diagonale.

L’opérateur vec permet notamment de reformuler des identités matricielles complexes sous une forme vectorisée. Par exemple, l’identité tr(AB)=vec(AT)Tvec(B)\mathrm{tr}(AB) = \text{vec}(A^T)^T \text{vec}(B) fournit une reformulation précieuse du produit trace. De même, l’existence d’une matrice de permutation PP telle que vec(A)=Pvec(AT)\text{vec}(A) = P \text{vec}(A^T) souligne la structure interne des espaces vectoriels associés aux matrices.

Ce cadre permet d’introduire naturellement les normes vectorielles et matricielles. Une norme vectorielle \| \cdot \| est une application sur un espace vectoriel vérifiant la positivité, l’homogénéité et l’inégalité triangulaire. On distingue entre autres la norme 1\ell^1, la norme euclidienne 2\ell^2, et la norme \ell^\infty, toutes équivalentes sur les espaces de dimension finie, mais donnant des géométries différentes.

La norme matricielle, en particulier celle dite subordonnée, est définie comme A=supx=1Ax\|A\| = \sup_{\|x\| = 1} \|Ax\|, c’est-à-dire comme le maximum d’amplification d’un vecteur unitaire par l’action de la matrice. Cette norme satisfait l’inégalité fondamentale AxAx\|A x\| \leq \|A\| \cdot \|x\|. Des cas particuliers sont données par les normes subordonnées aux normes vectorielles classiques : norme de la plus grande somme de colonnes (1\ell^1), de la plus grande somme de lignes (\ell^\infty), ou encore norme spectrale, équivalente à la racine carrée du plus grand autovaluer de AAA^* A.

Ce dernier point est crucial : les normes subordonnées traduisent directement les comportements géométriques des matrices dans les transformations linéaires. Le lien avec la pseudo-inverse est alors manifeste : connaître les normes associées permet d’estimer la stabilité numérique de l’opération de pseudo-inversion, notamment dans les problèmes mal conditionnés.

Il est essentiel que le lecteur saisisse que la pseudo-inverse ne dépend pas du choix d’une base. Elle est une entité canonique, intimement liée à la structure géométrique de l’espace image et du noyau de la matrice. Comprendre sa construction revient à comprendre la structure interne des transformations linéaires — leurs directions d’expansion, leurs directions nulles, et comment projeter de manière minimale dans l’espace original. Elle est omniprésente dans les domaines du traitement du signal, de la statistique multivariée, de la mécanique quantique, et au-delà.