Dans l'étude des matrices et de leurs propriétés, le déterminant joue un rôle central, en particulier lorsqu'il s'agit d'analyser l'inversibilité d'une matrice. Cette section se concentre sur la manière de déterminer si une matrice est inversible en utilisant les concepts de déterminant et d'idéaux associés, ainsi que l'importance de ces notions dans le cadre des anneaux commutatifs.

Prenons un exemple spécifique avec la matrice AA dont le déterminant det(A)=6\text{det}(A) = 6 n'est pas une unité dans l'anneau Z\mathbb{Z}. Cela implique que AA n'est pas inversible dans Z\mathbb{Z}, un fait qui se vérifie simplement en constatant que le déterminant n'est pas une unité de l'anneau des entiers. Ce principe est fondamental, car il montre que l'inversibilité d'une matrice dans un anneau comme Z\mathbb{Z} ou Q\mathbb{Q} dépend directement de la nature du déterminant.

En revanche, si nous prenons une matrice BB sur Z[i]\mathbb{Z}[i] (l'anneau des entiers de Gauss), nous trouvons que det(B)\text{det}(B) est une unité dans cet anneau. Par conséquent, BB est inversible dans Z[i]\mathbb{Z}[i], ce qui nous permet d'utiliser des méthodes spécifiques, comme l'expansion par les cofacteurs, pour trouver l'inverse de BB. Cette approche requiert un certain nombre d'opérations élémentaires sur les lignes et les colonnes, comme l'échange de lignes ou la multiplication d'une ligne par une constante, pour transformer la matrice en une forme où l'inverse peut être calculé directement.

Lorsque l'on considère une matrice plus complexe, comme la matrice CC, dont le déterminant est donné par une fonction polynomiale 2x32x26x+22x^3 - 2x^2 - 6x + 2, il devient évident que le déterminant de CC n'est pas une unité dans Q[x]\mathbb{Q}[x], et donc CC n'est pas inversible dans cet anneau. Il est essentiel de comprendre que dans les anneaux de polynômes, l'inversibilité d'une matrice dépend fortement du comportement de son déterminant et de la nature de l'anneau dans lequel les coefficients sont pris.

Les propriétés du déterminant sont également liées à des résultats importants en algèbre linéaire. Par exemple, la proposition qui stipule que si RrRsR^r \cong R^s, alors r=sr = s, illustre la relation entre les modules libres de rang fini et les matrices associées à des isomorphismes. Cette proposition repose sur le fait que l'anneau RR est commutatif, et elle montre que des matrices associées à des isomorphismes entre modules libres de rang rr et ss doivent être de même taille. Si cette condition est violée, cela mène à une contradiction, soulignant ainsi l'importance de la structure de rang dans les matrices et les modules.

L'algèbre des matrices ne se limite pas à la question de l'inversibilité. Il est également crucial de comprendre la notion de mineurs. Les ii-mineurs d'une matrice sont les déterminants des sous-matrices obtenues en supprimant certaines lignes et colonnes. Ces mineurs jouent un rôle clé dans la détermination de l'idéal de mineurs d'une matrice, qui est un idéal engendré par tous les mineurs de taille ii. Ce concept est particulièrement utile dans l'étude des propriétés des matrices sur des anneaux comme Z[x,y]\mathbb{Z}[x, y] ou Q[x]\mathbb{Q}[x], où les mineurs peuvent fournir des informations essentielles sur la structure de la matrice.

Prenons un exemple avec une matrice AA dont les éléments sont des entiers. L'idéal des 1-mineurs de AA dans Z\mathbb{Z} peut être décrit comme l'ensemble des entiers divisibles par 3, alors que les 2-mineurs peuvent être décrits par des combinaisons linéaires d'éléments comme 1818. Si l'on examine cette matrice sous l'anneau Q\mathbb{Q}, les idéaux deviennent beaucoup plus simples, ce qui démontre l'impact des coefficients d'une matrice sur la nature de ses mineurs.

Il est également important de noter que dans certains cas, comme dans les polynômes multivariés, les mineurs peuvent être représentés comme des idéaux générés par des expressions algébriques complexes. Par exemple, dans le cas de la matrice AA sur Z[x,y,z]\mathbb{Z}[x, y, z], les mineurs de la matrice dépendent des relations entre les variables, ce qui renforce l'idée que la structure algébrique de l'anneau joue un rôle fondamental dans l'analyse des matrices.

L'algèbre matricielle, en particulier les concepts liés à l'inversibilité et aux mineurs, n'est pas seulement un sujet théorique ; elle trouve de nombreuses applications dans des domaines comme la géométrie, la physique, et les systèmes dynamiques, où la compréhension de la structure des matrices est essentielle pour résoudre des problèmes complexes.

Comment comprendre et appliquer la décomposition primaire d'un module torsionnel fini généré sur un PID ?

Ainsi, Dy et Dz sont indépendants sur D et Dx = Dy ⊕ Dz. Supposons que cy + dz = 0 pour certains c et d ∈ D. L'argument similaire à celui de (4.4.2) montre que cy = dz = 0. Cela signifie que Dy et Dz sont indépendants sur D, d'où Dy + Dz = Dy ⊕ Dz. Posons x = by + az. Il est évident que Dx ⊆ Dy + Dz. Nous avons aussi hx = h(by + az) = bhy = bhy + agy = (ag + bh)y = y puisque gy = hz = 0. De même, gx = g(by + az) = agz = agz + bhz = (ag + bh)z = z. Cela montre que y, z ∈ Dx et Dy + Dz ⊆ Dx. Nous pouvons donc conclure que Dx = Dy + Dz = Dy ⊕ Dz. Enfin, trouvons annx. Puisque ghx = gh(by + az) = hbgy + aghz = 0, nous avons (gh) ⊆ annx. Réciproquement, soit cx = 0. Alors 0 = cx = cby + caz ⇒ cby = caz = 0, car Dy et Dz sont indépendants sur D, donc cb ∈ (g) et ca ∈ (h). Nous avons donc que g|cb et h|ca dans D. Puisque ag + bh = 1, nous avons (b, g) ∼ 1 et (a, h) ∼ 1. Il en résulte que g|c et h|c d'après l'exercice 2(a), §4.2. Ainsi, gh|c d'après l'exercice 2(b), §4.2. Cela montre que annx ⊆ (gh). Nous concluons que annx = (gh). La dernière partie de l'énoncé découle du lemme 4.3.2.

Lemme 4.4.10. Soit D un PID. Soit M un D-module et x ∈ D. Supposons annx = (d), où d = upe11 p e2 2 · · · pett, avec u un élément unité de D, ei > 0 pour tout i et les pi distincts dans D. Alors, il existe x1, x2, ..., xt dans D tels que Dx = Dx1 ⊕ Dx2 ⊕ ... ⊕ Dxt, où annxi = (peii ). Nous prouverons ce lemme par induction sur t. Lorsque t = 1, il n'y a rien à prouver. Supposons maintenant t ≥ 2. Puisque upe11 et pe22 · · · pett sont premiers entre eux, par le théorème du reste chinois, nous pouvons trouver x1, y ∈ Dx tel que Dx = Dx1 ⊕ Dy, où annx1 = (upe11 ) = (pe11 ) et ann y = (pe22 · · · pett). Le reste suit de l'hypothèse d'induction.

Définition 4.4.11. Soit D un PID. Nous disons qu'un module cyclique torsionnel sur D est primaire si son idéal d'ordre est de la forme (pe) pour un certain premier p dans D. Une décomposition en somme directe de modules cycliques primaires est appelée une décomposition primaire. Supposons qu'un module torsionnel finitement généré sur un PID D soit donné. D'après le théorème de structure (théorème 4.3.14), nous pouvons trouver des éléments non nuls z1, z2, ..., zs dans M tels que M = Dz1 ⊕ Dz2 ⊕ ... ⊕ Dzs, où ann zi = (di) ≠ (0) pour tout i. Puisque chaque di peut avoir un nombre fini de facteurs premiers, nous pouvons trouver un nombre fini de premiers distincts p1, p2, ..., pn dans D, tels que di = pei11 pei22 · · · peinn, où eij ≥ 0 pour tout i, j. D'après le lemme 4.4.10, nous pouvons trouver wij dans M de sorte que ⊕ ⊕ (4.4.3) M = Dzi = Dwij i i,j e, où annwij ij = (pj). Notez que nous permettons à eij d'être égal à 0 pour certains (i, j), auquel cas wij = 0. Nous pouvons supprimer ces termes triviaux sans affecter la décomposition.

Proposition 4.4.12. Tout module torsionnel finitement généré sur un PID est une somme directe de modules cycliques primaires. En d'autres termes, tout module torsionnel finitement généré sur un PID possède une décomposition primaire.

L'un des objectifs de cette section est d'expliquer pourquoi la décomposition primaire d'un module finitement généré sur un PID est essentiellement unique. Pour cela, nous aurons besoin du concept suivant.

Définition 4.4.13. Soit D un UFD, soit M un module sur D et soit p un premier dans D. On définit la composante p de M, Mp, comme étant l'ensemble {m ∈ M : pkm = 0 pour un certain k = 0, 1, 2, 3, ...}.

Lemme 4.4.14. Soit D un UFD, soit M un module sur D et soit p un premier dans D. L'ensemble Mp est un sous-module de M qui ne dépend d'aucune décomposition de M.

Preuve. Supposons donné a ∈ D et m, n ∈ Mp. Trouvons un i suffisamment élevé tel que pim = pin = 0. Alors pi(m + n) = pim + pin = 0, et pi(am) = a(pim) = 0. Cela montre que m + n et am sont tous deux dans Mp. Ainsi, Mp est un sous-module de M sur D.

Lemme 4.4.15. Soit D un PID, soit M un module sur D et soit m ∈ M. Supposons que c et d sont premiers entre eux dans D. Si cm = dm = 0, alors m = 0.

Preuve. Puisque D est un PID, nous pouvons trouver a, b dans D tels que ac + bd = 1. Ainsi, m = (ac + bd)m = acm + bdm = 0.

Lemme 4.4.16. Soit D un PID, soit M un module sur D et soit p un premier dans D. Un élément m ∈ Mp si et seulement si annDm = peD pour un certain entier non négatif e.

Preuve. Sans perte de généralité, supposons m ≠ 0. La partie "si" est vraie par définition de Mp. La partie "seulement si" : Soit m ∈ Mp où annm = pekD pour un certain entier non négatif e et (k, p) ∼ 1. Supposons que k n'est pas une unité. Alors pe ∉ annm. Ainsi, pem ≠ 0. Puisque m ∈ Mp, il existe un entier f > e tel que pfm = 0. Notez que k(pem) = 0 et pf−e(pem) = 0. D'après le lemme 4.4.15, nous avons pem = 0, ce qui est une contradiction. Par conséquent, nous concluons que k est une unité et annm = peD.

Lemme 4.4.17. Soit D un PID, soient p1, ..., pn des premiers distincts dans D et soit M un module sur D. Alors, Mp1, ..., Mpn sont indépendants sur D.

Preuve. Soit mi ∈ Mpi pour chaque i tel que m1 + m2 + · · · + mn = 0. Trouvons un N suffisamment grand pour que pNi mi = 0 pour tous i. Alors 0 = pN1 · · · p̂Ni · · · pNn (m1 + m2 + · · · + mn) = pN1 · · · p̂Ni · · · pNn mi pour chaque i. Puisque pNi et pN1 · · · p̂Ni · · · pNn sont premiers entre eux dans D, d'après le lemme 4.4.15, nous avons mi = 0. Cela est vrai pour tous i. Ainsi, Mp1, ..., Mpn sont indépendants sur D.

Lemme 4.4.18. Soit D un PID, soit M un module finitement généré torsionnel sur D. D'après le théorème 4.3.14, il existe z1, z2, ..., zs ∈ M tels que M = Dz1 ⊕ Dz2 ⊕ ... ⊕ Dzs, où ann zi = (di) ≠ (0) pour tout i et di | di+1 pour i = 1, 2, ..., s − 1. Soit m ∈ M. Si annDm = (a), alors a | ds dans D. En particulier, nous avons dsm = 0.

Preuve. Notez que dszi = 0 pour tout i, puisque ds ∈ (di) = ann

Quelle est la forme canonique de Jordan et comment la caractéristique de l'opérateur affecte-t-elle la structure des matrices ?

Le polynôme caractéristique f(λ)f(\lambda) d'un opérateur AA est une expression algébrique qui encapsule les propriétés spectrales de AA. Il est donné sous la forme :

f(λ)=λnb1λn1+b2λn2+(1)nbnf(\lambda) = \lambda^n - b_1 \lambda^{n-1} + b_2 \lambda^{n-2} - \cdots + (-1)^n b_n

Ce polynôme est essentiel pour déterminer les valeurs propres de AA et la structure de ses blocs de Jordan, qui décrivent les invariants structurels associés à l'opérateur linéaire. On peut montrer que chaque coefficient bib_i du polynôme caractéristique correspond à la somme des i-minors principaux de AA. Ces i-minors sont les déterminants des sous-matrices carrées obtenues en sélectionnant des lignes et des colonnes spécifiques de AA. Ils jouent un rôle crucial dans la décomposition de AA et dans la compréhension de sa forme canonique.

La forme canonique de Jordan

La forme canonique de Jordan est une représentation simplifiée d'un opérateur linéaire, souvent plus facile à manipuler que sa forme rationnelle, notamment dans les cas où l'algèbre associée est assez complexe. Pour un espace vectoriel VV de dimension finie sur un corps FF, un opérateur linéaire TT possède une forme canonique de Jordan si son polynôme caractéristique se décompose complètement en facteurs linéaires dans F[λ]F[\lambda]. Cela signifie que toutes les valeurs propres de TT sont contenues dans FF, ce qui est garanti si FF est algébriquement clos, comme le corps des complexes C\mathbb{C}.

Cependant, pour des corps comme R\mathbb{R}, il est possible que le polynôme caractéristique ne se décompose pas complètement en facteurs linéaires, et dans ce cas, la forme canonique de Jordan ne peut pas toujours être définie. Cela souligne une différence importante entre les corps algébriquement clos et les autres corps comme R\mathbb{R}, ce qui a des implications profondes pour la structure des matrices et leur diagonalisation.

Définition de la forme de Jordan

La forme de Jordan est définie à travers des blocs de Jordan. Chaque bloc de Jordan correspond à un eigenvalue rr et peut être représenté par une matrice carrée de la forme :

Jr=(r1000r1000r0000r)J_r = \begin{pmatrix} r & 1 & 0 & \cdots & 0 \\ 0 & r & 1 & \cdots & 0 \\ 0 & 0 & r & \cdots & 0 \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \cdots & r
\end{pmatrix}

Ce bloc représente une chaîne de vecteurs propres associés à la valeur propre rr, et il capture l'idée que rr pourrait avoir une multiplicité géométrique inférieure à sa multiplicité algébrique, d'où la présence de 11 sur la diagonale juste au-dessus de rr, ce qui indique l'existence de vecteurs généralisés.

Les espaces propres et la décomposition de Jordan

Un autre concept fondamental dans l'étude de la forme canonique de Jordan est celui des espaces propres associés à chaque valeur propre. Si TT est un endomorphisme linéaire, un vecteur vv est dit propre de TT associé à la valeur propre rr si :

T(v)=rvT(v) = r \cdot v

L'espace propre ErE_r associé à la valeur propre rr est défini comme l'ensemble des vecteurs vv qui satisfont cette condition, c'est-à-dire Er=Ker(TrI)E_r = \text{Ker}(T - rI). Dans le cas où TT n'a pas assez de vecteurs propres linéairement indépendants pour diagonaliser la matrice, les espaces propres sont remplacés par des espaces généralisés, ce qui mène à la formation des blocs de Jordan.

Théorème fondamental et existence de la forme de Jordan

Le théorème fondamental de l'algèbre garantit que si un polynôme se décompose en facteurs linéaires, alors tous les facteurs premiers du polynôme caractéristique doivent être linéaires. Ainsi, si un opérateur linéaire TT a un polynôme caractéristique qui se décompose complètement en facteurs linéaires, il existe une base de VV dans laquelle la matrice de TT prend une forme de Jordan. Le résultat est particulièrement important dans les cas où l'on travaille sur des corps algébriquement clos, comme C\mathbb{C}, ce qui permet toujours d’obtenir une forme de Jordan, contrairement aux matrices sur R\mathbb{R}, où cela n’est pas toujours possible.

La connexion entre forme de Jordan et facteurs invariants

La forme de Jordan est directement liée aux facteurs invariants de TT, qui sont des polynômes qui décrivent les propriétés d’invariance sous l’action de TT. Ces facteurs peuvent être obtenus en factorisant le polynôme minimal ou en examinant les diviseurs élémentaires de TT. Chaque diviseur élémentaire correspond à un bloc de Jordan, et la structure complète des blocs de Jordan permet de reconstruire la matrice originale de TT de manière plus accessible, notamment pour les calculs ultérieurs.

Il est aussi important de noter que la forme de Jordan permet de classifier complètement les opérateurs linéaires, dans le sens où deux matrices AA et BB sont similaires si et seulement si elles ont la même forme de Jordan. Cela crée un pont entre les matrices et leurs actions sur des espaces vectoriels, ce qui facilite l'analyse des systèmes linéaires complexes.

Quelle est l’importance des formes canoniques dans l’étude des endomorphismes linéaires ?

Soit une matrice carrée de taille nn ayant nn valeurs propres distinctes sur un corps FF. Il est alors possible de la diagonaliser sur FF. Ce résultat constitue un corollaire fondamental pour comprendre la structure des matrices et des endomorphismes linéaires. Lorsque les valeurs propres sont distinctes, les vecteurs propres associés forment une base du vecteur espace, permettant ainsi de réduire l’étude des opérateurs linéaires à la simple multiplication par une matrice diagonale.

Cela soulève des questions plus générales sur la classification et la structure des endomorphismes. Prenons par exemple la notion de projection. Un endomorphisme TT sur un espace vectoriel VV est dit être une projection si T2=TT^2 = T. Cette condition impose une structure particulière à TT, qui se retrouve dans la forme canonique de Jordan associée à TT. Les projections sur les espaces vectoriels de dimension finie peuvent être analysées en considérant le polynôme minimal de TT, qui doit être un diviseur du polynôme g(λ)=λ2λg(\lambda) = \lambda^2 - \lambda, d’après le théorème de Cayley-Hamilton. Ainsi, m(λ)m(\lambda) peut être λ\lambda, λ1\lambda - 1, ou λ(λ1)\lambda(\lambda - 1).

Dans le premier cas, où m(λ)=λm(\lambda) = \lambda, on trouve que T=0T = 0, c'est-à-dire que TT est l'endomorphisme nul. Dans le deuxième cas, où m(λ)=λ1m(\lambda) = \lambda - 1, l'endomorphisme TT est l'identité, c'est-à-dire que chaque vecteur est invariant sous TT. Enfin, dans le troisième cas, où m(λ)=λ(λ1)m(\lambda) = \lambda(\lambda - 1), TT se comporte comme une projection non triviale, ayant une structure plus complexe qui peut être représentée par une matrice de Jordan, combinant des blocs de taille 1 associés à λ=0\lambda = 0 et à λ=1\lambda = 1.

Une autre classe importante d’endomorphismes est celle des endomorphismes nilpotents, où il existe un entier mm tel que Tm=0T^m = 0. Le cas des matrices nilpotentes est particulièrement intéressant. Par exemple, si une matrice NN est nilpotente de taille 5 sur le corps R\mathbb{R}, on peut déterminer sa forme de Jordan. En utilisant le théorème de Cayley-Hamilton, le polynôme minimal de NN doit diviser λm\lambda^m, et la forme de Jordan correspondra à des blocs de Jordan associés à la valeur propre 0, de tailles diverses.

L'analyse des formes de Jordan pour une matrice nilpotente est indépendante du corps sur lequel la matrice est définie, que ce soit R\mathbb{R}, C\mathbb{C}, ou tout autre corps. Cette indépendance vis-à-vis du corps est cruciale, car elle montre que la structure des endomorphismes nilpotents est définie principalement par les propriétés algébriques des matrices, et non par le choix du corps.

En examinant la question suivante : Existera-t-il un vecteur vVv \in V tel que v,Tv,T2v,,Tn1vv, Tv, T^2v, \dots, T^{n-1}v forment une base pour VV ? Il est possible de donner une solution simple en partant des valeurs propres distinctes de TT. Supposons que TT ait nn valeurs propres distinctes. Les diviseurs élémentaires de VV via TT sont alors λr1,λr2,,λrn\lambda - r_1, \lambda - r_2, \dots, \lambda - r_n. La solution consiste à choisir un vecteur vv de telle sorte que v,Tv,T2v,,Tn1vv, Tv, T^2v, \dots, T^{n-1}v forme bien une base pour VV. Ce choix repose sur un argument combinant les propriétés des matrices de Vandermonde et la structure des espaces cycliques. Le déterminant de la matrice de Vandermonde associée aux valeurs propres distinctes est non nul, garantissant que les vecteurs v,Tv,,Tn1vv, Tv, \dots, T^{n-1}v sont linéairement indépendants et forment une base.

Il est aussi important de souligner que les résultats relatifs à la diagonalisation et aux formes canoniques de Jordan ne sont pas limités aux espaces de dimension finie, mais s'étendent également à certains espaces de dimension infinie, bien que la structure des endomorphismes linéaires soit alors plus complexe. Dans ce contexte, il devient nécessaire de prendre en compte les propriétés des modules et les différentes catégories de spectres associés aux opérateurs linéaires.

Enfin, tout ce processus de classification et d’analyse repose sur un cadre algébrique solide où les concepts de polynômes minimaux, de formes canoniques et de modules jouent un rôle central. La capacité à déterminer la forme canonique d’un endomorphisme est une compétence fondamentale qui permet de mieux comprendre les propriétés spectrales et géométriques des espaces vectoriels et des opérateurs linéaires.