Les variétés de Grassmann G(m,Rn)G(m, \mathbb{R}^n) sont des objets fondamentaux en géométrie différentielle, représentant l’ensemble des sous-espaces vectoriels de dimension mm de Rn\mathbb{R}^n. Pour leur attribuer une structure de variété différentiable, il faut construire un atlas différentiable, c’est-à-dire une famille de cartes locales compatibles les unes avec les autres.

On commence par considérer les représentations canoniques des plans dans G(2,R3)G(2, \mathbb{R}^3), où chaque plan est identifié à une matrice de rang 2. On définit alors trois ensembles ouverts U12,U13,U23U_{12}, U_{13}, U_{23}, correspondant à des conditions de non-annulation sur des sous-matrices mineures. Ces ensembles recouvrent l’espace G(2,R3)G(2, \mathbb{R}^3), et chacun possède une carte locale — notée X12,X13,X23X_{12}, X_{13}, X_{23} — qui associe à une représentation canonique du plan ses coordonnées locales, typiquement deux paramètres réels.

Pour démontrer que ces cartes définissent une structure différentiable, il faut montrer que les changements de cartes sur les intersections des domaines — par exemple X13X231X_{13} \circ X_{23}^{ -1} sur U13U23U_{13} \cap U_{23} — sont des difféomorphismes de R2\mathbb{R}^2 dans R2\mathbb{R}^2. Cela se fait explicitement en considérant un élément PU13U23P \in U_{13} \cap U_{23}, en utilisant sa représentation canonique dans les deux systèmes de coordonnées, et en exprimant les changements de variables. Dans le cas cité, les coordonnées locales se transforment par des expressions rationnelles en les entrées de la matrice canonique, ce qui garantit la différentiabilité si les dénominateurs ne s'annulent pas, condition assurée par l’appartenance à U13U23U_{13} \cap U_{23}.

Un théorème fondamental dans cette théorie affirme que les variétés G(m,Rn)G(m, \mathbb{R}^n) et G(nm,Rn)G(n - m, \mathbb{R}^n) sont difféomorphes. Cela repose sur la correspondance orthogonale entre les sous-espaces complémentaires : à tout sous-espace de dimension mm, on associe son orthogonal de dimension nmn - m, et cette bijection se révèle être un difféomorphisme.

Un cas particulier notable est celui des espaces projectifs réels Pn(R)\mathbb{P}^n(\mathbb{R}), définis comme G(1,Rn+1)G(1, \mathbb{R}^{n+1}). Leur structure différentielle est définie à l’aide de n+1n+1 cartes locales, où chaque carte correspond à un choix de coordonnée homogène non nulle. Par exemple, une carte sur P2(R)\mathbb{P}^2(\mathbb{R}) peut être définie par l’ensemble des lignes de R3\mathbb{R}^3 passant par l’origine et dont la troisième coordonnée est non nulle.

Le changement de coordonnées entre deux cartes se fait alors par des transformations rationnelles, comme dans l’exemple x30x_3 \neq 0 où les coordonnées homogènes (1,x2,x3)(1, x_2, x_3) sont transformées en (z1,z2,1)(z_1, z_2, 1) avec z1=1/x3,z2=x2/x3z_1 = 1/x_3, z_2 = x_2/x_3, ce qui est bien différentiable tant que x30x_3 \neq 0.

La théorie s’étend au-delà du cas réel : les variétés de Grassmann peuvent également être définies sur Cn\mathbb{C}^n ou sur Qn\mathbb{Q}^n, ce qui donne naissance aux analogues complexes et quaternioniques des espaces projectifs et des variétés de Grassmann.

Une autre perspective s’ouvre avec la notion de différentiation sur les variétés. Pour une application f:MRf : M \to \mathbb{R}, sa représentation en coordonnées locales est F=fx1F = f \circ x^{ -1}, ce qui permet de définir les dérivées partielles comme f/xi=F/xix\partial f / \partial x^i = \partial F / \partial x^i \circ x. Cette définition respecte les règles classiques du calcul différentiel, ce qui montre sa compatibilité avec la structure algéb

Pourquoi toutes les formes différentielles ne sont-elles pas exactes ?

Sur une variété différentielle, une forme différentielle est dite fermée si sa différentielle extérieure est nulle, c’est-à-dire que dω=0d\omega = 0. Elle est dite exacte s’il existe une autre forme α\alpha telle que ω=dα\omega = d\alpha. Par définition, toute forme exacte est automatiquement fermée, mais la réciproque est loin d’être toujours vraie. C’est cette nuance subtile qui révèle la richesse topologique des variétés, notamment à travers l’étude de l’homologie et de la cohomologie de De Rham.

L'exemple canonique dans le plan R2{0}\mathbb{R}^2 \setminus \{0\} illustre ce point. La 1-forme ω=12π(x2+y2)(xdyydx)\omega = \frac{1}{2\pi(x^2 + y^2)}(x\,dy - y\,dx) est fermée, comme le montre un calcul explicite de sa différentielle extérieure. Cependant, son intégrale sur un lacet autour de l'origine — ici le cercle unité S1S^1 — donne 11, et non zéro, ce qui montre qu’elle n’est pas exacte. Car si ω=df\omega = df pour une certaine fonction ff, alors son intégrale sur tout bord fermé serait nécessairement nulle, ce qui contredit le résultat obtenu. Le fait que l’origine soit exclue de la variété modifie profondément sa structure topologique : le cercle unité n’est plus le bord d’un disque contenu dans R2{0}\mathbb{R}^2 \setminus \{0\}, et donc la 1-forme ne peut pas être exprimée comme différentielle d'une 0-forme globale.

De manière analogue, dans R3{0}\mathbb{R}^3 \setminus \{0\}, on considère la 2-forme ω=xdydz+ydzdx+zdxdy(x2+y2+z2)3/2\omega = \frac{x\,dy \wedge dz + y\,dz \wedge dx + z\,dx \wedge dy}{(x^2 + y^2 + z^2)^{3/2}}, qui est fermée mais non exacte. L'intégrale de cette forme sur la sphère unité S2S^2 donne 4π-4\pi, ce qui implique, une fois encore, l’impossibilité d’exprimer ω\omega comme la différentielle extérieure d’une 1-forme définie globalement sur tout R3{0}\mathbb{R}^3 \setminus \{0\}. Ici encore, la topologie du domaine joue un rôle crucial : le point retiré affecte la connexité de la variété, introduisant une obstruction à l’exactitude.

La notion de cycle intervient naturellement dans ce cadre. Une chaîne CC est un cycle si son bord C\partial C est nul. Elle est une bordure si elle est le bord d'une autre chaîne, c’est-à-dire s’il existe DD tel que C=DC = \partial D. Il e

Comment déterminer et comprendre les champs de vecteurs invariants à gauche et l’exponentielle dans les groupes de Lie ?

Dans l'étude des groupes de Lie, la notion de champ de vecteurs invariant à gauche joue un rôle central. Considérons un groupe de Lie GG et un point gGg \in G avec des coordonnées locales (x,y,z)(x,y,z). Le plan tangent en un point donné de GG est engendré par les dérivées partielles x\frac{\partial}{\partial x}, y\frac{\partial}{\partial y} et z\frac{\partial}{\partial z}. Pour déterminer les champs de vecteurs invariants à gauche sur le fibré tangent TGTG, on applique la translation à gauche hh^* sur un vecteur tangent au neutre ee, selon la formule X(h)=h(X(e))X(h) = h^*(X(e)).

Si h=h(α,β,γ)h = h(\alpha,\beta,\gamma) et la multiplication dans GG est donnée par

hg=gˉ(γx+α,γy+β,γz),h g = \bar{g}(\gamma x + \alpha, \gamma y + \beta, \gamma z),

alors le pushforward hh^* agit sur les dérivées partielles par

h(x)=γx,h(y)=γy,h(z)=γz.h^*\left(\frac{\partial}{\partial x}\right) = \gamma \frac{\partial}{\partial x}, \quad h^*\left(\frac{\partial}{\partial y}\right) = \gamma \frac{\partial}{\partial y}, \quad h^*\left(\frac{\partial}{\partial z}\right) = \gamma \frac{\partial}{\partial z}.

Ainsi, les champs de vecteurs invariants à gauche en un point g(x,y,z)g(x,y,z) prennent la forme

(x,zy,zz),\left(\frac{\partial}{\partial x}, z \frac{\partial}{\partial y}, z \frac{\partial}{\partial z}\right),

et il est facile de vérifier que ces opérateurs forment une algèbre de Lie.

Cette construction s'étend naturellement aux groupes plus complexes, par exemple GL(n,R)GL(n,\mathbb{R}), dont l'algèbre de Lie gl(n,R)\mathfrak{gl}(n,\mathbb{R}) est engendrée par les opérateurs Xij=xikxkjX_{ij} = x_{ik} \frac{\partial}{\partial x_{kj}}, satisfaisant les relations de commutation

[Xij,Xkl]=δkjXilδilXkj.[X_{ij}, X_{kl}] = \delta_{kj} X_{il} - \delta_{il} X_{kj}.

Un groupe de Lie GG agit sur une variété MM par un morphisme différentiable surjectif ψ:G×MM\psi : G \times M \to M, satisfaisant la propriété de composition ψ(g1,ψ(g2,m))=ψ(g1g2,m)\psi(g_1, \psi(g_2, m)) = \psi(g_1 g_2, m). Par exemple, GL(n,R)GL(n,\mathbb{R}) agit naturellement sur Rn\mathbb{R}^n via l'application ψ(A,v)=Av\psi(A,v) = Av.

L'étude des dérivées de Lie permet de comprendre la variation d'une fonction scalaire ou d'un champ de vecteurs sous le flot engendré par un champ de vecteurs XX. Pour une fonction scalaire f:MRf : M \to \mathbb{R}, la dérivée de Lie LX(f)L_X(f) est simplement X(f)X(f), tandis que pour un champ de vecteurs YY, la dérivée de Lie LX(Y)L_X(Y) correspond au crochet de Lie [X,Y][X,Y].

Un concept fondamental reliant les algèbres de Lie aux groupes de Lie est l'application exponentielle. Cette application permet d'exprimer un élément du groupe comme une exponentielle d'un élément de l'algèbre de Lie. Pour un élément LL dans l'algèbre de Lie (TG)e(TG)_e, et des réels a,ba,b, on a

e(a+b)L=eaLebL.e^{(a+b)L} = e^{aL} e^{bL}.

De plus, toute sous-groupe à un paramètre d'un groupe de Lie connexe peut s'écrire sous la forme g=eαLg = e^{\alpha L}, avec αR\alpha \in \mathbb{R}.

Pour les groupes linéaires, lorsque LL est représenté par une matrice AA, l'exponentielle de groupe se réduit à l'exponentielle matricielle

eαA=n=0(αA)nn!,e^{\alpha A} = \sum_{n=0}^{\infty} \frac{(\alpha A)^n}{n!},

une généralisation de la série de Taylor de la fonction exponentielle classique.

Plusieurs propriétés importantes guident le calcul et l'interprétation de l'exponentielle matricielle. Si deux matrices AA et BB commutent, alors

eA+B=eAeB=eBeA.e^{A+B} = e^A e^B = e^B e^A.

Cela découle de la similitude avec le comportement commutatif des nombres réels dans les développements en série. Par ailleurs, certaines classes de matrices possèdent des caractéristiques particulières, telles que les matrices orthogonales OO satisfaisant OOT=IO O^T = I, ou les matrices unitaires UU telles que UU=IU U^\dagger = I, où \dagger désigne la transposée conjuguée.

Le théorème fondamental reliant matrices hermitiennes et matrices unitaires affirme que si HH est hermitienne (H=HH = H^\dagger), alors U=eiHU = e^{iH} est une matrice unitaire. La preuve repose sur la propriété que l'exponentielle d'une matrice hermitienne multipliée par ii est inversible par sa transposée conjuguée, garantissant ainsi l'unitarité.

Le calcul pratique de l'exponentielle matricielle s'appuie sur le théorème de Cayley-Hamilton, qui stipule que toute fonction régulière ff appliquée à une matrice AA peut s'exprimer comme un polynôme r(A)r(A) de degré au plus n1n-1 si AA est une matrice n×nn \times n. Ce polynôme est déterminé par la valeur de la fonction ff sur les valeurs propres λi\lambda_i de AA.

Si les valeurs propres de AA sont distinctes, la résolution de ce système est directe. En revanche, en présence de valeurs propres à multiplicité supérieure, il faut considérer les dérivées successives de ff pour déterminer les coefficients du polynôme rr, conformément à l'extension du théorème.

Par ailleurs, les algèbres de Lie classiques telles que so(3)\mathfrak{so}(3), su(3)\mathfrak{su}(3) et l'algèbre de Lie du groupe de Lorentz SO(3,1)SO(3,1) possèdent des représentations matricielles bien établies. Par exemple, so(3)\mathfrak{so}(3) peut être représentée par les matrices de Pauli J1,J2,J3J_1, J_2, J_3, satisfaisant les relations de commutation

[J1,J2]=iJ3,[J2,J3]=iJ1,[J3,J1]=iJ2.[J_1, J_2] = i J_3, \quad [J_2, J_3] = i J_1, \quad [J_3, J_1] = i J_2.

De même, su(3)\mathfrak{su}(3) est engendrée par les huit matrices de Gell-Mann λi\lambda_i, qui vérifient des relations de commutation plus complexes impliquant les constantes antisymétriques fmnkf_{mnk}.

Enfin, l'algèbre de Lie de Lorentz se distingue par ses six générateurs, dont trois sont associés aux rotations JiJ_i et trois aux boosts KiK_i, avec des représentations matricielles spécifiques qui respectent la structure du groupe SO(3,1)SO(3,1).

Au-delà des calculs algébriques, il est essentiel de comprendre que la connexion profonde entre l'algèbre de Lie et le groupe de Lie via l'application exponentielle permet d'étudier les transformations continues et leurs générateurs infinitésimaux. La maîtrise de ces concepts ouvre la voie à une compréhension approfondie de la symétrie dans les systèmes physiques et géométriques, en particulier dans les domaines de la mécanique quantique, de la relativité et des théories des champs.

Les champs de vecteurs invariants, la structure de l'algèbre de Lie et l'exponentielle matricielle fournissent ainsi un langage universel pour décrire et manipuler les symétries continues, avec des applications s'étendant de la théorie des groupes abstraits à la physique théorique.

Comment calcule-t-on la courbure et la torsion d’une courbe paramétrée, et que révèlent-elles sur sa géométrie ?

Les formules générales de la courbure κ et de la torsion τ d’une courbe, pour une paramétrisation quelconque, s’expriment à partir des dérivées successives du vecteur position x(t). En notant par un prime (′) la dérivation par rapport au paramètre t, la courbure se calcule par la norme du produit vectoriel entre la première et la deuxième dérivée, normalisée par la puissance trois de la norme de la première dérivée :

κ=x×xx3\kappa = \frac{|x' \times x''|}{|x'|^3}

De même, la torsion se définit via le déterminant de la matrice formée par les vecteurs x′, x′′, et x′′′, divisé par le carré de la norme du produit vectoriel entre x′ et x′′ :

τ=det(x,x,x)x×x2\tau = \frac{\det(x', x'', x''')}{|x' \times x''|^2}

Ces formules sont universelles et ne dépendent pas du choix du paramètre, ce qui confère à κ et τ une nature intrinsèque, propre à la courbe elle-même. Leur calcul repose sur les propriétés fondamentales des vecteurs dérivés et sur l’usage du produit vectoriel, dont la nullité traduit une colinéarité, ce qui est un point essentiel pour comprendre la géométrie locale de la courbe.

En particulier, la courbure mesure la déviation de la trajectoire par rapport à une ligne droite, tandis que la torsion caractérise la façon dont la courbe quitte le plan osculateur, c’est-à-dire comment elle s’enroule dans l’espace tridimensionnel. La torsion est nulle pour une courbe plane, confirmant ainsi que toute courbe plan plane a τ = 0.

L’étude des plans associés à une courbe en un point, notamment le plan normal (orthogonal à la tangente), le plan osculateur (formé par la tangente et la normale principale), et le plan réctifiant (défini par la normale principale et la binormale), permet de mieux appréhender la structure locale de la courbe. Ces plans varient avec la position sur la courbe et renseignent sur sa forme et son orientation dans l’espace.

La notion de contact entre deux courbes est définie par la coïncidence de leurs dérivées jusqu’à un certain ordre. Ainsi, deux courbes ont un contact d’ordre n en un point si leurs dérivées jusqu’à l’ordre n coïncident en ce point, mais que les dérivées d’ordre n+1 diffèrent. Cette idée est fondamentale dans l’étude des intersections locales et la classification des points singuliers.

Un cas particulièrement intéressant est celui des hélices. Une hélice est caractérisée par une tangente qui forme un angle constant avec une direction fixe dans l’espace. La caractérisation complète de ces courbes se fait grâce au théorème de Lancret, qui affirme que la courbe est une hélice si et seulement si le rapport τ/κ est constant. Ce résultat relie de manière élégante la torsion et la courbure, montrant qu’elles ne varient pas indépendamment dans ce cas précis.

Les courbes planes, quant à elles, sont définies par la relation naturelle entre la courbure κ et la longueur d’arc s, leur torsion étant nulle. La géométrie locale d’une courbe plane est alors donnée par l’évolution de l’angle θ que forme la tangente avec un axe de référence, lié directement à la courbure par la relation dθds=κ\frac{dθ}{ds} = κ.

Enfin, le texte évoque brièvement les rotations dans l’espace en trois dimensions, notamment la représentation des rotations par les angles d’Euler. Ces notions sont cruciales en géométrie appliquée, en robotique ou en vision par ordinateur, où l’orientation et le mouvement dans l’espace doivent être décrits précisément.

Au-delà des formules, il importe de comprendre que la courbure et la torsion ne sont pas de simples quantités techniques, mais des invariants géométriques qui décrivent l’essence même de la forme d’une courbe dans l’espace. Leur étude permet non seulement de classer les courbes, mais aussi d’en déduire des propriétés globales et de prévoir leur comportement local.

L’analyse du plan osculateur et des plans associés, la notion de contact, ainsi que le rôle des hélices et leur caractérisation par Lancret, offrent un cadre unifié pour aborder les courbes en géométrie différentielle. Ces concepts s’étendent naturellement à des domaines tels que la modélisation informatique, la mécanique des fluides, et la théorie des surfaces.

Il est également essentiel de saisir que la paramétrisation d’une courbe est un choix qui peut simplifier ou complexifier le calcul des grandeurs géométriques. La paramétrisation par la longueur d’arc est particulièrement naturelle, car elle rend la norme de la dérivée première égale à un, simplifiant ainsi les expressions de κ et τ. Toutefois, les formules générales, indépendantes de cette paramétrisation, garantissent la robustesse des définitions.

Enfin, la compréhension profonde de la courbure et de la torsion demande d’intégrer les relations entre les vecteurs tangents, normaux et binormaux, et de reconnaître que ces grandeurs traduisent la dynamique de la courbe dans l’espace. Leur étude ouvre la voie à une vision synthétique et rigoureuse de la géométrie des courbes, fondamentale pour toute étude plus avancée en géométrie différentielle et ses applications.