Dans les modèles cosmologiques de Lemaître–Tolman (L–T), la densité de masse devient infinie dans les régions où la dérivée radiale de la fonction d’échelle, R,rR_{,r}, s’annule alors que la dérivée radiale de la masse, M,rM_{,r}, reste non nulle. Cette situation génère une singularité de type "croisement des couches" (shell crossing, SC). À ces endroits, la distance radiale entre deux coquilles adjacentes, caractérisées par des valeurs différentes de rr, devient nulle. Si la dérivée R,rR_{,r} change de signe, alors la densité de masse devient négative de l’autre côté du croisement, une aberration physique.

Les composantes tétradiques du tenseur de courbure de Riemann dans la métrique L–T mettent en évidence le caractère singulier du SC : certains invariants scalaires deviennent infinis. Pourtant, contrairement au Big Bang, une telle singularité est dite « faible ». Elle n’induit pas de concentration de géodésiques en une surface ou une ligne, ce qui signifie que les objets matériels traversant un SC ne sont pas détruits. Cela permet de l’interpréter comme une limite à pression nulle d’une onde acoustique de densité élevée mais finie. De plus, en présence de gradients de pression réels – exclus du cadre du modèle L–T – on estime que ces singularités sont évitables.

Deux approches permettent d'éviter les SC : soit en imposant que R,r0R_{,r} \neq 0 partout, soit en s'assurant que R,r=0R_{,r} = 0 uniquement là où M,r=0M_{,r} = 0, tout en gardant la limite de M,r/R,rM_{,r} / R_{,r} finie. Cela garantit que tous les invariants de courbure restent bornés. En particulier, si l’on choisit MM comme coordonnée radiale, la condition suffisante devient la régularité de la limite de R,M3R^3_{,M}. Ainsi, la singularité apparente est éliminée et remplacée par une simple singularité de coordonnées, que l’on peut faire disparaître par un changement approprié de système de coordonnées.

Toutefois, une situation singulière et physiquement significative émerge lorsque l’énergie spécifique E(r)E(r) atteint la valeur critique 1/2-1/2 en un point r=rwr = r_w. Dans ce cas, les horizons apparents passé et futur se rejoignent au même instant, à l’endroit appelé goulot ou col (neck), correspondant à l’instant d’expansion maximale du modèle. C’est une généralisation de la « gorge » de Kruskal–Szekeres, retrouvée dans la solution de Schwarzschild pour r=2mr = 2m.

La structure géométrique dans un voisinage d’un col est topologiquement non triviale : toute géodésique lumineuse radiale sortant de l’horizon apparent passé entre dans l’horizon apparent futur. Aucun signal lumineux ne peut être envoyé d’un côté du col à l’autre durant l’intervalle de temps où les horizons existent. Ce comportement correspond à un pont causalement fermé, isolant causalement les deux régions du spacetime – une structure que l’on peut interpréter comme un trou de ver dynamique, sans pour autant que la symétrie miroir soit requise.

Dans la limite du vide (M,r=0M_{,r} = 0 sur une région étendue), le col devient identique à la gorge de Kruskal–Szekeres. Mais dans le cas non vide, il peut être asymétrique et dépendre fortement du profil des fonctions libres du modèle L–T. Ce phénomène a été observé pour la première fois par Barnes dès 1970.

Il est crucial de noter que de telles structures ne sont accessibles ni à l’observation directe ni à l’inférence indirecte. Par exemple, l’horizon des événements ne peut être localisé qu’a posteriori, dans une construction théorique complète de l’histoire spatiotemporelle, et jamais par des observations astrophysiques. L’unique information observable concerne la limite supérieure de la masse à l’intérieur de l’horizon apparent – une donnée strictement différente.

Il reste que les SC, bien qu’êtres des singularités, n’impliquent pas nécessairement des désintégrations physiques catastrophiques. Leur « dangerosité » est réduite dans la mesure où elles ne focalisent pas les géodésiques et peuvent être éliminées par un choix judicieux des fonctions libres du modèle. En revanche, les cols mettent en jeu des structures globales de l’espace-temps, affectant la causalité même des régions concernées. Leurs implications sont profondes tant pour la cosmologie que pour la physique gravitationnelle, notamment dans le contexte de l'effondrement gravitationnel et de la genèse potentielle de ponts de type Einstein–Rosen.

Ce qu’il est essentiel de comprendre ici, c’est que les modèles de Lemaître–Tolman, tout en étant des solutions exactes des équations d’Einstein, sont hautement sensibles aux choix des fonctions initiales. La nature même des singularités, leur apparition ou leur évitement, dépendent entièrement de ces choix. Cela signifie que même en absence de pression, la géométrie gravitationnelle permet l’émergence de structures d’une complexité extrême, déterminées uniquement par la configuration initiale de la matière. Le caractère déterministe de la relativité générale se double donc d’une richesse phénoménologique étonnante, où la topologie même de l’espace-temps devient une variable dynamique.

Comment la métrique de Kerr-Schild peut-elle être dérivée et utilisée pour décrire des espaces-temps vacuums en présence de champs de Killing ?

La métrique de Kerr-Schild est un outil mathématique puissant pour décrire des espaces-temps dans la relativité générale, notamment ceux associés aux trous noirs. Cette métrique, qui est une solution exacte des équations d'Einstein, offre une façon élégante de traiter des situations complexes où des symétries particulières, comme les champs de Killing, jouent un rôle crucial. L’un des aspects fondamentaux de cette métrique est sa capacité à décrire des solutions de vide dans un cadre de calcul géométrique robuste.

En examinant les relations entre les différents termes du tenseur de Ricci et les métriques associées, il devient évident que les équations comme Rμν=0R_{\mu\nu} = 0 (les équations de champ de vide) sont essentielles pour déterminer la forme de la métrique. Cela inclut des manipulations complexes qui nécessitent d'utiliser des relations de type tetrade et les propriétés d'orthogonalité de ces dernières vis-à-vis des métriques de Minkowski et de la métrique générale gμνg_{\mu\nu}.

Un des résultats les plus intéressants découle de l’utilisation de la relation ρPρ=1Z+1ZYuYu\ell^\rho P_{\rho} = - \frac{1}{Z} + \frac{1}{Z} Y_u Y_u (équation 21.29), où les fonctions YY et YY sont indépendantes. En introduisant des relations de dépendance linéaire entre les gradients de PP, YY, et YY, nous trouvons que ces fonctions doivent nécessairement satisfaire une relation fonctionnelle implicite du type ψ(P,Y,Y)=0\psi(P, Y, Y) = 0. Ce type de dépendance conduit à une simplification importante du problème, permettant de réduire le nombre d’équations nécessaires pour caractériser la métrique de Kerr-Schild.

De plus, le calcul de la dérivée directionnelle de certaines équations, comme Yu=Y/FYY_u = - Y/F_Y, en utilisant les relations Yu=ZPYY_u = - Z P_Y, permet d’exprimer la métrique de manière explicite. Cela montre comment les relations entre ces fonctions permettent de réduire les calculs nécessaires pour déterminer les composantes de la métrique, avec des simplifications apparentes dues aux propriétés des champs de Killing, qui jouent un rôle fondamental dans la construction de ces solutions.

Une autre question clé dans cette construction est celle de la détermination de la fonction Φ(Y)\Phi(Y) dans l’équation (21.37). En supposant que Φ(Y)=αY2+βYα\Phi(Y) = \alpha Y^2 + \beta Y - \alpha, nous pouvons utiliser des transformations non covariantes pour simplifier cette fonction et obtenir la forme finale de la métrique de Kerr-Schild. Cette étape est cruciale car elle permet de rendre la solution explicitement dépendante de variables plus simples, tout en préservant la structure de symétrie du problème.

La résolution de cette équation repose sur une transformation en coordonnées adaptées, ce qui permet de redéfinir la métrique dans un cadre plus simple. Cette redéfinition est effectuée en ajustant les coordonnées (u,v,ξ,ξ)(u, v, \xi, \xi) de manière à ce que le champ de Killing devienne colinéaire avec l'axe temporel du système de Minkowski de fond. Après cette transformation, les coordonnées spatiales peuvent être définies de manière plus intuitive, en particulier avec l’introduction de la fonction r(x,y,z)r(x, y, z), qui décrit la géométrie de l'espace-temps en termes de coordonnées cartésiennes. Cela permet de représenter des surfaces de révolution confocales, qui sont essentielles dans la description de phénomènes astrophysiques comme ceux associés aux trous noirs de Kerr.

Il est également important de noter que cette approche présente certaines limites, notamment lorsque l’on considère l'extension de la métrique pour r<0r < 0. Bien que cette extension soit possible, elle implique des défis supplémentaires qui nécessitent une analyse plus approfondie des singularités et des comportements asymptotiques du modèle.

Le processus de dérivation des équations du tenseur de Ricci et des relations qui en résultent, ainsi que l'interaction des fonctions PP, YY, et YY, nous permet de mieux comprendre les subtilités de la métrique de Kerr-Schild. Ces résultats fournissent des outils précieux pour étudier des situations cosmologiques et astrophysiques où les symétries, telles que celles du champ de Killing, sont présentes.

Il est également essentiel de comprendre que cette méthodologie n’est pas qu'une simple application des équations d’Einstein. Elle repose sur une série de choix de coordonnées, d’hypothèses sur les champs de Killing et de manipulations algébriques fines qui, ensemble, permettent d’arriver à une solution cohérente et interprétable de l’espace-temps. Cela souligne la flexibilité et la puissance de la métrique de Kerr-Schild dans la description des phénomènes relativistes extrêmes.

Quels sont les types d’espaces-temps de Bianchi pouvant admettre une isotropie sphérique ?

Les espaces-temps de type Bianchi se définissent par l’existence de trois champs de Killing linéairement indépendants, générateurs de la symétrie d’homogénéité spatiale. Ces champs sont tangents aux hypersurfaces homogènes à trois dimensions, définissant ainsi un champ vectoriel orthogonal mαm^\alpha, construit par la dualité avec le produit extérieur des Killing. Une particularité fondamentale de ces modèles est que les métriques correspondantes peuvent toujours être exprimées sous une forme diagonale temporelle, ds2=dt2gIJ(t)dxIdxJds^2 = dt^2 - g_{IJ}(t) dx^I dx^J, dans une base liée aux structures invariantes. Ce formalisme permet de faire varier les composantes g(j)(k)(t)g_{(j)(k)}(t) du tenseur métrique uniquement avec le temps, reflétant ainsi l’homogénéité spatiale stricte.

Toutefois, une question essentielle en cosmologie relativiste concerne la possibilité d’implanter une isotropie spatiale dans ce cadre, c’est-à-dire une symétrie sphérique superposée à l’homogénéité. L’espace-temps de Robertson–Walker constitue un exemple canonique où cette double condition est satisfaite. Pour cela, la métrique doit être de la forme ds2=dt2+γ(t,r)dr2+δ(t,r)(dϑ2+sin2ϑdφ2)ds^2 = dt^2 + \gamma(t, r)dr^2 + \delta(t, r)(d\vartheta^2 + \sin^2\vartheta d\varphi^2), avec une symétrie O(3) intégrée, dont les orbites sont à deux dimensions. Or, O(3) ne peut être un sous-groupe du groupe d’homogénéité H des types de Bianchi, car il agit de manière multiple-transitive, tandis que H, en tant que groupe d’isométrie simplement transitif, possède des orbites tridimensionnelles.

Ce conflit structurel implique que O(3) et H ne peuvent avoir de sous-groupe commun non trivial. Ainsi, si une métrique est à la fois homogène et isotrope, le groupe de symétrie global doit être de dimension six, contenant O(3) et H comme sous-groupes disjoints. Cette contrainte découle de la borne maximale sur la dimension du groupe d’isométrie d’une variété à trois dimensions : 12n(n+1)=6\frac{1}{2}n(n+1) = 6.

La résolution des équations de Killing pour une telle métrique s’avère ardue mais mécaniquement directe. On y découvre que les contraintes imposées aux champs de Killing réduisent considérablement la forme admissible des fonctions métriques γ\gamma et δ\delta. Les équations couplées, bien que redondantes, permettent d’isoler des cas particuliers : l’une des solutions notables obtenues par cette analyse est celle de Kantowski–Sachs, où la métrique prend la forme ds2=dt2R2(t)dr2S2(t)(dϑ2+sin2ϑdφ2)ds^2 = dt^2 - R^2(t)dr^2 - S^2(t)(d\vartheta^2 + \sin^2\vartheta d\varphi^2), une configuration qui admet quatre générateurs de symétrie. Cependant, le groupe ainsi généré ne peut contenir un sous-groupe simplement transitif à trois paramètres, excluant donc ces métriques du classement Bianchi.

Le groupe O(3), présent dans ces configurations isotropes, introduit des champs de Killing qui génèrent des orbites sphériques invariantes. Ces orbites sont décrites par les champs J(2),J(3),J(4)J_{(2)}, J_{(3)}, J_{(4)}, qui représentent les rotations sur la sphère, mais ils n'engendrent pas d’homogénéité tridimensionnelle. Ainsi, malgré leur apparente simplicité, les métriques de type Kantowski–Sachs, historiquement introduites dès 1938 par Datt, n’appartiennent pas aux classifications de Bianchi, bien qu’elles admettent des solutions cosmologiquement pertinentes.

Ce panorama met en lumière une propriété souvent négligée : l’incompatibilité structurelle entre l’isotropie sphérique complète et l’homogénéité simplement transitive. Cela signifie que toute métrique présentant une symétrie sphérique maximale n’est pas un cas particulier d’un espace-temps de type Bianchi, mais relève d’une classe distincte, souvent oubliée, quoique historiquement bien documentée.

Il est également crucial de noter que l’apparition des fonctions g(j)(k)(t)g_{(j)(k)}(t) dépend exclusivement du temps, reflétant l’évolution dynamique du modèle. Cela permet d'étendre l’analyse des métriques de type Bianchi à des solutions anisotropes réalistes en cosmologie, telles que celles de types I à IX. Chacun d’eux possède des structures invariantes spécifiques, et l’obtention des champs ωI(i)\omega^{(i)}_I, inverse des champs invariants X(i)IX^I_{(i)}, constitue une étape centrale dans la construction géométrique des métriques correspondantes.

Pour étendre la compréhension du lecteur, il est essentiel d’introduire le concept d’orbites du groupe d’isométrie et leur relation avec les sous-groupes simplement transitifs. La distinction entre une action simplement transitive et une action multiple-transitive permet de mieux cerner pourquoi certains groupes de symétrie, comme O(3), ne peuvent intervenir dans la structure homogène de Bianchi. De même, il serait judicieux d’inclure une discussion sur le rôle de la décomposition de Cartan dans la classification des types de Bianchi, ainsi que l’interprétation physique des composantes temporelles nulles des champs de Killing.

Quelle est la validité de l’approximation du fluide et le principe cosmologique dans la modélisation de l’Univers ?

La description de l’Univers à grande échelle repose souvent sur une modélisation simplifiée dans laquelle la matière est traitée comme un fluide continu, que ce soit un gaz ou un liquide, caractérisé par des grandeurs scalaires telles que la densité de masse ou la pression, des grandeurs vectorielles comme la vitesse d’écoulement, voire des tenseurs, par exemple dans le cas d’un champ électromagnétique. Cette approche, bien qu’efficace pour certains calculs, demeure cependant une approximation grossière de la réalité cosmique, qui est fondamentalement granulaire : les unités élémentaires ne sont pas des particules fluides mais des objets distincts comme les étoiles, les galaxies ou encore les amas de galaxies. Cette granularité impose que les grandeurs moyennes locales, comme la densité moyenne, ne peuvent à elles seules rendre compte de la structure réelle observée.

La définition même de ce qu’est une « cellule élémentaire » dans ce fluide cosmique a évolué au fil du temps. Initialement, Hubble considérait les galaxies comme ces unités fondamentales. Avec le progrès des observations, la notion a été élargie aux amas de galaxies, puis à des structures encore plus vastes telles que les régions vides (voids) entourées de filaments et de superamas. Aujourd’hui, certaines théories suggèrent que les unités de base de la structure cosmique sont des groupes de ces vides, soulignant à quel point la perspective sur l’homogénéité de l’Univers est liée à l’échelle d’observation et à la sophistication des instruments disponibles.

Cette quête d’homogénéité et d’isotropie à grande échelle conduit à l’adoption du principe cosmologique, un postulat majeur en cosmologie moderne. Héritier direct de la pensée copernicienne, ce principe affirme que la position de l’observateur n’est pas privilégiée dans l’Univers. Plus précisément, il existe une version faible du principe stipulant que notre position n’est pas spéciale, tandis que la version forte pose que toutes les positions sont équivalentes, ce qui entraîne que les propriétés géométriques et physiques de l’Univers sont indépendantes du point d’observation.

Il est essentiel de comprendre que ce principe n’est pas issu d’une preuve empirique mais constitue une hypothèse fondatrice sur laquelle repose toute la construction théorique de la cosmologie standard. Il a permis, dans les années 1920, d’élaborer les premiers modèles relativistes de l’Univers (Friedmann, Lemaître) sans données d’observation contradictoires. Aujourd’hui, bien que ce principe demeure au cœur des modèles cosmologiques dominants, son caractère non vérifié directement pose des questions épistémologiques fondamentales. Il existe en effet des modèles cosmologiques alternatifs, ne respectant pas ce principe, qui pourraient s’avérer compatibles, voire plus adaptés, aux observations à venir.

L’observation elle-même est soumise à des limitations : la précision décroît rapidement avec la distance, et toute extrapolation des données locales vers des volumes cosmologiques étendus implique nécessairement un degré d’arbitraire. Les résultats cohérents obtenus ne garantissent pas l’unicité de la modélisation, ni l’exclusivité de l’hypothèse adoptée.

L’isotropie observée autour de notre position, notamment à travers l’homogénéité du fond diffus cosmologique, est souvent considérée comme une preuve indirecte du principe cosmologique. Mais il convient de souligner que si l’espace est isotrope autour de chaque point, alors il est homogène, ce qui motive l’usage des métriques de Robertson-Walker dans la description de la géométrie de l’espace-temps cosmique. Cette homogeneité est un postulat de base dans la formulation des équations d’évolution de l’Univers.

Enfin, le modèle hydrodynamique appliqué à la matière cosmique, supposant que chaque point de l’Univers puisse être décrit par une densité d’énergie, une pression, et un vecteur vitesse, repose sur l’hypothèse audacieuse que les lois de l’hydrodynamique, éprouvées en laboratoire, s’appliquent également à l’échelle cosmologique. Cette extrapolation soulève des défis et appelle à la prudence dans l’interprétation des résultats obtenus.

Au-delà de cette modélisation, il est crucial de considérer que le principe cosmologique, bien qu’essentiel, ne constitue pas une vérité absolue mais un outil heuristique. Sa validité doit constamment être réévaluée à la lumière des avancées observationnelles et théoriques. La recherche d’alternatives et de tests rigoureux est indispensable pour progresser vers une compréhension plus complète et nuancée de la structure et de la dynamique de l’Univers.

Quelle est l'importance des tenseurs et des surfaces différentiables dans la géométrie et la physique ?

Dans la géométrie différentielle, lorsque nous transportons un vecteur le long d'une boucle fermée, le vecteur final ne correspond généralement pas au vecteur initial, à cause de la courbure de la surface. Ce phénomène, essentiel à la compréhension des espaces courbes, révèle que la courbure de la surface joue un rôle fondamental dans la variation des vecteurs lors du transport. La relation entre le vecteur initial, final et la courbure, bien que complexe, est cruciale dans les formulations géométriques avancées et sera étudiée plus en détail dans les sections suivantes. Cette idée est plus facile à visualiser sur une surface bidimensionnelle, mais elle devient plus délicate à appréhender dans des espaces de dimensions supérieures, où la notion de "parallélisme à distance" devra être introduite pour remplacer la simple condition de dérivée nulle ∂vi/∂xj dans un espace plat.

Dans le contexte de la physique newtonienne, nous avons l'habitude de travailler avec des systèmes de référence privilégiés, tels que les systèmes inertiels dans lesquels les lois de la dynamique newtonienne s'appliquent. Cependant, ces systèmes de référence ne sont pas toujours facilement identifiables dans la pratique. Par exemple, il peut être difficile de déterminer si un objet est en accélération ou au repos dans un champ gravitationnel. C'est pourquoi il est crucial de formuler les lois de la physique de manière à ce qu'elles soient indépendantes du choix du système de référence. Cela implique qu'aucun système de référence ne doit être privilégié. Les tenseurs sont des objets mathématiques conçus pour être indépendants du choix du système de coordonnées. En effet, lorsqu'un système de coordonnées change dans un espace n-dimensionnel, un tenseur se transforme de manière spécifique et prévisible, ce qui garantit que les lois physiques restent valides quel que soit le système de coordonnées utilisé.

Un tenseur peut être décrit comme un ensemble de fonctions dans un espace qui se transforme d'une manière bien déterminée lorsqu'on modifie les coordonnées. Cette transformation est essentielle pour étudier des espaces non euclidiens, tels que ceux utilisés en relativité. Les variétés différentiables sont la classe la plus générale de tels espaces que l'on considère. Une variété différentiable est un espace Mn dans lequel chaque point x possède un voisinage 𝒪x, et il existe une correspondance bijective entre ce voisinage et une portion de ℝn. Ce concept est une généralisation de l'idée de surface courbée, et chaque point d'une telle variété a une surface tangentielle associée, bien définie par les courbes passant par ce point.

La notion de variété différentiable n'est pas seulement une abstraction théorique ; elle a des implications pratiques profondes en physique et en géométrie. Par exemple, dans l'espace ℝn, chaque famille d'hypersurfaces définit une famille de vecteurs orthogonaux. Ces vecteurs sont essentiels pour la construction de champs de vecteurs dans ces espaces, où les bases des espaces tangents sont obtenues à partir de familles de courbes et de leurs vecteurs tangents. Ce cadre est fondamental pour développer une compréhension plus profonde des champs de vecteurs dans des espaces courbes.

Les tenseurs peuvent être classés en plusieurs types, selon la manière dont ils se transforment sous un changement de coordonnées. Par exemple, les scalaires sont les objets les plus simples, car ils ne se transforment que par substitution de leurs arguments lors du changement de coordonnées. Les vecteurs contravariants, qui correspondent aux champs de vecteurs tangents, se transforment de manière spécifique en fonction des coordonnées. Ces vecteurs sont essentiels pour décrire les mouvements et les forces dans un espace courbe. De manière similaire, les vecteurs covariants, qui sont liés aux gradients des fonctions, jouent un rôle clé dans l'analyse des variations et des champs dans ces espaces.

Ce cadre mathématique permet de décrire des phénomènes physiques complexes, où la notion de distance et d'angle ne reste pas nécessairement fixe dans un espace courbe. Par exemple, dans le cas de la relativité générale, les tenseurs permettent de formaliser les lois de la gravité, indépendamment du choix du référentiel. Ils sont également utilisés pour décrire les propriétés intrinsèques des espaces courbes, telles que la courbure et la torsion, qui ne dépendent pas d'une mesure externe mais de la structure interne de l'espace lui-même.

Il est essentiel de comprendre que les tenseurs ne sont pas simplement des objets abstraits ; ce sont des outils puissants permettant de décrire et d'analyser des systèmes physiques de manière générale et indépendante du choix d'un système de coordonnées. Une autre caractéristique importante des tenseurs est leur capacité à encapsuler les lois de conservation et d'invariance dans des systèmes dynamiques, ce qui est particulièrement pertinent pour les théories modernes de la physique, comme la relativité et la théorie des champs.

Un élément central du travail avec des tenseurs et des variétés différentiables est la notion de calcul différentiel sur ces espaces. En effet, l'outil fondamental de ce calcul est la dérivée, et les propriétés de cette dérivée dans des espaces courbes sont un sujet clé de la géométrie différentielle. La capacité à manipuler les dérivées de fonctions et de vecteurs dans ces espaces courbes permet de résoudre des problèmes de plus en plus complexes dans les domaines de la physique théorique et de la géométrie.