Les modèles perturbés jouent un rôle essentiel dans la compréhension des dynamiques cosmiques à grande échelle, notamment dans les contextes où la géométrie de l'univers est non-homogène. L'équation (20.225) illustre comment, dans certaines conditions particulières, le facteur kk se simplifie en k=1/kk = 1/k lorsque k=±1k = \pm 1, et en l'absence de perturbations (lorsque k=0k = 0), le terme contenant β+\beta+ disparaît. Cette relation illustre comment les perturbations peuvent affecter les modèles cosmologiques, en particulier en ce qui concerne les modèles de Szekeres et leur représentation dans des cadres linéarisés.

Dans un modèle linéarisé de perturbation, les coefficients comme 2S,tS\frac{2S,t}{S} et 3MS3=κρ2\frac{3\mathcal{M}}{S^3} = \frac{\kappa \rho}{2} sont tirés d'un modèle de fond de Friedmann. En revanche, dans les modèles perturbés, ces coefficients sont dérivés de la solution perturbée. Cela conduit à une approximation linéaire de l'équation principale qui décrit l'évolution du modèle. Les équations de perturbation linéarisées, telles que celles exprimées dans (20.200), révèlent des informations cruciales sur les déformations subies par l'univers de fond et montrent que l'approximation linéaire est un outil puissant pour décrire les petites fluctuations de densité.

La perturbation linéarisée, dans ce contexte, conduit à une définition de la densité perturbée δ\delta, qui est simplement le rapport entre la différence de densité ϵp\epsilon_p et la densité de fond ϵb\epsilon_b. Cependant, dans le cadre des modèles de Szekeres, cette relation prend la forme F=A(ϵpϵb)ϵbF = A \frac{(\epsilon_p - \epsilon_b)}{\epsilon_b}, où AA doit être proche de 1 pour que l'on retrouve une approximation correcte de δ\delta. Toutefois, dans la plupart des cas, FF n'a pas de signification physique claire, bien qu'il définisse une certaine déformation du modèle de fond de Friedmann.

Les modèles perturbés dans la représentation de G–W révèlent des comportements fascinants en ce qui concerne la dynamique des perturbations dans un univers non homogène. En particulier, la perturbation croissante est liée à l'hétérogénéité spatiale de la distribution de la matière (lorsque M,z0\mathcal{M}, z \neq 0), tandis que la perturbation décroissante résulte de l'absence de simultanéité du Big Bang (lorsque T,z0T, z \neq 0). Ce résultat n'a été mis en évidence que tardivement dans les modèles standards de Lemaître-Tolman, mais il souligne l'importance des fluctuations dans l'univers à grande échelle, telles que la distribution de la matière et l'énigme de la simultanéité du Big Bang.

Dans la représentation de G–W, il devient évident que les modèles de Szekeres permettent une explication plus claire de la dynamique de l'expansion et de la torsion de l'univers primordial. La solution aux équations qui décrivent cette dynamique montre que les singularités de courbure scalaires peuvent être de deux types : celles liées au Big Bang et celles résultant d'un croisement de coques. Le type de singularité dépend de la valeur du paramètre β\beta-, qui peut rendre la singularité du Big Bang ponctuelle ou en forme de cigare, ou encore en forme de crêpe lorsque β0\beta- \neq 0.

Les équations de l'expansion et du cisaillement des sources de matière, telles que θ=3S,tSF,tH\theta = \frac{3S,t}{S} - \frac{F,t}{H} et 2σ11=2σ22=σ33=2F,t3H2\sigma_{11} = 2\sigma_{22} = -\sigma_{33} = \frac{2F,t}{3H}, permettent d'analyser de manière plus approfondie les effets de la courbure et de la dynamique sur les propriétés de l'univers à grandes échelles. Le lien avec l'équation de Raychaudhuri, qui prend une forme linéarisée dans les modèles de Szekeres, montre la transition de la non-linéarité à la linéarité dans le cadre perturbé, fournissant ainsi une nouvelle perspective sur l'évolution de l'univers.

Il est également crucial de noter que dans les modèles perturbés, il peut y avoir des singularités dues à la courbure des géodésiques, comme celles qui surviennent lorsque S=0S = 0 ou H=0H = 0, ce qui désigne des événements cosmologiques majeurs tels que le Big Bang et les croisements de coques. La nature de ces singularités et leur influence sur l'évolution de l'univers ont des implications profondes sur notre compréhension des premières phases de l'univers.

L'étude des sous-cas sélectionnés de la famille Szekeres–Szafron offre un éclairage supplémentaire sur les solutions possibles pour des modèles spécifiques, comme celui de Szafron et Wainwright, qui explore les comportements particuliers lorsque α<1/3\alpha < 1/3. Ce modèle génère une expansion infinie à partir d'un Big Bang simultané et réduit à une métrique de Robertson-Walker lorsque certaines conditions sont remplies, tout en préservant une dynamique unique de la densité.

Le cas où α>1/3\alpha > 1/3 introduit une solution avec un qq complexe, donnant lieu à des oscillations entre Big Bang et Crunch, où les périodes deviennent de plus en plus longues avec le temps. Ces modèles sont à la frontière de la cosmologie classique et relativiste, et offrent des insights sur les évolutions cycliques de l'univers, où la densité de matière se comporte de manière analogue à une constante cosmologique décroissante.

En somme, les perturbations linéaires et la représentation de G–W dans les modèles Szekeres fournissent une base théorique robuste pour comprendre les évolutions spatiales et temporelles dans un cadre cosmologique relativiste non homogène. L'impact de ces modèles va bien au-delà des simples fluctuations de densité, en expliquant des phénomènes tels que la singularité du Big Bang, les croissements de coques et la dynamique complexe de l'expansion cosmique.

Quelles sont les conditions nécessaires à la séparabilité dans l'équation de Kerr-Maxwell?

L'étude de la séparabilité dans les équations de Kerr-Maxwell repose sur une série de conditions mathématiques qui garantissent que les solutions peuvent être exprimées sous une forme séparable, permettant ainsi de traiter plus facilement les équations complexes qui apparaissent dans la relativité générale avec la présence de champs électromagnétiques. L'une des étapes clés pour obtenir une telle séparabilité consiste à manipuler les facteurs qui apparaissent dans les termes de l'équation de Kerr, en particulier le facteur gZ-\frac{g}{Z}. Ce facteur est supposé dépendre uniquement de rr et de μ\mu, en raison de la symétrie que l'on impose au système, ce qui conduit à la nécessité de séparer la fonction en produits de fonctions univariées de rr et μ\mu.

Une fois cette hypothèse formulée, il est possible de redéfinir les variables pour atteindre une forme simplifiée, où l'on suppose que Z=ZrQμZμQrZ = Z_r Q_\mu - Z_\mu Q_r. Cela impose une condition nécessaire mais pas suffisante pour la séparabilité. Ce qui reste problématique est le terme lié à m0m_0, une constante de masse qui peut encore obstruer la séparation complète. Cependant, la solution à ce problème réside dans l'argument selon lequel ZZ doit avoir une forme spécifique, telle que Z=Uμ(μ)+Ur(r)Z = U_\mu(\mu) + U_r(r), où UμU_\mu et UrU_r sont des fonctions de μ\mu et de rr, respectivement.

Une condition importante pour la séparabilité complète réside dans l'annulation du terme ZrμZ_{r\mu}. Cela peut être satisfait dans l'une des trois façons suivantes : soit l'un des termes ZrZ_r, QμQ_\mu, ZμZ_\mu, QrQ_r est nul, soit ZrZ_r et ZμZ_\mu sont constants, soit QrQ_r et QμQ_\mu sont constants. Dans ce cadre, on adopte souvent la deuxième et la troisième situation, où ZrZ_r et ZμZ_\mu sont constants, ce qui est en accord avec les résultats obtenus dans l'approche de Carter (1973).

Après avoir résolu cette étape, la métrique de Kerr-Maxwell prend une forme particulière qui inclut la constante cosmologique et la charge magnétique, et qui permet d'intégrer les équations d'Einstein-Maxwell. Cette solution mène à une expression pour la fonction de potentiel électromagnétique qui dépend à la fois des variables rr et μ\mu, et montre l'importance d'adopter des transformations appropriées pour maintenir la symétrie du système.

À ce stade, l'introduction du champ électromagnétique via le potentiel 4-vector AαA_\alpha permet d'aboutir à une nouvelle forme d'équation, intégrant des termes complexes de ZrZ_r, ZμZ_\mu, et des expressions électromagnétiques qui, sous certaines conditions, mènent à des solutions séparables. Cela est crucial pour la résolution des équations de Maxwell et d'Einstein en présence de charges et de champs électromagnétiques, en particulier dans le contexte de la métrique de Kerr.

La résolution des équations de Maxwell, après avoir trouvé la séparation des variables, implique une solution pour les potentiels électromagnétiques XrX_r et XμX_\mu, qui dépendent respectivement de rr et μ\mu. Ces solutions peuvent être exprimées sous forme de constantes arbitraires, dont les valeurs dépendent des conditions physiques spécifiques du problème.

Enfin, pour garantir la cohérence physique de la solution, des conditions supplémentaires doivent être imposées, comme l'absence de singularités dans le cas μ=0\mu = 0, et l'obtention du bon comportement asymptotique au limit de Schwarzschild. Ces conditions assurent que la solution obtenue est non seulement mathématiquement correcte, mais aussi physiquement réaliste.

Ainsi, la séparation des variables dans le cadre des équations de Kerr-Maxwell n'est pas triviale et requiert une série d'ajustements dans les choix des fonctions ZrZ_r, ZμZ_\mu, et des constantes associées aux termes de la métrique et du champ électromagnétique. C'est par cette démarche rigoureuse que l'on parvient à une description cohérente des objets astrophysiques dans un espace-temps courbé, en tenant compte des effets électromagnétiques et des charges présentes.

Comment définir et interpréter la forme fondamentale seconde et les équations de Gauss-Codazzi dans les espaces riemanniens immergés ?

Dans l’étude des variétés riemanniennes immergées dans des espaces ambiants de dimension supérieure, la différentiation covariante joue un rôle fondamental. En partant de champs scalaires et vectoriels définis sur une sous-variété VnV_n plongée dans un espace ambiant UNU_N, on s’intéresse à la façon dont ces objets varient lorsqu’on se déplace le long de VnV_n. En particulier, la différentiation covariante de vecteurs tangentiels à VnV_n révèle une structure riche qui distingue la géométrie intrinsèque de VnV_n de sa géométrie extrinsèque, c’est-à-dire la manière dont VnV_n est courbée ou pliée dans UNU_N.

L’équation fondamentale qui apparaît, issue de la différentiation covariante combinée aux conditions d’immersion, peut s’écrire sous la forme (7.70) où un objet tensoriel, orthogonal à tous les vecteurs tangentiels à VnV_n, est exprimé en fonction de vecteurs normaux. Cette projection sur les directions normales définit ce que l’on appelle la forme fondamentale seconde Ωαβ(S^)\Omega_{\alpha\beta}^{(\hat{S})}. Chaque Ωαβ(S^)\Omega_{\alpha\beta}^{(\hat{S})} est symétrique par rapport aux indices α\alpha, β\beta et indexée par S^\hat{S} qui désigne une direction normale à la sous-variété. Cette forme traduit la manière dont les vecteurs tangentiels à VnV_n changent de direction lorsqu’on se déplace sur la sous-variété, mesurant ainsi la courbure extrinsèque.

La forme fondamentale seconde est intimement liée à la notion de dérivée covariante directionnelle des vecteurs tangentiels, projetée sur le complément orthogonal à VnV_n. C’est ce qui permet de différencier deux espaces riemanniens qui seraient intrinsèquement équivalents (ayant la même métrique) mais immersés différemment dans l’espace ambiant. Par exemple, une feuille plane et un cylindre dans R3\mathbb{R}^3 partagent la même géométrie intrinsèque, mais leur forme fondamentale seconde diffère, ce qui révèle la différence de leur immersion.

La solvabilité des équations d’immersion dépend des conditions d’intégrabilité, exprimées par la formule de Ricci (7.73), qui relie les dérivées covariantes successives des vecteurs tangents et le tenseur de Riemann intrinsèque de la variété VnV_n. Cette condition est nécessaire pour assurer que la variété puisse réellement être plongée dans un espace ambiant avec les propriétés souhaitées.

De plus, l’étude de la dérivée covariante des vecteurs normaux XA^X^{\hat{A}} aboutit à une autre interprétation de la forme fondamentale seconde : elle représente aussi la projection sur les vecteurs tangents de la variation des vecteurs normaux le long de VnV_n. Cette dualité enrichit la compréhension géométrique de l’immersion.

Un ensemble de champs vectoriels formant une base adaptée à l’espace ambiant permet d’exprimer la métrique GABG_{AB} en blocs, distinguant les composantes intrinsèques (liées à VnV_n) des composantes normales. Cette structure matricielle facilite la manipulation des objets géométriques et la formulation des relations entre courbure intrinsèque et extrinsèque.

Enfin, les équations de Gauss-Codazzi (7.89) et (7.90) apparaissent comme conditions essentielles liant la courbure intrinsèque de la variété VnV_n, sa forme fondamentale seconde, et la géométrie de l’espace ambiant. Ces équations garantissent la cohérence globale de l’immersion et jouent un rôle crucial dans la caractérisation des sous-variétés plongées.

Il est crucial de bien saisir que la forme fondamentale seconde ne se réduit pas à une simple mesure de courbure, mais constitue un pont entre la géométrie intrinsèque et la géométrie extrinsèque. Sa connaissance permet d’identifier des propriétés géométriques non détectables par la métrique seule. Par ailleurs, les contraintes d’intégrabilité sous-jacentes traduisent des liens profonds entre la topologie locale de VnV_n et les possibilités d’immersion dans UNU_N.

Dans une perspective plus large, ces notions s’appliquent à de nombreux domaines, allant de la théorie classique des surfaces à la relativité générale, où l’on analyse la courbure de l’espace-temps et ses embeddings dans des espaces de dimensions supérieures. Une compréhension fine des formes fondamentales secondes et des équations de Gauss-Codazzi est indispensable pour explorer les propriétés globales et locales des variétés dans ces contextes.

Les lentilles gravitationnelles : Un regard sur l'optique cosmique et ses limites

Les lentilles gravitationnelles, à la différence des lentilles optiques, n'ont pas la capacité de focaliser les rayons lumineux. Les rayons qui s'éloignent de l'axe optique sont déviés par des angles plus petits. En conséquence, il est impossible de « voir » quoi que ce soit à travers une lentille gravitationnelle de la même manière qu'on pourrait le faire avec une loupe : l'image est extrêmement déformée. Toutefois, un phénomène intéressant se produit : il y a une intensification de la lumière. En effet, les rayons qui, en l'absence de lentille, se disperseraient, finissent par se croiser à nouveau. Cette capacité des lentilles gravitationnelles à augmenter la portée des observations optiques a été démontrée de manière théorique et pratique (Schneider, Ehlers et Falco, 1992).

En pratique, est-il envisageable pour un observateur sur Terre d’utiliser le Soleil comme lentille gravitationnelle ? L’équation (14.92) nous permet de répondre de manière définitive : non. Les premiers rayons, ceux qui frôlent la surface du Soleil, se croisent à une distance dOdO qui devient plus petite à mesure que dSdS devient plus grand. En calculant cette valeur minimale dOdO dans la limite où dSdS → ∞, nous obtenons dmin=(cR)24GM=8.2×1010d_{\text{min}} = \frac{(cR)^2}{4GM} = 8.2 \times 10^{10} km, alors que le rayon de l'orbite terrestre est de 1.49597892×1081.49597892 \times 10^8 km. Cela signifie que dmind_{\text{min}} est plus de 13 fois plus grand que le rayon de l'orbite de Pluton, rendant ainsi toute tentative d’observation via une lentille solaire impossible. Une situation similaire se présente lorsqu'on considère la possibilité d'observer un phénomène de lentille gravitationnelle autour d'autres étoiles. Même pour l'étoile la plus proche, à 4,5 années-lumière de la Terre, avec la même taille que le Soleil, l'angle de déviation des rayons lumineux serait de seulement 3.4×1033.4 \times 10^{ -3}″, soit bien trop petit pour être mesuré.

Dans des conditions idéalisées, si l’on étendait les formules (14.83) et (14.92) aux distances intergalactiques, on pourrait conclure que les galaxies ont une certaine chance de servir de lentilles gravitationnelles. En substituant dans l’équation (14.92) la masse de notre galaxie M=1.4×1011MM = 1.4 \times 10^{11}M_\odot et son diamètre minimal R=5kpcR = 5 \, \text{kpc} (1 kpc = 3.0857×10213.0857 \times 10^{21} cm), on obtient dmin=9.33×102Mpcd_{\text{min}} = 9.33 \times 10^2 \, \text{Mpc}. En utilisant la formule de Hubble DL=zc/H0D_L = zc/H_0H067.11km/s/MpcH_0 \approx 67.11 \, \text{km/s/Mpc}, cette valeur de dmind_{\text{min}} correspond à un redshift z0.2z \approx 0.2. Si l’on considère un diamètre galactique de 30 kpc, cela donne un redshift z7.2z \approx 7.2. Ce redshift est similaire à celui des quasars, qui sont souvent observés comme lentilles gravitationnelles. En effet, la plupart des lentilles gravitationnelles observées se trouvent être des quasars. Même si cette approximation est grossière, elle mène à des résultats réalistes. Par exemple, pour une galaxie ayant un diamètre de 30 kpc et située à une distance de 1.34×1041.34 \times 10^4 Mpc (correspondant à z3z \approx 3), l'angle de déviation des rayons lumineux serait d'environ 0.20.2″, ce qui est mesurable.

Il est important de noter que les équations (14.83) et (14.92) ne s'appliquent pas aux quasars. Ces équations sont valables, au mieux, uniquement dans le champ gravitationnel d'une étoile sphérique unique. Les distances entre la Terre et les quasars étant gigantesques à l’échelle cosmologique, il est nécessaire de considérer les géodésiques nulles dans un modèle de l'Univers pour calculer la déviation des rayons lumineux sur de telles distances. En pratique, les lentilles gravitationnelles sont souvent décrites par une forme d’optique géométrique fondée sur la description newtonienne de la propagation de la lumière (Schneider, Ehlers et Falco, 1992). Bien que cette approche soit approximative, elle donne des résultats qui sont globalement en accord avec les observations.

Une forme particulière de lentille gravitationnelle, connue sous le nom de "microlentille", a été observée avec succès en mesurant les changements d'intensité de la lumière des étoiles lointaines lorsqu'elles sont occultées par des lentilles. Ce phénomène est devenu une méthode précieuse pour observer des objets célestes autrement difficiles à détecter (Wambsganss, 2006).

L'un des exemples les plus célèbres de lentilles gravitationnelles est le "croix d'Einstein" (voir Figure 14.5), qui présente quatre points lumineux créés par le quasar QSO 2237+0305 et une galaxie située plus près, ZW 2237+030. L'image complexe est le résultat de l'absence de symétrie du système lenticulaire. Un autre exemple fascinant est la galaxie LRG 3-757 (Figure 14.6), où la lumière d'une galaxie lointaine forme presque un anneau complet autour de la galaxie voisine, en raison de l’arrangement presque axiquement symétrique de la lentille.

Le phénomène des lentilles gravitationnelles nous montre que la lumière, malgré sa trajectoire rectiligne apparente, est déviée et déformée par la gravité, même à des échelles cosmiques immenses. Cela ouvre des perspectives sur des observations de plus en plus détaillées de l'Univers, bien que ces phénomènes demeurent limités par des contraintes théoriques et pratiques, qui restent un terrain de recherche actif.

Comment évoluent les structures cosmiques à partir des conditions initiales de densité et de vitesse ?

Les études approfondies basées sur la géométrie de Lemaître-Tolman (L–T) ont permis de modéliser numériquement l’évolution des configurations initiales, définies à l’époque du dernier découplage, vers des structures actuelles telles que les amas de galaxies, les vides cosmiques, ou encore les galaxies abritant un trou noir central. Ces modèles confirment que les perturbations initiales de densité ou de vitesse sont d’une échelle angulaire plus petite que la résolution des anisotropies observées du fond diffus cosmologique (CMB). Une conclusion fondamentale qui en découle est que deux modèles partageant un profil initial de densité identique peuvent évoluer de manière totalement divergente selon leurs profils initiaux de vitesse. En d’autres termes, la distribution initiale des vitesses joue un rôle décisif et parfois dominant sur la formation finale des structures, au-delà de la simple densité initiale.

Une démonstration numérique explicite a ainsi montré qu’un vide cosmique peut se transformer en une condensation dense, ce qui illustre la complexité non triviale de ces dynamiques. La variation du temps du Big Bang (BB) nécessaire pour produire un amas de galaxies à l’heure actuelle est estimée à environ 300 ans selon les modèles L–T, une valeur infime si on la compare aux fluctuations angulaires mesurées du CMB. Cette cohérence entre la théorie et l’observation souligne la précision de ces modélisations.

Un aspect particulièrement révélateur concerne la capacité relative des perturbations de vitesse et de densité à engendrer des structures. D’après Bolejko et al. (2010), une perturbation purement cinématique, avec une amplitude très faible, peut à elle seule quasiment engendrer un amas de galaxies. En revanche, la perturbation de densité nécessaire pour aboutir à la même configuration finale excède les contraintes observationnelles de plusieurs ordres de grandeur. Ceci démontre que la dynamique initiale des vitesses génère plus efficacement la formation des structures que la distribution initiale de matière. Dans les modèles homogènes de Robertson–Walker, la vitesse est rigidement liée à la densité par la loi de Hubble, ce qui ne laisse aucune latitude à une influence indépendante de la vitesse, contrastant fortement avec la flexibilité offerte par les modèles L–T.

Le modèle d’évolution « vitesse-vers-vitesse » (bi(M) = Rt(ti,M)/M1/3) permet de définir les conditions d’existence d’une évolution cosmique entre deux états donnés. Les inégalités qui s’en déduisent traduisent des contraintes physiques sur l’expansion, telles que la nécessité pour l’expansion finale d’être plus rapide ou plus lente que celle d’un modèle critique E = 0 selon le cas. Ces résultats forment un cadre rigoureux pour analyser l’évolution temporelle des profils de vitesse dans un univers en expansion.

La question de l’influence de l’expansion cosmique sur les orbites planétaires a également fait l’objet d’études formelles rigoureuses, notamment par Einstein et Straus. Leur analyse a établi que la solution de Schwarzschild, décrivant le champ gravitationnel autour d’une masse isolée, peut être raccordée à tout modèle de Friedmann, formant ainsi une "vacuole" dans l’espace-temps en expansion. Cette vacuole se dilate avec l’univers, mais les orbites planétaires qui s’y trouvent ne sont pas affectées par l’expansion cosmique. Cette conclusion découle de la nécessité de définir un "étalon" invariant, une grandeur fixe face à laquelle mesurer toute modification. L’absence de variation des orbites dans ce cadre illustre la séparation nette entre les échelles astrophysiques locales et l’évolution cosmologique globale.

Le lien entre la masse Schwarzschildienne au centre de symétrie et la masse Friedmannienne contenue dans la même sphère garantit la cohérence des deux descriptions. Ce principe est essentiel pour comprendre comment les objets isolés peuvent exister dans un univers en expansion sans que leur dynamique locale soit perturbée par cette expansion.

Il est crucial de comprendre que les perturbations initiales en vitesse ne sont pas seulement un paramètre supplémentaire, mais constituent un élément fondamental capable de modifier radicalement la trajectoire évolutive des structures cosmiques. Cette observation bouleverse la vision classique où la densité seule régissait la formation des galaxies et des amas. Le rôle prédominant de la vitesse souligne aussi la complexité du cosmos réel, où des conditions initiales fines et variées donnent naissance à la diversité observée.

Par ailleurs, la distinction nette entre les échelles locales et globales dans l’univers est primordiale. Les effets cosmiques globaux n’altèrent pas automatiquement les phénomènes locaux tels que les orbites planétaires, car les structures gravitationnelles locales peuvent se détacher efficacement du flot d’expansion de l’univers. Cette séparation des échelles est une clé pour comprendre comment l’univers peut à la fois s’étendre à grande échelle et maintenir des configurations stables à petite échelle.