Le processus de contact sexuel (SCP), introduit comme une version orientée et attractive du modèle FA-2f, se distingue par son comportement hors équilibre. Décrit sur un réseau $\mathbb{Z}^2$ en temps continu, il repose sur des mises à jour locales dépendantes de l'état de deux voisins orientés. Si les deux voisins d’un site $x$ dans les directions $e_1$ et $e_2$ sont dans l’état 0, alors $x$ devient 0 avec probabilité $q$ ou 1 avec probabilité $1 - q$ ; dans les autres cas, $x$ reste inchangé avec probabilité $q$ ou passe à 1 avec probabilité $1 - q$. Ce mécanisme renforce la stabilité des configurations à faible densité d’états actifs (états 1).

La comparaison canonique entre le SCP et FA-2f est rendue possible par un couplage fondé sur les mêmes horloges de Poisson et les mêmes variables aléatoires de Bernoulli. Cette construction permet d’enchâsser le processus FA-2f dans le SCP, grâce à l’inégalité $\eta_x(t) \leq \zeta_x(t)$ pour tout $x$ et $t$, lorsque l’état initial du SCP est entièrement actif. Cependant, cette borne reste grossière. Pour raffiner cette comparaison, on introduit les sites orange, une structure dynamique dépendante du processus SCP. À chaque mise à jour de l’état du site $x$, le site est retiré de l’ensemble orange s’il devient 0, ou ajouté s’il devient 1 et si un de ses voisins appartient à l’ensemble orange. Ces sites délimitent l’influence de la condition initiale sur le processus.

L’analyse montre que l’ensemble orange s’amenuise dans le temps et devient vide avec haute probabilité pour $q$ proche de 1, ce qui implique la perte de mémoire du système vis-à-vis de ses conditions initiales. Le comportement du SCP devient alors essentiellement déterminé par la dynamique intrinsèque, et non par l’histoire.

Pour passer du pire cas initial (état complètement actif) au meilleur (état vide), on utilise un second outil de couplage inspiré de la percolation en dernier passage. On définit un ensemble $L_t$ évoluant par suppression de sites sous certaines conditions défavorables à l’élimination de l’activité. Ce couplage entre deux processus SCP — l’un partant de l’état 1, l’autre de l’état 0 — permet de contrôler la propagation des différences entre configurations initiales. On en déduit que les composantes connectées du graphe espace-temps des états 1 restent confinées, avec probabilité exponentiellement proche de 1, dans un cylindre de hauteur proportionnelle à $n$.

Pour affiner encore cette analyse, le temps est discrétisé : on découpe l’évolution du processus en intervalles fixes de durée $T$. Un site $(m, x)$ est déclaré bon si, pendant l’intervalle $[mT, (m+1)T)$, le site $x$ est visité par un anneau d'horloge qui cherche à le faire passer à 0, tandis qu’aucun site $x$, $x+e_1$ ou $x+e_2$ n’est incité à passer à 1. Pour $\varepsilon$ suffisamment petit, ces événements sont très probables et faiblement dépendants. Ce système discrétisé s’interprète alors comme un processus de percolation orientée de type Nord-Est avec mort (North-East BP with death), où les sites ne peuvent rester actifs que s’ils sont connectés à des ancêtres actifs via une chaîne temporelle ascendante.

En mobilisant le concept de cycles de Toom, on montre que ces chaînes de dépendance sont fortement réprimées pour $q$ proche de 1, rendant l’apparition de longues cascades de réactivation improbable. Cette propriété est essentielle : elle garantit que l’activité ne peut persister que localement et temporairement, empêchant l’émergence d’une phase active stable.

Ce tableau s’inscrit dans une perspective plus large de phénomènes hors équilibre, où l’équilibre thermodynamique n’est pas atteint, et où les dynamiques locales induisent des effets collectifs subtils. Le SCP constitue un exemple paradigmatique de processus dans lequel l’absence de solution stationnaire explicite pour la mesure invariante est compensée par des mécanismes géométriques de confinement et d’extinction de l’activité.

Il est crucial de comprendre que ces résultats ne reposent pas sur une symétrie de renversement temporel ou une balance détaillée classique. Ils sont obtenus via des méthodes probabilistes dynamiques — couplages, percolation, métriques exponentielles — qui permettent d’atteindre une forme de loi des grands nombres qualitative sur les trajectoires du système. Le rôle de la condition initiale, souvent négligé dans les systèmes à équilibre, devient ici central : les configurations initialement actives voient leur influence s’effacer, mais à une vitesse qui dépend finement de la topologie du réseau, de l’orientation du processus et des constantes de transition.

Pourquoi l’origine peut-elle s’éteindre exponentiellement vite dans les modèles cinétiquement contraints ?

Dans l’analyse des modèles cinétiquement contraints (KCM), une question centrale est de savoir à quelle vitesse un site — en particulier l’origine — peut être vidé, c’est-à-dire mis dans un état « inactif » ou « vide » à travers des mises à jour légales. Cette question, bien qu’issue d’une dynamique probabiliste, admet une réponse profondément ancrée dans la structure géométrique et ergodique du modèle. Elle repose sur la relation entre la percolation bootstrap (BP) et les KCM, ainsi que sur la façon dont cette relation permet de transférer les comportements qualitatifs vers des résultats quantitatifs.

La démonstration s’articule autour de l’équivalence entre différentes formulations de la décroissance exponentielle du temps nécessaire pour vider l’origine. Cette équivalence permet de passer du comportement de queue de la BP à celui du KCM. La clef technique repose sur la capacité à traduire une configuration vide obtenue par la percolation bootstrap en une suite de mises à jour légales dans le KCM, tout en contrôlant la complexité de cette séquence à travers des bornes de probabilité bien choisies.

Le point de départ est la reconnaissance que, pour que l’origine soit vidée en temps fini avec probabilité un, il faut que la configuration de départ permette à la BP de la vider. La preuve que cela est vrai repose sur l’existence d’un chemin légal dans l’espace des configurations, tel que les mises à jour successives puissent propager l’état vide jusqu’à l’origine. À ce niveau, le rôle de l'inégalité de Poincaré est fondamental : elle permet de relier la variance d’une fonction locale à la somme des variances conditionnelles sur des sites individuels, pondérées par des constantes liées aux taux de transition.

Le cœur de l’argument consiste alors à écrire la différence entre deux valeurs d’une fonction locale le long d’un chemin légal, puis à appliquer l’inégalité de Cauchy–Schwarz pour obtenir une borne sur la variance. Cette technique dite des chemins canoniques permet de démontrer que si l’énergie dissipée le long de ces chemins est négligeable, alors la fonction doit être constante presque sûrement. Autrement dit, l’unicité de la mesure invariante s’ensuit.

Pour renforcer ce raisonnement, on recourt à une stratégie de renormalisation : l’espace est décomposé en boîtes, qu’on appelle « bonnes » si elles peuvent être vidées en grande partie par BP, ne laissant qu’un mince cadre actif. En démontrant que la probabilité pour qu’une boîte soit bonne est élevée, on peut ensuite contrôler la dynamique globale par propagation : si trois boîtes voisines sont bonnes, alors une quatrième peut être vidée à son tour. Ce mécanisme permet d’étendre localement le vidage à des régions entières, en reliant ainsi la structure locale à la relaxation globale du système.

Ce qui est remarquable ici, c’est que le passage de la BP au KCM s’effectue à travers une estimation fine du nombre de chemins légaux possibles, combinée à une borne probabiliste sur la durée cumulée de mises à jour, modélisées comme des variables exponentielles. En contrôlant la probabilité qu’un ensemble de telles mises à jour se produise trop rapidement, on démontre que le temps de vidage du KCM est dominé par celui de la BP, jusqu’à une constante exponentielle.

En dernier lieu, ce raisonnement conduit à l’établissement d’une inégalité de Poincaré globale pour le KCM, à travers un changement d’échelle : une inégalité locale sur chaque boîte de renormalisation est répercutée à l’ensemble du système via une couverture de l’espace par ces boîtes. Cela implique que la constante spectrale du générateur est strictement positive, ce qui équivaut à une décroissance exponentielle des corrélations temporelles — une propriété cruciale pour l’étude du mélange et de la convergence vers l’équilibre.

La compréhension fine de ces dynamiques fait appel à plusieurs outils mathématiques profonds : théorie spectrale des opérateurs, ergodicité, inégalités fonctionnelles, et méthodes combinatoires de percolation. Chaque ingrédient, pris isolément, n’offre qu’un aperçu partiel, mais leur agencement précis donne accès à une structure riche et contrôlable du comportement à long terme des KCM.

Il est essentiel pour le lecteur de comprendre que l’efficacité du vidage ne dépend pas seulement de la configuration initiale ou des règles de mise à jour, mais aussi de la capacité du système à propager l’information vide à travers l’espace de manière organisée. Cette propagation n’est pas triviale et peut être entravée par des contraintes locales, mais les arguments exposés montrent que, sous des conditions appropriées, elle peut se faire à un coût probabiliste exponentiellement faible. Cela donne un fondement rigoureux aux observations numériques de relaxation rapide dans certains régimes des KCM, et éclaire la transition entre comportements dynamiquement bloqués et régimes ergodiques.