La solution exige d’abord d’abandonner les prétextes et d’entrer dans une logique d’attaque concertée contre la croissance des émissions anthropiques de CO₂. Le panorama technique est clair : à l’échelle des centrales électriques d’envergure, les options se réduisent aux filières fossiles, aux renouvelables, au nucléaire et à l’hydrogène considéré comme vecteur d’énergie. L’hydrogène est singulier : il n’est pas une ressource primaire mais un produit énergivore dont la « propreté » dépend intégralement de la source énergétique utilisée pour sa production. Produit par électrolyse alimentée par solaire, éolien ou nucléaire, il devient combustible propre dont la combustion n’émet que de l’eau ; produit par reformage du méthane ou gazéification du charbon sans capture, il reste carboné.

La dualité fondamentale de l’hydrogène explique son intérêt stratégique : d’un côté, il permet une combustion quasi exempte de carbone dans des turbines à gaz, technologie la plus efficace pour la production électrique ; de l’autre, il constitue un moyen de stockage d’énergie capable d’atténuer l’intermittence des renouvelables. Mais pour que l’ensemble du parc électrique devienne véritablement durable il ne suffit pas d’aligner des technologies « zéro émission en opération ». Il faut intégrer la contrainte « du berceau à la tombe » : l’analyse du cycle de vie, les émissions fugitives (notamment les fuites de méthane lors de la production et du transport du gaz naturel) et l’usage des ressources limitées doivent être pris en compte.

Pour les combustibles fossiles, la voie crédible est la capture du carbone (CCUS). Deux approches de capture existent en pratique : la capture avant combustion (précombustion), pertinente notamment pour les procédés de gazéification où l’on sépare l’hydrogène du flux de syngaz, et la capture après combustion qui nettoie les gaz de cheminée. Dans l’absolu, les centrales à cycle combiné gaz (GTCC) contemporaines affichent des efficacités thermiques supérieures de l’ordre de dix à vingt points par rapport aux meilleures centrales à charbon ; cela confère au gaz (avec capture) un avantage net en termes d’émissions spécifiques. Le charbon, sur la voie directe, n’a plus de place que s’il est converti en hydrogène via gazéification couplée à CCUS — la capture postcombustion sur des unités charbon est une impasse économique et environnementale comparée aux solutions gaz+CCUS ou aux renouvelables couplés au stockage.

La transition énergétique doit être l’aboutissement d’un équilibre entre trois impératifs : élimination nette du carbone, protection de la qualité de l’air en évitant d’autres polluants toxiques, et utilisation judicieuse des ressources naturelles afin de conserver un niveau de vie acceptable pour l’ensemble de l’humanité. Le second impératif — le temps — est crucial : l’objectif doit être atteint dans les plus brefs délais, ce qui impose une adoption massive et rapide des outils disponibles, non une quête stérile de « balles d’argent ». L’exemple des États‑Unis entre 2005 et 2019 illustre bien la combinaison accidentelle de facteurs (gaz de schiste peu coûteux, retrait d’unités charbon obsolètes, efficience supérieure des GTCC, essor du solaire et de l’éolien) qui a permis une baisse substantielle des émissions électriques sans stratégie centrale unique. Cette « chance » ne suffit pas à reproduire l’effort nécessaire globalement ; il faut substituer l’aléa par la planification et la mobilisation.

Penser la transition comme un état de guerre contre le changement climatique change la stratégie : prioriser la disponibilité maximale et la fiabilité des systèmes, accélérer la diffusion technologique et déployer à grande échelle des combinaisons complémentaires plutôt que d’opposer filières. Une combinaison pragmatique associera nucléaire pour la base non carbonée là où il est socialement et techniquement possible, renouvelables massives soutenues par solutions de stockage (batteries, hydrogène, stockages thermiques), GTCC équipés de capture pour assurer flexibilité et substitution rapide, et conversion contrôlée de biomasse et de déchets en vecteurs énergétiques neutres. Les verrous ne sont pas uniquement techniques : capacités de fabrication, chaînes d’approvisionnement, acceptabilité sociale, cadres réglementaires et mécanismes de financement déterminent la vitesse de déploiement.

À ajouter et à comprendre : l’évaluation doit systématiquement couvrir le cycle de vie complet des technologies (émissions indirectes, exploitation, recyclage), et intégrer les émissions fugitives (fuites de méthane), la consommation d’eau et l’impact sur les écosystèmes. Le déploiement exige des politiques publiques robustes : normes contraignantes, tarification du carbone crédible, incitations à la capture et au stockage, et mécanismes de financement pour réduire le risque d’investissement. La modernisation des réseaux — numérisation, interconnexions transfrontalières, capacités de flexibilité — est aussi critique que les unités de production elles‑mêmes. Les enjeux d’équité doivent être anticipés : assurer l’accès universel à une énergie propre sans sacrifier le développement des pays les moins avancés. Enfin, la recherche et l’innovation restent indispensables pour améliorer les rendements, réduire les coûts du stockage et de la capture, et maîtriser les technologies émergentes (p. ex. cycles oxy‑combustion et systèmes à CO₂ supercritique). Ces éléments conditionnent la plausibilité d’une transition rapide et soutenable ; les ignorer condamne à l’inefficacité et au retard.

Quel rôle la simulation de l'équilibre thermique et de masse joue-t-elle dans la gestion des ressources énergétiques renouvelables ?

La simulation de l'équilibre thermique et de masse est essentielle pour comprendre et optimiser le fonctionnement des systèmes énergétiques, notamment dans le cadre de la gestion des réserves de production d'électricité. De nombreux calculs relatifs à ces équilibres sont réalisés à l'aide du logiciel THERMOFLEX® de Thermoflow, un simulateur de diagrammes de flux qui permet de représenter un processus particulier en sélectionnant des composants dans une bibliothèque intégrée, puis en les connectant via une interface graphique. Ce processus de simulation est crucial pour optimiser la conception des systèmes énergétiques complexes, notamment les cycles de production de chaleur et d'électricité, en tenant compte de divers paramètres thermodynamiques.

Pour des simulations nécessitant des propriétés de fluides réels, comme le dioxyde de carbone supercritique, le logiciel propose l'intégration du paquet REFPROP, qui permet de calculer les propriétés thermophysiques de fluides purs et de mélanges. Ce paquet, distribué par le National Institute of Standards and Technology (NIST), couvre un large éventail de conditions de fluides, des phases liquides aux phases supercritiques. La précision de ces simulations est cruciale pour la conception de nouveaux cycles énergétiques, notamment ceux utilisant des fluides supercritiques comme le CO2 dans des centrales thermiques avancées. L’importance de ces technologies, comme le montre la publication de Charles W. White et Nathan T. Weiland sur l’évaluation des méthodes de propriétés pour modéliser les cycles énergétiques supercritiques, réside dans la capacité à offrir des solutions plus efficaces et plus respectueuses de l’environnement pour la production d’énergie.

En parallèle, la gestion des ressources énergétiques renouvelables, telles que l’éolien et le solaire, repose sur des prévisions et une planification minutieuses pour intégrer ces ressources intermittentes dans le réseau électrique. Ces sources d’énergie sont souvent qualifiées de « non dispatchables » ou « variables », bien que cette désignation nécessite des qualifications supplémentaires. En effet, même les technologies thermiques conventionnelles, qui reposent sur des combustibles stockables, connaissent des variations de production dues à des pannes prévues ou imprévues. L’enjeu principal de l’intégration des énergies renouvelables dans le réseau ne réside donc pas tant dans la capacité de ces sources à être allumées ou éteintes à la demande, mais dans leur capacité à être prévues et intégrées de manière fiable dans la planification de la production d’électricité.

Les opérateurs de réseau intègrent désormais les prévisions des ressources éoliennes et solaires dans leurs plans de dispatch, en utilisant des techniques de prévision améliorées, des systèmes de stockage d’énergie tels que les BESS (Battery Energy Storage Systems), et des réserves entièrement dispatchables. Ce processus permet de répondre efficacement aux fluctuations rapides de la demande et aux événements météorologiques perturbateurs, ce qui transforme la problématique en un défi de « contrôlabilité » plutôt que de simple « dispatchabilité ». Les systèmes de production d’énergie doivent être capables de réagir rapidement à des changements de charge imprévus, et la gestion des réserves de puissance, telles que les réserves primaires, secondaires et non-spinnantes, est au cœur de cette gestion de la variabilité.

La classification des opérations de réseau selon des périodes de temps spécifiques – régulation, suivi de charge et engagement des unités – joue un rôle clé dans cette gestion. La régulation, qui couvre des périodes de quelques secondes à dix minutes, s’appuie sur des unités déjà en ligne et synchronisées avec le réseau pour répondre à des variations imprévues de la demande. Les périodes de suivi de charge, quant à elles, s’étendent de dix minutes à quelques heures et nécessitent l’utilisation de réserves secondaires, généralement des unités en fonctionnement ou prêtes à démarrer rapidement. Enfin, l’engagement des unités, qui peut couvrir des périodes allant de plusieurs heures à plusieurs jours, permet de planifier à l’avance l’utilisation des générateurs pour répondre à la demande prévue. Dans ce contexte, les énergies renouvelables posent un défi supplémentaire en raison de leur imprévisibilité à long terme, ce qui peut entraîner des surengagements ou des sous-engagements dans la planification des ressources.

Un aspect fondamental à prendre en compte pour comprendre l'intégration de ces technologies dans les réseaux électriques modernes est l'évaluation de la maturité technologique des systèmes proposés. L’échelle de maturité technologique (TRL), qui a été introduite par la NASA, permet de classer les technologies en fonction de leur stade de développement, de la phase de principe de base à la validation sur le terrain. Pour les systèmes énergétiques, ce classement est essentiel pour déterminer à quel point une technologie est prête à être déployée à grande échelle, qu’il s’agisse de technologies de capture du carbone, de nouvelles centrales solaires ou éoliennes, ou d’autres innovations énergétiques. Ce système de classification permet non seulement de juger de la fiabilité d’une technologie, mais aussi de planifier son déploiement en fonction des besoins futurs du marché.

Enfin, les lecteurs doivent garder à l’esprit que l’efficacité d’un système énergétique ne se mesure pas uniquement à sa capacité à produire de l’énergie, mais aussi à sa capacité à s’adapter aux évolutions de la demande, à intégrer des sources d’énergie renouvelables et à fonctionner de manière fiable, même en cas de perturbations. La capacité d’un réseau à intégrer des réserves et des systèmes de stockage d’énergie constitue un atout majeur pour assurer une fourniture continue d’énergie, quel que soit l’impact des variations météorologiques ou des pannes imprévues des unités de production.

Comment le vent affecte-t-il les performances des ventilateurs dans les systèmes de refroidissement par air (ACC) ?

Les systèmes de refroidissement par air (ACC) jouent un rôle crucial dans les centrales thermiques, notamment celles à cycle combiné gaz-vapeur (GTCC), en régulant la température du condensat et en permettant le rejet de chaleur dans l’atmosphère. Cependant, leur efficacité est fortement influencée par les conditions environnementales, en particulier par les effets du vent. Le modèle idéal d'un ventilateur ACC, tel que montré dans la figure 3.30, définit des paramètres tels que la pression, la température, la densité de l'air, et le débit volumétrique, lesquels sont idéalisés pour une situation en champ libre, où les interactions entre les ventilateurs et l'air extérieur sont minimisées. Cependant, dans un contexte réel, ces paramètres sont modifiés par divers facteurs externes, principalement le vent et la proximité d'autres structures.

En effet, les ventilateurs de type ACC dans un environnement réel, comme dans une centrale thermique, ne fonctionnent pas dans des conditions idéales. Chaque ventilateur présente des débits d'air et des conditions d'entrée variables, en raison des interactions complexes entre les ventilateurs voisins, la recirculation de l'air chaud et le flux d'air provenant du champ lointain. Même en l'absence de vent, un phénomène de distorsion du flux d'entrée se produit, causé par l’air froid venant de l’environnement et entrant dans la superstructure du système de refroidissement. Cet air se déplace horizontalement avant de se rediriger vers le haut pour pénétrer dans les ventilateurs axiaux. Ce flux est perturbé, notamment par les rafales de vent, qui peuvent modifier de manière significative les conditions de fonctionnement des ventilateurs et entraîner des recirculations de l’air chaud, réduisant ainsi l’efficacité du système.

Les performances des ventilateurs ACC sont donc impactées par deux principaux mécanismes : la réduction du débit d’air, ce qui diminue la quantité de fluide réfrigérant qui entre dans le système, et l’augmentation de la température d’entrée de l’air, résultant en une faible différence de température moyenne logarithmique (LMTD), qui est essentielle pour l'efficacité du transfert thermique.

Les fabricants de ventilateurs ACC sont bien conscients de ces défis et disposent de moyens pour ajuster les performances des ventilateurs sur le terrain. Ces ajustements peuvent se faire par deux mécanismes principaux : l'augmentation de la vitesse de rotation du ventilateur (révolutions par minute, rpm) et l'ajustement de l'angle de pente des pales du ventilateur. Ces réglages permettent d’augmenter le débit d’air à travers les ventilateurs, compensant partiellement la perte de performance due aux facteurs environnementaux.

L’angle des pales du ventilateur peut être comparé à un store vénitien : à un angle de 0°, les pales laissent passer l’air sans interférence, tandis qu’à un angle de 90°, elles bloquent totalement le flux d’air. En ajustant cet angle, le débit d’air peut être modifié de manière significative. Toutefois, cet ajustement a des limites physiques : l’espace entre les pales et le boîtier du ventilateur, le fonctionnement stable du ventilateur, et la puissance nominale du moteur. Ces limites doivent être prises en compte lors des réglages sur site pour assurer un fonctionnement optimal tout en évitant des contraintes excessives sur le système.

De plus, un ventilateur ACC est souvent alimenté par un moteur à induction à courant alternatif (AC), contrôlé par un variateur de fréquence (VFD). Ce variateur permet de moduler la vitesse du moteur en fonction des besoins du système, et joue un rôle clé dans la gestion de l’énergie consommée. La consommation d’énergie du moteur est directement liée au débit d’air, ce qui signifie qu’une surveillance précise de la consommation d’énergie est essentielle pour évaluer les performances du système. Cependant, mesurer avec précision le débit d’air reste un défi, car il est difficile de disposer de capteurs fiables dans un environnement aussi dynamique.

Dans ce contexte, l'un des principaux indicateurs de performance est la consommation d’énergie du moteur du ventilateur. Cela est particulièrement pertinent dans les conditions de vent, où les effets de la recirculation de l’air chaud et des distorsions du flux d’entrée peuvent sérieusement altérer les conditions idéales de fonctionnement. Par exemple, lorsque l'air chaud émis par le système est dévié par le vent et dirigé à nouveau vers les ventilateurs, il augmente la température de l’air entrant, ce qui dégrade la performance du système de refroidissement. De même, les distorsions du flux d'air dues au vent sous le pont des ventilateurs peuvent modifier la vitesse d'entrée de l'air, ce qui impacte également les performances.

Dans les conditions de vent, ces deux phénomènes – la recirculation de l’air chaud et la dégradation des performances des ventilateurs – entraînent une perte d’efficacité thermique et une augmentation des coûts opérationnels. La gestion de ces impacts nécessite une compréhension approfondie de la dynamique de l’air et des performances des ventilateurs dans des conditions réelles. L'ajustement des paramètres du ventilateur, comme la vitesse de rotation et l'angle de pente des pales, en combinaison avec une surveillance continue de la consommation d'énergie et des conditions environnementales, est crucial pour maintenir des performances optimales.

La clé pour maintenir une performance efficace réside dans une compréhension précise de la relation entre le débit d’air, la consommation d’énergie et les conditions extérieures. Une gestion proactive de ces facteurs permettra d'optimiser le rendement des systèmes de refroidissement ACC dans des environnements complexes et variables.