Der sogenannte „Cheney-Bericht“, benannt nach dem damaligen US-Vizepräsidenten Dick Cheney, vertritt die Ansicht, dass die Gesundheit der amerikanischen Wirtschaft nur durch eine drastische Erhöhung der Versorgung und des Verbrauchs von Kohle, Öl und Erdgas gesichert werden könne. Für den Ökonomen Ayres repräsentiert dieser Bericht jedoch das Versagen der Volkswirtschaftslehre, die Gesetze der Thermodynamik zu berücksichtigen. Er identifiziert drei grundlegende Fehlannahmen in dieser Sichtweise.

Die erste Annahme des Berichts ist, dass Investitionsentscheidungen immer optimal seien, da Unternehmen automatisch Gewinne maximieren und Konsumenten ihren Nutzen maximieren würden. In einer solchen Welt gäbe es keinen Bedarf an Energieeinsparungen, weil keine Energie verschwendet würde. Doch zahlreiche wirtschaftliche Krisen, wie die Subprime-Hypothekenkrise, die zu einer globalen Rezession führte, zeigen, dass Investitionen keineswegs immer optimal sind. Die Wirtschaft ist nicht nur von rationalen Entscheidungen geprägt; Fehler und Fehlkalkulationen sind genauso Teil des Systems.

Die zweite Fehlannahme des Berichts betrifft die Verfügbarkeit von Energie. Der Bericht geht davon aus, dass Energie niemals knapp wird und dass eine steigende Nachfrage infolge wirtschaftlichen Wachstums immer mit einer unendlichen Angebotssteigerung bedient werden kann – ohne dass sich der Preis erhöht. Doch einfache Mathematik widerlegt diese Annahme: Wenn man für jeden Baum, den man fällt, nur einen neuen pflanzt, werden irgendwann keine Bäume mehr übrig sein. Ebenso wird die Erdölversorgung, die über Millionen von Jahren entstand, nicht auf magische Weise schneller ersetzt. Die natürlichen Prozesse, die für die Erneuerung von Ressourcen nötig sind, sind viel langsamer als der menschliche Verbrauch.

Die dritte Fehlannahme betrifft die Vorstellung eines gleichmäßigen und stetigen Wachstums. Der Bericht geht davon aus, dass das Wirtschaftswachstum konstant bei 2,5 bis 3 Prozent pro Jahr liegt und die Wirtschaft in einem stabilen Gleichgewicht verbleibt. Für Ayres ist jedoch das Konzept des Gleichgewichts thermodynamisch unmöglich. Die Wirtschaft ist stets von Entropie betroffen – einem Prozess, in dem Ordnung zu Chaos wird. Wachstum ist nie glatt und stetig; es ist disruptiv und unterliegt plötzlichen, oft radikalen Veränderungen, die durch technologische Innovationen vorangetrieben werden.

Ayres unterstreicht, dass Wirtschaftswachstum auf Innovationen angewiesen ist, die neue Produkte und Dienstleistungen hervorbringen. Doch diese Innovationen erfordern immer billigere Energien. Energie ist der Motor der Wirtschaft, aber auch der Zugang zu Energie beeinflusst wirtschaftliche Aktivität. Es handelt sich um einen wechselseitigen Prozess, der zu einem positiven Feedback-Zyklus führt. Die Verfügbarkeit von Waren und Dienstleistungen fördert die Nachfrage, die Nachfrage wiederum führt zu Investitionen und mehr Produktion. Dies führt zu Skaleneffekten, die Kosten senken, was wiederum die Nachfrage anheizt und zu neuen Märkten und Produkten führt. Dieser Zyklus ist die treibende Kraft hinter wirtschaftlicher und technischer Entwicklung. Die Veränderungen sind jedoch oft abrupt und disruptiv. Investitionen zahlen sich nicht immer aus, wie die gescheiterte Kanalnetzentwicklung im 18. Jahrhundert in Großbritannien zeigt.

Es ist jedoch nicht nur die Erhöhung der Effizienz, die das Wachstum antreibt. Eine effizientere Nutzung von Ressourcen allein führt nicht zwangsläufig zu einem nachhaltigen Wachstum. Ein Auto, das über moderne Technologien wie Klimaanlage und elektronische Steuerung verfügt, ist zwar effizienter als ein Modell von vor 50 Jahren, aber der Produktionsprozess für diese zusätzlichen Features kann extrem ressourcenintensiv und verschwenderisch sein. Die Frage, ob es umweltfreundlicher ist, das alte Auto weiterzufahren oder ein neues Elektroauto zu kaufen, veranschaulicht das Problem. Die Produktion von Elektrofahrzeugen ist energieintensiv und verursacht signifikante CO2-Emissionen. Eine Studie aus dem Jahr 2018 ergab, dass die Produktion einer Batterie für ein Elektroauto bis zu 106 Kilogramm CO2 pro Kilowattstunde Batteriekapazität erzeugt. Dies bedeutet, dass der Bau einer 100 kWh Batterie mehr als 6 Tonnen CO2 ausstoßen kann – das entspricht der jährlichen CO2-Bilanz eines Benzinautos.

Zwar haben sich industrielle Prozesse im Laufe der Jahre verbessert, doch der Fortschritt in der Thermodynamik führt auch hier oft zu einem paradoxen Ergebnis: Die größten Effizienzgewinne konzentrieren sich immer noch am Anfang des Prozesses, sei es bei der Verbrennung fossiler Brennstoffe oder der Energieerzeugung aus erneuerbaren Quellen, während Abwärme wie zuvor verloren geht. In Bezug auf den Fortschritt müssen Innovationen zu einer signifikanten Reduktion des Rohstoff- und Energieverbrauchs sowie einer Verbesserung der Nutzung und Behandlung von Abfällen führen.

Ein Blick auf das Kyoto-Protokoll verdeutlicht die Problematik. Das Abkommen beruht auf klassischen wirtschaftlichen Theorien, die Energie als ein Zwischenprodukt betrachten, nicht aber als ein fundamentales und unveränderbares Element der Wirtschaft. Thermodynamik zeigt uns, dass Energie weder erschaffen noch zerstört, sondern nur umgewandelt werden kann. Ein technologischer Wechsel von Öl zu Strom könnte eine Verbesserung darstellen, doch wenn das Gleichgewicht zwischen Exergie (nutzerbare Energie) und Anergie (verlorene Energie) nicht korrekt gehandhabt wird, wird auch dieser Wechsel nicht zu einer echten Lösung führen.

Die Perspektive von Ayres schlägt eine radikale Neuorientierung der wirtschaftlichen Modelle vor. Diese sollten nicht nur Kapital und Arbeit als Produktionsfaktoren berücksichtigen, sondern auch die fundamentale Rolle der Energie. Darüber hinaus müssen die schädlichen Nebenprodukte von Produktion und Konsum – Abfälle und Emissionen – besser in die Modelle integriert werden, um die wahren Kosten des Wachstums zu erkennen.

In einer Welt, in der Ressourcen und Energie immer knapper werden, ist es entscheidend, ein tieferes Verständnis für die thermodynamischen Grenzen des Wachstums zu entwickeln. Politische Entscheidungen, die den globalen Klimawandel und die nachhaltige Entwicklung betreffen, sollten nicht nur auf die „umweltfreundliche“ Energie umschwenken, sondern ein viel grundlegenderes Umdenken in Bezug auf die Art und Weise, wie wir Energie in allen Bereichen unserer Wirtschaft und Gesellschaft integrieren. Dabei geht es nicht nur um den Wechsel zu neuen Technologien, sondern um eine grundlegende Umstrukturierung der Wirtschaft, die das Augenmerk auf die Minimierung von Abfällen und die Maximierung der Effizienz legt, um ein wirklich nachhaltiges Wachstum zu ermöglichen.

Die Dynamik von politischen Systemen und ihre Ähnlichkeit zu physikalischen Phasenübergängen

Die Moleküle des Wassers beginnen langsam an Energie zu gewinnen, ihre Temperatur steigt. Das Wasser wird heißer. Schließlich wird es zu sieden beginnen und zu heiß werden, um es zu berühren. Aber es bleibt dennoch eine Flüssigkeit. Irgendwann jedoch verändert sich etwas. Ein Kipppunkt wird erreicht – eine Veränderung von vielleicht nur einem halben Grad. Bei 100 Grad Celsius beginnt das Wasser zu kochen und verwandelt sich in ein Gas, das wir als Dampf bezeichnen. Einmal über diesen Punkt hinaus, verhält sich das Wasser völlig anders als in seiner flüssigen Form. Die einzelnen Moleküle behalten exakt dieselbe chemische Zusammensetzung, aber kollektiv verhalten sie sich völlig anders. Der Punkt hier ist, dass bereits eine kleine Temperaturänderung – der Übergang von knapp unter 100 Grad Celsius auf knapp darüber – eine tiefgreifende Veränderung bewirken kann. Das gesamte System wechselt plötzlich von einer Phase in eine andere und verhält sich völlig anders. Ähnliche Phasenübergänge sehen wir auch bei Metallen wie Kobalt, Nickel und Eisen. Bei Raumtemperatur existieren diese Metalle, die als Ferromagneten bekannt sind, in einem Zustand magnetischer Ordnung. Wenn man ein Ferromagnet aufheizt, wird es heiß und kann sogar zu glühen beginnen. Aber es bleibt im gleichen Zustand und verliert seine Magnetisierung nicht. Erst bei einer sehr spezifischen Temperatur – im Fall von Eisen bei 769 Grad Celsius – verändert sich das Verhalten plötzlich. Das Eisen verliert seine Magnetismus. Man könnte denken, dass die Hitze das Metall permanent verändert hat. Aber wenn man es auf eine Temperatur unterhalb der magischen 769 Grad Celsius abkühlt, wird es ebenso abrupt wieder magnetisch. Dieses Phänomen ist als der Ising-Effekt bekannt.

Wie alle Materialien bestehen Ferromagnete aus kleinen subatomaren Teilchen. Ähnlich wie eine Münze, die entweder Kopf oder Zahl zeigt, können diese Teilchen in die Richtung „oben“ oder „unten“ zeigen, was in der Physik als Spin bezeichnet wird. Bei regulären Temperaturen ist es wahrscheinlicher, dass die Spins der subatomaren Teilchen in die gleiche Richtung ausgerichtet sind. Genau diese Ausrichtung macht das Metall magnetisch. Wenn man das Metall jedoch erhitzt, beginnen die Spins, sich zufällig auszurichten. Mit steigender Temperatur nimmt die Unordnung zu, aber die essentielle Phase des Metalls – sein Magnetismus – bleibt unverändert. Erst bei der kritischen Temperatur von 769 Grad Celsius findet der plötzliche und sofortige Übergang vom magnetischen Zustand in den nicht-magnetischen Zustand statt. Sobald das Metall abkühlt, wird die Ausrichtung der Spins – und damit der Magnetismus – fast sofort wiederhergestellt.

Eine interessante Parallele zu diesen physikalischen Prozessen finden wir in der Politik. Zwischen den 1940er und 1970er Jahren war das System der US-Präsidentschaftswahlen relativ stabil. Doch in dieser Zeit bauten sich unsichtbare, aber mächtige Kräfte auf. Ab etwa den 1970er Jahren jedoch trat ein fundamentaler Wandel ein. An diesem Punkt glauben Siegenfeld und Bar-Yam, dass die US-Präsidentschaftswahlen einen Phasenübergang durchliefen, der das gesamte System instabil machte. Wie bei Wasser oder Ferromagneten wird dieser Phasenübergang durch Temperatur beeinflusst. Wurde das politische Klima „aufgeheizt“? In gewisser Weise, ja. Siegenfeld und Bar-Yam argumentieren, dass die zunehmende Polarisierung der Kandidaten einen Teufelskreis von immer „heißeren“ Wahlen erzeugte. Eine Möglichkeit, diese metaphorische Erwärmung zu messen, besteht darin, die polarisierenden Worte zu betrachten, die in den Wahlkämpfen verwendet wurden. Zwischen 1940 und 1970 war das Maß an Polarisierung relativ flach und stabil. Doch ab den 1970er Jahren stieg es dramatisch und immer weiter auseinander. Ein wesentlicher Grund für diese zunehmende Polarisierung war die Art und Weise, wie die Präsidentschaftskandidaten ausgewählt wurden. Im Laufe des 20. Jahrhunderts, während einige wenige Staaten nicht-bindende Vorwahlen durchführten, um die öffentliche Meinung zu messen und die Auswahl der Kandidaten vor einer nationalen Wahl zu lenken, wählten die demokratische und republikanische Partei ihre Kandidaten immer noch in privaten Treffen hinter verschlossenen Türen. Dieser Prozess wurde verständlicherweise als zu undurchsichtig und undemokratisch angesehen. Die Schwäche des Systems wurde 1968 auf dramatische Weise verdeutlicht, als der damalige Vizepräsident Hubert Humphrey als Demokrat nominiert wurde, obwohl er keine einzige Wahl gewonnen hatte. Er verlor dann deutlich gegen den Republikaner Nixon. Seit den Präsidentschaftswahlen von 1972, Nixons zweiter Amtszeit, werden Kandidaten nun eher auf Grundlage ihrer Leistung in den Vorwahlen ausgewählt. Es ist kein Zufall, dass die Ära der zunehmenden Polarisierung mit Nixon begann.

Dieser Übergang von einer geheimen Auswahl in den privaten Räumen zu einem öffentlichen Vorwahlprozess schien zunächst eine demokratischere und transparentere Methode der Kandidatenbestimmung zu sein. Was tatsächlich geschah, war jedoch, dass die Kandidaten, die in den Vorwahlen erfolgreich waren, nicht unbedingt die besten für die nationale Wahl waren, sondern vielmehr diejenigen, die gut darin waren, bei diesen partikularen Vorwahlen zu gewinnen. Diese Kandidaten waren oft stärker auf parteipolitische Themen fokussiert und weniger in der Lage, die breiteren nationalen Fragen zu adressieren, die für eine Wahl im gesamten Land erforderlich sind. Diese Verschiebung führte zu einer dramatischen Polarisierung der Wählerschaft, die wiederum auch die Wahlstrategien der Parteien beeinflusste.

Das Wahlverhalten der Wähler und die Auswahl der Kandidaten lassen sich sehr gut in einem graphischen Modell darstellen. Wenn man die politischen Präferenzen der Wähler von links nach rechts auf einer horizontalen Achse darstellt und die Anzahl der Wähler für jede politische Position auf der vertikalen Achse abträgt, ergibt sich zwischen den 1940er und 1970er Jahren eine normalverteilte Kurve. Die meisten Wähler lagen in der Mitte des politischen Spektrums, und die Wahlkampfstrategien der Parteien orientierten sich folglich an dieser Mitte. Doch als die Polarisierung zunahm, veränderte sich diese Kurve. Statt einer gleichmäßigen Glockenkurve entstanden zwei Gipfel – einer auf der linken und einer auf der rechten Seite des Spektrums. Wenn man nun ein Kandidat in einem solchen M-förmigen Wählersystem wählen wollte, würde es keinen Sinn mehr machen, sich an der Mitte zu orientieren. Vielmehr würden Kandidaten vermehrt extremere Positionen einnehmen, die mehr Wähler in den äußeren Spitzen ansprechen.

Dieser Prozess der Polarisierung kann als Teufelskreis verstanden werden. Polarisierte Wähler führen zur Wahl polarisierter Kandidaten, was wiederum die Polarisierung der Wählerschaft weiter verstärkt. Damit wird die politische Landschaft zunehmend instabil und verändert sich in einer Art und Weise, die schwer vorhersehbar und schwer zu kontrollieren ist. In diesem Zusammenhang ist es wichtig zu verstehen, dass kleine Veränderungen in der öffentlichen Meinung zu dramatischen Verschiebungen im Wahlergebnis führen können, sobald ein bestimmter Polarisierungspunkt überschritten wird. Dies ist der Punkt, an dem das politische System selbst eine Phase der Instabilität erreicht und sich potenziell sehr schnell verändert.

Wie künstliche Intelligenz und historische Muster die Zukunft von Konflikten vorhersagen können

Die moderne Forschung hat mithilfe von künstlicher Intelligenz (KI) erstaunliche Fortschritte im Verständnis von sozialen und politischen Konflikten erzielt. Forscher trainierten eine KI, die Muster in Daten erkennt, die dem menschlichen Verstand verborgen bleiben. Dabei nutzten sie aktuelle Theorien zu komplexen Netzwerken und räumlichen Interaktionen und speisten die KI mit einer Vielzahl von Daten zu Faktoren, die Konflikte beeinflussen – von geografischen und kulturellen Aspekten bis hin zu politischen Allianzen und militärischen Handelsbeziehungen. Das Ergebnis war beeindruckend: Das Modell zeigte eine bemerkenswerte Vorhersagekraft. Auf Basis historischer Daten erzielte es eine Genauigkeit von 82 bis 94 Prozent, wenn es darum ging, vorherzusagen, wo Konflikte in friedlichen Gebieten ausbrechen würden oder in bereits von Kriegen geprägten Regionen wieder Frieden einkehren würde – und das bis zu 12 Monate im Voraus.

Ein weiteres faszinierendes Beispiel für die Fähigkeit der Wissenschaft, zukünftige Ereignisse vorherzusagen, stammt von dem russischstämmigen Ökonomen Peter Turchin, der 2010 eine Vorhersage für das Jahr 2020 machte. Er prognostizierte, dass in diesem Jahr ein beispielliges Ausmaß an sozialer Unruhe sowohl in den USA als auch weltweit zu beobachten sein würde. Turchin sagte, dass die Gesellschaften in den westlichen Demokratien ähnliche Unruhen erleben würden wie in den 1960er Jahren – Städte im Aufruhr, politische Führungspersönlichkeiten, die Gewalt befürworten, und ein Anstieg von Mord- und Gewalttaten. Die Genauigkeit dieser Prognose war verblüffend. 2020 war in der Tat von tiefer sozialer Unruhe geprägt. Der Mord an George Floyd in den USA löste landesweite und internationale Proteste aus, und in vielen Regionen der Welt kochten Spannungen auf, die bis zu einem politischen Aufruhr führten.

Turchin, der als einer der Begründer der Cliodynamik gilt – einem interdisziplinären Ansatz, der Geschichte als eine Form der Wissenschaft betrachtet –, basierte seine Prognosen auf der Analyse umfangreicher digitalisierter Daten zu sozialen Indikatoren, darunter wirtschaftliche Ungleichheit, Bevölkerungswachstum, politische Instabilität und soziale Mobilität. Dies ermöglichte es ihm, historische Muster zu erkennen, die sich über Jahrhunderte hinweg in verschiedenen Zivilisationen wiederholten. Er entdeckte, dass soziale Instabilität in nahezu allen Gesellschaften, deren Geschichte dokumentiert wurde, in regelmäßigen Zyklen auftrat – ein Phänomen, das er als „Sekuläre Zyklen“ bezeichnet. Diese Zyklen umfassen periodische Wellen von sozialer Unruhe und Gewalt, die mit bestimmten gesellschaftlichen Bedingungen zusammenhängen.

Ein entscheidendes Element seiner Theorie ist die „Eliteüberproduktion“. Diese tritt auf, wenn die Zahl der Eliten, die Zugang zu politischen Ämtern und anderen wichtigen gesellschaftlichen Positionen haben, schneller wächst als die Zahl der tatsächlich verfügbaren Positionen. Diese Überproduktion führt zu Konkurrenz und Frustration unter den Eliten, was die politische Stabilität der Gesellschaft gefährdet. Die Folge ist eine Verschärfung sozialer Spannungen, die in der Regel in einem „Regulatorventil“ von Gewalt, Reformen oder Revolutionen explodieren. Auf diese Weise werden in regelmäßigen Abständen gesellschaftliche Krisen „entschärft“, um danach wieder neue Ungleichgewichte zu entstehen.

Interessanterweise zeigte sich, dass dieser Zyklus in verschiedenen Gesellschaftsformen von agrarischen bis industriellen Gesellschaften beobachtet werden konnte. Auch wenn sich die Ursachen von sozialer Instabilität im Laufe der Zeit geändert haben – etwa durch die Verschiebung von Hunger und Armut hin zu Arbeitslosigkeit und gesellschaftlicher Marginalisierung – bleibt die Grundstruktur des Zyklus weitgehend unverändert.

Die politische Antwort auf diese Ungleichgewichte ist entscheidend. Turchin weist darauf hin, dass Gesellschaften unterschiedliche Wege fanden, mit diesen Krisen umzugehen. Während die französische Revolution als Folge ungleicher sozialer Bedingungen und Unzufriedenheit in Frankreich entbrannte, führten ähnliche Ungleichgewichte in Großbritannien zu weitreichenden Reformen. Das politische System und die Bereitschaft einer Regierung, schnell auf den sozialen Druck zu reagieren, sind daher entscheidend, um eine Eskalation der Krise zu verhindern. Es gibt keinen festen Zeitraum, in dem diese Zyklen auftreten müssen, aber die Muster sind eindeutig.

Die Fähigkeit der KI, diese Daten zu verarbeiten und zukünftige Konflikte vorherzusagen, bietet eine weitere Dimension. KI-Modelle, die mit umfangreichen historischen und aktuellen Daten gefüttert werden, können die Wahrscheinlichkeit von Konflikten in bestimmten Regionen mit erstaunlicher Genauigkeit prognostizieren. Diese Technologie könnte sogar helfen, präventive Maßnahmen zu entwickeln, um politische Instabilität zu verhindern, bevor sie ausbricht. Der Einsatz von KI in Verbindung mit den historischen Theorien von Turchin bietet neue Möglichkeiten zur Analyse und Vorhersage von Konflikten und gibt uns wertvolle Werkzeuge an die Hand, um zu verstehen, warum bestimmte Regionen anfälliger für Gewalt sind und welche Bedingungen zu ihrer Deeskalation beitragen können.

Das Verständnis solcher Muster ist nicht nur für Forscher und politische Entscheidungsträger von Bedeutung. Es ist für die breite Öffentlichkeit wichtig, sich der langfristigen Zyklen von Instabilität und Gewalt bewusst zu sein, die tief in der Struktur unserer Gesellschaften verwurzelt sind. Der Umgang mit sozialen Ungleichgewichten und die Schaffung eines nachhaltigeren, gerechteren Gesellschaftssystems erfordert eine weitaus tiefere Analyse als die bloße Reaktion auf unmittelbare Krisen. Es ist eine kontinuierliche Herausforderung, die den langfristigen Blick auf gesellschaftliche Entwicklungen erfordert, um nicht nur auf die Symptome zu reagieren, sondern die zugrunde liegenden Ursachen anzugehen.