Der zweite Wohlfahrts-Satz (SFTWE) hat in der Wirtschaftstheorie eine grundlegende Bedeutung, weil er das theoretische Fundament für die Annahme liefert, dass Märkte effizient sind, wenn es um die Allokation von Ressourcen geht. Er besagt, dass unter bestimmten Bedingungen eine Pareto-optimale Allokation erreicht werden kann, indem zunächst eine Umverteilung des Wohlstands in Form einer Einmalzahlung erfolgt und dann der Markt seine Arbeit aufnehmen kann. Diese Annahme stützt sich auf die Theorie, dass Märkte, wenn sie einmal in Gang gesetzt werden, in der Lage sind, die Güter effizient zu verteilen. Die zweite Wohlfahrtsregel liefert also eine theoretische Bestätigung für die Nutzung von Wettbewerbsmärkten im Hinblick auf verteilungsökonomische Ziele (Mas-Colell, Whinston und Green, 1995).
Anderson (1988) erläutert, dass der SFTWE oft so interpretiert wird, dass es besser für die Regierung wäre, zunächst das Einkommen umzuverteilen und dann den Markt über die Verteilung von Waren entscheiden zu lassen, anstatt Subventionen für bestimmte Waren oder nicht-marktwirtschaftliche Mechanismen zur Allokation von Gütern zu schaffen. Diese Interpretation ist eine zentrale Grundlage der Marktwirtschaftstheorie, die dem Staat eine Umverteilungsfunktion zuschreibt, während der Markt die eigentliche Allokation übernimmt.
Doch dieser scheinbar einfache Mechanismus ist nicht ohne seine Tücken. Eine der größten Herausforderungen im Zusammenhang mit dem SFTWE liegt in den Informationsanforderungen, die mit seiner praktischen Anwendung verbunden sind. Wie Mandler (2007) betont, stellt sich die Frage, wie es möglich ist, dass ein Politiker, der über alle Präferenzen und Endowments der Akteure informiert ist, in der Lage wäre, wie ein zentraler Planer zu handeln, anstatt Märkte zu nutzen. Wenn jedoch Unsicherheit über die grundlegenden Parameter der Wirtschaft besteht, ist es für den Staat kaum möglich, eine Pareto-optimale Allokation zu identifizieren, geschweige denn eine Umverteilung zu gestalten, die diese Allokation implementiert. In diesem Sinne bleibt offen, inwiefern der zweite Wohlfahrts-Satz die Märkte als ein geeignetes Allokationsmechanismus empfiehlt.
In Reaktion auf diese Schwierigkeiten hat sich die Theorie des „Dritten Wohlfahrts-Satzes“ (TFTWE) entwickelt, der die Frage der Fairness und Gerechtigkeit in den Vordergrund stellt. Diese Theorie zielt darauf ab, fairere Allokationen zu definieren, die nicht nur Pareto-effizient sind, sondern auch das Prinzip der „envy-freeness“ (Neidfreiheit) berücksichtigen. Eine faire Allokation wird definiert als eine Allokation von Gütern, bei der keiner der Akteure einen anderen für die Zuteilung der Güter beneidet und gleichzeitig die Pareto-Effizienz gewahrt bleibt. Dies bedeutet, dass jeder Akteur eine Zuteilung erhält, die er als fair im Vergleich zu anderen empfindet, und keine Verbesserung möglich ist, ohne dass jemand anderes benachteiligt wird.
Ein anschauliches Beispiel für eine faire Allokation ist das sogenannte „Cake-Cutting-Problem“, bei dem ein heterogenes Gut (ein Kuchen) unter mehreren Akteuren aufgeteilt wird, die unterschiedliche Präferenzen haben. Wenn der Kuchen gleichmäßig verteilt wird, ist die Zuteilung zunächst „envy-free“, da alle Akteure denselben Anteil erhalten. Wenn diese Akteure jedoch miteinander handeln können, um ihre jeweiligen Situationen zu verbessern, kann diese Zuteilung zu einer Pareto-Verbesserung führen und somit eine faire Allokation geschaffen werden.
Die Fairness von Allokationen wird zunehmend als ein wichtigerer Bestandteil der wirtschaftlichen Theorie erkannt, insbesondere in komplexeren Wirtschaftssystemen. Thompson (2011) stellt eine Reihe von Konzepten vor, die zur Bewertung der Fairness von Allokationen verwendet werden, wie etwa „no-envy“ (kein Neid), „egalitarian-equivalence“ (gleichberechtigte Äquivalenz) und die Berücksichtigung von individuellen und kollektiven Wohlstandsbeschränkungen. Diese Konzepte sind wichtig, wenn es darum geht, die Fairness von Allokationen nicht nur aus der Sicht der Effizienz, sondern auch aus der Sicht der sozialen Gerechtigkeit zu beurteilen. Dies wird besonders deutlich in der Anwendung auf Probleme wie die Verteilung öffentlicher Güter oder die Zuweisung von indivisiblen Gütern, bei denen das Problem der Fairness besonders schwerwiegende Auswirkungen auf das Wohl der beteiligten Akteure haben kann.
Ein weiteres relevantes Konzept, das zur Weiterentwicklung der Theorie des TFTWE beigetragen hat, ist die Idee der „Resource-envy-freeness“, die speziell für Produktionsökonomien entwickelt wurde. Kranich (2020) zeigt, dass in einer Produktionsökonomie, in der Produktionsfaktoren nicht direkt konsumiert werden können, eine faire Allokation auch im Hinblick auf die Zuteilung von Produktionsressourcen erreicht werden muss. Hier wird Fairness nicht nur anhand von Konsumgütern gemessen, sondern auch im Hinblick auf die Ressourcen, die zur Produktion von Gütern notwendig sind. Eine Allokation wird als „resource envy-free“ bezeichnet, wenn kein Agent die Produktionsressourcen eines anderen als vorzuziehen empfindet. Dies ist eine Erweiterung der ursprünglichen Fairness-Konzepte, die besonders in Produktionswirtschaften relevant wird.
Es ist auch wichtig zu beachten, dass Fairness nicht nur als Abwesenheit von Neid betrachtet wird, sondern auch unter Berücksichtigung von Reservierungsnutzungen und anderen individuellen Faktoren. So zeigt Echenique et al. (2021), dass eine faire Allokation auch dann bestehen kann, wenn einige Akteure eine höhere Ausgangsnutzung haben, vorausgesetzt, dass diese Unterschiede durch rationale Argumente gerechtfertigt sind und nicht willkürlich erzeugt wurden. Dies führt zu der Idee der „justified envy“, bei der Neid nur dann als gerechtfertigt angesehen wird, wenn er innerhalb der Grenzen individueller rationaler Präferenzen verbleibt.
Insgesamt zeigt sich, dass die Anwendung des zweiten Wohlfahrts-Satzes und seiner Erweiterungen auf die Realität eine Vielzahl von Herausforderungen mit sich bringt. Insbesondere die Komplexität der Informationsanforderungen und die Notwendigkeit, gerechte Allokationen zu schaffen, erfordern eine differenzierte Betrachtung der ökonomischen Rahmenbedingungen und sozialen Kontexte. Dies macht deutlich, dass die bloße Theorie der Markteffizienz alleine nicht ausreicht, um eine sozial gerechte und wirtschaftlich effiziente Allokation zu garantieren.
Inkonsequenz im Entscheidungsverhalten: Wie das Gehirn Entscheidungen beeinflusst und die Theorie des Nutzenmaximierungsmodells herausfordert
Die klassische neoklassische Theorie der Entscheidung und die Arrow-Debreu-Modellansätze gehen davon aus, dass der Entscheidende in seinen Entscheidungen konsistent ist. Diese Konsistenz wird als fundamentales Axiom des rationalen Verhaltens und der Theorie der Nutzenmaximierung verstanden. Der grundlegende Aspekt der Konsistenz im Entscheidungsverhalten wird formalisiert durch das Generalized Axiom of Revealed Preference (GARP), welches es ermöglicht, inkonsistente Entscheidungen zu erkennen und zu messen. Allerdings werfen neuere Erkenntnisse, wie sie von Kurtz-David et al. (2019) und Nitsch und Kalenscher (2021) diskutiert werden, Fragen zur tatsächlichen Konsistenz menschlichen Entscheidungsverhaltens auf. Es zeigt sich, dass menschliche Entscheidungsträger in der Praxis häufig inkonsistent agieren, auch wenn keine spezifischen Framing- oder Kontext-Effekte vorliegen.
Kurtz-David et al. (2019) argumentieren, dass menschliche Entscheidungsprozesse möglicherweise durch begrenzte kognitive Kapazitäten oder die Anwendung von Heuristiken fehlerhaft werden, was zu inkonsistenten Entscheidungen führen kann. Sie stützen sich auf die Theorie, dass die Bewertungen, die den Entscheidungen zugrunde liegen, möglicherweise stochastisch sind, was bedeutet, dass sie zufälligen Schwankungen unterliegen. Dieser Ansatz wird durch neurowissenschaftliche Methoden ergänzt, um zu untersuchen, wie das Gehirn Entscheidungen verarbeitet und warum inkonsistente Entscheidungen auftreten können. Verschiedene Hirnregionen, wie der ventrale Striatum (vStr), der ventromediale präfrontale Kortex (vmPFC) und der hintere cinguläre Kortex (PCC), sind in Studien als stark mit der Nutzendarstellung und der Entscheidungsfindung in Verbindung gebracht worden. Doch ein zentraler Punkt bleibt unklar: Befolgen die neuronalen Prozesse, die diesen Hirnregionen zugrunde liegen, die Prinzipien der Konsistenz, oder ist die Variabilität der Wertberechnungen in diesen Bereichen der Ursprung inkonsistenter Entscheidungen?
Kurtz-David et al. (2019) setzen sich daher mit der Frage auseinander, ob die Inkonsistenz in den Entscheidungen möglicherweise auf die Variabilität in der neuronalen Verarbeitung von Werten zurückzuführen ist. Sie entwickeln eine Methode, die es ermöglicht, die Schwere einer Inkonsistenz auf einer Trial-by-Trial-Basis zu messen, um diese mit den entsprechenden neuronalen Korrelaten zu verbinden. Ihre Forschung zeigt, dass es eine positive Korrelation zwischen der Schwere der Inkonsistenz und dem BOLD-Signal (Blutoxygenierungs-Level-abhängiges Signal) in den mit der Nutzenberechnung verbundenen Hirnregionen gibt. Diese Ergebnisse legen nahe, dass Variabilität ein grundlegendes Merkmal neuronaler Berechnungen ist und ein integraler Bestandteil des menschlichen Entscheidungsverhaltens darstellt.
Im Kern stellt sich heraus, dass inkonsistentes Entscheidungsverhalten nicht notwendigerweise ein Fehler oder eine Abweichung vom normativen Ideal der Nutzenmaximierung ist, sondern vielmehr ein „optimale Variabilität“ innerhalb eines normativen Rahmens darstellen könnte. Diese Erkenntnis könnte weitreichende Implikationen für die neoklassische Wirtschaftstheorie haben. Anstatt an der Vorstellung einer exakten Nutzenmaximierung festzuhalten, könnte es sinnvoller sein, von einer Art „konstanten, optimalen Variabilität“ um ein normativ definiertes Nutzenmodell zu sprechen, das das tatsächliche menschliche Entscheidungsverhalten besser abbildet.
Zudem geht auch Heufer (2012) auf das Thema der Inkonsistenz im Entscheidungsverhalten ein und entwickelt einen Index, der es erlaubt, „fast optimales“ Verhalten zu messen. Der Afriat Efficiency Index (AEI) stellt eine Möglichkeit dar, die Schwere der Verletzung von GARP zu quantifizieren. Trotz der praktischen Probleme bei der Bestimmung eines kritischen Schwellenwertes für den AEI zeigt Heufer, dass inkonsistente Verhaltensweisen nicht notwendigerweise auf zufällige oder unverständliche Entscheidungen hinweisen, sondern dass sie in einem gewissen Maße „nahe an der Nutzenmaximierung“ liegen können. Dies lässt den Schluss zu, dass das menschliche Entscheidungsverhalten eine Mischung aus Konsistenz und Variabilität aufweist, wobei beides innerhalb bestimmter Grenzen der optimalen Effizienz stattfindet.
Wichtig ist, dass der menschliche Entscheidungsprozess nicht einfach als fehlerhaft oder inkonsistent betrachtet werden sollte. Stattdessen sollten diese Abweichungen als Teil eines natürlichen, dynamischen Prozesses verstanden werden, der sowohl von den physischen Gegebenheiten des Gehirns als auch von den psychologischen und situativen Bedingungen beeinflusst wird. In einer zunehmend komplexeren Welt, in der die Grenzen der menschlichen Kognition immer häufiger überschritten werden, ist es entscheidend, dass Entscheidungstheorien diese Variabilität anerkennen und in ihren Modellen berücksichtigen. Dabei kann die Kombination aus neurowissenschaftlichen Erkenntnissen und ökonomischen Modellen zu einem tieferen Verständnis des Entscheidungsverhaltens führen, das über die klassischen Annahmen von Rationalität und Nutzenmaximierung hinausgeht.
Welche Erkenntnisse und Zusammenhänge lassen sich aus einer breiten ökonomischen Literaturübersicht ableiten?
Die vorliegende Literatur stellt eine umfassende Sammlung theoretischer und empirischer Arbeiten dar, die sich mit verschiedenen Aspekten der Ökonomie, Entscheidungstheorie und Spieltheorie befassen. Die Werke reichen von der Analyse von Gleichgewichtskonzepten in nicht-konvexen oder unbeschränkten Strategieräumen über die Untersuchung von Präferenzrelationen bis hin zu angewandten Modellen zur Produktion und Wettbewerbspolitik. Ein verbindendes Element ist die rigorose methodische Herangehensweise, die von Axiomatisierungen bis hin zu experimentellen Designs reicht und dabei unterschiedliche ökonomische Phänomene beleuchtet.
Ein zentraler Fokus liegt auf dem Verständnis von Gleichgewichten in komplexen ökonomischen Systemen. Studien wie die von Ceparano und Quartieri zeigen, dass auch in nicht-konvexen Ökonomien und unter komplexen Annahmen zu Reaktionsfunktionen stabile Gleichgewichte und Wohlfahrtsresultate existieren können. Dies erweitert die klassische Sichtweise, die meist auf konvexe Mengen und lineare Optimierung beschränkt ist. Die Arbeiten von Chang veranschaulichen darüber hinaus, wie Gleichgewichtskonzepte auch in nichtkompakten und abstrakten Strategieräumen mathematisch formalisiert und bewiesen werden können. Dies ist entscheidend für das Verständnis moderner Märkte, in denen Akteure nicht immer einfache, begrenzte Entscheidungsmengen haben.
Die Behandlung von Präferenzen und Entscheidungstheorie bildet einen weiteren Schwerpunkt. Von der transitive Konsistenz der Präferenzen, untersucht von Cavagnaro et al., über die Einführung von „cautious expected utility“ (Cerreia-Vioglio et al.) bis hin zu experimentellen Ansätzen zur Erfassung von Risikoverhalten und Präferenzunsicherheiten (Chambers, Echenique, Shmaya), entsteht ein facettenreiches Bild menschlicher Entscheidungsfindung. Die Kombination aus theoretischer Modellierung und empirischer Prüfung eröffnet ein tieferes Verständnis für Abweichungen von der klassischen Nutzenmaximierung, insbesondere bei Unsicherheit und Risiko.
Die Mikroökonomie und Produktionstheorie werden durch Arbeiten wie jene von Chambers und Kollegen vertreten, die sich mit Produktions- und Nutzenfunktionen auseinandersetzen und diese mit mathematischer Präzision analysieren. Besonderes Augenmerk liegt auf Effizienz und Ineffizienzmessungen sowie auf der Rolle von komplementären Verhaltensweisen, die marktwirtschaftliche Dynamiken beeinflussen. Hier zeigt sich die Bedeutung der Verbindung zwischen formalen Modellen und empirischer Datenanalyse für das Verständnis von Marktmechanismen.
Auf makroökonomischer Ebene werden Themen wie Produktivitätsdispersion, Wachstumsdynamik und externe Effekte adressiert. Chakrabarti und Lahkar verfolgen evolutionäre Modelle, die Schwankungen und Wachstum im Kontext negativer externer Effekte erklären. Solche Ansätze bieten wichtige Einsichten, wie mikroökonomische Verhaltensmuster makroökonomische Aggregationen und Entwicklungen beeinflussen.
Die Literatur thematisiert zudem die Rolle von Wettbewerb und Handel. Caves und Jones sowie Chambers und Hayashi widmen sich den Effekten von wirtschaftlicher Integration und Wettbewerbspolitik, wobei der Fokus auf Wohlfahrtsgewinnen und möglichen Verteilungswirkungen liegt. Dies unterstreicht, wie mikroökonomische Theorien auf realwirtschaftliche Fragestellungen angewendet werden können und wie komplex die Zusammenhänge zwischen Marktdynamiken und politischen Maßnahmen sind.
Darüber hinaus zeigt sich eine Vielfalt an methodischen Zugängen: von experimentellen Studien (Chapman & Weber, Chanel & Chichilnisky) über mathematische Axiomatisierungen (Chambers & Echenique) bis hin zu nichtparametrischen Schätzmethoden und struktureller Ökonometrie (Cazals et al.). Die Verknüpfung dieser Methoden gewährleistet, dass die Theorien nicht nur abstrakt bleiben, sondern auch empirisch geprüft und angewandt werden können.
Für das Verständnis der ökonomischen Literatur ist es wesentlich, nicht nur die Modelle selbst, sondern auch deren Annahmen und Beschränkungen zu durchdringen. Beispielsweise sind klassische Gleichgewichtstheorien oft an strikte Voraussetzungen gebunden, die in der Realität nicht immer erfüllt sind. Die Erweiterungen und Modifikationen, die in der Literatur vorgestellt werden, zeigen jedoch Wege auf, diese Modelle flexibler und realistischer zu gestalten. Ebenso muss die Bedeutung von Unsicherheit, individuellen Präferenzen und Verhaltensanomalien verstanden werden, da diese Faktoren wesentlich für das tatsächliche ökonomische Handeln sind.
Wichtig ist auch die Erkenntnis, dass wirtschaftliche Entscheidungen und Marktprozesse nicht isoliert betrachtet werden können. Sie sind eingebettet in soziale, kulturelle und institutionelle Kontexte, wie Studien zur kulturellen Transmission (Cavalli-Sforza & Feldman) oder zu ethnischen Netzwerken (Ceccagno) zeigen. Dieses Verständnis erweitert die klassische ökonomische Perspektive und legt den Grundstein für interdisziplinäre Ansätze.
Diese gesammelten Erkenntnisse verdeutlichen, dass moderne Wirtschaftswissenschaften eine Vielzahl von Methoden und theoretischen Ansätzen nutzen müssen, um die Komplexität realer Märkte und menschlichen Verhaltens abzubilden. Der Fokus auf mathematische Strenge, experimentelle Validierung und empirische Anwendung schafft eine solide Basis für das weitere Fortschreiten der Disziplin.
Wie beeinflussen strategische Komplexität und rationale Entscheidungsfindung in wiederholten Spielen das Verhalten in ökonomischen Modellen?
Die Betrachtung der strategischen Komplexität und der rationellen Entscheidungsfindung in wiederholten Spielen stellt einen wesentlichen Aspekt der Spieltheorie dar. Insbesondere die Arbeiten von Kalai und Samet (1985) sowie Kalai und Smorodinsky (1975) werfen Licht auf die Bedeutung von Monotonie in kooperativen Spielen und die Lösungsansätze im Kontext des Nash’schen Verhandlungsproblems. Sie argumentieren, dass die Bestimmung stabiler und langfristig durchsetzbarer Lösungen nicht nur die reinen mathematischen Überlegungen der Spieltheorie erfordert, sondern auch die psychologischen und strategischen Dimensionen des menschlichen Verhaltens berücksichtigen muss. Die grundlegenden Prinzipien, die durch diese Arbeiten vertreten werden, unterstreichen, wie wichtig es ist, nicht nur den unmittelbaren Nutzen von Entscheidungen zu bewerten, sondern auch die langfristigen Auswirkungen und das Verhalten im Laufe von wiederholten Interaktionen.
Der Mechanismus der "bounded rationality", wie er von Kalai (1990) eingeführt wurde, eröffnet neue Perspektiven in Bezug auf die Entscheidungsfindung unter Unsicherheit. In realen ökonomischen Systemen sind Akteure oft nicht in der Lage, alle Informationen zu verarbeiten oder alle möglichen Konsequenzen ihrer Entscheidungen vollständig zu verstehen. Daher müssen Modelle, die das Verhalten von Akteuren in wiederholten Spielen erklären, diese kognitiven Grenzen einbeziehen. Ein wichtiger Aspekt in diesem Kontext ist die Idee des "strategischen Lernens", das von Kandori und Rob (1998) untersucht wurde. Sie zeigten, dass in wiederholten Spielen mit Unsicherheit und unvollständigen Informationen ein stetiger Lernprozess stattfindet, der nicht nur die kurzfristigen Entscheidungen beeinflusst, sondern auch langfristige Gleichgewichte und Technologiewahlen bestimmt.
Das Konzept der Zeitpräferenz und der intertemporal Entscheidungsfindung ist ein weiteres zentrales Thema in der ökonomischen Theorie. Die Arbeiten von Kalenscher und Pennartz (2008) sowie Kam (2005) bieten tiefere Einblicke in die Neuroökonomie und die Psychologie der intertemporal Entscheidung. Sie gehen davon aus, dass Individuen nicht nur den aktuellen Nutzen maximieren, sondern auch die zukünftigen Konsequenzen ihrer Handlungen berücksichtigen – auch wenn diese Unsicherheit und Komplexität mit sich bringen. In diesem Zusammenhang ist es wichtig, die psychologischen Mechanismen zu verstehen, die die Abwägung von sofortigem und zukünftigem Nutzen beeinflussen, sowie die verschiedenen Modelle der Zeitpräferenz zu differenzieren.
Die Theorie der Konsumentenpräferenzen, insbesondere im Hinblick auf die Konsistenz und das Verhalten unter unsicheren Bedingungen, wird durch die Arbeiten von Kalman (1968) und Kalman und Intriligator (1973) erweitert. Sie zeigen, wie sich das Verhalten von Konsumenten in unterschiedlichen Marktbedingungen verändert, insbesondere wenn es um die Wahl von Gütern und die Reaktion auf Preisänderungen geht. Dies hat weitreichende Implikationen für das Verständnis von Marktverhalten und die Gestaltung von politischen Maßnahmen, die die Konsumentscheidungen beeinflussen können.
Ein weiterer wichtiger Punkt, der nicht vernachlässigt werden darf, ist das Konzept des "Transferparadoxons", das in den Arbeiten von Kang und Ye (2014) sowie Kang und Rasmusen (2016) untersucht wird. Dieses Paradoxon stellt die Frage, wie eine Umverteilung von Ressourcen in einem Gleichgewichtssystem das Verhalten der Akteure beeinflussen kann. Es wird gezeigt, dass Transferzahlungen in einer offenen Wirtschaft oft unbeabsichtigte negative Auswirkungen haben können, die das ursprüngliche Ziel der Umverteilung untergraben. Dies hat Implikationen für die Gestaltung von Wirtschafts- und Sozialpolitiken, da es darauf hinweist, dass einfache Umverteilungsmaßnahmen in komplexen wirtschaftlichen Systemen oft nicht die gewünschten Effekte erzielen.
Es ist wichtig zu verstehen, dass in vielen Fällen die Modelle der Spieltheorie und der ökonomischen Entscheidung nicht nur die klassischen Annahmen rationaler Akteure voraussetzen, sondern auch komplexe, dynamische Prozesse berücksichtigen müssen. So zeigen die Arbeiten von Kalai und Zemel (1982) über völlig ausgewogene Spiele, dass die klassische Annahme eines statischen Gleichgewichts nicht immer die Realität widerspiegelt, sondern dass Spiele und Entscheidungen über Zeit hinweg entwickelt werden und sich dynamisch verändern können.
Der entscheidende Punkt, den der Leser aus diesen theoretischen Modellen mitnehmen sollte, ist, dass ökonomische Entscheidungen nicht isoliert betrachtet werden können. Vielmehr müssen sie im Kontext wiederholter Interaktionen, begrenzter Rationalität und der Möglichkeit von Lernprozessen und Verhaltensanpassungen gesehen werden. Dies bedeutet, dass ökonomische Akteure – seien es Konsumenten, Unternehmen oder Regierungen – kontinuierlich in einer sich wandelnden und oft unvorhersehbaren Umgebung agieren, wobei die Komplexität der Interaktionen und die Unsicherheit der zukünftigen Ergebnisse wesentliche Herausforderungen darstellen.
Wie beeinflusst die Verteilung von Präferenzen und Einkommen die Einzigartigkeit des Gleichgewichts in der allgemeinen Gleichgewichtstheorie?
Die Sonnenschein–Mantel–Debreu (SMD)-Resultate zeigen, dass die Aggregation individueller Nachfragefunktionen zu sehr allgemeinen und komplexen Eigenschaften der aggregierten Überschussnachfrage führt. Werden jedoch zusätzliche Annahmen über die Struktur der Konsumenten und deren Präferenzen getroffen, so entsteht mehr Ordnung in der Aggregation, was die Möglichkeit einer eindeutigen Gleichgewichtslösung eröffnet. Insbesondere dann, wenn die aggregierte Überschussnachfrage von einem „repräsentativen“ Konsumenten abgeleitet wird, können weitere strukturelle Eigenschaften hergeleitet werden. Dies ist jedoch unter realistischen Annahmen kaum der Fall, da die Vielfalt der Konsumentenpräferenzen und deren Einkommensverteilungen meist hoch ist.
Mas-Colell (1991) verfolgt einen differenzierteren Ansatz, indem er die gemeinsamen Verteilungen von Präferenzen und Einkommen betrachtet und so die Komplexität der Aggregation reduziert. Hierbei werden mehrere Kategorien von Restriktionen betrachtet, die die Substitutionseffekte, Engel-Kurven, Präferenzverteilungen sowie die Verteilung des Einkommens und deren Korrelationen betreffen. Die Grundidee beruht darauf, dass die Aggregation der individuellen Überschussnachfragen in einer Austauschökonomie sich als Summe der individuellen Überschussnachfragen darstellen lässt, deren Jacobi-Matrix sich durch die Summation der einzelnen Ableitungen über alle Konsumenten ausdrücken lässt.
Die Slutsky-Zerlegung für individuelle Nachfragefunktionen zeigt, dass die Preisreaktion der aggregierten Überschussnachfrage sich aus zwei Termen zusammensetzt: Erstens der Summe der substitutiven Reaktionen (Substitutionsmatrizen), die negativ semidefinit sind, und zweitens einem Ausdruck, der an eine Kovarianzmatrix erinnert und aus dem Produkt der Nettogeschäfte eines Konsumenten und seiner marginalen Konsumneigung besteht. Wenn die marginale Konsumneigung eines Konsumenten nicht systematisch mit seiner Nettogeschäftsintensität korreliert, wird dieser zweite Term vernachlässigbar. Dies impliziert, dass unter solchen Umständen die Aggregatnachfrage überwiegend durch den Substitutionseffekt bestimmt wird und somit tendenziell eine fallende Steigung besitzt.
Dies ist eine bedeutende Erkenntnis, da selbst bei starken Einkommenseffekten die Existenz eines eindeutigen Gleichgewichts möglich ist, solange die Kovarianz zwischen den Nettokäufen von Gütern und den marginalen Konsumneigungen gering bleibt. Formalisiert wird dies durch die Definition von Verteilungswirkungen des Einkommens und der Anfangsausstattungen auf die Gesamtnachfrage, die Mas-Colell mit den Matrizen Cx(p) und Cω(p) beschreibt. Die Matrix Cx(p) misst die Assoziation zwischen den Abweichungen der Einkommenseffekte einzelner Konsumenten vom Durchschnitt und deren Gewichtung durch die individuelle Nachfrage, während Cω(p) die Korrelation zwischen Abweichungen der Einkommenseffekte und der Gewichtung der Anfangsausstattungen erfasst.
In besonderen Fällen, wie bei kollinearen Anfangsausstattungen oder wenn alle Einkommenseffekte mit dem gesamtwirtschaftlichen Durchschnitt übereinstimmen, verschwinden diese Verteilungswirkungstermini. Dann bestimmt allein die Summe der individuellen Substitutionsmatrizen die Preisreaktion der aggregierten Nachfrage, was zur negativen Definitheit und damit zur Einzigartigkeit des Gleichgewichts beiträgt.
Die Untersuchung der Eigenschaften von Cx(p) zeigt, dass sie positiv definit sein kann, wenn Konsumenten mit einer höheren als durchschnittlichen marginalen Konsumneigung für jene Güter auch eine hohe durchschnittliche Konsumneigung besitzen. Dieses Zusammenspiel kann potenziell die Stabilität und Einzigartigkeit des Gleichgewichts gefährden, da positive Definitheit die Negativsemidefinitheit der Substitutionsmatrizen konterkarieren kann.
Das Verstehen dieser komplexen Zusammenhänge ist zentral für die allgemeine Gleichgewichtstheorie und deren Anwendungen. Es zeigt, dass das aggregierte Verhalten einer Volkswirtschaft nicht nur durch einfache Summationen individueller Präferenzen erklärt werden kann, sondern von der Verteilung dieser Präferenzen und Einkommen sowie deren gegenseitigen Beziehungen abhängt. Damit wird klar, dass die Annahme eines „repräsentativen Konsumenten“ in vielen Fällen nicht ausreicht, um die Eigenschaften der aggregierten Nachfrage und die Einzigartigkeit des Gleichgewichts zuverlässig zu gewährleisten.
Für ein vollständiges Verständnis ist es zudem wichtig zu berücksichtigen, dass die theoretischen Ergebnisse auf Differenzierbarkeit und gewissen Regularitätsbedingungen beruhen, die in realen Märkten nicht immer erfüllt sein müssen. Die Komplexität und Heterogenität der Präferenzen und Einkommensverteilungen erfordern daher sowohl theoretische als auch empirische Untersuchungen, um die praktischen Implikationen für Wirtschaftspolitik und Marktregulierung abzuschätzen.
Wie werden chemische Substanzen für den optimalen Einsatz von Löschmitteln klassifiziert und bewertet?
Wie können Querrisse an Mikrolegierungsstahl-Brammen effektiv vermieden werden?
Wie beeinflusst die Temperatur die Leitfähigkeit von Halbleitern?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский