Im Zusammenhang mit Markov-Prozessen auf Produkten von Zustandsräumen lässt sich zeigen, dass die Übergangswahrscheinlichkeit eines solchen Prozesses irreduzibel ist. Dies bedeutet, dass es für jedes Paar von Zuständen (i, i') und (j, j') positive Zeiten gibt, nach denen eine Übergangswahrscheinlichkeit größer als null ist. Wenn dies für alle Paare gilt, ist die Übergangsmatrix irreduzibel. Eine weitere wichtige Eigenschaft solcher Prozesse ist ihre Aperiodizität. Dies bedeutet, dass die Zustände des Prozesses keine feste Periode haben und nach einer ausreichend langen Zeit in jeden anderen Zustand übergehen können. Eine zentrale Rolle spielt die invariant bleibende Wahrscheinlichkeit π × π, die in Bezug auf die Übergangsmatrix p2 als invariant festgestellt werden kann.

Wenn ein Markov-Prozess irreduzibel und aperiodisch ist, folgt daraus, dass der Prozess in einem rekurrenten Zustand bleibt. Dies bedeutet, dass der Prozess, der mit einer beliebigen Anfangskonfiguration startet, immer wieder zu diesem Zustand zurückkehrt. Im mathematischen Sinne bedeutet dies, dass für jedes Paar von Zuständen (Xn, X'n) die Wahrscheinlichkeit, dass der Prozess jemals einen Zustand erreicht, immer positiv ist.

Ein interessantes Beispiel eines solchen Prozesses ist der sogenannte „Thermostat-Modell“ für das Verhalten eines Managers, der entscheidet, in welchem Zeitraum er Ressourcen in die Verbesserung eines Projekts investiert. Die Leistung des Projekts ist als stochastischer Prozess modelliert, wobei die Performance im Wesentlichen davon abhängt, ob der Manager sich entscheidet, Anstrengungen zu unternehmen, um die Situation zu verbessern oder nicht. Hierbei wird die Veränderung der Leistung durch die Verteilung von Zufallsvariablen bestimmt, die den Erfolg der Bemühungen (Y(t)) und den Mangel an Bemühungen (X(t)) widerspiegeln.

In einem solchen Szenario wird die Entscheidung des Managers, eine Anstrengung zu unternehmen, durch eine einfache Regel gesteuert, die einer Thermostatregelung ähnelt: Wenn die Leistung unter einem bestimmten Schwellenwert A liegt, wird der Manager sofort mit der Verbesserung beginnen, bis eine obere Grenze erreicht wird, woraufhin keine Anstrengung unternommen wird, bis die Leistung wieder einen unteren Schwellenwert B unterschreitet. Diese Art von Verhalten erzeugt einen Markov-Prozess, dessen Zustandsraum alle möglichen Kombinationen von Anstrengungen und Leistung umfasst.

Das Markov-Modell lässt sich in einem solchen Kontext weiter untersuchen, indem man die Übergangswahrscheinlichkeiten in Bezug auf die zufälligen Variablen X(t) und Y(t) bestimmt. Diese Übergangswahrscheinlichkeiten sind in der Praxis häufig mit realen Beispielen verknüpft, wie etwa der Entscheidung eines Managers, seine Ressourcen je nach aktueller Leistung des Projekts in unterschiedliche Bereiche zu lenken. Eine wichtige Erkenntnis in solchen Modellen ist die Bestimmung der langfristigen Eigenschaften des Prozesses, beispielsweise der durchschnittlichen Leistung und der Häufigkeit, mit der Anstrengungen unternommen werden.

Es gibt dabei wichtige Annahmen über die Verteilungen der Zufallsvariablen X(t) und Y(t), die dazu beitragen, den Prozess zu modellieren. X(t) und Y(t) sind dabei unabhängig und identisch verteilt. Die Werte von X(t) und Y(t) können dabei nur -1, 0 oder +1 annehmen, wobei die Wahrscheinlichkeit, dass ein Wert den Wert +1 erreicht, durch die Wahrscheinlichkeit p1 gegeben ist, und für den Wert -1 ist sie durch q1 gegeben. Das Modell geht auch davon aus, dass die Leistung des Projekts zu einem Zeitpunkt t nur um maximal eine Einheit steigen oder fallen kann.

Mit diesen Annahmen lässt sich ein Markov-Modell formulieren, bei dem die Zustände des Prozesses als Paare von Aktionen (Anstrengung oder keine Anstrengung) und der aktuellen Leistung des Projekts beschrieben werden. Da das Modell irreduzibel und aperiodisch ist, existiert für diesen Markov-Prozess ein einzigartiger invariant bleibender Zustand, der es dem Modell ermöglicht, langfristig stabile Verhältnisse für die Wahrscheinlichkeit der Zustände zu erreichen.

Das Verhalten des Managers, das in diesem Modell simuliert wird, folgt der Struktur eines Markov-Prozesses, bei dem die Wahrscheinlichkeit eines bestimmten Zustands in der Zukunft nur von dem aktuellen Zustand abhängt. Dies bedeutet, dass es keine langfristige Vorhersehbarkeit über die Entwicklung der Performance gibt, außer auf der Grundlage der aktuellen Verteilung der Zufallsvariablen. Der langfristige durchschnittliche Zustand des Prozesses wird durch das invariant bleibende Wahrscheinlichkeitsmaß bestimmt.

In Bezug auf die Analyse solcher Prozesse ist es von Bedeutung zu verstehen, dass der Übergang zwischen den verschiedenen Zuständen in einem Markov-Prozess durch die Übergangswahrscheinlichkeiten definiert ist, die eine vollständige Beschreibung des Modells ermöglichen. Dabei ist es besonders wichtig, wie diese Wahrscheinlichkeiten im Verlauf der Zeit konvergieren, was eine stabile Verteilung der Zustände zur Folge hat.

Wie stabile Markov-Prozesse in autoregressiven Modellen entstehen

In der Theorie der zufälligen dynamischen Systeme spielt die Stabilität von Markov-Prozessen eine zentrale Rolle, insbesondere in den Bereichen der Zeitreihenanalyse und der linearen autoregressiven Modelle (AR(k)). Solche Modelle, die sich rekursiv entwickeln, basieren auf der Annahme, dass zukünftige Zustände von vergangenen Zuständen abhängen und durch zufällige Störungen beeinflusst werden. Ein zentrales Thema dabei ist die Existenz und Stabilität einer invarianten Wahrscheinlichkeit, welche die langfristige Verteilung des Systems beschreibt.

Betrachten wir zunächst einen Markov-Prozess, der durch die rekursive Gleichung

Xn+1=An+1Xn+ϵn+1,(n0)X_{n+1} = A_{n+1} X_n + \epsilon_{n+1}, \quad (n \geq 0)

definiert ist, wobei AnA_n eine Reihe von Matrizen ist und ϵn+1\epsilon_{n+1} unabhängige Zufallsvariablen darstellt, die als Störungen fungieren. Eine wichtige Eigenschaft dieses Prozesses ist die Existenz einer einzigartigen invarianten Verteilung π\pi, die sich stabilisiert, wenn der Prozess über die Zeit hinweg beobachtet wird.

Die Voraussetzung für die Stabilität eines solchen Prozesses ist, dass der Erwartungswert des logarithmischen Wachstums der Matrizen AnA_n endlich und negativ ist. Dies stellt sicher, dass die Verteilung des Prozesses nicht divergiert, sondern zu einer stabilen, invarianten Verteilung konvergiert. Insbesondere führt die Bedingung

Elog+A1<E \log^+ \|A_1\| < \infty

dazu, dass der Markov-Prozess, der durch die rekursive Beziehung beschrieben wird, stabil in der Verteilung ist.

Wichtig zu verstehen ist, dass die Invarianz der Verteilung und ihre Stabilität auch dann gelten, wenn der Prozess mehrdimensional wird. Wenn zum Beispiel der Markov-Prozess in einem kk-dimensionalen Raum definiert ist, wie in der rekursiven Gleichung

Xn+1=AXn+ϵn+1,(n0)X_{n+1} = A X_n + \epsilon_{n+1}, \quad (n \geq 0)

wobei AA eine k×kk \times k-Matrix ist und ϵn\epsilon_n eine Folge von zufälligen Vektoren, dann gilt auch hier die Existenz einer einzigartigen invarianten Verteilung, vorausgesetzt, die Matrizen AnA_n erfüllen bestimmte Bedingungen. Eine solche Bedingung ist, dass die Spektralradius der Matrix AA, also der maximale Betrag der Eigenwerte von AA, kleiner als 1 ist. Dies garantiert, dass die Matrix über Zeit hinweg keinen unkontrollierten Wachstum verursacht und somit eine stabile Verteilung existiert.

Für konkrete Anwendungen in der Zeitreihenanalyse sind autoregressive Modelle der Ordnung kk (AR(k)) von Bedeutung. Diese Modelle beschreiben den Zustand eines Systems als lineare Funktion seiner vorherigen Zustände, zuzüglich einer zufälligen Störung. Ein typisches Beispiel für ein AR(k)-Modell ist gegeben durch die rekursive Gleichung:

Un+k=i=0k1βiUn+i+ηn+k,(n0)U_{n+k} = \sum_{i=0}^{k-1} \beta_i U_{n+i} + \eta_{n+k}, \quad (n \geq 0)

Dabei sind βi\beta_i feste Parameter, die die Stärke der Abhängigkeit zwischen den Zuständen beschreiben, und ηn+k\eta_{n+k} eine unabhängige Zufallsgröße. Die k-dimensionalen Vektoren Xn=(Un,Un+1,,Un+k1)X_n = (U_n, U_{n+1}, \dots, U_{n+k-1})' bilden dabei einen Markov-Prozess, dessen stabile Verteilung ebenfalls existiert, wenn die Eigenwerte der Matrix, die die Übergänge beschreibt, die oben genannten Bedingungen erfüllen.

Ein weiteres Beispiel für einen Markov-Prozess ist das autoregressive Modell mit gleitendem Durchschnitt ARMA(k, q), das sowohl autoregressive als auch gleitende Durchschnittskomponenten kombiniert. Dieses Modell wird durch die Gleichung

Un+k=i=0k1βiUn+i+j=1qδjηn+kj+ηn+kU_{n+k} = \sum_{i=0}^{k-1} \beta_i U_{n+i} + \sum_{j=1}^{q} \delta_j \eta_{n+k-j} + \eta_{n+k}

definiert, wobei die ηn\eta_n Störungen sind und die Parameter βi\beta_i und δj\delta_j die autoregressiven und gleitenden Durchschnittskomponenten bestimmen. Hier bildet der Vektor Xn=(Un,,Un+k1,ηn+kq,,ηn+k1)X_n = (U_n, \dots, U_{n+k-1}, \eta_{n+k-q}, \dots, \eta_{n+k-1})' ebenfalls einen Markov-Prozess, dessen Verteilung stabil ist, wenn die oben genannten Bedingungen erfüllt sind.

Es ist bemerkenswert, dass in beiden Fällen – sowohl für das AR(k)- als auch für das ARMA(k, q)-Modell – die Verteilung des Prozesses, unabhängig von der Anfangsverteilung, mit der Zeit zu einer stabilen, invarianten Verteilung konvergiert. Diese Stabilität bedeutet, dass, wenn der Prozess lange genug beobachtet wird, er sich in einer festen statistischen Verteilung einpendelt, die nur noch von den Eigenschaften der Störungen und den Übergangsmatrizen abhängt.

Ein praktisches Ergebnis dieser Theorie ist, dass Zeitreihen, die einem solchen Modell folgen, mit der Zeit ein stabiles Verhalten aufweisen, unabhängig von den Anfangswerten. Dies macht autoregressive Modelle und ihre Erweiterungen wie ARMA zu äußerst nützlichen Werkzeugen für die Modellierung und Vorhersage von Zeitreihendaten, insbesondere in Bereichen wie Wirtschaft, Finanzen und Ingenieurwissenschaften.

Zusätzlich ist es wichtig zu beachten, dass diese Modelle nur unter bestimmten Annahmen korrekt und stabil sind. Insbesondere müssen die Zufallsstörungen, die die Modelle beeinflussen, bestimmte Momenten-Bedingungen erfüllen (z. B. dass der Erwartungswert des logarithmischen Wachstums der Störungen endlich ist). Dies stellt sicher, dass der Prozess nicht durch zu große oder unvorhersehbare Zufallseinflüsse destabilisiert wird.

Wie wird die Invariante Verteilung eines Markov-Prozesses bestimmt?

Die Bestimmung der invariant Verteilung eines Markov-Prozesses ist in der Regel eine äußerst komplexe Aufgabe. Ein bemerkenswerter Ausnahmefall stellt die Klasse der positiv rezidivierenden Geburt-Tod-Ketten dar, für die die invarianten Wahrscheinlichkeiten explizit in den Propositionen 8.3 und 8.4 des zweiten Kapitels berechnet werden. Die Herausforderung wird besonders deutlich, wenn der Zustandsraum SS unzählbar ist, wie es etwa bei einem Intervall oder einem Rechteck der Fall ist, unabhängig davon, ob dieser endlich oder unendlich ist. Ein weiteres interessantes Beispiel für die analytische Berechnung invariant Wahrscheinlichkeiten im Fall S=(0,)S = (0, \infty) sind die zufälligen Fortsetzungen von Kettenbrüchen, die auch die Zartheit des allgemeinen Problems veranschaulichen. Angesichts dieser Schwierigkeiten neigen Forscher dazu, eher qualitative Beschreibungen oder breite Eigenschaften der invariant Verteilungen auf stetigen Zustandsräumen zu verwenden.

Ein Beispiel für einen solchen Markov-Prozess, der auf einem Intervall SS definiert ist, stellt der Prozess Xn=αnα1X0X_n = \alpha_n \cdots \alpha_1 X_0 dar, wobei die αn\alpha_n (für n1n \geq 1) unabhängige, monoton steigende Zufallsvariablen sind und die Spaltungbedingung (H) gilt. In diesem Fall lässt sich der folgende interessante Satz formulieren:

Proposition 5.1: Unter der Annahme, dass die αn\alpha_n streng monoton sind, gibt es genau eine Invariante Wahrscheinlichkeitsverteilung, und diese ist nicht atomar.

Ein weiteres einfaches, aber dennoch wertvolles Resultat über die absolute Kontinuität von π\pi ist das folgende:

Proposition 5.2: Angenommen, die Übergangswahrscheinlichkeiten p(x,)p(x, \cdot) eines Markov-Prozesses auf einem Zustandsraum (S,S)(S, S) sind für jedes xSx \in S absolut kontinuierlich in Bezug auf ein sigma-endliches Maß ν\nu auf (S,S)(S, S). Wenn π\pi invariante Wahrscheinlichkeitsverteilung unter pp ist, dann ist π\pi absolut kontinuierlich bezüglich ν\nu.

Die Herausforderung bei der Bestimmung der invarianten Verteilung wird deutlich, wenn man versucht, absolute Kontinuität oder Singularität von π\pi zu beweisen. Ein anschauliches Beispiel bietet der Zustandsraum S=[0,1]S = [0, 1], auf dem zwei affine lineare Abbildungen f0f_0 und f1f_1 wirken. Wenn man diese Abbildungen zufällig mit den Wahrscheinlichkeiten pp und 1p1 - p auswählt, erhält man einen Markov-Prozess, dessen Übergangswahrscheinlichkeiten durch f0f_0 und f1f_1 gegeben sind.

Für den Fall, dass 0<θ<1/20 < \theta < 1/2, ist die resultierende Menge von Iterationen der Abbildungen f0f_0 und f1f_1 eine Cantormenge, deren Lebesgue-Maß null ist. Diese Menge stellt den Träger der invarianten Verteilung π\pi dar, was bedeutet, dass die Verteilung singulär in Bezug auf das Lebesgue-Maß ist. Wenn jedoch θ=1/2\theta = 1/2 und p=1/2p = 1/2, dann ist die invariante Wahrscheinlichkeitsverteilung die gleichmäßige Verteilung, also das Lebesgue-Maß auf dem Intervall [0,1][0, 1].

Es gibt auch Fälle, in denen θ>1/2\theta > 1/2, bei denen die 2n2^n-Stufen-Iterationen alle Teilintervalle des Intervalls [0,1][0, 1] abdecken. In solchen Fällen hängt es von den spezifischen Parametern ab, ob die invariante Verteilung π\pi absolut kontinuierlich oder singulär in Bezug auf das Lebesgue-Maß ist.

Für den Fall, dass p=1/2p = 1/2, ist es bekannt, dass es Werte von θ(1/2,1)\theta \in (1/2, 1) gibt, für die π\pi absolut kontinuierlich ist, während für andere Werte von θ>1/2\theta > 1/2 die Verteilung singulär bleibt. Diese Ergebnisse, die in den 1990er Jahren durch Solomyak und Peres erarbeitet wurden, erweitern das Verständnis des Zusammenhangs zwischen den Parametern pp und θ\theta und ihrer Auswirkungen auf die Natur der invarianten Verteilung.

Ein wichtiges Element, das zusätzlich zu den erwähnten Aspekten berücksichtigt werden sollte, ist die genaue Bestimmung des Verhaltens der Verteilung auf unterschiedlichen Skalen und für verschiedene Iterationen der Abbildungen. Besonders bei Prozessen mit kontinuierlichen Zustandsräumen und zufälligen Iterationen können nicht nur die einzelnen Zustände, sondern auch das langfristige Verhalten des Prozesses und die Art der Konvergenz der Verteilung eine bedeutende Rolle spielen. Es ist entscheidend, zu verstehen, dass das Verhalten der invarianten Verteilung oft nicht nur von den Übergangswahrscheinlichkeiten abhängt, sondern auch von den spezifischen Eigenschaften des Markov-Prozesses, wie etwa der Art der verwendeten Abbildungen und der Struktur des Zustandsraums.