• Keine Ergebnisse gefunden

wobei π die eindeutige station¨ are Verteilung der Kette bezeichnet.

N/A
N/A
Protected

Academic year: 2021

Aktie "wobei π die eindeutige station¨ are Verteilung der Kette bezeichnet."

Copied!
28
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Satz 149 (Fundamentalsatz f¨ ur ergodische Markov-Ketten) F¨ ur jede ergodische endliche Markov-Kette (X t ) t∈ N 0 gilt unabh¨ angig vom Startzustand

n→∞ lim q n = π,

wobei π die eindeutige station¨ are Verteilung der Kette bezeichnet.

Beweis:

Gem¨ aß Satz 144 existiert eine station¨ are Verteilung π. Wir zeigen, dass f¨ ur beliebige Zust¨ ande i und k gilt

p (n) ik → π k f¨ ur n → ∞.

Daraus folgt die Behauptung, da (q n ) k = X

i∈S

(q 0 ) i · p (n) ik → π k · X

i∈S

(q 0 ) i = π k .

DWT 2.5 Station¨ are Verteilung 433/467

© Ernst W. Mayr

(2)

Beweis (Forts.):

(Y t ) t∈ N 0 sei eine unabh¨ angige Kopie der Kette (X t ) t∈ N 0 . F¨ ur den Prozess Z t := (X t , Y t ) (t ∈ N 0 ), bei dem die Ketten X t und Y t gewissermaßen

” parallel“ betrieben werden, gilt also Pr[(X t+1 , Y t+1 ) = (j x , j y ) | (X t , Y t ) = (i x , i y )]

= Pr[X t+1 = j x | X t = i x ] · Pr[Y t+1 = j y | Y t = i y ]

= p i x j x · p i y j y .

(Z t ) t∈ N 0 ist daher ebenfalls eine Markov-Kette. F¨ ur die Wahrscheinlichkeit, in n Schritten von (i x , i y ) nach (j x , j y ) zu gelangen, erh¨ alt man analog p (n) i x j x p (n) i y j y , was f¨ ur gen¨ ugend großes n gem¨ aß Lemma 146 positiv ist. (Z t ) t 0 ∈ N ist daher ebenfalls

ergodisch.

DWT 2.5 Station¨ are Verteilung 434/467

© Ernst W. Mayr

(3)

Beweis (Forts.):

Wir starten nun Z t so, dass die Ketten X t und Y t in verschiedenen Zust¨ anden i x bzw. i y beginnen, und interessieren uns f¨ ur den Zeitpunkt H, bei dem sich X t und Y t zum ersten Mal im gleichen Zustand befinden.

Die Menge der Zust¨ ande von Z t ist gegeben durch S × S. Wir definieren die Menge

M := {(x, y) ∈ S × S | x = y}.

von Zust¨ anden der Kette Z t , an denen sich X t und Y t

” treffen“.

Definieren wir nun die Treffzeit H durch

H := max{T (i x ,i y ),(j x ,j y ) | (i x , i y ) ∈ S × S, (j x , j y ) ∈ M }, so folgt aus Lemma 143 und der Endlichkeit der Markov-Kette sofort, dass Pr[H < ∞] = 1 und E [H] < ∞.

DWT 2.5 Station¨ are Verteilung 435/467

© Ernst W. Mayr

(4)

Beweis (Forts.):

Da die weitere Entwicklung der Ketten X t und Y t ab dem

Zeitpunkt H nur vom Zustand X H = Y H und der ¨ Ubergangsmatrix abh¨ angt, wird jeder Zustand s ∈ S Z zu den Zeiten t ≥ H von X t

und Y t mit derselben Wahrscheinlichkeit angenommen. Es gilt also Pr[X t = s | t ≥ H] = Pr[Y t = s | t ≥ H] und somit auch

Pr[X t = s, t ≥ H] = Pr[Y t = s, t ≥ H]. (12) Als Startzustand w¨ ahlen wir f¨ ur die Kette X t den Zustand i, w¨ ahrend Y t in der station¨ aren Verteilung π beginnt (und nat¨ urlich auch bleibt). Damit erhalten wir f¨ ur einen beliebigen Zustand k ∈ S und n ≥ 1

|p (n) ik − π k | = |Pr[X n = k] − Pr[Y n = k]|

= |Pr[X n = k, n ≥ H] + Pr[X n = k, n < H]

−Pr[Y n = k, n ≥ H] − Pr[Y n = k, n < H]|.

DWT 2.5 Station¨ are Verteilung 436/467

© Ernst W. Mayr

(5)

Beweis (Forts.):

Nun k¨ onnen wir (12) anwenden und schließen, dass

|p (n) ik − π k | = |Pr[X n = k, n < H] − Pr[Y n = k, n < H]|.

Zur Absch¨ atzung dieses Ausdrucks benutzen wir die Absch¨ atzung

|Pr[A ∩ B] − Pr[A ∩ C]| ≤ Pr[A].

f¨ ur beliebige Ereignisse A, B und C (die offensichtlich ist).

Wir erhalten

|p (n) ik − π k | ≤ Pr[n < H].

Da Pr[H < ∞] = 1, gilt Pr[n < H] → 0 f¨ ur n → ∞, d.h. die Wahrscheinlichkeiten p (n) ik konvergieren f¨ ur n → ∞ gegen π k .

DWT 2.5 Station¨ are Verteilung 437/467

© Ernst W. Mayr

(6)

2.6 Doppeltstochastische Matrizen

Wie berechnet man die nach Satz 149 (eindeutig bestimmte) station¨ are Verteilung, gegen die ergodische endliche

Markov-Ketten f¨ ur jede Startverteilung konvergieren?

Eine M¨ oglichkeit besteht darin, das lineare Gleichungssystem π · P = π aufzustellen und zu l¨ osen. F¨ ur gr¨ oßere Matrizen ist dieses Verfahren allerdings im Allgemeinen sehr aufwendig.

Wir stellen hier einen anderen Ansatz vor.

DWT 2.6 Doppeltstochastische Matrizen 438/467

© Ernst W. Mayr

(7)

Definition 150

Eine n × n Matrix P = (p ij ) 0≤i,j<n heißt stochastisch, falls alle Eintr¨ age p ij nichtnegativ und alle Zeilensummen gleich Eins sind:

n−1

X

j=0

p ij = 1 f¨ ur alle i = 0, . . . , n − 1.

Sind zus¨ atzlich auch alle Spaltensummen gleich 1, also

n−1

X

i=0

p ij = 1 f¨ ur alle j = 0, . . . , n − 1,

so nennt man P doppeltstochastisch.

Die ¨ Ubergangsmatrix einer Markov-Kette ist immer stochastisch, und umgekehrt.

DWT 2.6 Doppeltstochastische Matrizen 439/467

© Ernst W. Mayr

(8)

Lemma 151

Ist P eine doppeltstochastische n × n Matrix, so ist π = ( n 1 , . . . , n 1 ) ein Eigenvektor zum Eigenwert 1 bez¨ uglich Multiplikation von links:

π = π · P.

Beweis:

F¨ ur alle 0 ≤ k < n gilt:

(π · P) k =

n−1

X

i=0

π i · p ik = 1 n

n−1

X

i=0

p ik

| {z }

= 1

= 1 n = π k .

DWT 2.6 Doppeltstochastische Matrizen 440/467

© Ernst W. Mayr

(9)

Zusammen mit Satz 149 erhalten wir damit sofort:

Satz 152

F¨ ur jede ergodische endliche Markov-Kette (X t ) t∈ N 0 mit doppeltstochastischer ¨ Ubergangsmatrix gilt unabh¨ angig vom Startzustand

t→∞ lim q t = ( 1 n , . . . , n 1 ),

wobei n die Kardinalit¨ at der Zustandsmenge bezeichne.

Beweis:

Klar!

DWT 2.6 Doppeltstochastische Matrizen 441/467

© Ernst W. Mayr

(10)

Beispiel 153

Anna und Bodo verabreden sich wieder einmal zu einer Partie Poker. Misstrauisch geworden durch ihre Verluste beim letzten Rendezvous verd¨ achtigt Anna mittlerweile ihren Spielpartner, beim Mischen zu mogeln. Um ganz sicher zu gehen, dass die Karten zuk¨ unftig auch wirklich gut gemischt werden, schl¨ agt sie folgendes Verfahren vor: Der Stapel mit Karten wird verdeckt hingelegt und dann werden m-mal zwei Karten daraus zuf¨ allig ausgew¨ ahlt und diese vertauscht. Soll Bodo dieser Prozedur zustimmen?

DWT 442/467

© Ernst W. Mayr

(11)

Beispiel 153

Wir modellieren den oben skizzierten Mischvorgang durch eine Markov-Kette. Als Zustandsmenge S w¨ ahlen wir alle m¨ oglichen Anordnungen der Karten. Identifizieren wir die Karten mit den Zahlen [n] = {1, . . . , n}, so besteht S aus der Menge aller Permutationen der Menge [n].

Betrachten wir nun zwei verschiedene Permutationen σ, ρ ∈ S.

Nach Definition der Markov-Kette ist die

Ubergangswahrscheinlichkeit ¨ p σ,ρ genau dann positiv, wenn es i, j ∈ [n], i 6= j, gibt, so dass

ρ(k) =

 

 

σ(j) falls k = i, σ(i) falls k = j, σ(k) sonst.

DWT 442/467

© Ernst W. Mayr

(12)

Beispiel 153

Da nach Voraussetzung i und j zuf¨ allig gew¨ ahlt werden (und es genau n 2

solcher Paare i, j gibt), gilt in diesem Fall p σ,ρ = 1/ n 2 . Da man jede Vertauschung zweier Karten durch nochmaliges Vertauschen wieder r¨ uckg¨ angig machen kann, sieht man auch sofort ein, dass p σ,ρ = p ρ,σ gilt. Die ¨ Ubergangsmatrix P ist also symmetrisch und damit insbesondere auch doppeltstochastisch.

Aus Satz 152 folgt somit, dass die Markov-Kette unabh¨ angig von der Startverteilung in die Gleichverteilung konvergiert.

Der von Anna vorgeschlagene Mischvorgang ist also in der Tat sinnvoll: F¨ ur m → ∞ konvergiert die Wahrscheinlichkeitsverteilung f¨ ur die sich ergebende Kartenreihenfolge gegen die

Gleichverteilung, die Karten sind also bestens gemischt!

DWT 442/467

© Ernst W. Mayr

(13)

Beispiel 153

Anmerkung: Man kann zeigen, dass f¨ ur n Karten bereits m = O(n log n) Vertauschungen gen¨ ugen, um einen gut durchmischten Kartenstapel zu erhalten.

DWT 2.6 Doppeltstochastische Matrizen 442/467

© Ernst W. Mayr

(14)

3. Prozesse mit kontinuierlicher Zeit

3.1 Einf¨ uhrung

Wir betrachten nun Markov-Ketten (X(t)) t∈

R + 0 . Wie beim ¨ Ubergang von der geometrischen zur

Exponentialverteilung k¨ onnen wir uns auch hier einen Grenzprozess vorstellen.

Wie dort folgt, dass die Aufenthaltsdauer im Zustand 0 gemessen in Schritten der diskreten Markov-Kette geometrisch verteilt ist und im Grenzwert n → ∞ in eine kontinuierliche Zufallsvariable

¨

ubergeht, die exponentialverteilt mit Parameter λ ist. Den Parameter λ bezeichnen wir auch als Ubergangsrate. ¨

DWT 3.1 Einf¨ uhrung 443/467

© Ernst W. Mayr

(15)

0 1

Abbildung: Markov-Kette mit kontinuierlicher Zeit

DWT 3.1 Einf¨ uhrung 444/467

© Ernst W. Mayr

(16)

Definition 154

Eine unendliche “Folge” von Zufallsvariablen X(t) (t ∈ R + 0 ) mit Wertemenge S nennen wir (diskrete) Markov-Kette mit

kontinuierlicher Zeit, wenn gilt:

S ist diskret, d.h. wir k¨ onnen ohne Einschr¨ ankung annehmen, dass S ⊆ N 0 .

Die Zufallsvariablen erf¨ ullen die Markovbedingung:

F¨ ur alle n ∈ N 0 und beliebige Zeitpunkte

0 ≤ t 0 < t 1 < . . . < t n < t und Zust¨ ande s, s 0 , . . . , s n ∈ S gilt Pr[X(t) = s | X(t n ) = s n , . . . , X(t 0 ) = s 0 ] =

Pr[X(t) = s | X(t n ) = s n ]. (13)

Eine Markov-Kette heißt zeithomogen, wenn f¨ ur alle Zust¨ ande i, j ∈ S und f¨ ur alle u, t ∈ R + 0 gilt:

Pr[X(t + u) = j | X(t) = i] = Pr[X(u) = j | X(0) = i]

DWT 3.1 Einf¨ uhrung 445/467

© Ernst W. Mayr

(17)

Die Markov-Bedingung (13) besagt anschaulich Folgendes: Wenn wir den Zustand des Systems zu einer Reihe von Zeitpunkten t 0 < t 1 < . . . < t n kennen, so ist f¨ ur das Verhalten nach dem Zeitpunkt t n nur der Zustand zur Zeit t n maßgebend. Anders formuliert heißt dies: Wenn wir den Zustand des Systems zur Zeit t n kennen, so besitzen wir bereits die gesamte relevante

Information, um Wahrscheinlichkeiten f¨ ur das zuk¨ unftige Verhalten zu berechnen. Die

” Geschichte“ des Systems, d.h. der

” Weg“, auf dem der Zustand zur Zeit t n erreicht wurde, spielt dabei keine Rolle. Eine Markov-Kette mit kontinuierlicher Zeit ist also ebenso wie eine Markov-Kette mit diskreter Zeit ged¨ achtnislos.

Wie schon bei diskreten Markov-Ketten werden wir uns auch bei Markov-Ketten mit kontinuierlicher Zeit auf zeithomogene Markov-Ketten beschr¨ anken und diese Eigenschaft im Folgenden stillschweigend voraussetzen.

DWT 3.1 Einf¨ uhrung 446/467

© Ernst W. Mayr

(18)

Ged¨ achtnislosigkeit der Aufenthaltsdauer

Sei Y die Aufenthaltsdauer in einem bestimmten Zustand, in dem sich die Markov-Kette zur Zeit t = 0 befindet. Es gilt:

Pr[Y ≥ t] = Pr[X (t 0 ) = 0 f¨ ur alle 0 < t 0 < t | X (0) = 0]

= Pr[X(t 0 + u) = 0 f¨ ur alle 0 < t 0 < t | X(u) = 0]

= Pr[X(t 0 + u) = 0 f¨ ur alle 0 < t 0 < t | X(t 00 ) = 0 f. a. 0 ≤ t 00 ≤ u]

= Pr[X(t 0 ) = 0 f¨ ur alle 0 < t 0 < t + u | X(t 00 ) = 0 f. a. 0 ≤ t 00 ≤ u]

= Pr[Y ≥ t + u | Y ≥ u].

Die Aufenthaltsdauer Y erf¨ ullt also die Bedingung der Ged¨ achtnislosigkeit und muss daher nach Satz 105 exponentialverteilt sein.

DWT 3.1 Einf¨ uhrung 447/467

© Ernst W. Mayr

(19)

Bestimmung der Aufenthaltswahrscheinlichkeiten

Wie zuvor bei Markov-Ketten mit diskreter Zeit interessieren wir uns auch bei kontinuierlichen Markov-Ketten f¨ ur die

Wahrscheinlichkeit, mit der sich das System zur Zeit t in einem bestimmten Zustand befindet. Dazu gehen wir von einer

Startverteilung q(0) mit q i (0) := Pr[X(0) = i] f¨ ur alle i ∈ S aus und definieren die Aufenthaltswahrscheinlichkeit q i (t) im Zustand i zum Zeitpunkt t durch q i (t) := Pr[X(t) = i].

Zur Bestimmung dieser Wahrscheinlichkeiten verwenden wir zum einen die soeben gezeigte Tatsache, dass die Aufenthaltsdauer in jedem Zustand i exponentialverteilt sein muss.

Weiter bezeichnen wir mit ν ij die Ubergangsrate ¨ vom Zustand i in den Zustand j, sowie ν i := P

j∈S ν ij .

DWT 3.1 Einf¨ uhrung 448/467

© Ernst W. Mayr

(20)

Wir betrachten nun ein kleines Zeitintervall d t. Dann ergibt sich die ¨ Anderung der Aufenthaltswahrscheinlichkeit in diesem Zeitintervall als Summe aller

” zufließenden“ abz¨ uglich aller

” abfließenden“ Wahrscheinlichkeiten. F¨ ur alle Zust¨ ande i ∈ S gilt d q i (t)

| {z } Anderung ¨

= ( X

j

q j (t) · ν ji

| {z } Zufluss

− q i (t)ν i

| {z } Abfluss

) · d t. (14)

DWT 3.1 Einf¨ uhrung 449/467

© Ernst W. Mayr

(21)

Das L¨ osen des Differentialgleichungssystems (14) ist meist sehr aufw¨ andig. Wir werden es im Folgenden durch Betrachtung des Grenzwertes f¨ ur t → ∞ zu gew¨ ohnlichen linearen Gleichungen vereinfachen.

Definition 155

Zustand j ist von i aus erreichbar, wenn es ein t ≥ 0 gibt mit Pr[X(t) = j | X(0) = i] > 0 .

Eine Markov-Kette, in der je zwei Zust¨ ande i und j untereinander erreichbar sind, heißt irreduzibel.

DWT 3.1 Einf¨ uhrung 450/467

© Ernst W. Mayr

(22)

Satz 156

F¨ ur irreduzible kontinuierliche Markov-Ketten existieren die Grenzwerte

π i = lim

t→∞ q i (t)

f¨ ur alle i ∈ S, und ihre Werte sind unabh¨ angig vom Startzustand.

Ohne Beweis.

DWT 3.1 Einf¨ uhrung 451/467

© Ernst W. Mayr

(23)

Wenn f¨ ur t → ∞ Konvergenz erfolgt, so gilt

t→∞ lim d q i (t)

d t = 0, da sich q i (t) f¨ ur gen¨ ugend große t

” so gut wie nicht mehr“ ¨ andert.

Diese Gleichung setzen wir in die Differentialgleichungen (14) ein und erhalten

0 = X

j

π j ν ji − π i ν i

f¨ ur alle i ∈ S.

DWT 3.1 Einf¨ uhrung 452/467

© Ernst W. Mayr

(24)

Dieses Gleichungssystem hat immer die triviale L¨ osung π i = 0 f¨ ur alle i ∈ S. Wir suchen jedoch eine Wahrscheinlichkeitsverteilung, und π muss deshalb zus¨ atzlich die Normierungsbedingung P

i∈S π i = 1 erf¨ ullen. Bei Markov-Ketten mit endlicher

Zustandsmenge S f¨ uhrt dieses Verfahren immer zum Ziel. Wenn S jedoch unendlich ist, gibt es F¨ alle, in denen π 1 = π 2 = . . . = 0 die einzige L¨ osung darstellt und wir somit keine g¨ ultige

Wahrscheinlichkeitsverteilung erhalten.

DWT 3.1 Einf¨ uhrung 453/467

© Ernst W. Mayr

(25)

3.2 Warteschlangen

F¨ ur ein System mit m Servern und einer gemeinsamen

Warteschlange hat sich die Bezeichnung X/Y /m–Warteschlange eingeb¨ urgert. Dabei ersetzt man X und Y durch Buchstaben, die jeweils f¨ ur eine bestimmte Verteilung stehen. Beispielsweise bezeichnet

” D“ eine feste Dauer (von engl. deterministic),

” M“ die Exponentialverteilung (das M kommt von memoryless, dem

englischen Wort f¨ ur ged¨ achtnislos) und

” G“ eine beliebige Verteilung (von engl. general). X gibt die Verteilung der Zeit zwischen zwei ankommenden Jobs an, w¨ ahrend Y f¨ ur die Verteilung der eigentlichen Bearbeitungszeit eines Jobs auf dem Server steht (ohne Wartezeit).

DWT 3.2 Warteschlangen 454/467

© Ernst W. Mayr

(26)

3.2.1 M/M/1–Warteschlangen

0 1 2 3

Abbildung: Modellierung einer M/M/1–Warteschlange

DWT 3.2 Warteschlangen 455/467

© Ernst W. Mayr

(27)

Diese Markov-Kette ist irreduzibel, und im Gleichgewichtszustand gelten die Gleichungen

0 = λπ k−1 + µπ k+1 − (λ + µ)π k f¨ ur alle k ≥ 1 0 = µπ 1 − λπ 0 .

Wir definieren die Verkehrsdichte ρ := λ µ und erhalten:

π k = ρπ k−1 = . . . = ρ k π 0 .

Damit:

1 =

X

i=0

π i = π 0 ·

X

i=0

ρ i = π 0 · 1

1 − ρ ⇒ π 0 = 1 − ρ.

DWT 3.2 Warteschlangen 456/467

© Ernst W. Mayr

(28)

Dabei haben wir angenommen, dass ρ < 1 ist. F¨ ur ρ ≥ 1 konvergiert das System nicht. Da in diesem Fall λ ≥ µ gilt,

kommen die Jobs schneller an, als sie abgearbeitet werden k¨ onnen.

Intuitiv folgt daraus, dass die Warteschlange immer gr¨ oßer wird.

F¨ ur ρ < 1 erhalten wir als Endergebnis

π k = (1 − ρ)ρ k f¨ ur alle k ∈ N 0 .

DWT 3.2 Warteschlangen 457/467

© Ernst W. Mayr

Referenzen

ÄHNLICHE DOKUMENTE

Aber die zu finden, wird auch immer schwerer, die Zeit und da- mit die Vergänglichkeit kann man nicht einfach anhalten, das haben wir ja auch den Worten von Herrn Fritz vernommen

auch damals noch recht liickenhaft gewesen zu sein, wie man den mehr dekorativen als charakteristischen und lagerichtigen Gebirgsformen entnehmen mufi, die vom

für den Berg¬ die wesent¬ bau versucht wenn dies auch nicht immer zum Ausdruck kommt lichsten Produktionsstätten entweder durch größere Signaturen oder durch eine An¬ häufung

Das Verständnis der abgebildeten Karte des Verlaufs der Berliner U-Bahnlinie U8 (unten) wird hier dadurch erleichtert, dass sie an einem in der Karte verzeichneten

„In Abständen von etwa 50 cm wird um die Säulen oder Unterzüge ein Doppeldraht gezogen, welcher mit Gipsmörtel be- worfen eine Art von Ring bildet.. Auf diesen Ringen befestigt man

Bei Brand- proben der Königlichen mechanisch-technischen Versuchsanstalt in Charlottenburg sowie der Stettiner Feuerwehr hat sie sich als gut isolierend sowie gegen die Einwirkung

Bei Brand- proben der Königlichen mechanisch-technischen Versuchsanstalt in Charlottenburg sowie der Stettiner Feuerwehr hat sie sich als gut isolierend sowie gegen die Einwirkung

Im Ergeb- nis wären die Rahmenbedingungen für die gesetzliche und die private Krankenversicherung mit dieser Reform der GOZ weiter vereinheitlicht worden – ganz nach den Wünschen