• Keine Ergebnisse gefunden

Markov-Ketten ↔ Graphen

N/A
N/A
Protected

Academic year: 2021

Aktie "Markov-Ketten ↔ Graphen"

Copied!
42
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Randomisierte Algorithmen

Randomisierte Algorithmen

8. Markov-Ketten

Thomas Worsch

Fakultät für Informatik Karlsruher Institut für Technologie

Wintersemester 2019/2020

1 / 40

(2)

8. Markov-Ketten Überblick

Überblick

Grundlegendes zu Markov-Ketten

Irreduzible und ergodische Markov-Ketten

(3)

8. Markov-Ketten

Grundlegendes zu Markov-Ketten

Überblick

Grundlegendes zu Markov-Ketten

Irreduzible und ergodische Markov-Ketten

3 / 40

(4)

8. Markov-Ketten

Grundlegendes zu Markov-Ketten

Markov-Kette

I stochastischer Prozess in diskreter Zeit

I schrittweiser Übergang von einem Zustand zum nächsten I festgelegt durch𝑀 =(𝑆 ,P):

I 𝑆: (bei uns immer) endliche Menge vonZuständen I P=(𝑃𝑖 𝑗): zeilenstochastische𝑆×𝑆-Matrix von

Übergangswahrscheinlichkeiten:

für𝑖, 𝑗 𝑆ist0𝑃𝑖 𝑗 1undÍ

𝑗𝑃𝑖 𝑗 =1 I 𝑃𝑖 𝑗 ist Wahrscheinlichkeit (W.keit), dass

𝑀von Zustand𝑖in Zustand𝑗übergeht.

I Beachte:

I 𝑃𝑖 𝑗 hängt nur von𝑖und𝑗ab

I nicht etwa von noch früheren Zuständen oder Anzahl Schritte oder . . .

(5)

8. Markov-Ketten

Grundlegendes zu Markov-Ketten

Markov-Ketten ↔ Graphen

I jeder Markov-Kette𝑀entspricht ein gerichteter Graph𝐺𝑀: I Kante𝑖 𝑗genau dann, wenn𝑃𝑖 𝑗 >0

u. U. gewichtet mit𝑃𝑖 𝑗

I jedem Graph𝐺 entspricht Markov-Kette𝑀𝐺 (einfacher Random Walk)

I 𝑃𝑖 𝑗 =0, falls keine Kante zwischen𝑖und𝑗 I 𝑃𝑖 𝑗 =1/|{𝑗 | (𝑖, 𝑗) ∈𝐸}|sonst

5 / 40

(6)

8. Markov-Ketten

Grundlegendes zu Markov-Ketten

Vereinbarung

I 𝑋𝑡: Zufallsvariable für Zustand zum Zeitpunkt𝑡, I bei Markovketten also

P(𝑋𝑡+1=𝑗 |𝑋𝑡 =𝑖, 𝑋𝑡−1=𝑖𝑡−1, . . . , 𝑋0=𝑖0)

=P(𝑋𝑡+1=𝑗 |𝑋𝑡 =𝑖)

=𝑃𝑖 𝑗

I 𝑋0. . .Anfangszustand. . . I im allgemeinen randomisiert I manchmal egal . . .

(7)

8. Markov-Ketten

Grundlegendes zu Markov-Ketten

Rechnung

I wenn zum Zeitpunkt𝑡 I q Zeilenvektor I q𝑖 W.keit für Zustand𝑖 I dann zum Zeitpunkt𝑡+1

I qP entsprechender Zeilenvektor:

P(𝑋𝑡+1= 𝑗) =Õ

𝑖

P(𝑋𝑡 =𝑖)P(𝑋𝑡+1=𝑗 |𝑋𝑡 =𝑖)

𝑖

q𝑖𝑃𝑖 𝑗 =(qP)𝑗

I qP𝑘 die Verteilung nach𝑘Schritten I W.keit𝑃(𝑘)

𝑖 𝑗 in𝑘Schritten von𝑖nach𝑗überzugehen 𝑃(𝑘)

𝑖 𝑗 =(P𝑘)𝑖 𝑗

7 / 40

(8)

8. Markov-Ketten

Grundlegendes zu Markov-Ketten

Abgeschlossene und irreduzible Teilmengen

I nichtleere Teilmenge𝐶 ⊆𝑆von Zuständenabgeschlossen, falls

∀𝑖 ∈𝐶:∀𝑗 ∈𝑆r𝐶:𝑃𝑖 𝑗 =0.

I 𝑆ist immer abgeschlossen

I 𝐶heißtirreduzibel, falls𝐶abgeschlossen, aber keine echte Teilmenge von𝐶abgeschlossen I Markov-Ketteirreduzibel, falls ganz𝑆 irreduzibel

I verschiedene irreduzible Teilmengen sind disjunkt

(9)

8. Markov-Ketten

Grundlegendes zu Markov-Ketten

Transiente und rekurrente Zustände

Es seien𝐶1, . . . ,𝐶𝑟alle irreduziblen Teilmengen einer Markov-Kette𝑆 und𝑇 =𝑆 r(𝐶1∪ · · · ∪𝐶𝑟).

I Die Zustände in𝑇 heißentransient,

I die Zustände in den𝐶𝑘 rekurrentoderpersistent.

9 / 40

(10)

8. Markov-Ketten

Grundlegendes zu Markov-Ketten

Notation

I Wahrscheinlichkeit, von𝑖nach𝑡Schrittenerstmalsnach𝑗 überzugehen:

𝑓(

𝑡)

𝑖 𝑗 =P(𝑋𝑡 = 𝑗∧ ∀1≤𝑠 ≤𝑡−1 :𝑋𝑠 ≠ 𝑗 |𝑋0=𝑖) I Wahrscheinlichkeit von Zustand𝑖aus irgendwann Zustand𝑗zu

erreichen:

𝑓

𝑖 𝑗

𝑡>0

𝑓(𝑡)

𝑖 𝑗

I Erwartungswert für die benötigte Anzahl Schritte, um von Zustand 𝑖irgendwann erstmals Zustand𝑗 zu erreichen:

𝑚𝑖 𝑗 = (Í

𝑡≥1𝑡·𝑓(𝑡)

𝑖 𝑗 falls𝑓

𝑖 𝑗 =1

∞ sonst

(11)

8. Markov-Ketten

Grundlegendes zu Markov-Ketten

Charakterisierung transienter Zustände

Für endliche Markov-Ketten gilt:

Ein Zustand𝑖ist genau danntransient, wenn eine der folgenden (äquivalenten) Bedingungen erfüllt ist:

I 𝑓

𝑖𝑖 <1.

I Í

𝑡≥0𝑝(

𝑡) 𝑖𝑖 < ∞.

I Ein Random Walk, der in𝑖startet, kehrt mit Wahrscheinlichkeit0unendlich oft nach𝑖zurück.

11 / 40

(12)

8. Markov-Ketten

Grundlegendes zu Markov-Ketten

Charakterisierung rekurrenter Zustände

Für endliche Markov-Ketten gilt:

Ein Zustand𝑖ist genau dannrekurrent, wenn eine der folgenden (äquivalenten) Bedingungen erfüllt ist:

I 𝑓

𝑖𝑖 =1.

I Í

𝑡≥0𝑝(

𝑡) 𝑖𝑖 =∞.

I Ein Random Walk, der in𝑖startet, kehrt mit Wahrscheinlichkeit1unendlich oft nach𝑖zurück.

(13)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

Überblick

Grundlegendes zu Markov-Ketten

Irreduzible und ergodische Markov-Ketten

13 / 40

(14)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

Irreduzible Markov-Ketten

für uns vor allem irreduzible Markov-Ketten interessant I ganz𝑆 die einzige irreduzible Teilmenge

I es gibt keine transienten Zustände

I zugehöriger Graph streng zusammenhängend

(15)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

Perioden und Aperiodizität

I Periode𝑑𝑖eines Zustandes𝑖:

größter gemeinsamer Teiler aller Zahlen in 𝑁𝑖 ={𝑘 ∈N+| 𝑃(

𝑘) 𝑖𝑖 >0}.

I Zustand mit Periode1heißt auchaperiodisch.

I Ein aperiodischer rekurrenter Zustand heißt auchergodisch.

15 / 40

(16)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

Aperiodische und ergodische Markov-Ketten

I Eine Markov-Kette istaperiodisch, wenn alle ihre Zustände aperiodisch sind.

I Eine irreduzible und aperiodische Markov-Kette heißt auch ergodisch.

(17)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

Für aperiodische Zustände giltnichtautomatisch, dass𝑃(𝑘)

𝑖𝑖 >0ist füralle𝑘.

Aber immerhin . . .

17 / 40

(18)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

Lemma

I Es sei𝑀 ⊆ Neine Menge natürlicher Zahlen mit der Eigenschaft, dass

I 𝑀+𝑀={𝑘+ |𝑘 , ℓ 𝑀} ⊆𝑀undgcd𝑀 =1.

I Dann gibt es ein𝑘0Nmit

I {𝑘0} +N0={𝑘0, 𝑘0+1, 𝑘0+2, . . .} ⊆𝑀, d. h.

I 𝑀enthält ab irgendeinem𝑘0allenatürlichen Zahlen.

(Übungsaufgabe)

(19)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

Konstruktion aperiodischer Markov-Ketten

I Ausnichtaperiodischer Markov-Kette𝑀mit MatrixP kann man aperiodische Markov-Kette𝑀0konstruieren:

P0= 1 2(I+P) Ibezeichne die Einheitsmatrix.

I diese Vorgehensweise erhält folgende Eigenschaften I IstwP=w, dann ist auchwP0=wund umgekehrt. I Die beiden Matrizen haben die gleichen Eigenvektoren.

I Für die Eigenwerte gilt: Ist𝜆Eigenwert vonP, dann ist1/2+𝜆/2 Eigenwert vonP0.

wird später hier benutzt

19 / 40

(20)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

Konstruktion aperiodischer Markov-Ketten

I Ausnichtaperiodischer Markov-Kette𝑀mit MatrixP kann man aperiodische Markov-Kette𝑀0konstruieren:

P0= 1 2(I+P) Ibezeichne die Einheitsmatrix.

I diese Vorgehensweise erhält folgende Eigenschaften I IstwP=w, dann ist auchwP0=wund umgekehrt.

I Die beiden Matrizen haben die gleichen Eigenvektoren.

I Für die Eigenwerte gilt: Ist𝜆Eigenwert vonP, dann ist1/2+𝜆/2 Eigenwert vonP0.

wird später hier benutzt

(21)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

8.16 Satz

Potenzen ergodischer Markov-Ketten

Satz

Es seiPdie Matrix einer ergodischen Markov-Kette. Dann gilt:

I W=lim𝑡→∞P𝑡 existiert.

I Wbesteht aus identischen Zeilenw.

I Alle Einträge vonw=(𝑤1, . . . , 𝑤𝑛)sind echt größer0und Í𝑛

𝑖=1𝑤𝑖 =1.

20 / 40

(22)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

Beweis (1)

I Da Markov-Kette ergodisch, gibt es eine PotenzP𝑘, deren Einträgealleecht positiv sind.

I (Übungsaufgabe)

I O. B. d. A. habe schonPdiese Eigenschaft (sonst: arbeite mitP𝑘).

I Sei𝑑 >0der kleinste inPvorkommende Eintrag.

I Sei zunächstyein beliebiger Spaltenvektor.

1. Zeige: Wenn

I 𝑚0und𝑀0der kleinste resp. der größte Wert eines Vektorsyund I 𝑚1und𝑀1der kleinste resp. der größte Wert vonPy,

dann

I 𝑚0𝑚1𝑀1𝑀0und I 𝑀1𝑚1≤ (12𝑑) (𝑀0𝑚0)

(23)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

Beweis (2)

1. 𝑀1−𝑚1 ≤ (1−2𝑑) (𝑀0−𝑚0):

I Die Einträge jeder Zeile von𝑃addieren sich zu1.

I Für jedes𝑖ist(Py)𝑖 =Í

𝑗𝑃𝑖 𝑗𝑦𝑗. Offensichtlich ist I 𝑚1=min𝑖

Í

𝑗𝑃𝑖 𝑗𝑦𝑗 𝑑 𝑀0+ (1𝑑)𝑚0𝑚0 I 𝑀1=max𝑖Í

𝑗𝑃𝑖 𝑗𝑦𝑗 𝑑𝑚0+ (1𝑑)𝑀0𝑀0 I Also

I 𝑀1𝑚1≤ (𝑑𝑚0+ (1𝑑)𝑀0) − (𝑑 𝑀0+ (1𝑑)𝑚0)

=(12𝑑) (𝑀0𝑚0) I 𝑚0𝑚1𝑀1𝑀0.

22 / 40

(24)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

Beweis (3)

2. Induktion für kleinste und größte Einträge𝑚𝑘 und𝑀𝑘 vonP𝑘y:

I 𝑀𝑘𝑚𝑘 ≤ (12𝑑)𝑘(𝑀0𝑚0)und I 𝑚0𝑚1≤ · · ·𝑚𝑘𝑀𝑘 ≤ · · · ≤𝑀1𝑀0.

I Die Folgen𝑚𝑘und𝑀𝑘sind beschränkt und monoton,

I sie besitzen Grenzwerte𝑚=lim𝑘→∞𝑚𝑘bzw.𝑀 =lim𝑘→∞𝑀𝑘.

(25)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

Beweis (4)

3. O. B. d. A. habePmindestens2Zeilen und Spalten.

I Dann ist0<𝑑 1/2und damit012𝑑 <1.

I 𝑀𝑘𝑚𝑘 ≤ (12𝑑)𝑘(𝑀0𝑚0),

I alsolim𝑘→∞𝑀𝑘𝑚𝑘 =0und daher𝑀 =𝑚.

4. Es sei𝑢=𝑀 =𝑚.

I Alle Einträge inP𝑘yliegen zwischen𝑚𝑘und𝑀𝑘,

I Also istlim𝑘→∞P𝑘y=u, wobeiuder konstante Vektor ist, dessen Einträge alle gleich𝑢sind.

24 / 40

(26)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

Beweis (5)

5. Betrachtey=e𝑗 (𝑗-ter Einheitsvektor):

I P𝑘e𝑗 ist die𝑗-te Spalte vonP𝑘.

I Folge derP𝑘e𝑗 konvergiert gegen einen konstanten Vektor

I also existiertlim𝑘→∞P𝑘 =Wund

I besteht aus lauter konstanten Spalten, d. h.

I aus lauter gleichen Zeilenw

(27)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

Beweis (6)

6. Alle Einträge inwsind echt größer0:

I Phat keine Nulleinträge.

I Also gilt für jedes𝑗:Pe𝑗enthält nur echt positive Werte, I d. h.𝑚1>0und daher auch𝑚>0.

I Dieses𝑚ist die𝑗-te Komponente vonw.

7. Í𝑛

𝑖=1𝑤𝑖 =1:

I alle PotenzenP𝑘sind stochastische Matrizen, I d. h. haben Zeilensumme1

26 / 40

(28)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

Stationäre Verteilung

Eine Verteilungwheißtstationär, fallsw=wPist.

(29)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

8.18 Satz

Stationäre Verteilung ergodischer Markov-Ketten

Satz

Für jede ergodische Markov-Kette mit MatrixPund wwie eben gilt:

1. wP=w stationäre Verteilung 2. FallsvP=vist, istv=(Í

𝑗𝑣𝑗)w.

3. Es gibt genau eine Wahrscheinlichkeitsverteilungv mitvP=v, nämlichv=w.

28 / 40

(30)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

Beweis

1. WP=(lim𝑘→∞P𝑘) ·P=lim𝑘→∞P𝑘+1=W

Insbesondere gilt also für jede ZeilewvonW:wP=w.

2. WennvP=vist,

dannvP𝑘 =vfür jedes𝑘und vW=v.

3. 𝑟 =Í

𝑗𝑣𝑗 die Summe der Komponenten vonv, dannvW=𝑟w, alsov=𝑟w.

4. Unter allen Vektoren𝑟wgibt es offensichtlich genau einen, für den die Summe aller Einträge gleich1ist.

(31)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

Beobachtung

Graph𝐺 =(𝑉 , 𝐸)mit|𝑉|=𝑛 ≥2und|𝐸| =𝑚sei

endlich, zusammenhängend, ungerichtet und nicht bipartit.

I 𝑀𝐺ist irreduzibel:

I 𝐺zusammenhängend I 𝑀𝐺ist aperiodisch:

I jeder Knoten in Zyklus der Länge2 I zu einem Nachbarn und zurück

I jeder Knoten von𝐺in einem Zyklus ungerader Länge:

I 𝐺zusammenhängend und

I ein Knoten in einem Zyklus ungerader Länge, da𝐺nicht bipartit

I Also ist𝑀𝐺ergodisch.

30 / 40

(32)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

8.22 Lemma

In der stationären Verteilungwvon𝑀𝐺gilt für alle𝑣 ∈𝑉: w𝑣 =𝑑(𝑣)/2𝑚 .

Insbesondere ist die stationäre Verteilung regulärer Graphen die Gleichverteilung.

(33)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

8.23 Beweis

I stationäre Verteilung gegebenenfalls eindeutig

I rechne nach, dassqmit𝑞𝑣 =𝑑(𝑣)/2𝑚stationäre Verteilung ist:

(qP)𝑣 = Õ

𝑢𝑉

𝑞𝑢𝑃𝑢 𝑣= Õ

(𝑢,𝑣) ∈𝐸

𝑞𝑢𝑃𝑢 𝑣

= Õ

(𝑢,𝑣) ∈𝐸

𝑑(𝑢) 2𝑚

· 1 𝑑(𝑢)

= Õ

(𝑣,𝑢) ∈𝐸

1 2𝑚

=𝑑(𝑣) 2𝑚

=𝑞𝑣 .

32 / 40

(34)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

Stationäre Verteilung irreduzibler Markov-Ketten

I Wegen früher angemerkter Erhaltungseigenschaften gilt der dritte Teil der von Satz 8.18 für irreduzible Markov-Ketten, auch bei Nichtaperiodizität:

I Jede irreduzible Markov-KettePbesitzt genau eine stationäre Verteilungw.

I Aber:lim𝑘→∞P𝑘existiert für irreduzible Markov-Ketten im allgemeinen nicht.

I Beispiel:P= 0 1

1 0

und alle𝑘:P2𝑘 =IundP2𝑘+1=P.

(35)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

Stationäre Verteilung irreduzibler Markov-Ketten

I Wegen früher angemerkter Erhaltungseigenschaften gilt der dritte Teil der von Satz 8.18 für irreduzible Markov-Ketten, auch bei Nichtaperiodizität:

I Jede irreduzible Markov-KettePbesitzt genau eine stationäre Verteilungw.

I Aber:lim𝑘→∞P𝑘existiert für irreduzible Markov-Ketten im allgemeinen nicht.

I Beispiel:P= 0 1

1 0

und alle𝑘:P2𝑘 =IundP2𝑘+1=P.

33 / 40

(36)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

Bemerkung

I Für ergodische Markov-Ketten existiertlim𝑡→∞P𝑡 =W.

I Also existiert auch der Cesàro-Grenzwertlim𝑡→∞A𝑡, mit A𝑡 = 𝑡+11Í𝑡

𝑘=0P𝑘

I und es istlim𝑡→∞A𝑡 =W.

I (Übungsaufgabe) I 𝑃(𝑘)

𝑖 𝑗 ist die Wahrscheinlichkeit, in𝑘Schritten von𝑖nach𝑗zu gelangen.

I Also ist(A𝑡)𝑖 𝑗der erwartete Anteil von Zeitpunkten zwischen0 und𝑡, zu denen man in Zustand𝑗 ist, wenn man in Zustand𝑖 startet.

I Das ist nicht nur für ergodische Markov-Ketten so . . .

(37)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

8.26 Satz

Es seiPdie Übergangsmatrix einer irreduziblen Markov-Kette𝑀. Dann gilt:

I lim𝑡→∞A𝑡 =Wexistiert.

I Alle Zeilen vonWsind gleich.

I Die Zeilewist die eindeutig bestimmte stationäre Verteilung von𝑀.

(ohne Beweis)

35 / 40

(38)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

8.27 Satz

Für jede ergodische Markov-KettePund jede Verteilungvgilt:

lim

𝑘→∞vP𝑘 =w.

(39)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

8.28 Beweis

I Es istlim𝑘→∞vP𝑘 =vW.

I Da sich die Einträge invzu1summieren und alle Zeilen vonW gleichwsind, istvW=w.

37 / 40

(40)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

8.29 Satz

Für jede irreduzible Markov-Kette mit stationärer Verteilung w=(𝑤1, . . . , 𝑤𝑛)gilt für alle𝑖:

𝑤𝑖=1/𝑚𝑖𝑖

(41)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

8.30 Beweis

1. 𝑖≠ 𝑗:𝑚𝑖 𝑗 =𝑃𝑖 𝑗 ·1+Í

𝑘𝑗𝑃𝑖𝑘(𝑚𝑘 𝑗+1) =1+Í

𝑘𝑗𝑃𝑖𝑘𝑚𝑘 𝑗 2. 𝑖=𝑗:𝑚𝑖𝑖 =𝑃𝑖𝑖·1+Í

𝑘𝑖𝑃𝑖𝑘(𝑚𝑘𝑖+1) =1+Í

𝑘𝑖𝑃𝑖𝑘𝑚𝑘𝑖 3. BezeichneEdie Matrix, deren Einträge alle1seien,

Mdie Matrix mit

M𝑖 𝑗 = (

𝑚𝑖 𝑗 falls𝑖≠ 𝑗 0 falls𝑖= 𝑗 undDdie Matrix mit

D𝑖 𝑗 =

(0 falls𝑖 ≠ 𝑗 𝑚𝑖𝑖 falls𝑖 =𝑗

39 / 40

(42)

8. Markov-Ketten

Irreduzible und ergodische Markov-Ketten

8.30 Beweis (2)

I Dann lassen sich die eben genannten Gleichungen ausdrücken als Matrixgleichung

M+D=E+PM. I Multiplizieren mitwvon links ergibt

wM+wD=wE+wPM. I Es istwP=w, also

wM+wD=wE+wM I und folglichwD=wE.

I Das bedeutet aber ausgeschrieben nichts anderes als (𝑤1𝑚11, 𝑤2𝑚22, . . . , 𝑤𝑛𝑚𝑛𝑛) =(1,1, . . . ,1)

Referenzen

ÄHNLICHE DOKUMENTE

8.15 Ist eine Markov-Kette M mit Matrix P nicht aperiodisch, dann kann man daraus wie folgt eine neue, aperiodische Markov-Kette M 0 konstruieren: In M werden alle

3 10.22 Man kann sich überlegen, dass für die Markov-Ketten M G,β aus Definition 9.2 gilt: Φ = βµ/d.. Damit ist man bei der Aufgabe gelandet, die Kantenvervielfachung von Graphen

Die Bevölkerung wurde nach dem Beruf in Ober-, Mittel- und Unterschicht (Zustände 1, 2, 3) eingeteilt. c) Bestimme die stationären

Image analysis, random fields and Markov chain Monte Carlo methods: a mathematical introduction,

Es gibt einen statistischen Zusammenhang zwischen Beobachtungen und Phonemenfolgen (Wahrscheinlichkeit der Beobachtung unter der Bedingung einer Phonemenfolge) Es gibt ein

Es gibt einen statistischen Zusammenhang zwischen Beobachtungen und Phonemenfolgen (Wahrscheinlichkeit der Beobachtung unter der Bedingung einer Phonemenfolge) Es gibt ein

Today: Markov chains – The probabilistic model – Some “useful” probabilities – SumProd algorithm. – Inference – MAP,

Wegen ihrer enormen Markt- macht stehen sie in der Verantwortung, Arbeitsbedin- gungen und Umweltschutz im eigenen Unternehmen und bei ihren Lieferanten zu verbessern und dafür