• Keine Ergebnisse gefunden

F - 1.3 Unabh¨ angigkeit von Ereignissen

Im Dokument Mathematik f¨ ur Informatiker III (Seite 73-78)

Beispiel F.17 (f¨ur zwei unabh¨angige Ereignisse). Wir betrachten folgendes Experiment: Es wird zweimal mit einem Laplace-W¨urfel gew¨urfelt. Wir betrachten das EreignisA, dass die

”Summe der 72

Augenzahlen gerade“ und Ereignis B, dass der

”zweite Wurf eine 1“ ist. Es giltP(A) = 12, P(B) =

1

6, P(A∩B) =121,wie man durch Abz¨ahlen der jeweiligen Mengen sieht. Also P(A∩B) =P(A)·P(B)⇔P(A) =P(A|B)⇔P(B) =P(B|A).

D.h. durch die zus¨atzlichen Informationen, dassB eintritt, ¨andert sich nichts an der (bedingten) Wahrscheinlichkeit daf¨ur, dassA eintritt.

Definition F.18 (Unabh¨angigkeit zweier Ereignisse). Zwei EreignisseAundBheißen von-einander unabh¨angig, wenn dieProduktformel

P(A∩B) =P(A)·P(B) gilt.

Bemerkung 1. Die Relation

”Aist unabh¨angig vonB“ istsymmetrisch, d.h.

”Aist unabh¨angig vonB“ genau dann, wenn”Bunabh¨angig vonA“ ist. Aber im allgemeinen ist sie nichtreflexiv(f¨ur 0< P(A)<1 gilt z.B. , dassP(A∩A) =P(A)6=P(A)·P(A)) odertransitiv (aus”A ist unabh¨angig vonB“

und ”B ist unabh¨angig von C“ folgt i.a. nicht, dass ”A unabh¨angig von C“ ist, wie man f¨ur die Wahl eines Beispiels mit A = C mit 0 < P(A) < 1 und B = ∅ sieht.) 2. Ebenso ist die Nicht-Unabh¨angigkeit zweier Ereignisse nicht transitiv. Als Gegenbeispiel betrachten wir den La-placeschen Wahrscheinlichkeitsraum (vgl. DefinitionF.4), bestehend aus Ω :={1,2,3,4}und der VerteilungP({ω}) = 14 f¨ur jedesω∈Ω sowie die EreignisseA:={1,2},B:={1}undC:={1,3}. Man rechnet leicht nach, dass A nicht unabh¨angig von B und B nicht unabh¨angig von C ist.

Allerdings istAunabh¨angig vonC.

Definition F.19. (Unabh¨angigkeit einer Familie von Ereignissen) Sei {Ai, i ∈ J} eine endliche Familie von Ereignissen.

1. Wir sagen, dass dieProduktformelf¨ur {Ai, i∈J}gilt, wenn P(\

iJ

Ai) =Y

iJ

P(Ai).

2. Wir sagen, dass eine (nicht unbedingt endliche) Familie A = {Ai, i ∈ I} von Ereignissen unabh¨angigist, wenn f¨ur jede endliche Teilfamilie{Ai, i∈J}mitJ ⊂I die Produktformel gilt.

F - 1.4 Produktexperimente

Definition F.20 (Produkt von Wahrscheinlichkeitsr¨aumen). Die Menge Ω =

Yn

i=1

i= Ω1· · ·Ωn (F.3)

= {(ω1, . . . , ωn)|ωi∈Ωi f¨uri= 1, . . . , n}

heißt das (kartesische) Produkt oder auch die Produktmenge von (Ωi)1in. Durch die Wahrscheinlichkeitsfunktion

P(ω) = Yn

i=1

Pii) (F.4)

ist ein Wahrscheinlichkeitsmaß auf Ω definiert, das wir ebenfalls mit P bezeichnen. Wir nennen (Ω, P) dasProdukt der Wahrscheinlichkeitsr¨aume (Ωi, Pi)1in.

Satz F.21. (Eindeutigkeit des Produkts von Wahrscheinlichkeitsr¨aumen) 1. Durch (F.4) ist tats¨achlich ein Wahrscheinlichkeitsmaß auf Ωdefiniert.

2. SeiXidiei-te Koordinatenfunktion aufΩ, d.h.Xi(ω) =ωi. Dann gilt f¨urAi∈Ωi(i= 1, . . . , n):

P(

\n

i=1

{Xi∈Ai}) = Yn

i=1

Pi(Ai). (F.5)

Hierbei folgende Notation f¨ur als Urbild definierte Mengen:

{Xi∈Ai}={ω= (ω1, . . . , ωn)∈Ω|Xi(ω) =ωi ∈Ai}. Insbesondere gilt dann

P({Xn∈Ak}) =Pk(Ak)f¨ur alle 1≤k≤n. (F.6) 3. Das durch (F.4) definierte Wahrscheinlichkeitsmaß ist das einzige Maß auf Ω, bez¨uglich dessen jede Mengenfamilie ({Xi∈Ai})1in unabh¨angig ist und f¨ur die (F.6) gilt.

Beispiel F.22 (n-facher M¨unzwurf ). Wir betrachten eine Folge vonnunabh¨angigen Einzelexpe-rimenten, die jeweils durch die Ergebnismenge Ωi ={K, Z}und das Wahrscheinlichkeitsmaß

Pii) =

p f¨ur wi =K, 1−p f¨ur wi =Z,

(mit 1≤i≤n) beschrieben sind. Hierbei ist 0≤p≤1. Die Produktmenge ist Ω ={0,1}n={(w1, . . . , wn)|wi∈ {K, Z},1≤i≤n},

und das Wahrscheinlichkeitsmaß ist gegeben durch seine Wahrscheinlichkeitsfunktion P(ω) =

Yn

i=1

Pii) =pk(1−p)nk, (F.7) wobeik die Anzahl der Indizesimitωi= 1 ist.

Definition F.23 (Bernoulli-Verteilung). Der in BeispielF.22betrachtete Produktraum (Ω, P) heißtBernoulli-Experiment mit Erfolgswahrscheinlichkeitp, undPheißtBernoulli-Verteilung.

Beispiel F.24(Binomialverteilung). Wir f¨uhren BeispielF.22fort. Sei f¨ur 0≤k≤nmitEk das Ereignis bezeichnet, dass genau k-mal ein Erfolg (eine 1) eintritt. Es gibt genau

n k

solcher ω∈Ω. Also

P(Ek) = n

k

pk(1−p)nk=:bn,p(k). (F.8)

Wir ¨uberpr¨ufen durch eine kurze Rechnung, dass die Summe derP(Ek) gleich 1 ist:

Xn

k=0

bn,p(k) = Xn

k=0

n k

pk(1−p)nk = (p−(1−p))k = 1.

Dabei haben wir im ersten Schritt die binomische Formel verwendet.

F - 1.5 Zufallsvariablen

Definition F.25 (Zufallsvariable). Seien (Ω, P) ein endlicher Wahrscheinlichkeitsraum undχ eine Menge. Eine FunktionX : Ω→χ heißtZufallsexperiment mit Werten in χ(oder auch χ-wertige Zufallsvariable). Fallsχ=R, heißtX reelle Zufallsvariable.

74

0 1E-Σ 2 E 3 E+Σ4 5 0.2

0.4 0.6 0.8 1

0 1 2E-Σ 3 E 4E+Σ 5

0.2 0.4 0.6 0.8 1

Abbildung F.1: Stabdiagramme f¨ur die Binomialverteilungenb5,12 undb5,23. Bemerkung

Ublicherweise wird eine so genannte Unbestimmte, z.B. das Argument einer Funktion, als Variable¨ bezeichnet. Man beachte, dass mit Zufallsvariable selber eine Funktion gemeint ist (deren Wert mit dem zuf¨alligen Argument variiert).

BeispielF.26(f¨ur reelle Zufallsvariablen). 1.Geldwette bei M¨unzwurf:Ein einfacher M¨unzwurf sei durch Ω ={K, Z}, P(K) =p, P(Z) = 1−pmodelliert, wobei 0≤p≤1. Bei Kopf erh¨alt man 2 Euro Gewinn, bei Zahl verliert man 1 Euro. Der Gewinn (Verlust) ist eine reelle Zufallsvariable:

X: Ω → {−1,2} ∈R, X(K) = 2,

X(Z) = −1.

2.W¨urfeln:Ω ={1, . . . ,6}, wobei mit ω = 1 das Elementarereignis

”Es wird eine 1 gew¨urfelt.“

gemeint ist. SeiX die Zufallsvariable, die jedem Wurf die erzielte Augenzahl zuordnet, also z.B.

X(1) = 1,

wobei die 1 auf der linken Seite das Elementarereignis”Es wird eine 1 gew¨urfelt.“ bezeichnet und die 1 auf der rechten Seite die reelle Zahl 1.

3. Vergleiche Beispiel F.24: Wir betrachten die Binomialverteilungzum n-maligen M¨unzwurf mit Ergebnissen eines einzelnen M¨unzwurfes in {K, Z}. Die Anzahl der Erfolge (Kopf) sei mit X(ω) bezeichnet, also

X : Ω ={K, Z}n → {0, . . . , n}, (F.9) (ω1, . . . , ωn) 7→

Xn

i=1

Xi(ω), wobei

X : Ω → {0, n}, Xi(ω) =

1 f¨ur wi=K, 0 f¨ur wi=Z.

Die ZufallsvariableX ist also die Summe der ZufallsvariablenXi.

Satz F.27. (Eine Zufallsvariable definiert eine Wahrscheinlichkeitsfunktion auf dem Bildraum) Seien (Ω, P) ein endlicher Wahrscheinlichkeitsraum und X : Ω→χ eine Zufallsva-riable. Dann ist aufχ eine WahrscheinlichkeitsfunktionPX durch

PX:χ → [0,1], PX(y) = P {X=y}

= X

ωΩ,X(ω)=y

P(ω)

definiert. Hierbei bezeichnet{X =y}:={ω∈Ω|X(ω) =y}die Urbildmenge vony bez¨uglich der AbbildungX.

Definition F.28 (Verteilung einer Zufallsvariablen). Das Wahrscheinlichkeitsmaß zur Wahr-scheinlichkeitsfunktion PX aus Satz F.27heißt Verteilung von X bez¨uglich P oder auch das Wahrscheinlichkeitsmaß von X bez¨uglich P.

Bemerkung: Wichtigkeit von Verteilungen

Meistens interessiert man sich ausschließlich f¨ur die Verteilung von ZufallsvariablenX und nicht f¨ur das WahrscheinlichkeitsmaßP auf Ω. Wir hatten schon in BeispielF.5gesehen, dass verschie-dene Wahlen von Ω m¨oglich sein k¨onnen. Oftmals ist der ”steuernde Wahrscheinlichkeitsraum“

nicht explizit bekannt oder sehr kompliziert.

Beispiel F.29(Binomialverteilung als Verteilungsmaß). Das in (F.8) durch die Binomialverteilung definierte WahrscheinlichkeitsmaßP auf der Menge {E0, . . . , En}k¨onnen wir offensichtlich auch als die Verteilung der ZufallsvariablenX aus (F.9) in BeispielF.26auffassen, also als Wahrschein-lichkeitsmaß auf der Menge {0,1, . . . n}. Ein Element k aus dieser Menge entspricht dabei der MengeEk aus BeispielF.26. Also

PX(k) =bn,p(k).

Definition F.30 (Unabh¨angigkeit von Zufallsvariablen). Sei (Ω, P) ein endlicher Wahr-scheinlichkeitsraum. Eine Familie (Xi)iI von Zufallsvariablen Xi : Ω → χi (mit i ∈ I) heißt unabh¨angig, wenn f¨ur jede endliche TeilmengeJ ⊂I und jede Wahl vonAj⊂χj f¨ur allej ∈J die Familie ({Xj ∈Aj})jJ unabh¨angig ist. (vgl. DefinitionF.19).

Bemerkung:Interpretation der Unabh¨angigkeit von Zufallsvariablen

Seien z.B. X1 undX2 zwei voneinander unabh¨angige Zufallsvariablen mit Werten inχ1 undχ2, respektive. Die Verteilung vonX2 k¨onnen wir als”Voraussage“ ¨uber den zuf¨alligen Wert vonX2

interpretieren. SeienA2 ⊂ χ2 und x1 ∈ χ1 mit P({X1 = x1}) >0. Die Kenntnis, dass X1 den Wert x1 annimmt, erm¨oglicht uns keine ”bessere“ Voraussage ¨uber den Wert von X2. Dies wird an BeispielF.31veranschaulicht werden.

Bemerkung: Produktformel f¨ur unabh¨angige Zufallsvariablen F¨ur unabh¨angige ZufallsvariablenX1, . . . , Xn mitXi: Ω→χi gilt

P(X1∈A1∧ · · · ∧Xn∈An) = Yn

i=1

P(Xi∈Ai)

f¨ur jede Wahl von EreignissenAi⊂χi. Die Berechnung der Wahrscheinlichkeit von solchen Ereig-nissen der Form{X1∈A1} ∩. . .∩ {Xn∈An}ist also besonders einfach.

Beispiel F.31(Voneinander unabh¨angige M¨unzw¨urfe). Wir betrachten den zweifachen M¨unzwurf aus BeispielF.22(alson= 2). Auf Ω ={K, Z}2ist das Produktmaß gerade so definiert, dass die beiden Zufallsvariablen

Xi: Ω → {K, Z}, (ω1, ω2) 7→ ωi,

von denenX1 gerade den Ausgang des ersten Wurfs beschreibt und X2 den des zweiten, vonein-ander unabh¨angig sind, was anschaulich auch klar sein sollte. Es gilt z.B.

P({X1=K∧X2=K}) = P1(K)·P2(K)

= P({X1=K})·P({X2=K}),

wobei wir im ersten Schritt die Produktformel (F.7) f¨ur die Wahrscheinlichkeitfunktion verwendet haben.

76

Im Dokument Mathematik f¨ ur Informatiker III (Seite 73-78)