• Keine Ergebnisse gefunden

1 Ein Modell f¨ ur Zufallsexperimente

N/A
N/A
Protected

Academic year: 2022

Aktie "1 Ein Modell f¨ ur Zufallsexperimente"

Copied!
15
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Inhaltsverzeichnis

1 Ein Modell f¨ur Zufallsexperimente 2

2 Laplace-Experimente, elementare Kombinatorik 3 3 Bedingte Wahrscheinlichkeiten und Unabh¨angigkeit 4

3.1 Bedingte W’keiten . . . 4

3.2 Unabh¨angigkeit . . . 4

4 Diskrete Zufallsgr¨oßen 5 4.1 Allgemeines . . . 5

4.2 Einige wichtige Verteilungen . . . 5

4.2.1 BinomialverteilungX∼bin(n, p) . . . 5

4.2.2 Hypergeometrische VerteilungX ∼Hyp(M, m, n) (LOTTO) 5 4.2.3 geometrische VerteilungX ∼geom(p) . . . 6

4.2.4 PoissonverteilungX ∼pois(λ) . . . 6

4.3 Erwartungswert und Momente . . . 6

5 Stetige Zufallsgr¨oßen 9 5.1 Allgemeines . . . 9

5.2 Einige wichtige stetige Verteilungen . . . 9

5.2.1 Gleichverteilung . . . 9

5.2.2 Exponentialverteilung . . . 9

5.2.3 Normalverteilung . . . 10

5.3 Erwartungswerte und Momente . . . 11

6 Mehrdimensionale Zufallsgr¨oßen und Unabh¨angigkeit 12 6.1 Faltung vonPX undPY . . . 14

6.2 Transformationssatz f¨ur W’-Dichten . . . 14

7 Erzeugende Funktionen 15 7.1 w’erzeugende Funktion . . . 15

7.2 momenterzeugende Funktion . . . 15

Tabellenverzeichnis

1 Urnenmodelle – (Kom sind Per, wobei die Elemente geordnet sind ) 3 2 Tabelle mit EW und Var diskreter Verteilungen . . . 8

3 Tabelle mit Verteilungsfunktionen und Dichten der stetigen Vertei- lungen . . . 10

Abbildungsverzeichnis

1 Gleichverteilung (Verteilungsfunktion, Dichtefunktion) . . . 9

2 Normalverteilung (Dichtefunktion) . . . 10

(2)

1 Ein Modell f¨ ur Zufallsexperimente

Ω: Ergebnisraum, enth¨alt die m¨oglichen Ergebnisse des Zufallsexperimentes A: System der EreignisseA⊂Ω

P : ω → [0,1]: Abbildung, die jedem Ereignis A seine Wahrscheinlichkeit P(A) zuordnet. Es gilt: P(A)≥0,P(ω) = 1 und

F¨ur alleA1, A2,· · · ∈ωmitAi∩Aj=∅f¨uri6=j(Folge von paarweise disjunkten Ereignissen) gilt:

P(

[

i=0

Ai) =

X

i=1

P(Ai) (σ−Additivit¨at)

Satz 1 erste Folgerungen 1. P(∅) = 0

2. P(A)≤1

3. P(Ac) = 1−P(A)

4. A⊂B⇒P(A)≤P(B)Homogenit¨at

5. P(A1+· · ·+Ak) =P(A1) +. . . P(Ak)endliche Additivit¨at Satz 2 weitere Folgerungen

1. boolesche Ungleichung:P(A1∪ · · · ∪Ak)≤P(A1) +· · ·+P(Ak)wichtig hierbei ist, dass nicht vorrausgesetzt wird, das A1, ..., Ak paarweise disjunkt sind.

2. Formel von Sylvester-Poincarr´e, Siebformel

P(

n

[

i=1

Ai) =

n

X

k=1

(−1)k+1· X

H⊂{1,...,n}

P(\

i∈H

Ai) (Siebformel)

P(

3

[

i=1

Ai) : P(A1∪A2∪A3) =P(A1) +P(A2) +P(A3)

−P(A1∩A2)−P(A1∩A3)−P(A2∩A3) +P(A1∩A2∩A3)

P(

2

[

i=1

Ai) : P(A1∪A2) =P(A1) +P(A2)−P(A1∩A2)

(3)

2 Laplace-Experimente, elementare Kombinatorik

Ein Laplace-Experiment liegt vor, wenn 1. #Ω<∞(endlicher Ergebnisraum)

2. A=R(Ω) (alle Teilmengen von Ω kommen als Ergebnis in Frage) 3. P(A) =#A

#Ω =Anzahl der g¨unstigen M¨oglichkeiten Anzahl der M¨oglichkeiten isg Urnenmodelle und passende Formeln:

ziehen vonk Kugeln aus einer Urne mitnKugeln

mit Zur¨ucklegen (mW)

ohne Zur¨ucklegen (oW)

mit Beachtung derReihenfolge

P ermnk

nk (n−k)!n! =

n(n1)·...·(nk+ 1)

unterschiedliche Objekte

ohne Beachtung derReihenfolge

Komnk

n+k−1 k

n!

(n−k)!k! = nk nicht

unterscheidbare Objekte

mit

Mehrfachbesetzung

ohne Mehrfachbesetzung

Verteilen vonk Objekten auf n

Positionen

Tabelle 1: Urnenmodelle – (Kom sind Per, wobei die Elemente geordnet sind )

Erinnerung:

n! = 1·2·3·. . .·nFakult¨at

n k

=(n−k)!k!n! ”n ¨uber k” oder ”k aus n”, Binomial-Koeffizient

(4)

3 Bedingte Wahrscheinlichkeiten und Unabh¨ angig- keit

3.1 Bedingte W’keiten

Es seien A und B Ereignisse in einem Zufallsexperiment. Welche Wahrscheinlichkeit hat B, wenn bekannt ist, dass A eintrit?

Definition 1 Es sei A ein Ergebnis mitP(A)>0. Die bedingte Wahrscheinlichkeit von B unter A wird definiert durch

P(B|A) =P(A∩B) P(A) Satz 3 (einige Definitionen)

1. Multiplikationsregel

SindA1, ..., An Ereignisse mit P(A1∩...∩An)>0, so gilt

P(A1∩...∩An) =P(A1)·P(A2|A1)·P(A3|A1∩A2)·...·P(An|A1∩...∩An−1) 2. Gesetz der totalen Wahrscheinlichkeit = Zerlegung

IstA1, ..., AneineEreignispartitionvonΩ, d.h.A1∩...∩An = Ω, Ai∩Aj =

∅ f¨ur i6=j, so gilt f¨ur alle Ereignisse B

P(B) =

n

X

i=1

P(B|Ai)P(Ai)

Hierbei istP(Ai) = 0zugelassen, der Summand wird dann als 0interpretiert.

3. Formel von Bayes

Es seien A1, ...An und B wie oben und P(B)>0. Dann ist P(Ai|B) = P(Ai)P(B|Ai)

Pn

k=1P(B|Ak)P(Ak)

3.2 Unabh¨ angigkeit

Einer der zentralen Begriffe der Stochastik ist der , der (stochastischen)Unabh¨angig- keit.

B ist von A unabh¨angig, wenn die Information ”A ist eingetreten” die W’keit f¨ur B nicht ¨andert⇒P(B|A) =P(B) P(B∩A)P(A) =P(B).

Definition 2 (Unabh¨angigkeit)

Zwei Ereignisse A und B heissen stochastisch unabh¨angig, wenn P(A∩B) = P(A)·P(B)gilt.

P(A∩B) =P(A)·P(B)⇒A, B unabh¨angig Aus einer paarweisen Unabh¨angigkeit in einer Ereignisfamilie

P(Ai∩Aj) =P(Ai)P(Aj), f¨ur allei, j∈I, i6=j folgt nichtdie totale Unabh¨angigkeit.

(5)

4 Diskrete Zufallsgr¨ oßen

4.1 Allgemeines

Oft interessiert man sich nicht f¨ur das Ereignisωeines Zufallsexperimentes, sondern nur f¨ur einen hiervon abh¨angigen Wert X(ω).

Definition 3 (ZV, Verteilung, WMF, Verteilungsfunktion)

1. Eine diskrete Zufallsvariable (ZV) ist eine Abbildung X : Ω → R mit endlich vielen oder abz¨ahlbar unendlich (N,Z,Q) vielen Werten.

2. Die Verteilung einer diskretenZV X ist die AbbildungA→P(X ∈A) (=

P(ω∈Ω :X(ω))∈A), diese ist ein W’Maß.

3. Die Wahrscheinlichkeitsmassenfunktion (WMF) PX einer diskreten ZV X wird definiert durch

PX :R→[0,1], PX(x) =P(X=x)

4. Die VerteilungsfunktionFX einer diskretenZV X wird definiert durch FX :R→[0,1], FX(x) =P(X≤x)

Massenfunktionen k¨onnen beispielsweise durch ein Stabdiagramm illustriert werden.

Bem.:

i) Zu jeder ZV geh¨ort eine Verteilung und verschiedene ZV k¨onnen durchaus die gleiche Verteilung haben.

ii) Da durch die Abbildung X in der Regel unterschiedlich viele Argumentwerte ω zu einem Bildwert X(ω) zusammengefasst werden, sind in der Regel selbst bei einem Laplace-Experiment die WerteP(X =x) nicht gleichgroß.

4.2 Einige wichtige Verteilungen

4.2.1 BinomialverteilungX ∼bin(n, p)

X heißt binomialverteilt mit Parameternnundp, wenn gilt P(X =k) =

n k

pk(1−p)n−k f¨ur k= 0,1, ..., n

Man erh¨altBin(n, p) als Verteilung der Anzahl X der Erfolge beinunabh¨angigen Versuchswiederholungen mit Erfolgswahrscheinlichkeitp.

4.2.2 Hypergeometrische VerteilungX ∼Hyp(M, m, n) (LOTTO) Eine ZV heißt hypergeometrisch verteilt mit Parametern M,m,n (alles nat¨urliche Zahlen), wenn gilt

P(X =k) =

m k

M−m n−k

M n

Typische Fragestellung ist nach der W’keit f¨ur zwei Richtige im Zahlenlotto ”6 aus 49”: (62)(49−66−2)

(496)

Die Verteilung taucht bei Stichproben ohne Zur¨ucklegen auf.

F¨ur große M;Binomialverteilung

(6)

4.2.3 geometrische Verteilung X ∼geom(p)

Eine Art ”Wartezeitverteilung”: ”Angenommen, ein W¨urfel wird solange geworfen, bis eine sechs erscheint...”

X heißt geometrisch verteilt mit Parameterp, wenn gilt P(X =n) = (1−p)n−1·p, f¨urn∈N

Diese Verteilung taucht immer dann auf, wenn ein Zufallsexperiment solange wie- derholt wird, bis ein bestimmtes Ereignis eintritt, der Parameter ist die W’keit des Ereignisses, auf das gewartet wird.

Z¨ahlt man stattdessen die Anzahl der Misserfolge, so erh¨alt man eine andere Version der geometrischen Verteilung:

P(X=n) = (1−p)n·p, f¨ur n∈N 4.2.4 Poissonverteilung X ∼pois(λ)

Die ZV Xheißt poisson-verteilt, mit Parameter λ(λ >0), wenn gilt P(X=k) =e−λ·λk

k!, k∈N0 Satz 4 (”Das Gesetz der seltenen Ereignisse”)

Ist (pn)n∈N⊂[0,1]eine Nullfolge mit lim

n→∞n pn =λ, so gilt f¨ur allek∈N0 n→∞lim

n k

pkn(1−pn)k=e−λλk k!

W’keit f¨ur kErfolge bei nWiederholungen mit Erfolgswahrscheinlichkeit p.

Bekannt ist: limn→∞(1 +xn)n=ex

4.3 Erwartungswert und Momente

In diesem Abschnitt werden einige Verteilungsparameter eingef¨uhrt. Dies sind Zah- len, die bestimmte Aspekte einer Verteilung, wie beispielsweise die Lage oder die Streuung, beschreiben.

Definition 4 (ErwartungswertE(X))

SeiXeine diskrete Zufallsvariable mit WMFPX. Dann wird derErwartungswert E(X)vonX defniniert durch

E(X) =X

x∈N

x·P(X =x)

Hierbei wird vorrausgesetzt, dass die Reihe absolut konvergiert, d.h. P

|x|px(x)<

∞. Ist dies nicht der Fall, so sagt man, dass der Erwatungswert nicht existiert.

Beobachtungen:

• Der Erwartungswert einer Poissonverteilung mit Parameterλist geradeλ.

(7)

Erwartungswert von Funktionen von Zufallsvariablen

Oft kann man die interessierende Zufallsvariable Y als Funktiongeiner anderen ZV schreiben

XR gR Y =:g(x).

Satz 5 Es gilt E g(X) =P

x∈Rg(X)·PX(x) = P

x∈R g(X)·P(X =x), vorraus- gesetzt, die Summen konvergieren absolut.

Satz 6 (Rechenregeln f¨ur Erwartungswerte) Seien X,Y diskrete ZV und c∈R.

Vorrausgesetzt, dass die beteiligten Summen absolut konvergieren, dann gilt:

1. E(X) =E(E(X))

2. E(X+Y) =E(X) +E(Y)

E(X1+X2+...+Xn) =E(X1) +E(X2) +...+E(Xn) 3. E(cX) =c·E(X)

4. X≤Y ⇒E(X)≤E(Y) Definition 5 (k-te Moment)

Das k-te Moment von X ist definiert als E(Xk), vorrausgesetzt, die Reihe ist absolut konvergent(P

x|x|kP(X=x)<∞).

DieVarianz von X ist definiert als

var(X) =E(X−EX)2 (Maß f¨ur die Streuung)

(Vorraussetzung ist, dass EX2<∞, sonst sagt man, die Varianz existiert nicht) Schließlich heißt σ(X) =p

var(X) dieStandardabweichung von X.

Die Varianz ist ein Maß f¨ur die Streuung einer ZV um ihren Erwartungswert.

Rechenregeln:

1.

var(X) =E(X−EX)2 = E(X2−2X(EX) + (EX)2)

= E(X2)−E(2X(EX)) +E((E(X))2)

= E(X2)−2E(X)·E(X) + (E(X))2

= E(X2)−(E(X))2 also var(X) =E(X2)−(E(X))2

2. Seic∈R, dann

var(X+c) = E((X+c)−E(X+c))2=E(X+c−EX−c)2

= E(X−EX)2=var(X)⇒ var(X+c) =var(X) 3.

var(cX) = E(c2X2)−(E(cX))2

= c2(E(X2))−c2(EX)2

= c2(E(X2)−(EX)2) =c2var(X)⇒ var(cX) =c2var(X) damit klar:

σ(X+c) =σ(x) undσ(cX) =|c| ·σ(X).

Tabelle mit Erwartungswerten und Varianzen der bisher genannten Verteilun- gen:

(8)

Verteilung Parameter EW Var WMF=PX =P(X =k)

Poisson λ λ λ e−λ·λk!k, k∈N0

binomial n, p n·p np(1−p) n

k

pk(1−p)k−1 , f¨urk= 0,1, ..., n

geometrisch p 1/p 1−p

p2 (1−p)n−1·p, f¨urn∈N

hypergeom. M, m, n n·mM m·n

M ·MM−m·MM−n−1 (mk)(M−mn−k) (Mn)

Tabelle 2: Tabelle mit EW und Var diskreter Verteilungen

(9)

5 Stetige Zufallsgr¨ oßen

5.1 Allgemeines

Viele Zufallsgr¨oßen k¨onnen ein Kontinuum von Werten annehmen: Lebensdauer, Messfehler, Proportionen, etc.

Definition 6 (Dichte, stetig verteilt)

Eine ZVX heißtabsolut stetig verteilt(kurz stetig) mitWahrscheinlichkeits- dichtefunktion fX (kurz Dichte), wenn gilt

P(X≤x) =

x

Z

−∞

fX(y)dy ∀x∈R

Die Funktion FX : R→ R,FX(x) =P(X ≤x), heißt die Verteilungsfunktion zu X.

Im diskreten Fall ist FX vom reinen Sprungtyp. Im stetigen Fall ist FX ”glatt”.

Grob ist fx die Ableitung von FX, insbesondere alsoFX stetig. Insbesondere gilt P(X =x) = 0 ∀x∈Rbei stetigen ZV.

5.2 Einige wichtige stetige Verteilungen

5.2.1 Gleichverteilung

Eine Zufallsvariable ZV heißtgleichverteiltauf dem Intervall (a,b), kurz:L(X) = unif, X ∼unif(a, b), wenn X die Dichtefunktionf(x) =

( 1

b−a , a < x < b

0 hat.

Die zugeh¨orifge Verteilungsfunktion istF(X) =

R

−∞

f(y)dy

Abbildung 1: Gleichverteilung (Verteilungsfunktion, Dichtefunktion)

5.2.2 Exponentialverteilung

Die Exponentialverteilungmit Parameter λ(>0) wird durch die Dichte f(x) =

(λe−λx , x≥0

0 , sonst}Stammfkt:1−e−λx beschrieben; die zugeh¨orige Verteilungsfunktion ist

F(x) =

(1−e−λx , x≥0 0 , x <0

Diese Verteilung taucht h¨aufig im Zusammenhang mit Wartezeiten und Lebens- dauern auf. In Beispielen sieht man, daß dann das Alter keine Rolle spielt, diese Tatsache nennt man auch dieGed¨achtnislosigkeit der Exponentialverteilung.

(10)

5.2.3 Normalverteilung

Die wichtigste stetige Verteilung ist dieNormalverteilungmit Parameternµ∈R undσ2>0, kurz:N(µ, σ2), mit der Dichtefunktion:

f(x) = 1

2πσ2exp(− 1

2(x−µ)2), −∞< x <∞.

Dies ist die Gaußsche Glockenkurve mit ihren Wendepunkten in µ±σ Taucht oft Abbildung 2: Normalverteilung (Dichtefunktion)

im Zusammenhang mit Messfehlern auf (Zentraler Grenzwertsatz)

!Man findet keine Stammfunktion, deshalb gibt esTabellen!

F¨ur die zugeh¨orige Verteilungsfunktion gibt es keine einfache Formel. F¨ur die Werte µ= 0, σ2 = 1 (Man nennt N(0,1) auchStandardnormalverteilung) sind die Werte der Verteilungsfunktion

Φ(x) = 1

√2π

Z

−∞

e−1/2y2 dy

vertafelt (Tabelle), beispielsweise gilt Φ(1,645) = 0.95.

Tabelle mit den behandelten stetigen Verteilungen

Verteilung kurz Vert.funktion Dichte

Gleich

unif(a, b) FX(x) =

R

−∞

f(y)dy fX(x) =b−a1

Exponential exp(λ) FX(x) = 1−e−λx f¨urx≥0, 0 sonst.

fX(x) =λe−λx

f¨urx≥0, 0 sonst. Stammfkt:−e−λx

Normal N(µ, σ2) Es gibt keine Funktion, f¨urN(0,1) sind Werte

vertafelt.

fX(x) =

1

R

−∞

e−1/2y2dy

fX(x) =1

2πσ2exp(−12(x−µ)2) , −∞< x <∞

Tabelle 3: Tabelle mit Verteilungsfunktionen und Dichten der stetigen Verteilungen Lemma 5.2

F¨ur alleβ∈R, α6= 0 giltX ∼N(µ, σ2)⇒αX+β ∼N(αµ+β, α2σ2)

(11)

5.3 Erwartungswerte und Momente

Definition 7 (Erwartungswert stetiger ZV)

Ist X eine stetige Zufallsgr¨oße mit Dichte f, so wird der Erwartungswert EX von X definiert durch

EX = Z

x f(x)dx , vorrausgesetzt, es gilt R

|x|f(x)dx < ∞ sont sagt man, dass der Erwartungswert nicht existiert.

Satz 7

E g(x) = Z

g(x)f(x)dx Satz 8 (Linearit¨at und Monotonie)

Unter der Vorraussetzung, dass die beteligten Erwartungswerte existieren, gilt 1. E(X+Y) =EX+EY,E(cX) =c EX c∈R (Linearit¨at)

2. X≤Y ⇒EX ≤EY (Monotonie) Definition 8 (Momente stetiger ZV)

Dasi-te Momenteiner (stetigen) ZVXist mitE(Xk), dieVarianzmitvar(X) = E(X−EX)2 und die Standardabweichung mitσ(X) =p

var(X)gegeben.

Rechenregeln sind (f¨ur c∈R):

var(X) = EX2−(EX)2 var(cX) = c2var(X) var(X+c) = var(X) Merke:

zur StandardnormalverteilungN(0,1) geh¨oren der Erwartungswert 0 und die Vari- anz 1.

im allgemeinen Fall X∼N(µ, σ2) giltEX =µundvar(X) =σ2

(12)

6 Mehrdimensionale Zufallsgr¨ oßen und Unabh¨ angig- keit

Hat man mehrere, von dem Ergebnisωeines Zufallsexperimentes abh¨angige Gr¨oßen X1(ω), ..., Xn(ω)∈R, so kann man diese zu einem stochastischen VektorX zusam- menfassen: ω7→(X1(ω), ..., Xn(ω)).

Definition 9 (gemeinsame Verteilungsfunktion von ZVektoren)

Die gemeinsame Verteilungsfunktion FX,Y : R2 → R zweier ZV X und Y, oder auch: die Verteilungsfunktion des Zufallsvektors(X, Y), wird definiert durch

FX,Y(x, y) =P(X ≤xundY ≤y) =P({ω∈Ω :X(ω)< x∧Y(ω)< y}).

Definition 10 (Unabh¨angigkeit von Zufallsvektoren)

Es seien X, Y ZV mit gemeinsamer Verteilungsfunktion FX,Y. Weiter seiFX die Verteilungsfunktion zu X und FY die Verteilungsfunktion zu Y. Dann heißen X und Y stochastisch unabh¨angig, wenn gilt:

FX,Y(x, y) =FX(x)·FY(y) f¨ur allex, y∈R speziell bei diskreten stetigen ZV setzt man:

Definition 11 (diskreter, stetiger Zufallsvektor)

1. Nehmen X und Y nur endlich viele oder h¨ochstens abz¨ahlbar viele Werte an, so nennt man(X, Y)einen diskreten ZufallsvektorundPX,Y(x, y) :=

P(X =x, Y =y)diegemeinsame Massenfunktion vonX undY. 2. Gibt es eine FunktionfX,Y :R2→R+ mit der Eigenschaft

FX,Y(x, y) =

x

Z

−∞

y

Z

−∞

fX,Y(s, t)ds dt ∀x, y∈R

so nennt man (X, Y) einen absolut stetig verteilten Zufallsvektor und fX,Y einegemeinsame Dichtefunktion vonX undY.

Satz 9 ()

Es seien X undY Zufallsvektoren und g:R2→R eine Funktion, dann gilt 1. Ist(X, Y)ein diskreter Zufallsvektor mit Massenfunktion PX,Y, so gilt

E g(x, y) =X

X

X

Y

g(x, y)PX,Y(x, y).

2. Ist(X, Y)ein stetiger Zufallsvektor mit DichtefunktionFX,Y, so gilt E g(x, y) =

Z Z

g(x, y)fX,Y(x, y)dx dy.

Interpretation:

Wahrscheinlichkeiten als Volumina unter der durch die Dichte definierte Ober- fl¨ache.

(13)

Satz 10 (Zusammenhang zur Unabh¨angigkeit:)

1. Ist X, Y diskret mit Massenfunktion PX,Y, so sind X und Y genau dann unabh¨angig, wenn

pX,Y(x, y) =pX(x)·pY(y) f¨ur allex, y∈R gilt (konkret: P(X =x, Y =y) =P(X=x)·P(Y =y)).

Hierbei sindpX(x) =P(X =x) =P

YP(X =x, Y =y) =P

Y pX,Y(x, y) undpY(y) =P

XpX,Y(x, y)die Massenfunktionen zu X undY.

2. Ist X, Y stetig mit Dichtefunktion fX und fY, so sind sie genau dann un- abh¨angig, wennfX,Y mitfX,Y(x, y) =fX(x)·fY(y)eine Dichtefunktione zum Zufallsvektor (X, Y)ist.

Satz 11 (Multiplikationsregel f¨ur Erwartungewerte)

F¨ur unabh¨angige ZV X und Y gilt E(XY) = E(X)·E(Y) (vorrausgesetzt, die Erwartungswerte existieren)

Definition 12 (CoVarianz)

DieKovarianz cov(X, Y)zweier ZV X undY wird definiert durch cov(X, Y) =E(X−EX)·(Y −EY)).

als Korrelationskoeffizient ϕ(X, Y) berechnet man ϕ(X, Y) = σ(X)σ(Ycov(X,Y)) (vorr- ausgesetzt, die ZV haben eine endliche, von 0 verschiedene Varianz).

Es gilt

cov(X, Y) = E(XY −(EX)Y −X(EY) + (EX)(EY))

= E(XY)−(EX)(EY)−(EX)(EY) + (EX)(EY)

= E(XY)−(EX)(EY)

SindX, Y unabh¨angig giltcov(X, Y) = 0 und man sagt, X,Y sind unkorreliert.

Die Umkehrung gilt nicht.

cov undϕk¨onnen als Maß eier linearen Abh¨angigkeit angesehen werden.

Cauchy-Schwarz-Ungleichung

|E(X−EX)(y−EY)| ≤p

(E(X−EX)2)(E(Y −EY)2)

|cov(X, Y)| ≤p

var(X)·var(Y) =σ(X)σ(Y)

Insbesondere nimmt der Korrelationskoeffizient Werte im Intervall [−1,1] an.

Zwei ZufallsvariablenXundY sind unabh¨angig, wenn sich die gemeinsame (Massen- )Verteilungsfunktion also Produkt der marginalen (Massen-)Verteilungsfunktionen schreiben lassen.

Bei der Dichtefunktion ist zu beachten, dass man die marginalen Dichtefunktioen durch ”ausintegrieren” der anderen Komponente erhalten kann:

fX(x) =

Z

0

FX,Y(x, y)dy=

Z

0

e−x−y=e−x

Damit lassen sich W’keiten ausrechnen, die sich auf beide ZV beziehen, zum Beispiel:

P(X ≤2Y) = x

{(x,y):x≤2y, x,y≥0}

Z

fX,Y(x, y)dydx= Z

0

Z

x/2

e−x−ydydx= 2/3

(14)

Satz 12 (Gleichheit von Bienaym´e)

SindX1, ..., Xnunabh¨angige Zufallsvektoren, mit endlicher Varianz, so giltvar(X1)+

...+var(Xn)

Ist die gemeinsame Verteilung zweier ZV X und Y bekannt, so l¨asst sich (im Prinzip) die Verteilung von Z :=g(X, Y) unter g: R2 →R gegeben, bestimmen.

Besonders wichtig, Z=X+Y, alsog:R2→R, x= xx1

2

→x1+x2.

6.1 Faltung von P

X

und P

Y

Satz 13 1. SindX, Y unabh¨angige diskrete ZV mit Massenfunktionen pX, pY, so istX+Y wieder eine diskrete ZV mit Massenfunktion

PX+Y(z) = X

x

pX(x)pY(z−x)

= X

y

pX(z−y)pY(y)

Terminologie: Man nenntPX+Y dieFaltungvonPX und PY

2. Sind X, Y unabh¨angige stetige ZV mit Dichtefunktionen fx, fy, so ist auch X+Y eine stetige ZV, und die Dichtefunktion lautet

fX+Y(z) = Z

fX(x)fY(z−x)dx= Z

fX(z−y)fY(y)dy Terminologie: Man nenntfX+Y die FaltungvonfX undfY.

6.2 Transformationssatz f¨ ur W’-Dichten

Satz 14 (Transformationssatz f¨ur W’-Dichten)

Es seien U undV offene Teilmengen vonRd undΨ :U →V eine bijektive, stetige diffbare Abbildung mit det((Ψ0(x))6= 0 f¨ur allex∈U.

Ist dann X ein Zufallsvektor mit DichtefX undP(X∈U) = 1, so hat Y := Ψ(x) die Dichte

fY(y) =|det(Ψ−1)0(y)|fX−1(y)), y∈V.

(15)

7 Erzeugende Funktionen

In diesem Kapitel geht es um Transformationsmethoden, die in vielen Berei- chen der Mathematik von großer Bedeutung sind und eine starke Verbindung zur Analysis herstellen.

7.1 w’erzeugende Funktion

Die w’erzeugende Funktion im allgemeinen ist definiert durch gX(s) =

X

k=0

fX(k)sk =EsX siehe hierzu ¨Ubung11

siehe Skript von Frau Prof. B¨auerle S.29 ff.

7.2 momenterzeugende Funktion

Die momenterzeugende Funktion zu einer Zufallsvariablen is definiert als:

ϕX(t) =EetX = Z

0

etx·fX(x)dx

Abbildung

Tabelle 1: Urnenmodelle – (Kom sind Per, wobei die Elemente geordnet sind )
Tabelle mit Erwartungswerten und Varianzen der bisher genannten Verteilun- Verteilun-gen:
Tabelle 2: Tabelle mit EW und Var diskreter Verteilungen
Tabelle mit den behandelten stetigen Verteilungen

Referenzen

ÄHNLICHE DOKUMENTE

An die Quellensektion schließen zwei direkt aneinander gekoppelte RFQ-(Radio-Frequency-Quadrupole)-Resonatoren mit einer Gesamtl¨ange von 6 m an, die die Ionen auf 0.5

Bei den meisten Regularit¨ atsaussagen beschr¨ ankt man sich im Beweis auf den Nach- weis der gew¨ unschten Aussage bez¨ uglich der Einheitskugel. Wie man den allgemeinen Fall dann

Bestimmen Sie alle lokalen Extrema der Funktion y, und entscheiden Sie, in welchen F¨ allen es sich um ein Maximum beziehungsweise ein Minimum

” Geschlechtsmarkierung und Bef¨ orderungsentscheidung sind unabh¨ angig“ k¨ onnen wir die Beobachtungen alternativ folgendermaßen erkl¨ aren: Es gab 35 wohlgesonnene und 13

November 2018 am Beginn der Vorlesung.. Besprechung in den ¨ Ubungen

Lemma 0.1 Es seien (Ω, d) ein metrischer Raum, A die Borelsche σ-Algebra dazu und (P n ) n∈ N eine Folge von Wahrscheinlichkeitsmaßen darauf, die schwach gegen ein

[r]

[r]