• Keine Ergebnisse gefunden

11.2.1 Bedingte Wahrscheinlichkeiten

N/A
N/A
Protected

Academic year: 2021

Aktie "11.2.1 Bedingte Wahrscheinlichkeiten"

Copied!
44
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

11 Elementare Stochastik 3

11.1 Diskrete Wahrscheinlichkeitsverteilungen . . . 3

11.2 Allgemeine Wahrscheinlichkeitsr¨aume . . . 18

11.2.1 Bedingte Wahrscheinlichkeiten . . . 21

11.2.2 Stochastische Unabh¨angigkeit . . . 25

11.3 Erwartungswert und Varianz . . . 26

11.4 Grenzwerts¨atze . . . 35

11.4.1 Gesetze der großen Zahlen . . . 35

11.4.2 Der Zentrale Grenzwertsatz . . . 37

1

(2)
(3)

Elementare Stochastik

11.1 Ergebnisr¨ aume und Wahrscheinlichkeitsver- teilungen

Unter einem Zufallsexperiment verstehen wir ein Experiment, dessen Ausgang nicht durch irgendwelche Naturgesetze festgelegt ist, sondern allein durch den Zufall be- stimmt wird. Insbesondere k¨onnen unabh¨angige Wiederholungen eines Zufallsexperi- ments unterschiedliche Ergebnisse bringen.

Beispiele: 1) Das Versetzen von Eisensulfat mit Salzs¨aure ist kein Zufallsexperi- ment, da feststeht, was das Ergebnis sein wird: Es wird Schwefelwasserstoff freigesetzt.

2) Wird ein freih¨angendes Pendel angestoßen, so beginnt es zu schwingen. Auch hier liegt kein Zufallsexperiment vor.

3) Wird mit zwei W¨urfeln geworfen, so ist die geworfene Zahl nicht vorherbe- stimmt.

4) Eine Lottoziehung ist ein Zufallsexperiment

5) Dasselbe gilt f¨ur Qualit¨atskontrollen, Messungen mit hoher Genauigkeitsanfor- derung, Materialtests (Bestimmung der Reißlast von Seilen oder Kabeln, Testen der Durchrostungszeit von Karosserieen).

(A) Der Rahmen f¨ur ein mathematisches Modell eines Zufallsexperi- mentes

Die Ergebnisse eines Zufallsexperiments werden zu einer Menge Ω zusammenge- fasst, die man auch als den Ergebnisraum bezeichnet. Seine Elemente nennt man die Elementarereignisse.

Beispiele. i) Beim Roulette kann man etwa Ω ={0,1,2, ...,36} w¨ahlen.

3

(4)

ii) Beim W¨urfeln mit 2 W¨urfeln ist etwa

Ω ={(k, l) : 1≤k, l ≤6}

angemessen.

iii) Angenommen, man wirft eine M¨unze 10-mal. Dann ist Ω :={(a1, ..., a10) : ai ∈ {0,1}, fuer i= 1, ....,10}

der geeignete Ergebnisraum.

iv) Beim Lottospiel 6 aus 49 ist

Ω ={A⊂ {1, ....,49} : ]A= 6}

der passende Ergebnisraum. Hierbei bedeutet f¨ur eine endliche MengeM das Symbol ]M die Anzahl der in M enthaltenen Elemente.

v) F¨ur Messungen irgendwelcher kontinuierlicher Gr¨oßen (etwa Schwingdauer ei- nes Pendels) werden Mengen wie R oder Intervalle wie [0,∞) als Ergebnisr¨aume ben¨otigt.

In vielen F¨allen interessieren bei einem Zufallsexperiment aber nicht die Elemen- tarereignisse, sondern vornehmlich Mengen von Elementarereignissen, also Mengen A⊂Ω, welche wir als Ereignissebezeichnen.

a) Beim W¨urfeln mit 2 W¨urfeln etwa hat nur die Augenzahl Bedeutung: Wenn es darum geht, ob man mindestens eine 8 geworfen hat, so interessiert nicht, ob der erste W¨urfel eine 6 und der zweite mindestens eine 2 zeigt, oder ob der erste W¨urfel mindestens eine 5 und der zweite mindestends eine 3, sondern wichtig ist nur das Ereignis

A := {(2,6), (3,5), (4,4), (5,3), (6,2), (3,6), (4,5), (5,4), (6,3), (4,6), (6,4) (5,6), (6,5), (6,6)}

b) F¨uhrt man eine Messung durch, Ω = [0,∞), so kann man ohnehin nicht 100- prozentige Genauigkeit des Messwertes erwarten (Unzul¨anglichkeit der Messapparatur u. ¨a.) Man strebt daher nur an, dass der Messwert in einem bestimmten Intervall liegt.

Die relevanten Ereignisse sind hier also nicht Punkte aus [0,∞) sondern Teilintervalle davon.

c) Beim Bogenschießen ist etwa Ω =B2(0, R) und die Ereignisse, die interessieren, sind hier die Kreisringe A=B2(0, r2)\B2(0, r1).

(B) Wahrscheinlichkeitsverteilungen

Wir nehmen nun an, irgendein Zufallsexperiment werde durch einen Ergebnisraum Ω beschrieben.

(5)

Definition. Unter einer Mengenalgebra von Ereignissen in Ω verstehen wir ein System M von Teilmengen von Ω, so dass folgende Regeln erf¨ullt werden:

1) Ω∈M,

2) Ist A∈M, so auch Ac∈M,

3) Sind A, B ∈M, so auch A∪B ∈M.

Wir bemerken: MitA, B ∈M ist auchA∩B ∈M, denn (A∩B)c=Ac∪Bc∈M, also auch A∩B =

(A∩B)cc

∈M.

Per Induktion nach n folgt nun: Sind A1, ..., An∈M, so auchA1∪...∪An ∈M und A1∩...∩An∈M.

Was Wahrscheinlichkeit ist, l¨asst sich sicherlich nicht exakt definieren (dasselbe gilt ja auch f¨ur Begriffe wie Zeit oder Energie). Aber es liegt nahe zu versuchen, jedem Ereignis A⊂Ω eine ZahlP(A) aus [0,1] zuzuordnen, die misst, ob man sich auf das Eintreten des Ereignisses gefasst machen muss oder man davon ausgehen kann, dass es nicht eintritt. Dabei wird P(A) > 1/2 dahingehend verstanden, dass man sich auf das Eintreten von A einstellen sollte, w¨ahrend P(A) < 0.05 bedeuten w¨urde, dass man nicht mit A zu rechnen braucht. Ferner sollte die Funktion P, die jedem Ereignis seine ”Wahrscheinlichkeit” zuordnet, vern¨unftigen Regeln gehorchen, damit sie mathematischen Methoden zug¨anglich wird.

Definition. IstM eine Mengenalgebra von Ereignissen in Ω, so verstehen wir unter einem W’maß eine Mengenfunktion P :M −→[0,1] mit

(A) P(A∪B) =P(A) +P(B), wenn A, B ∈M, A∩B =∅.

Die Wahrscheinlichkeit, dass mindestens eines von zwei nicht miteinander zu ver- einbarenden Ereignissen eintritt, l¨asst sich additiv aus den Einzelwahrscheinlichkeiten berechnen.

Aus (A) folgt leicht, dass

(K) P(Ac) = 1−P(A), f¨ur alle Ereignisse A⊂Ω, sowie (K2) P(B\A) = P(B)−P(A), wenn A⊂B.

Hier haben wir n¨amlich B =A∪(B\A), also P(B) =P(A) +P(B\A).

Wollen wir f¨ur 2 EreignisseA, B ⊂Ω die WahrscheinlichkeitP(A∪B) berechnen, dass A oder V B eintritt und setzen nicht mehr voraus, dass A und B unvereinbar sind, so haben wir

(V) P(A∪B) =P(A) +P(B)−P(A∩B).

Dazu beachten wir, dassA∪B = (A\(A∩B))∪B, letztere Mengen sind disjunkt.

Also folgt nach (K2) auchP(A∪B) = P(A\(A∩B))+P(B) = P(A)−P(A∩B)+P(B)

(6)

(B.1) Wahrscheinlichkeitsverteilungen auf endlichen Ergebnisr¨aumen Angenommen, ein Ergebnisraum Ω habe nur endlich viele Elemente, etwa Ω = {a1, ..., an}.

MitP(Ω) bezeichnen wir das System aller Teilmengen von Ω (auch ”Potenzmenge von Ω genannt. Der Name r¨uhrt vielleicht daher, dass dann die Menge P(Ω) gerade 2n Elemente hat.

In diesem Fall ist auf M := P(Ω) eine Wahrscheinlichkeitsverteilung so zu defi- nieren:

Ist p1, ...., pn eine Sammlung positiver Zahlen mitp1+p2+...+pn = 1, so P({aj}) =:pj, 1≤j ≤n

und

P(A) := X

j:aj∈A

pj

Dann erf¨ullt die derart definierte Mengenfunktion die Forderungen an ein W’maß .

Beispiel 1 . Angenommen, es sei Ω ein Ergebnisraum und A, B ⊂ Ω seien zwei Ereignisse.

a) Angenommen weiter, A und B haben die W’keiten P(A) = 0.3, P(B) = 0.45, und es seiP(A∪B) = 0.6. Was sind die W’keitenP(A∩B), sowieP((A∪B)c), P(Ac∪ Bc) und P(Ac∩B). ?

b) Angenommen, es sei P(A∩Bc) = 0.3 und P(B) = 0.4. Mit welcher W’keit tritt dann A∪B ein?

c) Sei Ω der Ereignisraum f¨ur ein Zufallsexperiment und A, B und C Ereignisse.

K¨onnen dann die folgenden Konstellationen von W’keiten f¨ur diese Ereignisse gelten?

• P(A) = 0.6, P(A∩B) = 0.2 und P(A∩Bc) = 0.5?

• P(A) = 0.6, P(B) = 0.4, P(A∩B) = 0 und P(A∩B∩C) = 0.1

• P(A∪B∪C) = 0.68, P(A∩B) =P(A∩C) = 1?

d) Ein (manipulierter) W¨urfel zeigt die Zahlen 1,2,3,4 und 5 mit den W’keiten

1

8,18,17,17 und 16. Mit welcher W’keit wird eine 6 geworfen?

L¨osung. a)

P(A∩B) = P(A) +P(B)−P(A∪B) = 0.3 + 0.45−0.6 = 0.15

(7)

P((A∪B)c) = 1−P(A∪B) = 0.4 und

P(Ac∪Bc) =P((A∩B)c) = 1−P(A∩B) = 0.85 P(Ac∩B) =P(B)−P(A∩B) = 0.45−0.15 = 0.3

b) P(A∪B) = P(A) +P(B)−P(A∩B) = P(B) +P(A\(A∩B)) = P(B) + P(A∩Bc) = 0.4 + 0.3 = 0.7

c) Keine der 3 Konstellationen ist mit den Regel f¨ur das Rechnen mit W’keitsmaßen vereinbar.

d) Es gilt P({6}) = 1− 1818171716 = 2584 = 0.2976.

Beispiel 2 . Gegeben sei das folgende Schaltbild aus 3 Gl¨uhl¨ampchen L1, L2, L3.

L

L

L

K 1

2

3

Jedes L¨ampchen brennt mit der W’keit 0.4 durch. Die W’keit, dass eines der L¨ampchenL2 oderL3 durchbrennt, sei 0.7 und angenommen, mit W’keit 0.95 brenne wenigstens eines der 3 L¨ampchen nicht durch.

Der Stromkreis ist nicht unterbrochen, wenn am Knoten K Strom fließt.

Mit welcher W’keit ist der Stromkreis unterbrochen? Dazu entwerfe man ein ge- eignetes mathematisches Modell: Man w¨ahle einen angemessenen Ergebnisraum und definiere die relevanten ”Ereignisse” dazu.

L¨osung. Der passende Ergebnisraum ist Ω ={(x1, x2, x3)| |xi ∈ {0,1}, i= 1,2,3}.

Dabei bedeutet xj = 1, dass das L¨ampchen Nr. j durchbrennt. Setzen wir dann Aj = {(x1, x2, x3)|xj = 1}, so ist das Ereignis ”Stromkreis unterbrochen” gerade A1∪(A2∩A3).

(8)

Nun wissen wir, dassP(Aj) = 0.4 f¨ur allej ist. Ferner haben wirP(A2∪A3) = 0.7 und P(Ac1∪Ac2∪Ac3) = 0.95. Dann ist aber

P(A1∪(A2∩A3) ) = P(A1) +P(A2∩A3)−P(A1∩A2∩A3)

= P(A1) +P(A2) +P(A3)−P(A2∪A3)−P(A1∩A2∩A3)

= P(A1) +P(A2) +P(A3)−P(A2∪A3)−1 +P(Ac1∪Ac2∪Ac3)

= 1.2−0.7−1 + 0.95 = 0.45 Kombinatorische Betrachtung

11.1.1 Satz Besteht eine Menge X aus n Elementen, so kann man diese auf n!

Weisen untereinander vertauschen

Beweis. Istn = 2, so haben wir etwaX ={x1, x2}. Dann sind (x1, x2) und (x2, x1) die m¨oglichen Vertauschungen.

Angenommen, wir h¨atten die Richtigkeit der Behauptung f¨ur jede Menge mit n Elementen erkannt. Ist dann X = {x0, x1, ..., xn} eine Menge mit n+ 1 Elementen, so sei

Vk = {(x01, ..., x0k−1, x0, x0k+1, ..., x0n+1)|(x01, ..., x0k−1, x0k+1, ..., x0n+1) Vertauschung von (x1, ..., xn)}

die Menge aller Vertauschungen der Elemente vonX, bei denen x0 an die k.-te Stelle r¨uckt. Offenbar ist die Menge aller m¨oglichen Vertauschungen vonX die Vereinigung allerVk, das sindn+1 disjunkte Mengen. Jede von ihnen hat nach Induktionsannahme n! Elemente. So kommen wir auf (n+ 1)·n! = (n+ 1)! m¨oglichen Vertauschungen.

Relevant f¨ur die Abz¨ahlung der Gewinnchancen beim Lotto 6 aus 49 ist 11.1.2 Satz Ist n ∈N0 und k∈ {0,1,2, ..., n}, so gilt

a) Man kann auf n(n−1)·...·(n−k+ 1)Weisen aus einer Urne mit n Kugelnk Kugeln entnehmen, wenn man die Kugeln nicht wieder zur¨ucklegt,

b) legt man jede Kugel wieder zur¨uck, so gibt es nk M¨oglichkeiten c) man kann auf

n k

Weisen einek-elementige Teilmenge aus einern-elementigen Menge X entnehmen.

Beweis. a) IstX ={x1, ..., xn}und wollen wir ausX einek-elementige Stichprobe (a1, ..., ak) entnehmen, so stehen uns f¨ura1 exaktn M¨oglichkeiten zur Verf¨ugung, f¨ur a2 bleiben n−1 M¨oglichkeiten, f¨ur a3 sind es noch n −2, allgemein gibt es f¨ur a`

(9)

exakt n−`+ 1 M¨oglichkeiten. So k¨onnen wir n(n−1)·...·(n−k+ 1) = k! n k verschiedene Stichproben nehmen.

b) Klar.

c) Vertauschen wir die Elemente einer Stichprobe untereinander, so liefert das die- selbe Teilmenge{a1, ..., ak}. Wir erhalten also die Anzahl der m¨oglichenk-elementigen Teilmengen vonX, wenn wir die Anzahl der m¨oglichen Stichproben durch die Anzahl der Vertauschungsm¨oglichkeiten der Elemente f¨ur die Stichprobe teilen. So erhalten wir die Behauptung.

Beispiele von Wahrscheinlichkeitsverteilungen

Die Laplace-Verteilung (Gleichverteilung)

Legen praktische ¨Uberlegungen nahe, jedem Einzelergebnis aj ∈ Ω die gleiche Chance zuzugestehen, einzutreten, so wird die folgende Funktion als Wahrscheinlich- keitsmaß verwendet:

P(A) := ]A n . Insbesondere hat man jetzt: P({aj}) = n1.

Dieses Wahrscheinlichkeitsmaß wird Gleichverteilung (oder Laplaceverteilung) ge- nannt.

In diesem Fall Wahrscheinlichkeiten auszurechnen wird m¨oglich, wenn man die f¨ur ein EreignisA⊂Ω ”g¨unstigen” F¨alle abz¨ahlt. Mit kombinatorischem Kalk¨ul kommen wir also zum Ziel.

Beispiel. 1) Werfen zweier W¨urfel. Die Wahrscheinlichkeit, mindestens eine 8 zu werfen, ist P(A) = 15/36 = 5/12. Denn das relevante Ereignis A ist

A := {(2,6), (3,5), (4,4), (5,3), (6,2), (3,6), (4,5), (5,4), (6,3), (4,6), (6,4) (5,6), (6,5), (6,6)}

und hat 15 Elemente.

2) Beim Roulette setzt jemand auf ”Douze premier”. Er gewinnt mit Wahrschein- lichkeit 12/37.

3) Die Chance, beim Lotto 6 Richtige zu haben, ist gerade 1/ 496

. Denn der fr¨uher eingef¨uhrte Ergebnisraum ist gerade

Ω ={A∈ P({1, ...,49}) : ](A) = 6}

und hat 496

= 13 983 816 Elemente.

(10)

Das Abz¨ahlen von g¨unstigen F¨allen ist nicht immer trivial. Wie muss vorgegangen werden, wenn die Wahrscheinlichkeit bestimmt werden soll, mindestens 4 Richtige getippt zu haben? Nehmen wir an, es seien k1, ...., k6 die 6 gezogenen Lottozahlen.

Wir f¨uhren jetzt drei Ereignisse ein:

A4 :={S ∈ P(Ω) : S enth¨alt genau 4 der Zahlen k1, ..., k6} A5 :={S ∈ P(Ω) : S enth¨alt genau 5 der Zahlen k1, ..., k6} und

A6 ={ {k1, ..., k6} } Es gilt jetzt ](A4∪A5∪A6) = ]A4 +]A5+]A6. Ferner ist ]A6 = 1, und

]A5 = 6

5

·43 = 6·43 = 258 und

]A4 = 6

4 43

2

= 15·903 = 13545 Insgesamt also ](A4∪A5∪A6) = 13804. Somit wird

P(A4∪A5∪A6) = 13804/13 983 816 = 0.000 987≈1 : 1000

4) Man wirftk W¨urfel. Wie groß muss k sein, damit mit Wahrscheinlichkeit>0.9 ein W¨urfel eine 6 zeigt?

Wir w¨ahlen hier Ω = {1,2,3,4,5,6}k, also ist ]Ω = 6k. Das in Rede stehende Ereignis A ist gerade darstellbar als A = Bc (Komplement von B), wobei B :=

{1,2,3,4,5}k, also haben wir P(B) = (5/6)k und es soll P(B) < 0.1 werden (aus (A) folgt (P(B) = 1−P(A)). Das f¨uhrt auf k > ln 5/6ln 0.1 = ln 6/5ln 10 >12.6, somit muss k mindestens gleich 13 werden.

Beispiel 3 . In einem Saal sei eine Anzahl vonn Personen versammelt.

a) Mit welcher W’keit haben 2 von ihnen am gleichen Tag Geburtstag?

b) Wieviel Personen m¨ussen es sein, damit diese W’keit gr¨oßer als 0.5 wird?

L¨osung. a) Da wir nach Geburtstagen fragen und das Jahr 365 Tage hat, arbeiten wir dem Ergebnisraum

Ω = {(x1, ...., xn) | xj ∈ {1,2,3,4, ...,365}}

Ein Elementarereignis repr¨asentiert das Ergebnis, wenn man alle Personen nach ihrem Geburtstag fragt. (Wir denken uns die Tage des Jahres durchnummeriert). Ist dann

(11)

B das Ereignis, dass keine 2 Personen am selben Tag Geburtstag haben, so bedeutet das

B ={(x1, ..., xn)| xi 6=xj, wenn i6=j}

und gesucht istP(Bc) = 1−P(B). Auf Ω muss die Laplaceverteilung benutzt werden, da man nichts ¨uber die einzelnen Geburtstage weiß. Es ist|Ω|= 365n. Wir bestimmen

|B|.

Sei also (x1, x2, ..., xn). Dann bestehen f¨ur x1 noch 365 M¨oglichkeiten, f¨urx2 sind es noch 364, f¨urx3 sind es 363 M¨oglichkeiten. So fortfahrend sehen wir, dass f¨ur den Geburtstag der Person Nr. k noch 365−k + 1 M¨oglichkeiten bleiben. Da alle diese M¨oglichkeiten unabh¨angig voneinander bestehen, haben wir

|B|= 365·364·363·362· · · · ·(365−n+ 1) Das f¨uhrt auf

P(Bc) = 1− |B|

365n = 1−

n

Y

k=1

(1− k−1 365 ) b) Je gr¨oßer n wird, desto kleiner ist auch P(B).

Wir probieren einige Werte aus und finden

n = 10 P(B) = 0.88, n = 15 P(B) = 0.747 n = 20 P(B) = 0.5885 n = 21 P(B) = 0.556 n = 22 P(B) = 0.524 n = 23 P(B) = 0.4927

Die W’keit, dass unter n Personen 2 am selben Tag Geburtstag haben, ist >0.5, wennn ≥23.

Binomialverteilung

Diese Verteilung ist durch 2 Parameter n ∈ N und p∈ (0,1) gekennzeichnet und auf den Teilmengen des Ergebnisraumes Ω ={0,1,2,3, ..., n} definiert durch

P({k}) :=

n k

pk(1−p)n−k und P(A) :=P

k∈AP({k}). Man nennt die Binomialverteilung mit Parameter n und p auchBn,p-Verteilung.

Wo tritt diese Verteilung auf?

(12)

Angenommen, man f¨uhre ein Zufallsexperiment, das nur 2 Ausg¨ange aoder b ha- ben kann,n-mal aus, wobei die Wiederholungen unabh¨angig voneinander sein sollen.

Ist p die Wahrscheinlichkeit f¨ur das Eintreten von a bei einem Einzelexperiment, so gibt wk :=

n k

pk(1−p)n−k die Wahrscheinlichkeit daf¨ur an, dass a in der Serie dieser n Experimente exakt k-mal auftritt. Denn zun¨achst kann man mit dem Er- gebnisraum E := {(x1, ...., xn)|xk ∈ {a, b}, k = 1, ..., n} arbeiten. Man z¨ahlt dann ab, wieviele (x1, ..., xn) gefunden werden k¨onnen, bei denen genau k Stellena und an den anderen Stellen b steht. Ihre Anzahl ist

n k

, und die Wahrscheinlichkeit eines jeden ist pk(1−p)n−k.

Beispiel 4 . Eine falsche 20-Cent-M¨unze werde 10-mal hintereinander geworfen. Mit welcher Wahrscheinlichkeit erscheint mindestens 3-mal ¨ofter das Brandenburger Tor als die Zahl, wenn ”Zahl” mit Wahrscheinlichkeit p= 25 eintritt?

L¨osung. Der richtige Ergebnisraum ist Ω ={Z, B}10undZ steht f¨ur ”Zahl”,B f¨ur

”Brandenburger Tor”. Als Ereignisse definieren wirEj :={j−mal 00Zahl00}. Dann ist das gesuchte Ereignis ”mindestens 3-mal ¨ofter Brandenburger Tor als Zahl” gerade A:=E0∪E1∪E2∪E3. Es folgt wegen |Ω|= 210= 1024:

P(A) =

3

X

k=0

10 k

(2

5)k(3 5)10−k

= (3

5)10+ 10(2 5)(3

5)9+ 45(2 5)2(3

5)8 + 120(2 5)3(3

5)7

= 0.00604662 + 0.0403108 + 0.120932 + 0.214991

= 0.38228

Beispiel 5 . Die Leitung eines Teilnehmers zur Telefonauskunft sei bei durchschnitt- lich 60% seiner Anrufe besetzt. Mit welcher W’keit sind

• Bei 5 Versuchen alle erfolgreich?

• Bei 5 Anrufen wenigstens einer erfolgreich?

Wieviel Versuche muss der Teilnehmer machen um mit W’keit 0.95 wenigstens einen erfolgreichen zu haben?

L¨osung. Der Ansatz mit einem Bernoullischen Zufallsexperiment ist gerechtfertigt.

Mit W’keit

Pk :=

5 k

0.4k0.65−k

(13)

sind bei 5 Versuchen, die Telefonauskunft zu erreichen, k Versuche erfolgreich.

Die gesuchten W’keiten sind alsoP5 = 0.45 = 0.01 und 1−P0 = 1−0.65 = 0.922.

Ist n die Zahl der Versuche, die n¨otig sind, damit mit W’keit 0.95 ein Versuch Erfolg hat, so muss gelten

1−P0 = 1−(1−p)n≥0.95 also

(1−p)n≤0.05, nln (1−p)≤ −ln (20) Das f¨uhrt auf

n≥ ln (20)

−ln 0.6 >5.86 Es braucht also mindestens 6 Versuche.

Hypergeometrische Verteilung

Bei Stichproben im Rahmen einer Qualit¨atskontrolle gewinnt die folgende Wahr- scheinlichkeitsverteilung Bedeutung:

Angenommen, eine Lieferung von n Bauteilen enthalte d ≤ n defekte Bauteile.

Der Empf¨anger der Lieferung nimmt eine Stichprobe von s Bauteilen. Mit welcher Wahrscheinlichkeit enth¨alt die Stichprobek defekte Bauteile?

Man arbeitet nun mit dem Ergebnisraum

Ω ={A⊂ {1, ...., n} : ](A) = s}

Wir nummerieren die Bauteile so, dass die ersten d gerade die defekten sind und setzen D :={1, ...., d}. Das Ereignis, k defekte Bauteile in der Stichprobe zu finden, wird durch die Menge

K :={A1∪A2 | A1 ⊂D, A2 ⊂ {1,2, ..., n} \D, ](A1) =k, ](A2) = s−k}

beschrieben. Wir z¨ahlen ab, wieviele Elemente K hat und erhalten ]K =

d k

n−d s−k

.

So f¨uhrt die Gleichverteilung auf Ω auf eine neue Verteilung aufX :={1,2, ..., n}, n¨amlich

Hn,d,s({k}) :=

d k

n−d s−k

n s

(14)

und

Hn,d,s(A) = X

k:k∈A

Hn,d,s({k}), f¨ur alle A∈ P(X).

(Hypergeometrische Verteilung mit Parameter n, d und s, wobeis ≤n) Dabei ist Hn,d,s({k}) = 0, wenn k >min{d, s}.

Man beachte, dass

min{d,s}

X

k=0

d k

n−d s−k

=n s

Denn setzen wir f(x) = (1 +x)d und g(x) = (1 +x)n−d, so liefert der Binomialsatz, dass

f(x) =

d

X

i=0

d i

xi, g(x) =

n−d

X

j=0

n−d j

xj Ausmultiplizieren ergibt dann

n

X

s=0

n s

xs = (1 +x)n=f(x)g(x) =

n

X

s=0

min{d,s}

X

k=0

d k

n−d s−k

xs

Die Behauptung ergibt sich durch Koeffizientenvergleich.

Beispiel 6 . Ein Unternehmer bezieht von einer Firma gewisse Bauteile. Angenom- men, man habe vertraglich vereinbart, dass eine Ausschussquote von 10% akzeptiert wird. Zum Zweck der ¨Uberpr¨ufung einer Lieferung von 50 St¨uck entnimmt der Unter- nehmer eine Stichprobe von 5 Teilen in der Absicht, die Lieferung abzulehnen, wenn mehr als 1 defektes Teil in der Stichprobe vorkommt. Mit welcher Wahrscheinlichkeit w¨urde eine Lieferung mit 8 defekten Bauteilen abgelehnt?

Die Anzahl der defekten Bauteile ist verteilt nach H50,8,5. Das zur Ablehnung f¨uhrende Ereignis ist also hier die Menge A:={0,1}c. Nun gilt

H50,8,5({0,1}) =

8 0

42

5

+ 81 42

4

50 5

= 850668 + 8·111930

2118760 = 1746108

2118760 = 0.82 Also

P(A) = 1−0.82 = 0.18

Die Wahrscheinlichkeit, aufgrund der Stichprobe die Lieferung abzulehnen, ist nur 0.18.

(15)

(C) Wahrscheinlichkeitsverteilungen auf abz¨ahlbaren Ergebnismengen Man nennt eine Menge Ω abz¨ahlber, wenn man ihre Elemente aufz¨ahlen und jedem eine Nummer erteilen kann. Man schreibt dann

Ω ={aj | j ∈N}

Beispiele solcher Mengen sind etwa Ω = N,Ω = Z,Ω = Q. Nicht abz¨ahlbar dagegen ist Ω =R oder Ω = (a, b).

Man definiert dann ein Wahrscheinlichkeitsmaß ¨ahnlich wie im Fall endlicher Ω.

Ist n¨amlich (pj)j eine Folge positiver Zahlen, so dassP

j=1pj := limn→∞Pn

j=1pj = 1, so setzen wir wieder

P({aj}) =:pj, j ≥1 und

P(A) := X

j:aj∈A

pj f¨ur A⊂Ω.

Hier sind 2 Beispiele:

Geometrische Verteilung

Die geometrische Wahrscheinlichkeitsverteilung mit Parameter p∈(0,1) ist defi- niert durch

P({k}) := (1−p)pk−1.

Beispiel. Angenommen, eine Firma produziere Bauteile, wobei p der Anteil der intakten Bauteile sei. Nun wird die Produktion gepr¨uft. Dann ist P({k}) die Wahr- scheinlichkeit daf¨ur, dass dask-te gepr¨ufte Bauteil das erste ist, das nicht in Ordnung ist.

Wir pr¨ufen die Normierungsbedingung leicht nach:

X

k=1

P({k}) = (1−p)

X

k=1

pk−1 = 1 (geometrische Reihe)

F¨ur ein EreignisA∈ P(N0) setzen wir P(A) := X

k:k∈A

P({k})

Poissonverteilung

(16)

F¨ur einen Parameter λ >0 sei

P({k}) = λk k!e−λ Dann ist wieder (Exponentialreihe P

k=0λk/k! =eλ)

X

k=0

P({k}) = 1

Selten auftretende Ereignisse sind oftmals poissonverteilt.

Beispiele1) Eine Bahnstrecke (100 km) wird auf Bruchstellen ¨uberpr¨uft. Dann ist die Anzahl der Bruchstellen poissonverteilt.

2) Jemand hat ermittelt (aufgrund von Angaben der preußischen Armee), wieviele Soldaten in 10 Kavallerieregimentern w¨ahrend eines Zeitraumes von 20 Jahren an den Folgen eines Pferdehuftritts gestorben sind. Es ergab sich in guter N¨aherung eine Poissonverteilung mit λ= 0.61.

3) Die Anzahl der in einer Telefonzentrale w¨ahrend eines bestimmten Zeitraumes eingehenden Anrufe ist poissonverteilt.

Beispiel 7 . Die AnzahlX der Tanker, die t¨aglich eine Raffinerie anlaufen, sei pois- sonverteilt mit Parameter λ = 3. Die Raffinerie kann t¨aglich bis zu 4 Tanker abferti- gen. Weitere Tanker m¨ussen abgewiesen werden und eine andere Raffinerie anlaufen.

(i) Was ist die wahrscheinlichste Anzahl von Tankern, die t¨aglich versuchen, die Raffinerie anzulaufen?

(ii) Mit welcher W’keit muss die Raffinerie an einem Tag mindestens einen Tanker abweisen?

(iii) Wie groß muss die Kapazit¨at der Raffinerie mindestens sein, damit an einem Tag mit W’keit 0.9 kein Tanker abgewiesen werden muss?

L¨osung. (i) Wir untersuchen die Zahlenak= 3k/k!. Es giltak+1/ak = 3/(k+1) <1, wennk≥3 und ak+1/ak = 3/(k+ 1)>1, f¨urk <2. Damit istak≤a3 = 27/6 = 9/2.

H¨ochstwahrscheinlich laufen 3 Tanker die Raffinerie an.

(ii) Diese W’keit ist P5 :=e−3

X

k=5

3k

k! = 1−e−3

4

X

k=0

3k

k! = 1−131

8 e−3 = 0.185 (iii) Gesucht ist eine Zahl m (m¨oglichst klein), so dass

e−3

X

k=m

3k

k! = 1−e−3

m

X

k=0

3k k! ≤0.1

(17)

Ab m= 5 haben wir

e−3

X

k=m

3k

k! = 1−e−3

m

X

k=0

3k

k! ≤0.09

Die Kapazit¨at der Raffinerie sollt also mindestens 5 Schiffe/Tag sein.

Die Binomial-und die Poissonverteilung sind miteinander verwandt

11.1.3 Hilfssatz.Die Binomialverteilung mit Parameternn, pl¨asst sich n¨aherungs- weise durch eine Poissonverteilung mit Parameter λ = np beschreiben, wenn nur n1 und p1:

P({k})≈ λk

k!e−λ, wennn−k 1 Beweis. Dazu benutzen wir die Stirlingsche Formel:

n!≈√

2πn(n/e)n Dann wird f¨urn−k1:

n k

pk(1−p)n−k = n!

(n−k)!

pk

k!(1−p)n−k

√2πn

p2π(n−k)e−k( n

n−k)n−k (np)k

k! (1−np n )n−k

√n

√n−ke−k

1 + k n−k

n−k

(np)k

k! (1−np n )n−k

√n

√n−ke−k

1 + k n−k

n−k

λk

k!(1− λ n)n−k

≈ λk k!e−λ

denn unter den obigen Voraussetzungen wird

√n

√n−ke−k

1 + k n−k

n−k

≈1, (1−λ

n)n−k ≈e−λ.

(18)

11.2 Allgemeine Wahrscheinlichkeitsr¨ aume

Definition. Es sei Ω irgendeine nichtleere Menge. Dann nennen wir ein System A von Teilmengen von Ω eine σ-Algebra, wenn gilt

σ1): Ω,∅ ∈ A,

σ2): Ist A∈ A, so auchAc∈ A,

σ3): Sind Aj, j = 1,2,3, ...Elemente von A, so auch∪j=1Aj ∈ A.

Beipiele. a) P(Ω) und {∅,Ω} sind σ-Algebren.

b) Der Durchschnitt zweier, endlich vieler oder auch beliebig vielerσ-Algebren ist wieder eine σ-Algebra.

c) Sei E ⊂ P(Ω) beliebig. Dann ist der Durchschnitt A(E) aller E enthaltenden σ-Algebren eineσ-Algebra, n¨amlich die kleinste solcheσ-Algebra. Man nennt sie auch die vonE erzeugte σ-Algebra.

Sehr wichtig wird f¨ur uns das n¨achste Beispiel

Definition. Ist Ω =R, undE die Menge aller Intervalle inR, so heißt B1 :=A(E) auch die Borelsche σ-Algebra. Die Mengen, die zur ihr geh¨oren, heißen Borelmengen.

Wahrscheinlichkeitsverteilungen werden in mathematisch fundierter Weise durch folgende Definition erfasst:

Definition. Ist Ω eine Menge und A eine σ-Algebra von Teilmengen von Ω, so nennt man eine FunktionP :A −→[0,1] ein Wahrscheinlichkeitsmaß (kurz W’maß), wenn gilt

(S) P(Ω) = 1, P(∅) = 0

(A) Sind A1, A2, A3, ...∈ A paarweise disjunkt, so gilt P ∪j=1Aj

=

X

j=1

P(Aj)

Das Tripel (Ω,A, P) wird als Wahrscheinlichkeitsraum bezeichnet.

In den F¨allen, in denen Ω abz¨ahlbar ist, kann man stets A = P(Ω) w¨ahlen! Die Definition der Wahrscheinlichkeit sieht im Falle eines ¨uberabz¨ahlbaren Ergebnisrau- mes Ω also nicht vor, dass jeder Teilmenge von Ω eine Wahrscheinlichkeit zugewiesen wird, sondern nur den zuAgeh¨orenden Mengen. Diese Einschr¨ankung ist n¨otig wegen der Eigenschaft (A), die man von einem Wahrscheinlichkeitsmaß verlangen muss, um analytische Methoden zur Verf¨ugung zu haben. Eine Funktion P mit Eigenschaft (A) kann im Allgemeinen nicht mehr auf ganz P(Ω) definiert werden, wenn etwa Ω = R zugelassen wird!

Hier haben wir ein paar Regeln, denen ein W’maß gehorcht:

(19)

11.2.1 Hilfssatz.Ist Ω irgendein Ergebnisraum und A eine σ-Algebra, so gilt f¨ur jedes W’maßP auf A:

a) P(A1 ∪A2 ∪...∪Ak) = P(A1) +P(A2) + ...+P(Ak), wenn A1, ..., Ak ∈ A paarweise disjunkt sind.

b) P(Ac) = 1−P(A), wenn A∈ A.

c) P(A∪B) =P(A) +P(B)−P(A∩B), wenn A, B ∈ A

Beweis. a) klar nach (A). Denn man w¨ahle Ak+1 = Ak+2 = ... = ∅ und benutze P(∅) = 0.

b) Folgt aus A∪Ac = Ω und (S).

c) Schreibe A1 =A∩B und A∪B = (A\A1)∪B. Letztere beiden Mengen sind disjunkt. Es folgt P(A∪B) = P(A\A1) +P(B), und weiter P(A\A1) +P(A1) = P((A\A1)∪A1) =P(A), also P(A\A1) =P(A)−P(A1) = P(A)−P(A∩B).

Wahrscheinlichkeitsverteilungen auf Ω =R

Zun¨achst definieren wir die Werte von Wahrscheinlichkeitsmaßen auf Intervallen.

Ist f :R−→[0,∞) st¨uckweise stetig (d.h.:f hat nur endlich viele Unstetigkeits- stellen a0 < a1 < ... < aN und f|[ak, ak+1] ist stetig f¨ur alle k = 0, ..., N −1 und Z

−∞

f(x)dx := lim

T→∞

Z T

−T

f(x)dx = 1), so setzen wir F(t) := Rt

−∞f(x)dx. Dann lehrt ein Satz aus der Wahrscheinlichkeitstheorie, dass es genau ein Wahrscheinlichkeitsmaß P aufB1 gibt mit

P([a, b)) = Z b

a

f(x)dx, a < b

Wir nennen die Funktion f die Wahrscheinlichkeitsdichtefunktion zuP. Hier sind wichtige Beispiele:

Normalverteilung N (µ, σ) mit Parameter µ und σ:

Seien µ∈Rund σ >0 fest. Als Wahrscheinlichkeitsdichtefunktion w¨ahlen wir fµ,σ(x) := 1

σ√

2πexp

−(x−µ)22

F¨ura < b setzen wir dann

P([a, b]) :=

Z b a

fµ,σ(x)dx Ist eine Messgr¨oße X nachN (µ, σ) verteilt, d.h., ist

P(a≤X ≤b) := 1 σ√

2π Z b

a

exp

−(x−µ)22

dx

(20)

so ist die verwandte Messgr¨oße Y := X−µσ nach N (0,1) verteilt, denn P(a≤X ≤b) = 1

σ√ 2π

Z b a

exp

−(x−µ)22

dx

= 1

√2π Z b−µσ

a−µ σ

exp

−y2 2

dx

= P(a−µ

σ ≤Y ≤ b−µ σ )

= Erf (b−µ

σ )−Erf (a−µ σ ) wobei Erf die Funktion

Erf (t) := 1

√2π Z t

−∞

e−x2/2dx

bedeutet und Fehlerfunktion genannt wird. Ihre Werte sind tabelliert.

Es gen¨ugt, die Werte Erf (t) f¨ur positivet zu kennen, denn es ist Erf (−t) = 1−Erf (t)

Beispiel. Angenommen, eine Firma K fertige Kondensatoren, deren Kapazit¨at normalverteilt sei mit Parametern µ = 100 und σ = 3. Ein Abnehmer ben¨otigt Kondensatoren mit einer Kapazit¨atX ∈[95,105]. Dann gilt f¨ur Y := X−1003

P(95 ≤X ≤105) = P(−1.667≤Y ≤1.667)

= Erf (1.667)−Erf (−1.667)

= 2Erf (1.667)−1

= 0.904

Die Exponentialverteilung: Istλ >0, so setzen wirfλ(x) = λe−λx, wennx≥0 und fλ(x) = 0, wenn x <0. und

P((a, b]) :=e−λa−e−λb, f ¨ur 0 < a < b

Beispiel. Die Lebensdauer X einer Leuchtstoffr¨ohre sei exponentialverteilt. Ange- nommen, es sei λ = 10−5. Die Wahrscheinlichkeit, dass diese R¨ohre erst nach 12000 Betriebsstunden ausf¨allt, ist dann

P(X ≥12000) = 1−P(0≤X ≤12000)

= e−0.12= 0.88

(21)

Die Weibullverteilung ist nach dem schwedischen Ingenieur Weibull benannt, der Ende der 40ger Jahre bei Zuverl¨assigkeitsuntersuchungen herausfand,dass die zuf¨allige Lebensdauer X von Verschleißteilen einer Verteilung vom folgenden Typ (mit positiven θ, β) unterliegt:

P(0≤X ≤t) = 1−exp

−(t θ)β

, t≥0

Beispiel. Angenommen, jemand habe neue Halogenscheinwerfer entwickelt und de- ren Lebensdauer sei weibullverteilt mitβ = 1.8 und ”charakteristischer Lebensdauer”

θ = 1100h. Dann erreicht ein Scheinwerfer mit W’keit p= exp

−( 700 1100)1.8

= 0,642≈62,4%

eine Lebensdauer von mindestens 700h.

Die Chi-Quadrat-Verteilung. F¨ur n∈N setzen wir auf R: gn(x) := 1

√2nanxn/2−1e−x/2,wenn x≥0

und gn(x) = 0 wenn x < 0. Dabei ist an = (n2 −1)!, wenn n gerade ist und an = 1·3·5·...·(n−2)2(n−1)/2

π, f¨ur ungeradesn. Alsχ2n-Verteilung bezeichnen wir dann das durch

χ2n((α, β]) = Z β

α

gn(x)dx gegebene Wahrscheinlichkeitsmaß.

Rechteckverteilung. Ist a < b, so setzen wir f(t) := b−a1 , wenn a ≤ t ≤ b und f(t) = 0 sonst. Dann definiert

P((α, β]) :=

Z β α

f(t)dt

ein W’maß. Wegen der Form der Wahrscheinlichkeitsdichtefunktion f spricht man von einer Rechteckverteilung.

11.2.1 Bedingte Wahrscheinlichkeiten

Angenommen, ein Zufallsexperiment werde im mathematischen Modell durch den W’keitsraum (Ω,A, P) beschrieben. Manchmal kommt es vor, dass das Eintreten

(22)

eines Ereignisses B ∈ A die W’keit eines anderen Ereignisses A ∈ A beeinflusst. Ist P(B)>0, so definieren wir die bedingte Wahrscheinlichkeit f¨ur das Eintreten von A unter der Bedingung, es trete B ein, als

P(A|B) := P(A∩B) P(B) Dann ist also stets P(B|B) = 1. Weiter wird

P(A∩B) +P(Ac∩B) = P(B), P(Ac|B) = 1−P(A|B) Dazu sehen wir uns Beispiele an:

Beispiel 8 . Auf einer Bundesstraße der Gesamtl¨ange von 500 km ereignen sich je 100 km und Tag durchschnittlich 0.05 Unf¨alle.

(i) Mit welcher W’keit ereignet sich auf der Bundesstraße je Tag mindestens 1 Unfall?

(ii) Mit welcher W’keit ereignen sich auf der Bundesstraße je Tag genau 3 Unf¨alle unter der Bedingung, dass mindestens einer eintritt?

L¨osung. Dazu gehen wir von einer Poissonverteilung f¨ur die Anzahl der Unf¨alle pro Tag aus. Die W’keit, dass sich k Unf¨alle auf der Straße ereignen, ist dann

P({k}) = λk k!e−λ mit λ= 0.25.

(i) Mit W’keit 1−P({0}) = 1−e−λ = 0.221 passiert jeden Tag mindestens ein Unfall.

(ii) SeiAdas Ereignis ”genau 3 Unf¨alle” undBdas Ereignis ”mindestens 1 Unfall”.

Dann ist gesucht

P(A|B) = P(A∩B) P(B) So finden wir

P(A|B) = P(A)

P(B) = λ3e−λ

6(1−e−λ) = 0.015

(23)

Beispiel 9 Angenommen, eine Fabrik fertigt gewisse Schrauben mit Hilfe von 3 Ma- schinen, die wir M1, M2, M3 nennen. Dabei ist bekannt, dass Maschine Mj einen Produktionsanteil pj und eine Ausschussquoteqj hat.

1. Frage: Mit welcher W’keit ist dann eine zuf¨allig der Produktion entnommene Schraube defekt?

Man wird nun mit folgenden Ereignissen arbeiten wollen: Bj bedeutet das Er- eignis, dass die entnommene Schraube von Mj hergestellt ist, und A bedeute das Ereignis, dass die Schraube defekt ist. Hier wird A durch Bj beeinflusst und es gilt f¨ur die W’keit, dass eine von Mj hergestellte Schraube defekt ist: P(A|Bj) = qj, f¨ur j = 1,2,3. Ferner kennt man die W’keit P(Bj), dass die Schraube von Mj stammt:

P(Bj) = pj. Da nun die Schraube in jedem Fall von einer der 3 MaschinenM1, M2, M3 stammen muss, wird man die W’keit, dass sie defekt ist, mit

P(A) =P(A|B1)P(B1) +P(A|B2)P(B2) +P(A|B3)P(B3) =p1q1+p2q2+p3q3 beziffern.

(Beispiel: Wenn M1 den Produktionsanteil 25% und die Fehlerquote 5% und ent- sprechend M2 die Werte 40% und 2% aufweist und f¨ur M3 die Werte 35% und 4%

gelten, so wird

P(A) = 0.05·0.25 + 0.02·0.4 + 0.04·0.35 = 0.0345 also im Schnitt 3.5% Fehlerquote)

2. Frage. Angenommen, man entnimmt eine Schraube, und diese sei defekt. Mit welcher W’keit stammt sie von der Maschine M1?

Zur Beantwortung dieser Frage rechnen wir aus P(B1|A) = P(A∩B1)

P(A) = P(A|B1)P(B1) P(A)

= p1q1

p1q1 +p2q2+p3q3 Im obigen Zahlenbeispiel ist das

P(B1|A) = 0.0125

0.0345 = 0.362

Beispiel 10 Angenommen, man wendet zur Pr¨ufung von Schaltkreisen ein bestimm- tes Verfahren an. Die Erfahrung lehrt, dass dieses mit W’keit 0.9 keinen Fehler anzeigt, wenn der Schaltkreis fehlerfrei ist und mit W’keit 0.95 einen Fehler anzeigt, wenn der Schaltkreis fehlerhaft ist. Die W’keit, dass ein Schaltkreis defekt ist, sei 0.04.

(24)

1. Frage Mit welcher W’keit zeigt das Verfahren einen defekten Schaltkreis an?

2. Frage:Mit welcher W’keit ist ein Schaltkreis wirklich defekt, wenn das Pr¨ufver- fahren einen Fehler behauptet hat?

Wieder arbeitet man mit 2 Ereignissen die einander bedingen: A bedeute: Das Pr¨ufverfahren zeigt einen Fehler an. Das EreignisBbestehe darin, dass der Schaltkreis einen Fehler hat.

Man kennt die ”bedingte W’keit ” P(A|B), dass berechtigterweise der Schaltkreis als fehlerhaft eingestuft wird:P(A|B) = 0.95. Ebenso hat manP(A|Bc) = 0.1 als die W’keit, dass f¨alschlicherweise ein Fehler angezeigt wird. Man wird dem Ereignis, dass ein Fehler angezeigt wird, wieder das gewichtete Mittel der W’keiten, also

P(A) =P(A|B)P(B) +P(A|Bc)P(Bc) = 0.95·0.04 + 0.1·0.96 = 0.134 als Eintretensw’keit zuweisen.

Zur 2. Frage: Es ist

P(B|A) = P(A∩B)

P(A) = P(A|B)P(B)

P(A) = 0.95·0.04

0.134 = 0.283

Das bedeutet: Nur etwa jeder 4. als defekt angezeigte Schaltkreis ist auch wirklich defekt. Das Ergebnis kann auf die kleine Zahl der defekten Schaltkreise zur¨uckgef¨uhrt werden und zeigt an, dass das Pr¨ufverfahren ”¨ubervorsichtig” genannt werden kann.

Auf der anderen Seite ist die W’keit, dass ein fehlerfrei gemeldeter Schaltkreis auch wirklich fehlerfrei ist:

P(Bc|Ac) = P(Bc∩Ac)

1−P(A) = P(Ac|Bc)P(Bc)

1−P(A) = 0.9·0.96

1−0.134 = 0.997 was f¨ur die Verl¨asslichkeit des Verfahrens spricht.

Vom folgenden Satz haben wir bei den Beispielen schon Gebrauch gemacht:

11.2.2 Hilfssatz. (Formel von Bayes) Sind B1, ..., Bn ∈ A Ereignisse, welche sich paarweise ausschließen, also Bi∩Bj =∅ f¨uri6=j, so dass aber Ω =B1∪...∪Bn, so gilt f¨ur jedes weitere EreignisA∈ A:

P(A) =P(A|B1)P(B1) +...+P(A|Bn)P(Bn) Ferner ist

P(Bj|A) = P(A|Bj)P(Bj)

P(A|B1)P(B1) +...+P(A|Bn)P(Bn)

(25)

Beweis. Denn es ist

P(A|B1)P(B1) +...+P(A|Bn)P(Bn) = P(A∩B1) +...+P(A∩Bn)

= P(A∩(B1∪+...+Bn)) = P(A) [a,b))= Die 2. Formel folgt aus dieser und der Definition von P(Bj|A):

P(Bj|A) = P(A∩Bj)

P(A) = P(A|Bj)P(Bj) P(A)

11.2.2 Stochastische Unabh¨ angigkeit

Definition. Ist (Ω,A, P) ein Wahrscheinlichkeitsraum, so nennen wir 2 Ereignisse B1, B2 ∈ A (stochastisch) unabh¨angig, wenn

P(B1|B2) =P(B1), P(B2|B1) = P(B2) also

P(B1∩B2) =P(B1)P(B2) gilt.

Dieser Begriff muss durch induktive Definition f¨ur endlich viele EreignisseB1, ..., Br ∈ A erkl¨art werden, n¨amlich: Die Ereignisse B1, ..., Br sind stochastisch unabh¨angig, wenn f¨ur jedesk < r irgendwelchek der EreignisseB1, ..., Br stochastisch unabh¨angig sind und weiterP(B1∩...∩Br) = P(B1)·...·P(Br) gilt.

Beispiel. a) Sollen 3 Ereignisse B1, B2, B3 stochastisch unabh¨angig sein, so muss gepr¨uft werden, ob

P(B1∩B2) =P(B1)P(B2), P(B1∩B3) = P(B1)P(B3), P(B2∩B3) =P(B2)P(B3) und

P(B1∩B2∩B3) =P(B1)P(B2)P(B3) gilt.

b) Angenommen, es werde mit 2 W¨urfeln gew¨urfelt. Dabei sei B1 das Ereignis, dass die Gesamtaugenzahl ≥8 ist,B2 bedeute das Ereignis, sie sei gerade undB3 sei das Ereignis, sie sei 10 oder 12. Dann haben wir folgendes

P(B1) = 1 + 2 + 3 + 4 + 5

36 = 5

12, P(B2) = 1 + 3 + 5 + 5 + 3 + 1

36 = 1

2, P(B3) = 1 9

(26)

P(B1∩B2) = 1 + 3 + 5

36 = 1

4 6= 5

24 =P(B1)P(B2) P(B1 ∩B3) =P(B3) = 1

9 6=P(B1)P(B3) P(B2 ∩B3) =P(B3) = 1

9 6=P(B2)P(B3)

Also sind keine 2 der 3 Mengen B1, B2 und B3 stochastisch unabh¨angig.

11.3 Erwartungswert und Varianz bei Zufallsva- riablen

Waren wir davon ausgegangen, dass eine Zufallsgr¨oße jeden Wert mit einer gewis- sen Wahrscheinlichkeit annimmt, so liegt es nahe, ihr einen geeigneten gewichteten Mittelwert zuzuweisen.

Definition. Angenommen, es sei X eine reelle Zufallsvariable mit Wertemenge Ω, und eine σ-Algebra Auber Ω, auf der eine W’verteilung¨ PX definiert sein soll. Dann definieren wir den Erwartungswert E(X) wie folgt:

1) Wenn Ω = {aj : j ∈N0}diskret ist und die Reihe P

j=0|aj|PX({aj})<∞:=

limm→∞Pm

j=0|aj|PX({aj}), so sei E(X) =

X

j=0

ajPX({aj}) := lim

m→∞

m

X

j=0

ajPX({aj})

2) Wenn X = R und eine stetige Funktion g : R −→ R+0 mit PX((a, b]) = Rb

a g(t)dt existiert, so setzen wir

E(X) = Z

−∞

xg(x)dx, sofern das Integral R

−∞|x|g(x)dx:= limM−→∞RM

−M|x|g(x)dx endlich ist.

Ist f¨ur die Zufallsgr¨oße X auch E(X2) endlich, so setzen wir V(X) :=E(X2)−(E(X))2

Eine gleichwertige Beschreibung dieser ”Varianz” genannten Gr¨oße ist V(X) = E((X−E(X) )2).

(27)

F¨ur die wichtigen Verteilungen k¨onnen wir Erwartungswert und Varianz ausrech- nen.

Beispiele. a) Laplaceverteilung auf Ω ={a1, ...., an}. Nun ist E(X) =

n

X

j=1

ajPX({aj}) = 1 n

n

X

j=1

aj

und

V(X) = 1 n

n

X

j=1

a2j − 1 n2

n

X

j=1

aj

!2

= 1 n2

X

ν<`

(aν −a`)2

b) Bernoulliverteilung auf Ω = {0, .., n} mit Parametern p ∈ (0,1) und n ∈ Z+. Nun ist

E(X) =

n

X

k=1

kPX({k}) =

n

X

k=1

k n

k

pk(1−p)n−k

= np

n

X

k=1

n−1 k−1

pk−1(1−p)n−k

= np

n−1

X

l=0

n−1 l

pl(1−p)n−1−l

= np und zur Berechnung der Varianz:

E(X2) =

n

X

k=1

k2n k

pk(1−p)n−k

= np

n−1

X

l=0

(l+ 1)

n−1 l

pl(1−p)n−1−l

= np

n−1

X

l=1

l

n−1 l

pl(1−p)n−1−l

| {z }

=(n−1)p

+np

n−1

X

l=0

n−1 l

pl(1−p)n−1−l

| {z }

=1

= np(n−1)p+np

= (np)2−np2 +np Es folgt

V(X) = (np)2−np2+np−(np)2 =np(1−p)

(28)

c) Poissonverteilung. Jetzt wird Ω =N0 und daher E(X) =

X

k=1

e−λk k! =λ

X

k=1

e−λ λk−1 (k−1)! =λ Ahnlich errechnet man¨

E(X2) =λ2+λ, also V(X) =λ

d) Hypergeometrische Verteilung mit Parametern n, d und s. K¨urzen wir ab: ν= min{s, d}, so gilt wegen ns ns

= n−1s−1 : n

s

E(X) =

ν

X

k=1

k d

k

n−d s−k

= d

ν

X

k=1

d−1 k−1

n−1−(d−1) (s−1)−(k−1)

= d

ν−1

X

l=0

d−1 l

n−1−(d−1) (s−1)−l

= d

n−1 s−1

= ds n

n s

also E(X) = ds/n.

Der Erwartungswert f¨urX2 wird ¨ahnlich berechnet n

s

E(X2) =

ν

X

k=1

k2 d

k

n−d s−k

= d

ν

X

k=1

k

d−1 k−1

n−1−(d−1) (s−1)−(k−1)

= d

ν−1

X

l=1

l

d−1 l

n−1−(d−1) (s−1)−l

+d

ν−1

X

l=0

d−1 l

n−1−(d−1) (s−1)−l

| {z }

=ns(ns)

= d(d−1)

ν−1

X

l=1

l

d−2 l−1

n−2−(d−2) (s−2)−l

| {z }

=(n−2s−2)=n(n−1)s(s−1)(ns)

+ds n

n s

=

d(d−1)s(s−1) n(n−1) +ds

n n

s

(29)

Es folgt

V(X) =E(X2)−(E(X))2 = ds

n2(n−1)(n−d)(n−s)

e) Normalverteilung. Nun istg(t) = σ1exp(−(x−µ)2/2σ2). Wir erhalten leicht:

E(X) = Z

−∞

tg(t)dt

= µ

Z

−∞

g(t)dt

| {z }

=1

+ Z

−∞

(t−µ)g(t)dt

= µ+ 1

σ√ 2π

Z

−∞

xexp(−x2/2σ2)dx

| {z }

=0

= µ

und

V(X) = Z

−∞

(t−µ)2g(t)dt

= σ2

√2π Z

−∞

x σ

2

exp(−x2/2σ2)1 σdx

= σ2

√2π Z

−∞

x2exp(−x2/2)dx

= σ2 denn das Integral ist gerade =√

2π. Dazu beachten wir nur, dass Z M

−M

x2exp(−x2/2)dx =

Z M

−M

(−x)·(−xexp(−x2/2) )dx

= (−x)·exp(−x2/2)

M

−M + Z M

−M

exp(−x2/2)dx

−→

Z

−∞

exp(−x2/2)dx=√

2π (M → ∞)

Der Erwartungswert ist linear:

(30)

11.3.1 Hilfssatz. Sind X und Y Zufallsvariable mit Ergebnisraum Ω⊂R, so gilt a) E(X+aY) =E(X) +aE(Y)

a’) E(aX+b) = aE(X) +b b)V (aX +b) =a2V (X), wenna6= 0, b∈R, und c)

E X−E(X) pV(X)

!

= 0,V X−E(X) pV(X)

!

= 1.

Beweis.Wir zeigen (a) f¨ur diskreteX undY. Es giltP(X+Y =z) = X

x+y=z

P(X = x, Y =y). Also

E(X+Y) = X

z

zP(X+Y =z)

= X

z

X

x+y=z

(x+y)P(X =x, Y =y)

= X

x

x X

y

P(X =x, Y =y)

!

+X

y

y X

x

P(X =x, Y =y)

!

= X

x

P(X =x) +X

y

yP(Y =y) = E(X) +E(Y)

Analog zeigt man E(aX) = aE(X). Daraus folgt (a). (a’) ist ein Spezialfall davon (Y = 1).

Zu (b) (aX+b)2 =a2X2+b2+ 2abX, alsoV(aX+b) = a2E(X2) + 2abE(X) +b2, da auch E(aX+b)2 =a2E(X)2+ 2abE(X) +b2. Die Differenzbildung liefert (b). (c) ist nun klar.

Es ist wichtig zu wissen, wie man die Varianz einer Summe von endlich vielen Zufallsvariablen berechnen kann. Voraussetzung ist aber hierf¨ur die Unabh¨angigkeit dieser Zufallsvariablen. Damit meinen wir folgendes:

Definition. Angenommen, es seien X1, X2, ..., Xn Messgr¨oßen mit Ergebnisraum Ω ⊂ R, welche derselben Verteilung P : A −→ [0,1] unterliegen, es gebe also ein W’maßP auf einerσ-AlgebraAuber Ω, so dass die W’keit, dass¨ Xj Werte in B ∈ A, unabh¨angig von j durch P(B) gegeben ist.

Dann nennen wir X1, ..., Xn ( stochastisch) unabh¨angig, wenn f¨ur irgendwelche Mengen B1, B2, ..., Bn ∈ A die Ereignisse {X1 ∈ B1}, ....,{Xn ∈ Bn} stochastisch unabh¨angig sind, d.h., wenn f¨ur alle 1 ≤i1 < i2 < ... < ik ≤n und k ≤n gilt

P({Xi1 ∈Bi1, Xi2 ∈Bi2, ..., Xik ∈Bik}) = P(Xi1 ∈Bi1)·...·P(Xik ∈Bik) gilt.

(31)

Beispiel. a) Wiederholen wir eine Messung n-mal, und ist Xj das Ergebnis der j-ten Messung, so sind X1, ..., Xn unabh¨angig.

b) W¨urfeln wirn-mal, so sind die Resultate der Einzelw¨urfe unabh¨angig.

Damit kann man folgendes zeigen:

11.3.2 Satz. Sind X, Y zwei unabh¨angige Zufallsvariablen, so ist a)

E(XY) =E(X)E(Y) b)

E( (X−E(X) )( (Y −E(Y) ) = 0

Beweis. Wir beweisen das nur f¨ur den Fall, dass Ω abz¨ahlbar ist. Ist also Ω = {tj|j ∈N}, so kann XY nur Werte der Formtitj annehmen. Wir erhalten daher

E(XY) = X

i,j

titjP(X =ti, Y =tj)

= X

i,j

titjP(X =ti)P(Y =tj)

= X

i

tiP(X =ti) X

j

tjP(Y =tj)

= E(X)E(Y) b) folgt leicht aus a):

E( (X−E(X) )( (Y −E(Y) ) = E(XY −XE(Y)−YE(X) +E(X)E(Y) )

= E(X)E(Y)−2E(X)E(Y) +E(X)E(Y) = 0

11.3.3 Folgerung. Sind endlich viele Zufallsvariablen X1, ..., Xn unabh¨angig und haben endliche Varianz, so ist

a)

V(X1+...+Xn) = V(X1) +· · ·+V(Xn)

Insbesondere gilt, wenn alle Xj identisch verteilt sind und wir mit X das arith- metische Mittel von X1, ..., Xn bezeichnen, also X = n1(X1+...+Xn):

b)

E(X) =µ:=E(X1) V(X) = 1

nV(X1)

(32)

c) Der Erwartungswert von

s(X1, ..., Xn)2 := 1 n−1

n

X

j=1

(Xj−X)2 ist gerade V(X1).

Beweis. Zu a) Mit dem Satz erhalten wir:

E( (X1+...+Xn)2) =

n

X

i,j=1

E(XiXj)

=

n

X

i=1

E(Xi2) +X

i6=j

E(XiXj)

=

n

X

i=1

E(Xi2)−

n

X

i=1

(E(Xi) )2+

n

X

i,j=1

E(Xi)E(Xj)

=

n

X

i=1

V (Xi) +

n

X

i=1

E(Xi)

!2

=

n

X

i=1

V (Xi) + E

n

X

i=1

Xi

! !2

Subtrahieren wir auf beiden Seiten noch (E (Pn

i=1Xi) )2, so erscheint links die Varianz von X1+...+Xn.

Zu b) Klar.

Zu c) Es gilt zun¨achst:

n−1

n s(X1, ..., Xn)2 = 1 n

n

X

j=1

Xj2−2X Xj+X2

!

= 1 n

n

X

j=1

Xj2− X2 und ferner

E(X2) = 1 n2

n

X

i,j=1

E(XiXj)

= 1

n2

n

X

i=1

E(Xi2) + 1 n2

n

X

i6=j

E(Xi)E(Xj)

= 1

n2

n

X

i=1

E(X12) + 1 n2

n

X

i6=j

(E(X1) )2

= 1

nE(X12) + n−1

n (E(X1) )2

Referenzen

ÄHNLICHE DOKUMENTE

Wahrscheinlichkeitsrechnung auf den Kopf gestellt: In diesem Beitrag finden die Schü- lerinnen und Schüler zu vorgegebenen Ereignissen und Wahrscheinlichkeiten heraus, ob

Da bei den Erneuerungsarbeiten als wertvermeh- rende Massnahmen kaum eine Trennung des Auf- wandes für Unterhalt und Anpassung gemacht werden kann, sieht die Verordnung zum

flotkirohe in lnrkt Pongau nach den Brnnde 1855 ... Einsturz der Kirche in Markt Pongau

übergeordnete Planungsgruppen zu beraten und Werkstattdaten sowie Produktionsergebnisse in die Planungsprozesse einzubringen.. Ihnen fehlt Basiswissen in Mathematik, Physik, Chemie

Dann können Sie dies im Kurs Fit für den Fachwirt auffrischen, entweder in Präsenz Fit für den Fachwirt/Präsenz oder online Fit für den Fachwirt, Online..

Die nächste Online-Infoveranstaltung findet am Mittwoch, den 15.12.2021 ab 18:00 Uhr über Zoom statt. Den Zugangslink erhalten Sie nachdem wir Ihre Anmeldung bearbeitet

Durch meine Unterschrift erkläre ich, dass die diesem Schreiben beigefügte Projektarbeit von mir selbständig konzipiert, verfasst und angefertigt wurde.. Ich nehme zur Kenntnis,

9.5.2 Maschinen und Geräte mit chemi- schen