Alea iacta est!
Wahrscheinlichkeitstheorie
"Wissenschaftliche Theorien, die auf Eigenschaften
einer großen Zahl von Individuen rekurrieren, [...] werden anfällig gegen Fehlinterpretationen, wenn man die zufällige
Natur ihrer Beweisgrundlagen aus dem Auge verliert.
"
Ronald Aylmer Fisher (1890-1962)
Ein Ereignis wird als zufällig
bezeichnet, wenn sein Ausgang
variabel und nicht vorhersagbar ist.
Pierre-Simon Laplace (1749-1827)
Die klassische Interpretation
Die Wahrscheinlichkeit eines Ereignisses ist das Verhältnis zwischen der Anzahl günstiger und
möglicher Ausgänge eines Zufallsexperiments.
Beispiel: Mit einem Würfel soll eine 5 geworfen werden. Von den sechs möglichen
Ausgängen des Wurfs ist hierfür nur einer günstig. Also beträgt die Wahrscheinlichkeit
für "die Augenzahl lautet 5" ein Sechstel.
John Venn (1834-1923)
Die frequentistische Interpretation
Die Wahrscheinlichkeit eines Ereignisses in einer Serie von Versuchen ist der Grenzwert der relativen Häufigkeit des Ereignisses.
Beispiel: Wirf einen Würfel sehr oft und notiere jedes mal die Augenzahl. Die relative
Häufigkeit von "die Augenzahl lautet 5" ist ungefähr ein Sechstel. Der Grenzwert der relativen Häufigkeit ist genau ein Sechstel.
Frank P. Ramsey (1903-1930)
Die subjektive Interpretation
Wahrscheinlichkeit ist ein Maß für den Glauben an den Eintritt eines
Ereignisses.
Beispiel: Nimm an Du wettest, dass die Augenzahl 5 lautet. Du setzt einen Dollar ein und bekommst sechs Dollar zurück, wenn Du
gewinnst. Diese Wette empfindest Du als fair.
Andrej N. Kolmogorov (1903-1987)
Die axiomatische Interpretation
Eine Wahrscheinlichkeit ist etwas, was die Axiome der
Wahrscheinlichkeitstheorie erfüllt.
Es sei Ω eine nicht leere Menge und ∆ eine Familie von
Teilmengen von Ω, die Ω enthält und die abgeschlossen ist bezüglich der Komplementbildung und Vereinigung von
Mengen. Es sei P eine Abbildung von ∆ in die reellen Zahlen mit den folgenden Eigenschaften:
1. Nicht-Negativität P(A) ≥ 0 für alle A ∈ ∆ 2. Normalität P(Ω) = 1
3. Additivität P(A1∪A2∪...) = P(A1)+P(A2)+...
für alle A1, A2, ... ∈ ∆ mit Ai∩Aj = Ø P heißt "Wahrscheinlichkeitsfunktion" und (Ω, ∆, P) ist ein so genannter "Wahrscheinlichkeitsraum".
Kolmogorovs Axiome
Grundbegriffe der Wahrscheinlichkeitsrechnung (1933)
{1,2,3,4,5,6}
{1,2,3,4,5} {1,2,3,4,6}
{1,2,3,5,6} {1,2,4,5,6}
{1,3,4,5,6} {2,3,4,6,5}
{1,2,3,4} {1,2,3,5} {1,2,3,6}
{1,2,4,5} {1,2,4,6} {1,2,5,6}
{1,3,4,5} {1,3,4,6} {1,3,5,6}
{1,4,5,6} {2,3,4,5} {2,3,4,6}
{2,3,5,6} {2,4,5,6} {3,4,5,6}
{1,2,3} {4,5,6} {1,2,4} {3,5,6}
{1,2,5} {3,4,6} {1,2,6} {3,4,5}
{1,3,4} {2,5,6} {1,3,5} {2,4,6}
{1,3,6} {2,4,5} {1,4,5} {2,3,6}
{1,4,6} {2,3,5} {1,5,6} {2,3,4}
{1,2} {1,3} {1,4} {1,5}
{1,6} {2,3} {2,4} {2,5}
{2,6} {3,4} {3,5} {3,6}
{4,5} {4,6} {5,6}
{1} {2} {3}
{4} {5} {6}
Ø
Ω
P=6/6 P=4/6 P=2/6
P=5/6 P=3/6 P=1/6
P=0/6
∆
Würfelspiel
Maßtheoretische Sicht der Wahrscheinlichkeit
A∪B: Ereignis A oder Ereignis B oder beide treten ein.
A∩B: Ereignisse A und B treten gleichzeitig ein.
AC: Das Komplement (Gegenteil) von Ereignis A tritt ein.
P(A)+P(AC) = P(A∪AC) = P(Ω) = 1 P(AC) = 1-P(A) P(A∪B) = P(A)+P(B)-P(A∩B)
A
CA
Ω Ω Ω
Ω Ω Ω Ω Ω
B
A
Unabhängigkeit von Ereignissen
Zwei Ereignisse A und B heißen "unabhängig", wenn P(A∩B) = P(A)⋅P(B)
Etwa 25% der erwachsenen US-Amerikaner haben einen erhöhten Blutdruck. (A)
Etwa 20% der erwachsenen US-Amerikaner haben erhöhte Blutfettwerte. (B)
Etwa 17% der erwachsenen US-Amerikaner sind hypertensiv und hyperlipidämisch. (A∩B)
P(A∩B) = 0.17 > 0.05 = 0.25⋅0.20 = P(A)⋅P(B) Blutdruck und Blutfette
Zufallsvariable
... bilden komplexe Zufallsereignisse aus der Realität auf eine einfache (meistens numerische) Skala ab.
X: Häufigkeit, mit der die ersten fünf Würfel die Augenzahl 6 zeigen
X = 2
eine "Realisierung" von X
Diskrete Zufallsvariable
f(a)=P(X=a) für alle möglichen Werte a von X Wahrscheinlichkeitsfunktion von X
X: Häufigkeit, mit der die ersten fünf Würfel die Augenzahl 6 zeigen
X = 2
eine "Realisierung" von X
Binomialverteilung Bin(n, π )
Modell: n unabhängige Wiederholungen eines Experiments mit binärem Ausgang ("Erfolg", "Misserfolg") und konstanter Erfolgswahrscheinlichkeit π bei jeder Wiederholung
X: Anzahl der Erfolge
"Binomialkoeffizient"
k n k
( 1 ) k
) n k X
( P )
k (
f ⋅ π − π
−
=
=
=
)!
k n (
! k
! n )
k n ( ...
2 1 k ...
2 1
n ...
2 1 k
n
= −
−
⋅
⋅
⋅
⋅
⋅
⋅
⋅
⋅
⋅
= ⋅
Münzwurf
π⋅(1-π)⋅π⋅(1-π)⋅π=π3⋅(1-π)2 (1-π)⋅π⋅π⋅(1-π)⋅π=π3⋅(1-π)2 n=5, k=3
1 2 3 4 5
Wieviel verschiedene Möglichkeiten gibt es, aus 5 Positionen genau 3 Positionen auszuwählen?
! 2
! 3
! 5 1
2 1 2 3
1 2 3 4 10 5
1 2 3
3 4 5
= ⋅
⋅
⋅
⋅
⋅
⋅
⋅
⋅
= ⋅
⋅ =
⋅
⋅
⋅
Ein Antibiotikum wirkt bei 85% aller Patienten mit einer bestimmten Krankheit. Mit welcher Wahrscheinlichkeit
werden mindestens 8 von 10 Patienten durch das Medikament geheilt?
n=10, π=0.85, k=8, 9 oder 10 P(X≥8) = f(8) + f(9) + f(10) =
= 108 0.8580.152 + 10
9 0.8590.151 + 10
10 0.85100.150
= 45⋅0.272⋅0.023 + 10⋅0.232⋅0.150 + 1⋅0.197⋅1.000
= 0.820
Wirksamkeit von Antibiotika
k
0 1 2 3 4 5 6 7 8 9 10
f(k)
0.0 0.1 0.2 0.3 0.4
Wahrscheinlichkeitsfunktion
Bin(10,0.85)
Stetige Zufallsvariable
F(b)=P(X≤b) für reelle Zahlen b Verteilungsfunktion von X
X = 22.5
-4 -3 -2 -1 0 1 2 3 4 0,0
0,2 0,4 0,6 0,8 1,0
F(b)
b
0≤F(b)≤1
F(b) ist monoton wachsend
Verteilungsfunktion
Verteilung einer
stetigen Zufallsvariablen
b
f(x) "Dichte"
x y
b a
y
x
∫
∞
−
=
bf ( x ) dx )
b ( F
) a ( F )
b ( F )
b X
a (
P < ≤ = −
Unabhängigkeit von Zufallsvariablen
Zwei Zufallsvariable X und Y
heißen "stochastisch unabhängig", wenn P(X≤a,Y≤b) = P(X≤a)⋅P(Y≤b)
für jede Auswahl reeller Zahlen a und b.
Beispiele
X: Blutdruck Y: Blutfettwerte X: Body-Mass-Index
Y: Alter
nicht unabhängig unabhängig
X: Körpergröße
Y: Untersuchungszeitpunkt X: Geschlecht
Y: Haarfarbe
Unabhängigkeit von Zufallsvariablen
Erwartungswert E(X)
stetig diskret
Der Erwartungswert (oder das "Populationsmittel") einer Zufallsvariablen gibt ihren durchschnittlichen bzw. zentralen
Wert an. Er fasst wesentliche Charakteristika der Verteilung der Variablen in einer Kennzahl zusammen.
http://www.stats.gla.ac.uk/steps/glossary/index.html
∑ ⋅ =
=
a
) a X
( P a )
X (
E
+∞∫
∞
−
⋅
= x f ( x ) dx )
X
(
E
E(X) = 1⋅1/6 + 2⋅1/6 + 3⋅1/6 + 4⋅1/6 + 5⋅1/6 + 6⋅1/6 = 3.5 X: Augenzahl in einem Wurf
E(Y) = 2⋅1/36 + 3⋅2/36 + 4⋅3/36 + 5⋅4/36 + 6⋅5/36 + 7⋅6/36 + 8⋅5/36 + 9⋅4/36 + 10⋅3/36 + 11⋅2/36 + 12⋅1/36 = 7
Y: Summe der Augenzahl in zwei Würfen Würfelspiel
Gesetz der Großen Zahlen
X1, X2, …, Xn unabhängig und identisch verteilt mit E(X1) = ... = E(Xn) = µ
wenn n sehr groß wird
µ + →
= +
n
X ...
X X
1 n1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0 5.5
n=10 n=100 n=500
100 Wiederholungen Xi: Augenzahl eines einzelnen Wurfs (i=1,...,n)
X : durchschnittliche Augenzahl
Würfelspiel
X
Varianz Var(X)
Var(X) = E([X-E(X)]2)
Var(X) "Standardabweichung"
Die Varianz einer Zufallsvariablen ist eine nicht negative reelle Zahl, die einen Eindruck von der zu erwartenden
Streuung der Realisierungen einer Zufallsvariablen
vermittelt. Je größer die Varianz, umso verstreuter werden diese Beobachtungen sein.
http://www.stats.gla.ac.uk/steps/glossary/index.html
E(X1)
E(X2)
Var(X1) < Var(X2)
Varianz Var(X)
Var(X) = (1-3.5)2⋅1/6 + (2-3.5)2⋅1/6 + (3-3.5)2⋅1/6 +
(4-3.5)2⋅1/6 + (5-3.5)2⋅1/6 + (6-3.5)2⋅1/6 = 2.9
Var(Y) = (2-7)2⋅1/36 + (3-7)2⋅2/36 + (4-7)2⋅3/36 + (5-7)2⋅4/36 + (6-7)2⋅5/36 + (7-7)2⋅6/36 + (8-7)2⋅5/36 + (9-7)2⋅4/36 + (10-7)2⋅3/36 + (11-7)2⋅2/36 + (12-7)2⋅1/36 = 5.8
X: Augenzahl in einem Wurf
Y: Summe der Augenzahl in zwei Würfen Würfelspiel
Einige Rechenregeln
E(X+Y) = E(X) + E(Y) Var( α⋅ X) = α
2⋅ Var(X)
E( α⋅ X) = α⋅ E(X)
Var(X+Y) = Var(X) + Var(Y) wenn X und Y unabhängig sind
E(X ⋅ Y) = E(X) ⋅ E(Y)
Normalverteilung N( µ , σ
2)
2 2
2 ) x
(
2 e ) 1
x (
f
σµ
− −
π
= σ
) X ( Var ),
X (
E σ
2=
=
µ
Standard-Normalverteilung N(0,1)
z 0 1 2 3 4 5 6 7 8 9
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359 0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753 0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141 0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517 0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879 0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224 0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549 0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852 0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133 0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389 1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621 1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830 1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015 1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177 1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319 1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441 1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545 1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633 1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706 1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767 2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
P(Z ≤ z)= Φ (z)
Standardisierung von N( µ , σ
2)
σ µ
= X − Z
b ) ( )
b (
F σ
µ Φ −
=
eine Standard-Normalverteilung.
Für die Verteilungsfunktion F(b) von X gilt
Wenn X normalverteilt ist mit Erwartungswert µ und Varianz σ2, dann hat die Zufallsvariable
Blutdruck
Der diastolische Blutdruck von Normalpersonen sei normalverteilt mit Erwartungswert µ=80 mmHg und Standardabweichung σ=10 mmHg. Mit welcher Wahrscheinlichkeit weist eine zufällig ausgewählte Normalperson einen Blutdruck zwischen 70 mmHg
und 85 mmHg auf?
10 ) 80 ( 70
10 ) 80
( 85 − − Φ − Φ
=
1587 .
0 6915
. 0 )
1 ( )
5 . 0
( − Φ − = −
Φ
=
5328 .
= 0
) 70 ( F )
85 ( F )
85 X
70 (
P ≤ ≤ = −
Standard-Normalverteilung N(0,1)
P(-1.00≤Z≤+1.00) = 0.68 P(µ-σ≤X≤µ+σ) = 0.68
P(Z≤0.00) = 0.50= P(Z≥0.00) P(X≤µ) = 0.50 = P(X≥µ)
Standard-Normalverteilung N(0,1)
P(-1.96≤Z≤+1.96) = 0.95 P(µ-1.96σ≤X≤µ+1.96σ) = 0.95
Standard-Normalverteilung N(0,1)
P(Z≤1.65) = 0.95 = P(Z≥-1.65)
P(X≤µ+1.65σ) = 0.95 = P(X≥µ-1.65σ)
Standard-Normalverteilung N(0,1)
Normalverteilung N( µ , σ
2)
N(1,1)
N(0,0.25) N(0,1)
N(0,4)
Zentraler Grenzwertsatz
X1, X2, …, Xn unabhängig und identisch verteilt mit Erwartungswert µ und Varianz σ2
für ein standard-normalverteiltes Z, wenn n sehr groß wird
n Z
X ...
X
n
1 n→
+ + − µ
σ
"Galton-Brett"
http://www.rand.org/methodology/stat/applets/clt.html
Ein Brett mit mehreren Reihen versetzter, aber in gleichem Abstand zueinander angebrachter Nägel;
benannt nach seinem Erfinder Francis Galton (1822-1911)
3.2 3.3 3.4 3.5 3.6 3.7
n=500
X
Würfelspiel
X : durchschnittliche Augenzahl aus n Würfen
100 Wiederholungen 0
5 10 15 20 25 30
X
Frequency
Die (Fast) Universelle Natur der Normalität
Länge
Fruchtbarkeit
Schnabellänge
Sauerstoffverbrauch
Gewicht
Zusammenfassung
- Die Wahrscheinlichkeitstheorie ist eine mathematische Disziplin auf der Grundlage der Kolmogorovschen Axiome.
- Zufallsvariable bilden komplexe (reale) Ereignisse auf einer einfachen numerischen, diskreten oder stetigen Skala ab.
- Die Verteilung einer Zufallsvariablen wird charakterisiert durch ihre Wahrscheinlichkeitsfunktion bzw. Dichte.
- Zufallsvariable heißen unabhängig, wenn ihre gemeinsame Verteilung gleich dem Produkt der einzelnen Verteilungen ist.
- Wichtige Kennzahlen der Verteilung von Zufallsvariablen sind deren Erwartungswert und Varianz.
- Die Normalverteilung ist eine universelle Annäherung des umfangreichen "Durchschnitts" anderer Zufallsvariable.