• Keine Ergebnisse gefunden

Ein Ereignis wird als zufällig

N/A
N/A
Protected

Academic year: 2021

Aktie "Ein Ereignis wird als zufällig "

Copied!
46
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Alea iacta est!

Wahrscheinlichkeitstheorie

(2)

"Wissenschaftliche Theorien, die auf Eigenschaften

einer großen Zahl von Individuen rekurrieren, [...] werden anfällig gegen Fehlinterpretationen, wenn man die zufällige

Natur ihrer Beweisgrundlagen aus dem Auge verliert.

"

Ronald Aylmer Fisher (1890-1962)

(3)

Ein Ereignis wird als zufällig

bezeichnet, wenn sein Ausgang

variabel und nicht vorhersagbar ist.

(4)

Pierre-Simon Laplace (1749-1827)

Die klassische Interpretation

Die Wahrscheinlichkeit eines Ereignisses ist das Verhältnis zwischen der Anzahl günstiger und

möglicher Ausgänge eines Zufallsexperiments.

Beispiel: Mit einem Würfel soll eine 5 geworfen werden. Von den sechs möglichen

Ausgängen des Wurfs ist hierfür nur einer günstig. Also beträgt die Wahrscheinlichkeit

für "die Augenzahl lautet 5" ein Sechstel.

(5)

John Venn (1834-1923)

Die frequentistische Interpretation

Die Wahrscheinlichkeit eines Ereignisses in einer Serie von Versuchen ist der Grenzwert der relativen Häufigkeit des Ereignisses.

Beispiel: Wirf einen Würfel sehr oft und notiere jedes mal die Augenzahl. Die relative

Häufigkeit von "die Augenzahl lautet 5" ist ungefähr ein Sechstel. Der Grenzwert der relativen Häufigkeit ist genau ein Sechstel.

(6)

Frank P. Ramsey (1903-1930)

Die subjektive Interpretation

Wahrscheinlichkeit ist ein Maß für den Glauben an den Eintritt eines

Ereignisses.

Beispiel: Nimm an Du wettest, dass die Augenzahl 5 lautet. Du setzt einen Dollar ein und bekommst sechs Dollar zurück, wenn Du

gewinnst. Diese Wette empfindest Du als fair.

(7)

Andrej N. Kolmogorov (1903-1987)

Die axiomatische Interpretation

Eine Wahrscheinlichkeit ist etwas, was die Axiome der

Wahrscheinlichkeitstheorie erfüllt.

(8)
(9)

Es sei Ω eine nicht leere Menge und ∆ eine Familie von

Teilmengen von Ω, die Ω enthält und die abgeschlossen ist bezüglich der Komplementbildung und Vereinigung von

Mengen. Es sei P eine Abbildung von ∆ in die reellen Zahlen mit den folgenden Eigenschaften:

1. Nicht-Negativität P(A) ≥ 0 für alle A ∈ ∆ 2. Normalität P(Ω) = 1

3. Additivität P(A1∪A2∪...) = P(A1)+P(A2)+...

für alle A1, A2, ... ∈ ∆ mit Ai∩Aj = Ø P heißt "Wahrscheinlichkeitsfunktion" und (Ω, ∆, P) ist ein so genannter "Wahrscheinlichkeitsraum".

Kolmogorovs Axiome

Grundbegriffe der Wahrscheinlichkeitsrechnung (1933)

(10)

{1,2,3,4,5,6}

{1,2,3,4,5} {1,2,3,4,6}

{1,2,3,5,6} {1,2,4,5,6}

{1,3,4,5,6} {2,3,4,6,5}

{1,2,3,4} {1,2,3,5} {1,2,3,6}

{1,2,4,5} {1,2,4,6} {1,2,5,6}

{1,3,4,5} {1,3,4,6} {1,3,5,6}

{1,4,5,6} {2,3,4,5} {2,3,4,6}

{2,3,5,6} {2,4,5,6} {3,4,5,6}

{1,2,3} {4,5,6} {1,2,4} {3,5,6}

{1,2,5} {3,4,6} {1,2,6} {3,4,5}

{1,3,4} {2,5,6} {1,3,5} {2,4,6}

{1,3,6} {2,4,5} {1,4,5} {2,3,6}

{1,4,6} {2,3,5} {1,5,6} {2,3,4}

{1,2} {1,3} {1,4} {1,5}

{1,6} {2,3} {2,4} {2,5}

{2,6} {3,4} {3,5} {3,6}

{4,5} {4,6} {5,6}

{1} {2} {3}

{4} {5} {6}

Ø

P=6/6 P=4/6 P=2/6

P=5/6 P=3/6 P=1/6

P=0/6

Würfelspiel

(11)

Maßtheoretische Sicht der Wahrscheinlichkeit

A∪B: Ereignis A oder Ereignis B oder beide treten ein.

A∩B: Ereignisse A und B treten gleichzeitig ein.

AC: Das Komplement (Gegenteil) von Ereignis A tritt ein.

P(A)+P(AC) = P(A∪AC) = P(Ω) = 1 P(AC) = 1-P(A) P(A∪B) = P(A)+P(B)-P(A∩B)

A

C

A

Ω Ω Ω

Ω Ω Ω Ω Ω

B

A

(12)

Unabhängigkeit von Ereignissen

Zwei Ereignisse A und B heißen "unabhängig", wenn P(A∩B) = P(A)⋅P(B)

(13)

Etwa 25% der erwachsenen US-Amerikaner haben einen erhöhten Blutdruck. (A)

Etwa 20% der erwachsenen US-Amerikaner haben erhöhte Blutfettwerte. (B)

Etwa 17% der erwachsenen US-Amerikaner sind hypertensiv und hyperlipidämisch. (A∩B)

P(A∩B) = 0.17 > 0.05 = 0.25⋅0.20 = P(A)⋅P(B) Blutdruck und Blutfette

(14)

Zufallsvariable

... bilden komplexe Zufallsereignisse aus der Realität auf eine einfache (meistens numerische) Skala ab.

X: Häufigkeit, mit der die ersten fünf Würfel die Augenzahl 6 zeigen

X = 2

eine "Realisierung" von X

(15)

Diskrete Zufallsvariable

f(a)=P(X=a) für alle möglichen Werte a von X Wahrscheinlichkeitsfunktion von X

X: Häufigkeit, mit der die ersten fünf Würfel die Augenzahl 6 zeigen

X = 2

eine "Realisierung" von X

(16)

Binomialverteilung Bin(n, π )

Modell: n unabhängige Wiederholungen eines Experiments mit binärem Ausgang ("Erfolg", "Misserfolg") und konstanter Erfolgswahrscheinlichkeit π bei jeder Wiederholung

X: Anzahl der Erfolge

"Binomialkoeffizient"

k n k

( 1 ) k

) n k X

( P )

k (

f  ⋅ π − π

 

= 

=

=

)!

k n (

! k

! n )

k n ( ...

2 1 k ...

2 1

n ...

2 1 k

n

=

=





(17)

Münzwurf

π⋅(1-π)⋅π⋅(1-π)⋅π=π3⋅(1-π)2 (1-π)⋅π⋅π⋅(1-π)⋅π=π3⋅(1-π)2 n=5, k=3

1 2 3 4 5

Wieviel verschiedene Möglichkeiten gibt es, aus 5 Positionen genau 3 Positionen auszuwählen?

! 2

! 3

! 5 1

2 1 2 3

1 2 3 4 10 5

1 2 3

3 4 5

= ⋅

= ⋅

⋅ =

(18)

Ein Antibiotikum wirkt bei 85% aller Patienten mit einer bestimmten Krankheit. Mit welcher Wahrscheinlichkeit

werden mindestens 8 von 10 Patienten durch das Medikament geheilt?

n=10, π=0.85, k=8, 9 oder 10 P(X≥8) = f(8) + f(9) + f(10) =

= 108 0.8580.152 + 10

9 0.8590.151 + 10

10 0.85100.150

= 45⋅0.272⋅0.023 + 10⋅0.232⋅0.150 + 1⋅0.197⋅1.000

= 0.820

Wirksamkeit von Antibiotika

(19)

k

0 1 2 3 4 5 6 7 8 9 10

f(k)

0.0 0.1 0.2 0.3 0.4

Wahrscheinlichkeitsfunktion

Bin(10,0.85)

(20)

Stetige Zufallsvariable

F(b)=P(X≤b) für reelle Zahlen b Verteilungsfunktion von X

X = 22.5

(21)

-4 -3 -2 -1 0 1 2 3 4 0,0

0,2 0,4 0,6 0,8 1,0

F(b)

b

0≤F(b)≤1

F(b) ist monoton wachsend

Verteilungsfunktion

(22)

Verteilung einer

stetigen Zufallsvariablen

b

f(x) "Dichte"

x y

b a

y

x

=

b

f ( x ) dx )

b ( F

) a ( F )

b ( F )

b X

a (

P < ≤ = −

(23)

Unabhängigkeit von Zufallsvariablen

Zwei Zufallsvariable X und Y

heißen "stochastisch unabhängig", wenn P(X≤a,Y≤b) = P(X≤a)⋅P(Y≤b)

für jede Auswahl reeller Zahlen a und b.

(24)

Beispiele

X: Blutdruck Y: Blutfettwerte X: Body-Mass-Index

Y: Alter

nicht unabhängig unabhängig

X: Körpergröße

Y: Untersuchungszeitpunkt X: Geschlecht

Y: Haarfarbe

Unabhängigkeit von Zufallsvariablen

(25)

Erwartungswert E(X)

stetig diskret

Der Erwartungswert (oder das "Populationsmittel") einer Zufallsvariablen gibt ihren durchschnittlichen bzw. zentralen

Wert an. Er fasst wesentliche Charakteristika der Verteilung der Variablen in einer Kennzahl zusammen.

http://www.stats.gla.ac.uk/steps/glossary/index.html

=

=

a

) a X

( P a )

X (

E

+∞

= x f ( x ) dx )

X

(

E

(26)

E(X) = 1⋅1/6 + 2⋅1/6 + 3⋅1/6 + 4⋅1/6 + 5⋅1/6 + 6⋅1/6 = 3.5 X: Augenzahl in einem Wurf

E(Y) = 2⋅1/36 + 3⋅2/36 + 4⋅3/36 + 5⋅4/36 + 6⋅5/36 + 7⋅6/36 + 8⋅5/36 + 9⋅4/36 + 10⋅3/36 + 11⋅2/36 + 12⋅1/36 = 7

Y: Summe der Augenzahl in zwei Würfen Würfelspiel

(27)

Gesetz der Großen Zahlen

X1, X2, …, Xn unabhängig und identisch verteilt mit E(X1) = ... = E(Xn) = µ

wenn n sehr groß wird

µ + →

= +

n

X ...

X X

1 n

(28)

1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0 5.5

n=10 n=100 n=500

100 Wiederholungen Xi: Augenzahl eines einzelnen Wurfs (i=1,...,n)

X : durchschnittliche Augenzahl

Würfelspiel

X

(29)

Varianz Var(X)

Var(X) = E([X-E(X)]2)

Var(X) "Standardabweichung"

Die Varianz einer Zufallsvariablen ist eine nicht negative reelle Zahl, die einen Eindruck von der zu erwartenden

Streuung der Realisierungen einer Zufallsvariablen

vermittelt. Je größer die Varianz, umso verstreuter werden diese Beobachtungen sein.

http://www.stats.gla.ac.uk/steps/glossary/index.html

(30)

E(X1)

E(X2)

Var(X1) < Var(X2)

Varianz Var(X)

(31)

Var(X) = (1-3.5)21/6 + (2-3.5)21/6 + (3-3.5)21/6 +

(4-3.5)21/6 + (5-3.5)21/6 + (6-3.5)21/6 = 2.9

Var(Y) = (2-7)21/36 + (3-7)22/36 + (4-7)23/36 + (5-7)24/36 + (6-7)25/36 + (7-7)26/36 + (8-7)25/36 + (9-7)24/36 + (10-7)23/36 + (11-7)22/36 + (12-7)21/36 = 5.8

X: Augenzahl in einem Wurf

Y: Summe der Augenzahl in zwei Würfen Würfelspiel

(32)

Einige Rechenregeln

E(X+Y) = E(X) + E(Y) Var( α⋅ X) = α

2

⋅ Var(X)

E( α⋅ X) = α⋅ E(X)

Var(X+Y) = Var(X) + Var(Y) wenn X und Y unabhängig sind

E(X ⋅ Y) = E(X) ⋅ E(Y)

(33)

Normalverteilung N( µ , σ

2

)

2 2

2 ) x

(

2 e ) 1

x (

f

σ

µ

π

= σ

) X ( Var ),

X (

E σ

2

=

=

µ

(34)

Standard-Normalverteilung N(0,1)

z 0 1 2 3 4 5 6 7 8 9

0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359 0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753 0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141 0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517 0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879 0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224 0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549 0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852 0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133 0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389 1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621 1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830 1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015 1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177 1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319 1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441 1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545 1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633 1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706 1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767 2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817

P(Z ≤ z)= Φ (z)

(35)

Standardisierung von N( µ , σ

2

)

σ µ

= X − Z

b ) ( )

b (

F σ

µ Φ −

=

eine Standard-Normalverteilung.

Für die Verteilungsfunktion F(b) von X gilt

Wenn X normalverteilt ist mit Erwartungswert µ und Varianz σ2, dann hat die Zufallsvariable

(36)

Blutdruck

Der diastolische Blutdruck von Normalpersonen sei normalverteilt mit Erwartungswert µ=80 mmHg und Standardabweichung σ=10 mmHg. Mit welcher Wahrscheinlichkeit weist eine zufällig ausgewählte Normalperson einen Blutdruck zwischen 70 mmHg

und 85 mmHg auf?

10 ) 80 ( 70

10 ) 80

( 85 − − Φ − Φ

=

1587 .

0 6915

. 0 )

1 ( )

5 . 0

( − Φ − = −

Φ

=

5328 .

= 0

) 70 ( F )

85 ( F )

85 X

70 (

P ≤ ≤ = −

(37)

Standard-Normalverteilung N(0,1)

P(-1.00≤Z≤+1.00) = 0.68 P(µ-σ≤X≤µ+σ) = 0.68

(38)

P(Z≤0.00) = 0.50= P(Z≥0.00) P(X≤µ) = 0.50 = P(X≥µ)

Standard-Normalverteilung N(0,1)

(39)

P(-1.96≤Z≤+1.96) = 0.95 P(µ-1.96σ≤X≤µ+1.96σ) = 0.95

Standard-Normalverteilung N(0,1)

(40)

P(Z≤1.65) = 0.95 = P(Z≥-1.65)

P(X≤µ+1.65σ) = 0.95 = P(X≥µ-1.65σ)

Standard-Normalverteilung N(0,1)

(41)

Normalverteilung N( µ , σ

2

)

N(1,1)

N(0,0.25) N(0,1)

N(0,4)

(42)

Zentraler Grenzwertsatz

X1, X2, …, Xn unabhängig und identisch verteilt mit Erwartungswert µ und Varianz σ2

für ein standard-normalverteiltes Z, wenn n sehr groß wird

n Z

X ...

X

n

1 n

 

 

 + + − µ

σ

(43)

"Galton-Brett"

http://www.rand.org/methodology/stat/applets/clt.html

Ein Brett mit mehreren Reihen versetzter, aber in gleichem Abstand zueinander angebrachter Nägel;

benannt nach seinem Erfinder Francis Galton (1822-1911)

(44)

3.2 3.3 3.4 3.5 3.6 3.7

n=500

X

Würfelspiel

X : durchschnittliche Augenzahl aus n Würfen

100 Wiederholungen 0

5 10 15 20 25 30

X

Frequency

(45)

Die (Fast) Universelle Natur der Normalität

Länge

Fruchtbarkeit

Schnabellänge

Sauerstoffverbrauch

Gewicht

(46)

Zusammenfassung

- Die Wahrscheinlichkeitstheorie ist eine mathematische Disziplin auf der Grundlage der Kolmogorovschen Axiome.

- Zufallsvariable bilden komplexe (reale) Ereignisse auf einer einfachen numerischen, diskreten oder stetigen Skala ab.

- Die Verteilung einer Zufallsvariablen wird charakterisiert durch ihre Wahrscheinlichkeitsfunktion bzw. Dichte.

- Zufallsvariable heißen unabhängig, wenn ihre gemeinsame Verteilung gleich dem Produkt der einzelnen Verteilungen ist.

- Wichtige Kennzahlen der Verteilung von Zufallsvariablen sind deren Erwartungswert und Varianz.

- Die Normalverteilung ist eine universelle Annäherung des umfangreichen "Durchschnitts" anderer Zufallsvariable.

Referenzen

ÄHNLICHE DOKUMENTE

[r]

a) Nachdem der Würfel 50 Mal geworfen wurde, ergab sich folgende Urliste. Bestimme die relative Häufigkeit des Ereignisses „Primzahl gewinnt“. Gib die Wahrscheinlichkeit für

Anna zieht aus dem Gefäß 200mal jeweils 2 Kugeln mit einem Griff, notiert sich die gezogenen Farben und legt dann die Kugeln wieder in das Gefäß zurück.

Im Kalender von M4.1 werden die schulfreien Tage (inkl. Ferien) je nach Bundesland bzw. Schule von der Lehrkraft oder den Schülern ergänzt. Als Online-Bonusmaterial ist außerdem

Achten Sie darauf, dass Ihre Kinder und SchülerInnen die Übungen alleine bearbeiten. Für einen nachhaltigen Lernerfolg bietet das Material die Möglichkeit der

2 Arbeitskarten (AK) mit Aufgaben zum selbständigen Bearbeiten 2.1 Häufigkeiten und Wahrscheinlichkeiten

4 Mathematische Untersuchungen und Zufallsexperimente zu Spielen MU 1 Glück oder Pech beim

4 Wahrscheinlichkeit von speziellen Ereignissen 14 4.1 Wahrscheinlichkeit des unm¨ oglichen