• Keine Ergebnisse gefunden

Statistik I f¨ur Betriebswirte Vorlesung 1

N/A
N/A
Protected

Academic year: 2021

Aktie "Statistik I f¨ur Betriebswirte Vorlesung 1"

Copied!
26
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Statistik I f¨ ur Betriebswirte Vorlesung 1

Dr. Andreas W¨ unsche

TU Bergakademie Freiberg Institut f¨ur Stochastik

1. April 2019

(2)

Organisatorisches

I

Vorlesung: Mo, 11:00-12:30, FOR-0270.

I

Ubungen: ¨

I

Di, 7:30-9:00, MIB-1113, Dr. Anna Chekhanova,

I

Di, 9:15-10:45, PR ¨ U-1104, Dr. Felix Ballani,

I

Fr, 7:30-9:00, MIB-1113, Dipl.-Math. Markus Dietz.

I

Selbststudium (Laut Modulbeschreibung zusammen f¨ ur beide Semester 120h Pr¨ asenzzeit und 150h Selbststudium.)

I

Information: http://www.mathe.tu-freiberg.de/wiwistat

I

Pr¨ ufung: Klausur 120 Minuten, zugelassen sind Taschenrechner,

B¨ ucher, Mitschriften; nicht zugelassen sind Laptops, Handys.

(3)

Themen

I

Wahrscheinlichkeitsrechnung (ca. 6 Vorlesungen).

I

Zuf¨ allige Ereignisse und Wahrscheinlichkeiten, bedingte Wahrscheinlichkeiten, Unabh¨ angigkeit.

I

Zufallsgr¨ oßen, Typen, Charakterisierung und Kenngr¨ oßen.

I

Wichtige diskrete Wahrscheinlichkeitsverteilungen.

I

Wichtige stetige Wahrscheinlichkeitsverteilungen.

I

Beschreibende (deskriptive) Statistik (ca. 4 Vorlesungen).

I

Grundbegriffe.

I

Merkmale, Grafiken und Kenngr¨ oßen.

I

Konzentrationsmaße.

I

Indexzahlen.

I

Schließende (induktive) Statistik (ca. 3 Vorlesungen).

I

Stichproben.

I

Parametersch¨ atzungen.

I

Fortsetzung im folgenden Semester: Statistik f¨ ur Betriebswirte II.

(4)

1. Wahrscheinlichkeitsrechnung

1.1 Einleitung

I

Im praktischen Leben, in den Wissenschaften usw. hat man es oft mit Situationen, Versuchen, Beobachtungen etc. zu tun, bei denen Ergebnisse nicht genau vorausberechnet werden k¨ onnen, eine Unsicherheit besteht, bei denen aber Aussagen und/oder Entscheidungen getroffen werden sollen.

I

Beispiele:

I

Versicherungswesen (Zeitpunkte von Schadensf¨ allen, H¨ ohe von Ein- bzw. Auszahlungen).

I

(Statistische) Qualit¨ atskontrolle (notwendige ¨ Anderungen von Produktionsparametern wegen zu mangelhafter Qualit¨ at der Erzeugnisse).

I

Produktionsplanung (Entwicklung der Nachfrage).

I

Finanzm¨ arkte (Entwicklung von Aktienkursen, Wechselkursen).

I

Wetter- und Klimavorhersagen.

I

Physikalische Grundgesetze (statistische Physik, Quantenphysik).

(5)

1.2 Zuf¨ allige Ereignisse und Wahrscheinlichkeiten

I

Ideales Zufallsexperiment, zuf¨ alliger Versuch, Zufallssituation:

I

Genau festgelegte Bedingungen.

I

Ausgang bzw. Ergebnis des Experiments ist nicht vorhersehbar, die m¨ oglichen Ausg¨ ange sind vor Durchf¨ uhrung des Experiments bekannt.

I

Es ist zumindest gedanklich beliebig oft wiederholbar und eine statistische Gesetzm¨ aßigkeit kann beobachtet oder angenommen werden.

I

Menge aller m¨ oglicher Ergebnisse (Ergebnismenge, Grundmenge) Ω.

I

Elemente ω

1

, ω

2

, . . . der Ergebnismenge sind die

Elementarereignisse, Versuchsausg¨ ange oder Grundrealisierungen.

Beispiele:

W¨ urfeln mit einem oder mehreren W¨ urfeln.

Bildquelle: de.wikipedia.org/wiki/Spielw¨urfel

(6)

Zuf¨ allige Ereignisse

I

Zuf¨ alliges Ereignis oder kurz Ereignis A zu einem betrachteten Zufallsexperiment:

Nach Durchf¨ uhrung des Zufallsexperiments muss man mit Sicherheit sagen k¨ onnen, ob das Ereignis A eingetreten ist oder nicht.

I

Im Sinne der (mathematischen) Logik: ”Das Ereignis A ist eingetreten.” ist entweder eine wahre oder eine falsche Aussage.

I

Im Fall einer Ergebnismenge Ω: Teilmenge A der Ergebnismenge Ω;

das Ereignis A tritt ein, falls das realisierte Ergebnis des zuf¨ alligen Versuchs in der Menge A enthalten ist.

Beispiele:

I

W¨ urfeln mit einem oder mehreren W¨ urfeln.

I

T¨ agliche DAX-Schlusskurse.

Bildquelle: www.boerse.de

(7)

Stabilisierung von relativen H¨ aufigkeiten – Beispiel

Quelle: N. Henze, Stochastik f¨ ur Einsteiger, 2013, 10. Auflage, Kap. 4 . Ergebnisse von 300 W¨ urfen einer Reißzwecke auf einen Steinboden mit den beiden m¨ oglichen Ergebnissen ”Spitze nach oben” = b ”1” und ”Spitze schr¨ ag nach unten” = b ”0”.

Fortlaufend notierte relative H¨ aufigkeiten f¨ ur ”1”:

(8)

Wahrscheinlichkeiten

I

Jedem zuf¨ alligen Ereignis A zu einem betrachteten Zufallsexperiment wird eine Zahl P(A) zwischen 0 und 1 zugeordnet, die sogenannte Wahrscheinlichkeit (f¨ ur das Eintreten) des Ereignisses A.

I

P (A) ist ein quantitatives Maß f¨ ur die Chancen, dass das zuf¨ allige Ereignis A bei einer Realisierung des Experiments eintritt, z.B.

P (A) ≈ 0 ⇒ sehr geringe; P(A) ≈ 1 ⇒ sehr große Chancen.

I

Hintergrund sind Eigenschaften von relativen H¨ aufigkeiten

h

n

(A) = H

n

(A)

n ≈ P (A) (falls n groß) ; H

n

(A) H¨ aufigkeit des Eintretens von A in n (unabh¨ angigen) Realisierungen des Zufallsexperiments.

I

H¨ aufigkeitsinterpretation f¨ ur P (A): bei n Realisierungen des

Zufallsexperiments wird das zuf¨ allige Ereignis A ungef¨ ahr n · P (A)

mal eintreten und n · (1 − P(A)) mal nicht eintreten.

(9)

Verkn¨ upfungen von Ereignissen

Geg.: Zufallsexperiment mit Ergebnismenge Ω und zuf¨ alligen Ereignissen A, B .

I

Vereinigung A ∪ B : A oder B (oder beide) treten ein.

I

Durchschnitt A ∩ B : A und B treten beide ein.

I

Differenz A \ B : A tritt ein, aber B nicht.

I

Das zu A komplement¨ are (entgegengesetzte) Ereignis A = A

c

= ¬A : tritt genau dann ein, wenn A nicht eintritt;

A = Ω \ A .

I

Unm¨ ogliches Ereignis ∅ : tritt niemals ein.

I

Sicheres Ereignis Ω : tritt immer ein (gleich Ergebnismenge).

I

A und B sind unvereinbar (sind disjunkt, schließen einander aus) : sie k¨ onnen nicht gemeinsam eintreten, d.h. A ∩ B = ∅ .

I

Das Ereignis A zieht das Ereignis B nach sich : A ⊂ B (wenn A

eintritt, dann tritt auch B ein).

(10)

Rechenregeln f¨ ur Verkn¨ upfungen von Ereignissen

Geg.: Zufallsexperiment mit Ergebnismenge Ω und zuf¨ alligen

Ereignissen A, B , C . Dann gelten wie allgemein f¨ ur Teilmengen A, B, C einer Menge Ω die folgenden Rechenregeln.

I

Kommutativit¨ at : A ∪ B = B ∪ A , A ∩ B = B ∩ A .

I

Assoziativit¨ at : (A ∪ B) ∪ C = A ∪ (B ∪ C ) , (A ∩ B ) ∩ C = A ∩ (B ∩ C ) .

I

Distributivit¨ at : (A ∪ B ) ∩ C = (A ∩ C ) ∪ (B ∩ C ) , (A ∩ B ) ∪ C = (A ∪ C ) ∩ (B ∪ C ) .

I

Regeln von de Morgan : A ∩ B = A ∪ B , A ∪ B = A ∩ B .

I

A ∪ A = Ω , A ∩ A = ∅ , A \ B = A ∩ B , A

= A , A ∪ ∅ = A , A ∩ ∅ = ∅ , A ∪ Ω = Ω , A ∩ Ω = A .

I

Entsprechend k¨ onnen auch Vereinigungen und Durchschnitte von mehr als zwei Ereignissen definiert werden und auch die

Rechenregeln k¨ onnen entsprechend verallgemeinert werden.

(11)

Ubungsbeispiel 1.1 ¨

Entwicklung von 3 konkreten Aktienkursen in einem festen Zeitraum an einer bestimmten B¨ orse.

S

i

= {Wert der Aktie i steigt} .

Ges.: Darstellung der folgenden Ereignisse durch die Ereignisse S

i

.

I

A = {Wert aller 3 Aktien steigt} .

I

B = {Wert keiner der 3 Aktien steigt} .

I

C = {Wert mindestens einer der 3 Aktien steigt} .

I

D = {Wert genau einer der 3 Aktien steigt} .

I

E = {Wert aller 3 Aktien f¨ allt oder bleibt gleich} .

(12)

Axiomatische Wahrscheinlichkeitsdefinition (Kolmogorow)

I

Mathematisches Modell f¨ ur ein Zufallsexperiment ist ein Wahrscheinlichkeitsraum (Ω, A, P ) .

I

Ω ist eine nichtleere Menge (Grundraum, Ergebnismenge), sie wird in komplizierteren Situationen oft nicht explizit angegeben.

I

A ist eine Menge von Teilmengen von Ω, so dass endlich viele oder abz¨ ahlbar unendliche Verkn¨ upfungen von Elementen aus A wieder zu einem Ergebnis in A f¨ uhren (Ereignisalgebra, σ−Algebra).

I

Die Wahrscheinlichkeitsfunktion P ordnet jeder Menge A aus A die reelle Zahl P (A) zu, so dass die folgenden Axiome gelten:

1. 0 ≤ P(A) ≤ 1 . 2. P(Ω) = 1 .

3. P(A

1

∪ A

2

) = P(A

1

) + P(A

2

) falls A

1

∩ A

2

= ∅ . 4. P

[

i=1

A

i

!

=

X

i=1

P(A

i

) falls die Ereignisse A

i

paarweise unvereinbar

sind, d.h. A

i

∩ A

j

= ∅ (i 6= j ) .

(13)

Bemerkungen zu und Folgerungen aus den Axiomen

I

Man benutzt oft weiter die Wahrscheinlichkeitsterminologie (z.B.

”Ereignis” statt ”Teilmenge”).

I

Axiome 1.-3. spiegeln Eigenschaften der relativen H¨ aufigkeiten wider.

I

Alle Zuordnungen von Wahrscheinlichkeiten, die den Axiomen gen¨ ugen, sind mathematisch gesehen erst einmal korrekt (insbesondere auch subjektive Zuordnungen).

I

P ( ∅ ) = 0 .

I

P (A

1

∪ A

2

∪ . . . ∪ A

n

) = P (A

1

) + P (A

2

) + . . . + P(A

n

) falls die Ereignisse A

i

paarweise unvereinbar sind.

I

P (A) = 1 − P (A) , P (A) = 1 − P (A) . (Oft sehr n¨ utzlich!)

I

A ⊂ B ⇒ P (A) ≤ P(B) , P (B \ A) = P (B) − P(A) .

I

Additionsgesetz: P (A ∪ B) = P (A) + P (B) − P (A ∩ B ) .

I

Siebformel: P (A ∪ B ∪ C ) =

P (A)+P(B)+P (C )−P (A∩B )−P (A∩C )−P (B ∩C )+P (A∩B ∩C ) .

(14)

Ubungsbeispiel 1.2 ¨

F¨ ur die Ereignisse A und B zu einem Zufallsexperiment seien folgende Wahrscheinlichkeiten bekannt:

P (A) = 0.25 , P (B) = 0.45 , P(A ∪ B) = 0.5 .

Berechnen Sie P (A ∩ B), P (A ∩ B ) und P ((A ∩ B) ∪ (A ∩ B)) !

(15)

Klassische Wahrscheinlichkeitsdefinition (Laplace-Modell)

I

Gilt f¨ ur Zufallsversuche mit

I

endlich vielen m¨ oglichen Versuchsergebnissen (n elementare Versuchsausg¨ ange oder Elementarereignisse),

I

die alle gleichwahrscheinlich sind (keines wird bevorzugt, alle haben dieselbe Chance einzutreten).

I

Beispiele:

I

W¨ urfeln mit einem fairen oder gerechten W¨ urfel, n = 6, Elementarereignisse sind 1, 2, 3, 4, 5, 6 .

I

Zahlenlotto

” 6 aus 49“ ,

n = Anzahl der m¨ oglichen Tipps mit 6 aus 49 Zahlen.

I

Aus den Axiomen f¨ ur Wahrscheinlichkeiten folgt dann die einzige

m¨ ogliche Definition von Wahrscheinlichkeiten in dieser Situation (die

sogenannte klassische Wahrscheinlichkeitsdefinition).

(16)

Klassische Wahrscheinlichkeitsdefinition

I

F¨ ur jedes der n Elementarereignisse gilt unter obigen Bedingungen:

P (Elementarereignis) = 1 n .

I

F¨ ur ein beliebiges Ereignis A gilt unter obigen Bedingungen:

P (A) = Anzahl der Elementarereignisse in A

n bzw.

P (A) = Anzahl der f¨ ur A g¨ unstigen F¨ alle

Anzahl aller m¨ oglichen gleichwahrscheinlichen F¨ alle .

I

Bei Wahrscheinlichkeitsberechnungen im Zusammenhang mit der

klassischen Wahrscheinlichkeitsdefinition werden oft kombinatorische

Formeln genutzt.

(17)

Kombinatorische Formeln I

I

Geg.: n Objekte, z.B. {1, 2, . . . , n} . ⇒ Die Anzahl aller m¨ oglichen Reihenfolgen betr¨ agt n! = 1 · 2 · . . . · n (

” n Fakult¨ at“).

I

Geg.: n Objekte, die in k unterschiedlichen Sorten vorliegen, bestehend jeweils aus n

i

, i = 1, . . . , k, nicht unterscheidbaren Objekten (2 ≤ k ≤ n und n

1

+ . . . + n

k

= n) .

⇒ Die Anzahl aller m¨ oglichen Reihenfolgen betr¨ agt n

n

1

, n

2

, . . . , n

k

= n!

n

1

! · n

2

! · . . . · n

k

! (

” Multinomialkoffizien“).

I

Im Spezialfall k = 2, d.h. gegeben sind n Objekte, jedes geh¨ ort zu einer von zwei Sorten (z.B.

” Erfolg“,

” Misserfolg“), gilt

n

1

= m, n

2

= n − m und die Anzahl aller m¨ oglichen Reihenfolgen betr¨ agt

n m

= n!

m!(n − m)! (

” Binomialkoeffizient “).

(18)

Kombinatorische Formeln II

I

Nun seien n Objekte gegeben. Dann ist eine Frage, wie viele M¨ oglichkeiten es gibt, um daraus k Objekte auszuw¨ ahlen ? Die Antwort ist abh¨ angig davon,

I

ob sich in der Auswahl Objekte wiederholen d¨ urfen (m.W.) oder nicht (o.W.)

I

ob es auf die Reihenfolge der Auswahl (oder eine zus¨ atzliche Anordnung) ankommt (m.R.) oder nicht (o.R.).

I

o.W. m.W.

o.R.

n k

n + k − 1 k

” Kombinationen“

m.R.

n k

k! n

k

” Variationen“

I

Beispiel: n = 4, k = 2 .

(19)

Ubungsbeispiel 1.3 ¨

I

Eine Seminargruppe von 21 Studenten hat ihr Statistikseminar in einem Raum mit 25 Pl¨ atzen.

I

Wieviele Anordnungsm¨ oglichkeiten gibt es f¨ ur die vier freien Pl¨ atze?

I

Wieviele verschiedene Sitzordnungen gibt es?

(20)

1.3 Bedingte Wahrscheinlichkeiten, Formel von Bayes

I

Sind zus¨ atzliche Informationen zu einem Zufallsexperiment verf¨ ugbar (oder werden diese hypothetisch angenommen), k¨ onnen sich die Wahrscheinlichkeiten f¨ ur die zuf¨ alligen Ereignisse ¨ andern.

I

Geg.: Zufallsexperiment mit Ereignissen A, B, wobei P (B) > 0 . Es sei jetzt zus¨ atzlich bekannt, dass B eingetreten ist.

Def.: Bedingte Wahrscheinlichkeit von A unter der Bedingung B:

P (A|B) = P (A ∩ B) P (B) .

I

Beispiel:

Die Wahrscheinlichkeit f¨ ur ein gewisses Bauteil, sechs Monate

funktionst¨ uchtig zu sein, betrage 0.97. Diejenige, zwei Jahre zu

funktionieren, sei 0.88. Wie groß ist die Wahrscheinlichkeit f¨ ur ein

sechs Monate altes funktionst¨ uchtiges Bauteil, nach weiteren

eineinhalb Jahren immer noch zu funktionieren?

(21)

Eigenschaften bedingter Wahrscheinlichkeiten

I

Im Allgemeinen gilt P (A|B ) 6= P (B|A) !

I

Bei fester Bedingung B kann man wie mit (unbedingten) Wahrscheinlichkeiten rechnen, z.B.

P (A|B) = 1 − P(A|B) ;

P (A

1

∪ A

2

|B) = P (A

1

|B) + P (A

2

|B ) − P (A

1

∩ A

2

|B) .

I

Multiplikationsregeln

I

Es gilt P(A ∩ B ) = P(A|B) · P(B) = P(B|A) · P(A) .

I

Sind A

1

, . . . , A

n

zuf¨ allige Ereignisse mit P(A

1

∩ . . . ∩ A

n−1

) > 0 , dann gilt

P(A

1

∩ A

2

∩ . . . ∩ A

n

) = P(A

1

) · P(A

2

|A

1

) · P(A

3

|A

1

∩ A

2

) · . . .

· P(A

n

|A

1

∩ A

2

∩ . . . ∩ A

n−1

) .

(22)

Ubungsbeispiel 1.4 ¨

In einer Urne befinden sich 10 Kugeln (7 rote und 3 schwarze). Es werden 4 Kugeln rein zuf¨ allig ohne Zur¨ ucklegen entnommen.

Wie groß ist die Wahrscheinlichkeit f¨ ur das Ereignis A , dass alle 4

gezogenen Kugeln rot sind ?

(23)

Stochastische Unabh¨ angigkeit

I

Es kann vorkommen (und tut es in wichtigen Situationen auch), dass das Eintreten des Ereignisses B nichts an der Wahrscheinlichkeit f¨ ur das Eintreten des Ereignisses A ¨ andert, d.h. es gilt P (A|B ) = P (A) .

I

Dass A und B in diesem Fall stochastisch unabh¨ angig sind, l¨ asst sich mit der Multiplikationsregel leicht zeigen:

P (A ∩ B) = P (A|B) · P (B)

= P (A) · P(B) .

(24)

Formel der totalen Wahrscheinlichkeit

I

Berechnung der totalen (unbedingten) Wahrscheinlichkeit aus den bedingten Wahrscheinlichkeiten: als gewichtetes Mittel.

I

Sei B

1

, . . . , B

n

eine Zerlegung von Ω mit P (B

i

) 6= 0, i = 1, . . . , n

ein vollst¨ andiges Ereignissystem, eine Fallunterscheidung, d.h.

n

[

i=1

B

i

= Ω , B

i

∩ B

j

= ∅ f¨ ur i 6= j

.

Dann lautet die Formel der totalen Wahrscheinlichkeit: f¨ ur ein beliebiges zuf¨ alliges Ereignis A ⊂ Ω gilt

P(A) =

n

X

i=1

P (A ∩ B

i

)

=

n

X

i=1

P (A|B

i

)P (B

i

) .

(25)

Formel von Bayes

I

Unter den Bedingungen des Satzes der totalen Wahrscheinlichkeit gilt die Formel von Bayes

P (B

i

|A) = P (A ∩ B

i

)

P (A) = P (A|B

i

)P (B

i

) P (A)

= P (A|B

i

)P (B

i

)

n

P

j=1

P(A|B

j

)P (B

j

) .

I

P (B

i

) heißen auch

” a-priori“-Wahrscheinlichkeiten.

I

P (B

i

|A) heißen auch

” a-posteriori“-Wahrscheinlichkeiten,

sie liefern eine Korrektur der urspr¨ unglichen Wahrscheinlichkeiten,

wenn bekannt ist, dass das zuf¨ allige Ereignis A eingetreten ist.

(26)

Ubungsbeispiel 1.5 ¨

Drei Zulieferer liefern eine Komponente zur Produktion eines

Erzeugnisses im Anzahlverh¨ altnis 5 : 3 : 2. Die Fehlerquote betrage bei Komponenten der 1. Zulieferfirma 7%, bei Komponenten der

2. Zulieferfirma 4% und bei Komponenten der 3. Zulieferfirma 2% . 1. Wie groß ist die Wahrscheinlichkeit daf¨ ur, dass eine aus der

Gesamtliefermenge rein zuf¨ allig ausgew¨ ahlte Komponente defekt ist ? 2. Es werde eine Komponente aus der Gesamtzuliefermenge rein

zuf¨ allig ausgew¨ ahlt und ¨ uberpr¨ uft. Dabei stellt man fest, dass die Komponente defekt ist.

Mit welcher Wahrscheinlichkeit wurde diese Komponente von der 1.,

2. bzw. 3. Zulieferfirma geliefert ?

Referenzen

ÄHNLICHE DOKUMENTE

I Ist die gesuchte Abh¨ angigkeitsfunktion eine nichtlineare Funktion (eine Gerade ist schlecht an die Daten anpassbar), kann man mitunter durch geeignete Variablentransformationen

Prädiktoren: (Konstante), Anspruch, Lohn, Kreativität, Leistungsstreben, Arbeitsbedingungen, Vielfalt, Lernpotential, Hierarchie, Ehrgeiz ca. Prädiktoren: (Konstante), Anspruch,

I Weiterhin gibt es Kontrollkarten mit Ged¨ achtnis, bei denen eine Entscheidung ¨ uber einen Eingriff auch aufgrund der Ergebnisse vergangener Stichproben getroffen wird. I

I Oft sind Ergebnisse von Zufallsversuchen in Form von Zahlen gegeben oder es ist f¨ ur eine mathematische Behandlung g¨ unstig, den elementaren Versuchsausg¨ angen Zahlen

I Die wichtigste Kenngr¨ oße f¨ ur die Variabilit¨ at von Zufallsgr¨ oßen ist die Varianz der Zufallsgr¨ oße, auch Streuung oder Dispersion genannt.. Diese Eigenschaft gilt aber

Die t¨ aglichen Kurs¨ anderungen einer Aktie seien unabh¨ angig und die Wahrscheinlichkeit daf¨ ur, dass der Kurs an einem Tag w¨ achst oder h¨ ochstens um 5% f¨ allt, betrage 0.8.

I H¨ aufig ergeben sich Zufallsgr¨ oßen (z.B. Messfehler) durch (additive) Uberlagerung vieler kleiner stochastischer Einfl¨ ¨ usse.. Beispiel 1.15: Zentraler

I Die Weibullverteilung kann als Grenzverteilung f¨ ur das Minimum einer großen Zahl von unabh¨ angigen Zufallsgr¨ oßen auftreten (Verteilung des schw¨ achsten Kettengliedes).