Statistik f¨ ur Ingenieure
2 Grundlagen der Wahrscheinlichkeitsrechnung
Prof. Dr. Hans-J¨org Starkloff
TU Bergakademie Freiberg Institut f¨ur Stochastik
Wintersemester 2019/2020 letzte ¨Anderung: 22.10.2019
2 Grundlagen der Wahrscheinlichkeitsrechnung 2.1 Zuf¨ allige Ereignisse und Wahrscheinlichkeiten
I Zuf¨alliger Versuch (Zufallsexperiment, Zufallssituation): Vorgang unter genau festgelegten Bedingungen, der (zumindest gedanklich) beliebig oft wiederholbar ist und dessen Ausgang oder Ergebnis (innerhalb einer Menge m¨oglicher Ergebnisse) ungewiß ist.
I Zuf¨alliges Ereignis (kurzEreignis): Teilmenge m¨oglicher Ergebisse, so dass man nach Realisierung des zuf¨alligen Versuches entscheiden kann, ob es eingetreten ist oder nicht (sowie Idealisierungen).
I Bsp.:
Versuch Ereignis
Werfen eines Spielw¨urfels Werfen einer
”6“
Kontrolle einer Warenlieferung ≤3 Ausschussteile
I Bezeichnung von Ereignissen: A,B,A1,A2,Bi, . . ..
I Wichtig: Bei L¨osung von Aufgaben bzw. Modellierung genaue Definitionen der betrachteten zuf¨alligen Ereignisse !
Zuf¨ allige Ereignisse
Geg.: zuf¨allige Ereignisse A,B,C,A1,A2, . . . zu einem Zufallsversuch.
I Zu A entgegengesetztes (komplement¨ares) Ereignis Ac =¬A=A
: tritt genau dann ein, wenn A nicht eintritt.
I Vereinigung A∪B: Aoder B (oder beide) treten ein;
analog:A1∪A2∪A3∪. . .: mindestens eines der Ereignisse A1,A2,A3, . . . tritt ein.
I Durchschnitt A∩B: A undB treten (gemeinsam) ein;
analog:A1∩A2∩A3∩. . .: die Ereignisse A1,A2,A3, . . . treten gemeinsam (bei einer Realisierung des Zufallsversuchs) ein.
I Sicheres Ereignis Ω: tritt immer ein (auch Ergebnisraumgenannt).
I Unm¨ogliches Ereignis ∅: tritt niemals ein.
I Aund B sind unvereinbar (sind disjunkt, schließen einander aus): sie k¨onnen nicht gemeinsam eintreten, d.h. A∩B =∅.
I Das Ereignis A zieht das Ereignis B nach sich, A⊆B: wenn A eintritt, dann tritt auch B ein.
Einige Rechenregeln f¨ ur zuf¨ allige Ereignisse
I Das sichere Ereignis Ω kann als Menge der m¨oglichen Versuchsergebnisse aufgefasst werden, die Elemente sind die Elementarereignisse ω1, ω2, . . ..
I Rechenregeln wie in der Mengenlehre, Skizzen k¨onnen helfen.
I F¨ur alle Ereignisse A zu einem zuf¨alligen Versuch gilt: A⊆Ω .
I A∪B =B∪A, A∩B =B∩A (Kommutativit¨at).
I A∪(B∪C) = (A∪B)∪C, A∩(B∩C) = (A∩B)∩C (Assoziativit¨at).
I A∩(B∪C) = (A∩B)∪(A∩C) ,
A∪(B∩C) = (A∪B)∩(A∪C) (Distributivit¨at).
I A∪Ac= Ω, A∩Ac=∅.
I Regeln von de Morgan: (analog auch f¨ur gr¨oßere Anzahl) (A∩B)c=Ac∪Bc, (A∪B)c=Ac∩Bc.
Zerlegung (vollst¨ andiges Ereignissystem)
I Die zuf¨alligen Ereignisse A1,A2, . . . ,An bilden eineZerlegung von Ω (bilden einvollst¨andiges Ereignissystem), wenn bei jeder
Realisierung des Zufallsversuches genau eines der Ereignisse A1,A2, . . . ,An eintritt, d.h. die Ereignisse Ai sind paarweise unvereinbar (Ai∩Aj =∅, falls i 6=j) und es gilt
A1∪A2∪. . .∪An=
n
[
i=1
Ai = Ω (Fallunterscheidung).
I Einfachster Fall: Ω =A∪Ac f¨ur ein zuf¨alliges Ereignis A.
Ubungsaufgabe ¨
Die Arbeit eines Kraftwerkes werde durch drei unabh¨angig voneinander arbeitende Kontrollsysteme (kurz
”Systeme“) ¨uberwacht, die jedoch auch einer gewissen St¨oranf¨alligkeit unterliegen. Es bezeichneSi das Ereignis, dass das i-te System st¨orungsfrei arbeitet (i = 1,2,3).
Dr¨ucken Sie folgende Ereignisse mit Hilfe der EreignisseS1,S2 und S3
aus:
I A . . .
”Alle Systeme arbeiten st¨orungsfrei.“
I B . . .
”Kein System arbeitet st¨orungsfrei.“
I C . . .
”Mindestens ein System arbeitet st¨orungsfrei.“
I D . . .
”Genau ein System arbeitet st¨orungsfrei.“
I E . . .
”H¨ochstens zwei Systeme sind gest¨ort.“
Wahrscheinlichkeiten
I In einem stochastischen Modell wird jedem zuf¨alligen Ereignis zu einem Zufallsversuch eine Zahl zwischen 0 und 1 zugewiesen, die sogenannte Wahrscheinlichkeit (f¨ur das Eintreten des Ereignisses).
I Hintergrund: Eigenschaften der relativen H¨aufigkeiten
hn(A) = Hn(A) n ,
mit Hn(A) als absolute H¨aufigkeit des Eintretens des zuf¨alligen Ereignisses A in n unabh¨angigen Versuchswiederholungen.
I F¨ur A⊆B ⊆Ω gilt 0≤hn(A)≤hn(B)≤hn(Ω) = 1 .
I F¨ur A∩B =∅ gilt hn(A∪B) =hn(A) +hn(B) .
I Erfahrungstatsache:
F¨ur n → ∞
”konvergiert“ hn(A) oft gegen eine feste reelle Zahl (”Stabilisierung der relativen H¨aufigkeiten“).
Stabilisierung der relativen H¨ aufigkeiten – Beispiel
Ergebnisse von 300 durchgef¨uhrten W¨urfen einer Reißzwecke auf einen Steinboden mit den beiden m¨oglichen Ergebnissen
”Spitze nach oben“=b
”1“ und
”Spitze schr¨ag nach unten“=b
”0“.
Fortlaufend notierte relative H¨aufigkeiten f¨ur
”1“:
Quelle: N. Henze, Stochastik f¨ur Einsteiger, 2013, 10. Aufl., Kap. 4 .
Axiome von Kolmogorow 1933
I Bezeichnung: P(A) Wahrscheinlichkeit des Ereignisses A.
I Axiome:
1. 0≤P(A)≤1 ; 2. P(Ω) = 1 ;
3. P(A1∪A2∪. . .) =P(A1) +P(A2) +. . ., falls die Ereignisse Ai
paarweise unvereinbar sind, d.h. Ai∩Aj =∅(i6=j) .
I Bemerkung: Jede Zuweisung der Wahrscheinlichkeitswerte zu den zuf¨alligen Ereignissen zu einem Zufallsversuch, die diese Axiome erf¨ullt, ist aus mathematischer Sicht korrekt (unabh¨angig davon, ob sie die Realit¨at gut beschreibt).
I Folgerungen:
P(A∪B) =P(A) +P(B), falls A∩B =∅ (Additionssatz);
P(A∪B) =P(A) +P(B)−P(A∩B) ; P(Ac) = 1−P(A) ;
A⊆B ⇒ P(A)≤P(B).
Beispielaufgabe
F¨ur die EreignisseAund B seien folgende Wahrscheinlichkeiten bekannt:
P(A) = 0.25, P(B) = 0.45, P(A∪B) = 0.5 . Berechnen Sie
1. P(A∩Bc) 2. P(Ac∩Bc)
3. P((A∩Bc)∪(Ac∩B))
Praktisch sichere und praktisch unm¨ ogliche Ereignisse
I Ein zuf¨alliges Ereignis A mit P(A) = 1 wird auchfast sicheres Ereignis genannt, ein Ereignis B mit P(B) = 0 einfast unm¨ogliches Ereignis.
I In Anwendungen spielen oft praktisch sicherebzw. praktisch unm¨ogliche zuf¨allige Ereignisse eine große Rolle, dies sind zuf¨allige Ereignisse mit einer Wahrscheinlichkeit nahe bei 1 bzw. nahe bei 0.
Bei einer einmaligen Realisierung eines Zufallsversuches kann man sich sehr sicher sein, dass ein praktisch sicheres Ereignis auch tats¨achlich eintritt und ein praktisch unm¨ogliches Ereignis auch tats¨achlich nicht eintritt, dies kann aber nicht garantiert werden (auch allgemein bei fast sicheren bzw. fast unm¨oglichen Ereignissen).
I Wie nah der Wert der Wahrscheinlichkeit bei 1 bzw. 0 liegen sollte, h¨angt von der Situation (und den Folgen bei einer Fehlentscheidung) ab.
Beispiel
Wirft man 1000 mal eine symmetrische M¨unze (oder 100 mal 10 gleichartige symmetrische M¨unzen), dann kann man recht sicher sein, dass die Anzahl der F¨alle, in denen Wappen oben ist, zwischen 453 und 547 liegt (die Wahrscheinlichkeit daf¨ur betr¨agt ungef¨ahr 0.997).
Eine 100%ig richtige Aussage ist jedoch nur derartig m¨oglich, dass die Anzahl der F¨alle, in denen Wappen oben ist, zwischen 0 und 1000 liegt.
2.2 Klassische Wahrscheinlichkeiten ( Laplace -Modell)
I F¨ur Zufallsversuche mit
I endlich vielen m¨oglichen Versuchsergebnissen (n∈Nelementare Versuchsausg¨ange oder Elementarereignisse ω1, . . . , ωn),
I die alle gleichwahrscheinlich sind (keines wird bevorzugt, alle haben dieselbe Chance einzutreten).
I Beispiele:
I W¨urfeln mit einem fairen oder gerechten W¨urfel, n= 6, Elementarereignisse sind 1,2,3,4,5,6 .
I Zahlenlotto
”6 aus 49“ ,
n= Anzahl der m¨oglichen Tipps mit 6 aus 49 Zahlen.
I Aus den Axiomen f¨ur Wahrscheinlichkeiten folgt dann die einzige m¨ogliche Definition von Wahrscheinlichkeiten in dieser Situation (die sogenannteklassische Wahrscheinlichkeitsdefinition).
Klassische Wahrscheinlichkeitsdefinition
I F¨ur jedes der n Elementarereignisse ωk,k = 1, . . . ,n, gilt dann:
P({ωk}) = 1 n.
I F¨ur ein beliebiges Ereignis A gilt unter obigen Bedingungen:
P(A) = Anzahl der Elementarereignisse in A
n bzw.
P(A) = Anzahl der f¨ur A g¨unstigenF¨alle
Anzahlaller m¨oglichergleichwahrscheinlicher F¨alle.
I Beispiel: Zweimaliges W¨urfeln mit einem fairen W¨urfel, A={
”Augensumme mindestens 10“}.
I Bei Wahrscheinlichkeitsberechnungen im Zusammenhang mit der klassischen Wahrscheinlichkeitsdefinition werden oft kombinatorische Formeln genutzt.
Das Paradoxon von de M´ er´ e
Der Franzosede M´er´e schaute oft beim W¨urfelspiel zu und beobachtete, dass beim gleichzeitigen Werfen dreier Spielw¨urfel als Augensumme die Zahl 11 (Ereignis A11) h¨aufiger als die Zahl 12 (EreignisA12) auftrat, obwohl beide Ergebnisse von seinem Standpunkt aus gleichwahrscheinlich zu sein schienen.
de M´er´e stellte n¨amlich folgende ¨Uberlegung an.
I M¨oglichkeiten f¨ur Augensumme 11: Kombinationen
6−4−1, 6−3−2, 5−5−1, 5−4−2, 5−3−3, 4−4−3.
I M¨oglichkeiten f¨ur Augensumme 12: Kombinationen
6−5−1, 6−4−2, 6−3−3, 5−5−2, 5−4−3, 4−4−4. Tats¨achlich gilt aber
P(A11) = 27
216 = 0.125>0.116≈ 25
216 =P(A12).
( )
2.3 Bedingte Wahrscheinlichkeiten
I H¨aufig ist es n¨utzlich, Bedingungen zu ber¨ucksichtigen, welche die Zuf¨alligkeit einschr¨anken.
I Beispiel: Zuf¨alliges Ziehen einer Kugel aus einer Urne
I Insgesamt 11 weiße und 6 schwarze Kugeln;
I von den 17 Kugeln sind 8 Kugeln (6 weiße und 2 schwarze) markiert;
I die restlichen 9 Kugeln (5 weiße und 4 schwarze) sind unmarkiert.
I Ereignis S . . .
”gezogene Kugel ist schwarz“ ;
I Ereignis M . . .
”gezogene Kugel ist markiert“ ;
I Ereignis U . . .
”gezogene Kugel ist unmarkiert“ .
I Ohne Bedingung: P(S) = 176 , P(S ∩M) = 172 , P(S ∩U) = 174 .
I Einschr¨ankung auf markierte Kugeln:
P(S|M) = 28, P(M) = 178 , d.h. P(S|M) = P(S∩MP(M)).
I Einschr¨ankung auf unmarkierte Kugeln:
P(S|U) = 49, P(U) = 179 , d.h. P(S|U) = P(S∩U)P(U) .
Allgemeine Definition bedingter Wahrscheinlichkeiten
I Bedingte Wahrscheinlichkeit von Aunter der Bedingung B:
P(A|B) = P(A∩B)
P(B) , falls P(B)6= 0. (A,B sind zuf¨allige Ereignisse zu einem Zufallsversuch.)
I Wichtig: Im Allgemeinen gilt P(A|B)6=P(B|A) !
I Bei fester Bedingung B kann man wie mit (unbedingten) Wahrscheinlichkeiten rechnen, z.B. P(Ac|B) = 1−P(A|B) .
I Diese Definition korrespondiert zu der H¨aufigkeitsinterpretation von Wahrscheinlichkeiten:
Hn(B) Versuchswiederholungen, bei denen B eingetreten ist;
darunter Hn(A∩B) Versuchswiederholungen, bei denen zus¨atzlich A eingetreten ist;
P(A|B)≈ Hn(A∩B)
Hn(B) = hn(A∩B)
hn(B) ≈ P(A∩B) P(B) .
Multiplikationsregeln
I Multiplikationsregel: P(A∩B) =P(A|B)·P(B) .
I Erweiterte Multiplikationsregel: Sind A1, . . . ,An zuf¨allige Ereignisse mit P(A1∩. . .∩An−1)>0 , dann gilt
P(A1∩A2∩. . .∩An) =P(A1)·P(A2|A1)·P(A3|A1∩A2)·
. . .·P(An|A1∩A2∩. . .∩An−1).
I In bestimmten F¨allen werden diese Formeln auch zur Definition der entsprechenden Wahrscheinlichkeiten genutzt.
I Ubungsbeispiel:¨ In einer Urne befinden sich 7 rote und 3 schwarze Kugeln. Es werden nacheinander 4 Kugeln zuf¨allig ohne Zur¨ucklegen entnommen.
Wie groß ist die Wahrscheinlichkeit f¨ur das Ereignis A, dass alle 4 gezogenen Kugeln rot sind?
Formel der totalen Wahrscheinlichkeit
I Berechnung der totalen (unbedingten) Wahrscheinlichkeit aus den bedingten Wahrscheinlichkeiten als gewichtetes Mittel !
I Sei B1, . . . ,Bn eine Zerlegung von Ω mitP(Bi)6= 0,i = 1, . . . ,n. Dann gilt dieFormel der totalen Wahrscheinlichkeit: f¨ur ein beliebiges zuf¨alliges Ereignis A⊆Ω ist
P(A) =
n
X
i=1
P(A|Bi)P(Bi).
I Bei einer Zerlegung Ω =B∪Bc gilt
P(A) =P(A|B)P(B) +P(A|Bc)P(Bc).
I Im Beispiel mit dem Ziehen einer Kugel gilt
P(S) =P(S|M)·P(M) +P(S|U)·P(U), 6
17 = 2 8 · 8
17 +4 9· 9
17.
Ubungsaufgabe ¨
Drei Zulieferer liefern eine Komponente zur Produktion eines Erzeugnisses im Anzahlverh¨altnis 5 : 3 : 2.
Die Fehlerquote betrage bei Komponenten der 1. Zulieferfirma 7%, bei Komponenten der 2. Zulieferfirma 4% und bei Komponenten der 3. Zulieferfirma 2%.
Wie groß ist die Wahrscheinlichkeit daf¨ur, dass eine aus der
Gesamtliefermenge rein zuf¨allig ausgew¨ahlte Komponente fehlerhaft ist ?
Formel von Bayes
I Unter den Bedingungen des Satzes der totalen Wahrscheinlichkeit und unter der Voraussetzung P(A)>0 gilt dieFormel von Bayes
P(Bi|A) = P(A|Bi)P(Bi)
P(A) = P(A|Bi)P(Bi) Pn
j=1
P(A|Bj)P(Bj) .
I P(Bi) heißen aucha-priori-Wahrscheinlichkeiten (f¨ur die Ereignisse Bi) .
I P(Bi|A) heißen auch a-posteriori-Wahrscheinlichkeiten,
sie liefern eine Korrektur der urspr¨unglichen Wahrscheinlichkeiten, wenn bekannt ist, dass das zuf¨allige Ereignis A eingetreten ist oder dies angenommen wird.
Ubungsaufgabe ¨
F¨ur die Situation der obigen ¨Ubungsaufgabe mit den 3 Zulieferbetrieben wurde eine Komponente aus der Gesamtzuliefermenge rein zuf¨allig ausgew¨ahlt und ¨uberpr¨uft.
Dabei wurde festgestellt, dass die Komponente defekt ist.
Mit welcher Wahrscheinlichkeit stammte diese Komponente von der 1.
Zulieferfirma ?
Beispiel Diagnoseverfahren
I Diagnoseverfahren liefern im Allg. nicht 100%ig richtige Ergebnisse:
I Ein Fehler wird nicht erkannt.
I Ein Fehler wird f¨alschlicherweise angezeigt.
I Resultierende Frage:
Wie groß ist die Wahrscheinlichkeit, dass ein zuf¨allig ausgew¨ahlter und als fehlerhaft angezeigter Gegenstand tats¨achlich fehlerhaft ist ?
I Beispiel:
F . . .
”Gegenstand ist tats¨achlich fehlerhaft“ ,P(F) = 0.001 . A . . .
”Gegenstand wird als fehlerhaft angezeigt“ .
Wahrscheinlichkeit f¨ur eine Fehlererkennung: P(A|F) = 0.9 . Wahrscheinlichkeit f¨ur die Identifizierung eines einwandfreien Gegenstandes: P(Ac|Fc) = 0.99 .
Ges.: P(F|A) .
2.4 Stochastische Unabh¨ angigkeit
Definition:
I Zwei zuf¨allige Ereignisse A und B zu einem Zufallsversuch heißen (stochastisch) unabh¨angig, wenn gilt
P(A∩B) =P(A)·P(B).
I Zuf¨allige Ereignisse A1, . . . ,An zu einem Zufallsversuch heißen paarweise unabh¨angig, falls alle Paare von ausgew¨ahlten Ereignissen unabh¨angig sind, d.h.
P(Ai ∩Aj) =P(Ai)·P(Aj) f¨ur alle i 6=j.
I Diese Ereignisse heißenin Gesamtheit odertotal odervollst¨andig (stochastisch) unabh¨angig, falls eine entsprechende Formel f¨ur alle m¨oglichen Auswahlen (nicht nur von Paaren) gilt, d.h. f¨ur alle 2≤k ≤n, 1≤i1 < . . . <ik ≤n gilt
P(Ai1∩. . .∩Aik) =P(Ai1)·. . .·P(Aik).
Beispiel und Eigenschaften unabh¨ angiger Ereignisse
I Beispiel: Zweifacher M¨unzwurf mit symmetrischer M¨unze A . . .
”1. Wurf Zahl“ , B . . .
”2. Wurf Zahl“ , P(A) = 1
2, P(B) = 1
2, P(A∩B) = 1 4 = 1
2·1 2.
I Satz A und B seien unabh¨angige Ereignisse zu einem
Zufallsversuch. Dann sind auch die zuf¨alligen Ereignisse A und das Komplement von B, also Bc, stochastisch unabh¨angig. Ebenso sind in diesem Fall Ac und B sowie auch Ac und Bc jeweils stochastisch unabh¨angige Ereignisse.
I Aus der paarweisen Unabh¨angigkeit der Ereignisse A1, . . . ,An folgt im Allgemeinen nicht deren totale Unabh¨angigkeit.
I Die Unabh¨angigkeit von Ereignissen (im Allg. die totale) wird der Einfachheit halber h¨aufig vorausgesetzt, gezwungenermaßen oft auch dann, wenn sie sachlich schwer begr¨undbar ist.
Bedingte Wahrscheinlichkeiten f¨ ur unabh¨ angige Ereignisse
Sind zwei zuf¨allige Ereignisse A,B stochastisch unabh¨angig, dann gelten (falls P(B)>0 bzw. P(A)>0)
P(A|B) =P(A) bzw. P(B|A) =P(B),
d.h. die bedingten Wahrscheinlichkeiten sind gleich den unbedingten Wahrscheinlichkeiten der beiden Ereignisse. Entsprechende Formeln gelten auch f¨ur mehr als 2 in Gesamtheit unabh¨angige Ereignisse.
Anwendung in Zuverl¨ assigkeitstheorie
Betrachten Serien- (Reihen-) und Parallelsysteme von Elementen (Bauteilen, Teilsystemen etc.), die vollst¨andig unabh¨angig voneinander funktionst¨uchtig sind oder ausfallen.
I 2 Elemente E1,E2; Ereignisse Fi . . .
”ElementEi funktioniert“ , P(Fi) =pi, Fi stochastisch unabh¨angig (i = 1,2) ,
F . . .
”System funktioniert“ .
I DasSeriensystem funktioniert, wenn sowohl E1 als auch E2
funktionieren, d.h. der Ausfall bereits eines Elements zum Systemausfall f¨uhrt:
P(F) =P(F1∩F2) =P(F1)·P(F2) =p1·p2.
I DasParallelsystem funktioniert, wenn E1 oder E2 oder beide Elemente funktionieren (mindestens ein Element funktioniert):
P(F) =P(F1∪F2) = 1−P(F1c∩F2c)
= 1−(1−p1)·(1−p2) =p1+p2−p1·p2.
Redundante Systeme
I Seriensysteme aus vielen Elementen erfordern oft eine sehr hohe Funktionswahrscheinlichkeit der Arbeitselemente, die meist nicht realisierbar ist. Deshalb werden Reserveelemente eingebaut.
I Das entstehende System ist dann kein Seriensystem mehr und ist strukturell redundant(lateinisch: redundantia = ¨Uberf¨ulle).
I Es gibt 3 Arten der strukturellen Redundanz:
I Kalte Redundanz(unbelastete Redundanz oderReserve):
Im Reservezustand sind die Elemente keinerlei Beanspruchungen ausgesetzt, k¨onnen also nicht ausfallen.
I Warme Redundanz(erleichterte RedundanzoderReserve):
Die Reserveelemente sind geringeren Beanspruchungen ausgesetzt, die Ausfallwahrscheinlichkeit ist geringer als die der Arbeitselemente.
I Heiße Redundanz(belastete RedundanzoderReserve):
Die Reserveelemente sind den gleichen Beanspruchungen ausgesetzt wie die Arbeitselemente, besitzen also auch entsprechende
Ausfallwahrscheinlichkeiten.