• Keine Ergebnisse gefunden

Statistik f¨ur Ingenieure 2 Grundlagen der Wahrscheinlichkeitsrechnung

N/A
N/A
Protected

Academic year: 2021

Aktie "Statistik f¨ur Ingenieure 2 Grundlagen der Wahrscheinlichkeitsrechnung"

Copied!
28
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Statistik f¨ ur Ingenieure

2 Grundlagen der Wahrscheinlichkeitsrechnung

Prof. Dr. Hans-J¨org Starkloff

TU Bergakademie Freiberg Institut f¨ur Stochastik

Wintersemester 2019/2020 letzte ¨Anderung: 22.10.2019

(2)

2 Grundlagen der Wahrscheinlichkeitsrechnung 2.1 Zuf¨ allige Ereignisse und Wahrscheinlichkeiten

I Zuf¨alliger Versuch (Zufallsexperiment, Zufallssituation): Vorgang unter genau festgelegten Bedingungen, der (zumindest gedanklich) beliebig oft wiederholbar ist und dessen Ausgang oder Ergebnis (innerhalb einer Menge m¨oglicher Ergebnisse) ungewiß ist.

I Zuf¨alliges Ereignis (kurzEreignis): Teilmenge m¨oglicher Ergebisse, so dass man nach Realisierung des zuf¨alligen Versuches entscheiden kann, ob es eingetreten ist oder nicht (sowie Idealisierungen).

I Bsp.:

Versuch Ereignis

Werfen eines Spielw¨urfels Werfen einer

”6“

Kontrolle einer Warenlieferung ≤3 Ausschussteile

I Bezeichnung von Ereignissen: A,B,A1,A2,Bi, . . ..

I Wichtig: Bei L¨osung von Aufgaben bzw. Modellierung genaue Definitionen der betrachteten zuf¨alligen Ereignisse !

(3)

Zuf¨ allige Ereignisse

Geg.: zuf¨allige Ereignisse A,B,C,A1,A2, . . . zu einem Zufallsversuch.

I Zu A entgegengesetztes (komplement¨ares) Ereignis Ac =¬A=A

: tritt genau dann ein, wenn A nicht eintritt.

I Vereinigung A∪B: Aoder B (oder beide) treten ein;

analog:A1∪A2∪A3∪. . .: mindestens eines der Ereignisse A1,A2,A3, . . . tritt ein.

I Durchschnitt A∩B: A undB treten (gemeinsam) ein;

analog:A1∩A2∩A3∩. . .: die Ereignisse A1,A2,A3, . . . treten gemeinsam (bei einer Realisierung des Zufallsversuchs) ein.

I Sicheres Ereignis Ω: tritt immer ein (auch Ergebnisraumgenannt).

I Unm¨ogliches Ereignis ∅: tritt niemals ein.

I Aund B sind unvereinbar (sind disjunkt, schließen einander aus): sie k¨onnen nicht gemeinsam eintreten, d.h. A∩B =∅.

I Das Ereignis A zieht das Ereignis B nach sich, A⊆B: wenn A eintritt, dann tritt auch B ein.

(4)

Einige Rechenregeln f¨ ur zuf¨ allige Ereignisse

I Das sichere Ereignis Ω kann als Menge der m¨oglichen Versuchsergebnisse aufgefasst werden, die Elemente sind die Elementarereignisse ω1, ω2, . . ..

I Rechenregeln wie in der Mengenlehre, Skizzen k¨onnen helfen.

I F¨ur alle Ereignisse A zu einem zuf¨alligen Versuch gilt: A⊆Ω .

I A∪B =B∪A, A∩B =B∩A (Kommutativit¨at).

I A∪(B∪C) = (A∪B)∪C, A∩(B∩C) = (A∩B)∩C (Assoziativit¨at).

I A∩(B∪C) = (A∩B)∪(A∩C) ,

A∪(B∩C) = (A∪B)∩(A∪C) (Distributivit¨at).

I A∪Ac= Ω, A∩Ac=∅.

I Regeln von de Morgan: (analog auch f¨ur gr¨oßere Anzahl) (A∩B)c=Ac∪Bc, (A∪B)c=Ac∩Bc.

(5)

Zerlegung (vollst¨ andiges Ereignissystem)

I Die zuf¨alligen Ereignisse A1,A2, . . . ,An bilden eineZerlegung von Ω (bilden einvollst¨andiges Ereignissystem), wenn bei jeder

Realisierung des Zufallsversuches genau eines der Ereignisse A1,A2, . . . ,An eintritt, d.h. die Ereignisse Ai sind paarweise unvereinbar (Ai∩Aj =∅, falls i 6=j) und es gilt

A1∪A2∪. . .∪An=

n

[

i=1

Ai = Ω (Fallunterscheidung).

I Einfachster Fall: Ω =A∪Ac f¨ur ein zuf¨alliges Ereignis A.

(6)

Ubungsaufgabe ¨

Die Arbeit eines Kraftwerkes werde durch drei unabh¨angig voneinander arbeitende Kontrollsysteme (kurz

”Systeme“) ¨uberwacht, die jedoch auch einer gewissen St¨oranf¨alligkeit unterliegen. Es bezeichneSi das Ereignis, dass das i-te System st¨orungsfrei arbeitet (i = 1,2,3).

Dr¨ucken Sie folgende Ereignisse mit Hilfe der EreignisseS1,S2 und S3

aus:

I A . . .

”Alle Systeme arbeiten st¨orungsfrei.“

I B . . .

”Kein System arbeitet st¨orungsfrei.“

I C . . .

”Mindestens ein System arbeitet st¨orungsfrei.“

I D . . .

”Genau ein System arbeitet st¨orungsfrei.“

I E . . .

”H¨ochstens zwei Systeme sind gest¨ort.“

(7)

Wahrscheinlichkeiten

I In einem stochastischen Modell wird jedem zuf¨alligen Ereignis zu einem Zufallsversuch eine Zahl zwischen 0 und 1 zugewiesen, die sogenannte Wahrscheinlichkeit (f¨ur das Eintreten des Ereignisses).

I Hintergrund: Eigenschaften der relativen H¨aufigkeiten

hn(A) = Hn(A) n ,

mit Hn(A) als absolute H¨aufigkeit des Eintretens des zuf¨alligen Ereignisses A in n unabh¨angigen Versuchswiederholungen.

I F¨ur A⊆B ⊆Ω gilt 0≤hn(A)≤hn(B)≤hn(Ω) = 1 .

I F¨ur A∩B =∅ gilt hn(A∪B) =hn(A) +hn(B) .

I Erfahrungstatsache:

F¨ur n → ∞

”konvergiert“ hn(A) oft gegen eine feste reelle Zahl (”Stabilisierung der relativen H¨aufigkeiten“).

(8)

Stabilisierung der relativen H¨ aufigkeiten – Beispiel

Ergebnisse von 300 durchgef¨uhrten W¨urfen einer Reißzwecke auf einen Steinboden mit den beiden m¨oglichen Ergebnissen

”Spitze nach oben“=b

”1“ und

”Spitze schr¨ag nach unten“=b

”0“.

Fortlaufend notierte relative H¨aufigkeiten f¨ur

”1“:

Quelle: N. Henze, Stochastik f¨ur Einsteiger, 2013, 10. Aufl., Kap. 4 .

(9)

Axiome von Kolmogorow 1933

I Bezeichnung: P(A) Wahrscheinlichkeit des Ereignisses A.

I Axiome:

1. 0P(A)1 ; 2. P(Ω) = 1 ;

3. P(A1A2. . .) =P(A1) +P(A2) +. . ., falls die Ereignisse Ai

paarweise unvereinbar sind, d.h. AiAj =(i6=j) .

I Bemerkung: Jede Zuweisung der Wahrscheinlichkeitswerte zu den zuf¨alligen Ereignissen zu einem Zufallsversuch, die diese Axiome erf¨ullt, ist aus mathematischer Sicht korrekt (unabh¨angig davon, ob sie die Realit¨at gut beschreibt).

I Folgerungen:

P(A∪B) =P(A) +P(B), falls A∩B =∅ (Additionssatz);

P(A∪B) =P(A) +P(B)−P(A∩B) ; P(Ac) = 1−P(A) ;

A⊆B ⇒ P(A)≤P(B).

(10)

Beispielaufgabe

F¨ur die EreignisseAund B seien folgende Wahrscheinlichkeiten bekannt:

P(A) = 0.25, P(B) = 0.45, P(A∪B) = 0.5 . Berechnen Sie

1. P(A∩Bc) 2. P(Ac∩Bc)

3. P((A∩Bc)∪(Ac∩B))

(11)

Praktisch sichere und praktisch unm¨ ogliche Ereignisse

I Ein zuf¨alliges Ereignis A mit P(A) = 1 wird auchfast sicheres Ereignis genannt, ein Ereignis B mit P(B) = 0 einfast unm¨ogliches Ereignis.

I In Anwendungen spielen oft praktisch sicherebzw. praktisch unm¨ogliche zuf¨allige Ereignisse eine große Rolle, dies sind zuf¨allige Ereignisse mit einer Wahrscheinlichkeit nahe bei 1 bzw. nahe bei 0.

Bei einer einmaligen Realisierung eines Zufallsversuches kann man sich sehr sicher sein, dass ein praktisch sicheres Ereignis auch tats¨achlich eintritt und ein praktisch unm¨ogliches Ereignis auch tats¨achlich nicht eintritt, dies kann aber nicht garantiert werden (auch allgemein bei fast sicheren bzw. fast unm¨oglichen Ereignissen).

I Wie nah der Wert der Wahrscheinlichkeit bei 1 bzw. 0 liegen sollte, h¨angt von der Situation (und den Folgen bei einer Fehlentscheidung) ab.

(12)

Beispiel

Wirft man 1000 mal eine symmetrische M¨unze (oder 100 mal 10 gleichartige symmetrische M¨unzen), dann kann man recht sicher sein, dass die Anzahl der F¨alle, in denen Wappen oben ist, zwischen 453 und 547 liegt (die Wahrscheinlichkeit daf¨ur betr¨agt ungef¨ahr 0.997).

Eine 100%ig richtige Aussage ist jedoch nur derartig m¨oglich, dass die Anzahl der F¨alle, in denen Wappen oben ist, zwischen 0 und 1000 liegt.

(13)

2.2 Klassische Wahrscheinlichkeiten ( Laplace -Modell)

I F¨ur Zufallsversuche mit

I endlich vielen m¨oglichen Versuchsergebnissen (nNelementare Versuchsausg¨ange oder Elementarereignisse ω1, . . . , ωn),

I die alle gleichwahrscheinlich sind (keines wird bevorzugt, alle haben dieselbe Chance einzutreten).

I Beispiele:

I urfeln mit einem fairen oder gerechten W¨urfel, n= 6, Elementarereignisse sind 1,2,3,4,5,6 .

I Zahlenlotto

6 aus 49“ ,

n= Anzahl der m¨oglichen Tipps mit 6 aus 49 Zahlen.

I Aus den Axiomen f¨ur Wahrscheinlichkeiten folgt dann die einzige m¨ogliche Definition von Wahrscheinlichkeiten in dieser Situation (die sogenannteklassische Wahrscheinlichkeitsdefinition).

(14)

Klassische Wahrscheinlichkeitsdefinition

I F¨ur jedes der n Elementarereignisse ωk,k = 1, . . . ,n, gilt dann:

P({ωk}) = 1 n.

I F¨ur ein beliebiges Ereignis A gilt unter obigen Bedingungen:

P(A) = Anzahl der Elementarereignisse in A

n bzw.

P(A) = Anzahl der f¨ur A g¨unstigenF¨alle

Anzahlaller m¨oglichergleichwahrscheinlicher F¨alle.

I Beispiel: Zweimaliges W¨urfeln mit einem fairen W¨urfel, A={

”Augensumme mindestens 10“}.

I Bei Wahrscheinlichkeitsberechnungen im Zusammenhang mit der klassischen Wahrscheinlichkeitsdefinition werden oft kombinatorische Formeln genutzt.

(15)

Das Paradoxon von de M´ er´ e

Der Franzosede M´er´e schaute oft beim W¨urfelspiel zu und beobachtete, dass beim gleichzeitigen Werfen dreier Spielw¨urfel als Augensumme die Zahl 11 (Ereignis A11) h¨aufiger als die Zahl 12 (EreignisA12) auftrat, obwohl beide Ergebnisse von seinem Standpunkt aus gleichwahrscheinlich zu sein schienen.

de M´er´e stellte n¨amlich folgende ¨Uberlegung an.

I M¨oglichkeiten f¨ur Augensumme 11: Kombinationen

6−4−1, 6−3−2, 5−5−1, 5−4−2, 5−3−3, 4−4−3.

I M¨oglichkeiten f¨ur Augensumme 12: Kombinationen

6−5−1, 6−4−2, 6−3−3, 5−5−2, 5−4−3, 4−4−4. Tats¨achlich gilt aber

P(A11) = 27

216 = 0.125>0.116≈ 25

216 =P(A12).

( )

(16)

2.3 Bedingte Wahrscheinlichkeiten

I H¨aufig ist es n¨utzlich, Bedingungen zu ber¨ucksichtigen, welche die Zuf¨alligkeit einschr¨anken.

I Beispiel: Zuf¨alliges Ziehen einer Kugel aus einer Urne

I Insgesamt 11 weiße und 6 schwarze Kugeln;

I von den 17 Kugeln sind 8 Kugeln (6 weiße und 2 schwarze) markiert;

I die restlichen 9 Kugeln (5 weiße und 4 schwarze) sind unmarkiert.

I Ereignis S . . .

gezogene Kugel ist schwarz“ ;

I Ereignis M . . .

gezogene Kugel ist markiert“ ;

I Ereignis U . . .

gezogene Kugel ist unmarkiert“ .

I Ohne Bedingung: P(S) = 176 , P(S ∩M) = 172 , P(S ∩U) = 174 .

I Einschr¨ankung auf markierte Kugeln:

P(S|M) = 28, P(M) = 178 , d.h. P(S|M) = P(S∩MP(M)).

I Einschr¨ankung auf unmarkierte Kugeln:

P(S|U) = 49, P(U) = 179 , d.h. P(S|U) = P(S∩U)P(U) .

(17)

Allgemeine Definition bedingter Wahrscheinlichkeiten

I Bedingte Wahrscheinlichkeit von Aunter der Bedingung B:

P(A|B) = P(A∩B)

P(B) , falls P(B)6= 0. (A,B sind zuf¨allige Ereignisse zu einem Zufallsversuch.)

I Wichtig: Im Allgemeinen gilt P(A|B)6=P(B|A) !

I Bei fester Bedingung B kann man wie mit (unbedingten) Wahrscheinlichkeiten rechnen, z.B. P(Ac|B) = 1−P(A|B) .

I Diese Definition korrespondiert zu der H¨aufigkeitsinterpretation von Wahrscheinlichkeiten:

Hn(B) Versuchswiederholungen, bei denen B eingetreten ist;

darunter Hn(A∩B) Versuchswiederholungen, bei denen zus¨atzlich A eingetreten ist;

P(A|B)≈ Hn(A∩B)

Hn(B) = hn(A∩B)

hn(B) ≈ P(A∩B) P(B) .

(18)

Multiplikationsregeln

I Multiplikationsregel: P(A∩B) =P(A|B)·P(B) .

I Erweiterte Multiplikationsregel: Sind A1, . . . ,An zuf¨allige Ereignisse mit P(A1∩. . .∩An−1)>0 , dann gilt

P(A1∩A2∩. . .∩An) =P(A1)·P(A2|A1)·P(A3|A1∩A2

. . .·P(An|A1∩A2∩. . .∩An−1).

I In bestimmten F¨allen werden diese Formeln auch zur Definition der entsprechenden Wahrscheinlichkeiten genutzt.

I Ubungsbeispiel:¨ In einer Urne befinden sich 7 rote und 3 schwarze Kugeln. Es werden nacheinander 4 Kugeln zuf¨allig ohne Zur¨ucklegen entnommen.

Wie groß ist die Wahrscheinlichkeit f¨ur das Ereignis A, dass alle 4 gezogenen Kugeln rot sind?

(19)

Formel der totalen Wahrscheinlichkeit

I Berechnung der totalen (unbedingten) Wahrscheinlichkeit aus den bedingten Wahrscheinlichkeiten als gewichtetes Mittel !

I Sei B1, . . . ,Bn eine Zerlegung von Ω mitP(Bi)6= 0,i = 1, . . . ,n. Dann gilt dieFormel der totalen Wahrscheinlichkeit: f¨ur ein beliebiges zuf¨alliges Ereignis A⊆Ω ist

P(A) =

n

X

i=1

P(A|Bi)P(Bi).

I Bei einer Zerlegung Ω =B∪Bc gilt

P(A) =P(A|B)P(B) +P(A|Bc)P(Bc).

I Im Beispiel mit dem Ziehen einer Kugel gilt

P(S) =P(S|M)·P(M) +P(S|U)·P(U), 6

17 = 2 8 · 8

17 +4 9· 9

17.

(20)

Ubungsaufgabe ¨

Drei Zulieferer liefern eine Komponente zur Produktion eines Erzeugnisses im Anzahlverh¨altnis 5 : 3 : 2.

Die Fehlerquote betrage bei Komponenten der 1. Zulieferfirma 7%, bei Komponenten der 2. Zulieferfirma 4% und bei Komponenten der 3. Zulieferfirma 2%.

Wie groß ist die Wahrscheinlichkeit daf¨ur, dass eine aus der

Gesamtliefermenge rein zuf¨allig ausgew¨ahlte Komponente fehlerhaft ist ?

(21)

Formel von Bayes

I Unter den Bedingungen des Satzes der totalen Wahrscheinlichkeit und unter der Voraussetzung P(A)>0 gilt dieFormel von Bayes

P(Bi|A) = P(A|Bi)P(Bi)

P(A) = P(A|Bi)P(Bi) Pn

j=1

P(A|Bj)P(Bj) .

I P(Bi) heißen aucha-priori-Wahrscheinlichkeiten (f¨ur die Ereignisse Bi) .

I P(Bi|A) heißen auch a-posteriori-Wahrscheinlichkeiten,

sie liefern eine Korrektur der urspr¨unglichen Wahrscheinlichkeiten, wenn bekannt ist, dass das zuf¨allige Ereignis A eingetreten ist oder dies angenommen wird.

(22)

Ubungsaufgabe ¨

F¨ur die Situation der obigen ¨Ubungsaufgabe mit den 3 Zulieferbetrieben wurde eine Komponente aus der Gesamtzuliefermenge rein zuf¨allig ausgew¨ahlt und ¨uberpr¨uft.

Dabei wurde festgestellt, dass die Komponente defekt ist.

Mit welcher Wahrscheinlichkeit stammte diese Komponente von der 1.

Zulieferfirma ?

(23)

Beispiel Diagnoseverfahren

I Diagnoseverfahren liefern im Allg. nicht 100%ig richtige Ergebnisse:

I Ein Fehler wird nicht erkannt.

I Ein Fehler wird f¨alschlicherweise angezeigt.

I Resultierende Frage:

Wie groß ist die Wahrscheinlichkeit, dass ein zuf¨allig ausgew¨ahlter und als fehlerhaft angezeigter Gegenstand tats¨achlich fehlerhaft ist ?

I Beispiel:

F . . .

”Gegenstand ist tats¨achlich fehlerhaft“ ,P(F) = 0.001 . A . . .

”Gegenstand wird als fehlerhaft angezeigt“ .

Wahrscheinlichkeit f¨ur eine Fehlererkennung: P(A|F) = 0.9 . Wahrscheinlichkeit f¨ur die Identifizierung eines einwandfreien Gegenstandes: P(Ac|Fc) = 0.99 .

Ges.: P(F|A) .

(24)

2.4 Stochastische Unabh¨ angigkeit

Definition:

I Zwei zuf¨allige Ereignisse A und B zu einem Zufallsversuch heißen (stochastisch) unabh¨angig, wenn gilt

P(A∩B) =P(A)·P(B).

I Zuf¨allige Ereignisse A1, . . . ,An zu einem Zufallsversuch heißen paarweise unabh¨angig, falls alle Paare von ausgew¨ahlten Ereignissen unabh¨angig sind, d.h.

P(Ai ∩Aj) =P(Ai)·P(Aj) f¨ur alle i 6=j.

I Diese Ereignisse heißenin Gesamtheit odertotal odervollst¨andig (stochastisch) unabh¨angig, falls eine entsprechende Formel f¨ur alle m¨oglichen Auswahlen (nicht nur von Paaren) gilt, d.h. f¨ur alle 2≤k ≤n, 1≤i1 < . . . <ik ≤n gilt

P(Ai1∩. . .∩Aik) =P(Ai1)·. . .·P(Aik).

(25)

Beispiel und Eigenschaften unabh¨ angiger Ereignisse

I Beispiel: Zweifacher M¨unzwurf mit symmetrischer M¨unze A . . .

”1. Wurf Zahl“ , B . . .

”2. Wurf Zahl“ , P(A) = 1

2, P(B) = 1

2, P(A∩B) = 1 4 = 1

2·1 2.

I Satz A und B seien unabh¨angige Ereignisse zu einem

Zufallsversuch. Dann sind auch die zuf¨alligen Ereignisse A und das Komplement von B, also Bc, stochastisch unabh¨angig. Ebenso sind in diesem Fall Ac und B sowie auch Ac und Bc jeweils stochastisch unabh¨angige Ereignisse.

I Aus der paarweisen Unabh¨angigkeit der Ereignisse A1, . . . ,An folgt im Allgemeinen nicht deren totale Unabh¨angigkeit.

I Die Unabh¨angigkeit von Ereignissen (im Allg. die totale) wird der Einfachheit halber h¨aufig vorausgesetzt, gezwungenermaßen oft auch dann, wenn sie sachlich schwer begr¨undbar ist.

(26)

Bedingte Wahrscheinlichkeiten f¨ ur unabh¨ angige Ereignisse

Sind zwei zuf¨allige Ereignisse A,B stochastisch unabh¨angig, dann gelten (falls P(B)>0 bzw. P(A)>0)

P(A|B) =P(A) bzw. P(B|A) =P(B),

d.h. die bedingten Wahrscheinlichkeiten sind gleich den unbedingten Wahrscheinlichkeiten der beiden Ereignisse. Entsprechende Formeln gelten auch f¨ur mehr als 2 in Gesamtheit unabh¨angige Ereignisse.

(27)

Anwendung in Zuverl¨ assigkeitstheorie

Betrachten Serien- (Reihen-) und Parallelsysteme von Elementen (Bauteilen, Teilsystemen etc.), die vollst¨andig unabh¨angig voneinander funktionst¨uchtig sind oder ausfallen.

I 2 Elemente E1,E2; Ereignisse Fi . . .

”ElementEi funktioniert“ , P(Fi) =pi, Fi stochastisch unabh¨angig (i = 1,2) ,

F . . .

”System funktioniert“ .

I DasSeriensystem funktioniert, wenn sowohl E1 als auch E2

funktionieren, d.h. der Ausfall bereits eines Elements zum Systemausfall f¨uhrt:

P(F) =P(F1∩F2) =P(F1)·P(F2) =p1·p2.

I DasParallelsystem funktioniert, wenn E1 oder E2 oder beide Elemente funktionieren (mindestens ein Element funktioniert):

P(F) =P(F1∪F2) = 1−P(F1c∩F2c)

= 1−(1−p1)·(1−p2) =p1+p2−p1·p2.

(28)

Redundante Systeme

I Seriensysteme aus vielen Elementen erfordern oft eine sehr hohe Funktionswahrscheinlichkeit der Arbeitselemente, die meist nicht realisierbar ist. Deshalb werden Reserveelemente eingebaut.

I Das entstehende System ist dann kein Seriensystem mehr und ist strukturell redundant(lateinisch: redundantia = ¨Uberf¨ulle).

I Es gibt 3 Arten der strukturellen Redundanz:

I Kalte Redundanz(unbelastete Redundanz oderReserve):

Im Reservezustand sind die Elemente keinerlei Beanspruchungen ausgesetzt, k¨onnen also nicht ausfallen.

I Warme Redundanz(erleichterte RedundanzoderReserve):

Die Reserveelemente sind geringeren Beanspruchungen ausgesetzt, die Ausfallwahrscheinlichkeit ist geringer als die der Arbeitselemente.

I Heiße Redundanz(belastete RedundanzoderReserve):

Die Reserveelemente sind den gleichen Beanspruchungen ausgesetzt wie die Arbeitselemente, besitzen also auch entsprechende

Ausfallwahrscheinlichkeiten.

Referenzen

ÄHNLICHE DOKUMENTE

Aufgabe: Ein Atomreaktor muss notfallm¨aßig abgeschaltet werden, wenn die Tem- peratur im Reaktorkern ¨uber ein bestimmtes Niveau ansteigt. Dazu werden Bi- metallschalter eingebaut,

Dazu wurden von den Patienten, die in einer Klinik f¨ur Schlafst¨orungen eingewiesen waren, zuf¨allig 10 Patienten ausgew¨ahlt, die ein neuartiges Schlafmit- tel

∗ Zusammenfallende oder sehr nah beieinander liegende Beobachtungswer- te sind im Diagramm nicht mehr unterscheidbar, so dass Punkte durch Uberdeckung verloren gehen

2. Aufgabe: In einer großen industriellen Kooperation war das Ziel, Stahlkugeln f¨ur Kugellager mit einem Durchmesser von 1 mm zu produzieren. Am Ende eines Tages wurden 10

Dies kann man interpretieren als die Menge aller Elementarereignisse, f¨ ur die X einen Wert in A annimmt. , 6} ) Die Verteilung erh¨ alt man aus einer Symmetrie¨ uberlegung oder

Trennung von explorativer Datenanalyse und Testen: Explorative Datenanalyse f¨ uhrt zu Hypothe- sen, die mit anderen Daten getestet werden. Ver¨ offentlichung der Hypothesen

die Residuenvarianz soll von den erkl¨ arenden Merkmalen (der Einwohnerzahl) und den angepassten Werten (ann¨ ahernd) unabh¨ angig sein. Varianzstabilisierende Transformation: Wie

Wendet man den R-Befehl anova auf ein einzelnes Modell an, werden die Variablen in der Reihenfolge, in der sie angegeben wurden, nach und nach hinzugef¨ ugt und die p-Werte