• Keine Ergebnisse gefunden

Die so genannte G¨ utefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. F¨ ur unser hier entworfenes Testverfahren gilt

N/A
N/A
Protected

Academic year: 2021

Aktie "Die so genannte G¨ utefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. F¨ ur unser hier entworfenes Testverfahren gilt"

Copied!
37
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Die so genannte G¨ utefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. F¨ ur unser hier entworfenes Testverfahren gilt

g(n, p) = Pr p [T ∈ K] = Pr p [T ≤ k] ≈ Φ k − np p np(1 − p)

!

.

(2)

0,0 0,2 0,4 0,6 0,8 1,0

0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0

n=50

n=100

n=200

G¨ utefunktion g(n, p) f¨ ur verschiedene Werte von n

(3)

Man erkennt deutlich, dass f¨ ur alle n der Wert von k = k(n) genau so gew¨ ahlt wurde, dass g(n, 1/3) = 0,05 gilt. Dies wird durch den in Gleichung 8 angegebenen Ausdruck erreicht.

F¨ ur Werte von p gr¨ oßer als 1/3 wird H 0 : p ≥ 1/3 mit hoher Wahrscheinlichkeit angenommen, w¨ ahrend f¨ ur Werte deutlich unter 1/3 die Hypothese H 0 ziemlich sicher abgelehnt wird.

Ferner ist auff¨ allig, dass g f¨ ur gr¨ oßere Werte von n schneller von Eins auf Null f¨ allt.

Daran erkennt man, dass durch den Test die F¨ alle

” H 0 gilt“ und

” H 0 gilt nicht“ umso

besser unterschieden werden k¨ onnen, je mehr Stichproben durchgef¨ uhrt werden. F¨ ur

Werte von p, bei denen g(n, p) weder nahe bei Eins noch nahe bei Null liegt, kann der

Test nicht sicher entscheiden, ob die Nullhypothese abzulehnen ist.

(4)

4.2 Praktische Anwendung statistischer Tests

Das im vorhergehenden Abschnitt konstruierte Testverfahren taucht in der Literatur unter dem Namen approximativer Binomialtest auf.

Die folgende Tabelle 1 gibt einen ¨ Uberblick ¨ uber die Eckdaten dieses Tests.

(5)

Tabelle:Approximativer Binomialtest

Annahmen:

X

1

, . . . , X

n

seien unabh¨ angig und identisch verteilt mit Pr[X

i

= 1] = p und Pr[X

i

= 0] = 1−p, wobei p unbekannt sei. n sei hinreichend groß, so dass die Approximation aus Korollar 116 brauchbare Ergebnisse liefert.

Hypothesen:

a) H

0

: p = p

0

gegen H

1

: p 6= p

0

, b) H

0

: p ≥ p

0

gegen H

1

: p < p

0

, c) H

0

: p ≤ p

0

gegen H

1

: p > p

0

.

Testgr¨ oße:

Z := h − np

0

p np

0

(1 − p

0

) ,

wobei h := X

1

+ . . . + X

n

die H¨ aufigkeit bezeichnet, mit der die Ereignisse X

i

= 1 aufgetreten sind.

Ablehnungskriterium f¨ ur H

0

bei Signifikanzniveau α:

a) |Z| > z

1−α/2

,

b) Z < z

α

,

c) Z > z

1−α

.

(6)

4.3 Allgemeines Vorgehen bei statistischen Tests

1. Schritt: Formulierung von Annahmen. Ganz ohne Annahmen kommt man meist nicht aus. ¨ Ubliche Annahmen betreffen meist die Verteilung der Stichprobenvariablen und deren Unabh¨ angigkeit.

2. Schritt: Formulierung der Nullhypothese.

3. Schritt: Auswahl des Testverfahrens.

4. Schritt: Durchf¨ uhrung des Tests und Entscheidung.

(7)

4.4 Ausgew¨ ahlte statistische Tests

4.4.1 Wie findet man das richtige Testverfahren?

Statistische Tests kann man nach mehreren Kriterien in Klassen einteilen.

Anzahl der beteiligten Zufallsgr¨ oßen

Sollen zwei Zufallsgr¨ oßen mit potentiell unterschiedlichen Verteilungen verglichen

werden, f¨ ur die jeweils eine Stichprobe erzeugt wird (Zwei-Stichproben-Test), oder

wird nur eine einzelne Zufallsgr¨ oße untersucht (Ein-Stichproben-Test)?

(8)

Bei der Fragestellung

Betr¨ agt die mittlere Zugriffszeit auf einen Datenbankserver im Mittel h¨ ochstens 10ms?

hat man es mit einem Ein-Stichproben-Test zu tun, w¨ ahrend die Untersuchung der Frage

Hat Datenbankserver A eine k¨ urzere mittlere Zugriffszeit als Datenbankserver B?

auf einen Zwei-Stichproben-Test f¨ uhrt.

(9)

Bei mehreren beteiligten Zufallsgr¨ oßen wird zus¨ atzlich unterschieden, ob aus voneinander unabh¨ angigen Grundmengen Stichproben erhoben werden oder nicht.

Beim vorigen Beispiel werden unabh¨ angige Messungen vorgenommen, sofern die Server A und B getrennt voneinander arbeiten. Wenn man jedoch die Frage

L¨ auft ein Datenbankserver auf einer Menge festgelegter Testanfragen mit Query-Optimierung schneller als ohne?

untersucht, so spricht man von verbundenen Messungen.

(10)

Gelegentlich betrachtet man auch den Zusammenhang zwischen mehreren Zufallsgr¨ oßen. Beispielsweise k¨ onnte man sich f¨ ur die Frage interessieren:

Wie stark w¨ achst der Zeitbedarf f¨ ur eine Datenbankanfrage im Mittel mit der (syntaktischen) L¨ ange der Anfrage, d. h. f¨ uhren kompliziertere

Formulierungen zu proportional l¨ angeren Laufzeiten?

Mit solchen Fragenstellungen, bei denen ein funktionaler Zusammenhang zwischen Zufallsgr¨ oßen ermittelt werden soll, besch¨ aftigt sich die Regressionsanalyse. Wenn

¨

uberhaupt erst zu kl¨ aren ist, ob ein solcher Zusammenhang besteht oder ob die

Zufallsgr¨ oßen vielmehr unabh¨ angig voneinander sind, so spricht man von

Zusammenhangsanalyse.

(11)

Formulierung der Nullhypothese

Welche Gr¨ oße dient zur Definition der Nullhypothese? Hierbei werden in erster Linie Tests unterschieden, die Aussagen ¨ uber verschiedene so genannte

Lageparameter treffen, wie z.B. den Erwartungswert oder die Varianz der zugrunde liegenden Verteilungen.

Im Zwei-Stichproben-Fall k¨ onnte man beispielsweise untersuchen, ob der

Erwartungswert der Zufallsgr¨ oße A gr¨ oßer oder kleiner als bei Zufallsgr¨ oße B ist.

Gelegentlich wird zur Formulierung der Nullhypothese auch der so genannte Median betrachtet: Der Median einer Verteilung entspricht dem (kleinsten) Wert x mit F(x) = 1/2.

Neben solchen Tests auf Lageparameter gibt es z.B. auch Tests, die auf eine

vorgegebene Verteilung oder auf ein Maß f¨ ur die Abh¨ angigkeit verschiedener

Zufallsgr¨ oßen testen.

(12)

Annahmen ¨ uber die Zufallsgr¨ oßen

Was ist ¨ uber die Verteilung der untersuchten Gr¨ oße(n) bekannt? Bei

entsprechenden Annahmen k¨ onnte es sich z.B. um die Art der Verteilung, den

Erwartungswert oder die Varianz handeln.

(13)

4.4.2 Ein-Stichproben-Tests f¨ ur Lageparameter

Beim approximativen Binomialtest wird ausgenutzt, dass die Binomialverteilung f¨ ur große n nach dem Grenzwertsatz von de Moivre (Korollar 116) gegen die

Normalverteilung konvergiert. Aus diesem Grund kann man diesen Test auch als

Spezialfall eines allgemeineren Testverfahrens ansehen, n¨ amlich des Gaußtest, der nun

dargestellt wird.

(14)

Tabelle: Gaußtest Annahmen:

X

1

, . . . , X

n

seien unabh¨ angig und identisch verteilt mit X

i

∼ N (µ, σ

2

) , wobei σ

2

bekannt ist.

Alternativ gelte E [X

i

] = µ und Var[X

i

] = σ

2

, und n sei groß genug.

Hypothesen:

a) H

0

: µ = µ

0

gegen H

1

: µ 6= µ

0

, b) H

0

: µ ≥ µ

0

gegen H

1

: µ < µ

0

, c) H

0

: µ ≤ µ

0

gegen H

1

: µ > µ

0

. Testgr¨ oße:

Z := X − µ

0

σ

√ n .

Ablehnungskriterium f¨ ur H

0

bei Signifikanzniveau α :

a) |Z| > z

1−α/2

,

b) Z < z

α

,

c) Z > z

1−α

.

(15)

Der Gaußtest hat den Nachteil, dass man die Varianz σ 2 der beteiligten Zufallsgr¨ oßen kennen muss.

Wenn diese unbekannt ist, so liegt es nahe, die Varianz durch die

Stichprobenvarianz S 2 (siehe Definition 121) anzun¨ ahern. Dies f¨ uhrt auf den so

genannten t-Test, der in der folgenden ¨ Ubersicht dargestellt ist.

(16)

Tabelle: t-Test Annahmen:

X

1

, . . . , X

n

seien unabh¨ angig und identisch verteilt mit X

i

∼ N (µ, σ

2

) . Alternativ gelte E [X

i

] = µ und Var[X

i

] = σ

2

, und n sei groß genug.

Hypothesen:

a) H

0

: µ = µ

0

gegen H

1

: µ 6= µ

0

, b) H

0

: µ ≥ µ

0

gegen H

1

: µ < µ

0

, c) H

0

: µ ≤ µ

0

gegen H

1

: µ > µ

0

. Testgr¨ oße:

T := X − µ

0

S

√ n.

Ablehnungskriterium f¨ ur H

0

bei Signifikanzniveau α :

a) |T | > t

n−1,1−α/2

,

b) T < t

n−1,α

,

c) T > t

n−1,1−α

.

(17)

Hierbei gibt t n−1,1−α das (1 − α)-Quantil der t-Verteilung mit n − 1 Freiheitsgraden an. Die t-Verteilung taucht manchmal auch unter dem Namen Student-Verteilung auf, da sie urspr¨ unglich unter dem Pseudonym

” Student“ publiziert wurde.

Wir gehen an dieser Stelle nicht darauf ein, wieso die Testgr¨ oße die t-Verteilung besitzt,

sondern weisen nur darauf hin, dass die Dichte dieser Verteilung (eigentlich handelt es

sich um eine ganze Familie von Verteilungen, da die Anzahl der Freiheitsgrade jeweils

noch gew¨ ahlt werden kann) der Dichte der Normalverteilung ¨ ahnelt. F¨ ur große n

(Faustregel: n ≥ 30) liegen die beiden Dichten so genau ¨ ubereinander, dass man in der

Praxis die t-Verteilung durch die Normalverteilung ann¨ ahert.

(18)

0,0 0,1 0,2 0,3 0,4

-4,0 -2,0 0,0 2,0 4,0

n=1

n=5

n=20

n!1

Dichte der t-Verteilung mit n Freiheitsgraden

(19)

Als weitere Beispiele f¨ ur g¨ angige Ein-Stichproben-Tests zu Lageparametern seien der Wilcoxon-Test und der χ 2 -Varianztest genannt. Ersterer dient zum Testen von

Hypothesen zum Median, w¨ ahrend der zweite Test Hypothesen zur Varianz beinhaltet.

(20)

4.4.3 Zwei-Stichproben-Tests f¨ ur Lageparameter

Bei Zwei-Stichproben-Tests wollen wir das Verh¨ altnis von Lageparametern

untersuchen. Besonders wichtig sind hierbei Tests zum Erwartungswert. F¨ ur zwei

Zufallsgr¨ oßen X und Y k¨ onnten wir beispielsweise die Frage untersuchen, ob f¨ ur die

Erwartungswerte µ X und µ Y gilt, dass µ X = µ Y ist.

(21)

Tabelle: Zwei-Stichproben-t-Test Annahmen:

X

1

, . . . , X

m

und Y

1

, . . . , Y

n

seien unabh¨ angig und jeweils identisch verteilt, wobei X

i

∼ N (µ

X

, σ

2X

) und Y

i

∼ N (µ

Y

, σ

Y2

) gelte. Die Varianzen seien identisch, also σ

2X

= σ

Y2

.

Hypothesen:

a) H

0

: µ

X

= µ

Y

gegen H

1

: µ

X

6= µ

Y

, b) H

0

: µ

X

≥ µ

Y

gegen H

1

: µ

X

< µ

Y

, c) H

0

: µ

X

≤ µ

Y

gegen H

1

: µ

X

> µ

Y

. Testgr¨ oße:

T :=

s n + m − 2

1

m

+

1n

· X − Y

q

(m − 1) · S

2X

+ (n − 1) · S

Y2

.

Ablehnungskriterium f¨ ur H

0

bei Signifikanzniveau α:

a) |T| > t

m+n−2,1−α/2

,

b) T < t

m+n−2,α

,

c) T > t

m+n−2,1−α

.

(22)

Vom Zwei-Stichproben-t-Test findet man in der Literatur noch zus¨ atzliche Varianten,

die auch dann einsetzbar sind, wenn die beteiligten Zufallsgr¨ oßen nicht dieselbe Varianz

besitzen. Der beim Ein-Stichproben-Fall erw¨ ahnte Wilcoxon-Test kann ebenfalls auf

den Zwei-Stichproben-Fall ¨ ubertragen werden.

(23)

4.4.4 Nicht an Lageparametern orientierte Tests

Wir betrachten in diesem Abschnitt exemplarisch den χ 2 -Anpassungstest. Bei einem Anpassungstest wird nicht nur der Lageparameter einer Verteilung getestet, sondern es wird die Verteilung als Ganzes untersucht.

Beim approximativen Binomialtest (siehe Tabelle 1) haben wir streng genommen bereits einen Anpassungstest durchgef¨ uhrt. Bei der Nullhypothese H 0 : p = p 0 wird untersucht, ob es sich bei der betrachteten Zufallsgr¨ oße um eine Bernoulli-verteilte Zufallsvariable mit Parameter p 0 handelt. Beim χ 2 -Test gehen wir nun einen Schritt weiter: Wir nehmen an, dass die Zufallsgr¨ oße X genau k verschiedene Werte annimmt.

Ohne Beschr¨ ankung der Allgemeinheit sei W X = {1, . . . , k}. Die Nullhypothese lautet nun

H 0 : Pr[X = i] = p i f¨ ur i = 1, . . . , k.

(24)

Tabelle: χ

2

-Anpassungstest Annahmen:

X

1

, . . . , X

n

seien unabh¨ angig und identisch verteilt mit W

Xi

= {1, . . . , k}.

Hypothesen:

H

0

: Pr[X = i] = p

i

f¨ ur i = 1, . . . , k,

H

1

: Pr[X = i] 6= p

i

f¨ ur mindestens ein i ∈ {1, . . . , k}, Testgr¨ oße:

T =

k

X

i=1

(h

i

− np

i

)

2

np

i

,

wobei h

i

die H¨ aufigkeit angibt, mit der X

1

, . . . , X

n

den Wert i angenommen haben.

Ablehnungskriterium f¨ ur H

0

bei Signifikanzniveau α:

T > χ

2k−1,1−α

;

dabei sollte gelten, dass np

i

≥ 1 f¨ ur alle i und np

i

≥ 5 f¨ ur mindestens 80% der Werte i = 1, . . . , k.

(25)

F¨ ur die Testgr¨ oße T wird n¨ aherungsweise eine χ 2 -Verteilung mit k − 1 Freiheitsgraden

angenommen. Die Werte dieser Verteilung finden sich in entsprechenden Tabellen in

der Literatur. Damit diese Approximation gerechtfertigt ist, sollte gelten, dass np i ≥ 1

f¨ ur alle i und np i ≥ 5 f¨ ur mindestens 80% der Werte i = 1, . . . , k. Das γ -Quantil einer

χ 2 -Verteilung mit k Freiheitsgraden bezeichnen wir mit χ 2 k,γ .

(26)

0,0 0,2 0,4 0,6 0,8 1,0

0,0 1,0 2,0 3,0 4,0 5,0

n=1

n=2

n=3

n=5

Dichte der χ 2 -Verteilung mit n Freiheitsgraden

(27)

Beispiel 129

Als Anwendung f¨ ur den χ 2 -Test wollen wir ¨ uberpr¨ ufen, ob der Zufallszahlengenerator von Maple eine gute Approximation der Gleichverteilung liefert. Dazu lassen wir Maple n = 100000 Zufallszahlen aus der Menge {1, . . . , 10} generieren. Wir erwarten, dass jede dieser Zahlen mit gleicher Wahrscheinlichkeit p 1 = . . . = p 10 = 1/10 auftritt. Dies sei unsere Nullhypothese, die wir mit einem Signifikanzniveau von α = 0,05 testen wollen.

Beispiel:

i 1 2 3 4 5 6 7 8 9 10

h

i

10102 10070 9972 9803 10002 10065 10133 9943 10009 9901

F¨ ur den Wert der Testgr¨ oße gilt T = 8,9946. Ferner erhalten wir χ 2 9,0,95 ≈ 16,919. Der

Test liefert also keinen Grund, die Nullhypothese abzulehnen.

(28)

Das Prinzip des χ 2 -Anpassungstests kann in leicht abgewandelter Form auch noch zum Testen einiger anderer Hypothesen verwendet werden: Beim χ 2 -Homogenit¨ atstest wird

¨ uberpr¨ uft, ob zwei oder mehrere Verteilungen identisch sind, w¨ ahrend beim χ 2 -Unabh¨ angigkeitstest zwei Zufallsgr¨ oßen auf Unabh¨ angigkeit untersucht werden.

Beschreibungen dieser Tests findet man in der Literatur.

(29)

Kapitel IV Stochastische Prozesse

1. Einf¨ uhrung

Wir betrachten zeitliche Folgen von Zufallsexperimenten. Mathematisch beschreibt man diese durch einen so genannten stochastischen Prozess. Darunter versteht man eine Folge von Zufallsvariablen (X t ) t∈T , die das Verhalten des Systems zu

verschiedenen Zeitpunkten t angeben.

(30)

Wenn wir T = N 0 annehmen, sprechen wir von einem stochastischen Prozess mit diskreter Zeit. L¨ asst man andererseits T = R + 0 zu, so spricht man von stochastischen Prozessen mit kontinuierlicher Zeit.

Eine besonders einfache Art von stochastischen Prozessen sind so genannte

Markov-Ketten. Diese haben die Eigenschaft, dass der n¨ achste Zustand des Prozesses

zwar vom aktuellen Zustand abh¨ angen darf, nicht aber von der Historie, d.h. davon,

wie der aktuelle Zustand erreicht wurde.

(31)

2. Prozesse mit diskreter Zeit

2.1 Einf¨ uhrung Definition 130

Eine (endliche) Markov-Kette (mit diskreter Zeit) ¨ uber der Zustandsmenge

S = {0, . . . , n − 1} besteht aus einer unendlichen Folge von Zufallsvariablen (X t ) t∈ N

0

mit Wertemenge S sowie einer Startverteilung q 0 mit q 0 T ∈ R n . Die Komponenten von q 0 sind hierbei ≥ 0 und addieren sich zu 1. F¨ ur jede Indexmenge I ⊆ {0, . . . , t − 1}

und beliebige Zust¨ ande i, j, s k (k ∈ I ) gilt

Pr[X t+1 = j | X t = i, ∀k ∈ I : X k = s k ] =

Pr[X t+1 = j | X t = i] . (9)

(32)

Sind die Werte

p ij := Pr[X t+1 = j | X t = i]

von t unabh¨ angig, so nennt man die Markov-Kette (zeit)homogen. In diesem Fall definiert man die Ubergangsmatrix ¨ durch P = (p ij ) 0≤i,j<n . Wenn man S = N 0 zul¨ asst, so spricht man von einer unendlichen Markov-Kette.

Markov-Ketten sind nach Andrey Andreyevich Markov (1856–1922) benannt.

(33)

Bedingung (9) heißt Markov-Bedingung und besagt:

Wenn wir den Zustand i zum Zeitpunkt t kennen, so h¨ angt die

Ubergangswahrscheinlichkeit zum Folgezustand ¨ j nur von i und j ab. Die

Vergangenheit (Zust¨ ande zu Zeitpunkten < t) der Markov-Kette spielt keine Rolle. Das

” Ged¨ achtnis“ der Markov-Kette besteht also nur aus ihrem aktuellen Zustand und sie

” weiß“ nicht, wie sie dorthin gekommen ist.

Bei einer zeithomogenen Markov-Kette hat die (absolute) Zeit t keinen Einfluss auf die

Ubergangswahrscheinlichkeiten ¨ p ij , d.h. das Systemverhalten wird nur durch den

aktuellen Zustand bestimmt und nicht durch eine absolute Uhr.

(34)

Wahrscheinlichkeitsraum einer Markov-Kette

Nehmen wir an, dass wir die Kette von der Zeit 0 bis zur Zeit t 0 beobachten wollen.

Wir bezeichnen die Folge von Zust¨ anden, die von der Kette in dieser Zeit durchlaufen wurde, mit ~x = (x 0 , x 1 , . . . , x t

0

). Ω ⊆ S t

0

+1 sei die Menge m¨ oglicher Zustandsfolgen.

Einer beliebigen Folge ω := (x 0 , x 1 , . . . , x t

0

) ∈ Ω ordnen wir die Wahrscheinlichkeit

Pr[ω] = (q 0 ) x

0

·

t

0

Y

i=1

Pr[X i = x i | X i−1 = x i−1 ]

zu. Dadurch erhalten wir einen diskreten Wahrscheinlichkeitsraum im Sinne der

Definition.

(35)

Beispiel 131

Pr[X t+1 = 1 | X t = 1] = 0,9, Pr[X t+1 = 1 | X t = 0] = 0,2 Pr[X t+1 = 0 | X t = 1] = 0,1, Pr[X t+1 = 0 | X t = 0] = 0,8

0 1

0;8 0;9

0;2

0;1

(36)

Einen bestimmten Ablauf des Systems kann man sich als so genannten Random Walk vorstellen.

Wenn wir uns beispielsweise zum Zeitpunkt t = 0 im Knoten 1 (also X 0 = 1) befinden,

dann f¨ uhren von dort zwei Kanten weiter, n¨ amlich zu den Knoten 0 und 1. Diese

Kanten sind mit Wahrscheinlichkeiten beschriftet, die sich zu Eins addieren. Gem¨ aß

dieser Wahrscheinlichkeiten entscheiden wir zuf¨ allig, wohin wir uns im n¨ achsten Schritt

begeben.

(37)

Wir k¨ onnen auch die Frage beantworten, mit welcher Wahrscheinlichkeit wir uns zum Zeitpunkt t = 2 im Knoten 1 befinden. Da wir vereinbarungsgem¨ aß beim Knoten 1 starten, gibt es zwei m¨ ogliche Wege der L¨ ange zwei durch den Graphen mit

Endknoten 1, n¨ amlich

” 111“ und

” 101“. Die Wahrscheinlichkeiten f¨ ur diese Wege lauten 0,9 · 0,9 = 0,9 2 bzw. 0,1 · 0,2. Insgesamt erhalten wir also eine

Wahrscheinlichkeit von 0,81 + 0,02 = 0,83.

Auch eine Aussage ¨ uber die erwartete Anzahl Schritte, die wir im Knoten 1 bis zum

ersten ¨ Ubergang zu Knoten 0 verbleiben, ist schnell getroffen. Die Wahrscheinlichkeit,

dass man genau k Schritte verbleibt, ist (0,9) k · 0,1. Die Anzahl Schritte ist also

geometrisch verteilt mit Erfolgswahrscheinlichkeit 0,1. Der Erwartungswert ist daher

1/0,1 = 10.

Referenzen

ÄHNLICHE DOKUMENTE

I Um zuf¨ allige Modelle am Computer zu realisieren, erzeugen Rechnerprogramme Pseudozufallszahlen (auch kurz Zufallszahlen genannt), die sich wie Realisierungen von unabh¨ angigen,

Um an der Klausur teilnehmen zu k¨onnen, brauchen Sie mindestens die H¨alfte der m¨oglichen Punkte in den ¨

betrachte

Der Fluss des D-Feldes durch eine ~ geschlossene Fl¨ ache ist gleich der Summe der eingeschlossenen Ladun- gen. Die Polarisationsladungen sind im D-Feld enthalten und d¨ ~ urfen auf

Die Behauptung, dass sich an der Schule unter den 16-j¨ ahrigen Sch¨ ulern der Anteil der Raucher ver¨ andert hat, wird durch die Resultate der Umfrage gest¨ utzt (z-Test f¨ ur

Der z-Test f¨ ur eine Proportion berechnet die Wahrscheinlichkeit daf¨ ur, dass man unter der Voraussetzung der Nullhypothese (also bei zuf¨ alliger Entscheidung f¨ ur Englisch)

Die Behauptung, es bei Schweizer Gymnasiasten einen geschlechtsspezifischen Unterschied bei der Vorliebe zwischen Englisch und Franz¨ osisch gibt, kann durch die Resultate der

Gibt es an deutschschweizer Mittelschulen einen geschlechtsspezifischen Unterschied in der Pr¨ aferenz (Bevorzugung) der Sprachen Englisch und Franz¨ osisch?... Schritt 1: