• Keine Ergebnisse gefunden

Die im Rahmen dieser Arbeit durchgeführten statistischen Tests wurden mithilfe des Computerprogramms GraphPad Prism® 5.03 generiert. Die statistischen Prüfverfahren und die Bestimmung der Lage- und Streuungsparameter basierten auf der Annahme, dass die erhobenen Datensätze einer Normalverteilung unterlagen. Die mithilfe der „Vier-Parameter-logistischen Gleichung“ ermittelten Kenngrößen wurden für jede Kurve individuell bestimmt und die Gesamtkurve als Mittelwert ± S.E.M. der Einzelversuche angegeben.

3.6.1 Deskriptive Statistik

Lage-und Streuungsparameter stellen wichtige Kenngrößen in der deskriptiven Statistik dar, um eine Aussage über die Einheitlichkeit der erhobenen Messwerte treffen zu können.

3.6.1.1 Der arithmetische Mittelwert und Standardfehler

Alle in dieser Arbeit angegebenen Mittelwerte waren arithmetische Mittel, die sich durch folgende Gleichung berechnen lassen:

s̅ =

!E

∗ ∑ s

E D

Dv! (Gleichung 22)

s:w Arithmetisches Mittel

n: Anzahl an unabhängigen Experimenten

xi: Messwert des i-ten unabhängigen Experimentes

Als Streuungsmaß wurde der Standardfehler S.E.M. (standard error of the mean) angegeben, der mithilfe von Gleichung 22 berechnet werden kann (Gleichung 23):

3 Methoden

69

Nn = x

)^='E !(8^ 8̅)X (Gleichung 23)

SD: Standardabweichung

n: Anzahl an unabhängigen Experimenten n-1: Anzahl der Freiheitsgrade

xi: Messwerte des i-ten unabhängigen Experimentes s̅: Arithmetischer Mittelwert

Im Rahmen dieser Arbeit wird der Standardfehler des Mittelwertes (S.E.M.) als Streuungsmaß verwendet. Der S.E.M. ermöglicht die Streuung der Einzelwerte um den Mittelwert genauer zu beleuchten.

N. z. {. =

|1√E (Gleichung 24)

S.E.M.:Standard error of the mean; Standardfehler SD: Standardabweichung (vgl. Gleichung 23) n: Anzahl an unabhängigen Experimenten

Die Bestimmung des arithmetischen Mittels und des S.E.M. erfolgte computergestützt mithilfe des Programms GraphPadPrism® 5.03.

3.6.2 Statistische Tests

Statistische Tests werden durchgeführt, um anhand der erhobenen Daten, die einen Stichprobenbefund darstellen, Rückschlüsse auf die Grundgesamtheit ziehen zu können. Ein Hypothesentest entscheidet darüber, ob die Nullhypothese (es besteht kein statistisch signifikanter Unterschied zwischen zwei Parametern) angenommen werden darf oder verworfen werden muss. Im Fall der Verwerfung greift eine Alternativhypothese, die mit einer Irrtumswahrscheinlichkeit (α) von 5 % besagt, dass ein statistisch signifikanter Unterschied zwischen den beiden Parametern oder Messwerten besteht. Trifft der Erwartungswert zu wird die Nullhypothese akzeptiert. Alle hier beschriebenen statistischen Tests wurden zweiseitig durchgeführt und eine Irrtumswahrscheinlichkeit (α) von 5 % vorgegeben. Die Datenpunkte wurde mithilfe einer nichtlinearen Regressionsanalyse und der Vier-Parameter logistischen Gleichung (Gleichung 2) nach Barlow und Blake (1989) durch das Computerprogramm GraphPad Prism®5.03 analysiert.

3 Methoden

70 3.6.2.1 Der F-Test

Mithilfe des F-Tests wird entschieden, ob die Nullhypothese angenommen werden darf oder ob die Datenpunkte durch eine Alternativhypothese besser beschrieben werden können. In der vorliegenden Arbeit wurde der F-Test angewendet, um zu prüfen, ob eine sigmoide Kurve einen Hill-Koeffizienten von nH= 1/-1 aufweist. Konnte die Datenauswertung anhand einer nH= 1/-1 fixierten Kurve erfolgen, wurde die Nullhypothese akzeptiert. Für den Fall, dass die Kurve mit einem Steilheitsmaß von 1/-1 angepasst werden konnte, hing das Modell nur noch von drei Parametern ab, dem oberen und unteren Plateau (top und bottom) und dem EC50-Wert. Konnte die Kurve nicht mit einem Hill-Koeffizienten von nH = 1/-1 fixiert werden, galt die Kurvenanpassung als „komplexes Modell“ und war neben den drei oben beschriebenen Parametern auch noch von dem Parameter der Kurvensteilheit nH abhängig.

Die Entscheidung zwischen den beiden Hypothesen wurde automatisch durch das Computerprogramm GraphPad Prism® 5.03 vorgenommen. Dieses Programm vergleicht den ermittelten F-Wert mit einem tabellierten und entscheidet welches der beiden Regressionsmodelle die Daten besser beschreiben kann. Ist der berechnete F-Wert größer als der tabellierte unterscheiden sich die analysierten Messwerte mit einer Wahrscheinlichkeit von 95 % voneinander. Der F-Test berücksichtigt die Anzahl an Freiheitsgraden und die Güte der Kurvenanpassung, beschrieben durch die Abstandsquadrate.

p =

(~~•€SS=~~LSh)

~~LSh (0••€SS=0•LSh)

0•LSh

(Gleichung 25)

F: F-Wert

SSNull: Summe der Abstandsquadrate (Nullhypothese) SSAlt: Summe der Abstandsquadrate (Alternativhypothese) DFNull: Anzahl der Freiheitsgrade (Nullhypothese)

DFAlt: Anzahl der Freiheitsgrade (Alternativhypothese)

Der Abstand jedes Datenpunktes von der Kurve wird quadriert und die einzelnen Abstandsquadrate summiert. Die Summe der quadrierten Abstandsquadrate ist umso kleiner, desto besser das gewählte Modell die Datenpunkte beschreiben kann (Motulsky und Christopoulos, 2004).

Der p-Wert wird von dem Computerprogramm GraphPad Prism® 5.03 automatisch ermittelt, indem die berechnete Prüfgröße des jeweiligen statistischen Tests einem Tabellenwert gegenübergestellt und ein entsprechender p-Wert zugeordnet wird.

3 Methoden

71

p < 0,05: Die Alternativhypothese wurde angenommen und die Kurve mit einem variablen Steilheitsmaß angepasst; die Nullhypothese wurde mit einer Irrtumswahrscheinlichkeit (α) von 5 % verworfen

p > 0,05: Die Nullhypothese wurde angenommen und die Kurve mit einem Hill-Koeffizienten von nH=1/-1 fixiert (Motulsky und Christopoulos, 2004)

3.6.2.2 Ungepaarter, zweiseitiger Zweistichproben t-Test

Mittels eines ungepaarten, zweiseitigen Zweistichproben t-Tests wurde getestet, ob der Unterschied zwischen zwei in der Regressionsanalyse ermittelten Kenngrößen zufällig zustande gekommen war oder ob sich die zugrunde liegenden Grundgesamtheiten statistisch unterscheiden. Das Auswerteprogramm GraphPad Prism® 5.03 ermittelt automatisch einen p-Wert zu den generierten t-Werten. Ein statistischer Unterschied gilt als bewiesen, wenn p< 0,05 ist (mit einer Irrtumswahrscheinlichkeit von 5 %). Die Voraussetzung für die Gültigkeit ist jedoch eine Normalverteilung der Messwerte.

=

' X

‚M)''")X'W∗()'=')∗~0'XA()X=')∗~0XX )'A)X=X

(Gleichung 26)

t: t-Wert

s:w Arithmetischer Mittelwert SD: Standardabweichung

n: Anzahl an unabhängigen Experimenten

3.6.2.3 Einstichproben t-Test

Der hier dem t-Wert zugeordnete p-Wert entschied darüber, ob der Mittelwert einer Versuchsreihe von einem hypothetischen Wert signifikant abwich.

=

|.\.„.8̅ ƒ& (Gleichung 27)

t: t-Wert

s:w Arithmetischer Mittelwert

µ0: Hypothetischer Wert S.E.M.:Standard error of the mean; Standardfehler

Bei einem p-Wert < 0,05 wurde mit einer Irrtumswahrscheinlichkeit von 5 % davon

3 Methoden

72

ausgegangen, dass sich der getestete Mittelwert signifikant von dem hypothetischen Wert unterschied.

Sofern nicht anders angegeben bezieht sich die Angabe „t-Test“ in dieser Arbeit auf den ungepaarten, zweiseitigen Zweistichproben t-Test (Gleichung 26).

3.6.2.4 Analyse der Varianzen (ANOVA)

Sollen mehr als zwei Mittelwerte auf einen signifikanten Unterschied hin getestet werden, wurde das Analyseverfahren ANOVA angewendet. Hierbei unterscheidet man die einfraktionelle (One-way ANOVA) von der zweifraktionellen (Two-way ANOVA) Analyse.

Würde man jeden einzelnen Mittelwert gegen einen anderen testen, stiege die Irrtumswahrscheinlichkeit massiv an. Der Parameter FANOVA gibt analog zu der oben beschriebenen Methode an, ob die Nullhypothese angenommen oder verworfen werden muss. In der Analyse der Varianzen vereinigt der FANOVA-Wert die Varianzen der einzelnen Stichproben zu einer Gesamtvarianz und vergleicht diese mit den Varianzen der einzelnen Stichproben. Dieser Wert gibt an, ob die Nullhypothese (Alle Werte sind gleich) angenommen werden darf oder ob die Alternativhypothese (Zwischen mindestens zwei Mittelwerten besteht ein signifikanter Unterschied) greift. Er gibt also Auskunft über die Gleichheit der einzelnen Mittelwerte. FANOVA gibt das Verhältnis der Quadratsummen an, die zwischen den einzelnen Gruppen und innerhalb der Gruppen ermittelt worden sind. Ein p-Wert < 0,05 führte zur Annahme der Alternativhypothese.

p

…†

=

~~‡0•g~~g 0•‡

(Gleichung 28)

FANOVA: F-Wert der Varianzanalyse ANOVA

SSB: Quadratsumme zwischen den Gruppen

DFB: Anzahl der Freiheitsgrade zwischen den Gruppen SSW: Quadratsumme innerhalb der Gruppen

DFW: Anzahl der Freiheitsgrade innerhalb der Gruppen

Wurde die Nullhypothese verworfen, schloss sich ein Post-Test an, um zu zeigen zwischen welchen Mittelwerten ein signifikanter Unterschied bestand. Der Dunnett´s post-Test wurde angewendet, um potentielle Unterschiede zwischen den Mittelwerten und einem definierten Kontrollwert zu beleuchten. Der Bonferroni´s post-Test schloss sich an, sofern alle Mittelwertspaare untereinander auf Signifikanz getestet werden sollten.

4 Ergebnisse

73

4 Ergebnisse