• Keine Ergebnisse gefunden

4 Material und Methoden

4.4 Auswertungsmethoden

Für die statistische Auswertung der Daten finden sowohl deskriptive Analysemethoden An-wendung, die die Stichproben lediglich beschreiben, als auch inferenzstatistische Verfahren, die einen explorativen und z. T. hypothesenprüfenden Charakter tragen. Die Kombination von hypothesenprüfenden mit hypothesengenerierenden Verfahren erscheint sinnvoll, da es sich um eine empirische Studie handelt, in der neu entwickelte Verfahren eingesetzt werden und deren

30 Ebenfalls erfasst wurde die wahrgenommene soziale Unterstützung der Frauen (Fragebogen zur Sozialen Un-terstützung, Sommer & Fydrich, 1989). Dieses Merkmal geht aus methodischen Gründen nicht in die Auswer-tungen ein.

4 Material und Methoden 91

wesentliche Hypothese auf theoretischen Überlegungen und klinischen Beobachtungen beruht.

Für die Hauptannahme der Untersuchung, den Zusammenhang zwischen Verarbeitungsprozes-sen nach der Fehlgeburt und Befindensstörungen in einer neuen Schwangerschaft, liegt bislang kaum empirisches Untersuchungsmaterial vor. Das Ziel der vorliegenden Arbeit ist daher nicht nur, die allgemein gehaltenen Untersuchungshypothesen zu verifizieren, sondern vielmehr, Be-ziehungen zwischen den Merkmalen zu beschreiben und auf dieser empirischen Basis die for-mulierten Hypothesen zu spezifizieren oder gegebenenfalls neue Hypothesen zu generieren. Im Einzelnen sind folgende Vorgehensweisen vorgesehen: Mittelwertvergleiche zwischen Unter-suchungs- und Kontrollgruppe über den U-Test nach Man & Whitney und den Chi2-Test sowie mehrerer Gruppen über den H-Test nach Kruskal & Wallis. Verarbeitungsmuster nach der Fehlgeburt und Bewältigungsmuster in einer neuen Schwangerschaft werden faktorenanalytisch aus dem Datenpool gewonnen. Der Einfluss der Verarbeitungs- und Bewältigungsmuster auf die Symptomatik nach der Fehlgeburt und in der neuen Schwangerschaft wird im Falle binärer Zielvariablen über die Methode der binär-logistischen Regressionsanalyse, im Falle metrisch skalierter Zielvariablen über die Methode der linearen Regressionsanalyse gewonnen.

Die statistischen Analysen wurden mit dem Programmpaket SPSS für Windows, Version 11.5 durchgeführt. Um das Vorgehen transparenter zu machen, sollen im Folgenden die zum Einsatz kommenden multivariaten Analysemethoden der Faktorenanalyse, welche bereits bei der Fra-gebogenentwicklung und -validierung angewandt wurden, und der linearen und logistischen Regressionsanalyse genauer beschrieben werden.

4.4.1 Die Methode der Faktorenanalyse

Mit Hilfe der explorativen Faktorenanalyse ist es möglich, eine Vielzahl von Variablen auf we-nige, voneinander weitest gehend unabhängige Dimensionen – Faktoren – zu reduzieren. Die Faktoren werden so bestimmt, dass sie jeweils einen maximalen Anteil der Gesamtvarianz der Beobachtungswerte aufklären. Es liegen verschiedene Methoden für die Extraktion der Fakto-ren vor. In Anlehnung an die Empfehlungen von Backhaus et al. (2003) werden die Hauptach-senanalyse (Verarbeitungsmuster nach der Fehlgeburt (Hypothese 1)) und die Hauptkomponen-tenanalyse (Anpassungsprozesse in der neuen Schwangerschaft (Hypothese 2)) mit anschließender Varimax-Rotation mit Kaiser-Normalisierung gewählt. In die Interpretation und weiteren Auswertungen gehen nur die Faktoren ein, deren Eigenwert >1 beträgt (Kaiser-Kriterium). In die inhaltliche Interpretation der Faktoren werden alle Merkmale einbezogen, die Faktorladungen > 0,4 aufweisen (Guadagnoli & Venicer, 1988, nach Bortz, 1993).

4 Material und Methoden 92

4.4.2 Die Methode der multiplen Regressionsanalyse

Über die Methode der multiplen Regressionsanalyse ist es möglich, Wirkungszusammenhänge zwischen mehreren unabhängigen Variablen (Prädiktorvariablen oder Regressoren genannt) und einer abhängigen Variable (auch Regressand oder Zielvariable genannt) zu bestimmen.

Zwischen den unabhängigen Variablen X1, X2 ... Xi (i ist die Anzahl der unabhängigen Variab-len) und der abhängigen Variable Y wird eine lineare Beziehung angenommen, die in der Reg-ressionsgleichung Y=b0+ b1X1+ biXi+e formuliert wird. Darin sind b1 bis bi Regressionskoeffi-zienten, die Richtung und Stärke des Einflusses der Prädiktorvariablen auf die Zielvariable angeben. Die Koeffizienten der Regressionsgleichung werden so geschätzt, dass ein möglichst hoher Anteil an Varianz der Zielvariable durch die Prädiktoren erklärt wird. Oder umgekehrt:

Die Abweichungen der tatsächlich beobachteten Werte von den geschätzten Werten der Reg-ressionsgerade sollen minimiert werden. Diese Abweichungen werden Residuen genannt und sind in der Regressionsgleichung mit „e“ ausgewiesen.

Die Quälität bzw. Zuverlässigkeit der Schätzung der Regressionskoeffizienten wird über das Bestimmtheitsmaß R2 angegeben. Es berechnet sich aus dem Quotienten von erklärter Streuung zur Gesamtstreuung der beobachteten Werte. Der F-Test ermöglicht eine Signifikanzprüfung des Bestimmtheitsmaßes und somit des Regressionsmodells hinsichtlich der Verallgemeiner-barkeit auf die Grundgesamtheit. Ein signifikantes Ergebnis des F-Tests weist die Nullhypothe-se zufällig entstandener Zusammenhänge zugunsten systematischer Wirkzusammenhänge zwi-schen den Variablen in der Grundgesamtheit zurück. Ebenso können die einzelnen Regressionskoeffizienten einem Signifikanztest unterzogen werden (Backhaus et al., 2003;

Bortz, 1993; Brosius, 2004).

Für alle in den folgenden Kapiteln dargestellten Regressionsmodelle werden die folgenden Voraussetzungen geprüft: Normalverteilung der metrisch skalierten unabhängigen und abhän-gigen Variablen31, nominale Daten gehen als Dummy-Variablen (Kodierung 0 – 1) in die Ana-lysen ein. Ein Ausschluss von Multikollinearität muss gewährleistet sein (eine unabhängige Variable darf sich nicht aus einer anderen erklären). Eine hohe Multikollinearität der Merkmale könnte die Genauigkeit der Schätzungen der Regressionskoeffizienten und des Bestimmtheits-maßes beeinträchtigen. Das Toleranzmaß und der VIF (Variance Inflation Factor) sind Maße zur Beurteilung der Stärke von Kollinearität. Dabei weisen Toleranzwerte um Null und ein VIF > 10 auf das Vorliegen hoher Kollinearität hin. Trotz des Vorliegens von Abhängigkeiten zwischen den Prädiktoren scheinen die in den folgenden Kapiteln dargestellten Regressionsmo-delle unter den Kriterien der Toleranz und VIF akzeptabel.

4 Material und Methoden 93

Nach Durchführung der Regressionsanalyse wird das Modell auf weitere Prämissen hin über-prüft: Ausschluss von Autokorrelation und Heteroskedastizät der Residuen (es dürfen keine systematischen Zusammenhänge innerhalb der Residuen bestehen). Die Regressionsmodelle werden nur unter diesen Voraussetzungen bzw. Prämissen akzeptiert, die Prüfung dieser Vor-aussetzungen wird nicht im Einzelnen dargestellt.

SPSS bietet verschiedene Vorgehensweisen der Aufnahme potentieller Einflussgrößen in das Regressionsmodell an: Mit der „Einschluss“-Methode werden die infrage kommenden Prädik-torvariablen gleichzeitig in das Modell aufgenommen. Mit der Methode der Vorwärtsselektion werden schrittweise diejenigen Prädiktorvariablen in das Modell aufgenommen, die ein be-stimmtes Kriterium (F-Wert des partiellen Korrelationkoeffizienten) maximal erfüllen. Umge-kehrt werden bei der Methode der Rückwärtsselektion zunächst alle Prädiktorvariablen in das Regressionsmodell aufgenommen und dann schrittweise diejenigen Variablen mit der höchsten Irrtumswahrscheinlichkeit des F-Testes entfernt. Folgendes Vorgehen wurde bevorzugt: Für jede Zielvariable wird je ein Regressionsmodell mit der Methode der Vorwärts- und Rück-wärtsselektion und der Einschlussmethode berechnet. Treten keine oder nur geringfügige Un-terschiede hinsichtlich der Variablenselektion zwischen den einzelnen Modellen auf, wird ü-berwiegend die Darstellung der Einschluss-Methode bevorzugt.

4.4.3 Die Methode der logistischen Regressionsanalyse

Unter Hypothese 1 soll die Adaptivität der Verarbeitungsmuster darüber geprüft werden, inwie-fern sie einen pathologischen oder einen gesunden Trauerprozess vorhersagen. Die Vorhersa-gevariable ist in diesem Fall eine dichotome Variable. Damit ist allerdings eine Prämisse der linearen Regressionsanalyse verletzt, die metrisch skalierte und normalverteilte Merkmale vor-aussetzt. Mit der Methode der binären logistischen Regressionsanalyse ist es möglich, die Auf-tretenswahrscheinlichkeit eines Ereignisses – hier die Wahrscheinlichkeit für eine pathologi-sche Trauer – aus einer Vielzahl von Prädiktoren unterschiedlicher Skalierung vorherzusagen.

Diese Wahrscheinlichkeit wird nach der Formel p=1/(1+e-Z) mit z=a+b1x1+ b2x2+ bixi berech-net. Dabei sind xi die Merkmalsausprägungen der unabhängigen Variablen, bi die geschätzten Regressionskoeffizienten, und a ist eine Konstante. Ähnlich wie bei der linearen Regressions-analyse können Koeffizienten für die Güte des geschätzten Regressionsmodells angegeben werden. Hier werden ein „Pseudo“-Bestimmtheitsmaß R2 nach Nagelkerke sowie eine Signifi-kanzprüfung des Regressionsmodells über den Chi2-Test der Log-Likelyhood-Funktion

31 Einige der metrischen Prädiktorvariablen sind dem Kolmogorov-Smirnov-Test zufolge nicht normalverteilt. Sie weisen jedoch eine eingipflige, symmetrische Merkmalsverteilung auf, was eine Regressionsanalyse durch-führbar macht (mündliche Mitteilung, Siebert, 2005, Institut für Biometrie der Universitätsmedizin Charité).

4 Material und Methoden 94

wendet. Über standardisierte Regressionskoefizienten bzw. Odd´s Ratios kann die Stärke und Richtung des Einflusses einer Prädiktorvariablen auf die Zielvariablen beurteilt werden.