• Keine Ergebnisse gefunden

5.1 Statistische Verfahren

5.1.2 Induktive Statistik

Die induktive oder schließende Statistik versucht, „durch geeigneten Einbezug von Wahrscheinlichkeitstheorie und Stochastik über die erhobenen Daten hinaus allge-meine Schlußfolgerungen [sic!] für umfassendere Grundgesamtheiten zu ziehen“.70 Mit Hilfe von statistischen Prüfverfahren erfolgt somit die Überprüfung der Zulässig-keit eines Schlusses von Werten der Stichprobe auf die der Grundgesamtheit. Diese werden nachfolgend näher erläutert.71

Eines der wichtigsten statistischen Prüfverfahren in der Marktforschung ist der Chi²-Test. Dieser untersucht zum Einen die Abweichung einer empirischen von einer an-genommenen theoretischen Verteilung (Anpassungstest) und zum Anderen die Unabhängigkeit von Variablen (Unabhängigkeitstest). Nachfolgend wird ausschließ-lich auf den Chi²-Unabhängigkeitstest eingegangen, da nur dieser in der vorliegen-den Arbeit Anwendung findet.72

Der Chi²-Unabhängigkeitstest betrachtet zwei statistische Merkmale X und Y, die be-liebig skaliert sein können. Grundlage für den Chi²-Test ist eine sog. Kontingenztafel, welche neben den absoluten bzw. tatsächlichen Häufigkeiten zusätzlich auch die

„erwarteten“ Häufigkeiten beinhaltet.73

Grundvoraussetzung für die Durchführung von statistischen Prüfverfahren, und damit auch für den Chi²-Test, ist die Aufstellung von zwei Hypothesen: die Nullhypothese (H0), welche die Unabhängigkeit der untersuchten Variablen besagt, und eine Ge-genhypothese, die sog. Arbeitshypothese (HA). Die Nullhypothese drückt somit aus, dass ein Merkmal X stochastisch unabhängig vom Merkmal Y ist.74

69 Vgl. Koch, J., Marktforschung, 2004, S. 225f.

70 Fahrmeir, L., et al., Statistik, 2004, S. 13.

71 Vgl. Berekoven, L., Eckert, W., Ellenrieder, P., Marktforschung, 2009, S.220.

72 Vgl. Berekoven, L., Eckert, W., Ellenrieder, P., Marktforschung, 2009, S.222f.

73 Vgl. Zucchini, W., et al, Statistik für Bachelor- und Masterstudenten, 2009, S. 335.

74 Vgl. Zucchini, W., et al, Statistik für Bachelor- und Masterstudenten, 2009, S. 334-335.

Für alle durchgeführten Tests wird eine Irrtumswahrscheinlichkeit von 5 % (α = 0,05) bzw. ein Signifikanzniveau von 0,05 angenommen. Wird die Nullhypothese abgelehnt (Alpha-Fehler), bedeutet dies, dass das Ergebnis des Tests mit 95-prozentiger Si-cherheit korrekt ist.75

Entscheidend für die Auswertung des Chi²-Tests ist die Signifikanz (p-Value). Liegt der p-Value unterhalb des festgelegten Signifikanzniveaus von 0,05, wird die Nullhy-pothese verworfen, d.h., mit einer Wahrscheinlichkeit von 95 % sind die beiden un-tersuchten Variablen signifikant voneinander abhängig. Umgekehrt bedeutet ein p-Value oberhalb des Alpha-Werts, dass nichts gegen die Nullhypothese spricht (Beta-Fehler).76

Voraussetzung für die Zuverlässigkeit des Chi²-Tests ist, dass die erwartete Häufig-keit in jedem Feld mindestens fünf betragen muss. Ansonsten muss eine Kategorisie-rung der Daten erfolgen, so dass gering besetzte Felder zusammengefasst werden.

Dabei findet eine Verdichtung der Daten statt und ein Informationsverlust ist inbegrif-fen.77

Ein weiteres statistisches Prüfverfahren, welches in der vorliegenden Arbeit Anwen-dung findet, ist der sog. T-Test bei unabhängigen Stichproben. Er dient zum Ver-gleich der arithmetischen Mittelwerte zweier Stichproben hinsichtlich einer gemein-sam beobachteten Variablen X, d.h., es werden die Mittelwerte derselben Variablen in zwei Fallgruppen miteinander verglichen. Damit soll geprüft werden, ob Unter-schiede zwischen den beiden Gruppen rein zufällig oder signifikant sind. Ein typi-scher Anwendungsbereich für einen T-Test bei unabhängigen Stichproben liegt in der Untersuchung, ob sich die durchschnittlichen Ausprägungen einer bestimmten Eigenschaft, wie beispielsweise dem Einkommen, bei Männern und Frauen signifi-kant voneinander unterscheiden.78

Grundlage ist auch hier die Aufstellung einer Nullhypothese (H0) und einer Gegenhy-pothese (HA). Die Nullhypothese geht davon aus, dass die Grundgesamtheiten den

75 Vgl. Berekoven, L., Eckert, W., Ellenrieder, P., Marktforschung, 2009, S. 220ff.

76 Vgl. Berekoven, L., Eckert, W., Ellenrieder, P., Marktforschung, 2009, S. 220ff.

77 Vgl. Brosius, F., SPSS 16 für Dummies, 2008, S. 215.

78 Vgl. Elsner, F., Statistische Datenanalyse mit SPSS für Windows, 2009, S. 102.

gleichen Erwartungswert besitzen, d.h., die beobachteten Gruppenmittelwerte sind unabhängig voneinander und nur zufällig entstanden. Da die Arbeits- bzw. Gegenhy-pothese immer die NullhyGegenhy-pothese negiert, besagt sie, dass ein Unterschied in den arithmetischen Mittelwerten der beobachteten Gruppen und damit auch in der Grundgesamtheit besteht.79 Die Annahme bzw. das Verwerfen der Nullhypothese hängt wiederum vom Signifikanzniveau ab, welches in der Regel bei 0,05 bzw. 5 % liegt (s. Chi²-Test).80 Weiterhin setzt der T-Test für einen kleinen Stichprobenumfang (n < 30) eine Normalverteilung des zugrunde liegenden Merkmals X voraus.81

Während man mit Hilfe eines T-Tests lediglich überprüfen kann, ob sich die Mittel-werte zweier Gruppen signifikant unterscheiden, erlaubt die einfaktorielle Varianz-analyse, auch bekannt als einfaktorielle ANOVA (Analysis of Variance), den Ver-gleich einer abhängigen Variablen zwischen drei oder mehr Gruppenmittelwerten.82 Es erfolgt somit eine Beurteilung von Unterschieden in den Erwartungswerten einer normalverteilten Zufallsvariable in mehreren Gruppen. Auch hier soll die Frage be-antwortet werden, ob die Unterschiede in den untersuchten Gruppen signifikant sind, um davon auf Differenzen in der Grundgesamtheit zu schließen.83 Obwohl die einfak-torielle ANOVA ursprünglich vielfach dem Bereich der deskriptiven Statistik, genauer den multivariaten Verfahren, zugeordnet wird,84 erfolgt die Betrachtung hier im Be-reich der induktiven Statistik, da sie Verallgemeinerungen bzw. Schlüsse auf die Grundgesamtheit ermöglicht.85

Die einfaktorielle Varianzanalyse geht dabei von jeweils einer abhängigen und einer unabhängigen Variablen, dem sog. Faktor, aus.86 Während eine nominale Verteilung des Faktors ausreichend ist, erfordert die abhängige Variable ein metrisches

79 Vgl. Elsner, F., Statistische Datenanalyse mit SPSS für Windows, 2009, S. 102.

80 Vgl. Berekoven, L., Eckert, W., Ellenrieder, P., Marktforschung, 2009, S. 220ff.

81 Vgl. Fahrmeir, L., et al., Statistik, 2004, S. 437.

82 Vgl. Elsner, F., Statistische Datenanalyse mit SPSS für Windows, 2009, S. 105.

83 Vgl. Fahrmeir, L., et al., Statistik, 2004, S. 518.

84 Vgl. Backhaus, K., et al., Multivariate Analysemethoden, 2006, S.122-130 und Berekoven, L., Eckert, W., Ellenrieder, P., Marktforschung, 2009, S. 204f.

85 Vgl. Fahrmeir, L., et al., Statistik, 2004, S. 518.

86 Vgl. Backhaus, K., et al., Multivariate Analysemethoden, 2006, S.122.

niveau.87 Die unterschiedlichen Ausprägungen eines Faktors werden auch als Fak-torstufen bezeichnet.

Das weitere Vorgehen bezüglich Null- und Arbeitshypothese erfolgt analog zu den beiden zuvor genannten Prüfverfahren. Ziel ist auch hier das Ablehnen der Nullhypo-these bzw. das Annehmen der ArbeitshypoNullhypo-these. Der Unterschied besteht im We-sentlichen darin, dass ein signifikantes Ergebnis (p-Value < 0,05) lediglich angibt, dass sich mindestens zwei Gruppen voneinander unterscheiden, ohne zu wissen, um welche Gruppenmittelwerte es sich genau handelt. Um herauszufinden, welche Gruppenmittelwerte so signifikant voneinander abweichen, dass Rückschlüsse auf die Grundgesamtheit gezogen werden können, ist post-hoc zusätzlich ein Mehrfach-vergleich erforderlich. Dieser ermöglicht den paarweisen Vergleich der Mittelwerte zwischen jeweils benachbarten Gruppen und somit die Identifikation der signifikanten Unterschiede. Eine Signifikanz ist auch hier bei einem Wert < 0,05 gegeben.88

Nachdem nun die verschiedenen statistischen Grundlagen sowie Testverfahren de-tailliert erläutert wurden, werden nachfolgend die konkreten Datenauswertungen ein-schließlich der Interpretation der Erhebungsresultate dargestellt. Hierbei wird zu-nächst auf die univariaten Auswertungen eingegangen.