• Keine Ergebnisse gefunden

5. Empirische Analyse und methodischer Zugang

5.2. Prüfung und Bewertung der formulierten Hypothesen

5.2.4. Multiple Regressions- und einfaktorielle Varianzanalyse

Zielsetzung dieses Abschnitts ist den Zusammenhang der zuvor generierten unabhängigen zum abhängigen Faktor mittels multipler Regressionsanalyse zu bestimmen. Auch in diesem Zusammenhang gilt wiederum, dass festgestellte Beziehungen zwar sachlogischer Ansatz aber keine Erklärung für Kausalität sind (Eckstein 2008a, 185).

Die Regressionsanalyse umfasst allgemein drei wesentliche Abschnitte (Kuß/Eisend 2010, 227). Zunächst werden die abhängigen und unabhängigen Variablen des zu definierenden Regressionsmodells bestimmt (Schritt 1). Dazu dient die zuvor durchgeführte Faktorenanaly-se auf Basis bisheriger Erkenntniszusammenhänge als Grundlage. In Schritt 2 erfolgt die Schätzung der Regressions-Funktion um anschließend in Schritt 3 das Gesamtmodell samt

67 Die erhobenen Faktorladungen werden in oben angeführter Übersicht zur besseren Verständ-lichkeit in rotierter Form dargestellt sowie bei Werten kleiner 0,5 unterdrückt (Backhaus 2008, 356).

der unabhängigen Variablen zu überprüfen. Backhaus et al. (2008, 57) definiert für die Reg-ressionsanalyse insgesamt fünf Analyseschritte, wobei der diesbezüglich beschriebene Schritt 3 nach drei einzelnen Prüfkriterien weiter unterteilen ist.

Generell werden in der Regressionsanalyse abhängige Elemente als Regressand, unabhän-gigen Variablen hingegen als Regressoren bezeichnet (Backhaus et al. 2008, 55; Eckstein 2008b, 312). Aufbauend auf den vorausgesetzten metrischen Skalenniveaus (Bleymüller et al. 2008, 139) hat die Regressionsanalyse die Feststellung der Erklärungskraft der Regres-soren auf einen oder mehreren Regressanden zum Ziel. Die dazu ermittelte Regressions-gleichung soll durch die unabhängigen Variablen den bestmöglichen Schätzwert für die ab-hängige Zielgröße ermöglichen (Brosius, 2008, 259; Urban/Mayerl 2008, 42).

Als zentrales Gütemaß der Messung einer Regressionsanalyse wird das Bestimmtheitsmaß R² berechnet, welches jene durch die unabhängigen Variablen erklärte Varianz misst (Eck-stein 2008b, 316; Backhaus et al. 2008, 71). Das R² entspricht einem Wert, der ähnlich dem empirischen Korrelationskoeffizienten zwischen 0 und 1 liegt und mit höherem Ausmaß eine stärkere Erklärungskraft repräsentiert (Raab et al. 2009, 232; Fahrmeir et al. 2009, 98; Ber-ger 2010, 167;). Basis der Berechnung sind Streuzerlegungen, welche als Ergebnis ermittel-te Residuenquadratsummen vorweisen. Je größer diese sind, desto kleiner wird der Wert des R² ausfallen und umgekehrt (Eckstein 2008b, 316; Fahrmeir et al. 2009, 98).

Durch das Hinzufügen weiterer erklärender Variablen besteht die Möglichkeit die Güte des Modells sowie das R² weiter zu steigern – ein negativer Effekt ist zumeist ausgeschlossen (Groß 2010, 208). Um auch Modelle mit einer unterschiedlichen Anzahl von Einflussgrößen direkt vergleichbar zu machen, wird in wissenschaftlichen Publikationen bzw. Studien zu-meist das korrigierte oder adjustierte R² angeführt (Raithel 2008, 161; Groß 2010, 208). Da-mit wird einer Überparametrisierung des Modells entgegen gewirkt, so dass sich Da-mit jeder weiter zu integrierenden Variable der „Bestrafungsabschlag“ erhöht (Janssen/Laatz 2007, 427; Cleff 2008, 161). Dadurch können Bestimmtheitsmaße auch negativ werden (Herr-mann/Homburg/Klarmann 2007, 473; Cleff 2008, 161). Anzumerken ist, dass bei großen Stichproben mit relativ wenigen Regressoren der Unterschied zwischen klassischen und korrigierten R² vernachlässigbar klein wird (Jann 2005, 177).

Der vorliegende Datensatz wird nun mit der Regressionsanalyse auf dessen Zusammenhang untersucht und im Anschluss interpretiert. Die abhängige Variable „Preiswissen“ wurde für die nachfolgende Analyse mithilfe der Berechnung der vom tatsächlichen Wert abweichen-den Differenz über die Produktsegmentierung hinweg normiert. Die Zusammensetzung des Faktors „Preiswissen“ ändert sich dabei naturgemäß nicht. Durch diese Normierung ist die nachfolgende Analyse über den gesamten Datensatz möglich68.

68 In diesem Zusammenhang ist anzumerken, dass auch eine Analyse auf Produktebene zu keinen anderen Ergebnissen führt und deshalb auf die jeweilige Darstellung verzichtet wird.

Abbildung 33: Ergebnis der Regressionsanalyse (Quelle: Eigene Darstellung)

Die dargestellten Ergebnisse liefern ein unerwartetes Resultat. Grundsätzlich gilt in der wis-senschaftlichen Praxis ein Bestimmtheitsmaß über 0,5 bzw. 50% als aussagekräftiges Er-gebnis. In dem zuvor angeführten Ausmaß werden hingegen nur 0,1% der Varianz durch die unabhängigen Faktoren erklärt. Es besteht somit eindeutig kein Zusammenhang zwischen den Variablen, was sich auch in den errechneten Regressionskoeffizienten ableiten lässt.

Auch bei Überprüfung der Signifikanz der Ergebnisse wurden starke Mängel aufgedeckt. So ergibt der berechnete ANOVA-Wert mit 0,288 kein signifikantes Ergebnis. Daraus leitet sich die Verwerfung der Alternativ- und Bestätigung der Nullhypothese ab (Raithel 2008, 162).

Der damit als fehlend postulierte Zusammenhang zwischen der Promotionsaffinität und Qua-litätswahrnehmung mit dem Faktor Preiswissen wurde somit bestätigt.

Die Ursache für die schwache Ausprägung des Zusammenhangs wird mittels der nachfol-genden, dem Ansatz der Regressionsanalyse ähnlichen Varianzanalyse bzw. Streuzerle-gung aufgedeckt (Hermann et al. 2007, 584; Pepels 2008, 476). In Anknüpfung zur vorheri-gen Analyse untersucht der Autor, zur Steigerung der Aussagekraft, nicht-komprimiertes Rohmaterial des empirischen Datensatzes. In der Analyse werden die Fallgruppen über die einzelnen Erhebungswellen der Studie für die untersuchten Variablen definiert. Die erklärte Gesamtvarianz wird in jene zwischen und innerhalb der Gruppen zerlegt und auf relevante Signifikanzwerte geprüft (Hüttner/Schwarting 2002, 265; Backhaus et al. 2008, 156).

4XDOLWlWVZDKUQHKPXQJ )DNWRU

3URPRDIILQLWlW )DNWRU

3UHLVZLVVHQ )DNWRU

Abh. Variable

Unabh. Variable

One-Way ANOVA Sum of

Squares df

Mean

Squa-re F-Wert Sig. Į

Between Groups 850 3 283,21 ,446 ,720

Within Groups 1006136 1586 634,39

Qual

Total 1006985 1589

Between Groups 1966 3 655,22 ,758 ,518

Within Groups 1371552 1586 864,79

W.empf

Total 1373517 1589

Between Groups 4373 3 1457,82 1,426 ,233

Within Groups 1621078 1586 1022,12 Wechsl

Total 1625451 1589

Between Groups 5457 3 1819,12 2,303 ,075

Within Groups 1252678 1586 789,83 Hit

Tabelle 29: Varianzanalyse der unabhängigen & abhängigen Variablen (Quelle: Eigene Darstellung)

Die Varianz zwischen den Gruppen (die erklärbare Varianz) ist bei einzelnen Variablen deut-lich kleiner oder annähernd gleich groß als jene innerhalb der Gruppen (auch bezeichnet als die nicht-erklärbare Varianz). Der dadurch sehr kleine Anteil der durch Gruppenzugehörigkeit erklärbaren Varianz führt zu nicht signifikanten Ergebnissen (Herrmann/Homburg/Klarmann 2007, 169). Dieser Zusammenhang wird auch durch den F-Wert repräsentiert, der als Quali-tätskriterium in der Varianzanalyse gilt. Dabei handelt es sich um den Quotienten der Varianz zwischen und innerhalb der Gruppen. Ein Ergebnis um den Wert eins wird als zufallsbedingt und ohne konkrete Tendenz angenommen (Hill/Lewicki 2006, 43; Eckstein 2008a, 141; Paier 2010, 143). Liegt ein deutlich größerer Wert vor, so wird das gemessene Į unter dem gefor-derten Signifikanzniveau liegen und somit signifikant werden (Paier 2010, 143). Damit würde es zur Verwerfung der formulierten Nullhypothese eines konstanten Mittelwerts kommen (Eckstein 2008a, 141).

In der vorliegenden Analyse erreicht nur die Variable „Hit“ einen - wenn auch nicht signifi-kanten - Wert deutlich über eins aus. Sämtliche weiteren Werte liegen unter oder knapp über dem geforderten Niveau und entsprechen nicht den Anforderungen signifikanter Ergebnisse.

Die Her- und Ableitung dieses Zusammenhangs wird im anschließenden Resümee argumen-tiert.