• Keine Ergebnisse gefunden

Forschungsprozess und methodologische Anlage der Studie

Diese Untersuchung arbeitet weniger hypothesentestend als eher hypothesen-generierend und empirisch saturierend. Die vielfältigen Ansätze der Partizi-pations- und Parteimitgliederforschung bieten dabei Annäherungsmöglich-keiten an das Thema der Mitgliederwerbung, jedoch weder übergeordnete grand theories noch Theorien mittlerer Reichweite, die eine einfache Mo-dellbildung ermöglichen könnten. Daher findet im Folgenden ein Mixed-Methods-Ansatz Anwendung, wobei dieser nicht nur im Design der Studie, sondern auch innerhalb der empirischen Einzeluntersuchungen selbst imple-mentiert wird, beispielsweise durch die Aufnahme halboffener und offener Fragen in einen standardisierten Fragebogen. Als Vorarbeit zum empirischen Teil dient eine explorative Inhaltsanalyse von Parteitagsdokumenten und Grundsatzprogrammen der Parteien, um ihr Bekenntnis zum Mitgliederprin-zip zu überprüfen. Im darauffolgenden empirischen Abschnitt wird die Ana-lyse von Dokumenten geleistet, die über die Mitgliederwerbestrategien der Parteien Auskunft geben: Flyer, Strategiepapiere und Handbücher zur Mit-gliederwerbung werden einer computergestützten qualitativen Inhaltsanalyse unterzogen, wobei die Ergebnisse zum einen quantifiziert (mittels Berech-nung der Zahl codierter Passagen zu einem Code) als auch qualitativ aus-gewertet werden können. In einem darauffolgenden Schritt werden die Re-gionalgeschäftsführer der Parteien im Rahmen einer Online-Umfrage hin-sichtlich des Einsatzes dieser Strategien befragt; halboffene und offene Frageelemente können dabei helfen, Ergebnisse hervorzubringen, die durch ausschließlich geschlossene Fragen verdeckt bleiben könnten. Zum Schluss werden die (Neu-)Mitgliederbeauftragten zum einen im Rahmen einer On-line-Umfrage bezüglich ihrer ehrenamtlichen Arbeit in der Mitgliederwer-bung befragt14. Hierbei wird aus den genannten Gründen ebenfalls mit halb-offenen und halb-offenen Fragen gearbeitet. Da diese Zielgruppe im Gegensatz zu den Regionalgeschäftsführern eine herausragende Rolle in der Mitglieder-werbung einnimmt und interessierte Bürger anspricht sowie anwirbt, soll zum anderen ein möglichst großer Teil dieser Zielpersonen im Rahmen leitfaden-14 Ausgewertet werden die Ergebnisse dieser Umfrage mit bivariaten Korrelationsanalysen

und Regressionsmodellen. Die Regressionsanalysen sind dabei explorativ angelegt und sol-len die Zusammenhänge der abgefragten Items auf die Zahl der geworbenen Neumitglieder überprüfen. Es wird daher bewusst darauf verzichtet, komplexe Modelle zu bilden, die wie-derum auf statistischen Hypothesen aufbauen, da dies den Umfang dieser Studie nur unnö-tig in die Länge ziehen würde. Siehe dazu auch Abschnitt 6.4.1.

gestützter Interviews einer eingehenderen Befragung unterzogen werden.

Somit soll einerseits versucht werden, ein umfassendes Bild genutzter Strate-gien und Möglichkeiten zu zeichnen, andererseits aber auch in Erfahrung gebracht werden, warum Mitgliederwerbung in Deutschland für Parteien anscheinend nicht funktioniert: Über die letzten Jahre hinweg gleich bleiben-de obleiben-der nur geringfügig schwankenbleiben-de Rekrutierungszahlen, die die Austritte nicht kompensieren können, deuten darauf hin, dass existierende Mitglieder-werbestrategien entweder nicht die Bedürfnisse interessierter Bürger treffen oder nur unzureichend umgesetzt werden.

Der Forschungsprozess dieser Studie ist maßgeblich an Kuckartz (2014:

111) angelehnt und versucht, die verschiedenen Forschungsschritte miteinan-der zu verkoppeln, da Erkenntnisse vor allem induktiv gewonnen werden sollen. Indem die leitfadengestützten Interviews teilweise vor der Online-Umfrage unter den Mitgliederwerbern geführt wurden, konnten die aus ihnen gewonnenen Erkenntnisse den Fragebogen für die Umfrage maßgeblich an-reichern. Zugleich sind Interview- und Umfragebogen so ähnlich, dass die qualitativen Erkenntnisse quantifiziert werden konnten und die quantitativen Erkenntnisse wiederum zur Validierung der qualitativen Erkenntnisse beitru-gen. Die Zusammenführung und Diskussion am Ende der Untersuchung speist sich dann aus der Synthese der einzelnen empirischen Teile vor dem Hintergrund der theoretischen und konzeptionellen Vorarbeiten.

Abbildung 1: Methodisches Vorgehen

Quelle: eigene Darstellung

Im weiteren Verlauf dieses Kapitels sollen in einem ersten Schritt metho-dologische und methodische Grundlagen der quantitativen Befragung darge-stellt, in einem zweiten Schritt die qualitativen Untersuchungen erläutert werden. Anschließend werden die Vor- und Nachteile des in der vorliegenden Studie genutzten Mixed-Methods-Ansatzes diskutiert.

Quantitative Untersuchungen folgen dem Paradigma des Postpositivismus (vgl. Johnson et al. 2007: 125), da sie „mit standardisierten Erhebungsin-strumenten assoziiert sind, dem Modell des naturwissenschaftlichen Messens folgen und mit numerischen Daten arbeiten“ (Kuckartz 2014: 28). Postpositi-visten nehmen an, dass soziale Einheiten oder Gefüge gewissen Gesetzmä-ßigkeiten folgen, die sich beobachten und damit messen lassen. Dies führt dazu, dass Untersuchungsgegenstände quasi-objektiv betrachtet werden.

Diese Quasi-Objektivität sowie die angenommene Ähnlichkeit der quantitati-ven sozialwissenschaftlichen Untersuchung mit naturwissenschaftlicher For-schung führt Verfechter quantitativer Designs zu der Annahme, dass sozial-wissenschaftliche Beobachtungen mit natursozial-wissenschaftlichen Methoden geleistet werden können (vgl. Johnson und Onwuegbuzie 2004: 14). Die positivistische Ausgangsannahme, die quantitativen Untersuchungen zugrun-de liegt, bringt einige nicht zu negierenzugrun-de Vorteile mit: Bereits entwickelte Theorien können getestet, mittels repräsentativer Stichproben Verallgemeine-rungen ermöglicht und präzise, leicht auszuwertende Daten produziert wer-den (vgl. Johnson und Onwuegbuzie 2004: 19). Zudem ist die Durchführung quantitativer im Verhältnis zu qualitativen Studien eher unkompliziert und rascher zu leisten, was die Analyse großer Fallzahlen erleichtert. Des Weite-ren entwickelt sich nicht nur die sozialwissenschaftliche, sondern auch die mathematische und statistische Forschung weiter und generiert immer neue Verfahren, die bisher unbekannt waren und ebenfalls in den Sozialwissen-schaften angewandt werden können (vgl. Fakis et al. 2014: 157). Zudem gilt die Objektivität der Daten als gewährleistet, da der Forscher bei der statisti-schen Analyse – im Gegensatz z.B. zur hermeneutistatisti-schen Auswertung qualita-tiver Forschungsergebnisse – schwerlich eigene Vorkenntnisse bewusst oder unbewusst in die Auswertung einfließen lassen kann15 (es sei denn, er mani-puliert die Daten absichtlich; diese Gefahr ist sowohl bei qualitativer als auch bei quantitativer Forschung gegeben) (siehe Johnson und Onwuegbuzie 2004:

14).

Quantitative Forscher sehen sich bei ihren Vorhaben häufig der Kritik ausgesetzt, sie könnten komplexere soziale Phänomene durch die Gestaltung ihrer Fragebögen, die meist zeit- und situationsbedingt aus geschlossenen oder halboffenen Fragen bestehen, nicht adäquat erfassen. Gobo (2011: 242) 15 Hier ist lediglich die Auswertungsphase der Daten gemeint. Interviewer- bzw.

Befragtenef-fekte (siehe dazu bspw. Hlawatsch und Krickl 2014: 306, Reuband 2014: 648 sowie Glantz und Michael 2014: 316) können in der Erhebungsphase zu einer Datenverzerrung führen, die in der Auswertung der Daten nicht mehr behoben werden kann.

empfiehlt daher, offene Fragen in Fragebögen aufzunehmen, die in der Aus-wertung speziell codiert werden. Damit bezieht er sich auf die Forschung der 1960er Jahre wie z.B. Galtung (1967). Andere Autoren wie beispielsweise Schuman und Presser (1979: 693) schlagen vor, gerade im Pretest stärker mit offenen Fragen zu arbeiten. Diese können dann anhand der im Pretest ge-nannten Antworten für den finalen Fragebogen zu halboffenen oder geschlos-senen Fragen umgewandelt werden. Wenngleich dies ein fruchtbares Vorge-hen zu sein scheint, ist aus forschungspragmatischer Sicht zu eruieren, wie hoch die Zahl der Pretests sein muss, um eine ausreichende Sättigung zu erhalten.

Wenngleich die quantitative Forschung durch die Zuhilfenahme statisti-scher Verfahren in der Lage ist, Kausalmechanismen aufzuspüren, „bleibt der Einblick in tiefer gehende, z.T. psychologische Erklärungsstränge verwehrt“

(Pickel 2009: 519). Zudem bleibt der deduktive, hypothesenprüfende Ansatz, der sich dem Postpositivismus verpflichtet sieht, nicht ohne Kritik: Olsen (2004: 10) stellt die Frage, ob es mit diesem Ansatz tatsächlich möglich ist, Theorien zu falsifizieren bzw. sie auf neue Kontexte zu übertragen (vgl.

Johnson und Onwuegbuzie 2004: 19). Bei der Ausgestaltung der Fragebögen zu quantitativen Untersuchungen öffnet sich zuletzt ein weiteres Problemfeld:

Payne (2011: 54) konstatiert, dass Befragungsteilnehmer bei der Einordnung von Antworten auf einer Likert-Skala schnell gelangweilt sein können und daher nicht mehr akkurat antworten, was die Reliabilität gefährdet16. Zudem besteht die Gefahr, dass Befragungsteilnehmer Antwortmöglichkeiten oder Fragen falsch verstehen (vgl. Gobo 2006: 281), wohingegen in qualitativen Erhebungen meist die Möglichkeit besteht, vertiefend auf Unklarheiten ein-zugehen.

Im Gegensatz zu quantitativen Untersuchungen wird qualitative For-schung mit dem Paradigma des Poststrukturalismus sowie des Konstrukti-vismus verknüpft (vgl. Johnson et al. 2007: 125; Flick 2013b: 151). Die Grundannahmen der qualitativen Forschung sind, dass soziale Konstrukti-onsprozesse soziale Wirklichkeit aktiv und stetig konstruieren, was die Ana-lyse von „Kommunikations- und Interaktionssequenzen mit Hilfe von Be-obachtungsverfahren und anschließenden sequenziellen Textanalysen“ (Flick et al. 2013: 20) unabdingbar macht. Mittels hermeneutischer Interpretation sind diese Kommunikations- und Interaktionshandlungen zu erklären und erklärbar zu machen (vgl. Flick et al. 2013: 21), was wiederum darin resul-tiert, das Verstehen von Zusammenhängen zu ermöglichen; es geht im Ge-gensatz zur quantitativen Forschung weniger um die Isolierung von Kausal-mechanismen oder die Verallgemeinerungsfähigkeit der Resultate (vgl. Flick

16 Zur weiteren Diskussion hinsichtlich der Verwendung von Ordinalskalen in Fragebögen siehe Gobo (2006: 281).

et al. 2013: 23), sondern um Saturation, also „die Sättigung der zu entwi-ckelnden Theorie“ (Kuckartz 2014: 84)17.

Eine häufig genutzte Erhebungsmethode qualitativer Daten sind leitfa-dengestützte Interviews, die, wie das narrative Interview z.B., die „diskursive Verständigung über Interpretationen“ (Hopf 2013: 350) zulassen und damit den hermeneutischen Verstehensprozess nicht erst in der Analyse der Daten ermöglichen, sondern den Interviewer an der Konstruktion der Ergebnisse aktiv teilhaben lassen (vgl. Kuckartz 2014: 28). Dementsprechend können jedoch die Gütekriterien empirischer Messungen unter dieser Form der Erhe-bung leiden: So ist es doch möglich, dass der Interviewer durch falsche oder ungeschickte Interviewführung vom eigentlichen Forschungsgegenstand ab-kommt, den Interviewten verärgert oder ihn zur Äußerung sozial erwünschter Aussagen verleitet (die Problematik der sozialen Erwünschtheit stellt sich auch bei quantitativen Befragungen; zu einer vertieften Auseinandersetzung mit sozialer Erwünschtheit als Verzerrungseffekt siehe Reinecke 1991:

94ff.)18.

Andere im Rahmen dieser Untersuchung genutzte qualitative Verfahren betreffen die Analyse von Dokumenten, die von Personen, Organisationen oder Institutionen veröffentlicht wurden. Daten werden hierbei nach Kriterien des „theoretic sampling“ (Heindl 2015: 301) zusammengestellt. Die erhalte-nen Dokumente könerhalte-nen einer qualitativen Analyse unterzogen werden oder als Ausgangspunkt einer weiteren quantitativen Untersuchung dienen (vgl.

Heindl 2015: 302), so wie es diese Studie nach ihrem ersten empirischen Schritt in Anlehnung an die Vorschläge aus der Literatur leistet. Damit soll der besondere Vorzug der qualitativen Forschung, substantiell neue Erkennt-nisse via Induktion hervorzubringen, gewinnbringend genutzt werden.

Die Auswertung der qualitativen Daten lässt sich auf unterschiedliche Weise bewerkstelligen. Schreier (2014) nennt allein acht verschiedene Ver-fahren zur qualitativen Inhaltsanalyse, die sie der vorhandenen Literatur ex-trahiert19. Dabei bleibt festzuhalten: Es gibt „keinen festgelegten Kanon […], 17 Im englischen Sprachgebrauch bezeichnet saturation den Punkt, an dem sich in der Analyse keine neuen Informationen mehr finden lassen (vgl. Teddlie und Tashakkori 2009: 183);

Saturation ist in diesem Falle das Anlangen an dem Punkt, an dem eine zu entwickelnde Theorie vollständig gesättigt ist bzw. eine (dichte) Beschreibung ihre vollständige Dichte erreicht hat.

18 Andere Fehlerquellen, die die Art der Interviewführung betreffen, finden sich bei Hopf (2013: 359), Hermanns (2013: 361) sowie Glantz und Michael (2014).

19 Den Ansätzen der ‚klassischen‘ qualitativen Inhaltsanalyse begegnen in den letzten Jahren zunehmend quantitative inhaltsanalytische Analysestrategien, die einen ‚Drang‘ zur Quanti-fizierung qualitativer Daten in der Methodenforschung widerspiegeln: ‚Wordscores‘, die auf der Zählung bestimmter Wörter beruhen, versuchen z.B. in Wahlprogrammen Policy-Positionen anhand des Vorkommens bestimmter Schlüsselbegriffe zu bestimmen (bspw.

Laver et al. 2003; Lowe 2008). Dieses Vorgehen beruht jedoch auf der Annahme, dass die Sprache, die von politischen Akteuren genutzt wird, eine politische Ideologie ausdrückt (vgl. Proksch und Slapin 2009: 324) und unterscheidet nicht zwischen der Nutzung

ambiva-wie man bei der Datenauswertung vorzugehen hat“ (Behnke et al. 2010: 335), was Räume für verschiedene inhaltsanalytische Arten öffnet. Das offene Vorgehen der Inhaltsanalyse genügt jedoch „bisweilen den Kriterien der Transparenz und Systematik nicht“ (Pickel 2009: 520).

In Frage gestellt bleibt damit die Validität der Forschungsergebnisse.

Onwuegbuzie und Leech (2007) stellen dazu ein ‚Qualitative Legitimation Model‘ vor, das auf die Fallstricke qualitativer Forschung hinsichtlich der Validität eingeht und eine Vielzahl an zu beachtenden Hürden integriert.

Qualitative Forscher äußern dabei häufig, dass Validität im engeren Sinne nicht existieren könne, da keine einzig ‚gültige‘ Realität vorhanden sei (vgl.

Onwuegbuzie und Johnson 2006: 55). Wahrheit bzw. Realität seien Prozesse sozialer Konstruktion und dabei partiell arbiträr und nicht fix, was die Ableh-nungen von Generalisierungen vonseiten der qualitativen Puristen erklärt20. Einem solchen erkenntnistheoretischen Radikalismus schließt sich die vorlie-gende Studie nicht an, wenngleich sie die Verschränkung von Forschung und Wirklichkeit aus sozialkonstruktivistischer Sicht anerkennt; „erkenntnistheo-retisch sind die untersuchten Wirklichkeiten soziale Konstruktionen der For-schung“ (Winter 2014: 120).

Die Nachteile der qualitativen Forschung liegen auf der Hand: Neben der Validitätsproblematik stellt sich die Frage nach der Verallgemeinerbarkeit der Ergebnisse (vgl. Pickel 2009: 520). Zudem stellen die Vorteile der induk-tiven Vorgehensweise ein zweischneidiges Schwert dar: Zwar kann die quali-tative Forschung maßgeblich zur Hypothesen- und Theoriengenerierung beitragen, doch ist die Auswertung qualitativer Daten vonseiten des For-schers durch dessen Vorwissen und Forschungsinteresse beeinflusst (vgl.

Meinefeld 2013: 269; Johnson und Onwuegbuzie 2004: 20). Des Weiteren kann qualitative Forschung Hypothesen und Theorien schlecht testen und ist in der Regel sehr zeitaufwendig (sowohl in der Durchführung als auch in der Datensammlung und -auswertung) (vgl. Johnson und Onwuegbuzie 2004:

20).

Eine Lösungsmöglichkeit, die Nachteile der jeweiligen methodischen An-sätze einzuhegen, bietet der Mixed-Methods-Ansatz. Mixed-Method-Designs können bereits in der Marienthal-Studie, die von Jahoda et al. (2015) 1933 durchgeführt wurde, erkannt werden und blicken damit methodologisch und methodisch auf eine lange Geschichte zurück. Die vertiefte methodologische Beschäftigung mit dem Feld der Mixed-Methods ließ jedoch auf sich warten und scheint von deutschen politikwissenschaftlichen Autoren vergleichsweise lenter Begriffe als Fahnen- oder Stigmawort. Damit soll nicht nur eine Vergleichbarkeit der Ergebnisse, sondern auch ihre Generalisierung ermöglicht werden; sie ist aber als außeror-dentlich verlustreich, gar verzerrend zu charakterisieren.

20 Die Validitätsdiskussion soll an dieser Stelle nicht weiter vertieft werden; wie ein Mixed-Methods-Ansatz Validität sicherstellen kann, wird in den folgenden Abschnitten noch er-läutert. Zur Diskussion siehe Denzin (2012: 82), Bracht und Glass (1968), Kvale (1995:

20), Lather (1986), Lather (1993), Maxwell (1992) sowie Hitchcock und Nastasi (2011).

selten ausführlich beleuchtet zu werden (bis auf bspw. Berg-Schlosser 2012 sowie Kuckartz 2014).

Unter dem Begriff der Triangulation wurde in den ausgehenden 1970er Jahren eine Diskussion um die Anwendung verschiedener Methoden zur Untersuchung einer Forschungsfrage geführt, die den Mixed-Methods nahe-kommt. Triangulation kann als „the combination of methodologies in the study of the same phenomenon“ (Denzin 1978: 291) verstanden werden. Die Abgrenzung von Triangulation zum Feld der Mixed-Methods erscheint auf den ersten Blick schwierig21. Im Rahmen der modernen Mixed-Methods-Forschung ist Triangulation nur noch ein Baustein unter vielen anderen ge-worden (vgl. Greene et al. 1989: 259), was ausgehend von der ursprünglichen Verwendung des Begriffs als Validierungskonzept für quantitative Untersu-chungen (vgl. Kuckartz 2014: 45) plausibel ist. „Mixed-Methods ist aber nicht mit Triangulation gleichzusetzen, sondern bedeutet einen sehr konkre-ten, praktisch ausgerichteten Forschungsansatz, verbunden mit ganz eigenen Strategien des Designs, der Datenerhebung und der Datenanalyse“ (Kuckartz 2014: 11)22. Teddlie und Tashakkori schlagen für die Mixed-Methods fol-21 Pickel (2009: 518f.) bietet daher an, Triangulation als gleichberechtigten Methodenmix zu

verstehen. Ziele der Triangulation seien es, Untersuchungsgegenstände komplett, holistisch und kontextbezogen zu erfassen (vgl. Jick 1979: 603). Denzin (1978) unterscheidet in sei-nem maßgeblichen Beitrag zur Triangulation vier Arten, die Daten-Triangulation, die In-vestigator-Triangulation, die Theorien-Triangulation und die methodologische Triangulati-on, wobei letztere sein zentrales Konzept darstellt (vgl. Flick 2013a: 319). Der Vorteil der Triangulation im Gegensatz zur Anwendung eines einzigen Forschungsansatzes kann dabei sein, die Schwächen der einen Methode mit den Stärken der anderen zu kompensieren.

Zielführend kann Triangulation ausschließlich dann sein, wenn die angewandten Methoden sowie Forschungsstrategien nicht dieselben biases teilen (vgl. Blaikie 1991: 117; Greene et al. 1989: 256). Die Durchführung quantitativer Untersuchungen mit geringen Fallzahlen oder die Durchführung qualitativer Untersuchungen mit dem Ziel der Generalisierung der Ergebnisse sollten nicht das Anliegen von Forschern sein, die sich der Triangulation bedie-nen. Frühere Verfechter der Triangulation betonen, dass Methoden, die dasselbe Phänomen untersuchen sollen, simultan und unabhängig voneinander durchgeführt werden müssten, um die ihnen jeweils eigenen biases zu vermeiden (vgl. Greene et al. 1989: 256). Flick (2013a: 318) fasst die Verwendungsstrategien und die angenommenen Vorteile der Trian-gulation zusammen „als Validierungsstrategie, als Ansatz der Generalisierung der gefunde-nen Erkenntnisse und als Weg zu zusätzlicher Erkenntnis“. Denzin (2012: 82) würde hier entschieden widersprechen und Triangulation nicht als Validierungsstrategie, sondern als Alternative zur Validierung bezeichnen.

22 So fassen Creswell und Plano Clark (2011: 77ff.) Triangulation als ‚Convergent Parallel Design‘ zusammen und ordnen sie damit implizit den Mixed-Methods unter: „Regardless of the name, the convergent design occurs when the researcher collects and analyzes both quantitative and qualitative data during the same phase of the research process and then merges the two sets of results into an overall interpretation” (Creswell und Plano Clark 2011: 77). Die Daten sollen hierbei nicht identisch, aber zumindest komplementär sein, so-dass Forschungsergebnisse zu einem Thema aus zwei oder mehreren verschiedenen Rich-tungen zu ähnlichen Ergebnissen führen. Dieser Perspektivenwechsel (vgl. Olsen 2004: 4) bringt dann Probleme mit, wenn die quantitative Studie von der qualitativen Studie abwei-chende Ergebnisse produziert, wie weiter unten in diesem Kapitel noch besprochen wird.

gende Definition vor: „a type of research design in which QUAL and QUAN approaches are used in type of questions, research methods, data collection and analysis procedures, or in inferences” (Teddlie und Tashakkori 2009: 7).

Mit der Unterschiedlichkeit der Forschungsparadigmen, die die frühen Vertreter der Triangulation beschäftigten, arbeiten die Forscher des Mixed-Methods-Ansatzes gleichermaßen. So weisen Johnson et al. (2007: 125) darauf hin, dass im Feld der Mixed-Methods erkenntnistheoretisch weder Konstruktivismus/Poststrukturalismus noch Postpositivismus vorherrschen, sondern ein eigenes Paradigma Eingang gefunden habe – der Pragmatismus.

„[It] offers an epistemological justification and logic for mixing approaches and methods” (Johnson et al. 2007: 125). Vertreter des Pragmatismus bringen insbesondere das Argument hervor, dass epistemologischer Purismus den Forschungsprozess unnötig in die Länge ziehe (vgl. Greene et al. 1989: 257).

Die Hinwendung zum Pragmatismus stellt damit im weiteren Sinne keine Zuordnung zu einem starren Paradigma dar, da sich der Pragmatismus durch dynamische und flexible, dem Untersuchungsgegenstand angepasste For-schungsdesigns auszeichnet. Charakteristika des Pragmatismus sind die Zu-rückweisung von Paradigmendualismen, einer fallibilistischen Erkenntnis-theorie und das Selbstverständnis einer Anti-Philosophie, stellt der Pragma-tismus doch praktisches Handeln in den Vordergrund und theoretisches Sin-nieren in den Hintergrund (vgl. Johnson und Onwuegbuzie 2004: 18). Tedd-lie und Tashakkori (2009: 73) geben dem bei Mixed-Methods-Forschungen angewandten Pragmatismus daher den Namen ‚dialektischer Pragmatismus‘, um damit darauf hinzuweisen, dass die Mixed-Methods-Forschung qualitati-ve und quantitatiqualitati-ve Forschung sowie ihre ontologischen und epistemologi-schen Anlagen ernst nimmt, aber dennoch versucht, eine Synthese aus beiden herzustellen. Andere Autoren lassen mittels der Unterscheidung von ‘qualita-tive dominant mixed methods research’ und ‘quantita‘qualita-tive dominant mixed methods resarch‘ die Prädominanz eines Paradigmas bei gleichzeitiger Aner-kennung eines anderen zu, jedoch unter dem Vorzeichen, dass entweder qua-litative Studien durch quantitative Studien angereichert werden oder vice versa (vgl. Johnson et al. 2007: 124)23. Morse (1991) unterscheidet dabei, ob Forschungsprojekte eher deduktiv oder induktiv angelegt sind und macht sich dafür stark, dass eine fachübergreifende Notation eingeführt wird (vgl. Morse 1991: 121ff.). Zudem unterscheidet sie in ihrer eigenen Notation zwischen

Die Frage der Gewichtung der Ergebnisse ist dabei in der Forschung noch nicht abschlie-ßend geklärt.

23 Die Strategie des Quantisierens von qualitativen Daten kann hierbei als Möglichkeit be-trachtet werden, wie Vertreter des Postpositivismus – ohne bekanntes Terrain verlassen zu müssen – dennoch qualitative Daten nutzen können, wobei Sandelowski et al. (2009: 208) nicht ohne Ironie schließen: „Moreover, the rhetorical appeal of numbers – their cultural as-sociation with scientific precision and rigor – has served to reinforce the necessity of con-verting qualitative into quantitative data“.

gleichzeitigen und sequentiellen Designs, wobei die Präzision und Klarheit ihrer Unterscheidung ihrer Durchsetzung in der Methodenforschung verhalf.

Quantitative bzw. qualitative Puristen hingegen lassen vor dem Hinter-grund der Inkompatibilitäts-These keine Mixed-Methods-Forschung zu, da sie die epistemologischen und ontologischen Grundlagen der jeweiligen Me-thoden für unvereinbar halten (vgl. Rossman und Wilson 1985: 629; Denzin 2012: 81; Fakis et al. 2014: 139f.). Anschließend an die vorangegangenen Ausführungen lehnt die vorliegende Untersuchung diese Rigorosität ab und hält gerade die jüngeren Arbeiten zu Mixed-Methods für überzeugend genug, quantitative und qualitative sowohl methodisch als auch methodologisch

Quantitative bzw. qualitative Puristen hingegen lassen vor dem Hinter-grund der Inkompatibilitäts-These keine Mixed-Methods-Forschung zu, da sie die epistemologischen und ontologischen Grundlagen der jeweiligen Me-thoden für unvereinbar halten (vgl. Rossman und Wilson 1985: 629; Denzin 2012: 81; Fakis et al. 2014: 139f.). Anschließend an die vorangegangenen Ausführungen lehnt die vorliegende Untersuchung diese Rigorosität ab und hält gerade die jüngeren Arbeiten zu Mixed-Methods für überzeugend genug, quantitative und qualitative sowohl methodisch als auch methodologisch