• Keine Ergebnisse gefunden

3. Fragestellung und Ziel

4.2 Grounded Theory

Als Orientierung wurde ein Vorgehen nach den Prinzipien der Grounded Theory aus-gewählt. Dieser Forschungsansatz wurde 1967 von Glaser und Strauss entworfen (Glaser und Strauss 1967) und ist „keine spezifische Methode oder Technik“ sondern

„vielmehr als ein Stil zu verstehen, nach dem man Daten qualitativ analysiert“ (Strauss 1998, S. 30). Strauss formulierte mehrere Hauptelemente, von denen er im Interview mit Legewie und Schervier-Legewie drei als Voraussetzung für das Vorliegen einer Studie nach der Grounded Theory bezeichnete und die im Folgenden näher beleuchtet

werden (Kap. 4.2.1 bis 4.2.3): Kodieren, Vergleiche und Theoretisches Sampling (Le-gewie und Schervier-Le(Le-gewie 2004, Abs. 59; s. a. Breuer 2009, S. 41; s. a. Strauss 1998, S. 51).

4.2.1 Kodieren

Unerlässlich für die Analyse ist das Kodieren. Dabei geht es um das Benennen ver-schiedener „konkrete[r] Daten wie Verhaltensweisen und Ereignisse“, die in Interviews oder ähnlichem Material gefunden werden und die „Indikatoren“ für Konzepte sind (Strauss 1998). Dazu wird während der Betrachtung der Daten die Frage gestellt: „Was geschieht hier eigentlich in den Daten? […] Was ist hier die eigentliche Geschichte und warum?“ (Strauss 1998). Die kreative Erarbeitung von Begriffen, die in den Daten vor-kommende allgemeine Konzepte benennen und damit eine gewisse Abstraktion dar-stellen, ist nötig, um diese analysieren und auf theoretischer Ebene diskutieren zu kön-nen (Strauss und Corbin 1996, S. 45). Dennoch sollen Kodenamen eine gewisse „Spe-zifität“ bezüglich der Daten aufweisen, also keine hohlen, lebensfernen Begriffe sein.

„Es geht um das Entwickeln abstrakter Begriffe, die jedoch noch die Aura ihres empirischen Referenzobjekts besit-zen, die gewissermaßen nach ihrer Gegenstandsherkunft riechen und schmecken.“ (Breuer 2009, S. 76; Hervor-hebung im Original)

So wird auch der Begriff Grounded Theory nachvollziehbar: Die Erkenntnisse sind zwar in „theoretischen“ Begriffen formuliert, aber im Gegenstand „gegründet“. Es gibt verschiedene Kodier-Arten (offenes, axiales und selektives Kodieren), auf die ich bei der Beschreibung des konkreten Vorgehens später noch eingehen werde (s. Kap. 4.4).

4.2.2 Vergleiche

Das Vergleichen verschiedener Indikatoren, d.h. konkreter Ereignisse in den Daten und vorläufig gebildeter Konzepte ist ein weiteres Grundprinzip, das Voraussetzung für ein Vorgehen nach der Grounded Theory ist. Die Methode des Kontinuierlichen Vergleichens, auch Constant Comparative Method, spielt in allen Phasen der Analyse eine entscheidende Rolle (Charmaz 2006, S. 1874, s.a. Glaser und Strauss 1967;

Strauss und Corbin 1996). Verglichen werden Daten untereinander, z.B. Erlebnisse, die in verschiedenen Interviews beschrieben werden. Dabei wird die Aufmerksamkeit

4 „[The] Constant comparative method [is] a method of analysis that generates successively more abstract con-cepts and theories through inductive processes of comparing data with data, data with category, category with category and category with concept. Comparisons then constitute each stage of analytic development“ (Charmaz 2006, S. 187; Hervorhebung im Original)

„Ähnlichkeiten, Unterschieden“ gewidmet und „Klassen“ gebildet: Kategorien (Strauss 1998). Darüber hinaus werden neue Daten immer mit bereits entwickelten Konzepten verglichen und so theoretische Überlegungen geprüft und weiter ausgearbeitet. Durch kontinuierliches Vergleichen lassen sich Konzepte genauer voneinander abgrenzen und definieren. Kategorien werden immer weiter entwickelt und ihre Eigenschaften durch konkrete Beispiele aus den Daten erarbeitet.

Vergleiche sind also die Schnittstelle zwischen Daten und theoretischen Überlegun-gen. Durch Vergleiche werden (fallübergreifende) Konzepte in verschiedenen Kontex-ten erst erkannt und unter Berücksichtigung der verschiedenen Kontextfaktoren ver-stehbar.

An dieser Stelle wird es als sinnvoll erachtet, auf die Begriffe der Induktion und Deduk-tion einzugehen und ihre Rolle in der Grounded Theory zu erklären. Durch IndukDeduk-tion wird von etwas Speziellem, z.B. einem in den Daten geschilderten Ereignis, auf etwas Allgemeines (ein Konzept, ein Phänomen) geschlossen. Das Spezielle in den Daten ist ein Indikator für ein grundlegendes Phänomen, welches sich in diesem speziellen Kontext in einer bestimmten Variation darstellt. Konzepte werden also zunächst durch induktives Vorgehen entworfen. Diese theoretischen Überlegungen werden im Folgen-den deduktiv auf die Daten bezogen und es wird geprüft, ob sich die Daten unter die bereits entwickelte Konzepte subsumieren lassen. Ist dies nicht der Fall, werden neue Konzepte entworfen, vorhandene angepasst bzw. erweitert. Diese „Kombination aus induktivem und deduktivem Denken“ ist die Voraussetzung für eine feste Verankerung der theoretischen Überlegungen in den Daten (Strauss 1998; Strauss und Corbin 1996; Strauss und Corbin 1996, S. 107).

„Auf der Basis von Erfahrungsdaten aus alltagsweltlichen Kontexten werden - von einer vorläufigen Problematisie-rungsperspektive ausgehend - theoretische Konzepte und Modellierungen entwickelt und dabei fortwährend rekur-siv an die Erfahrungsebene zurückgebunden. Die entsprechende Theorie eines sozialen Weltausschnittes bzw.

eines Problemausschnittes wird gegenstandsbegründet herausgearbeitet („grounded“).“ (Breuer 2009, S. 39)

Der analytische Prozess beruht auf immer wiederkehrenden Elementen der Theorie-bildung und Theorieprüfung, so dass auf ein wachsendes Vorverständnis ein immer dichteres Verständnis der Daten aufbaut.

4.2.3 Theoretisches Sampling und theoretische Sättigung

Entscheidend ist, „schon nach dem ersten Interview mit der Auswertung zu beginnen, Memos [gemeint sind ausformulierte theoretische Überlegungen] zu schreiben und Hypothesen zu formulieren, die dann die Auswahl der nächsten Interviewpartner nahe legen“ (Legewie und Schervier-Legewie 2004, Abs. 59). In diesem einfachen Satz ist das Vorgehen des Theoretischen Samplings genau charakterisiert: Die Ergebnisse der parallel zur Erhebung verlaufenden Analyse bestimmen, welchen Daten sich die For-schenden als nächstes zuwenden. Ziel ist nicht die Abbildung der genauen Verteilung demographischer Merkmale innerhalb der untersuchten Grundgesamtheit. Die zu un-tersuchende Gruppe lässt sich demnach nicht wie in der quantitativen Forschung vorab definieren, sondern sie wächst bis zur Theoretischen Sättigung. Corbin formu-liert dazu:

„Mit fortgesetzter Analyse emergieren mehr und mehr Konzepte und Kategorien, bis schließlich der/die Forschende das Gefühl hat, die Analyse sei irgendwie saturiert, d.h. dass keine neuen Ideen mehr aus den Daten entstehen.“

(Corbin 2011, S. 74)

Die eben genannten Vergleiche sind „Motor“ der Datenauswahl mit dem Ziel, ein gut durchdachtes und in den Daten begründetes Verständnis über einen Themenbereich zu erlangen:

„Diese sorgfältige Zusammenstellung von Fällen (Sampling) entlang der Dimensionen von Konzepten, wobei deren Ähnlichkeiten und Unterschiede untersucht werden, ermöglicht es den Forschenden, theoretische Erklärungen an-zubieten die mehr als eindimensional sind. Je mehr Variationen durch das theoretische Sampling inkorporiert wer-den, desto variantenreicher ist die Erklärung und desto umfassender die Theorie.“ (Corbin 2011, S. 74)