• Keine Ergebnisse gefunden

Kulturanthropologische Annotationen im Kontext der Grounded Theory: Bedeutungen, Kontexte und

3 Fachspezifische Annotationsweisen in der Computerlinguistik und Kulturanthropologie

3.2 Kulturanthropologische Annotationen im Kontext der Grounded Theory: Bedeutungen, Kontexte und

Suchstrategien

Die Kulturanthropologie legt ihren Forschungen vor allem induktive oder abduk-tive Forschungszugänge zugrunde, weil sie an der Herausbildung neuer sozialer und kultureller Phänomene in einer von Wandel geprägten Welt interessiert ist.

Im Bestreben, diesen Wandel und die Herausbildung sozialer Ordnungen wis-senschaftlich zu erforschen, werden insbesondere Diskursanalysen (Keller 2011, 260 f.) und Ethnografien (Warneken 2006) realisiert. Hierbei ist die Auswertung von relevanten Diskursäußerungen in Texten aber auch anderen Materialien eine wesentliche Arbeitsweise, die methodologisch von den Prinzipien der Grounded Theory (Glaser und Strauss 1967) geleitet wird. Diese sieht verschiedene Formen der Kodierung bzw. Kategorienvergabe vor, die im Folgenden erläutert werden:

das offene, das selektive und das axiale Kodieren werden jeweils in Form von Annotationen am Text vorgenommen. Außerdem wird eine weitere Form der An-notation durch das Schreiben von sogenannten Memos in die Wissensproduktion integriert. Diese kann als Annotationsmodus auf der Metaebene verstanden wer-den, über den Reflexionen zur Kategorienbildung und zum Forschungsprozess insgesamt dokumentiert werden. Die Annotation der Texte sowie die Auswahl von

diesen zur Korpuserstellung ist dabei ein iterativer Prozess, der mehrfach zyklisch durchlaufen wird.

Um diese Aussagen nachvollziehbar zu machen, soll die Annotationspraxis im Folgenden an der Akzeptanz von Telemedizin aufgezeigt werden. Telemedi-zin, das sind tele- und informationstechnisch verknüpfte Anwendungen für den Gesundheitsbereich, wie etwa eine Videosprechstunde, aber auch spezifische-re Entwicklungen wie die Überwachung des Blutzuckerwertes bei Diabetikern mittels eines Implantats, das Daten sendet. Eng verbunden damit sind informa-tionstechnologische Entwicklungen im Gesundheitsbereich und die Etablierung von entsprechenden Infrastrukturen, die Anwendungen erst ermöglichen (vgl. Bel-linger 2014, Fischer und Krämer 2016, Mathar 2010). Die Akzeptanzproblematiken, die gegenüber der Einführung der Telemedizin in Deutschland bestehen, sind im Projekt hermA anhand einer wissenssoziologischen Diskursanalyse untersucht worden. Hierbei werden in einer qualitativen Analyse öffentliche Äußerungen und Debatten zur Telemedizin im Hinblick auf unterschiedliche Positionen und die damit verbundenen Aushandlungsprozesse daraufhin untersucht, welche Wissens-ordnungen sich hier herausbilden, also bestimmte Sichtweisen als dominierende Positionen aus dem Diskurs hervorgehen, während andere als weniger relevant begriffen werden.

Um die entsprechenden Positionen im Diskurs herauszuarbeiten, ist eine Sich-tung und Strukturierung von umfangreichen Quellen notwendig. Hierfür wird mit theoretischem Sampling gearbeitet, also der Auswahl von für die Fragestellung relevanten Quellen. Dabei ist Ziel, „nicht einfach möglichst viele Daten, sondern möglichst relevante Daten zu erheben“ (Götzö 2014, 450), also das Prinzip der Datensparsamkeit umzusetzen und damit qualitative Analysen zu erleichtern. Die relevante Datengrundlage wird in mehreren, iterativ wiederkehrenden Prozes-sen durch Forscher*innen selektiert, annotiert und analysiert (vgl. Merkens 2012;

Strauss und Corbin 1996, 150), wobei automatisierte Verfahren aktuell nur we-nig, fast ausschließlich in Form von generischen Suchen bei der Selektion der Daten eine Rolle spielen. Für die qualitative Auswertung der Diskursmaterialien im Hinblick auf die Wissensordnungen, die sich im Diskurs herausbilden, sind Kenntnisse des (deutschen) Gesundheitssystems mit den unterschiedlichen Akteu-ren und (gesetzgeberischen) Prozessen als Vorwissen notwendig, eine fundierte Kenntnis von Sozial- und Kulturtheorien sowie eine offene Haltung in Bezug auf Themen, die in die Aushandlung eingebracht werden. Konkret wurde der anfängli-che Fokus, mit dem die Quellenerhebung zur Telemedizin als offenes Sampling begonnen wurde, entwickelt anhand von einigen wenigen Dokumenten des Wis-senschaftlichen Dienstes des Bundestags (Wissenschaftlicher Dienst 2011) und der Bundesärztekammer (2015). So konnte das Grundverständnis davon ermittelt wer-den, was unter Telemedizin verstanden wird. Erst nach diesem ersten Durchgang

der Korpuserstellung, Annotation und Analyse wurde entschieden, welche weitere Quellengrundlage wie erhoben, annotiert und ausgewertet wird, um Akzeptanz-problematiken zu identifizieren – als iterativer Prozess begleitet die Korpusbildung den kompletten Forschungsprozess.

Annotieren spielt in diesem Prozess eine grundlegende Rolle: von Beginn an werden Daten mit Markierungen versehen, die Aufschluss über die mögliche Bedeutung für die Fragestellung geben sollen. Annotationskategorien sind dabei nicht vorgegeben, sondern als Prozess zu verstehen. Offenes Codieren markiert zu-nächst für die Fragestellung interessante Passagen, um von den Texten ausgehend nach und nach abstraktere Konzepte zu bilden und vorhandene Themen benennen zu können. Entsprechende Konzepte werden fortlaufend als (neue) Kategorien fest-gehalten und in dieses Verfahren begleitenden Memos nachvollziehbar fest-gehalten.

Das Annotieren selbst dient dabei der fortlaufenden Strukturierung des Kategorien-systems, in welchem sich mit zunehmendem Erkenntnisprozess zentrale Aussagen zum Forschungsfeld manifestieren.

Die ersten offenen, ungerichteten Annotationen erfolgten an den genannten Dokumenten von Bundestag und Ärztekammer, schnell konnte jedoch aufgrund des Vorwissens der beteiligten Forschenden die Politik als eine relevante Akteurs-gruppe identifiziert werden. Mit diesem Wissen wurde eine Korpuserweiterung als gezieltere Quellengenerierung angestoßen. Hierfür wurden die Protokolle des Deut-schen Bundestages nach den mittlerweile identifizierten Schlüsselbegriffen für das Phänomen Telemedizin gesichtet (zur Nutzung von Wortfeldern vgl. Adelmann et al. 2019). Darauf aufbauend wurden 119 Protokolle bzw. relevante Tagesord-nungspunkte des jeweils protokollierten Sitzungstages offen annotiert. Schnell zeigten sich relevante Gesetzesänderungen, insbesondere das 2015 verhandel-te eHealth-Gesetz (Plenarprotokolle 18/116 und 18/43) sowie das Terminservice-und Versorgungsgesetz aus dem Jahr 2019 (Plenarprotokolle 19/71 Terminservice-und 19/86). In den Plenarsitzungen wurde jedoch auch an anderer Stelle in unterschiedlichen Kontexten zur Telemedizin diskutiert, was in offenen Kategorien zunächst nur festgehalten wurde. Entsprechend waren die Kategorien benannt mit beispiels-weise „IT für Telemedizin notwendig“, „Telemedizin kein Ersatz für Hausarzt oder Krankenhaus“ oder „Patientenautonomie, Patientenhandeln, Patientenrechte“.

Die entsprechenden Kategorien strukturieren den weiteren Blick auf das Quellen-material insofern, als dass sie Deutungen und Zusammenhänge festhalten, dabei jedoch nur vorläufig sind.

Diese erste Annäherung durch offene Annotationen nach Grounded Theory ver-langt ein prozessorientiertes Annotationsverständnis, das eng am Text und wenig auf feste Kategorien oder gar Taxonomien fixiert ist. Zu diesem Zeitpunkt bestehen kein Annotationsguidelines, sondern vielmehr ist die Fragestellung in Kombi-nation mit dem Vorwissen der Annotator*innen entscheidend dafür, möglichst

relevante Textstellen zu markieren. Eine Systematisierung und Differenzierung erfolgt während und nach diesen Annotationen als iterativer Prozess, in dem das Kategoriensystem zur Strukturierung aufgefächert und Relationen zwischen den Kategorien spezifiziert werden. Gerade Mehrdeutigkeiten sind dabei erkenntnisge-nerierend, da sie zur Differenzierung nötigen. Durch die zunehmende Sättigung von Kategorien im Laufe des Annotierens, also der Situation, dass keine neuen Kategorien mehr hinzukommen, wird deutlich, wann alle relevanten Dimensionen eines Phänomens dargestellt sind. Erst zum Abschluss des Forschungsprozesses ist das Kategoriensystem entsprechend verfestigt.

Axiales Codieren bedeutet dann vor allem eine Neuordnung der Kategorien, eine „Verfeinerung und Differenzierung schon vorhandener Konzepte“ (Böhm 2012, 478), die in ein Bezugssystem zueinander gesetzt werden. Durch selektives Codie-ren wird in der Folge das Material in seiner Relevanz weiter aufgeschlüsselt, um eine „verdichtete Geschichte über die Kernkategorie zu erzählen“ (Götzö 2014, 451).

Im Zuge des axialen Annotierens werden, in der Forschungspraxis oft ineinan-der verschränkt, die offen entwickelten Kategorien verdichtet und vernetzt. Dabei erfolgt auch eine Ausdifferenzierung einzelner Kategorien. Die im ersten Schritt offen in der Textannotation erstellte Liste von Annotationskategorien zur Teleme-dizin wurde in mehreren Durchgängen strukturiert, so dass Kategorien auf einer höheren Abstraktionsebene gebildet werden konnten, welche die weitere Analyse leiten, dabei jedoch flexibel bleiben und immer wieder ausdifferenziert werden, wenn sich Ambiguitäten ergeben, die auf die Komplexität des untersuchten Fel-des verweisen. So wurden Kategorien gebildet, die etwa „Aufbau von (digitaler) Infrastruktur“ oder „Zusammenspiel der Akteursgruppen und Abhängigkeiten“

lauten, erst recht spät wurde beispielsweise eine Kategorie „Digitale Literarität der Akteure“ eingefügt und das Material daraufhin erneut nach entsprechenden Textpassagen und Deutungszusammenhängen durchgesehen.

Im weiteren Forschungsverlauf gilt es außerdem, weitere Daten einzubeziehen.

Auch dies dient der Strukturierung, da Texte mittels Metadaten als zu berücksich-tigen annotiert werden. Das bedeutet, „die aus den ersten Daten gewonnenen Erkenntnisse zu differenzieren, zu festigen und zu verifizieren.“ (Truschkat et al.

2011, 366 f.) Mit der aufgrund von Fragestellung und ersten Annotationen geschärf-ten spezifischen Blickrichtung und Aufmerksamkeit wird gezielt nach weiterem Material gesucht und dieses in das Korpus einbezogen: „Die Kriterien des theo-retischen Sampling […] dienen dazu, die Erhebung und Analyse von Daten noch und gerade während der Theoriegenerierung anzuleiten. Sie werden permanent modifiziert und wohl überlegt am richtigen Ort und zur rechten Zeit der Analy-se in Anschlag gebracht.“ (GlaAnaly-ser und Strauss 1967, 64) Es kann also zu keinem Zeitpunkt der Erhebung weit in die Zukunft hinein entschieden werden, welche Daten erhoben werden. Für die Analyse von Akzeptanzproblematiken erfolgte das

iterative Sampling mittels eines Webcrawling (Adelmann und Franken 2020). Die dabei gesammelten Textdaten boten eine Quellengrundlage, auf der mit verschie-denen Formen des halbautomatischen Filterns als technische Unterstützung (Koch und Franken 2020) theoretisches Sampling realisiert werden konnte. Gleichzeitig wurde das so entstandene Korpus in mehreren Schritten erweitert, das Sampling inner- und außerhalb der mehr als 12.000 gespeicherten Dokumente dauert an. So entsteht eine ständig ergänzte Auswahl von Textquellen unterschiedlicher Art, die von Geschäftsberichten und Informationen der Ärztekammern für ihre Mitglieder, Artikeln aus Zeitschriften für Krankenkassenversicherte über Websites mit der Erläuterung von digitalen Angeboten wie Telesprechstunden und Pressemitteilun-gen von unterschiedlichen Akteuren bis hin zu Studien, Strategiepapieren und den Konzeptionspapieren von Modellprojekten reicht. Neben den teilautomati-sierten Findeheuristiken wird immer dann neues Material ins analysierte Korpus aufgenommen, wenn bei der Annotation bisher unbekannte oder zu wenig berück-sichtigte Teilbereiche des Phänomens entdeckt werden. Annotationen ermöglichen die Strukturierung und thematische Orientierung anhand des zunehmend ausdif-ferenzierten und stabilen Kategoriensystems.

Im theoretischen Sampling und dem dieses begleitende Annotieren spielen maximale und minimale Kontrastierungen für die Entdeckung weiterer relevan-ter Marelevan-terialien und Kategorien bzw. die Festigung der bestehenden Kategorien eine zentrale Rolle. Es geht um „das Entdecken von Kontrastdimensionen und Minimalvergleichen“ (Truschkat et al. 2011, 375). Beim minimalen Vergleichen werden ähnliche Daten herangezogen, um Kategorien zu festigen und voneinander abzugrenzen, wie es hier mittels Bundestagsprotokollen aus unterschiedlichen Legislaturperioden erfolgte. Erst wenn die Kategorien und Schlüsselkategorien an ähnlichem Material gefestigt sind, können und müssen diese mit maximal unterschiedlichem Material konfrontiert werden. „Das heißt, das Universum der gesammelten Daten wird zuerst begrenzt und dann – falls nötig – sorgfältig aus-gedehnt, indem man den Erfordernissen des theoretischen Sampling gemäß zur Datenerhebung zurückkehrt.“ (Glaser und Strauss 1967, 126) Beim maximalen Kon-trastieren können unterschiedliche Daten gesammelt werden, die doch in eine Kategorie gehören, also etwa die Darstellungen zum Thema Datenschutz im Zu-ge der digitalen Gesundheitsversorgung durch verschiedene Akteure. Durch das dann sehr heterogene Material kann nach „Variationen, Gründen, Bedingungen, Konsequenzen und Wahrscheinlichkeiten von Beziehungen, Strategien, Prozessen und strukturellen Mechanismen“ (Glaser und Strauss 1967, 72) gesucht werden.

Neben und während dem Annotieren werden Memos verfasst und fortlau-fend ergänzt, die abstrahierend Ideen und Fragen festhalten sowie theoretische Gedanken sichern, aber auch einzelne Annotationen erläutern oder Planungen strukturieren (vgl. Glaser und Strauss 1967, 121 f.). „Sie [die Memos] unterstützen

Ihr Pendeln [das der Forschenden] weg von den Daten hin zum abstrakten Denken, und dann Ihr Zurückkehren zu den Daten, um diese Abstraktion in der Wirklich-keit zu verankern.“ (Strauss und Corbin 1996, 170). Aus deren Sortieren können erste Bausteine für die Ergebnisse der Untersuchung entstehen. Die mittlerweile umfangreichen Memos werden für die Analyse von Akzeptanzproblematiken der Telemedizin aktuell wiederum annotiert, um übergreifende Ergebnisse in Verbin-dung mit den Annotationen der Korpustexte zu bündeln.

Fortlaufend werden die durch theoretisches Sampling als Gütekriterium iden-tifizierten Quellen annotiert, um ein immer tieferes Phänomenverständnis zu entwickeln. Diese Arbeiten sind abgeschlossen, wenn eine theoretische Sättigung erreicht ist, d.h. keine neuen Erkenntnisse oder Kategorien mehr aus neuem Mate-rial entstehen, sondern sich diese auch in maximaler Kontrastierung wiederholen und die Beziehungen der Kategorien untereinander gefestigt herausgearbeitet sind (vgl. Strauss und Corbin 1996, 159). Bereits vorher kann eine Sättigung in Bezug auf einzelne Gruppen oder Kategorien eintreten, die zur Hinwendung zu anderen Bereichen führt, bis auch diese sich als gesättigt erweisen (vgl. Glaser und Strauss 1967, 77). Es zeigte sich beispielsweise schnell die These als gesättigt, dass telemedizinische Anwendungen als Chance für bessere medizinische Ver-sorgung im ländlichen Raum angesehen werden, hier wurde auch bei maximaler Kontrastierung der Quellengrundlage keine abweichende Position identifiziert.

Dementsprechend erwies sich die Kategorie als gesättigt und die Ergebnisse wur-den zur Veröffentlichung ausgegliedert (Franken 2020 in Vorbereitung). Andere Akzeptanzproblematiken, wie etwa die Einführung einer Telematikinfrastruktur in Arztpraxen, sind vielschichtiger angelegt und benötigen deshalb eine größere Menge an Textbearbeitungen und Annotationen, um zu gesättigten und validen Ergebnissen zu kommen.

Durch selektives Annotieren wird das Material dabei in seiner Relevanz weiter aufgeschlüsselt, um die Phänomenstruktur auffächern zu können. Dazu gehört, die Fragestellung mit zunehmendem Wissen der Forschenden weiter zu konkretisieren.

Gerade in der Beforschung emergenter Phänomene laufen die Entwicklungen, hier die Debatten um die Akzeptanz von Telemedizin, parallel zur Forschung weiter, so dass neue Entwicklungen der Diskussion nicht vollumfänglich abdeckbar sind und Darstellungen Momentaufnahmen bleiben müssen. Gerade durch die fortlau-fende Analyse und Verschriftlichung kann dem begegnet werden. Die Perspektive der Diskursanalyse wird damit insbesondere auch im Modus der Darstellung der Forschungsergebnisse wieder zentral, denn die sich ausbildenden Positionen sind gerade nicht feststehend und werden in der Gegenwart weiterhin verhandelt. Je nach Forschungsbereich zeigen sich im Rahmen der Analyse Deutungshoheiten oder doch zumindest Diskurspositionen. Potentiell sind immer weitere Korpo-ra identifizierbar, anzunehmen ist jedoch ein abnehmender Erkenntniszuwachs

auch bei in der Aushandlung begriffenen gesellschaftlichen Phänomen, die eine abschließende Darstellung erlaubt. Für die Akzeptanzproblematiken der Telemedi-zin steht dieser Arbeitsschritt noch aus. Prozess-orientierte Annotationen spielen dabei eine zentrale Rolle, während Annotationen als Produkt erst am Ende des Forschungsprozesses stehen, sofern sie nicht als technische Unterstützung und Vorbereitung als Findeheuristik für relevante Analyseeinheiten genutzt werden.