• Keine Ergebnisse gefunden

Kookkurrenzanalyse im Allgemeinen

„frame“-Analyse

1. Kookkurrenzanalyse im Allgemeinen

Eine Voraussetzung für die Kookkurrenzanalyse ist, dass die Textdaten in einem Textkorpus vorliegen. Wenn dies gegeben ist, lässt sich mit der Kookkurrenzanalyse nach dem „likelihood ratio“350 berechnet, welche Wörter in einem festgelegten Abstand statistisch häufig gemeinsam vorkommen.351 „Log Likelihood“ ist ein Signifikanzmaß zur Bestimmung überzufälliger Häu-figkeit der Begriffe.352 Dank der Kookkurrenzanalyse kann der typische Gebrauchskontext des jeweiligen Schlüsselbegriffs über die Identifizierung von Begriffen, die im Zusammenhang mit dem Term in signifikanter Häufigkeit Verwendung finden, aufgezeigt werden.353 Zudem wei-sen die ermittelten Wortverflechtungen, die statistisch überzufällig häufig gemeinsam verwen-det werden, auf einen etablierten Sprachgebrauch hin und sind ein „starkes Indiz für einen se-mantischen Zusammenhang“.354 Dieser Zusammenhang wird dazu genutzt das Mainstream der jeweiligen politisch-medialen Diskussion über europäische Materien zu lokalisieren. Sollten die berechneten Kookkurrenzen im jeweiligen Zeitraum dem „intuitiven Gefühl der Zusam-mengehörigkeit von Wortformen entsprechen“355, liefern die Ergebnisse der Kookkurrenzana-lysen erste Indizien hinsichtlich zentraler Themen im Diskurs.356

Im nächsten Schritt wird das Verfahren weiter präzisiert.

2. Verfahren

Im Folgenden wird das methodische Verfahren, das die Kookkurrenzanalyse impliziert, darge-stellt und diskutiert. Im ersten Schritt wird das Sammeln und Kodieren der Daten dargedarge-stellt.

348 Schramm, Stefanie, 2014., S. 27.

349 Lemke, Matthias and Stulpe, Alexander, 2015b.

350 Manning, Christopher D. and Schütze, Hinrich, 1999., S. 172 ff., Büchler, Marco, 2006., S. 52.

351 Bubenhofer, Noah, 2013., S. 112 f.

352 Wiedemann, Gregor and Niekler, Andreas, 2016., 76 f.

353 Wiedemann, Gregor, Lemke, Matthias, and Niekler, Andreas, 2013., S. 109.

354 Heyer, Gerhard, Quasthoff, Uwe, and Wittig, Thomas, 2006., S. 134.

355 Ibid., S. 137.

356 Lemke, Matthias and Wiedemann, Gregor, 2016., S. 146.

a. Sammeln und Kodieren der Daten

Das Sammeln und Kodieren der relevanten Presseartikel wird mit Hilfe eines selbst geschrie-benen R-Skriptes357 durchgeführt. Kodiert werden grundsätzlich sehr ähnliche Informationen, die allerdings im Detail ein wenig variieren können, weil die in dem jeweiligen Zeitungsarchiv zur Verfügung gestellten Meta-Informationen zu den Artikeln unterschiedlich sind. Für die letztendliche Analyse werden lediglich die Variablen mit den Textdaten herangezogen, die für alle Pressearchive einheitlich erhoben werden konnten.

Das Sammeln der Zeitungsartikel erfolgt im ersten Schritten anhand eines selbst erstellten Wörterbuchs358 mit Suchbegriffen. Dies entspricht einer an inhaltlichen (bzw. semantischen) Kriterien orientierten Korpusanalyse359. Die relevanten Begriffe werden in erster Linie aus der untersuchten parlamentarischen Stellungnahme gesammelt. Somit soll ein erster Begriffskata-log entstehen, mit dem man das untersuchte „policy-event“ identifizieren kann. Die Begriffs-kollektion war in Deutschland am Anfang vielfältiger als in Polen. Der Grund für diesen Um-stand ist die Tatsache, dass in der deutschen Stellungnahme auch die Oppositionsmeinung zum Ausdruck kommt. Dies erweitert das Wörterbuch mit den Suchbegriffen, weil die Opposition in den Stellungnahmen der Idee nach andere Schlüsselbegriffe als die Regierung für ihre Ar-gumentation einsetzt. Im folgenden Beispiel soll diese Feststellung verdeutlicht werden. Wäh-rend die Grünen bei einer möglichen Einführung weiterer kollektiver Rechtsschutzinstrumente eher Schlüsselbegriffe wie „Opt-out-Modell“ und „Benachteiligung der Verbraucher“ einset-zen, verwendet die CDU/CSU vielmehr solche Begriffe wie „ausreichender Rechtsschutz“ oder

„Gefährdung justizieller Rechte“. Die Parteien verwenden selbstverständlich auch andere Be-griffe und manchmal auch gleiche Termini in einem unterschiedlichen Kontext. Bei den hier-bei genannten Begriffen geht es um solche, die auch in den Zeitungsartikeln rezipiert werden.

Obwohl beide Parteien von der gleichen Materie sprechen, verwenden sie somit unterschiedli-che Erzählungsarten.

Demgegenüber kommen in den polnischen parlamentarischen Stellungnahmen keine Oppositi-onsmeinungen zum Ausdruck. Diese Tatsache stellt eine Herausforderung für das Erstellen des Wörterbuchs für das konkrete „policy-event“ dar. In diesem Fall werden die Schlüsselbegriffe im ersten Schritt aus der Stellungnahme gesammelt. Eine Erweiterung sowie Validierung des Wörterbuchs erfolgt kontinuierlich mit der Auswertung aller Zeitungsartikel in dem festgeleg-ten Zeitraum. Für alle drei Zeiträume gab es insgesamt knapp 12000 Artikel in der „Gazeta

357 Bei Bedarf kann die entsprechende Dokumentation in Bezug auf Sammeln, Kodieren und Interpretation der Presseartikel ggf. zur Verfügung gestellt werden.

358 Grimmer, Justin and Stewart, Brandon M., 2013., S. 2, Krippendorff, Klaus, 2013., S. 1 ff.

Wyborcza“ sowie „Rzeczpospolita“. Diese wurden auf Grund des gerade besprochen Problems der eingeschränkten Vielfalt der Begriffe im ersten Schritt qualitativ ausgewertet. Dadurch konnte die Begriffspalette erweitert werden. Als Auswahlkriterium für die Erweiterung des Wörterbuchs gilt das Expertenwissen des Betrachters, das unter anderem auf dem Inhalt der Stellungnahme basiert. In dieser Hinsicht werden die Begriffe in den Zeitungsartikeln, die in einem Kontext mit dem jeweiligen „policy-event“ gesehen werden können, für die Erweiterung des Wörterbuchs verwendet. Ein Begriff wird ausgewählt, wenn er in einem konkreten Kontext eine Bedeutung für das behandelte „policy-event“ aufweist. Dabei spielt die Häufigkeit des Auftretens des Begriffs jedoch weniger eine Rolle. Beispielsweise hätte der Begriff „Streik“

bei dem Thema Harmonisierung des Streikrechts eine Bedeutung bei solchen Aussagen, wie

„Das Land B wurde in letzter Woche von vielen gewaltvollen Streiks geplagt“. Eher unbedeu-tend wäre er in folgenden Fällen: „Das Auto und sein Streik. Ein Ratgeber“, „Der Streik im Kinderzimmer und seine Lösungswege“. Allerdings kann sich die Bedeutung solcher Aussagen erst durch die Betrachtung der gesamten Deutung ergeben. Dieser Aspekt wird unten weiter diskutiert.

Die einschlägigen Schlüsselbegriffe werden somit von der Stellungnahme und im Anschluss gegebenenfalls von den Zeitungsartikeln extrahiert. Diese Vorgehensweise erscheint in Bezug auf die Fragestellung als die sinnvollste Variante im Vergleich zu den Alternativvorschlägen.

Das Verfahren der automatischen Generierung der Termini für ein Wörterbuch aus sehr großen Texten mit Hilfe der „topic models“360 ist für die folgende Vorgehensweise nicht notwendig.

Der Grund für diesen Umstand ist die Überlegung, dass die erstellten Wörterbücher zunächst anhand der drei Stellungnahmen konzipiert werden, die im Durchschnitt etwa 20 Seiten mit Text beinhalten. Zudem hängt die Erweiterung der Wörterbücher mit dem oben beschriebenen Interpretationsverfahren zusammen. Eine automatische Erstellung des Diktionärs wäre an die-ser Stelle daher eine Doppelarbeit. Da die Stellungnahmen zunächst eine Art Referenzdoku-mente darstellen, hängt die vorgeschlagene Vorgehensweise mit der oben genannten For-schungslogik nach Wiedemann und Niekler zusammen.

Bei den ausgewählten Schlüsselbegriffen handelt es sich um Termini, die den Diskurs der Er-wartung zur Folge in eine konkrete Richtung lenken können. Beispielsweise kommt bei dem Thema weitere europäische wirtschaftliche Integration das Wort „Tusk“ bei den berechneten

„topic models“ nur am Rande zum Ausdruck. Jedoch gewinnt dieser Begriff bei der qualitati-ven Betrachtung der entsprechenden Artikel große Bedeutung für die Richtung des Diskurses.

359 Busse, Dietrich and Teubert, Wolfgang, 1994., S. 14.

360 Wiedemann, Gregor and Niekler, Andreas, 2014., S. 1 ff.

Dies hätte viel zu leicht übersehen werden können, wenn man das Verfahren der „topic mo-dels“ angewendet hätte. Man könnte diese Hürde natürlich umgehen, wenn man konkrete Be-griffe manuell gewichten würde. Eine Voraussetzung dafür ist allerdings das Wissen über die-jenigen Begriffe, die als wichtig einzustufen sind. Dieses Wissen lässt sich hinsichtlich dieser Studie am besten mit der Betrachtung des Korpus nach der oben beschriebenen Vorgehenswei-se ermitteln. Nichtsdestotrotz bleiben die „topic models“ eine wertvolle Methode für Vorgehenswei-sehr gro-ße Textmengen, die durchaus in der Politikwissenschaft Anwendung findet361.

Da es in Frankreich in den drei behandelten Fällen keine parlamentarische Stellungnahme gab, wird für die Ermittlung der Richtung des medialen politischen Diskurses das bereits für Polen und Deutschland erstellte Wörterbuch verwendet. Eine eventuelle Erweiterung und Validie-rung des Wörterbuchs ist bei der Analyse der Korpora nicht auszuschließen.

Die Anzahl der relevanten Schlüsselbegriffe für die Kollokationsanalyse sowie für die graphi-sche Darstellung der Ergebnisse wird induktiv abgeleitet. Die Grundlage dafür stellt die An-zahl der Suchbegriffe dar, die nach der Reduktion übrig bleibt. Eine detaillierte Darstellung dieser Vorgehensweise liefert die A. 3. Tabelle (Anhang A). Die Anzahl der relevanten Such-begriffe beläuft sich auf 10,8. Für die spätere Auswertung wird diese Zahl aufgerundet. Somit werden jeweils maximal 11 Begriffe und das eigentliche Schlüsselwort für die detaillierte Ana-lyse und Darstellung ausgewählt. Dargestellt in den Kookkurrenztabellen werden nur die je-weiligen 11 ersten Kookkurrenten des Schlüsselterminus, weil der erste Kookkurrent der Schlüsselbegriff selbst ist.

Nach dem Sammeln und Kodieren ist zu klären, wie die Daten analysiert werden.

b. „distant reading“ und „close reading“

Es erscheint auf Grund der Menge der gesammelten Presseartikel unbedingt notwendig, hin-sichtlich der Erkenntnisgewinnung eine computergestützte Analyse zu wagen. Die folgende Untersuchung stellt somit ein Versuch dar, eine Nachvollziehbarkeit zu schaffen, die grund-sätzlich der Vorstellung einer objektiven Hermeneutik362 ähnelt. Da die Anwendung der Kook-kurrenzanalyse auf politikwissenschaftliche Inhalte neu ist, ist eine qualitative Überprüfung deren Ergebnisse unbedingt notwendig. Dieser Schritt soll die Reliabilität der Ergebnisse363 erhöhen. Das vorgeschlagene Verfahren verbindet eine quantitative Grobuntersuchung des jeweiligen Diskurses („distant reading“) mit der Textanalyse („close reading“).364 Gerade

361 Z. B. Blätte, Andreas and Szczerbak, Paweł, 2014.

362 Oevermann, Ulrich et al., 1979.

363 Busch, Albert, 2007., S. 156.

364 Vgl. Dumm, Sebastian and Niekler, Andreas, 2014., S. 7 f.

durch einen solchen Wechsel zwischen „close“ und „distant reading“ („blended reading“) wer-den die Potentiale der Kookkurrenzanalyse nutzbar.365 Daher wird die Kookkurrenzanalyse um einen qualitativen Kontrollschritt mit einer systematischen Überprüfung aller Ergebnisse der Kookkurrenzanalyse einerseits und mit einer unsystematischen Kontrolle aller Artikel in den ausgewählten Subkorpora erweitert. Ein solcher Schritt ist notwendig, um die Ergebnisse der Kookkurrenzanalyse zu überprüfen und der Bedeutung des jeweiligen Diskurses näher zu kommen. Besonderer Schwerpunkt liegt somit auf der Suche nach der für die Fragestellung relevanten Aspekten, die mit der Kookkurrenzanalyse (möglicherweise) nicht identifiziert wer-den konnten. Daher ist das gerade geschilderte „close reading“ unverzichtbar für die größere Validität der Ergebnisse. Eine solche Überprüfung wird bei allen Ergebnissen der Kookkur-renzanalyse vollzogen. Demgegenüber können im Rahmen dieser Kontrolle auf Grund der großen Anzahl der Zeitungsartikel nicht alle Subkorpora vollständig überprüft werden. Daher werden bestimmte Pressekorpora ausgewählt und durch das Lesen aller diesbezüglichen me-dialen Beiträge überprüft.

Es wird zunächst versucht, eine verstärkt Kriterien gestützte Analyse zu vollziehen. Mit Hilfe von R-Skripten wurden daher die Kookkurrenzen berechnet und die diesbezüglichen Abbil-dungen anhand der Schlüsselbegriffe erstellt. Die Skripte wurden grundsätzlich selbst entwi-ckelt. Die Berechnung und graphische Darstellung der Kookkurrenten wurde inspiriert von bereits existierenden Skripten366. Für die Analyse werden aus den gesammelten Textdaten Korpora für jede Zeitung gebildet. Vor der Analyse werden die Korpora in ein Termmatrixdo-kument367 umgewandelt und in einem Satzkontext dargestellt. Auf den Text wird erst bei der Ermittlung des Kontextes der ausgewählten Artikel im Laufe der Kookkurrenzanalyse zurück-gegriffen. Die Satzbezogenheit erlaubt die konkreten diskursiv relevanten Aussagen und nicht den Textaufbau368 in den Fokus der Analyse in diesem Schritt zu stellen. Gleichzeitig darf auf den Text an sich wegen seines Kontextes nicht gänzlich verzichtet werden369. Zudem wurden anhand der erstellten Kookkurrenztabellen und -graphiken die für die Fragestellung relevanten Kookkurrenten des jeweiligen Schlüsselterminus identifiziert.

An dieser Stelle ist anzugeben, dass ein rein an naturwissenschaftliche Experimente angelehn-tes Modell nicht geeignet ist, um die Erkenntnisprozesse beim Verstehen eines oder mehrerer Texte zu modellieren.370 Daher wurden die entsprechenden Zeitungsartikel anhand des

365 Lemke, Matthias and Stulpe, Alexander, 2015a., S. 69, 74.

366 Gregor Wiedemann, Andreas Niekler, Universität Leipzig.

367 Weiter als DocumentTermMatrix oder dtm genannt.

368 Jung, Matthias, 1996., S. 459 f.

369 Ibid., S. 463.

370 Niehr, Thomas, 2014., S. 45.

gen Schlüsselterminus und seinen Kookkurrenten in R aufgelistet und gelesen. Diejenigen me-dialen Beiträge mit der für die Forschungsfrage größten Relevanz wurden aus der Auflistung extrahiert und in einem vorläufigen Word-Dokument gespeichert. Die so erhobenen Presseda-ten wurden für das jeweilige Schlüsselwort nach inhaltlichen SchwerpunkPresseda-ten sortiert.

In einem Abstraktionsschritt wurde nach der größeren Bedeutung der Artikelgruppen gesucht.

Zugegebenermaßen kann die Auswahl der tatsächlich zitierten Artikel auf den ersten Blick selektiv wirken, was die Validität der Untersuchung schwächen würde. Allerdings wurden die-se medialen Beiträge stellvertretend für die ganze Artikelgruppe ausgewählt. Bei der Auswahl der präsentierten Artikel stand stets die Frage im Vordergrund, welche Artikel am besten eine Artikelgruppe präsentieren können. Somit entstand eine Auflistung der Schlüsselbegriffe mit ihrer jeweiligen medialen Ausprägung. Die Artikelauswahl wird allerdings ausführlich unten diskutiert. Diejenigen Schlüsseltermini, die eine ähnliche Ausprägung hatten, wurden in einem Kapitel nacheinander zusammenfassend dargestellt, um Wiederholungen in den Aussagen zu vermeiden. Es wurde zudem darauf geachtet, dass ein Artikel nur einmal zitiert wird, um glei-che Aussagen zu vermeiden. Vereinzelte Doppelungen in den Aussagen sind allerdings auf Grund ihrer großen Anzahl vorstellbar.

Bei der Interpretation der Presseartikel ist ein wissenschaftlicher Meinungsstreit zwischen den Vertretern der „kritischen“ und der linguistischen Diskursanalyse anzusprechen. Einerseits plädieren die Vertreter der „kritischen“ Diskursanalyse dafür, dass der „kritische“ Analytiker unter Berufung auf bestimmte Normen und Werte zum untersuchten Diskurs Position beziehen und somit ein Teil des Diskurses werden soll.371 Andererseits argumentieren die Vertreter der linguistischen Diskursanalyse, dass bei Berufung auf bestimmte nicht wissenschaftliche Wer-tevorstellungen die Gefahr der Politisierung der wissenschaftlichen Analyse entsteht.372 Vertre-ten wird in dieser Hinsicht, dass sich die gerade geschilderte Bedrohung der Unwissenschaft-lichkeit einer Untersuchung unter anderem durch eine transparente Offenlegung der nachvoll-ziehbaren Kriterien für den Aufbau der Textkorpora reduzieren lässt.373 Das folgende Verfah-ren weist durchaus einen kritisch reflektieVerfah-renden Charakter auf bei gleichzeitiger Ablehnung bewusster Wertung der Artikel anhand einer bestimmten politischen Meinung des Analytikers.

Somit wird die folgende Studie ein Teil des Diskurses, allerdings mit Hilfe der sachlichen und nachvollziehbaren Erklärung der Präsentationsart, die im Folgenden kurz angesprochen werden soll. Mit der Erstellung der Schlüsselwortliste, wie oben dargestellt, ist eine transparente Vor-gehensweise für die Auswahl der Artikel geschaffen worden. Anhand dieser Auflistung konnte

371 Siegfreid, Jäger, 2005., S. 67.

372 Wengeler, Martin, 2011., S. 37.

eine für politikwissenschaftliche Sachverhalte sehr große Menge an Artikeln gesammelt wer-den. Dies ermöglicht ein möglichst breites und objektives Bild auf die untersuchte Materie.

Überdies ist die Berechnung der Kookkurrenzen ein gut nachvollziehbares Verfahren. Die durch die Kookkurrenzen aufgezeigten Verbindungen basieren auf bestimmten Texten, die gelesen und interpretiert werden. Dabei wird nach der Deutung europäischer Materien in den Texten und nach der somit entstehenden europäischen Öffentlichkeit gesucht.

Ein weiterer Aspekt des genannten Streites ist der Umgang mit polarisierenden und emotions-geladenen Begriffen im Diskurs wie zum Beispiel der Terminus „Asylant“. Einerseits wird in der „kritischen“ Diskursanalyse vertreten, dass solche Begriffe zum Beispiel auf eine Ideologie im politischen Diskurs hindeuten.374 Andererseits wird linguistisch argumentiert, dass ein sol-ches, auf bloßem Auftreten der polarisierenden Begriffe basierendes Vorgehen durch qualitati-ve Betrachtung des Kontextes zu validieren ist.375 Dieser Streit basiert jedoch auf einem Miss-verständnis. Eine qualitative Analyse des jeweiligen Textes, in dem der polarisierende Begriff auftritt, ist zwar stets zu begrüßen und wird im Folgenden grundsätzlich vollzogen. Mit sol-chem Untersuchungsschritt lässt sich allerdings die Wirkung des konkreten polarisierenden Begriffes im Diskurs nicht abschließend validieren. Grundsätzlich entfaltet jeder Terminus unabhängig von dem Kontext, in dem er geäußert wurde, eine eigenständige psychologische Wirkung.376 Daher ist bereits der Einsatz des Begriffes „Asylant“ an sich ein diskursiv relevan-tes Ereignis. Und auch wenn während der Kookkurrenzanalyse aus den oben diskutierten Gründen zeitweise auf gewisse Füllwörter verzichtet wird, wird auf diese beim Lesen des Tex-tes wieder zurückgegriffen. Dadurch wird im Folgenden unter anderem die Art der Formulie-rung analysiert. Das Gleiche gilt für den folgenden Schritt der qualitativen Überprüfung der Ergebnisse.

c. Qualitative Durchsicht der Daten unabhängig von der Kookkurrenzanalyse

Einerseits gab es in einigen wenigen Fällen nach dem Reduktionsverfahren keine ausreichende Artikelanzahl für ein Kollokationsverfahren. In solchen Fällen wurden alle Artikel im unter-suchten Zeitraum in ihrer Kurzform gelesen. Darüber hinaus wurden manche zufällig ausge-wählte Subkorpora gänzlich gelesen. Die medialen Beiträge mit einer erwarteten Relevanz für die Fragestellung wurden in einem Word-Dokument gespeichert. Solche Textdateien wurden nach thematischen Schwerpunkten sortiert. Im Anschluss wurde in einem Abstraktionsschritt

373 Spitzmüller, Jürgen and Warnke, Ingo H., 2011., S. 108 f.

374 Huhnke, Brigitte, 1993., S. 229.

375 Niehr, Thomas, 1996., S. 85.

376 Thibodeau, Paul H. and Boroditsky, Lera, 2011.

die größere Bedeutung der Aussagen in den medialen Beiträgen ermittelt. Zugegebenermaßen lässt sich an dieser Stelle angeben, dass die Auswahl der relevanten Artikel zunächst selektiv zu scheinen mag. Die oft nicht trennbare Verknüpfung von wissenschaftlicher Analyse und nicht wissenschaftlichen Werten wurde bereits in der Forschung thematisiert377. Die vorge-schlagene Vorgehensweise ist allerdings in der Wissenschaft kein Novum. Vielmehr fügt sie sich, ähnlich wie die oben geschilderte Kookkurrenzanalyse, in die linguistische Logik der Arbeit mit einem Textkorpus378 und in die Vorstellung über die konstituierende Rolle des Ana-lytikers379 in gleicher Hinsicht ein. Die folgende Studie ist Kriterien geleitet. Für die Analyse wird, wie oben dargestellt, eine Palette an Schlüsselbegriffen erstellt, die jeweils die untersuch-te Mauntersuch-terie präzisieren. Der an dieser Suntersuch-telle vorgenommene qualitative Überprüfungsschritt hat nicht zuletzt zur Aufgabe die Begriffspalette zu validieren. Die so präzisierte Artikelsammlung wird analysiert und dieser Schritt wird einen durchaus interpretativen Charakter aufweisen. Die Kriterien für die Interpretation wurden oben im theoretischen Teil formuliert.

Somit stellt die folgende Studie einen synchronen international-interlingualen Diskursver-gleich380 dar, weil die Diskurse in drei sprachlich unterschiedlichen Mitgliedstaaten untersucht werden. Ein Beispiel für eine andere international-interlinguale Studie stellt die Betrachtung des sicherheitspolitischen Diskurses über die EU-Verfassung in Deutschland, Großbritannien und der Türkei381 dar.

Da in der vorliegenden Studie über 60 000 Artikel reduziert wurden wird im nächsten Schritt die Bereinigung der Korpora thematisiert.

d. Eindruck der Querschläger bei der Zeitungsartikelauswahl?

Der Umgang mit unbeabsichtigten Treffern ist durchaus ein umstrittenes Thema in der wissen-schaftlichen Debatte. Beispielsweise schlägt Förster ein dreistufiges Selektionsverfahren bei ihrer Analyse des Folterdiskurses vor: „1. Die Suchanfrage wird um verwandte Begriffe wie

‚gefoltert‘, ‚Folterung‘ oder ‚Folteropfer‘ erweitert und 2. auf die Ressorts ‚Politik‘ und ‚Ge-sellschaft‘ sowie deren Subressorts begrenzt. 3. Es werden nur Artikel berücksichtigt, in denen mindestens zwei Begriffe mit der Zeichenkette ‚folt‘ vorkommen“.382 In einer anderen Unter-suchung werden die Querschläger in den Artikeln durch die Identifikation semantischer Felder herausgefiltert, indem Schlüsselbegriffe für gewollte und ungewollte Materien festgelegt

377 Popper, Karl R., 1974., S. 114.

378 Vgl. Niehr, Thomas, 2014., S. 30.

379 Busse, Dietrich, 2013a., S. 148.

380 Niehr, Thomas, 2014., S. 38 f.

381 Gür-Şeker, Derya, 2012.

382 Lemke, Matthias and Wiedemann, Gregor, 2016., S. 142.

den. In dieser Hinsicht werden Frequenzwortlisten erstellt, aus welchen manuell die für die semantischen Felder relevanten Begriffe ausgewählt werden.383 In einer weiteren Analyse wird der Korpus anhand der „Topic-Model“-Analyse bereinigt, in der nicht relevante Themen zu-nächst lokalisiert werden. In einem weiteren Schritt wird diese Auswahl der ungewollten Arti-kel manuell validiert. Durch eine solche klassifikatorische Basis werden die nicht relevanten Artikel mittels maschinellen Lernens ausgeschlossen.384 Ein anderer Einsatz der „Topic-Model“-Analyse in Verbindung mit weiteren „text-mining“-Verfahren bietet eine Prozedur, die zunächst nicht auf den untersuchten Artikel selbst, sondern auf ausgewählten Referenzdoku-menten basiert. Für dieses Verfahren werden Klassikerwerke in einem bestimmten Bereich ausgewählt, um Wörterbücher mit den für die jeweilige Fragestellung relevanten Schlüsselter-mini zu erstellen. Die Relevanz der Artikel für eine konkrete Untersuchung, richtet sich nach dem Auftreten der im Wörterbuch genannten relevanten Begriffe in den Pressedaten.385 Die

„Topic-Model“-Berechnung kann sich in diesem Fall zum Beispiel nach der „latent Dirichlet allocation“ (LDA)386 richten. Somit machen die gerade genannten Beiträge die Vorannahme,

„Topic-Model“-Berechnung kann sich in diesem Fall zum Beispiel nach der „latent Dirichlet allocation“ (LDA)386 richten. Somit machen die gerade genannten Beiträge die Vorannahme,