• Keine Ergebnisse gefunden

2. THEORETISCHER HINTERGRUND

2.4. M ETAANALYSE

Jedes Jahr nimmt die Anzahl veröffentlichter Artikel und wissenschaftlicher Forschungsarbeiten deutlich zu: In den letzten 10 Jahren wurden pro Jahr zwischen 500 bis 1000 Artikel alleine in der Datenbank „PubMed“ zu PS und Affektiven Störungen publiziert (Abb. 3).

Abbildung 3: PubMed Timline Suchanfrage Persönlichkeitsstörung & Affektive Störung

Für Wissenschaftler:innen, Forscher:innen und Ärtzt:innen stellt es daher eine immer größere Herausforderung dar, einen Überblick über den aktuellen Forschungsstand zu haben. Um diese breite Lage der Publikationen übersichtlich zu gestalten, werden thematische Zusammenfassungen und gleichzeitige Kritiken von Artikeln erstellt. Wenn jede Forschungsarbeit zu einem Thema immer die gleichen Ergebnisse liefern würde, würde die Masse der Publikationen kein Problem darstellen. Insbesondere im Bereich der Sozialwissenschaften und der Medizin ist dies jedoch nicht der Fall, denn es gibt große Unterschiede im Bereich der Ergebnisse und Effektstärken in Bezug auf ein Forschungsthema. Zusammenfassungen dienen also entweder dazu einen Überblick auf unübersichtliche Ergebnisse verschiedener Einzelstudien zu geben oder sie können eingesetzt werden, um die statistische Power aufgrund geringer Fallzahlen zu erhöhen und dienen damit zur Identifikation falscher Ergebnisse. Für die Zusammenfassung von Publikationen von Einzelstudien sind folgende Formen möglich: narrative Reviews, systematische Übersichtsarbeiten, Metaanalysen publizierter Daten und gepoolte Reanalysen (Metaanalysen mit Individualdaten) (Ressing et al., 2009).

Die vorliegende Arbeit konzentriert sich auf die quantitative Metaanalyse: Metaanalysen haben das Ziel, nach Möglichkeit, alle zu einem Thema existierende Forschungsarbeiten zusammenzufassen die a priori festgelegten Qualitätskriterien entsprechen. Dafür werden im Vorhinein bestimmte Ein- und Ausschlusskriterien festgelegt, nach denen dann die Forschungsarbeit entsprechend ein- oder ausgeschlossen wird (Ressing et al., 2009). Für das Erstellen einer Metaanalyse ist es wichtig mit mindestens einer weiteren Person zusammenzuarbeiten, sodass im Auswahlprozess der Studien Fehler vermieden werden (Higgins

0 300 600 900 1200

Year 1953 1958 1964 1969 1974 1979 1984 1989 1994 1999 2004 2009 2014 2019

& Green, 2015). Aus den ausgewählten Forschungsarbeiten werden alle relevanten Informationen extrahiert, um im nächsten Schritt eine rechnerische Zusammenfassung der statistischen Befunde aus den Primärstudien vorzunehmen. Das Ziel ist es eine Schätzung über einen bestimmten statistischen Effekt zu bekommen und diesen studienübergreifend auf seine Signifikanz hin zu überprüfen. Die statistische Validität der Metaanalyse ist dabei höher als bei einer Einzelstudie.

Man nimmt an, dass sich die addierten Stichprobeneffekte dem wahren Populationseffekt annähern, da die Gesamtstichprobe aller addierten Primärstichproben eine höhere Teststärke als eine Primärstudie selbst haben (Döring & Bortz, 2016).

Allerdings gibt es auch Probleme, die Metaanalysen mit sich bringen: Hierzu gehört zum Beispiel das garbage in, garbage out-Problem. Es besagt, dass eine Metaanalyse nur die Ergebnisse wiedergeben und die Qualität besitzen kann, die auch die Primärstudien leisten (Cuijpers, 2016).

Das file drawer-Problem beschreibt die Fälle, bei denen Forschungsarbeiten aufgrund ihrer nicht aussagekräftigen Ergebnisse, die die erwünschten Hypothesen nicht unterstützen, möglicherweise nie veröffentlicht werden. Somit können diese Ergebnisse nicht mit in die Metaanalyse einbezogen werden (Cuijpers, 2016). Außerdem gibt es das angenda driven-Problem, welches besagt, dass die Forschenden einer Metaanalyse ihrer Forschungsfrage gegenüber voreingenommen sind (Cuijpers, 2016). Das Äpfel und Birnen-Problem stellt dar, dass viele Studien, die den gleichen Sachverhalt untersuchen, unterschiedliche Herangehensweisen für verschiedene Teile der Umsetzung einer Forschungsarbeit beinhalten. Um diese also miteinander vergleichen zu können müssen strikte Kriterien definiert werden, welche die zu inkludierenden Studien mit sich bringen müssen, damit sie inhaltlich und methodisch miteinander vergleichbar sind (Döring & Bortz, 2016).

Um die Ein- und Ausschlusskriterien genau zu definieren, sind nach Cuijpers (2016) in

„Meta-analysis in health research. A practical guide“ auf folgende sechs Schritte zu achten:

Der erste Schritt beinhaltet die Forschungsfrage: Zu Beginn einer jeden Forschungsarbeit sollte die Frage genau formuliert sein. Ihr sollen vier wichtige Angaben zugrunde liegen, nämlich die Definitionen der Teilnehmenden, der Interventionen, der Vergleiche und der Ergebnisse. Bei den Teilnehmenden ist wichtig, die Bestimmung des Alters, der Krankheit und der Zielgruppe, wie z.B. stationär, nicht stationär, festzulegen. Die Ergebnisse sollten insofern spezifiziert sein, indem festgelegt wird wie erhoben wird, z.B. dichotom, auf einer Skala, durch Patientenbefragung oder standardisierte Verfahren. Um hier die Metaanalyse in den nächsten Schritten ohne viele Unstimmigkeiten durchzuführen, ist es nun wichtig diese Ein- und Ausschlusskriterien möglichst genau zu definieren.

Nachdem die Fragestellung und die zugehörigen Ein- und Ausschlusskriterien festgelegt wurden, gilt es, die passenden Studien zu finden. Dazu eignen sich Datenbanken wie z.B. PsychInfo oder Pubmed. Um in Datenbanken fündig zu werden, müssen die Kriterien in die richtigen

Schlagwörter umgewandelt werden. Außerdem ist es möglich, über Plattformen Autor:innen zu kontaktieren, um Zugriff auf deren Artikel zu bekommen oder sich über Universitäten an Spezialist:innen zu wenden. Es können sowohl kostenpflichtige als auch frei zugängliche Artikel in die Metaanalyse miteingeschlossen werden.

Der dritte Schritt ist, die gefundenen Studien zu selektieren und diejenigen auszuwählen, die in die Metanalyse einbezogen werden. Für diesen Schritt ist es wichtig mit einem:r zweiten Rater:in zu arbeiten. Beide sollten die Studienselektion unabhängig voneinander vornehmen, jeden Schritt und Auswahl dokumentieren und ihre Ergebnisse dann miteinander vergleichen, diskutieren und ebenso dokumentieren.

Die Studienauswahl richtet sich nach dem PRISMA Protokoll (Ziegler et al., 2011). Zunächst werden alle Titel und Abstracts gesichtet. Diese Vorauswahl dient dazu, Duplikate zu entfernen, fälschlich einbezogene Studien zu extrahieren und die Studienauswahl durch zutreffende Kriterien in einem ersten Screening einzuschränken. Die Rater:innen können im Falle von Uneinigkeiten eine:n dritte:n Rater:in hinzuziehen, der:die dann die Entscheidung trifft. Welche Studien letztendlich in die Metaanalyse einbezogen werden, kann nur durch das Screening der Volltexte entschieden werden. Anschließend wird die Datenextraktion durchgeführt. Die Daten werden aus drei Gruppen der Volltexte extrahiert: Studiencharakteristik, Risk of Bias oder andere Qualitätsfaktoren sowie der Daten zur Effektgrößenberechnung. Die Studiencharakteristik beinhaltet z.B. Titel, Autor:innen, Erscheinungsjahr und wesentliche Informationen wie die Teilnehmenden. Im Methodenteil dieser Masterarbeit unter 3.1 werden die Einschlusskriterien für diese Metaanalyse aufgelistet. Um die Qualität der Studien zu prüfen ist es ratsam, sich an Vorgaben zu halten. Für die vorliegende Arbeit wurde die Newcastle-Ottawa Scale herangezogen, welche im Kapitel 3.3 beschrieben ist.

Der vierte Schritt umfasst das Schätzen und Zusammenfassen der Effektstärken. Durch die Verwendung verschiedener Tests in den unterschiedlichen Artikeln müssen deren Werte standardisiert werden, um sie zusammenzufassen. Normalerweise wird in der psychologischen Forschung bei Fragestellungen bezüglich eines Gruppenunterschieds für diese standardisierte Effektgröße das Cohen’s d benutzt, welches auf kontinuierlichen Ergebnissen basiert und mittels Standardabweichungen den Unterschied zwischen zwei Gruppen darstellt. Die Effektgrößen werden als klein 0.20, mittel 0.50 und groß 0.80 interpretiert. Nachdem die Effektgrößen extrahiert sind, werden nun die Mittelwerte berechnet. Das Poolen der Effektgrößen dient dazu, die bestmögliche Schätzung der wahren Effektgröße zu bekommen. Nur mit einer Mindestanzahl von Studien und Teilnehmenden und einem Höchstmaß an Heterogenität dürfen die Effektgrößen gepoolt werden. Außerdem wird ein Model angenommen, nach dem die Ergebnisse der

unterschiedlichen Studien gepoolt werden können. Das sog. fixed effect model sagt aus, dass alle Studien unter den selben Bedingungen durchgeführt wurden. Das heißt, sie sind alle Replikationen voneinander und alle Faktoren, die Einfluss auf die Effektgrößen genommen haben, sind dieselben.

Die Effektgrößen unterscheiden sich nur durch zufällige Fehler innerhalb der Studien. Das sog.

random effect model besagt demgegenüber, dass es zwar auch zufällige Fehler gibt, die Studien sich jedoch zusätzlich bezüglich der Einflussfaktoren auf die Effektgrößen unterscheiden können.

Neben dem Pooling von Effektgrößen kann die Meta-Analyse auch zur Schätzung von Krankheitshäufigkeiten, wie Inzidenz und Prävalenz, verwendet werden (Barendregt et al., 2013).

Der nächste Schritt ist die Untersuchung der Heterogenität zwischen den Studien. Die Heterogenität zeigt, wie unterschiedlich die Studien bezüglich der Effektgrößen untereinander sind.

Um die Heterogenität zu berechnen, wird die I2 Statistik durchgeführt, durch die dann der Prozentsatz der Gesamtvarianz erklärt werden kann. Das I2 kann von 0% bis zu 100% variieren, wobei 0% keine überzufällige Heterogenität zwischen den Werten bedeutet und 100%, dass die Unterschiede zwischen den Effektgrößen nicht auf Zufall zurückzuführen sind. Ergebnisse von bis zu 25% stellen eine geringe, um 50% eine mittlere und ab 75% eine hohe Heterogenität dar (Higgins et al., 2003). Anschließend muss der publication bias erhoben werden, der auch, wie oben schon beschrieben, unter dem file drawer Problem bekannt ist. Eine Annahme des publication bias ist, dass bei Studien mit großer Anzahl an Teilnehmenden die Effektgröße besser geschätzt werden kann als bei Studien mit geringer Teilnehmer:innenanzahl, da hier die zufällige Variation der Effektstärke größer ist. Diesen Unterschied kann man graphisch mit einem funnel plot darstellen, in dem die Präzision der Schätzung gegen die Effektgröße aufgetragen wird. Sollten alle durchgeführten Studien publiziert worden sein, müsste sich eine symmetrische Darstellung der Befunde in Form eines Trichters (funnel) ergeben. Je unsymmetrischer die Darstellung ist, desto höher ist der publication bias und umgekehrt. Außerdem kann mittels linearer Regression durch den Egger’s Test rechnerisch überprüft werden, ob es einen publication bias gibt.