• Keine Ergebnisse gefunden

Diskussion der Verwendung Bayesianischer Ansätze in der vorliegenden

6. Diskussion 149

6.4. Diskussion der Verwendung Bayesianischer Ansätze in der vorliegenden

zeitlichen und situativen Eekten auf die subjektive Bendlichkeit oder Leistung. Zum Beispiel könnte die Technik sich - neben der Grundlagenforschung - dazu eignen, die Wirksamkeit psychologisch-therapeutischer Interventionen in einem natürlichen Setting zu evaluieren. Werden zusätzlich situative Faktoren erhoben, wäre es möglich, Kontin-genzen zwischen Situation und Verhalten und Erleben aufzudecken.

6.4. Diskussion der Verwendung Bayesianischer Ansätze in der vorliegenden Arbeit

In den Methoden der Psychologie dominiert eher ein klassisch-frequentistischer Ansatz, welcher unter anderem auf die weitreichenden Arbeiten von R.A. Fischer zurückzuführen ist. Zu nennen wären hier die besonders einussreichen und für die Akzeptanz der Sozial-wissenschaften bahnbrechenden Werke Statistical Methods for Research Workers (Fisher, 1925) und The Design of Experiments (Fisher, 1935). Die Rolle von Fishers Ansätzen für die Akzeptanz der heutigen Sozialwissenschaften als Wissenschaften wird in Howie (2002) kurz diskutiert. In dieser Publikation werden die Entwicklungen des Wahrschein-lichkeitsbegris wissenschaftsgeschichtlich nachgezeichnet und die Unterschiede zwischen einem subjektiven und frequentistischen Wahrscheinlichkeitsbegri werden anhand der historisch bedeutsamen Debatte zwischen dem Eugeniker R. A. Fischer und dem Geophysiker Harold Jereys erhellt. Howie kommt zu dem Schluss, dass die Unterschiede der beiden Betrachtungsweisen auf Wahrscheinlichkeiten und wissenschaftliche Inferenz vor den unterschiedlichen intellektuellen und wissenschaftlichen Hintergründen und Mo-tivationen der Akteure zu verstehen sind. Während es Fisher hauptsächlich um Fragen der Genetik ging und die Annahme von hypothetischen, unendlich groÿen Populationen vor dem Hintergrund agrikulturellen Experimentierens Sinn macht, war für Jereys als Geophysiker z.B. die Annahme unendlich vieler Erden auf deren Basis sich Stichpro-benkennwerteverteilungen erzeugen lassen, schlichtweg absurd. Ferner führt Howie aus, dass Fisher ein geschickter Rhetoriker gewesen sein soll, was sich darin zeigen solle, dass

er seine eigenen Konzepte mit positiv konnotierten Adjektiven versah und konkurrie-rende Ansätze sprachlich brandmarkte. Man denke nur an die Antonyme subjektiv vs.

objektiv, verzerrt vs. unverzerrt, ezient vs. inezient, etc. Howie argumentiert, dass die Ansätze von Jereys und Fisher in sich logisch kohärent sind, allerdings auf unterschied-lichen Annahmen, wissenschaftunterschied-lichen Praxen und Zielen aufbauen. Während es Fischer eher um die Anwendbarkeit seiner Methoden in der agrikulturellen Praxis ging, um Fra-gen der ÜberleFra-genheit von z.B. einem bestimmten Dünger zu klären, ging es Jereys eher um Fragen der Beschaenheit der Erde oder des Sonnensystems auf der Basis von unsicheren Messungen von z.B. seismologischen Messstationen. Von daher akzeptierte er vermutlich einen epistemischen Wahrscheinlichkeitsbegri, der es erlaubt, dass Hypo-thesen eine Wahrscheinlichkeit angesichts beobachteter Daten besitzen, eine Annahme, die in einem frequentistischen Ansatz völlig ausgeschlossen ist. In jüngerer Zeit scheint sich der Bayesianische Ansatz einer gewissen Renaissance zu erfreuen, was nicht zuletzt an der Verfügbarkeit leistungsfähiger Prozessoren liegt, mit denen sich komputationel-le Kompkomputationel-lexität, die mit der Verwendung von Bayesianischen Ansätzen verbunden ist, lösen lässt. Das Lehrbuch von Gelman und Hill (Gelman & Hill, 2007) ist ein Beispiel für die Anwendung von Bayesianischen Schätzmethoden auf Multilevel-Modelle in der Politologie. Im Bereich des machine learnings sind Bayesianische Ansätze ebenfalls recht verbreitet (Koller & Friedman, 2009). Dies ist nicht überraschend, denn der epistemische Wahrscheinlichkeitsbegri eignet sich auch aus einer theoretischen Perspektive dazu, das Wissenssystem artizieller Agenten auf Basis beobachteter Daten und Lernen aus Er-fahrung zu abzubilden. Auch der Kognitiven Psychologie, die eine gewissen Nähe zur künstlichen Intelligenz besitzt, scheint ein epistemischer Wahrscheinlichkeitsbegri nicht fremd zu sein. Ein Anstoÿ zur Abfassung der vorliegenden Arbeit lag in der Beobach-tung, dass die von Jaynes beschriebene Maximum-Entropie-Verteilung eine hohe formale Ähnlichkeit mit den in der Psychologie bekannten Rasch-Modellen besitzt. Eine nähe-re Exploration der Materie führte zu einer verstärkten Auseinandersetzung mit Bayes-Statistik und aus Gründen einer gewissen Theorie-Homogenität wurde die Verwendung der MCMC-Methode zur Bestimmung der Posterior-Verteilungen verwendet. Auch war

6.4. Diskussion der Verwendung Bayesianischer Ansätze in der vorliegenden Arbeit es für den Autor von Interesse, die Praktikabilität dieser Verfahren näher kennenzuler-nen. Praktische Probleme bei der Verwendung Bayesianischer Ansätze in der Psychologie sieht der Autor vor allem in folgenden Punkten:

1. Bayesianische Methoden, Konzepte, Notationen und Begrie sind in der Psycholo-gie so gut wie unbekannt. Es ist oft nicht klar, dass unterschiedliche Auassungen über den Wahrscheinlichkeitsbegri existieren und diese Unterschiede werden auch nicht im einzelnen erläutert, was zu Missverständnissen führen kann.

2. Die benötigte Mathematik zum Verständnis der Bayesianischen Ansätze ist rela-tiv kompliziert, vor allem was die Verteilungstheorie angeht. MCMC-Ansätze ge-hen technisch betrachtet noch einen Schritt über klassische Maximum-Likelihood-Methoden durch die Verwendung von Prior-Verteilungen hinaus, was die Sache nicht vereinfacht.

3. Die Anwendung Bayesianischer Ansätze benötigt eine gewisse Expertise. Während für viele Standard-Analyse-Methode der Psychologie vorgefertigte Prozeduren in Softwarepaketen zur Verfügung stehen, müssen bei der Verwendung der MCMC-Methode die Likelihood, bzw. das verwendete Modell und die Prior-Verteilungen ggf. selbst speziziert werden, was eine gewissen programmiertechnische, statisti-sche und modelltheoretistatisti-sche Erfahrung erfordert.

4. Die Verwendung von Prior-Verteilungen wird oft als kritisch betrachtet, da diese mit einem epistemischen Wahrscheinlichkeitsbegri verbunden sind, welche einem Wissenschaftsverständnis von Wissenschaft als objektiv widerspricht.

5. Die Diskussion um die Verwendung Bayesianischer vs. frequentistischer Ansätze kann aus historischen Gründen gegebenenfalls ideologisch und dogmatisch aufgela-den sein.

An dieser Stelle kann man sich durchaus fragen, warum diese Methoden überhaupt ver-wendet werden sollten. Nach Ansicht des Autors bietet die Verwendung der

MCMC-Methode in Kombination mit Bayesianischer Inferenz vermutlich potentiell folgende Vor-teile:

1. Die Verwendung der MCMC-Methode befreit von der Abhängigkeit von tabellier-ten, asymptotischen Verteilungen von Test-Statistiken, ähnlich, wie dies auch beim parametrischen Bootstrapping der Fall ist, da Verteilungen von Parametern direkt über den Markov-Prozess generiert werden können, was Probleme mit klassischen Null-Hypothesen-Tests ausräumt. So besteht beispielsweise bei Multilevel-Analysen das Problem, dass die Freiheitsgrade der klassischen Signikanz-Tests der festen Eekte einer gewissen Kontroverse unterliegen, bzw. nicht bekannt sind. Ein mög-licher Lösungsansatz läge darin, Überschreitungswahrscheinlichkeiten auf Basis der MCMC-Methode zu generieren.

2. Das Problem fehlender Werte auf der abhängigen Variable, welches aus frequen-tistischer Perspektive unter anderem mit der Technik der multiplen Imputation angegangen wird, kann bei Verwendung der MCMC-Methode anders angegangen werden. Und zwar lieÿen sich die Posterior-Verteilungen von fehlenden Werten mo-dellbasiert direkt über den MCMC-Prozess erzeugen. Eine mögliche Verzerrung von Test-Statistiken durch fehlende Werte muss vermutlich nicht berücksichtigt werden, da die Verteilungen der Modellparameter selbst auf Basis des MCMC-Prozesses in-duktiv erzeugt werden. Von daher ist kein Abgleich mit einer tabellierten Verteilung von Test-Statistiken, wie z.B. der F-Verteilung notwendig.

3. Kredibilitäts-Intervalle für standardisierte Eektstärke-Indices lieÿen sich theore-tisch direkt aus der Anwendung des Markov-Prozess erzeugen, ohne auf nicht-zentrale Verteilungen zurückgreifen zu müssen.

4. Modellgeltungs-Tests können über sogenannte posterior-prediktive Checks ange-gangen werden, bei der beobachtete Statistiken, wie z.B. Residuen, mit den Vertei-lungen dieser Statistiken bei Modellgeltung abgeglichen werden können.

5. Die Verwendung exibler Programme wie WinBUGS (Lunn et al., 2000) ermöglicht

6.5. Schlussbetrachtung und Ausblicke