• Keine Ergebnisse gefunden

Kausale Bayes-Netze als psychologische Theorie

2.2 Kausale Bayes-Netze als psychologische Theorie kausalen Denkens

2.2.2 Kausale Bayes-Netze als psychologische Theorie

Schon früh sind Bayes-Netze in ihren qualitativen Eigenschaften und Vorhersa-gen auf menschliches Kausaldenken und -lernen übertraVorhersa-gen bzw. in paralleler Entwicklung aus deren Vorgängern in der Psychologie bekannt geworden (im Wesentlichen auf der Basis der Arbeiten von Pearl, 1988, sowie Spirtes, Glymour und Scheines, 1993, 2000). Insbesondere in Abgrenzung zu assoziationistischen Lerntheorien wurde die Causal-Model-Theorie (Waldmann, 1996, 2000, 2001;

Waldmann & Hagmayer, 2001; Waldmann, Hagmayer & Blaisdell, 2006; Wald-mann & Holyoak, 1992)13 entwickelt, die domänenunabhängiges Wissen als Vo-raussetzung für kausales Lernen hervorhebt, insbesondere das Wissen um die fundamentale Asymmetrie zwischen Ursache und Effekt – eine Unterscheidung, die den assoziationistischen Lerntheorien fremd ist. So wurden auf der Basis der Causal-Model-Theorie und in Widerspruch zu assoziationistischen Theorien u.a.

gezeigt, dass Menschen sensitiv für den Unterschied zwischen prädiktiven Vor-hersagen (von der Ursache hin zum Effekt) und diagnostischen VorVor-hersagen (vom Effekt zur Ursache) sind (siehe u.a. Waldmann, 2000, 2001). Auch konnte z.B. gezeigt werden, dass cue competition, ein zentraler Befund aus dem Bereich der klassischen Lerntheorien, mit der Zuschreibung der kausalen Rolle interagiert (Waldmann, 1996, 2000; Waldmann & Holyoak, 1992).

Aber auch im Konkreten sind kausale Bayes-Netze eingesetzt worden, um menschliches Kausallernen zu beschreiben und zu modellieren (siehe u.a.

Glymour, 2001, 2003; Gopnik et al., 2004; Griffiths & Tenenbaum, 2005; Steyvers et al., 2003; Waldmann & Martignon, 1998). Im Bereich des rein Daten geleiteten Strukturlernens wird dabei vor allem zwischen den Constraint-based-Methoden und den bayesianischen Ansätzen unterschieden.

Die Constraint-based-Methoden setzen auf die verschiedenen konditiona-len Abhängigkeiten, die die verschiedenen Kausalstrukturen aufgrund der Markov-Bedingung implizieren (sogenannte statistische Constraints; siehe Pearl,

13 Für eine ähnliche Übertragung in das Feld der Entscheidungspsychologie in Abgrenzung zu den dort vorherrschenden Theorien, die nicht sensitiv für die Kausalstruktur des Entscheidungsprob-lems sind, siehe u.a. Hagmayer und Meder (2008), Nichols und Danks (2007) sowie Sloman und Hagmayer (2006).

2000; Spirtes et al., 2000)14. Beobachtet man z.B. drei Variablen und ist das Ziel, herauszufinden, wie die drei Variablen kausal verbunden sind, dann sind nach diesem Ansatz die statistischen Abhängigkeiten zu untersuchen. In einer Com-mon-Effect-Struktur (siehe Abbildung 1a) sind die beiden Ursachen unabhängig voneinander (unkonditionale Unabhängigkeit), konditionalisiert man diese auf den Effekt, werden sie jedoch abhängig (konditionale Abhängigkeit). In einer Common-Cause-Struktur (siehe Abbildung 1b) sind die beiden Effekte abhängig voneinander (unkonditionale Abhängigkeit), da die gemeinsame Ursache eine Scheinkorrelation zwischen diesen erzeugt; konditionalisiert auf die Ursache, werden die Effekte jedoch unabhängig (konditionale Unabhängigkeit), wie sich aus der Markov-Bedingung offenkundig ergibt. Die gleichen Abhängigkeiten er-geben sich aber auch für die Causal-Chain-Struktur (siehe Abbildung 1c), die sich damit auf der Basis von rein statistischen Informationen nicht von der Common-Cause-Struktur in Abbildung 1b unterscheiden lässt. Solche Strukturen werden als äquivalent bezeichnet (siehe für die daraus resultierenden Markov-Äquivalenzklassen Abbildung 2).

Abbildung 2. Alle Kausalstrukturen über drei Variablen, die einen oder zwei kau-sale Links enthalten (angelehnt an Steyvers et al., 2003). Die gestrichelten roten Linien kennzeichnen die Markov-Äquivalenzklassen, Strukturen also, die sich auf der Basis rein statistischer Informationen ohne weitere Annahmen nicht vonein-ander unterscheiden lassen.

14 Dies setzt jedoch voraus, dass die Abhängigkeiten probabilistisch sind. Für eine Analyse des Problems im Hinblick auf deterministische Systeme siehe Glymour (2007).

Abgesehen von diesem Problem leiden Constraint-based-Ansätze daran, dass sie eine große Menge an Daten benötigen, um die Abhängigkeiten reliabel zu identifizieren. Nichtsdestotrotz sind sie auch in die Psychologie, insbesondere in die Entwicklungspsychologie, übertragen worden. In sehr einfachen Settings scheinen sogar Kinder sensitiv für die strukturellen Implikationen im Hinblick auf konditionale Abhängigkeiten zu sein (siehe Gopnik et al., 2004; Gopnik, Sobel, Schulz & Glymour, 2001; Kushnir & Gopnik, 2007), auch wenn neuere Befunde (siehe z.B. Lagnado & Sloman, 2002, 2006) es zweifelhaft erscheinen lassen, dass die gefundenen Leistungen wirklich auf eine Sensitivität für konditionale Abhän-gigkeiten zurückzuführen sind.

Ein in Abgrenzung zu den Constraint-based-Methoden entwickelter bayesianischer Ansatz zum Lernen kausaler Strukturen wurde erstmals von Steyvers et al. (2003) empirisch untersucht (für den theoretischen Hintergrund siehe auch Bishop, 2006; Heckerman, 1999; Heckerman, Meek & Cooper, 1999).

Diese Ansätze gehen im Grundsatz davon aus, dass das Lernen kausaler Struktu-ren nichts anderes ist als das Testen verschiedener Strukturhypothesen. Unter Anwendung der Bayes-Formel lässt sich die A-posteriori-Wahrscheinlichkeit der möglichen Strukturen gegeben der beobachteten Lerndaten berechnen. Ohne weitere Annahmen lösen aber auch diese Ansätze nicht das Problem der Markov-Äquivalenz, zumal die Anzahl der möglichen Strukturhypothesen (also möglicher Bayes-Netze) exponentiell mit der Anzahl der Variablen wächst. Bereits mit rela-tiv einfachen Strukturen (insbesondere Common-Cause- und Common-Effect-Strukturen; siehe Abbildung 1), wie sie von Steyvers et al. (2003) genutzt wurden, war die Leistung der Probanden im Hinblick auf die Identifikation der richtigen Kausalstruktur alles andere als überzeugend (ebenda).

Im weiteren Verlauf (und natürlich auch schon vorher) konzentrierte sich die Forschung daher auf die Frage, welche zusätzlichen Informationen (neben Kovariationsdaten) und welches Vorwissen Menschen nutzen, um die kausale Struktur der Welt zu lernen (siehe für einen Überblick Lagnado, Waldmann, Hagmayer & Sloman, 2007) bzw. wie die unüberschaubare Anzahl an potentiell in Frage kommenden Strukturen soweit eingeschränkt werden kann, dass eine Identifikation der richtigen Struktur überhaupt erst möglich ist. Zentrale

Bedeu-tung haben hierbei vor allem die zeitliche Abfolge der Ereignisse, die Möglichkeit, aktiv in das kausale System zu intervenieren, sowie spezifisches und abstraktes Wissen, z.B. in Form kausaler Grammatiken.

Zeitliche Ereignisabfolge. Eine wichtige Rolle bei der Entscheidung um die Rich-tung einer Kausalrelation kommt der zeitlichen Abfolge der Ereignisse zu: Da Ur-sachen ihre Effekte hervorbringen und nicht umgekehrt, treten UrUr-sachen in der Regel vor Auftreten des Effekts, zumindest aber nicht danach auf. Untersuchun-gen zeiUntersuchun-gen, dass Probanden sehr sensitiv für diese zeitliche Asymmetrie sind (Bullock & Gelman, 1979; Lagnado & Sloman, 2006) und dass Informationen über die zeitliche Abfolge von Ereignissen widersprechende Kovariationsinformationen sogar überschreiben können, weil letzteren im Hin-blick auf die zugrunde liegende Kausalstruktur bei kleinen Stichproben mehr Un-sicherheit anhaftet (Lagnado & Sloman, 2006). Der zeitliche Abstand zwischen Ursache-Ereignis und Effekt-Ereignis spielt auch eine zentrale Rolle, wenn es da-rum geht, aus einem Strom von Ereignissen die jeweiligen Effekt-Ereignisse ihren Ursachen zuzuordnen, um entsprechende Kontingenzen zu berechnen (Hagmayer & Waldmann, 2002; Krynski, 2006).

Interventionen. Neben dem rein passiven Beobachten von Ereignissen und dem darauf aufbauenden Schließen auf zugrunde liegende Kausalstrukturen ist das aktive Eingreifen in Kausalsysteme eine weitere wichtige Möglichkeit, Kausalhy-pothesen zu testen und kausale Abhängigkeiten zu entdecken (Waldmann &

Hagmayer, 2005). Die Konsequenzen von Interventionen sind dabei insbesonde-re von Pearl (2000; siehe auch Woodward, 2003, 2007) im Bayes-Netz-Framework auf theoretischer Ebene formalisiert worden: Wird in eine Variable aktiv interveniert, ihr Zustand also extern gesetzt, dann verschwindet der Einfluss ihrer Ursachen auf die Variable wie auch auf ihre Effekte. Damit lassen sich durch diese „graph surgery“ genannte Operation15 sogar Markov-äquivalente Struktu-ren unterscheiden (siehe z.B. Steyvers et al., 2003; Lagnado et al., 2007). Letzt-endlich sind Interventionen bereits für sich genommen wichtiger Ausdruck des

15 Die Analogie bietet sich an, da formal eine solche Intervention in einem Bayes-Netz resultiert, dem diejenigen Kausalpfeile fehlen, die auf die Variable zeigen, in die interveniert wurde. Es scheint also, als ob diese „wegoperiert“ wurden.

menschlichen Bedürfnisses, aktiv seine Umwelt zu manipulieren. Und so mag es nicht verwundern, dass die Möglichkeit der Intervention das Lernen um die rich-tige kausale Struktur erheblich beschleunigt oder gar erst ermöglicht (siehe u.a.

Campbell, 2007; Hagmayer, Sloman, Lagnado & Waldmann, 2007; Lagnado &

Sloman, 2004; Meder, 2006; Meder, Hagmayer & Waldmann, 2008; Schulz, Gopnik & Glymour, 2007; Schulz, Kushnir & Gopnik, 2007; Sloman & Lagnado, 2005; Sommerville, 2007; Waldmann & Hagmayer, 2005). Dabei profitieren nicht nur Menschen von der Möglichkeit des Intervenierens. Auch Ratten scheinen sensitiv für die Konsequenzen ihrer Interventionen in Kausalsysteme zu sein (Blaisdell, Sawa, Leising & Waldmann, 2006; Leising, Wong, Waldmann &

Blaisdell, 2008).

Kausale Grammatiken. Stehen weder Wissen um die zeitliche Abfolge noch die Möglichkeit einer Intervention und nur eine sehr beschränkte Menge an Beo-bachtungsdaten zur Verfügung, so scheint ein Lernen zugrunde liegender Kausal-relationen schwierig bis ausgeschlossen. Dennoch identifizieren erwachsene Probanden wie auch Kleinkinder kausale Zusammenhänge in einigen Experimen-ten bereits nach der Beobachtung weniger Lerntrials (siehe u.a. Meltzoff, 2007;

Sobel & Kirkham, 2007; Sobel, Tenenbaum & Gopnik, 2004). Eine Erklärung hier-für scheint zu sein, dass die Probanden abstraktes Wissen über das kausale Sys-tem nutzen, um den Hypothesenraum einzuschränken oder Beobachtungen rest-riktiver zu interpretieren. Dieses abstrakte Vorwissen, z.B. dass Risikofaktoren Krankheiten und Krankheiten ihre Symptome verursachen, kann in einer kausa-len Grammatik formalisiert werden (siehe Griffiths & Tenenbaum, 2007b;

Tenenbaum, Griffiths & Niyogi, 2007; für einen weniger formalisierten, ähnlichen Ansatz siehe bereits Waldmann, 1996, 2007; für verwandte Ansätze siehe auch Kemp, Perfors & Tenenbaum, 2007; Kemp & Tenenbaum, 2008; Kemp &

Tenenbaum, in press; Tenenbaum, Griffiths & Kemp, 2006). Eine kausale Gram-matik beschreibt dabei in Anlehnung an probabilistische GramGram-matiken im sprach-lichen Bereich (siehe u.a. Chater & Manning, 2006; Xu & Tenenbaum, 2007) ei-nen generativen Algorithmus, der diejenigen Strukturen – hier also die verschie-denen Bayes-Netze bzw. Strukturhypothesen – produziert, über verschie-denen die Infe-renz stattfindet und der die Strukturen in der Regel auch mit einer

A-priori-Wahrscheinlichkeit verbindet (z.B. einfache Strukturen haben eine höhere Wahr-scheinlichkeit). Damit wird der Raum der möglichen Hypothesen stark einge-schränkt und eine Inferenz auf der Basis weniger Beobachtungsdaten ermöglicht.

Eine solche Grammatik kann z.B. verschiedene abstrakte Klassen von Variablen beschreiben (z.B. Risikofaktoren, Krankheiten, Symptome) und dann die mögli-chen und Relationen zwismögli-chen Variablen dieser Klassen (z.B. ein Risikofaktor kann eine Krankheit verursachen; ein Symptom kann nie eine Krankheit verursa-chen etc.) sowie mögliche Interaktionen (siehe Griffiths & Tenenbaum, 2007b).