• Keine Ergebnisse gefunden

Psychophysiologische Korrelate der Fehlerverarbeitung im Aufgabenwechselparadigma

N/A
N/A
Protected

Academic year: 2022

Aktie "Psychophysiologische Korrelate der Fehlerverarbeitung im Aufgabenwechselparadigma"

Copied!
104
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Psychophysiologische Korrelate der Fehlerverarbeitung im

Aufgabenwechselparadigma

Wissenschaftliche Arbeit zur Erlangung

des Grades eines Diplom-Psychologen im Fachbereich Psychologie

der Universität Konstanz

vorgelegt von

Tilmann Alexander Klein Kohlbergweg 16

64367 Mühltal

Erstgutachter: Prof. Dr. Ronald Hübner Zweitgutachter: Prof. Dr. D. Yves von Cramon

Leipzig, im Juni 2005

(2)

Danksagung

An dieser Stelle möchte ich denjenigen danken, die zum Entstehen dieser Arbeit beigetragen haben. Mein Dank geht an Prof. Dr. D. Yves von Cramon und Prof. Dr.

Ronald Hübner für die Übernahme der Begutachtung der Arbeit.

Ebenso möchte ich mich bei Dr. Markus Ullsperger und Dr. Marco Steinhauser für die hervorragende fachliche Betreuung im Verlauf der Entstehung der vorliegenden Arbeit bedanken. Ein besonderer Dank geht in diesem Zusammenhang auch an Kristiane Werrmann für die zahlreichen Mühen im Rahmen der EEG Datenerhebung, sowie an Katrin Gille für die Durchführung der Trainingssitzungen.

Weiterhin geht mein besonderer Dank an meine Familie, für die vielfältigen Unterstützungen in jeglicher Hinsicht – ein besonders herzlicher Dank geht an Alexander Klein und Rudolf Graulich.

(3)

Zusammenfassung

Die vorliegende Arbeit geht der Frage nach, ob sich die behavioralen Konsequenzen intensiver und weniger intensiver Fehlerverarbeitung unterscheiden. Dazu wird angenommen, dass die Amplitude der "error related negativity" (Gehring, Goss, Coles, Meyer & Donchin, 1993; ERN), als Maß der Intensität der Fehlerverarbeitung mit der Performanz einer Person im nachfolgenden Durchgang in Beziehung steht. Weiter wird angenommen, dass mittels eines Lernmechanismus die gerade ausgeführte Antwort mit der Aufgabe verbunden wird. War diese Antwort fehlerhaft, erweist sich diese Verbindung bei einer erneuten Bearbeitung derselben Aufgabe als nachteilig. Da jedoch das menschliche Handlungsüberwachungssystem nach einer fehlerfreien Performanz strebt, ist anzunehmen, dass ein Fehler, wenn dieser bemerkt und intensiv verarbeitet wird (es also eine hohe ERN gibt), nicht mit der Aufgabe verbunden wird. Die Konsequenzen eines Fehlers gestalten sich unterschiedlich, je nachdem, welche Aufgabe als nächstes bearbeitet werden muss – entweder die gerade fehlerhaft und unter Umständen mit der falschen Antwort verknüpfte Aufgabe oder eine andere Aufgabe. Wegen dieser unterschiedlichen Konsequenzen empfiehlt sich die Verwendung eines experimentellen Paradigmas, in welchem ein Aufgabenwechsel als unabhängige Variable implementiert ist; in einem Aufgabenwechselparadigma mit inkongruenten Stimuli lässt sich vermuten, dass ein weniger intensiv verarbeiteter Fehler (geringe ERN) zu Wechselgewinnen führt, ein intensiv verarbeiteter Fehler (ERN hoch) hingegen Wechselkosten nach sich zieht (vgl.

Wylie & Allport, 2000; Rogers & Monsell, 1995; Steinhauser & Hübner, eingereicht;

Botvinick, Carter, Braver, Barch & Cohen, 2001). Um diese Zusammenhänge empirisch zu überprüfen führten 20 gesunde Probanden (10 m/10 w) ein Aufgabenwechselparadigma mit paralleler EEG-Ableitung durch. In den Verhaltensdaten zeigte sich kein einheitliches Bild bezüglich der Wechselkosten/Wechselgewinne nach einem Fehler, teilweise konnten jedoch Ergebnisse früherer Studien repliziert werden – vor allem in den Reaktionszeiten nach einem Fehler fanden sich Wechselgewinne (vgl. Steinhauser & Hübner, eingereicht).

Die elektrophysiologischen Ergebnisse (sowohl ERN als auch "error positivity" (Pe), Falkenstein, Hohnsbein, Hoormann, & Blanke, 1990) erbrachten keinen Zusammenhang zwischen der Amplitude der ERN und der Genauigkeit der Aufgabenbearbeitung im nachfolgenden Versuchsdurchgang – die ERN scheint also nicht das richtige Maß für die Abbildung unterschiedlicher Konsequenzen intensiver und weniger intensiver Fehlerverarbeitung auf den nachfolgenden Versuchsdurchgang zu sein.

(4)

Inhaltsverzeichnis

Inhaltsverzeichnis………....I Abbildungsverzeichnis……….III Tabellenverzeichnis………...V

1 Exekutive Kontrolle und Aufgabenwechsel ...1

1.1. Exekutive Kontrolle...3

1.2. Das Scheitern der exekutiven Kontrolle und die Folgen ...3

1.3. Das Aufgabenwechselparadigma...4

1.3.1. Komponenten der Wechselkosten: Exogene Komponenten der Rekonfiguration des Task-Set ...5

1.3.2. Aktivierungs-/Inhibitionsansätze ...7

1.3.3. Assoziativer Lernprozess als Ursache der Wechselkosten? ...8

1.4. Fehler im Aufgabenwechsel und ihre Folgen ...9

1.5. Aufgabenwechsel und Fehler – ein zusammenfassender Ausblick ...11

2 Die Erforschung menschlicher Handlungsfehler...12

2.1. Prozesse menschlicher Fehlerverarbeitung...13

2.2. Elektrophysiologische Korrelate der Fehlerverarbeitung ...14

2.2.1. Die Mismatch Hypothese ...17

2.2.2. Das Antwortkonfliktmodell ...19

2.2.3. Die Dopaminhypothese...20

2.3. Error Positivity...22

2.3.1. Bewusste Fehlerdetektion ...22

2.3.2. Anpassung der Antwortstrategie...22

2.3.3. Subjektive bzw. emotionale Fehlerverarbeitung...23

2.4. Neurophysiologische Grundlagen der ERN ...23

2.5. Behaviorale und elektrophysiologische Konsequenzen von Fehlern im Aufgabenwechselparadigma...24

3 Hypothesen ...27

3.1. Verhaltensdaten ...27

3.2. Elektrophysiologische Daten ...28

3.3. Daten aus der Synthese von Aufgabenwechselparadigma und ERN ...28

4 Methoden ...31

4.1. Probanden ...31

4.2. Aufgabe...31

4.3. Stimuli...32

4.3.1. Hinweisreize...32

4.3.2. Zielreize ...32

4.3.3. Auditorisches Feedback...32

4.4. Zeitlicher Ablauf...33

4.5. Organisation...34

4.6. EEG Ableitung...35

4.7. Allgemeine Auswertungsstrategie ...36

5 Behaviorale Ergebnisse ...38

5.1. Aufbereitung der Verhaltensdaten ...38

5.2. Varianzanalytische Betrachtung der Verhaltensdaten ...39

5.2.1. Varianzanalytische Betrachtung der Reaktionszeiten ...39

5.2.2. Varianzanalytische Betrachtung der Genauigkeiten ...43

6 Zwischendiskussion der Verhaltensdaten ...49

6.1. Zwischendiskussion der Reaktionszeitergebnisse ...49

(5)

6.2. Zwischendiskussion der Genauigkeitsergebnisse...49

6.3. Gegenüberstellung beider abhängiger Variablen...50

6.4. Entscheidung über Hypothesen zu Verhaltensdaten...50

7 Elektrophysiologische Ergebnisse ...51

7.1. Vorverarbeitung der EEG Daten...51

7.1.1. Zeitfenster der Auswertung...52

7.1.2. Mediansplit ...52

7.2. Ereigniskorrelierte Potentiale auf die Antwort bezogen...52

8 Zwischendiskussion der elektrophysiologischen Ergebnisse ...61

8.1. Entscheidung über Hypothesen zu elektrophysiologischen Daten ...61

8.2. Entscheidung über Kombinationshypothese...61

9 Ergebnisse der Nachbefragung...62

10 Diskussion und Ausblick ...63

10.1. Antwortwiederholungseffekte in den Genauigkeiten ...65

10.2. Verteilung der Reaktionszeiten...66

10.3. Über die Entstehung der Wechselkosten ...67

10.4. Intensität der Fehlerverarbeitung, ERN und die Konsequenzen von Fehlern .68 10.5. Fehlerdetektion vs. Antwortkonfliktmodell der ERN...69

10.6. Gibt es Modulationen der ERN bei verschiedenen Fehlertypen?...69

10.7. Ausblick ...71

11 Literatur ...73

12 Anhang...81

(6)

Abbildungsverzeichnis

Abbildung 1. Auswirkung der Genauigkeit der Aufgabenbearbeitung in N-1 auf die Genauigkeit der Aufgabenausführung in N 25 Abbildung 2. Schematische Darstellung des Experimentalablaufes 33 Abbildung 3. Reaktionszeiten in Abhängigkeit von Reaktionszeitperzentil und

Aufgabenwechsel/-wdh. bei korrekter Antwort in N-1 41 Abbildung 4. Reaktionszeiten in Abhängigkeit von Reaktionszeitperzentil und

Aufgabenwechsel/-wdh. bei fehlerhafter Antwort in N-1 41 Abbildung 5.

Differenz in Reaktionszeit (ms) zwischen Antwortwechsel und Antwortwiederholung in Abhängigkeit von der Genauigkeit in N-1 und den Reaktionszeitperzentilen

43

Abbildung 6. Genauigkeit in Abhängigkeit von Aufgabenwechsel/-wdh. und

Reaktionszeitperzentil bei korrekter Antwort in N-1 45 Abbildung 7. Genauigkeit in Abhängigkeit von Aufgabenwechsel/-wdh. und

Reaktionszeitperzentil bei fehlerhafter Antwort in N-1 45 Abbildung 8.

Gegenüberstellung der Differenzen in der Genauigkeit bei Ant- wortwechsel/Antwortwiederholung in Abhängigkeit von der Ge- nauigkeit in N-1 und den Reaktionszeitperzentilen

47

Abbildung 9. Elektrische Aktivität (Gesamtmittelwert) an der Elektrode FCz für

fehlerhafte und korrekte Antworten 55

Abbildung 10.

Topographische Darstellung der elektrischen Aktivität auf der Kopfoberfläche, 20-80 ms nach der fehlerhaften bzw. korrekten Antwort

56

Abbildung 11. Elektrische Aktivität (Gesamtmittelwert) an der Elektrode Pz für

fehlerhafte und korrekte Antworten 57

Abbildung 12. Topographische Darstellung der elektrischen Aktivität auf der Kopfoberfläche, 180-500 ms nach der fehlerhaften bzw. korrekten Antwort

58

Abbildung 13.

Gegenüberstellung der antwortbezogenen elektrischen Aktivität an FCz für fehlerhafte Antworten, die entweder von einem weite- ren Fehler bzw. einer korrekten Antwort gefolgt werden, für den Fall einer Aufgabenwiederholung. Daten sind am Median der Reaktionszeiten gesplittet

59

(7)

Abbildung 14.

Gegenüberstellung der antwortbezogenen elektrischen Aktivität an FCz für fehlerhafte Antworten, die entweder von einem weite- ren Fehler bzw. einer korrekten Antwort gefolgt werden, für den Fall eines Aufgabenwechsels. Daten sind am Median der Reakti- onszeiten gesplittet

59

Abbildung 15. Gesamtmittelwerte der elektrischen Potentiale in inkompatiblen und kompatiblen Trials des Simon Task und des räumlichen Stroop Task an den Elektroden Fz und Cz

70

Abbildung A1. Darstellung der verwendeten Hinweis- und Zielreize 87

Abbildung A2. 10-20 System nach Jasper, 1958 88

Abbildung A3. Gesamtmittelwerte für korrekte und fehlerhafte Antworten an 12

ausgewählten Elektroden 93

(8)

Tabellenverzeichnis

Tabelle 1. Klassifizierung der Fehlertypen in Bezug auf die kognitiven Stu-

fen ihres Auftretens 12

Tabelle 2. Zusammenhang zwischen ERN und nachfolgender Genauigkeit in Abhängigkeit von Aufgabenwechsel und Aufgabenwiederholung 30 Tabelle 3. Faktoren der experimentellen Bedingungen der behavioralen Da-

ten 37

Tabelle 4. Faktoren der experimentellen Bedingungen der elektrophysiologi-

schen Daten 37

Tabelle 5. Faktoren der Varianzanalyse der behavioralen Daten (Reaktions-

zeiten & Genauigkeiten) 39

Tabelle 6. Ergebnisse der Varianzanalyse für die Reaktionszeiten 40 Tabelle 7. Differenzen in Reaktionszeiten (ms) für Aufgabenwechsel/-wdh.

zwischen den Reaktionszeitperzentilen 42

Tabelle 8. Ergebnisse der Varianzanalyse für die Genauigkeiten 44 Tabelle 9. Differenzen in Genauigkeitsmittelwerten für Aufgabenwechsel/-

wdh. zwischen den Reaktionszeitperzentilen 46 Tabelle 10. Differenzen in Genauigkeitsmittelwerten für Antwortwechsel/-

wdh. zwischen den Reaktionszeitperzentilen 48 Tabelle 11. Gegenüberstellung der behavioralen abhängigen Variablen 50 Tabelle 12. Experimentelle Bedingungen der elektrophysiologischen Auswer-

tung 53

Tabelle 13. Topographische Gruppen ("Regions") der EEG Auswertung 53 Tabelle 14. Übersicht über die Faktoren der Varianzanalysen der Auswertung

der EEG Gesamtmittelwerte 54

Tabelle 15.

Ergebnisse der Varianzanalysen für korrekte und fehlerhafte Antworten (Zeitfenster 20-120 ms nach der Antwort) aller Ver- suchsteilnehmer

54

Tabelle 16. Ergebnisse der Varianzanalysen für korrekte und fehlerhafte

Antworten (Zeitfenster 250-500 ms nach der Antwort) 57

(9)

Tabelle 17. Faktoren der Varianzanalyse der unterschiedlichen experimentel-

len Bedingungen 60

Tabelle A1. Durchschnittliche Reaktionszeiten der Versuchsteilnehmer in den jeweiligen Bedingungen in Abhängigkeit von den Reaktionszeit- perzentilen

89

Tabelle A2. Durchschnittliche Genauigkeiten der Versuchsteilnehmer in den jeweiligen Versuchsbedingungen in Abhängigkeit von den Reak- tionszeitperzentilen

91

Tabelle A3. Übersicht über die Variablen der Nachbefragung sowie deren Mit-

telwerte und Standardabweichungen 94

(10)

1 Exekutive Kontrolle und Aufgabenwechsel

Handlungsüberwachung und Handlungsregulation sind notwendige Fähigkeiten eines Sys- tems, das sich in einer komplexen Umwelt zurechtfinden muss. Plötzliche Wechsel der Umweltbedingungen erfordern ein rasches Wechseln zwischen Aufgaben bzw. Strategien zur Lösung von Problemen und zur Erreichung von Zielen. Ein solches Wechseln ist ohne exekutive Kontrolle, also ohne ein System, das eine flexible Anpassung an neue Situatio- nen, ein Verwirklichen neuer Intentionen oder die Planung von Handlungen gewährleisten kann, schwer vorstellbar. Allgemein bekannt ist jedoch die Tatsache, dass es trotz eines solchen Systems und dessen inhärentem Streben nach einer fehlerfreien Performanz zu Handlungsfehlern kommen kann. Diese Fehler wiederum lassen sich in unterschiedliche Klassen einteilen, wobei diese Einteilung nicht als diskrete Trennung zu verstehen ist – vielmehr kann es sich hierbei um ein Kontinuum handeln, welches durch die unterschiedli- che Intensität der "Nach-Fehler" Anpassungsprozesse bestimmt wird.

Wenn nun das Handlungsüberwachungssystem (also das System, das die exekutive Kon- trolle ausübt) einen Fehler bemerkt, so wird es bemüht sein, diesen nicht zu wiederholen.

Das heißt, die fehlerhafte Handlung sollte nicht mit dem handlungsauslösenden Stimulus beziehungsweise der zu bearbeitenden Aufgabe verbunden werden. Wird der Fehler hinge- gen nicht bemerkt, die Verbindung zwischen dem Stimulus/der Aufgabe und der fehlerhaf- ten Antwort also verstärkt, so ist anzunehmen, dass bei einem erneuten Auftreten dieses Stimulus/dieser Aufgabe die fehlerhafte Antwort in ihrer Auftretenswahrscheinlichkeit erhöht ist. Zusammengenommen liegt es nahe, von unterschiedlichen Konsequenzen inten- siv und weniger intensiv verarbeiteter Fehler auf das Handlungsüberwachungssystem aus- zugehen.

Eine der am häufigsten genutzten Techniken zur Untersuchung der Mechanismen mentaler Kontrolle ist das Aufgabenwechselparadigma; hierbei werden Versuchspersonen gebeten, entweder in zufälliger oder in vorher festgelegter Reihenfolge zwischen zwei Aufgaben (A und B; A Æ A = Aufgabenwiederholung, A Æ B = Aufgabenwechsel) zu wechseln. Der Aufgabenwechsel gilt als der Prototyp einer Handlung, die endogene Kontrolle (z.B. im Sinne der exekutiven Kontrolle) erfordert, einer Handlung also, zu deren Funktion ein in- ternes Überwachungs- und Kontrollsystem vorhanden sein muss.

Eine Situation, in welcher die Intervention kognitiver Kontrolle am deutlichsten erforder- lich ist, ist das Auftreten eines Handlungsfehlers. Fehler sind eine wichtige Informations-

(11)

quelle bezüglich der Regulation kognitiver Prozesse; so ist beispielsweise mittels eines Feedbacks bezüglich der Performanz die Steuerung eines Lernmechanismus denkbar, der das kognitive und/oder behaviorale System mit der Zeit optimiert (Holroyd & Coles, 2002;

Botvinick, Carter, Braver, Barch & Cohen, 2001).

Um die behavioralen Konsequenzen (zum Beispiel in Gestalt einer Modulation der nach- folgenden Antwortgeschwindigkeit oder –genauigkeit) und die Natur solcher Fehler besser zu verstehen, ist es wichtig, ein objektivierbares Maß zu finden, das Fehler (bzw. die Inten- sität ihrer Verarbeitung) abbilden kann. Ein solches "Fehlermaß" stellt die "error related negativity" bzw. "error negativity" sowie die "error positivity" (ERN, Ne, Pe; Gehring, Goss, Coles, Meyer & Donchin, 1993; Falkenstein, Hohnsbein, Hoormann & Blanke, 1990) dar. Ziel der vorliegenden Arbeit ist es, eine Verbindung zwischen dem Aufgaben- wechselparadigma (bzw. Handlungsfehlern in diesem) und einem elektrophysiologischen Fehlermaß, der ERN/Pe, herzustellen, um behaviorale Konsequenzen von Fehlern in Be- ziehung zu einem elektrophysiologischen Korrelat der Fehlerverarbeitung zu setzen – vor dem Hintergrund der Annahme, dass sich intensiv und weniger intensiv verarbeitete (ope- rationalisiert als Amplitudenunterschied der ERN) Fehler in ihren Konsequenzen für die nachfolgenden Versuchsdurchgänge unterscheiden: Wenn ein Fehler deutlich von dem Handlungsüberwachungssystem bemerkt wird und dieses als messbares Korrelat einer in- tensiven Verarbeitung eine hohe ERN Amplitude generiert, so ist anzunehmen, dass die Verbindung zwischen der Aufgabe und der fehlerhaften Antwort nicht verstärkt wird; wird der Fehler hingegen weniger intensiv verarbeitet, so ist von einer Verstärkung der Aufga- ben-Antwort Verbindung auszugehen. Die Konsequenzen einer solchen Verstärkung bzw.

Nicht-Verstärkung von Aufgabe-Antwort Verbindungen (bzw. aufgabenbezogener Assozi- ationen) äußern sich unterschiedlich, je nachdem, welche Aufgabe die Person als nächstes bearbeiten muss – entweder die kürzlich fehlerhaft bearbeitete (Aufgabenwiederholung;

wobei der Fehler entweder entdeckt wurde oder nicht) oder eine andere Aufgabe (Aufga- benwechsel).

Um diese unterschiedlichen Konsequenzen in Abhängigkeit von Aufgabenwechsel oder Aufgabenwiederholung näher zu beleuchten soll mittels eines Aufgabenwechselparadig- mas untersucht werden, ob die Intensität der Fehlerverarbeitung (Amplitude der ERN) in Beziehung steht zur Genauigkeit und/oder Geschwindigkeit der Antwort im nachfolgenden Versuchsdurchgang. Dabei werden getrennte Hypothesen für den Fall einer Aufgabenwie- derholung (die Versuchsperson hat gerade Aufgabe A durchgeführt und soll diese nun

(12)

noch einmal bearbeiten) und eines Aufgabenwechsels (nun soll die Versuchsperson von Aufgabe A auf Aufgabe B wechseln) nach einem Fehler aufgestellt.

1.1. Exekutive Kontrolle

Wie bereits erwähnt benötigt der Mensch zum erfolgreichen Handeln in seiner häufig komplexen Umwelt ein System, welches zwischen verschiedenen Aufgaben vermitteln und die Erreichung verschiedener Ziele koordinieren kann. So lässt sich beispielsweise fragen, wie die Wiederaufnahme einer Aufgabe nach einer Pause gelingen kann, auch und gerade wenn diese Pause mit anderen Tätigkeiten gefüllt war (Monsell, 1996).

Schon früh wurde die Existenz eines Systems vermutet, das der Handlungsregulation und Handlungskontrolle dient. Bereits James (1890) formulierte mit dem "Willen" ein System, welches seiner Meinung nach in der Lage sei, das Problem der kognitiven Flexibilität des Alltagslebens zu lösen. Baddeley (1986) schlug mit der zentralen Exekutive ein System vor, das die Planung, Durchführung und Koordination verschiedener perzeptuell- motorischer Prozesse meistern könne. Ähnlich postulieren Norman und Shallice (1986) mit dem "supervisory attentional system" eine einzelne Instanz, die hilft, unterschiedliche An- forderungen des Alltags zu bewältigen. Demgegenüber lässt sich das System von Cohen, Dunbar und McClelland (1990) stellen, das exekutive Kontrolle nicht über einen einzelnen Mechanismus sondern über ein parallel und verteilt arbeitendes Netzwerk realisiert sieht.

Trotz der anzunehmenden Existenz eines Handlungsüberwachungssystems ist aus vielfälti- ger Erfahrung bekannt, dass Handlungskontrolle scheitern kann und es zu Fehlern in der Handlungsausführung kommt. Nicht zuletzt im Umgang mit solchen Fehlern unterscheiden sich die Systeme exekutiver Kontrolle. Insbesondere in dem Modell von Cohen und Kolle- gen (1990) wird den Handlungsfehlern eine explizite Funktion zugewiesen: Mittels eines überwachten Lernalgorithmus dienen sie der Optimierung der Performanz des Systems, sie

"helfen" dem System zu "lernen".

1.2. Das Scheitern der exekutiven Kontrolle und die Folgen

Fehler signalisieren eine suboptimale Performanz, die Anlass zu einem Optimierungspro- zess sein kann. Ein solcher Optimierungsprozess kann auch als fortschreitender "Lernpro- zess" im Sinne einer schrittweisen Automatisierung der Performanz gesehen werden (vgl.

zum Beispiel Logan, 1988). So könnten Fehler im Sinne eines Feedbacksignals dafür sor- gen, dass eine Assoziation zwischen einer Antwort und dem antwortauslösenden Stimulus

(13)

nicht verstärkt wird, d.h. nicht die falsche Aufgabe-Antwort Verbindung (bzw. Kategorie- Antwort Assoziation, vgl. Schuch & Koch (2003)) gelernt wird. Fehler könnten somit als Feedbacksignal eine Rolle im Verlauf und in der Steuerung von Lernprozessen spielen – diese Lernprozesse können wiederum der Optimierung eines Task-Set (z.B. Ridderinkhof, 2002) dienen. Nach Rogers und Monsell (1995) handelt es sich bei einem solchen Task-Set um eine Reihe von Vorschriften und Regeln, die den korrekten Umgang mit einem Stimu- lus beschreiben. "To form an effective intention to perform a particular task, regardless of which of the range of task-relevant stimuli will occur, is to adopt a Task-Set" (Rogers &

Monsell, 1995, S. 207). Dieses Konzept wird dabei häufig ähnlich dem Konzept des Ge- danken- oder Handlungsschemas (Norman & Shallice, 1986) verwendet.

Legt man diese Annahmen zu Grunde, so fällt es leicht anzunehmen, dass Fehler auch im Prozess der exekutiven Kontrolle eine zentrale Rolle spielen können. Exekutive Kontrolle kann scheitern und die daraus resultierenden Fehler können dem System als Hinweis die- nen, welche Handlungen bei welchem Stimulus (bzw. bei welcher Aufgabe) den ge- wünschten Erfolg bringen und welche nicht.

1.3. Das Aufgabenwechselparadigma

Ein experimentelles Paradigma, das häufig zur Untersuchung von Prozessen exekutiver Kontrolle verwendet wird, ist das Aufgabenwechselparadigma. Das Funktionieren und Scheitern exekutiver Kontrolle zeigt sich besonders deutlich dann, wenn Probanden zwi- schen zwei oder mehreren Aufgaben entweder in einer festgelegten Reihenfolge (vgl. Jer- sild, 1927; Spector & Biedermann, 1976) oder zufällig wechseln müssen. Das Ziel der ex- perimentellen Manipulation ist es dabei, den Beitrag exekutiver Kontrollprozesse in der Aufgabe zu maximieren, indem man die Versuchsteilnehmer dazu anhält, zwischen Auf- gaben hin und her zu wechseln und dabei die Zeit bestimmt, die das Wechseln kostet bzw.

welche Faktoren diesen Wechsel beeinflussen. Bei diesen Wechseln lassen sich so genann- te Wechselkosten beobachten, d.h. die Reaktionszeiten werden langsamer bzw. die Fehler- raten steigen an, wenn ein Proband (aus Gründen der Übersichtlichkeit wird durchgehend die männliche Schreibweise verwendet) die Aufgabe wechseln muss, im Vergleich zu den Reaktionszeiten bzw. Fehlerraten einer Aufgabenwiederholung (Allport, Styles & Hsieh, 1994; Schuch & Koch, 2003). Die Wechselkosten werden dabei durch Subtraktion der Re- aktionszeiten in den Wiederholungsdurchgängen von den Reaktionszeiten der Wechsel- durchgänge berechnet.

(14)

Innerhalb des Aufgabenwechselparadigmas unterscheidet man zwischen verschiedenen Darbietungsformen der Aufgaben (und somit des Aufgabenwechsels):

a. einer blockweisen Präsentation einer Aufgabenart (z. B. ein Block besteht nur aus Aufgabe A, der nächste Block nur aus Aufgabe B; vgl. Jersild, 1927; Spector &

Biederman, 1976) – häufig genutzt als Kontrollbedingung für nachfolgende Proze- duren (b - d)

b. das abwechselnde Darbieten von Aufgabenarten: Z.B. im Stile einer vorhersagba- ren Reihenfolge (ABABAB; vgl. "alternating-runs" Paradigma, Rogers & Monsell, 1995) oder einer rein zufälligen Reihenfolge der zu bearbeitenden Aufgaben

c. vor jeder Aufgabe wird den Teilnehmern ein Hinweisreiz präsentiert, der ihnen mit- teilt, welche Aufgabe sie bearbeiten sollen (z.B. Meiran, 1996)

d. die Serie der Versuchsdurchgänge wird gelegentlich von einer Instruktion unter- brochen, die angibt, mit welcher Bearbeitungsregel die nachfolgenden Versuchs- durchgänge zu bearbeiten sind (Goschke, 2000)

Häufig (jedoch nicht immer) werden für beide Aufgaben im Aufgabenwechsel dieselben Stimuli und Antworten verwendet. Stimuli können zum Beispiel Zahlen sein und der Pro- band muss zwischen der Einschätzung der Größe der Zahlen (im Verhältnis zu einer ande- ren Zahl) und dem Einschätzen von Gerade/Ungerade der Zahlen wechseln. Dabei können sich die Stimuli hinsichtlich ihrer Kongruenz unterscheiden. Inkongruente Stimuli sind solche, bei denen beide Aufgaben verschiedene Antworten verlangen. Kongruente Stimuli hingegen sind solche, bei denen beide Aufgaben dieselbe Antwort verlangen.

1.3.1. Komponenten der Wechselkosten: Exogene Komponenten der Rekon- figuration des Task-Set

Auch bei längeren Vorbereitungszeiten, d.h. ausreichend Zeit zwischen den Aufgaben- wechseln bzw. ausreichend Zeit zwischen Aufgabenwechsel-Hinweisreiz (Cue) und tat- sächlichem Aufgabewechsel, lassen sich noch Wechselkosten finden. Rogers und Monsell (1995) gingen der Frage nach, ob eine Verlängerung der Vorbereitungszeit (in diesem Fal- le der Zeit zwischen der letzten Antwort und dem nächsten Stimulus) die Wechselkosten verringern bzw. ganz auslöschen könne. Es zeigte sich jedoch auch bei einer Vorberei- tungszeit von 1200 ms ein deutlicher Rest an Wechselkosten, die so genannten residualen Wechselkosten (vgl. Rogers & Monsell, 1995; Meiran, 1996). Eine Abnahme der Wech-

(15)

selkosten war nur bis zu einer Vorbereitungszeit bis 600 ms zu beobachten, danach näher- ten sich diese asymptotisch einem bestimmten Wert an.

Rogers und Monsell (1995) sehen die Wechselkosten nicht als Produkt eines einzelnen Mechanismus, sondern sehen mehrere Prozesse am Werk – die Wechselkosten, die man unter Verwendung inkongruenter Stimuli erhebt, bestehen ihrer Meinung nach aus mindes- tens zwei Komponenten:

1. einem endogenen Rekonfigurationsprozess (z.B. Evaluationsprozesse des Hinweis- reizes, bzw. Implementierung des Aufgabenzieles) und

2. einer Restkomponente, den residualen Wechselkosten (Meiran, 1996; Rogers &

Monsell, 1995, Ruthruff, Remington & Johnston, 2001).

Rogers und Monsell (1995) schlagen ein Zwei-Komponenten Modell des Wechsels des Task-Sets vor, wobei die Wechselkosten aufgrund der Vorbereitung auf die neue Aufgabe entstehen. Eine Komponente ihres Systems besteht aus einem endogenen Kontrollmecha- nismus ("top-down" Mechanismus), der das kognitive System entsprechend den neuen Anforderungen teilweise rekonfiguriert. Die andere Komponente besteht aus Stimulus ge- triggerten Prozessen (also exogener Kontrolle bzw. "bottom-up" Kontrolle), die vorher aktivierte Prozesse der "alten" (vorhergehenden) Aufgabe hemmen und die Task-Set Re- konfiguration abschließen. Diese exogen kontrollierten Rekonfigurationsprozesse sind da- bei für die Entstehung der residualen Wechselkosten verantwortlich, wobei die Dauer die- ser Prozesse von der Menge an proaktiver Interferenz durch die "alte" Aufgabe abhängt – es ist ein aktiver Mechanismus am Werk, der das kognitive System auf die geänderten An- forderungen einstellt. Die Wechselkosten sind hier Ausdruck der Dauer eines stufenartigen exekutiven Kontrollprozesses, der das kognitive System auf die kommende Aufgabe vor- bereitet. Jedoch kann dieser Prozess nicht vor Ankunft des ersten neuen Stimulus abge- schlossen werden.

Im Gegensatz zu dem bei Rogers und Monsell (1995) postulierten Vorhandensein zweier Komponenten im Prozess der Entstehung der Wechselkosten sehen andere Theorien zur Erklärung der Entstehung der Wechselkosten einen einzelnen Prozess/eine einzelne Kom- ponente in der Entstehung eben jener am Werke.

(16)

1.3.2. Aktivierungs-/Inhibitionsansätze

Einige Forscher sehen den Ursprung der Wechselkosten in der persistierenden Aktivie- rung/Inhibition des jeweils vorhergehenden Task-Sets nach einem Aufgabenwechsel; somit sind proaktive Effekte der Aufgabenausführung im vorangegangenen Durchgang für die Entstehung der Wechselkosten verantwortlich. Allport, Styles und Hsieh (1994) schlugen das Konzept der Task-Set Trägheit ("task set inertia") zur Erklärung der (residualen) Wechselkosten vor. Dabei gingen sie davon aus, dass ein in Aufgabe N-1 aktiviertes Task- Set auch nach einem Aufgabenwechsel noch einen bestimmten Rest an Aktivierung besitzt, der sich auf die Durchführung der nächsten Aufgabe (im Falle eines Aufgabenwechsels) nachteilig auswirkt. Weiterhin nachteilig im Rahmen eines Aufgabenwechsels kann sich auswirken, dass während der Durchführung von Aufgabe A Aufgabe B gehemmt sein muss, um eine ungestörte Bearbeitung von Aufgabe A zu gewährleisten. Kommt es nun zu einem Wechsel von Aufgabe A hin zu Aufgabe B, so steht diese Hemmung bzw. Reste dieser Hemmung der reibungslosen Durchführung von Aufgabe B im Wege (vgl. Mayr &

Keele, 2000).

Allport und Kollegen verdeutlichten ihre Überlegungen an einem Beispiel aus der For- schung zum "Stroop-Effekt" (Stroop, 1935), indem sie anführten, dass ein Wechsel von der nicht-dominanten (Farbbenennung) zur dominanten Aufgabe (Wortbenennung) besonders schwierig ist, da die dominante Aufgabe in Durchgang N-1 besonders stark gehemmt sein muss, um die nicht-dominante Aufgabe in N-1 durchführen zu können. Nach einem Wech- sel in Durchgang N besteht somit immer noch ein negativer Einfluss des "trägen" Task- Sets aus Durchgang N-1. Unterstützung erfahren die Überlegungen von Allport und Kolle- gen (1994) durch die Beobachtung itemspezifischer Wechselkosten. So konnten Allport und Wylie (2000) zeigen, dass bei einer modifizierten Version des Stroop Paradigma Sti- muli, die durch ihre Benutzung in der jeweils anderen Aufgabe "geprimt" waren, höhere Wechselkosten verursachten. Die Versuchsteilnehmer mussten häufig zwischen kurzen Blöcken aus Benennung der Farbe, in der ein Wort geschrieben ist und Benennung des Wortes hin und her wechseln. Aber nur ein Teil der Stimuli, die in der einen Aufgabe Verwendung fanden, wurden auch in der anderen Aufgabe eingesetzt. Somit war es mög- lich, die Wechselkosten bei Stimuli, die nur in einer Aufgabenart eingesetzt wurden ("un- geprimte" Stimuli) mit den Wechselkosten bei Stimuli, die bei beiden Aufgaben in Benut- zung waren ("geprimte" Stimuli) zu vergleichen.

(17)

In der Tradition von Allport und Kollegen (1994) gehen Mayr und Keele (2000) davon aus, dass der Wechsel zwischen Aufgaben der Inhibition der vorher durchgeführten Auf- gabe bedarf. Ein Wechsel hin zu einer Aufgabe, die kürzlich inhibiert wurde, ist somit auf- grund persistierender Inhibition auf dieser Aufgabe besonders schwierig.

Schuch und Koch (2003) konnten zeigen, dass diese Inhibition auf der Stufe der Antwort- selektion in Trial N-1 geschieht und in Form einer Inhibition der jeweils "falschen" Kate- gorie-Antwort Regel erfolgt. Ohne eine Antwortselektion scheinen keine residualen Wech- selkosten zu entstehen.

1.3.3. Assoziativer Lernprozess als Ursache der Wechselkosten?

Ein weiterer Ansatz zur Erklärung der Entstehung der Wechselkosten (Lern- /Assoziationsansatz) nimmt an, dass Lernmechanismen nach Aufgabenausführung die Wechselkosten verursachen. Im Kern geht es dabei um die Entstehung assoziativer Ver- bindungen zwischen einer Stimuluskategorie und einer bestimmten Antwort (bzw. die Ver- stärkung einer "category-response-rule"). So gehen Wylie und Allport (2000) davon aus, dass die Ausführung einer Aufgabe zu einer Verstärkung der Verbindung zwischen der jeweiligen Aufgabe und der Antwort führt, während die andere Aufgabe mit einer "Nicht- Antwort" verbunden wird.

Wenn ein Stimulus in einem Versuchsdurchgang mit Aufgabe A verbunden ist, nach einem Aufgabenwechsel jedoch mit Aufgabe B, so vermuten Wylie und Allport (2000), dass nichts desto trotz Task-Set A aufgerufen wird (zeitgleich neben Task-Set B). Dieser Wett- bewerb zwischen den Task-Sets führt unter Umständen zu einem längeren Antwortaus- wahlprozess, was die gesteigerten Wechselkosten erklären kann, wenn ein Stimulus zuerst in der Farbbenennungsaufgabe des Stroop Paradigmas und dann in der Wortbenennungsva- riante auftaucht.

Ähnlich geht Meiran (2000) von einer assoziativen Verbindung zwischen einem Antwort- set und einer Antwortkategorie aus, die durch das Ausführen einer Antwort verstärkt wird.

Hinweise für die Richtigkeit dieser Annahmen stammen aus der Beobachtung, dass die Menge an Wechselkosten die Häufigkeit der Ausführung einer Aufgabe abbildet (Wylie &

Allport, 2000). So könnte ein "Erstarken" der Assoziationen zwischen einer Stimuluskate- gorie einer Aufgabe (z.B. Gerade/Ungerade Einschätzung) und den jeweils geforderten Antworten (links/rechts) mit der Ausführung nachfolgender Aufgaben interferieren (All- port & Wylie, 2000; Wylie & Allport, 2000). Der Proband würde also im Laufe der Bear- beitung der Experimentalaufgabe bestimmte Zuordnungsvorschriften lernen, die jeweils

(18)

Ist eine dieser Assoziationen stärker, so wird sie die dominante Stellung in der Bestim- mung der Antwort innehaben. Konflikte zwischen solchen assoziativen Verbindungen könnten dann zu einer Zunahme in der Reaktionszeit führen, also Wechselkosten verursa- chen.

1.4. Fehler im Aufgabenwechsel und ihre Folgen

Auch die Betrachtung von Fehlern liefert Aufschluss über zugrunde liegende Funktions- mechanismen exekutiver Kontrolle und kann somit zum Verstehen der Funktionsweise des Systems der Handlungsregulation und -kontrolle beitragen.

In der Literatur werden häufig zwei Phänomene der Fehlerverarbeitung diskutiert. Zum einen ist dies die unverzügliche Fehlerverarbeitung (z.B. im Sinne einer spontanen Korrek- turantwort, vgl. Rabbitt, 1990) zum anderen werden Strategieanpassungen nach einem Fehler untersucht (messbar im Sinne einer Verlängerung der Reaktionszeit nach einem Fehler – "post-error-slowing", Rabbitt, 1966b).

Zur Bestimmung der Quelle eines Fehlers können Modelle der Antwortwahl unter Zeit- druck herangezogen werden. Diese Modelle gehen davon aus, dass eine Antwort ausgelöst wird, sobald die Aktivierung dieser Antwort (und somit der hinter dieser Antwort stehen- den Aufgabe) eine bestimmte Schwelle überschreitet. Herrscht nun ein hoher Zeitdruck, so wird ein niedrigeres Antwortkriterium (eine niedrige Schwelle zur Antwortauslösung) an- genommen (um schnell genug antworten zu können), d.h. auch die falsche Antwort kann leicht die antwortauslösende Schwelle überschreiten und eine Reaktion auslösen. In eini- gen Aufgabenwechseldesigns kommt erschwerend hinzu, dass ein (inkongruenter) Stimu- lus beide Aufgaben bzw. Antworttendenzen aktivieren kann (vgl. Rogers & Monsell, 1995;

Waszak, Hommel & Allport, 2003). Es kommt also zu einem Konflikt um die Auslösung der Antwort. Dabei wird angenommen, dass zur Lösung des Konfliktes ein zusätzlicher Prozess die irrelevante Antwort/Aufgabe unterdrücken muss. Dementsprechend können zwei Fehlertypen unterschieden werden: Einmal kann es bei Anwendung der richtigen Aufgabe zur Abgabe der falschen Antwort kommen (Antwortkonfusionen) im anderen Falle kann es dazu kommen, dass die falsche Aufgabe die Antwort determiniert (Aufga- benkonfusionen).

(19)

Betrachtet man nun die Auswirkungen, die Fehler auf die nachfolgende Performanz haben können, so lässt sich feststellen, dass sowohl der Aktivierungs-/Inhibitionsansatz als auch der Lern-/Assoziationsansatz vorhersagen, dass nur Fehler, die aus Aufgabenverwechslun- gen stammen, die Wechseleffekte beeinflussen.

Wenn Aufgabe B die Antwort bestimmt hat, obwohl eigentlich Aufgabe A durchgeführt werden sollte, so ist je nach theoretischer Sichtweise entweder die Aktivierung von Aufga- be B höher als die von Aufgabe A, oder Aufgabe B wird mit einer bestimmten Antwort assoziativ verbunden; gleichwie sind die Konsequenzen im Falle eines Aufgabenwechsels dieselben – es werden Wechselgewinne anstatt von Wechselkosten beobachtet. Eine feh- lerhafte Aufgabenausführung kann somit die nachfolgende Performanz beeinflussen. Die alleinige Betrachtung von Folgen von Fehlern hilft jedoch nicht, um zwischen dem Lern- /Assoziationsansatz und dem Aktivierungs-/Inhibitionsansatz zu unterscheiden. Solch eine Unterscheidung wird erst durch die Betrachtung von möglichen Effekten der Fehlerkom- pensation möglich. Gemäß der "Extended-Processing Hypothese" (Rabbitt & Vyas, 1981) wird die Detektion eines Fehlers dadurch bewerkstelligt, dass die Probanden die Bearbei- tung der Aufgabe nach einer Antwort fortsetzen. Fehler werden detektiert, wenn in dieser Phase die richtige Antwort aktiviert wird. Wird jedoch die richtige Antwort aktiviert, dann muss in dieser Phase auch die richtige Aufgabe aktiviert werden. Nach einem detektierten Fehler sollte somit die Aktivierungsstärke der korrekten Aufgabe genauso hoch sein, wie nach einer korrekten Antwort. Unter Berücksichtigung des Aktivierungs- /Inhibitionsansatzes sollte dies dazu führen, dass nach einem Aufgabenwechsel im Falle eines detektierten Fehlers in N-1 Wechselkosten zu erwarten sind.

Im Gegensatz dazu sagt der Lern-/Bindungsansatz keine Veränderung der Wechseleffekte durch Fehlerdetektion voraus, solange keine korrigierende Antwort ausgelöst wird, denn nur durch eine ausgeführte Antwort könnte eine neue Bindung/Verstärkung begründet werden. Die vorhergesagten Auswirkungen von Fehlern bzw. von Fehlerdetekti- on/Fehlerkorrektur können somit zur Unterscheidung zwischen Aktivierungs- /Inhibitionsansatz und Lern-/Bindungsansatz beitragen.

Diese Vorhersagen wurden von Steinhauser und Hübner (eingereicht) getestet. Sie konnten zeigen, dass Aufgabenverwechslungen in N-1 zu Wechselgewinnen in N führen, auch wenn der Fehler durch die Versuchsperson detektiert wird. Wechselkosten nach einem Fehler entstanden nur, wenn Verarbeitungsprozesse zur Erzeugung einer Korrekturantwort eingeleitet wurden. Somit konnten die Vorhersagen des Lern-/Assoziationsansatzes, nicht jedoch die der Aktivierungs-/Inhibitionshypothese bestätigt werden.

(20)

1.5. Aufgabenwechsel und Fehler – ein zusammenfassender Ausblick

Komplexe Handlungen in einer komplexen Umwelt erfordern ein Handlungsüberwa- chungssystem, das sich flexibel an verschiedene Gegebenheiten anpassen kann und in der jeweiligen Situation die richtigen Antworten produzieren kann. Eine Möglichkeit, dieses System experimentell zu untersuchen, besteht in der Verwendung des Aufgabenwechselpa- radigmas – dieses maximiert das Erfordernis exekutiver Kontrolle. Die funktionelle Archi- tektur eines solchen Systems lässt sich unter anderem dadurch untersuchen, dass man die Auswirkungen von Fehlern in diesem und auf dieses System untersucht. Fehler sind jedoch nicht alle gleich. Eine mögliche Unterscheidung ist die zwischen intensiv und weniger in- tensiv verarbeiteten Fehlern. Wenn eine Handlung als fehlerhaft identifiziert wird (z.B. von dem Handlungsüberwachungssystem), so kann man annehmen, dass diese Antwort nicht als diejenige gelernt wird, die bei nochmaligem Auftreten des Stimulus/der Aufgabe wie- der ausgeführt werden soll. Eine korrekte Antwort hingegen wird unter Umständen assozi- ativ mit dem entsprechenden Stimulus/der entsprechenden Aufgabe verbunden (vgl. Stein- hauser & Hübner, eingereicht).

Das Aufgabenwechselparadigma bietet die Möglichkeit, die unterschiedlichen Konsequen- zen von Fehlern in Abhängigkeit von der erneuten Präsentation des gerade fehlerhaft bear- beiteten Stimulus (Aufgabenwiederholung) bzw. eines Wechsel des Stimulus (Aufgaben- wechsel) zu untersuchen. Wechselkosten sind eine Konsequenz früherer Aufgabenverar- beitung, wahrscheinlich vermittelt über assoziatives Lernen. Wechselgewinne repräsentie- ren das Erlernen eines Fehlers. Auch wenn das Erlernen von Fehlern nicht verhindert wird, könnte trotzdem ein Zusammenhang zwischen der Intensität der Fehlerverarbeitung und diesem Lernen bestehen. Ob ein Fehler bemerkt wurde oder nicht, lässt sich einerseits in Form einer entsprechenden Reaktion der Versuchsperson (z.B. Tastendruck) erheben, an- dererseits bietet die "Online-Überwachung" des Handlungsüberwachungssystems eine ge- nauere Möglichkeit, diese Variable bzw. die Intensität der Fehlerverarbeitung zu erheben.

Dazu ist es notwendig, ein messbares hirnelektrisches Korrelat der Fehlerverarbeitung zu identifizieren und für diese Nutzung fruchtbar zu machen. Die Grundlagen für dieses Vor- gehen werden in den nächsten Abschnitten gelegt.

(21)

2 Die Erforschung menschlicher Handlungsfehler

Das Feld der Untersuchung von Fehlern allgemein und ihren Konsequenzen im Besonde- ren ist schon längere Zeit Thema wissenschaftlicher Betrachtungen. Fehler in menschli- chen Handlungen können sich auf unterschiedlichen kognitiven Stufen der Handlungsvor- bereitung und -ausführung ereignen. So unterscheidet Reason (1990) zwischen den Fehler- typen "mistake", "laps" und "slip", die in Verbindung mit den kognitiven Stufen der Pla- nung, Speicherung und Ausführung stehen.

Während sich "mistakes" auf einer höheren kognitiven Stufe ereignen, befinden sich

"slips" und "lapses" auf einer eher automatisch ablaufenden Ebene des kognitiven Prozes- ses. Tabelle 1 gibt einen kurzen Überblick über die Fehlertypen und die jeweils korrespon- dierende Stufe im kognitiven Verarbeitungsprozess.

Tab. 1. Klassifizierung der Fehlertypen in Bezug auf die kognitiven Stufen ihres Auftretens

Kognitive Stufe Fehlertyp

Planung "Mistakes"

Speicherung/Lagerung "Lapses"

Ausführung "Slips"

Eine mehr auf die Ebene der Informationsverarbeitung bezogene Einteilung der Hand- lungsregulation findet sich bei Rasmussen (1983). Er unterscheidet zwischen einer fähig- keitsbasierten Ebene, einer regelbasierten Ebene und einer wissensbasierten Ebene im Pro- zess der Informationsverarbeitung bzw. informationsgestützten Handlungsregulation. Da- bei korrespondieren diese Stufen der Handlungsregulation mit einer abnehmenden Ver- trautheit bezüglich der Handlungsumgebung bzw. der Aufgabe. Auf der Ebene der Fähig- keiten wird das menschliche Verhalten durch bestehende Strukturen geleitet – Fehler treten hier aufgrund intrinsischer Variabilität in der Koordination von Anforderungen auf. Be- trachtet man hingegen die regelbasierte Eben der Handlungsregulation, so lässt sich eine Leitung des Verhaltens durch gespeicherte Regeln im "wenn..., dann... Format" beobach- ten. Erkennbar ist eine solche Handlungsregulation besonders häufig im Zusammenhang mit vertrauten Fragestellungen oder Problemen. Fehler auf dieser Ebene können insbeson- dere auf die Fehlinterpretation von Situationen, die zu einer fehlerhaften Regelanwendung führen, zurückgeführt werden.

Auf der wissensbasierten Ebene der Handlungsregulation schließlich sind bewusste analy-

(22)

tionen umgehen zu können. Fehler auf dieser Stufe entstehen insbesondere durch limitierte kognitive Ressourcen oder fehlerhaftes Wissen.

Fähigkeitsbasierte Fehler kommen somit dadurch zustande, dass die Aufmerksamkeit der Person nicht auf den Gegenstand der Handlung bzw. das handlungsleitende Problem ge- richtet ist, während hingegen im Falle eines regelbasierten bzw. wissensbasierten Fehlers durchaus von einer adäquaten Aufmerksamkeitszuwendung auszugehen ist.

In typischen Untersuchungen zur Handlungsregulation wird angenommen, dass es sich bei den beobachteten Fehlern vornehmlich um "slips" handelt. Intensives Training zu Beginn der Untersuchungen sollte ein umfassendes Regellernen ermöglicht haben und somit regel- basierte bzw. wissensbasierte Fehler unwahrscheinlich werden lassen. Selbige Annahme wird auch hier zugrunde gelegt.

2.1. Prozesse menschlicher Fehlerverarbeitung

Schon in den sechziger Jahren des letzten Jahrhunderts beschäftigte sich P. Rabbitt mit der Erforschung menschlicher Handlungsfehler in einfachen Wahlreaktionsaufgaben (vgl.

Rabbitt, 1966a, b). Rabbitt beobachtete unter anderem, dass fehlerhafte Antworten un- gleich schneller abgegeben wurden als korrekte Antworten. Er zog daraus die Schlussfol- gerung, dass die Abgabe solcher Antworten erfolgte bevor die Evaluation des handlungs- auslösenden Stimulus vollständig abgeschlossen war (vgl. dazu auch Gratton, Coles, Sire- vaag, Eriksen und Donchin, 1988). Rabbitt und Vyas (1981) gingen davon aus, dass die Verarbeitung des Stimulus auch nach Antwortabgabe fortgesetzt wird und dass bei Vorlie- gen genügend anders lautender Informationen eine gegenläufige Antwort (Korrektur) aus- gelöst wird ("extended-processing-Hypothese"). Spontane, häufig sehr schnelle Korrektu- ren von Handlungsfehlern, lassen sich in vielen Paradigmen beobachten. Zum Teil werden Korrekturen bereits 20 ms nach der falschen Antwort registriert (Rabbitt, Cumming & Vy- as, 1978; Rabbitt (2002) berichtet durchschnittliche Korrekturzeiten von 250 ms). Auch wenn die Versuchsteilnehmer explizit instruiert waren, sich nicht zu korrigieren, konnte Rabbitt Korrekturantworten beobachten (Rabbitt, 1967; Rabbitt & Rogers, 1977). Da Feh- lerkorrekturen in einem Zeitraum von 40-100 ms nach einem Fehler auftreten können, wird allgemein davon ausgegangen, dass diese automatisch erfolgen (bei langsamen Korrektu- ren ist dies jedoch nicht sicher, vgl. Fiehler, Ullsperger & von Cramon, 2005). Es treten jedoch auch bewusst erkannte Fehler auf: So konnte Rabbitt (2002) zeigen, dass Probanden rund 700 ms benötigen, um einen Fehler bewusst zu erkennen (die Probanden erkannten 79% der Fehler) und durch einen Tastendruck zu signalisieren (vgl. auch Rabbitt, 1966a, b,

(23)

1967, 1968; vgl. auch Steinhauser & Hübner, eingereicht). Betrachtet man die Versuchs- durchgänge, die nach einem Fehler erfolgen, so kann man einen deutlichen Anstieg der Reaktionszeiten in diesen "Nach-Fehler" Durchgängen beobachten. Rabbitt (1966b) be- zeichnete diese Verlangsamung als "post-error-slowing" und nahm an, dass dieses Verhal- ten Ausdruck der Bemühung ist, künftige Fehler zu vermeiden, indem man sich mehr Zeit für eine korrekte Antwort nimmt (vgl. auch Laming, 1968). Zusammengenommen legen diese Befunde die Existenz eines internen Fehlerdetektionsmechanismus nahe, der die menschliche Handlungsausführung zeitnah überwacht und gegebenenfalls Korrekturen einleitet.

Prozesse der Fehlerdetektion und ggf. Fehlerkorrektur bzw. der Intensität der Fehlerverar- beitung sollten sich nicht nur auf der behavioralen Ebene zeigen lassen, sondern sie sollten sich auch in der hirnelektrischen Aktivität (beispielsweise mittels ereigniskorrelierter Po- tentiale (EKP)) eines Menschen sichtbar machen lassen. Insbesondere im Zusammenhang mit neueren Erkenntnissen zu den behavioralen Konsequenzen von Handlungsfehlern (vgl.

Steinhauser & Hübner, eingereicht) ergeben sich hieraus interessante Fragestellungen für die Untersuchung elektrophysiologischer Korrelate der Fehlerverarbeitung – so könnte die ERN im Sinnes eines Feedbacksignals die Etablierung bzw. Verstärkung einer assoziativen Verbindung zwischen dem Stimulus/der Aufgabe und der Antwort verhindern, was eine erneute Ausführung dieser Antwort bei Konfrontation mit demselben Stimulus unwahr- scheinlicher werden lässt. Wird der Fehler hingegen weniger gut entdeckt, was sich in ei- ner kleineren ERN äußern könnte, so wird unter Umständen eine Verbindung zwischen dem Stimulus/der Aufgabe und der Antwort geschaffen, die sich bei einer erneuten Bear- beitung dieses Stimulus/dieser Aufgabe als hinderlich erweisen könnte. Es lassen sich demnach unterschiedliche Konsequenzen intensiv und weniger intensiv verarbeiteter Feh- ler vermuten.

2.2. Elektrophysiologische Korrelate der Fehlerverarbeitung

Auf der Ebene hirnelektrischer Prozesse begann die Fehlerforschung Anfang der neunziger Fuß zu fassen. Zwei unabhängige Forschergruppen (Falkenstein et al., 1990; Gehring et al., 1993) entdeckten Anfang der Neunziger Jahre des letzten Jahrhunderts eine Negativierung im menschlichen Elektroenzephalogramm (EEG; Amplitude bis zu 15µV (Gehring et al., 1993)), die 50-100 ms nach einer fehlerhaften Antwort in einer Wahlreaktionsaufgabe (im Sinne Reasons (1990) handelt es sich hierbei um einen "slip"; eine ERN nach einem

(24)

"mistake" ist hingegen nicht zu beobachten (Tucker, Liotti, Potts, Russell & Posner, 1993/1994)) ihr Maximum erreicht und eine frontozentrale Verteilung aufweist. Der Be- ginn der Entwicklung dieses Potentials liegt jedoch schon kurz nach dem Einsetzen der elektromyographischen Aktivität die zu der fehlerhaften Handlung führt. Sie nannten die- ses ereigniskorrelierte Potential "error related negativity" (ERN; Gehring et al., 1993) bzw.

"error negativity" (Ne; Falkenstein et al., 1990; im weitern Verlauf der vorliegenden Arbeit wird aus Gründen der Übersichtlichkeit die Bezeichnung ERN verwendet). Gefolgt wird diese Negativierung von einem positiven Potential, welches ein eher parietales Maximum aufweist und in einem Zeitfenster von 200-500 ms nach dem inkorrekten Tastendruck zu beobachten ist. Gemeinhin wird dieses Potential als "error positivity" (Pe, Falkenstein et al., 1990) bezeichnet.

Die ERN tritt nicht nur nach einem vollständig ausgeführten Fehler auf, sondern auch nach einer nur teilweisen Aktivierung der fehlererzeugenden Muskulatur, auch wenn diese Ak- tivierung nicht die für eine Reaktion erforderliche Stärke erreicht (sogenannte "partial- errors"); die Pe hingegen ist nur nach vollständig ausgeführten Fehlern zu beobachten (Vi- dal, Hasbroucq, Grapperon & Bonnet, 2000).

Die ERN lässt sich in den verschiedensten Antwortmodalitäten beobachten. So konnte sie für fehlerhafte Fußbewegungen (Holroyd, Dien & Coles, 1998), fehlerhafte vokale Aktivi- tät (Masaki, Tanaka, Takasawa & Yamazaki, 2001) und Augenbewegungen (Nieuwenhuis, Ridderinkhof, Blom, Band & Kok, 2001; Van`t Ent & Apkarian, 1999) sowie fehlerhafte Handbewegungen gezeigt werden. Bedeutsam ist auch die Beobachtung, dass eine ERN durch Feedback (unabhängig von der Modalität der Feedbackpräsentation – auditorisch, visuell oder somatosensorisch), welches die inkorrekte Ausführung einer Aufgabe signali- siert, ausgelöst werden kann (Miltner, Braun & Coles, 1997). In Experimenten hingegen, wo den Versuchsteilnehmern nicht genug Information zur Detektion eines Fehlers zur Ver- fügung stand, konnte eine ERN nur im Zusammenhang mit informativem Performanzfeed- back gezeigt werden (Scheffers & Coles, 2000; Coles, Scheffers & Holroyd, 2001; Hol- royd & Coles, 2002). Die ERN ist sowohl bei Fehlern in der Antwortauswahl als auch bei solchen der Antwortinhibition zu beobachten (Scheffers, Coles, Bernstein, Gehring &

Donchin, 1996) und bei verspäteten Antworten, wenn die Geschwindigkeit der Antwort betont wird (Luu, Flaisch & Tucker, 2000).

Die Amplitude und Latenz der ERN kann durch verschiedenste experimentelle Manipula- tionen beeinflusst werden. So fanden sich Variationen aufgrund unterschiedlicher indivi-

(25)

dueller Fehlerbedeutsamkeit (Ullsperger & Szymanowski, 2004), aufgrund unterschiedli- cher Fehlerdetektierbarkeit (Bernstein, Scheffer & Coles, 1995) oder unterschiedlichen Zeitdrucks (Falkenstein, Hoormann, Christ & Hohnsbein, 2000).

Die Amplitude der ERN lässt sich auch durch die Aufgabenschwierigkeit manipulieren: So konnte eine Reduktion der Amplitude der ERN bei einer leichten Aufgabe (Flanker-Task;

vgl. Eriksen & Eriksen, 1974) im Vergleich zu einer schweren Aufgabe (Stroop-Task; vgl.

Stroop, 1935) gefunden werden (West & Alain, 1999). Weiterhin nimmt die Deutlichkeit bzw. Detektierbarkeit des Fehlers Einfluss auf die Amplitude der ERN. So erzeugen deut- liche, einfach zu detektierenden Fehler eine größere Amplitude der ERN als dies kleinere, leichter zu übersehende Fehler tun (vgl. Falkenstein, Hoormann, Christ & Hohnsbein, 2000). Ferner konnten Bernstein und Kollegen (1995) zeigen, dass ein Fehler, der in zwei- erlei Hinsicht fehlerhaft war (die Reaktion erfolgte mit dem falschen Finger der falschen Hand = Doppelfehler) eine größere ERN Amplitude erzeugen konnte als ein "einfacher"

Fehler. Die Amplitude der ERN ist hingegen reduziert nach einem Fehler der in Antwort auf einen selten präsentierten Stimulus auftritt (Holroyd & Coles, 2002).

Die Höhe der Amplitude der ERN scheint auch Einfluss auf das Korrekturverhalten der Probanden zu nehmen. Gehring und Kollegen (1993) berichten, dass eine positive Korrela- tion zwischen der Amplitude der ERN und der Wahrscheinlichkeit, dass ein Fehler sofort korrigiert wird, besteht. Eine größere ERN Amplitude kann beobachtet werden, wenn der Fehler schnell korrigiert wird im Gegensatz zu einer langsamen Fehlerkorrektur (Rodrigu- ez-Fornells, Kurzbuch & Münte, 2002; siehe aber Fiehler et al. (2005) für abweichende Befunde). Zusammengenommen zeichnen diese Hinweise das Bild eines hoch flexiblen Fehlerverarbeitungssystems, das durch Fehler in vielfältigen Antwortmodalitäten angeregt flexibel und individuell verschieden auf Fehler reagiert.

Neuere Überlegungen zur strukturellen/funktionellen Architektur der ERN gehen in die Richtung, dass sich diese aus verschiedenen Komponenten zusammensetzt:

1. einer generellen Komponente, die unabhängig von richtig oder falsch einer Antwort und unabhängig von der Aufgabe vorhanden ist ("correct related negativity", "cor- rect negativity" (CRN/Nc)) und

2. der wahren ERN, die von der Korrektheit der Antwort und der Aufgabe abhängig ist.

(26)

Hinweise in diese Richtung kommen zum Beispiel von Yordanova und Kolev (2004), die mittels einer Komponentenanalyse zeigen konnten, dass die ERN aus verschiedenen Kom- ponenten besteht.

Verschiedene Handlungsüberwachungsmodelle versuchen, die Entstehung und die funkti- onelle Signifikanz der ERN zu entschlüsseln. Im Folgenden werden die wesentlichen An- sätze kurz erläutert.

2.2.1. Die Mismatch Hypothese

Hierbei wird die ERN als Korrelat der Entdeckung einer Abweichung zwischen einer tat- sächlich erfolgten Antwort und einer korrekten Antwortrepräsentation gesehen. Hierzu wird die tatsächlich getätigte Antwort mit einer Repräsentation der eigentlich korrekten Antwort vergleichen. Die Repräsentation der korrekten Antwort entsteht dabei durch das Verbinden des Stimulus mit der passenden Antwort, d.h. es sind eine vollständige Stimu- lusevaluation und eine korrekte Anwendung des Task-Set erforderlich, um eine Repräsen- tation der eigentlich korrekten Antwort zu erhalten. Nach Gehring und Kollegen (Gehring, Goss, Coles, Meyer & Donchin, 1993) ist die Repräsentation der abgegebenen Antwort eine Efferenzkopie derjenigen Signale, die vom motorischen Cortex ausgehend die Hand- lung ausgelöst haben. Gegen eine Nutzung propriozeptiver oder sensorischer Feedbackin- formationen durch das Fehlerdetektionssystem spricht das schnelle Entstehen der Negati- vierung kurz nach Antwortabgabe, bevor eine Verarbeitung von Feedbackinformationen statt gefunden haben kann. So lassen sich spontane Korrekturen bereits in einem Zeitbe- reich von unter 100 ms (Rabbitt & Rogers, 1977) finden, was klar gegen eine Nutzung von Feedbackinformationen in der Fehlerdetektion spricht.

Hinweise für die Gültigkeit dieser Sichtweise der Entstehung der ERN kommen vor allem aus dem Bereich von Untersuchungen, die mittels einer eingeschränkten Repräsentation der korrekten Antwort (RCR) versuchten, die ERN zu modulieren. So ist die ERN verzö- gert für unkorrigierte Fehler, bei welchen die RCR unter Umständen beeinträchtigt ist (Falkenstein, Hoormann & Hohnsbein, 1997; Fiehler et al., 2005). Eine kleinere ERN konnte unter starkem Zeitdruck beobachtet werden, eventuell ebenfalls bedingt durch eine Beeinträchtigung der RCR (Falkenstein et al., 1990). Weiterhin für die Annahme der Feh- lerdetektionshypothese spricht die Beobachtung, dass die ERN verzögert und in der Ampli- tude geringer ist bei unkorrigierten Fehlern (Falkenstein, Hohnsbein & Hoormann, 1996).

Anzunehmen ist, dass im Falle unkorrigierter Fehler selbiger schwerer zu erkennen war/ist und somit keine Korrekturantwort erfolgte. Ähnliches lässt sich auch bei hohem Zeitdruck

(27)

in der Bearbeitung der Aufgabe feststellen: Die ERN weist eine geringere Amplitude auf (Gehring et al., 1993), eventuell da der hohe Zeitdruck ein Erkennen des Fehlers erschwert.

Ist sich die Versuchsperson sicher, die richtige Antwort abgegeben zu haben, so lässt sich ebenfalls eine reduzierte ERN beobachten (Scheffers & Coles, 2000). Vermutlich ist auch in diesem Falle die Fehlererkennung beeinträchtigt. Ferner liefert die Tatsache, dass die Amplitude der ERN bei einem leicht zu entdeckenden Fehler (wo die Abweichung zwi- schen tatsächlicher und geforderter Antwort besonders hoch ist) größer ist als bei einem

"einfachen" Fehler (der eine kleinere Abweichung zwischen den zu vergleichenden Ant- worten aufweist) Unterstützung für die Fehlerdetektionshypothese der Entstehung der ERN (vgl. z. B. Bernstein et al., 1995).

Ausgehend von den zuvor skizzierten Befunden und Überlegungen entwarfen Coles, Scheffers und Holroyd (2001) ein zweistufiges Modell der Fehlerverarbeitung. Die erste Stufe besteht dabei aus einem Modul, welches die Efferenzkopie der abgegebenen Hand- lung mit der geforderten Handlung vergleicht (wobei diese noch nicht vollständig vorlie- gen muss). Findet dieses Modul eine Diskrepanz, so sendet es ein Signal an ein weiteres Modul, welches dann wiederum Korrekturhandlungen einleitet bzw. die Antwortstrategie entsprechend den neuen Erkenntnissen anpasst, um künftig Fehler zu vermeiden.

In jüngerer Zeit, ausgehend von neueren Befunden (Vidal et al., 2000), erweiterten Falken- stein, Hielscher, Dziobek, Schwarzenau, Hoormann, Sundermann und Hohnsbein (2001) die Fehlerdetektionshypothese der ERN. Sie gingen dabei von der Überlegung aus, dass auch nach einem korrekt beantworteten Versuchsdurchgang ein Vergleichsprozess zwi- schen tatsächlicher und geforderter Antwort nötig ist. Diese Annahme fand Bestätigung durch die Beobachtung einer kleinen Negativierung, die der ERN ähnelt, und nach korrek- ten Versuchsdurchgängen zu beobachten ist ("correct related negativity"(CRN); Ford, 1999; Vidal et al., 2000). Falkenstein et al. (2001) schlossen daraus, dass die ERN nicht das Ergebnis des Vergleichsprozesses zwischen intendierter und tatsächlicher Antwort repräsentiert, sondern vielmehr den Vergleichsprozess an sich. Falkenstein und Kollegen weisen jedoch auch darauf hin, dass es als Erklärung für die höhere ERN Amplitude nach einem Fehler nicht unbedingt einsichtig ist, warum der Vergleichsprozess zur Entdeckung eines Fehlers intensiver sein sollte. Denkbar wäre hier die Alternativerklärung, dass die ERN-ähnliche Negativierung nach einer korrekten Antwort tatsächlich einen Vergleichs- prozess abbildet, und die ERN in einem Fehlerdurchgang diesen Vergleichsprozess plus ein überlagerndes Fehlersignal beinhaltet (vgl. auch Yordanova & Kolev, 2004).

(28)

2.2.2. Das Antwortkonfliktmodell

Im Sinne der Fehlerdetektionshypothese sollte in einem korrekt beantworteten Versuchs- durchgang keine ERN zu beobachten sein, also auch keine Aktivierung in Hirnstrukturen, die mit der Generierung der ERN in Zusammenhang gebracht werden. In einer bildgeben- den Studie zeigte sich jedoch auch in korrekt beantworteten Versuchsdurchgängen Aktivie- rung in der Umgebung des anterioren cingulären Cortex (ACC) im frontomedianen Cortex, der häufig mit der Generierung der ERN in Verbindung gebracht wird (Carter, Braver, Barch, Botvinick, Noll & Cohen, 1998). Carter und Kollegen schlossen aus diesen Befun- den, dass das erhöhte Konfliktpotential der Aufgabe, d.h. die starke Konkurrenz zwischen den Antwortalternativen, zu diesem Aktivierungsmuster führte (aufgrund experimenteller Manipulationen kann die Aktivierung im frontomedianen Cortex allerdings auch auf Unsi- cherheit in der Stimulusevaluation/-enkodierung zurückzuführen sein; vgl. Ullsperger &

von Cramon, 2004). Der Umgang mit Konflikten in der Informationsverarbeitung ist eine zentrale Funktion kognitiver Kontrolle (vgl. zum Beispiel Normann & Shallice, 1986). Der ACC würde im vorliegenden Falle den Informationsverarbeitungsprozess im Hinblick auf eventuell in diesem vorhandene Konflikte überwachen. Das Antwortkonfliktmodell geht davon aus, dass die ERN einen Konflikt zwischen Antwortrepräsentationen widerspiegelt.

Die ERN ist demnach nicht spezifisch für Fehler sondern hängt von der Menge an Konflikt ab. Computersimulationen (Botvinick, Braver, Barch, Carter & Cohen, 2001) zeigten, dass man vor allem in der Zeit nach der Antwortabgabe in inkorrekt beantworteten Versuchs- durchgängen einen höheren Konflikt beobachten kann als in korrekt beantworteten Durch- gängen. Hierzu sind ergänzend Befunde von Gratton, Coles, Sirevaag, Eriksen & Donchin (1988) zu nennen, die mittels lateralisierter Bereitschaftspotentiale (LRP) zeigen konnten, dass die Stimulusevaluation, die zu der korrekten Antwort führen würde, zum Zeitpunkt der Abgabe der inkorrekten Antwort noch nicht abgeschlossen ist. Die neuronale Reprä- sentation der korrekten Antwort hat zum Zeitpunkt der Fehlerauslösung also noch nicht ihre volle Stärke erreicht. Der größte Konflikt zwischen den Antworttendenzen ist dem- nach auch erst nach dem Fehler zu erwarten, wenn auch die korrekte Antwort in vollem Umfang repräsentiert ist. Die ERN sollte, folgt man dieser Sichtweise, auch nach einer an sich korrekten, jedoch in einem inkompatiblen Versuchsdurchgang (hoher Konflikt) erfolg- ten Antwort zu beobachten sein. Betrachtet man solche Versuchsdurchgänge auf die Ant- wort bezogen, so zeigt sich jedoch keine Negativierung bei korrekten Antworten in einem inkompatiblen Versuchsdurchgang (Scheffers & Coles, 2000; Ullsperger & von Cramon, 2001). Betrachtet man das Ganze jedoch auf den Stimulus bezogen, so ist häufig eine klei-

(29)

ne Negativierung im Zeitbereich von ca. 250 ms nach Präsentation des Stimulus (N2) beim Vergleich zwischen inkompatibeln und kompatibeln Versuchsdurchgängen zu beobachten, wobei diese in inkompatibeln Versuchdurchgängen erhöht ist.

Yeung, Cohen und Botvinick (2004) interpretieren diesen Befund dahingehend, dass diese N2 das Korrelat für einen zugrunde liegenden Antwortkonflikt ist. Es ist wahrscheinlich, dass ein ERP-Korrelat für Antwortkonflikt in einer stimulusbezogenen Auswertung des EEG zu finden ist. Die N2 (die auch in korrekt beantworteten Versuchsdurchgängen zu finden ist) könnte ein mögliches Maß für Antwortkonflikt darstellen (vgl. auch van Veen &

Carter, 2002; Nieuwenhuis, Yeung, van den Wildenberg & Ridderinkhof, 2003). Unter- stützend für diese Sichtweise konnten Liotti, Woldorff, Perez und Mayberg (2000) die Quelle der N2 Komponente im ACC lokalisieren.

Es finden sich jedoch auch Befunde, die gegen die Theorie des Antwortkonfliktes als Grundlage der ERN sprechen. Bei inkompatiblen Versuchsdurchgängen, die mit einem Fehler beantwortet werden, sollte der Konflikt am größten sein. Betrachtet man solche Durchgänge jedoch unter Hinzuziehung lateralisierter Bereitschaftspotentiale (LRP; diese zeigen den Zeitverlauf antwortbezogener Aktivierung in beiden Antwortkanälen), so zeigt sich ein anderes Bild. Der Konflikt, den man nun in den LRP beobachten konnte war im- mer kleiner bei Fehlerdurchgängen als in korrekten Durchgängen bei inkompatiblen Stimu- li (Falkenstein et al., 2000).

2.2.3. Die Dopaminhypothese

Miltner, Braun und Coles (1997) konnten eine ERN nach Gabe eines negativen Feedbacks beobachten. In Anlehnung an die daraus gefolgerte Bedeutsamkeit eines Feedbacks erwei- terten Holroyd und Coles (2002) die Fehlerdetektionshypothese dahingehend, dass nicht nur eine Diskrepanz zwischen einer abgegebenen Antwort und der korrekten Antwortrep- räsentation eine ERN hervorrufen kann, sondern dass generell eine ERN erzeugt wird, wenn ein Ergebnis negativer ausfällt als erwartet. Die Diskrepanz entsteht also zwischen dem tatsächlichen und dem erwarteten Ergebnis, häufig begeleitet von dem Ausbleiben einer Belohnung.

Ein Fehler ist demnach ein Ereignis, welches das Ausbleiben einer Belohnung signalisiert ("error in reward prediction"). Hinweise für die Richtigkeit dieser Überlegungen kommen dabei aus Studien mit einem "gambling-task" Paradigma, in welchem eine ERN nach ei-

(30)

nem Feedback, das suboptimale Performanz signalisierte, beobachtet werden konnte (Geh- ring & Willoughby, 2002).

Die angenommene wichtige Rolle des mesenzephalischen Dopaminsystems in der Gene- rierung der ERN stützt sich auf Beobachtungen von Schultz (1998), der bei Affen das Ler- nen einer Aufgabe in Verbindung mit Präsentation bzw. Entzug einer Belohnung unter- suchte. Schultz (1998) konnte zeigen, dass die Präsentation der Belohnung bei den Affen einen phasischen Aktivitätsanstieg des dopaminergen Systems im Mesenzephalon auslöst, welcher bei fortschreitender Konditionierung auch bereits vor der Präsentation der Beloh- nung beobachtet werden konnte. Die Präsentation eines Reizes, der eine Belohnung vor- hersagte, reichte aus, um die beschriebene dopaminerge Aktivität auszulösen. Die Aktivität der dopaminergen Neurone verringert sich jedoch wenn die erwartete Belohnung ausbleibt.

Schultz zog aus diesen Beobachtungen den Schluss, dass die Dopmaninneurone des Me- senzephalon sensitiv sind für Veränderungen in Belohnungskontingenzen. Ist die Verände- rung besser als erwartet erfolgt eine Ausschüttung von Dopamin, ist die Veränderung hin- gegen schlechter, so verringert sich die dopaminerge Aktivität (Schultz, 2000; Schultz &

Dickinson, 2000).

Holroyd und Coles (2002) übertrugen diese Beobachtung nun auf den Menschen und äu- ßerten die Vermutung, dass ein Ausbleiben einer Belohnung (also ein Fehler in der Vor- hersage einer Belohnung, der von den Basalganglien entdeckt wird) und die damit verbun- dene Reduktion der dopaminergen Aktivität zu einer Depolarisierung apikaler Dendriten im ACC führt, welche wiederum in der Summe an der Schädeloberfläche als ERN gemes- sen werden kann. Unterstützung erfährt diese Vermutung dabei weiterhin durch die Beo- bachtung, dass der ACC zahlreiche Projektionen aus dem limbischen System bündelt.

Vielfältige Projektionen des ACC in den motorischen Kortex wiederum ermöglichen es diesem, Handlungen zu kontrollieren, was insbesondere im Rahmen von korrigierenden Antworten nach Fehlern eine wesentliche Rolle spielen kann. Der ACC kann so ausgehend von einem Fehlersignal die Performanz des Systems in Übereinstimmung mit den Prinzi- pien des Verstärkungslernens optimieren. Das Fehlersignal als Ausgangspunkt dieses Ver- stärkungslernens entsteht dabei durch einen Vergleich zwischen erwartetem und tatsächli- chem Ausgang einer Handlung, welcher wie bereits erwähnt wahrscheinlich in den Basal- ganglien vorgenommen wird.

Die Idee, dass das dopaminerge System in der Generierung der ERN eine wichtige Rolle spielt wird dabei durch Untersuchungen an alten Menschen bzw. Parkinson-Patienten un- terstützt. Alte Menschen weisen eine generelle Beeinträchtigung des dopaminergen

(31)

nigrostriatalen Systems auf, was zu einer Reduktion der ERN in verschiedenen Aufgaben führt (Falkenstein et al., 2000; vgl. auch Band & Kok, 2000). Auch bei Parkinson- Patienten, die ebenfalls von einer reduzierten Dopaminaktivität durch Schädigung der Do- paminneurone des Mittelhirns betroffen sind, konnte eine Reduktion der ERN gefunden werden (West & Alain, 1999).

Die Funktion der ERN wird von der Dopaminhypothese in der Auslösung korrigierender Handlungen gesehen. Solche Handlungen können dazu dienen, den Fehler zu inhibieren oder zu korrigieren, oder die Fehlerrate in nachfolgenden Durchgängen zu senken, also die Performanz im Sinne eines Lernprozesses über die Zeit hinweg zu optimieren.

2.3. Error Positivity

Deutlich weniger Aufmerksamkeit seitens der Forschung wurde bislang der "error positivi- ty" (Pe, Falkenstein et al., 1990) gewidmet. Sie lässt sich 300-500 ms nach der Fehlerreak- tion beobachten. Nieuwenhuis und Kollegen (2001) konnten mit einer Antisakkadenaufga- be zeigen, dass das Auftreten einer Pe vom bewussten Erkennen des Fehlers abhängt (im Gegensatz zur ERN, die auch nach einem unbewussten Fehler auftritt). Die Pe scheint also einen Vorgang zu reflektieren, der unabhängig von der ERN auftritt. Es werden verschie- dene Ansätze die funktionale Signifikanz der Pe zu bestimmen, diskutiert.

2.3.1. Bewusste Fehlerdetektion

Falkenstein und Kollegen (2000; vgl. auch Nieuwenhuis et al., 2001) sehen in der Pe das Korrelat einer bewussten Fehlerdetektion durch die Versuchsperson. Unterstützung für diese Sichtweise kommt aus Studien, bei denen eine reduzierte Pe bei höherer Aufgaben- schwierigkeit beobachtet werden konnte, bei welcher Fehler also schwieriger bewusst zu entdecken waren. Auf der anderen Seite konnte eine reduzierte Pe bei älteren Menschen beobachtet werden, obwohl diese über ein normales "post-error-slowing" (Rabbitt, 1966b) verfügten – welches bewusster Fehlerdetektion bedarf. Der letzte Befund spricht deutlich gegen die Hypothese der bewussten Fehlerdetektion als Ursache der Entstehung der Pe.

2.3.2. Anpassung der Antwortstrategie

Nieuwenhuis und Kollegen (2001) diskutieren die Pe als Ausdruck der Anpassung der Antwortstrategie nach einem Fehler. Eine solche Anpassung könnte sich zum Beispiel im

"post-error-slowing" (Rabbitt, 1966b) widerspiegeln, welches als Ausdruck einer vorsich- tigeren Reaktionsstrategie zur Vermeidung weiterer Fehler gesehen werden kann. Es fan-

Referenzen

ÄHNLICHE DOKUMENTE

Atresie kann zwar als Antwort auf die toxische Wirkung beobachtet werden (Dierschke et al., 1994), beispielsweise nach Phenol-Exposition von Zebrabärblingen (Razani et al., 1986),

Eine Ausnahme stellen die Bücher des Exilukrainers Michael Hanusiak zur ukrainischen Kollaboration dar, die sich zum Teil auf (an sich damals unzugängliche) sowjetische