• Keine Ergebnisse gefunden

Für eine fehlerfreie Durchführung komplexer Handlungen ist es häufig notwendig, deren Durchführung zu überwachen. Das Ziel einer fehlerfreien Performanz kann dabei über das schrittweise Erlernen einer Bearbeitungsregel für den Umgang mit bestimmten Stimuli (Task-Set) realisiert werden. Im Zuge dieses Lernprozesses ist es für das Handlungsüber-wachungssystem wichtig, Handlungsfehler als solche zu erkennen und dafür zu sorgen, dass diese nicht gelernt werden, d.h. bei einem erneuten Auftreten desselben Stimulus (derselben Aufgabe) nicht noch einmal ausgeführt werden. Verschiedene Faktoren können die Arbeit dieses Überwachungssystems beeinflussen, so dass nicht immer eine intensive Verarbeitung eines Fehlers gewährleistet ist. Diese mangelhafte Intensität der Fehlerverar-beitung wiederum kann der Versuchsperson im Sinne einer falsch verstärkten Bearbei-tungsregel bei der Durchführung des nächsten Versuchsdurchgangs hinderlich sein – so formulieren Wylie und Allport (2000) die Annahme, dass sich Wechselkosten in der Durchführung eines Aufgabenwechselparadigmas auf das Verstärken einer (in diesem Fall fehlerhaften) Assoziation zwischen einer Stimuluskategorie und einer Antwort zurückfüh-ren lassen. Wird der Fehler dagegen von dem Handlungsüberwachungssystem als solcher erkannt und intensiv verarbeitet, so wird dieser nicht gelernt und es entstehen keine Nachteile bei einer erneuten Bearbeitung des zuvor fehlerhaft bearbeiteten Stimulus bzw.

der zuvor fehlerhaft bearbeiteten Aufgabe; es liegt also nahe zu vermuten, dass sich inten-siv und weniger inteninten-siv verarbeitete Fehler hinsichtlich ihrer Konsequenzen auf den nächsten Versuchsdurchgang unterscheiden. Ein messbares Korrelat der Intensität der Feh-lerverarbeitung ist die ERN, ein auf die fehlerhafte Antwort bezogenes ereigniskorreliertes Potential (Falkenstein et al., 1990) im menschlichen EEG. Geht man von der Annahme aus, dass die Amplitude der ERN in einem direkten Verhältnis zur Intensität der Fehlerver-arbeitung steht, so ist zu vermuten, dass sich eine weniger intensive FehlerverFehlerver-arbeitung in einer niedrigen, eine intensive Fehlerverarbeitung dagegen in einer hohen ERN Amplitude niederschlägt. Wenn nun die Intensität der Fehlerverarbeitung einen Einfluss auf das Ler-nen (bzw. die Stärke der Assoziation) der Aufgabe-Antwort Verbindung nimmt, so steht zu vermuten, dass die ERN in Beziehung zu einer möglichen Beeinflussung nachfolgender Versuchsdurchgänge durch gerade Gelerntes/Nicht-Gelerntes steht. Diese theoretischen Überlegungen (vgl. Steinhauser & Hübner, eingereicht; Wylie & Allport, 2000; Holroyd &

Coles, 2002) bildeten die Grundlage der vorliegenden Untersuchung.

Bei der Bearbeitung eines Aufgabenwechselparadigmas mit ausschließlich inkongruenten Stimuli wurde von 20 gesunden Versuchspersonen das EEG gemessen. Ziel dabei war es, das Vorhandensein bzw. die Amplitude der ERN und der Pe als ein Korrelat der Tätigkeit eines Handlungsüberwachungssystems (Gehring et al, 1993; Falkenstein et al., 1990) zu bestimmen, um diese dann in Beziehung setzen zu können zu den Faktoren Genauigkeit der nachfolgenden Aufgabenbearbeitung und Aufgabenwechsel/Aufgabenwiederholung.

Für den Bereich der behavioralen Daten (Genauigkeiten und Fehlerraten) wurden dabei folgende Zusammenhänge vermutet:

1. Im Falle eines Aufgabenwechsels nach einer korrekt beantworteten Aufgabe in N-1 lassen sich Wechselkosten beobachten

2. Im Falle eines Aufgabenwechsels lassen sich nach einer fehlerhaft beantworteten und nicht korrigierten Aufgabe in N-1 Wechselgewinne beobachten

Für die elektrophysiologischen Daten wurden als Grundlage für die weiteren Auswertungs-schritte folgende Hypothesen aufgestellt:

1. Nach einem Fehler lässt sich eine Negativierung mit frontozentralem Maximum, 20-120 ms nach dem Fehler, die ERN, beobachten

2. Es lässt sich eine Positivierung, 250-500 ms nach der Fehlerreaktion mit einem mehr posterioren Maximum, die Pe, beobachten

Folgende Zusammenhänge wurden schließlich für die Klärung der Frage, ob sich das (Antwort-) Verhalten der Versuchsteilnehmer nach einem intensiv verarbeiteten Fehler von dem Verhalten nach einem weniger intensiv verarbeiteten Fehler unterscheidet, angenom-men:

1. Wenn es eine niedrige ERN gibt, das Gehirn den Fehler also nicht so intensiv ver-arbeitet hat und dieser verstärkt werden konnte, dann gibt es bei einer Aufgaben-wiederholung Wiederholungskosten, bei einem Aufgabenwechsel jedoch starke Wechselgewinne.

2. Bei einer hohen ERN hingegen hat das Handlungsüberwachungssystem den Fehler intensiv verarbeitet und somit verhindert, dass dieser gelernt werden konnte – also

ist nach einer Aufgabenwiederholung mit Wiederholungsgewinnen zu rechnen und nach einem Aufgabenwechsel mit Wechselkosten.

Um diese Vermutungen zu untersuchen wurden die Verhaltensdaten, die elektrophysiolo-gischen Daten sowie die Daten aus einer Kombination beider in der Auswertung der vor-liegenden Untersuchung berücksichtigt. Die Betrachtung der Verhaltensdaten liefert insge-samt ein gemischtes Bild; während sich in der Betrachtung der Reaktionszeiten die vermu-teten Wechselgewinne nach einem Fehler in N-1 zeigen, lassen sich signifikante Wechsel-kosten alleine in den sehr langsamen Antworten finden. Etwas klarer stellen sich die Wechselkosten nach einer korrekten Antwort in N-1 bei der Betrachtung der Genauigkei-ten dar: Hier gibt es in den 60%, 80% und 100% Reaktionszeitperzentilen signifikante Wechselkosten zu beobachten. Annähernd signifikante Wechselgewinne nach einem Feh-ler in N-1 gibt es hingegen nur in Reaktionszeitperzentil 80%. Die angenommen Zusam-menhänge zu den behavioralen Daten konnten somit nur teilweise gestützt werden.

10.1. Antwortwiederholungseffekte in den Genauigkeiten

Steinhauser & Hübner (eingereicht) konnte in ihren Studien zeigen, dass nach korrekten Antworten in N-1 starke Antwortwiederholungskosten zu beobachten sind, ohne dass es zu einer Interaktion mit dem Faktor Aufgabenwechsel/-wdh. gekommen ist. Die vorliegenden Ergebnisse zu Antwortwechsel/-wdh. zeichnen ein ähnliches Bild: Nach einer korrekten Antwort in N-1 sind deutliche Antwortwiederholungskosten (in den Genauigkeiten) zu beobachten. Diese entstehen möglicherweise durch eine sofortige Hemmung der zuletzt ausgeführten Antwort, um ein irrtümliches erneutes Ausführen der Antwort zu verhindern (Rogers & Monsell, 1995) – im Falle eines Fehlers dagegen kommt es zu einer Inhibition der falschen Antwort; legt man jedoch eine weitere Verarbeitung auch nach Abgabe der Antwort zugrunde, so ist ab einem bestimmten Zeitpunkt auch die korrekte Antwort prä-sent. Kommt es nun aufgrund dieser Information zu einer Fehlerkorrektur, so wird auch die Korrekturantwort im Folgenden gehemmt; wird die Korrektur hingegen per Instruktion verboten, so wird die korrekte Antwort bereits vor ihrer Ausführung gehemmt. Somit sind nach einem detektierten Fehler beide Antworten gehemmt und weder eine Antwortwieder-holung noch ein Antwortwechsel könne Kosten oder Vorteile bewirken (vgl. Rabbitt &

Rogers, 1977; Steinhauser & Hübner, eingereicht).

10.2. Verteilung der Reaktionszeiten

Gratton et al. (1988) konnten mittels eines Flankierreizparadigmas zeigen, dass sich unter-schiedlich schnelle Antworten hinsichtlich ihrer Genauigkeit unterscheiden. Sie fanden für sehr schnelle Antworten ("fast guesses") eine Genauigkeit um das Zufallsniveau herum und schlossen daraus, dass bei diesen Antworten die Evaluation des Stimulus noch nicht abgeschlossen ist (vgl. auch Christ, Falkenstein, Heuer & Hohnsbein, 2000). Entsprechend gingen sie bei den Antworten mittlerer Schnelligkeit (die eine höhere Genauigkeit aufwie-sen) von einer etwas fortgeschritteneren Stimulusevaluation aus, und bei den langsamsten Antworten (die auch die höchste Genauigkeit lieferten) schließlich nahmen sie eine voll-ständig abgeschlossene Evaluation an.

Ähnlich konnte Ridderinkhof (2002) mittels einer Verteilungsanalyse der Verhaltensdaten (Reaktionszeiten und Genauigkeiten) aus einem Simon Paradigma zeigen, dass Antworten, die aufgrund einer direkten Stimulus-Antwort Verbindung automatisch zustande kommen zwar sehr schnell, jedoch auch sehr ungenau sind. Sie weisen in Reaktionszeit und Genau-igkeit große Ähnlichkeiten zu "fast guesses" auf. Ein zweiter, mehr regelbasierter Pfad der Stimulus-Antwort Verbindung sorgt hingegen für eine genauere jedoch auch deutlich lang-samere Antwortabgabe. Spielt nun in einem experimentellen Paradigma die Genauigkeit der Aufgabenbearbeitung nur eine geringe Rolle (wie es im vorliegenden Falle durch eine explizite Geschwindigkeitsinstruktion der Fall gewesen sein könnte), so stellen "fast gues-ses" eine gute Strategie der Bearbeitung dar. Ist Genauigkeit hingegen wichtig, so muss auf eine eher regelbasierte Verarbeitung und Antwortstrategie zurückgegriffen werden.

Die schnellen Antworten in den Perzentilen 20% und 40% könnten auch im vorliegenden Falle überwiegend auf eine Strategie des schnellen Ratens zurückgeführt werden (wobei auch ein Anteil "normaler" schneller" Antworten vorhanden sein muss, da sonst die Ge-nauigkeit um die 50% liegen müsste). Somit würden diese Antworten unbetroffen von den Auswirkungen der Genauigkeit der Aufgabenausführung in N-1 und der Aufgabenfolge in N bleiben – Auswirkungen der vorangegangene Bearbeitung sind auf der Ebene des Task-Set zu erwarten, nicht jedoch auf der Ebene des schnellen Ratens, das offensichtlich einem anderen Regulationsprozess unterliegt. Dies würde erklären, warum sich viele Effekte der Genauigkeit in N-1 in Verbindung mit Aufgabenwechsel/Aufgabenwiederholung erst in den langsameren Reaktionszeitperzentilen zeigen, wo von einer regelbasierten Verarbei-tung der Stimulus-Antwort Verbindungen auszugehen ist .

Im Rahmen dieser Überlegungen ist jedoch auch der Einfluss des Faktors Antwortwieder-holung zu berücksichtigen, der in den Genauigkeiten besonders stark ausgeprägt ist. So wäre es denkbar, dass die Nutzung der Strategie des schnellen Ratens beinhaltet, dass die Versuchsperson einen Antwortwechsel antizipiert (da die gerade ausgeführte Antwort stark inhibiert ist) und somit den entsprechenden Finger bereits antizipatorisch aktiviert. Diese antizipatorische Aktivierung kann dann leichter zur Auslösung einer entsprechenden Reak-tion führen und unter Umständen einen Fehler auslösen.

10.3. Über die Entstehung der Wechselkosten

Der Lern-/Assoziationsansatz (vgl. Steinhauser & Hübner, eingereicht) zur Entstehung der Wechselkosten konnte nicht in allen seinen Voraussagen mit den vorliegenden Daten ge-stützt werden. Eine mögliche Erklärung für dieses Muster ergibt sich aus der verwendeten Deadline Prozedur. So könnte diese, in Anlehnung an die Ergebnisse von Gratton et al.

(1988), zu einer unvollständigen Evaluation des zu bearbeitenden Stimulus vor der Ant-wortabgabe geführt haben. Diese Strategie des schnellen Ratens könnte dazu führen, dass sich Einflüsse der Genauigkeit der vorangegangenen Aufgabenbearbeitung erst in späten Reaktionszeitperzentilen zeigen. Im Falle der Antwortwiederholungskosten nach einer korrekten Antwort in N-1 sollte das schnelle Raten von der vorherigen Antwort (bzw. de-ren Genauigkeit) betroffen sein: Folgt man dem Ansatz von Rabbitt und Rogers (1977) bzw. den Überlegungen von Steinhauser und Hübner (eingereicht), so kann man anneh-men, dass diese Kosten durch eine Inhibition der zuletzt ausgeführten Antwort entstehen, welche auch schon bei den sehr schnellen Antworten einen Einfluss ausüben kann.

Der Beitrag anderer theoretischen Überlegungen zur Entstehung von Wechselkosten zur Erläuterung des vorliegenden Datenmusters ist begrenzt:

Rogers & Monsell (1995) sehen in den Wechselkosten den Ausdruck der Rekonfiguration des Task-Sets, welche nicht vor Beendigung der Evaluation des zu bearbeitenden Stimulus abgeschlossen sein kann. Der im vorliegenden experimentellen Design verwendete Hin-weisreiz könnte in diesem Sinne zwar eine endogene Rekonfiguration des Task-Set ausge-löst haben, diese wäre aber ohne eine anschließende Evaluation des Stimulus nicht ausrei-chend, um eine fehlerfreie Handlung einzuleiten. Bei den langsameren Antworten der vor-liegenden Untersuchung ist also in diesem Sinne von einer abgeschlossenen Evaluation des Stimulus auszugehen; bei den schnellen Antworten hingegen wird vermutlich ein hoher Anteil an "fast guesses" (vgl. Gratton et al., 1988) in den Daten enthalten sein.

Anzeichen für einen Einfluss der Set Trägheit (d.h. die Bearbeitung bzw. das Task-Set von Aufgabe A in Durchgang N-1 behindert die Durchführung von Aufgabe B in Durchgang N; vgl. Allport et al., 1994) wurden in der vorliegenden Studie nicht unter-sucht.

10.4. Intensität der Fehlerverarbeitung, ERN und die Konsequenzen von Feh-lern

In der Auswertung der elektrophysiologischen Daten konnte sowohl eine ERN als auch eine Pe (vgl. Falkenstein et al., 1990) gefunden werden – die Hypothesen zu den elektro-physiologischen Daten erfahren somit empirische Unterstützung. Die vermuteten Zusam-menhänge zwischen der Amplitude der ERN und der Genauigkeit bzw. der Schnelligkeit der Antwort im nachfolgenden Versuchsdurchgang konnten jedoch nicht bestätigt werden.

Ridderinkhof (2002) unterscheidet in diesem Zusammenhang zwei Anpassungsprozesse des Task-Set, die durch einen Fehler ausgelöst werden können:

• Mikroanpassungen – Modifikationen des Task-Set, von Trial zu Trial, ausgelöst durch zufällige Fehler.

• Makroanpassungen – strategische Langzeitmodifikationen, aufgrund bestimmter, eine Anpassung evozierender Charakteristika einer Aufgabe (z.B. aufgrund der Auftrittswahrscheinlichkeit von hoch konflikthaften Versuchsdurchgängen).

Fraglich ist indes, mit welchen Anpassungen im vorliegenden Fall zu rechnen ist. Es ist vorstellbar, dass es kaum Mikroanpassungen des Task-Set gegeben hat – was sich auch in einem fehlenden "post-error slowing" äußern könnte – sondern Anpassungen alleine auf der Makroebene (Ebene eher langfristigerer Pläne und Strategien) zu erwarten sind, welche jedoch wiederum nicht auf Trial-zu-Trial Basis durch die Fehlerverarbeitung der ERN be-einflusst werden (vgl. Ridderinkhof, 2002), sondern vielmehr kumulativ die Information aus verschiedenen Versuchsdurchgängen einen Einfluss auf die langfristige Adaption des Task-Set nimmt. Ein hirnelektrisches Korrelat dieser Langzeitanpassungen von Plänen und Strategien wurde jedoch im vorliegenden Fall nicht untersucht.

10.5. Fehlerdetektion vs. Antwortkonfliktmodell der ERN

In der vorliegenden Untersuchung wird implizit angenommen, dass es sich bei der ERN um ein Korrelat eines Fehlerdetektionsvorganges bzw. -verarbeitungsvorganges handelt (vgl. Gehring et al., 1993). Unter dieser Prämisse haben sich keine Unterschiede zwischen einem intensiv verarbeiteten und einem weniger intensiv verarbeiteten Fehler finden las-sen. Fraglich ist indes, ob die ERN tatsächlich Ausdruck der Registrierung einer Diskre-panz zwischen der ausgeführten und der geforderten Antwort ist, oder ob sie nicht viel-mehr Ausdruck des Konfliktes zwischen zwei Antworttendenzen ist (Botvinick et al., 2001). Als ein elektrophysiologisches Korrelat eines zugrunde liegenden Antwortkonflik-tes wird in der Literatur häufig die N2 diskutiert (vgl. z.B. van Veen & Carter, 2002; Nie-uwenhuis et al., 2003). Es könnte somit lohnend sein, die vorliegende Auswertung der EEG Daten nicht auf die fehlerhafte Antwort zu beziehen, sondern auf den Stimulus bezo-gen die Daten auf Unterschiede in der N2 hin zu untersuchen. Diese möglichen Unter-schiede könnten wiederum Ausdruck der Genauigkeit der Aufgabenbearbeitung im vorhe-rigen Versuchsdurchgang sein, die sich im Sinne des Lern-/Assoziationsansatzes auf den nächsten Versuchsdurchgang (in Form einer N2-Modulation) überträgt.

Die vorliegenden Daten liefern eine klare Pe, die jedoch nicht systematisch mit den Ver-suchsbedingungen variiert. Es wird daher angenommen, dass es sich bei der hier erhobenen Pe um ein Maß der bewussten Detektion bzw. der emotionalen Verarbeitung eines Fehlers handelt (vgl. Falkenstein et al., 2000; Van Veen & Carter, 2002). Handlungsfehler, so ge-nannte "slips", sind leicht zu entdecken – in der anschließenden schriftlichen Nachbefra-gung gaben die Versuchsteilnehmer einhellig an, ihre Fehler sehr stark bemerkt zu haben.

Es liegt also nahe zu vermuten, dass die Pe Ausdruck dieses Bemerkens bzw. der emotio-nalen Bewertung dieses Bemerkens ist.

10.6. Gibt es Modulationen der ERN bei verschiedenen Fehlertypen?

Andere Forscher gingen bereits der Frage nach, ob sich unterschiedliche Fehlertypen mit Modulationen in Amplitude und Latenz der ERN in Verbindung bringen lassen. Christ und Kollegen (Christ, Falkenstein, Heuer, & Hohnsbein, 2000) untersuchten mittels eines Si-mon-Task und einer räumlichen Variante des Stroop-Task, ob es verschiedene Fehlertypen (generelle Fehler und Fehler aufgrund einer irrelevanten Stimulusdimension) in diesen Aufgaben gibt, die sich auch in den elektrophysiologischen Korrelaten der Fehlerverarbei-tung (Amplitude und Latenz der ERN) finden lassen. Die generellen Fehler sollten sich

dabei gleichmäßig über die Reaktionszeiten verteilen, die Fehler jedoch, die aufgrund der irrelevanten Stimulusdimension ausgelöst werden (also nur solche in inkompatiblen Ver-suchsdurchgängen), sollten vor allem in den schnellen Antworten zu finden sein (vgl. auch Gratton et al., 1988). Sie nahmen weiter an, dass es in den inkompatiblen Versuchsdurch-gängen zu einer hohen Zahl sehr schneller Fehler aufgrund irrelevanter Stimulusinformati-onen kommen sollte und dass die generellen Fehler, da sie schwieriger zu entdecken sind, eine kleinere ERN auslösen sollten.

Sie konnten jedoch keine solchen Unterschiede finden (d.h. keinen Einfluss des Faktors Stimulus-Response Kompatibilität, vgl. auch Abbildung 15) und kamen zu dem Schluss, dass die Fehlerdetektion für beide Fehlerarten ähnlich ist.

Abb. 15. Gesamtmittelwerte der elektrischen Potentiale in inkompatiblen und kompatiblen Trials des Simon-Task und des räumlichen Stroop-Simon-Task an den Elektroden Fz und Cz. Aus: Christ, S., Falkenstein, M., Heuer, H., & Hohnsbein, J. (2000). Different error types and error processing in spatial stimulus-response-compatibility tasks: behavioural and electrophysiological data. Biological Psychology, 51, 129-150.

Würde man die theoretischen Überlugungen von Christ et al. (2000) auf die vorliegende Untersuchung übertragen, so würde dies bedeuten, dass die frühen bzw. schnellen Fehler (also solche in der ersten Hälfte der Reaktionszeitverteilung) sich von späten bzw. langsa-men Fehlern bezüglich der ERN Amplitude unterscheiden sollten, was jedoch nicht der Fall ist. Ähnlich konnte im vorliegenden Fall kein Zusammenhang zwischen der Intensität der Fehlerverarbeitung (Höhe der ERN) bzw. der Pe und der Genauigkeit der Aufgabenbe-arbeitung im nachfolgenden Durchgang gefunden werden. Es scheint keine Anpassungs- und Veränderungsprozesse des Task-Sets nach einem Fehler zu geben, die sich in Modula-tionen der ERN oder der Pe äußern.

Die potentiell unterschiedlichen behavioralen Konsequenzen intensiv und weniger intensiv verarbeiteter Fehler scheinen sich nicht auf einer Trial-zu-Trial Ebene mittels

hirnelektri-scher Korrelate der Fehlerverarbeitung (ERN/Pe) erfassen zu lassen. Es könnte sich jedoch als fruchtbar erweisen, ein Korrelat der Langzeitanpassungen eines Task-Sets aufgrund vorangegangener Genauigkeiten der Aufgabenbearbeitung zu identifizieren und in dies in die vorliegende Fragestellung zu integrieren bzw. Modulationen der N2 als Korrelat vo-rangegangener Genauigkeit und der Aufgabenfolge zu untersuchen.

10.7. Ausblick

Auf den ersten Blick bieten sich mehrere Veränderungsmöglichkeiten für das aktuell ge-wählte Design an. Zuvorderst ist an eine erneute Durchführung der Aufgabe unter einem geringeren Zeitdruck zu denken, um den Anteil der sehr schnellen Antworten, die offen-sichtlich nicht sensibel für die Genauigkeit des vorangegangenen Versuchsdurchgangs sind, zu reduzieren. Es zeigte sich zwar kein Unterschied zwischen langsamen und schnel-len Antworten in der EEG Auswertung, jedoch ließen sich bei einem weniger geschwin-digkeitsbetonten Vorgehen eventuelle Effekte dadurch zeigen, dass man den Anteil der sehr schnellen Antworten, die eventuell auf einem anderen Verarbeitungsprinzip, das nicht von den Ereignissen der vorangehenden Durchgänge direkt betroffen ist, beruhen, senken kann. So stellten Gratton und Kollegen (1988; vgl. auch Gratton, Coles, & Donchin, 1992) fest, dass in einer Reaktionszeitspanne von 200-300 ms nach der Stimuluspräsentation die Antworten mit einer Genauigkeit unterhalb des Zufallsniveaus erfolgen. Sie nehmen an, dass in dieser Zeitperiode der Einfluss inkompatibler Informationen am größten ist. An dieser Stelle wäre durchaus auch ein Einfluss vorangegangener Genauigkeiten denkbar, dergestalt, dass diese den strategischen Nutzwert inkompatibler Informationen verändern und somit die Versuchsperson zu einem vorsichtigeren Umgang mit solcher Information führen könnte. Die ERN könnte also die Probanden dahingehend "beeinflussen", dass sie eine konservativere Reaktionsstrategie wählen, oder um es in den Worten von Gratton und Kollegen (1992) zu sagen, dass sie eine fokussierte Strategie (im Gegensatz zu einer paral-lelen Strategie) nutzen. Ziel einer erneuten Durchführung der Studie mit weniger Zeitdruck könnte also die Erhöhung des Anteils dieser Antworten sein – fraglich bleibt indes, ob sich bei geringerem Zeitdruck eine ähnlich hohe Fehlerrate wie in dem vorliegenden Design verwirklichen ließe.

Die ausschließliche Verwendung inkompatibler Stimuli in der vorliegenden Untersuchung scheint das Erfordernis von Anpassungen auf der Makroebene (vgl. Ridderinkhof, 2002) zu generieren. Es wäre somit zu überlegen, ob nicht durch die teilweise Verwendung

kom-patibler Stimuli das permanente Anpassen der Makroebene zugunsten einiger Anpassun-gen auf der Mikroebene zurückgedrängt werden könnte. Diese VeränderunAnpassun-gen auf der Mikroebene des Task-Sets würden unter Umständen einen Zusammenhang mit der voraus-gegangenen Genauigkeit erkennen lassen und würden sich elektrophysiologisch, in ERN oder Pe, besser abbilden lassen. Ebenso wäre es unter Umständen dienlich, ein elektrophy-siologisches Korrelat der Langzeitanpassung (bzw. der Veränderung dieser) von Strategien und Bearbeitungsregeln zu identifizieren und Konsequenzen intensiv und weniger intensiv verarbeiteter Fehler innerhalb eines solchen Vorganges zu untersuchen.

Ferner sei die Möglichkeit einer erneuten Auswertung der elektrophysiologischen Daten, im Sinne der Konflikttheorie der ERN (vgl. Botvinick et al., 2001) auf den Stimulus bezo-gen, erwähnt. Hierbei könnten eventuelle Modulationen der N2 in Abhängigkeit von der vorangegangenen Aufgabenbearbeitung sichtbar gemacht werden. Dabei kann vermutet werden, dass sich der Antwortkonflikt in Abhängigkeit der zuvor getätigten Antwort ver-ändert. Konsequenzen von Fehlern könnten sich somit auf der Ebene des Antwortkonflik-tes manifestieren.