• Keine Ergebnisse gefunden

Modelle des Attentional Blink

I. EINLEITUNG

I.1 Theoretischer Hintergrund

I.1.5 Modelle des Attentional Blink

Das Gemeinsame aller Erklärungsansätze zum AB stellt die Annahme dar, dass ein oder mehrere Aspekte bei der Verarbeitung des T1-Reizes eine limitierte Ressource beanspruchen, die daraufhin für die Verarbeitung des T2-Reizes nicht oder nicht mehr in vollem Umfang zur Verfügung steht (McLaughlin, Shore, & Klein, 2001). Unterscheiden lassen sich die Modelle nach McLaughlin hinsichtlich der Art dieser zugrunde liegenden Verarbeitungsbeschränkung.

Im folgenden sollen zunächst zwei Modelle vorgestellt werden, die sich innerhalb der Erklärungsansätze zum AB in die Klasse der Interferenz-Theorien einordnen lassen: Das 1992 publizierte Inhibitions-Modell wurde von Jane E. Raymond, Kimron L. Shapiro und Karen M.

Arnell zur Erläuterung ihrer oben beschriebenen Daten entworfen (Raymond et al., 1992).

Eine von denselben Autoren vorgenommene Revision dieser Theorie stellt das 1994

vorgestellte Similarity-Modell dar, das als zweites diskutiert werden soll (Shapiro, Raymond,

& Arnell, 1994).

Anschließend sollen zwei Erklärungsansätze zur Sprache kommen, die sich in die Familie der Flaschenhals-Theorien einordnen lassen: Das Two-Stage-Modell von Marvin M. Chun und Mary C. Potter (1995), das bis heute zur Erklärung vor allem der elektrophysiologischen AB-Befunde herangezogen wird, und das Modell von Pierre Joilcoeur (1998), das eine Erweiterung der Theorie von Chun und Potter darstellt.

Interferenz-Theorien

Das Inhibitions-Modell: Die Aufmerksamkeit schließt das Tor Ausgehend von ihren oben dargestellten Befunden schlagen Raymond und Mitarbeiter (1992) folgende Kette von Ereignissen vor, die zum AB führen: Während der Stimulation mit Reizen innerhalb eines RSVP-Paradigmas wird das target-definierende Merkmal von T1 (beispielsweise die Farbe) präattentiv im sensorischen Speicher detektiert. Die Detektion initiiert eine episodenhafte Reaktion des Aufmerksamkeitssystems, um die Identifikation des Targets zu erleichtern: Aufmerksamkeit wird auf das Target im sensorischen Speicher gelenkt.

Wenn nun ein neuer Reiz unmittelbar nach dem Target und vor dem Ende der geschilderten Aufmerksamkeitsepisode dargeboten wird, befinden sich im sensorischen Speicher neben den Target-Features auch Features dieses Posttarget-Items zur Auswahl (Raymond et al., 1992). Der Identifikationsmechanismus erhält verwirrende Informationen, die zu fehlerhaften Verknüpfungen von Buchstabenfarben mit Buchstabennamen führen können. Um weitere Konfusion zu vermeiden, wird schließlich ein Inhibitionsprozess

eingeleitet: Neue Items erhalten keinen Zugang mehr in den sensorischen Speicher und werden nicht verarbeitet; das „Attentional Gate“ (Raymond et al., 1992, p. 858) wird geschlossen. Während der etwa 450 ms andauernden Periode des geschlossenen Tores versucht das System, aus dem sensorischen Speicher die richtige Farbe mit dem richtigen Buchstabennamen zu verknüpfen. Folgerichtig verzögert sich der Beginn einer neuer Aufmerksamkeitsepisode merklich. Liegt dagegen keine Interferenz vor (wenn statt einem Posttarget-Item ein leerer Bildschirm auf das Target folgt und die Target-Identifikation ohne Interferenz von nachfolgenden Stimuli abgeschlossen wird), kann eine neue

Aufmerksamkeitsepisode rasch initiiert werden.

Das Similarity-Modell: Entscheidend ist die Gewichtung

Entscheidend für die Verwerfung des ursprünglichen Attentional-Gate-Modells (Raymond et al., 1992) waren zwei Befunde, die Shapiro, Raymond und Arnell im Jahre 1994 vorstellten (Shapiro et al., 1994). Sie demonstrierten zum einen, dass auch eine bloße

T1-Detektionsaufgabe anstelle der schwierigeren T1-Identifikation zu einem AB führt. Zum anderen zeigten sie, dass auch ein einfaches Punkt-Muster als T1+1-Reiz (der Reiz, der unmittelbar auf T1 folgt) die Verarbeitung nachfolgender Reize beeinträchtigt – wenn auch in abgeschwächter Form. In beiden Fällen, so die Autoren, sei eine

Aufmerksamkeitssuppression zur Vermeidung von Verknüpfungsfehlern (zwischen Features des T1- und des T1+1-Reizes) als Erklärung inadäquat.

Shapiro und Mitarbeiter (1994) postulieren stattdessen folgende Kette von Ereignissen, die zur Manifestation eines AB führen: (1) Zunächst werden in einer frühen und parallelen Phase der visuellen Informationsverarbeitung Repräsentationen aller Items im visuellen Feld

erzeugt. (2) Anschließend werden diese Repräsentationen mit internen Schablonen des T1- und T2-Reizes verglichen. (3) Diejenigen Items, die den Schablonen annähernd entsprechen, werden für den Eintritt ins visuelle Kurzzeitgedächtnis (VKZG) ausgewählt, welches

begrenzte Kapazität besitzt.

Eine entscheidende Determinante für den VKZG-Zugang von Distraktor-Items ist also deren Ähnlichkeit zu den Target-Schablonen. Daneben bestimmt auch die zeitliche

Kontiguität zum Zielreiz den Zugang ins VKZG. Im RSVP-Strom erhalten nach Shapiro et al.

(1994) vier Items Einlass ins VKZG: Das erste Target T1, das Item, das unmittelbar auf T1 folgt (T1+1), das zweite Target T2 und der darauffolgende Reiz T2+1.

Wesentlich innerhalb des VKZG ist nach den Autoren (Shapiro et al., 1994) folgender Aspekt: Items, die Zugang zum VKZG erhalten haben, sind mit spezifischen Gewichten

versehen, deren Summe von fixer und damit beschränkter Kapazität ist. Diese Gewichte bestimmen die Wahrscheinlichkeit des Abrufs aus dem VKZG nach Ende des Trials. Die Gewichtung ist wiederum abhängig vom Grad der Übereinstimmung mit den

Target-Schablonen und der Reihenfolge des Eintritts ins VKZG – Items, die früher eintreten, erhalten ein höheres Gewicht als Items, die später eintreten, da aufgrund der Kapazitätsbeschränkung für sie nur noch wenig Ressourcen (Gewichte) zur Verfügung stehen. T2-Fehler treten auf probabilistische Weise dann auf, wenn das falsche Item aus dem VKZG abgerufen wird.

Es hat sich in der Tat gezeigt, dass T2-Fehler in der Regel nicht das Ergebnis von

zufälligem Raten sind, sondern meist aus denjenigen Items des RSVP-Stromes bestehen, die etwa zur selben Zeit wie der T2-Reiz dargeboten wurden (Maki, Couture, Frigen, & Lien, 1997).

Zusammenfassend lässt sich feststellen, dass der AB laut dem Similarity-Modell aufgrund von Konkurrenz durch andere hochgewichtete Items im VKZG zur Zeit des Abrufs entsteht (Shapiro et al., 1994). Bei kurzen Intertarget-Intervallen befinden sich T1 und T1+1 zur Zeit der T2-Präsentation noch im VKZG-Speicher und beanspruchen Gewichte oder Ressourcen, die dem T2 somit nicht zugänglich sind. Bei längeren Lags kann sich die Wiedergabeleistung erholen, da genügend Zeit vorhanden war, den T1- und den T1+1-Reiz aus dem VKZG zu entfernen und möglicherweise in ein anderes System wie das des Kurzzeitgedächtnisses zu transferieren.

Während das Inhibitions-Modell (Raymond et al., 1992) also von einem kompletten Herunterfahren des Verarbeitungssystems (d.h. einem Verschluss des VKZG) ausgeht, beschreibt das Similarity-Modell (Shapiro et al., 1994) die Problematik als Konkurrenz von Items, die um den Abruf aus dem VKZG wettstreiten. Damit kann das erste Modell der Familie der early-selection-Theorien zugeordnet werden, wohingegen das Similarity-Modell mehr den late-selection-Ansätzen in der Aufmerksamkeitsliteratur entspricht.

Wenn auch nicht explizit formuliert, ist der entscheidende Faktor für die Erzeugung des AB aber auch beim Inhibitions-Modell die Ähnlichkeit von Items (Raymond et al., 1992).

Doch während im Inhibitions-Modell die Ähnlichkeit zwischen T1 und T1+1 wesentlich ist, ist es im Similarity-Modell (Shapiro et al., 1994) die Ähnlichkeit zwischen T2 und allen anderen Items, die Zugang zum VKZG erhalten haben (nämlich T1, T1 + 1und T2 +1). Der T2-Reiz an sich spielt im Inhibitions-Modell nur eine passive Rolle, während seine

Eigenschaften im Similarity-Modell wesentlich für die Entstehung des Verarbeitungsdefizits sind.

Flaschenhalstheorien

Das Two-Stage-Modell von Chun und Potter: Es gibt einen Flaschenhals

Im Jahre 1995 veröffentlichten Chun und Potter mehrere Experimente, die unter anderem den Einfluss der Diskriminierbarkeit zwischen Targets und Distraktoren zum Gegenstand hatten (Chun & Potter, 1995). Die Diskriminierbarkeit wurde dadurch variiert, dass die Distraktoren im Vergleich zu den Buchstaben-Targets entweder aus leicht unterscheidbaren Items (Symbole) oder aus schwer unterscheidbaren Items (Zahlen) bestanden. Es zeigte sich zum einen, dass auch kategorial definierte Targets (Buchstaben unter Zahlen oder Symbolen) einen AB hervorriefen. Zum anderen demonstrierten die Autoren, dass sowohl eine Erhöhung der lokalen Diskriminierbarkeit (durch Manipulation derjenigen Items, die direkt auf die Targets folgten) als auch eine Erhöhung der globalen Diskriminierbarkeit (durch

Manipulation aller Disktraktoren) das Ausmaß des AB signifikant reduzierte.

Chun und Potter (1995) postulieren zwei Stufen, mit deren Hilfe sie ihre Befunde und das AB-Phänomen erklären: (1) „Rapid Detection“: Jedes Item des RSVP-Stroms wird zunächst präattentiv auf einer ersten Stufe dergestalt verarbeitet, dass eine kurzlebige konzeptuelle Repräsentation entsteht, anhand derer jene Features analysiert werden können, die für die Target-Detektion relevant sind. Diese initialen Repräsentationen der sogenannten Stufe 1 sind allerdings äußerst anfällig für visuelle Interferenz und werden rasch durch nachfolgende Items des RSVP-Stroms überschrieben und somit vergessen. (2) „Capacity-limited processing“: Für die spätere Wiedergabe und Identifikation ist es notwendig, dass Stufe-1-Repräsentationen in eine stabilere Form überführt werden. Dies geschieht durch serielle Konsolidierung im verbalen Kurzzeitgedächtnis. Die Konsolidierung wird durch eine vorübergehende

Aufmerksamkeitsreaktion initiiert, wenn auf Stufe 1 ein potentielles Target detektiert wird.

Chun und Potter gehen davon aus, dass die zeitliche Auflösung dieses

Aufmerksamkeitsprozesses so geartet ist, dass zusammen mit dem Target-Reiz (T1 oder T2) parallel auch das unmittelbar darauffolgende Item (T1+1 oder T2+1) auf Stufe 2 verarbeitet wird.

Entscheidend ist nun aber, dass auf Stufe 2 maximal zwei Items gleichzeitig verarbeitet werden können (Chun & Potter, 1995). Wenn der T2-Reiz dargeboten wird, während die Stufe 2 noch mit T1 und T1+1 beschäftigt ist, wird T2 zwar vom Stufe-1-Mechanismus analysiert, die Stufe-2-Konsolidierung verzögert sich aber. T2 läuft dadurch Gefahr, durch auf ihn folgende Items überschrieben und damit vergessen zu werden. Die Zeit, in der die

Aufmerksamkeitsressourcen mit der T1-Verarbeitung beschäftigt sind, wurde von Duncan, Ward und Shapiro (1994) auch als „attentional dwell time“ umschrieben.

Auch im Two-Stage-Modell (Chun & Potter, 1995) nimmt das Item, das unmittelbar auf T1 folgt, einen besonderen Platz ein. Erst die Notwendigkeit für den

Stufe-2-Verarbeitungsmechanismus, zwischen beiden Items zu diskriminieren, führt zu einer Prozessierungs-Verzögerung und einem möglichen Überschreiben des T2-Reizes. Je größer die Unterscheidbarkeit zwischen T1 und dem T1+1-Item, desto schneller kann die Stufe-2-Verarbeitung erfolgen und desto früher steht der Stufe-2-Verarbeitungsmechanismus wieder zur Verfügung. Somit ist auch das Chun-Modell in der Lage, den Befund zu erklären, dass ein leicht zu diskriminierender leerer Bildschirm anstelle des T1+1 Items zu einer Reduktion des AB führt. Auch die Tatsache, dass der T2-Reiz in der Regel richtig wiedergegeben werden kann, wenn er direkt auf den T1-Reiz folgt, wird anhand des Two-Stage-Modells dadurch erklärbar, dass die Ressourcen auf Stufe 2 genau für die Verarbeitung von zwei Items ausreichen.

Das Central-Interference-Modell: Es kommt zu zentraler Interferenz

Pierre Jolicoeur (1998) demonstrierte in einer Serie von Experimenten, dass relativ späte Verarbeitungsprozesse, wie beispielsweise die Reaktionsauswahl, das Ausmaß und die Dauer des AB modulieren können. In einer Modifikation des klassischen AB-Paradigmas verglich Jolicoeur die Leistung von Versuchspersonen, die auf den T1-Reiz sofort und so schnell wie möglich – on-line noch während der RSVP-Stimulation – reagieren sollten („speeded task“) mit Probanden, bei denen die T1-Reaktion entsprechend des traditionellen Designs verzögert und ohne Zeitdruck nach jedem Trial erfolgte („unspeeded task“). Die Reaktion auf den T2-Reiz sollte ohne Zeitdruck nach jedem Trial durchgeführt werden. Es zeigte sich zum einen, dass der AB bei der speeded task größer ausfiel als bei der unspeeded task, und zum anderen, dass kürzere Reaktionszeiten innerhalb der speeded-task-Bedingung mit einem geringeren und kürzeren AB-Defizit einhergingen als längere Reaktionszeiten.

Ähnlich wie das Two-Stage-Modell postuliert Jolicoeur (1998), dass der AB aus einer defizitären Konsolidierung des T2-Stimulus im Kurzzeitgedächtnis (KZG) resultiert. Im Kern der Theorie steht die Annahme, dass bestimmte kognitive Prozesse „zentrale Mechanismen“

benötigen (p. 1028). Diese Mechanismen sind kapazitätsbeschränkt und können daher manche Verarbeitungsschritte nur seriell vornehmen. Die KZG-Konsolidierung des T2-Reizes nun

beansprucht genau diese zentralen Mechanismen. Alle Prozesse, die ebenfalls zentrale Mechanismen benötigen und diese vor dem Onset des T2-Reizes auch beanspruchen, interferieren somit mit der T2-Konsoliderung und verzögern sie. Jolicoeur spricht bei mehreren Operationen, die gleichzeitig zentrale Mechanismen beanspruchen, von „zentraler Interferenz“ (p. 1027).

In einer Generalisierung von Chun und Potters Modell (1995) nimmt Jolicoeur (1998) an, dass die T2-Konsolidierung nicht nur durch die T1-Konsolidierung, sondern auch durch Prozesse wie Abruf aus dem Langzeitgedächtnis, mentale Rotation, task-switching oder eben die Reaktionsauswahl verzögert werden kann. Je länger der Aufschub, desto größer die Gefahr, dass die Repräsentation des T2-Reizes verloren geht oder zerfällt.

Gemeinsamkeiten und Unterschiede der Modelle

Vergleicht man das Similarity-Modell von Shapiro und Mitarbeitern (1994) mit den Flaschenhals-Theorien von Chun und Potter (1995) sowie Jolicoeur (1998), so lassen sich sowohl Ähnlichkeiten als auch Unterschiede zwischen beiden theoretischen Perspektiven konstatieren. Beide Perspektiven lassen sich einer late-selection-Position zuordnen, da sie davon ausgehen, dass alle Items innerhalb des RSVP-Stroms bis zu einem gewissen Grad verarbeitet werden und Ressourcenknappheit erst auf einer späteren und weitergehenderen Stufe der Verarbeitung existiert. Bei beiden Theorien resultiert das Phänomen des AB direkt aus diesen Kapazitätsbeschränkungen höherer kognitiver Prozesse. Unterschiedlich ist jedoch der zugrundeliegende Mechanismus: Während laut Similarity-Modell die

T2-Wiedergabeleistung durch Konkurrenz von Items im visuellen KZG reduziert wird,

postulieren sowohl Chun und Potter als auch Jolicoeur eine Kapazitätsbeschränkung aufgrund des seriellen Charakters einer späteren Verarbeitungsstufe, die für die KZG-Konsolidierung der Items verantwortlich ist. Zu einem bestimmten Zeitpunkt können dort lediglich ein oder zwei Items (T1 und T1+1) verarbeitet werden, wodurch T2 verloren geht.

Wenn man das visuelle Kurzzeitgedächtnis nach dem Similarity-Modell (Shapiro et al., 1994) und die Stufe 2 nach dem Two-Stage-Modell (Chun & Potter, 1995) gleichsetzt mit dem Konzept eines Arbeitsgedächtnisses, offenbart sich der Kernunterschied zwischen den Theorien: Während beim Similarity-Modell T1 und T2 beide das Arbeitsgedächtnis erreichen und Fehler lediglich aus dem Abruf des falschen Items resultieren, gelangt der T2-Reiz im Two-Stage-Modell erst gar nicht ins Arbeitsgedächtnis, da der Transferprozess mit der T1-Verarbeitung okkupiert ist. Verkürzt formuliert betrifft der Unterschied zwischen beiden

theoretischen Perspektiven die Kontroverse: Konkurrenz um KZG-Zugang versus Konkurrenz um KZG-Abruf.

Von der konzeptuellen Seite her betrachtet, schließt das Similarity-Modell (Shapiro et al., 1994) in seinen Erklärungsansatz damit Aspekte ein, die erst während der Abrufprozesse nach jedem Trial zum Tragen kommen. Die Aussagen in Chun und Potters (1995) sowie Jolicoeurs (1998) Modell demgegenüber zielen ausschließlich auf die Online-Verarbeitung der Items in Echtzeit ab (Larkin, n.d.).

Trotz der geschilderten Unterschiede liegt angesichts der substantiellen Ähnlichkeit aller AB-Modelle generell die Vermutung nahe, dass die verschiedenen Autoren identische Prozesse lediglich mit anderen Namen versehen. Auch eine Entscheidung für oder gegen eines der Modelle auf Basis seiner Voraussagekraft für konkrete Befunde fällt schwer. Zum einen können bestimmte Ergebnisse durch alle Modelle erklärt werden: Die Tatsache, dass ein leerer Bildschirm als T+1-Reiz den AB reduziert, erklärt das Similarity-Modell (Shapiro et al., 1994) über die Unähnlichkeit dieses Reizes und der somit verringerten Konkurrenz im KZG; das Two-Stage-Modell (Chun & Potter, 1995) schreibt den Befund dagegen einer beschleunigten T1-Verarbeitung auf Stufe 2 zu. Zum anderen liegen hinsichtlich bestimmter Eigenschaften des AB, die zwischen den Modellen dissoziieren könnten, widersprüchliche Befunde vor. Shapiro et al. (1994) oder auch McLaughlin et al. (2001) finden keine Variation des AB in Abhängigkeit der T1-Schwierigkeit, während Chun und Potter (1995) von einer Reduktion des Verarbeitungsdefizits bei höherer Distraktor-Diskriminierbarkeit und damit geringerer Schwierigkeit bei der T1-Verarbeitung berichten.

Vor allem im Hinblick auf die theoretische Einbettung der hier berichteten Befunde erscheint es daher angemessen, sich auf diejenigen Aspekte und Eigenschaften des AB zu konzentrieren, die allen Modellen gemeinsam sind und – wenn auch auf verschiedene Art und Weise – aus ihnen prediziert werden können. Im wesentlichen handelt es sich bei diesem gemeinsamen Aspekt um die zeitliche Lokalisierung der AB-Wirkungsmechanismen auf späte und kognitiv höhere Ebenen in der Verarbeitungskette.

Wichtig erscheint nun aber die Frage, woher direkte Evidenz für solch einen späten postperzeptuellen Wirkungszeitpunkt des AB und eine late-selection kommen könnten. Wie lässt sich demonstrieren, dass beim AB in der Tat die high-level-Verarbeitung und nicht frühe sensorische Prozesse einer Kapazitätsbeschränkung im Sinne eines Flaschenhalses

unterliegen? In den letzten Jahren zeigte sich, dass zur Beantwortung dieser Fragen besonders

zwei Forschungsrichtungen substantielle Beiträge leisten konnten: Studien mit ereigniskorrelierten Potentialen und Priming-Studien.

I.1.6 Evidenzen für eine späte Auswahl beim Attentional Blink