• Keine Ergebnisse gefunden

3. Methode

3.4. Eingesetzte Untersuchungsinstrumente

3.4.1. R-RaFD [Rapid Radboud Faces Database Test (Rauh 2014)]

Der R-RaFD ist ein Test, der die Fähigkeit des schnellen Erkennens von statischen emotionalen Gesichtsausdrücken erfassen soll. Der computerbasierte Test wurde mithilfe des Stimulus-Präsentationsprogramms PsychoPy (Peirce 2008) erstellt. Es werden hierbei zwölf Fotos aus dem Radboud Faces Database (Langner et al. 2010) gezeigt. Unter den zwölf Fotos finden sich Bilder einer weiblichen und einer männlichen Person, die unterschiedliche emotionale Gesichtsausdrücke im Sinne der sechs Basisemotionen (Ärger, Ekel, Freude, Furcht, Trauer und Überraschung) darbieten. Nachdem die Versuchsperson die Taste „Enter“

betätigt hat, erfolgt die Präsentation eines der Fotos in einer von sechs unterschiedlichen Präsentationsdauern (50 ms, 67 ms, 83 ms, 100 ms, 117 ms und 133 ms). Nachdem das Foto ausgeblendet wurde, kann die Versuchsperson aus den schriftlich präsentierten Antwortoptionen (Ärger, Ekel, Freude, Furcht, Trauer und Überraschung) per Taste die Emotion auswählen, die am besten zum gezeigten Foto passt. Die Antwortzeit ist nicht beschränkt. Die Kombination von Präsentationsdauer und Foto wird über die Versuchspersonen hinweg ausbalanciert, so dass jedes Foto bei jeweils einem Sechstel der Versuchspersonen in der Teilstichprobe mit der kürzesten Präsentationsdauer, bei einem weiteren Sechstel mit der zweitkürzesten Präsentationsdauer usw. gezeigt wird. Primäre Variable des R-RaFD ist die Anzahl korrekter Antworten, sekundäre Outcome-Variable ist die Reaktionszeit, d.h. die Zeit, die ein Proband benötigt, um eine der sechs Basisemotionen auszuwählen („Match-to-sample“).

3.4.2. R-DECT [Rapid Dynamic Emotion Categorization Test (Rauh, R., & Schaller, U.

M. 2014)]

Beim R-DECT handelt es sich um einen computerbasierten Test, mit dem die Fähigkeit zur dynamischen emotionalen Gesichtserkennung überprüft werden kann. Der R-DECT entstand als Weiterentwicklung des R-DECT, der von der Arbeitsgruppe „Kognitive Entwicklungspsychiatrie“ (Rauh und Schaller) aus der Klinik für Psychiatrie, Psychotherapie und Psychosomatik im Kindes- und Jugendalters des Universitätsklinikums Freiburg in Zusammenarbeit mit der Forschungsgruppe des Instituts für Animation, Visual Effects und Postproduktion (Helzle, Zweiling und Spielmann) aus der Filmakademie Baden-Württemberg entworfen wurde. Der R-DECT wurde mithilfe des Stimulus-Präsentationsprogramms PsychoPy (Peirce 2008) und dem Animationsprogramm FRAPPER (Helzle et al. 2004) des

Methode

52

Instituts für Animation, Visual Effects und Postproduktion der Filmakademie Baden-Württemberg erstellt. FRAPPER nutzt dabei das Facial Animation Toolset 2.0 zur Animation emotionaler Gesichtsausdrücke. Die Versuchssteuerung des Programms ist analog zum R-RaFD (siehe 3.4.1). Allerdings werden bei diesem Test zwei virtuelle, computergenerierte Charaktere dargeboten, die sich in Echtzeitanimation bewegen. Es existiert ein männlicher („Hank“) sowie ein weiblicher Charakter („Nikita“), die beide emotionale Gesichtsausdrücke mit den sechs Basisemotionen (Ärger, Ekel, Freude, Furcht, Trauer und Überraschung) darbieten. Zudem werden die emotionalen Gesichtsausdrücke in drei Ausprägungsgeraden (leicht, mittel und stark) gezeigt. Bei zwei Darstellern, sechs Basisemotionen und drei Ausprägungsgraden der Gesichtsmimik ergeben sich somit 36 verschiedene Echtzeitanimationen und damit 36 Aufgaben. Die Animationen haben in ihrer normalen Ablaufgeschwindigkeit jeweils eine Dauer von 6 Sekunden: In den ersten 3 Sekunden zeigen die Charaktere einen neutralen Gesichtsausdruck, ab der dritten Sekunde beginnt dann die dynamische Veränderung der Mimik in Richtung einer der sechs Basisemotionen, die jeweils mit der sechsten Sekunde ihre volle Ausprägung erreicht. Außerdem werden die Aufgaben im R-DECT in sechs verschiedenen Animationsgeschwindigkeiten (1, 1.25, 1.5, 1.75, 2, 2.25) präsentiert. Hierbei ist „1” die „normale” Animationsgeschwindigkeit, die bis um das 2,25-fache gesteigert werden kann. Die verschiedenen Abstufungen der Animationsgeschwindigkeit wurden dabei wie folgt auf die 36 verschiedenen Aufgaben verteilt: Jede der sechs Basisemotionen wurde in einem Sechstel der Fälle mit der langsamsten Animationsgeschwindigkeit dargeboten, in einem weiteren Sechstel mit der zweitlangsamsten usw. Auf dieselbe Weise wurden die beiden virtuellen Charaktere mit den Animationsgeschwindigkeiten verknüpft. So wurden bei jedem der zwei virtuellen Charaktere drei Animationen mit der langsamsten Animationsgeschwindigkeit präsentiert, weitere drei mit der zweitlangsamsten usw. Auch mit der Verteilung auf die drei Intensitätsstufen wurde analog verfahren: Für jede der drei Intensitätsstufen wurden zwei Animationen mit der langsamsten Animationsgeschwindigkeit, weitere zwei mit der zweitlangsamsten usw.

verknüpft. Um eine Konfundierung zu vermeiden, wurde diese Verknüpfung über jeweils eine Gruppe mit sechs Versuchspersonen hinweg ausbalanciert, sodass nach sechs Versuchspersonen jede Animation in einer der sechs verschiedenen Animationsgeschwindigkeiten dargeboten worden ist. Primäre Outcome-Variable des R-DECT ist die Anzahl korrekter Antworten, sekundäre Outcome-Variable ist die Reaktionszeit.

Methode

53

3.4.3. R-MERT [Rapid Multimodal Emotion Recognition Test (Fangmeier, T., Kräling, L., Puffe, L., Tebartz van Elst, L. 2013)]

Beim R-MERT wird die Emotionserkennungsleistung sowohl in der visuellen als auch in der akustischen Modalität überprüft. Der Test besteht aus drei Teilen, die die visuelle und akustische Modalität zunächst getrennt und dann gemeinsam erfassen.

Während des ersten Teils werden dem Probanden 32 verschiedene Fotos (je 16 Fotos einer weiblichen und einer männlichen Person) dargeboten, auf denen unterschiedliche emotionale Gesichtsausdrücke gezeigt werden. Es handelt sich hierbei um die sechs Basisemotionen (Ärger, Ekel, Freude, Furcht, Trauer und Überraschung) sowie die Emotion

„Verachtung“ und eine neutrale Bedingung. Es ergeben sich somit insgesamt acht verschiedene Antwortoptionen. Nachdem der „Start“-Button per Maussteuerung betätigt wird, wird jedes Bild zwei Sekunden lang dargeboten und soll, nachdem es ausgeblendet wurde, innerhalb von zehn Sekunden per Maus einer der acht Antwortmöglichkeiten zugeordnet werden. Die Beschränkung der Antwortzeit wird über einen an Größe zunehmenden Balken in der unteren Bildschirmhälfte repräsentiert.

Im zweiten Versuchsteil werden nun 32 dreisilbige sinnlose Wörter („krasolax“,

„jidona“, „gusnorfid“, „belumos“ und „klerumas“, gesprochen von einer weiblichen und einer männlichen Person) über Kopfhörer jeweils innerhalb von zwei Sekunden präsentiert. Der Ablauf entspricht Teil 1 des R-MERT, auch hier soll die am besten passende Emotion oder die Option „Neutral“ innerhalb von zehn Sekunden per Maus ausgewählt werden.

Im dritten und letzten Teil wird die visuelle und akustische Modalität zeitgleich dargeboten. Im Gegensatz zu den beiden unimodalen ersten Teilen des R-MERT, ist der dritte Teil multimodal. Das heißt, dem Versuchsteilnehmenden wird zeitgleich zwei Sekunden lang eines der 32 Bilder und eines der 32 Wörter präsentiert. Die zu erkennende Emotion oder die neutrale Bedingung kann dabei in beiden Modalitäten kongruent (16 Aufgaben) oder inkongruent (16 Aufgaben) sein. Bei diesem Teil hat der Proband maximal 20 Sekunden Zeit für die Beantwortung und es wird sowohl eine Spalte „Wort“ als auch „Bild“ auf dem Antwortbildschirm präsentiert, in denen der Proband jeweils die passende der 8 Antwortoptionen auswählen soll. Dabei gibt es keine Vorgabe darüber, ob zunächst eine Antwortoption für die visuelle oder die akustische Modalität ausgewählt werden soll.

Außerdem ist es bei diesem Teil im Gegensatz zu den Teilen 1 und 2 möglich, vor Beendigung der Aufgabe die Entscheidung zu ändern und bei einer oder beiden Spalten von einer Antwortoption zu einer anderen zu wechseln.

Methode

54

Die Reihenfolge der Darbietung der Stimuli in den jeweiligen Teilen des Tests ist pseudo-randomisiert. Primäre Outcome-Variable ist auch hier die Anzahl korrekter Antworten, sekundäre Outcome-Variable die Entscheidungszeit.

3.4.4. R-IoSSP [Rapid Interpretation of Social Scenes Pictures (Fangmeier, T., Klima, J. D., Lauterbach, M., Nothdurft, U., Rauh, R., & Schaller, U. M. 2014)]

Beim R-IoSSP soll die Fähigkeit zur Interpretation komplexer sozialer Situationen erfasst werden. Der computerbasierte Test wurde mithilfe des Stimulus-Präsentationsprogramms PsychoPy (Peirce 2008) erstellt. Es werden dabei 20 Fotos gezeigt, die aus der IAPS-Bildbibliothek (Bradley und Lang 2007) stammen. 10 dieser 20 Fotos zeigen soziale Szenen, wogegen die anderen 10 Fotos weitestgehend ohne soziale Bezüge (=

Distraktoren) sind. Dies bedeutet, dass hier zwar Menschen abgebildet sind, diese aber nicht in Interaktion miteinander stehen. Zusätzlich zu den 20 Fotos gibt es zwei Fotos, die zur Übung der verschiedenen Aufgabenteile gemeinsam mit dem Versuchsleiter durchgegangen werden, bevor der eigentliche Test startet.

Nach Anklicken des „Start“-Buttons wird jedes Foto für 2 Sekunden präsentiert, gefolgt von einem Bildschirm mit „weißem Rauschen“, um zu verhindern, dass ein Nachbild auf der Netzhaut entsteht. Die erste Aufgabe des Versuchsteilnehmenden ist es nun, eine kurze Beschreibung des wesentlichen Inhalts des Fotos zu äußern, die per Mikrofon für die spätere Auswertung aufgezeichnet wird. Der Versuchsleiter hat zuvor die Angabe gemacht, dass etwa ein Satz zu jedem Bild gesagt werden soll, um zu knappe oder zu ausführliche Antworten zu vermeiden. Bei der zweiten Aufgabe soll für jedes Bild die Valenz (positiv bis negativ) sowie die Erregung (keine Erregung bis viel Erregung) per Mausklick auf einer neunstufigen Rating-Skala angegeben werden. Als Rating-Skala wird die sogenannte SAM-Skala (= Self-Assessment Manikin; Bradley und Lang 1994) genutzt (siehe Anhang F). Im Anschluss werden der Versuchsperson als dritte zu bearbeitende Aufgabe drei Aussagen über das Bild präsentiert, die sie in eine Rangreihenfolge der Passung (1 für „am zutreffendsten“

bis 3 für „am unzutreffendsten“) bringen soll (siehe Anhang E).

In einer vorgeschalteten Pilotstudie mit 13 Teilnehmenden, bei denen von einer typischen Entwicklung ausgegangen wurde, sind die häufigsten und adäquatesten Interpretationen der Bilder ermittelt worden. Dazu wurden zunächst in der Arbeitsgruppe für jedes Bild drei Aussagen erstellt: Eine Aussage, die am besten zutrifft, eine zweite, die eher weniger zutrifft, sowie eine dritte, die nicht zutrifft. Im nächsten Schritt wurde im Rahmen der

Methode

55

Pilotstudie jedes Bild den Teilnehmenden 2 Sekunden lang präsentiert. Danach sollte eine Interpretation des Bildes abgegeben werden, die dokumentiert wurde. Im Anschluss an jedes Bild erhielten die Teilnehmer der Pilotstudie außerdem schriftlich die drei erstellten Aussagen zu jedem Bild und brachten sie in eine Rangreihenfolge. Schließlich konnte nun überprüft werden, ob die Interpretationen, die die Teilnehmer der Pilotstudie abgegeben hatten, mit den von der Arbeitsgruppe erstellten und als zutreffend bewerteten Aussagen übereinstimmten.

Außerdem konnte ermittelt werden, ob die Rangreihenfolgen der Aussagen von „am zutreffendsten“ bis „am unzutreffendsten“ auch von den Teilnehmenden der Pilotstudie so bestätigt wurden. So konnten die Rangreihenfolgen angepasst bzw. verifiziert werden.

Methode

56