• Keine Ergebnisse gefunden

Evaluation einer Focus+Context Visualisierungstechnik mit Eye-Tracking

N/A
N/A
Protected

Academic year: 2021

Aktie "Evaluation einer Focus+Context Visualisierungstechnik mit Eye-Tracking"

Copied!
103
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Institut für Visualisierung und Interaktive Systeme Universität Stuttgart

Universitätsstraße 38 D–70569 Stuttgart

Bachelorarbeit

Evaluation einer Focus+Context

Visualisierungstechnik mit

Eye-Tracking

Ulf Kunze

Studiengang: Informatik

Prüfer/in: Prof. Dr. Thomas Ertl Betreuer/in: Dipl.-Inf. Tanja Blascheck,

Dr. Robert Krüger

Beginn am: 24.August 2017

(2)
(3)

Kurzfassung

In dieser Bachelorthese sollen die Wechselwirkungen zwischen Attention Guiding und dem Anwenderverhalten untersucht werden. Hierfür werden die Unterschiede in den Analysestrategien detailliert betrachtet. Zu diesem Zweck werden mit dem Visualisie-rungssystem TrajectoryLenses im Rahmen einer Studie diverse Daten gesammelt. Hierbei handelt es sich um Eye-Tracking-Daten, Think-Aloud-Protokolle und Interaktionen mit dem Visualisierungssystem. Anhand dieser Daten werden grundlegende Verhaltensmus-ter identifiziert, welche durch die Verwendung verschiedener Visualisierungen entstehen. Beispielsweise ließ sich feststellen, dass Heatmaps sich für die Darstellung von Häu-fungen bei Datenelementen eignen, aber die Anwender dazu verleiten, Datenelemente außerhalb der Visualisierung zu vernachlässigen. Darüber hinaus werden allgemeine Interaktionsmuster, welche unabhängig von der Visualisierung auftreten, identifiziert. Dabei handelt es sich zum einen um Interaktionen mit der Oberfläche der Anwendung, zum anderen um das Zusammenspiel zwischen Mausbewegungen und der Blickposition der Anwender. Zusätzlich werden der Eye-Tracker und das Aufnahmeframework auf Fehler bei der Aufzeichnung von Blickpositionen untersucht. Mithilfe der gewonnenen Erkenntnisse soll eine Grundlage für die Auswertung von Analyseprozessen auf Basis von Eye-Tracking-Daten geschaffen werden. Ebenso kann durch die Evaluation von Attention Guiding festgestellt werden, ob die Aufmerksamkeit der Anwender in allen An-wendungszwecken richtig geleitet wird. So können Fehler, welche durch falsch gewählte Visualisierungen entstehen, vermieden werden.

Abstract

The main goal of this bachelor thesis is the evaluation of the interaction between Attention Guiding and user behavior. In order to do this the software TrajectoryLenses is used in a study to collect different types of datasets. These datasets contain Eye-Tracking Data, Think-Aloud-Protocols and user interactions. In an analytic process the data is evaluated to identify different kinds of user behavior depending on certain types of visualisation. As an example, the Heatmap visualisation leads the user attention effectively to clusters of data elements but it fails to lead the attention to single dataelments by not displaying them. Furthermore, interactions which happen independently from the visualisation are identified as well. These are mostely interactions with the user interface or represent a general behavior between the mouse and gaze position. Additionaly, the Eye-Tracker and the recording framework are evaluated in terms of errors in the recording of gaze positions. The insight gained from this thesis shall be used as a basis for the evaluation of analysis processes based on Eye-Tracking Data. By understanding the user behavior, attention guiding can be refined to fit for the application purposes of a particular software. Thus, errors based on choosing the wrong visualisation for a given task can be avoided.

(4)
(5)

Inhaltsverzeichnis

1. Einleitung 13 2. Grundlagen 15 2.1. Visual Analytics . . . 15 2.2. Eye-Tracking . . . 20 2.3. Visualisierungstechniken . . . 21

3. Verwandte wissenschaftliche Arbeiten 25 3.1. Evaluation von Visualisierungssystemen . . . 25

3.2. Evaluation von Anwenderverhalten . . . 28

3.3. Attention Guiding . . . 32

3.4. Einordnung der Bachelorthese . . . 34

4. Konzeption 35 4.1. Aufgabenstellung . . . 35 4.2. Lösungsansatz . . . 38 5. Studie 41 5.1. Aufbau . . . 41 5.2. Materialien . . . 46 5.3. Durchführung . . . 49 6. Auswertung 51 6.1. Data Coverage . . . 51

6.2. Vergleich der Lösungszeit . . . 54

6.3. Ergebnisse der Aufgaben . . . 54

6.4. Abweichung der Blickpunkte . . . 58

6.5. Attention Guiding . . . 59 6.6. Interaktionsmuster . . . 63 6.7. Zusammenfassung . . . 67 7. Diskussion 69 7.1. Studienszenario . . . 69 7.2. Ergebnisse . . . 72

8. Zusammenfassung und Ausblick 77 8.1. Zusammenfassung . . . 77

(6)

A. Anhang 81

A.1. Studienunterlagen . . . 81 A.2. Studienergebnisse . . . 94

(7)

Abbildungsverzeichnis

2.1. Visual Analytics Pipeline . . . 17

2.2. Exemplarische Fous + Contxt Anwendung und Magic Lenses . . . 19

2.3. Darstellung von Eye-Tracking Begriffe . . . 21

2.4. Beispielabbildung Heatmap . . . 22

2.5. Beispielabbildung Trajektorien . . . 23

2.6. Beispielabbildung Scanpath . . . 24

3.1. Nested Model von Munzner . . . 27

3.2. Mehrstufige Taxonomie von Brehmer und Munzner . . . 28

3.3. Visualisierungspipeline für Eye-Tracking-Daten . . . 29

3.4. Sequence Chart AOI abbildung und Mustersuche . . . 30

3.5. Visual Analytics Pipeline als Markow-Kette . . . 31

3.6. Markow-Kette Studienvergleich . . . 31

3.7. Untersuchte Lokalisierungshilfen . . . 33

4.1. Visualisierungsystem TrajectoryLenses . . . 37

4.2. Abweichung Eye-Tracker Konzentration und Zielgenauigkeit . . . 39

5.1. Heatmap-Visualisierung . . . 42

5.2. Trajektorien-Visualisierung . . . 42

5.3. Punkte-Visualisierung . . . 42

5.4. Selbsteinschätzung der Probanden . . . 45

5.5. Aufbau der Studiengerätschaften . . . 48

5.6. Programm anordnung . . . 48

6.1. Betrachtung von Interaktionen, Maus-Augen-Distanz und Mausposition 56 6.2. Scanpath Lösungsverfahren Aufgaben Nr. 2-5 . . . 56

6.3. Scanpath Heatmap-Visualisierung lösungsverfahren bei Outlier . . . 60

6.4. Scanpath Heatmap-Visualisierung lösungsverfahren Cluster Suche . . . . 60

6.5. Scanpath Trajektorien-Visualisierung lösungsverfahren für Outlier . . . 62

6.6. Scanpath Trajektorien-Visualisierung lösungsverfahren für Cluster . . . 62

6.7. Scanpath Punkte-Visualisierung lösungsverfahren Outlier . . . 64

6.8. Scanpath Punkte-Visualisierung lösungsverfahren Cluster . . . 64

6.9. Scanpath Achsen paralleles Suchmuster . . . 65

6.10. Gegenüberstellung von Interaktionen, Augenposition, Mausaugendistanz und Mausposition . . . 68

(8)
(9)

Tabellenverzeichnis

5.1. Eigenschaften der Studienaufgaben . . . 45

6.1. Data Coverage der Gruppe 1 . . . 52

6.2. Data Coverage der Gruppe 2 . . . 53

6.3. Data Coverage der Gruppe 3 . . . 53

6.4. Auflistung der Gruppen nach Bearbeitungszeit . . . 54

6.5. Durchschnittliche Lösungszeit der Aufgaben . . . 55

A.1. Probanden Ergebnisse für die Aufgaben 7 bis 10 . . . 95

A.2. Kurzformen für Ortsnamen . . . 96

A.3. Probanden Ergebnisse für die Aufgaben 7 bis 8 . . . 97

(10)
(11)

Abkürzungsverzeichnis

(12)
(13)

1. Einleitung

Das Forschungsfeld Visual Analytics beschäftigt sich mit der Entwicklung neuer Visuali-sierungssysteme für die unterschiedlichsten Problemstellungen. Jedes Visualisierungs-system basiert auf einer oder mehreren Interaktionstechniken. Diese sind entscheidend für die Art und Weise, wie ein Visualisierungssystem benutzt werden kann. Zur weiteren Unterstützung des/der AnalystIn wird häufig Attention Guiding verwendet, um entweder auf interessante Daten aufmerksam zu machen oder die Exploration im Visualisierungs-system zu erleichtern. Die Wechselwirkung zwischen Interaktionstechnik, Attention Guiding und dem/der AnalystIn eines Visualisierungssystems wurde allerdings bisher kaum untersucht. Besonders interessant ist dabei vor allem die Wirkung auf den Analy-seprozess. Wie ein AnalystIn auf die ihm angebotenen Visualisierungen reagiert oder mit ihnen umgeht, ist nur schwer vorauszusagen. Attention Guiding kann hierbei von Nutzen sein, stören oder sogar zu falschen Ergebnissen führen. Darüber hinaus ist nicht jede Form des Attention Guiding für jede Aufgabenstellung geeignet. Zudem müssen die Besonderheiten der jeweiligen Interaktionstechnik berücksichtigt werden. Dadurch ist die Implementierung einer Visual Analytics Technik eine äußerst komplexe Aufgabe. Das Ziel dieser Bachelorthese besteht darin, einen genaueren Einblick in die Wechselwir-kungen zwischen Interaktionstechnik, Attention Guiding und dem Anwenderverhalten zu vermitteln. Zunächst wird die Korrektheit des Aufnahmeframeworks überprüft. Da-für wird eine eigenständige Anwendung entwickelt und implementiert. Anschließend wird eine Studie mit der Focus+Context-Anwendung TrajectoryLenses konzipiert und durchgeführt. Bei der Studie werden Eye-Tracking-Daten, Benutzerinteraktionen und Think-Aloud-Protokolle aufgezeichnet. Diese Daten werden mit Hilfe eines vorhandenen Auswertungstools unter Zugrundelegung verschiedener Hypothesen analysiert.

(14)

Gliederung

Die Arbeit ist in folgender Weise gegliedert:

Kapitel 2 – Grundlagen In diesem Kapitel wird ein Einblick in den Analyseprozess

der Visual Analytics vermittelt sowie die für diese Bachelorthese relevanten In-teraktionstechniken aufgeschlüsselt. Anschließend folgt eine Auseinandersetzung mit den Grundlagen des Eye-Tracking und wie es genutzt werden kann, um den Analyseprozess der Visual Analytics zu verstehen.

Kapitel 3 – Verwandte wissenschaftliche Arbeiten Im dritten Kapitel werden durch

die Literaturrecherche gefunden Arbeiten Vorgestellt. Dabei haben die vorgestellten Arbeiten einen Schwerpunkt in der Evaluierung einer der folgenden drei Kategorien: Visualisierungssysteme, Anwenderverhalten oder Attention Guiding.

Kapitel 4 – Konzeption Der erste Teil dieses Kapitels befasst sich mit der

Aufgabenstel-lung. Dabei wird die Hauptanwendung TrajectoryLenses und das zu verwendende Aufnahmeframeword vorgestellt. Im zweiten Teil wird die geplante Studie in ihren Einzelheiten aufgeschlüsselt. Dabei werden für die Auswertung relevante Parameter festgelegt und alle Implementierungsarbeiten dokumentiert.

Kapitel 5– Studie Das Kapitel Studie bietet einen Einblick in die Umsetzung der Studie.

Dabei werden Informationen zum Aufbau, den Studienteilnehmern und verwen-dete Materialien gegeben. Darüber hinaus enthält das Kapitel eine exemplarische Durchführung der Studie.

Kapitel 6– Auswertung In der Auswertung werden zuerst die Ergebnisse der

Studien-teilnehmer vorgestellt. Danach folgt eine Evaluierung der Visualisierungen und ihrer Auswirkungen auf die Studienteilnehmern.

Kapitel 7– Diskussion In der Diskussion werden die in der Studie gewonnen

Erkennt-nisse bewertet. Dabei liegt der Fokus sowohl auf dem Studienszenario selbst als auch auf der Auswertung der Probanden Ergebnisse und der identifizierten Verhal-tensmuster.

Kapitel 8 – Zusammenfassung und Ausblick Das Letzte Kapitel enthält eine

Zusam-menfassung der signifikanten Resultate und die Vorstellung von weiteren For-schungsmöglichkeiten.

(15)

2. Grundlagen

In diesem Kapitel werden die Grundlagen dieser Bachelorthese vorgestellt. Zunächst wird in Abschnitt 2.1 erklärt, worum es sich bei Visual Analytics handelt und wovon die Arbeitsweise mit einer Visualisierungssystem abhängig ist. Daraufhin folgt der Ab-schnitt 2.2, welcher einige Grundlagen des Eye-Tracking ausarbeitet und wiederkehrende Begrifflichkeiten definiert. Abschließend folgt im Abschnitt 2.3, eine Erklärung der in dieser Bachelorthese verwendete Visualisierungen.

2.1. Visual Analytics

In diesem Abschnitt wird die Visual Analytics vorgestellt. Ein besonderer Fokus liegt hierbei auf der Arbeitsweise und den Analysestrategien. Es folgt eine Vorstellung Ver-schiedene Interaktionstechniken mit einem Schwerpunkt auf Focus+Context, um den Bezug zwischen dem Visualisierungssystem TrajectoryLenses und anderen Interaktions-techniken herzustellen.

Eine der ersten Definitionen für Visual Analytics lautet nach Thomas, J. J. und Cook, K. A. [TC05]: „Eine Wissenschaft der analytischen Argumentation, unterstützt durch interaktive visuelle Schnittstellen.“1 Im Weiteren wird Visual Analytics von Keim et al. [Kei+10], wie folgt beschrieben: „Visual Analytics kombiniert automatisierte Analysetechniken mit interaktiven Visualisierungen, um ein effizientes Verstehen, Be-gründen und Treffen von Entscheidungen auf Grundlage sehr großer und komplexer Daten zu ermöglichen.“2

Thomas, J. J. und Cook, K. A. [TC05] beschreiben die Visual Analytics als Wissenschafts-gebiet, das aus einer Notwendigkeit heraus entstanden ist. So sind die verschiedens-ten Regierungsorganisationen der Vereinigverschiedens-ten Staaverschiedens-ten zwar effizient darin geworden, Informationen zu sammeln, jedoch fehlte es ihnen an einer Möglichkeit, diese Daten zu verarbeiten. Ein typisches Problembeispiel für Visual Analytics wäre ein Entschei-dungsproblem. Auf Grundlage aller gesammelten Daten soll eine Entscheidung getroffen

1

Im Orginal: „Visual analytics is the science of analytical reasoning facilitated by interactive visual interfaces.“

2

Im Orginal: „Visual analytics combines automated analysis techniques with interactive visualisations for an effective understanding, reasoning and decision making on the basis of very large and complex datasets.“

(16)

werden. Diese Problemstellungen treten häufig im Bereich der Gefahrenanalyse im mi-litärischen Bereich, beim Aktienhandel oder in der Stadtplanung [Kei+08b] auf. Vor allem im militärischen Bereich oder beim Aktienhandel müssen solche Probleme oft in Sekunden gelöst sein. Um Sachverhalte dieser Art zu lösen, müssen alle Daten analysiert und klassifiziert werden. Danach kann ein Auswertungsalgorithmus ad hoc ein Ergebnis liefern. Alternativ wird eine KI auf diese Problemstellung trainiert. Jedoch sind diese Ergebnisse häufig unzuverlässig oder deren Ermittlung nimmt zu viel Zeit in Anspruch. Das Problem beginnt also bereits bei den Daten. Besonders für Entscheidungsprobleme ist es schwierig festzulegen, welche Daten überhaupt relevant sind. Meistens stammen die Daten für ein Entscheidungsproblem aus verschiedenen Quellen. Aus diesem Grund sind die Daten unterschiedlich strukturiert und schwer miteinander zu verknüpfen. Nicht selten handelt es sich um große Datenmengen. Deshalb nimmt die Verarbeitung der Daten ebenfalls mehr Zeit in Anspruch. Effiziente Lösungsverfahren sind meist auf eine detaillierte Problemstellung abgestimmt und lassen sich nicht auf andere Sachverhalte übertragen.

Verfahren aus dem Bereich der Visual Analytics bieten einen Lösungsansatz für diese Thematiken durch den Einsatz von maschineller Vorarbeit und menschlicher Auswertung. Während es für einen Menschen schwierig ist, große Datenmengen aufzubereiten und zu visualisieren, ist dies für einen Computer vielleicht aufwändig, aber dennoch durchführbar. Auf der anderen Seite ist es dem Menschen möglich, Muster zu erkennen, aufbereitete Daten semantisch einzuordnen und auf dieser Grundlage Entscheidungen zu treffen. Keim et al. [Kei+08b] definiert eine Hauptaufgabe im Gebiet der Visual Analytics wie folgt: Mit der Entwicklung von neuen Prozessen und Werkzeugen sollen Lösungen für die Probleme unserer Zeit gefunden werden. Dafür eine Kombination verschiedener Ansätze und Verfahren aus anderen Wissenschaftsgebieten eingesetzt, wie zum Beispiel Data Mining, statistische Analyse, Graphentheorie, Mensch-Computer-Interaktion, Knowledge Discovery, Entscheidungstheorie und vieles mehr.

2.1.1. Arbeitsweise

Keim et al. [KZ11] beschreiben eine allgemeine Arbeitsweise für die Lösung verschie-dener Probleme. Dabei verwenden die Autoren eine Visual Analytics Pipeline, um die Zusammenhänge zwischen den wichtigsten Teilschritten zu verdeutlichen, dargestellt in Abbildung 2.1. Wie im Abschnitt 2.1 bereits angeführt, liegt das Hauptproblem in der Menge und Komplexität der Daten. Unabhängig davon, ob die Daten bereits struk-turiert oder unstrukstruk-turiert sind, ist es nötig die Daten für das Visualisierungssystem aufzubereiten. Das geschieht wie in der Abbildung 2.1 dargestellt durch wiederholte Aus-führung von Transformationen auf den Daten. Der/die AnalystIn hat nun die Möglichkeit, automatische oder visuelle Analysemethoden zu verwenden. Bei der Verwendung von automatischen Analysemethoden werden die Daten durch Data-Mining in ein Modell überführt. Innerhalb des Modells sind die Daten parametrisiert. Die Modellparameter

(17)

2.1. Visual Analytics

Abbildung 2.1.: Darstellung des Explorationsprozesses als eine Visual Analytics Pipeline von Keim et al. [KZ11].

sind im Späteren verlauf der Analyse anpassbar. Für einen besseren Einblick in die Da-ten und Parametrisierung ist das Modell in einem anhalDa-ten Visualisierungsprozess. Die Visualisierung bietet verschiedene Interaktionsmöglichkeiten. Dadurch ist es möglich, Daten zu explorieren, das Modell zu überprüfen oder anzupassen. Dieser anhaltende Aktualisierungsprozess ist in der Abbildung 2.1 als innerer Kreislauf von Modell, Erzeu-gung und Visualisierung dargestellt. Entscheidet sich der/die AnalystIn zuerst für eine Exploration der Daten, sollte er/sie seine Hypothesen zu einem späteren Zeitpunkt durch eine automatische Analyse überprüfen. Hierbei spielen die Interaktionstechniken eine wichtige Rolle, da sie helfen, Informationen und Zusammenhänge zu ermitteln.

Analysestrategien

Keim et al. [Kei+08a] beschreibt drei Ziele der Visual Analytics als: Präsentation von Daten, explorative Analyse und beweisende Analyse. Nach Schulz et al[Sch+13] werden die beiden Analysestrategien wie folgt definiert. Explorative Strategien sind meistens frei gestaltet, da ein Ergebnis für die Mehrheit der verfügbaren Daten gilt. Explorative

(18)

Strategien werden häufig angewandt, wenn entweder große Datenmengen vorliegen und/oder bisher noch kein oder wenig Vorwissen vorhanden ist. Beispiele hierfür sind das Erkennen von Trends sowie die Beobachtung von Anomalien. Beweisende Strategien setzen voraus, dass es bereits eine Hypothese oder ein erwartetes Ergebnis gibt. Letzt-lich besteht das Ziel darin, diese zu validieren. Wichtig ist hierbei vor allem, dass der Sachverhalt klar dargestellt werden kann. Sowohl die explorative Analyse als auch die Beweisende Analyse haben ihren eigenen entgegensetzten Schwerpunkt. Während in die meisten Explorativen Strategien eher frei sind und nicht immer vollkommen exakt sind. So sind die Beweisenden Strategien meist recht binär eine Hypothese ist entweder korrekt oder nicht korrekt. Häufig bietet es sich an für Explorative Strategien auch Hy-pothesen zu verwenden. Diese HyHy-pothesen basieren auf einem Vorwissen über die Daten oder die Aufgabe. Beispielsweise bei der Suche nach Datenelementen mit bestimmten Eigenschaften kann es sich anbieten einen Filter anzuwenden. Innerhalb dieser Bachelor-arbeit werden diese Kombinationen als Investigative Strategien bezeichnet. Auch wenn es Ähnlichkeiten zur Investigativen Analyse gibt. So handelt es sich hierbei nicht um die Analyse von Verbrechen sondern eher um Vorausschauende Exploration.

2.1.2. Interaktionstechniken

Jedes Visualisierungssystem basiert auf einer oder mehreren Interaktionstechniken. Diese Interaktionstechniken legen eine grundlegende Bedienung des Visualisierungssystems fest. Beispiele für Interaktionstechniken sind:

• Direct Manipulation: Die Visualisierung reagiert ohne Verzögerung auf Anwender-eingaben [Shn83]

• Dynamic Query: Die Direct Manipulation für Querys erlaubt es, die Ergebnisse von Abfragen direkt zu visualisieren [Shn94]

• Overview & Detail: Die Gesamtübersicht und die Details sind zeitgleich angezeigt, aber in getrennten Visualisierungen [CKB09]

• Focus + Context: Die Gesamtübersicht und Details werden zeitgleich angezeigt, aber innerhalb einer Visualisierung [CKB09]

• Semantic Zooming: Abhängig von der gewählten Zoom-Stufe unterscheiden sich die Angezeigten Informationen [CKB09]

• Brushing: Selektierte Daten einer Visualisierung werden hervorgehoben [Kei02] • Brushing & Linking: Dieselben Daten sind in mehreren Visualisierungen

hervorge-hoben [Kei02]

Im folgenden Abschnitt wird die Focus+Context Interaktionstechnik genauer beschrie-ben.

(19)

2.1. Visual Analytics

(a) VarifocalReader von Koch et al [Koc+14] (b) time Lense von Tominski et al. [Tom+12]

Abbildung 2.2.: Beispiel für eine Focus+Context-Anwendung und für eine Magic Lense.

Focus + Context

Cockburn et al. [CKB09] beschreiben Focus+Context als eine Interaktionstechnik welche es erlaubt, eine Gesamtübersicht (Context) zu behalten, während man einen Interessen-bereich (Focus) mit weitern Details betrachten kann. Der InteressenInteressen-bereich ist hierbei anwendergesteuert und ermöglicht dadurch eine freie Erkundung der Daten. Im Gegen-satz zur ähnlichen Visualisierung Overview + Detail verwendet Focus+Context keine getrennte Darstellung. Das bedeutet, der Interessenbereich bleibt immer innerhalb der Gesamtübersicht. Häufig werden in Focus+Context-Anwendungen verschiedene Techni-ken angewandt, um das Verständnis von komplexen Daten zu unterstützen. So werden beispielsweise Filterungen und Selektionen verwendet, um gesuchte Datensätze zu finden. Häufig werden auch sogenannteMagic Lenses verwendet. Wie Tominski et al. [Tom+14] erläutern, können Magic Lenses die verschiedensten Funktionen haben. Die Anwendungs-bereiche sind vielfältig und reichen von klassischen Vergrößerungslupen [Tom+14] über Time Lenses [Tom+12], welche zeitliche Abfolgen aufschlüsseln, bis hin zu dreidimen-sionalen Flow Lenses [Gas+11], mit deren Hilfe Strömungen im Blut dargestellt werden können. Magic Lenses dienen vor allem als Werkzeug, um optisch Daten für eine kom-plexere Visualisierung oder Auswertung zu selektieren. Visualisierungen werden ferner verwendet, um Daten hervorzuheben oder in eine semantische Beziehung zueinander zu bringen. Beispiele zu jeweils einer Focus+Context-Anwendung und einer Magic Lense sind in Abbildung 2.2 zusehen.

2.1.3. Data Coverage

Data Coverage bezeichnet die Aufzeichnung der vom Anwender visuell explorierten Da-ten. Blascheck et al. [BKE16] verwenden die gesammelten Daten, um häufig betrachtete Datenelemente zu identifizieren. Darüber hinaus wird untersucht, wie viele Daten wäh-rend der Bearbeitung einer Aufgabe betrachtet wurden. Damit lassen sich Rückschlüsse auf die Qualität des Ergebnisses ziehen. Außerdem kann damit das Analyseverhalten von Anwendern verglichen werden.

(20)

2.1.4. Attention Guiding

Attention Guiding wird verwendet, um einen Anwender auf bestimmte Details auf-merksam zu machen. Dabei werden die verschiedensten Arten von Stimuli genutzt. Hierzu genügen bereits einfache Stimuli wie beispielsweise ein Text, in dem bestimmte Worte farbig hinterlegt [Koc+14] wurden oder Pfeile, um die Position von Orten auf einer Karte anzugeben [Net+17]. Stimuli können aber auch kompliziertere Visualisierungen sein wie beispielsweise Heatmaps, welche genutzt werden können, um Häufungen in den Daten zu visualisieren [Kr13] oder Bounding Boxes zur Hervorhebung sich bewegender Objekte [KHW13]. Alternativ kann die Verfärbung einer Route im Navigationssystem genutzt werden, um einen Stau anzuzeigen.

2.2. Eye-Tracking

In diesem Abschnitt werden alle für die Arbeit relevanten Grundlagen zum Thema Eye-Tracking erklärt. Zusätzlich werden wichtige Begriffe definiert.

Eye-Tracking ist ein Verfahren zur Aufzeichnung von Blickbewegungen. Eye-Tracking kann sowohl mobil als auch stationär durchgeführt werde. Beim der mobilen Variante wird eine Eye-Tracking-Brille genutzt. Dabei wird sowohl aufgenommen, was der Träger sieht, als auch, wohin er seine Blicke richtet. Beim stationären Eye-Tracking liegt der Fokus auf Anwendungen an einem Computer. Daher werden diese Eye-Tracking-Module häufig an den Monitoren befestigt [Duc17]. Die beim Eye-Tracking gesammelten Daten erlauben es, im späteren Auswertungsprozess nachzuvollziehen, welche Inhalte beim Probanden zu bestimmten reaktiven Mustern führten.

2.2.1. Wichtige Begriffe

Beim Eye-Tracking werden sogenannteBlickpunkte (en. Gaze Points) und der Zeit-punkt ihres Auftretens protokolliert. Die gesammelten BlickZeit-punkte werden anhand ihrer Position und ihrer zeitlichen Abfolge in Kategorien eingeteilt. Die folgenden De-finitionen wurden aus den Fachliteraturen „Eye Tracking Methodology: Theory and Practice“ [Duc17] und der wissenschaftlichen Arbeit „State-of-the-Art of Visualization for Eye Tracking“ [Bla+14] übernommen. Die wichtigsten Begrifflichkeiten sind in der Abbildung 2.2.1 zusammengefasst.

• EineFixation (en. fixation) bezeichnet die Bündelung von Gate Points. Dabei ist eine Augenbewegung von maximal 5 Grad pro Sekunde erlaubt. Meistens dauert ein Zeitraum etwa 200 bis 300 Millisekunden. Wird ein Blickpunkt außerhalb der maximalen Abweichung gefunden, ist die Fixation abgeschlossen.

(21)

2.3. Visualisierungstechniken

Abbildung 2.3.: Darstellung von Eye-Tracking-Begriffen in Anlehnung an Blascheck et al. [Bla+14]. Die Begriffe werden im Abschnitt 2.2.1 definiert.

• EineSakkade (en. saccade) bezeichnet die schnelle Blickbewegung zwischen den verschiedenen Fixationen. Eine Sakkade dauert meist nur 30 bis 80 Millisekunden. • Bei einemBlickverlauf (en. scan path) handelt es sich um eine Bündelung von

aufeinander folgenden Fixationen und Sakkaden.

• EineAugenfolgebewegung (en. smooth pursuit) beschreibt das langsame, aber exakte Verfolgen eines sich bewegenden Objekts oder eines dynamischen Stimulus. Das Auge verändert hierbei den Blickwinkel mit einer Geschwindigkeit zwischen 10 und 30 Grad pro Sekunde.

• AlsStimulus (en. stimulus) oder Reiz wird der dem/der ProbandIn präsentierte Inhalt bezeichnet. Hierbei wird zwischen statischem und dynamischem Stimuli unterschieden.

Areas of Interest

Holmqvist [Hol15] definiert eine Areas of Interest (AoI) als Bereich eines Stimulus, für den es interessant ist Daten zu sammeln. Ebenso können AoI verwendet werden um für Verschiedene Hypothesen relevante teile zu markieren. Durch AoI-Hit-Tests und vergleiche von AoI Abfolgen können beispielsweise Verhaltensmuster identifiziert werden. AoI können Visualisierungen, Knöpfe oder bestimmte Interaktionsobjekte einer Anwendung sein. Sie können im Voraus oder im Nachhinein definiert werden und sind nicht zwingend statisch. Somit kann beispielsweise ein vom Anwender bewegtes Objekt eine Area of Interest sein.

2.3. Visualisierungstechniken

Innerhalb dieser Bachelorthese werden verschiedene Visualisierungen verwendet. In diesem Abschnitt werden Heatmaps, Trajektorien und Scanpaths erklärt.

(22)

Abbildung 2.4.: Beispielabbildung: Heatmap, erzeugt aus den Eye-Tracking-Daten einer Explorationsphase. Warme Farben repräsentieren eine hohe Dichte an Datenelementen, kalte Farben repräsentieren eine niedrige Dichte.

2.3.1. Heatmap

Die Hetamap-Visualisierung stellt das Auftreten hoher Konzentrationen von Datenele-menten dar. In der Beispiel Abbildung 2.4 wären dies die Blickpunkte einer Explorations-phase. Je mehr Blickpunkte sich in einem Bereich häufen, desto wärmer ist die Farbe. Das bedeutet, bei einer grünen Farbe handelt es sich um eine sehr geringe Konzentration an Datenelemente. Die gelbe Farbe repräsentiert eine mittlere Konzentration an Datenele-menten und die rote Farbe repräsentiert die höchste gefundene Konzentration. Es können einzelne Datenpunkte außerhalb der Heatmap existieren, die nicht visualisiert werden. Daher ist die Heatmap keine vollständige Visualisierung sondern eine Abstraktion der Datenelemente.

2.3.2. Trajektorien

Bei den in dieser Bachelorthese verwendeten Trajektorie handelt es sich um Routen. Wie in Abbildung 2.5 dargestellt wird die Route Farblich Hervorgehen. Dabei werden die während der Fahrt aufgezeichneten GPS-Koordinaten auf die Karte übertragen und farbig hervorgehoben. Die Anwendung TrajectoryLenses bietet die Möglichkeit,

(23)

mit-2.3. Visualisierungstechniken

Abbildung 2.5.: Beispielabbildung: Trajektorien, erzeugt aus dem Visualisierungssystem TrajectoryLenses. Es werden mehrere Fahrten abgebildet, welche an der Rosensteinbrücke enden.

hilfe verschiedener Magic Lenses diese Trajektorien zu filtern und anzuzeigen, Nähere Informationen dazu sind in Kapitel 4.1.1 enthalten.

2.3.3. Scanpath

Die Theorie hinter Scanpaths wurde bereits in Abschnitt 2.2.1 erläutert. Im Folgenden wird nun der Aufbau der Visualisierung näher erläutert. Fixationen werden im angegebenen Beispiel als rote Kreisflächen abgebildet. Dabei wird die Dauer der Fixationen durch die Größe der Kreisfläche dargestellt. Zudem sind die Kreisflächen in der Reihenfolge des Auftretens der Fixationen nummeriert. Dadurch kann einen Einblick in die zeitliche Abfolge der Geschehnisse gewonnen werden. Die Schwierigkeit bei Scanpaths besteht darin, die Übersicht zu bewahren. So werden ab einer bestimmten Anzahl an Fixationen die Nummerierung und die zeitabhängige Größe der Kreisfläche verworfen.

(24)

Abbildung 2.6.: Beispielabbildung: Scanpath, erzeugt aus den Fixationen einer der Stu-dienaufgaben. Die Fixationen sind fortlaufend nummeriert, die Größe der Fixationsfläche wurde durch die Fixationsdauer errechnet.

(25)

3. Verwandte wissenschaftliche

Arbeiten

Der Schwerpunkt dieses Kapitels liegt auf wissenschaftlichen Arbeiten von anderen For-schern. Zunächst werden in Abschnitt 3.1 wissenschaftliche Arbeiten vorgestellt, die sich allgemein mit der Evaluation von Visualisierungssystem befassen. Anschließend werden in Abschnitt 3.2 weitere wissenschaftliche Arbeiten vorgestellt, die sich mit der Evaluation des Anwenderverhaltens beschäftigen. Dabei werden vor allem solche Arbeiten genauer betrachtet die sich mit den Analysestrategien und den Auswirkungen von Attention Guiding auseinandersetzen. Abschließend folgt im Abschnitt 3.4 die Einordnung dieser Bachelorthese.

3.1. Evaluation von Visualisierungssystemen

Das Hauptanliegen bei der Evaluation von Visualisierungssystemen besteht zum einen darin herauszufinden, ob sie ihren Zweck erfüllen, zum andern, wie Visualisierungssyste-me verbessert werden können. Es ist daher notwendig, EvaluationssysteVisualisierungssyste-me zu entwickeln, die Schwächen und Probleme in Visualisierungssystemen erkennen und ihre Ursachen klar aufzeigen können. Hierfür gibt es verschiedene Herangehensweisen innerhalb der Visual Analytics. In diesem Kapitel werden zunächst Modelle für die Evaluation vorge-stellt. Die Evaluation von Visualisierungssystemen ist ein erster Schritt in der Analyse des Anwenderverhaltens. Falls ein Visualisierungssystem einen größeren Fehler hat oder eine Usability-Schwäche hat, kann dies das Anwenderverhalten nachhaltig beeinflussen.

3.1.1. Nested Model für Visualisierungssysteme

Eine Möglichkeit, um Probleme in Visualisierungssystemen identifizieren zu können wird von T. Munzner [Mun09] vorgestellt. Dabei handelt es sich um ein mehrstufiges Modell, dargestellt in Abbildung 3.1.

Die erste und äußerste Stufe istdomain problem characterization. Dabei wird die Anwen-derseite auf folgende Fragen hin untersucht:

(26)

• Gibt es bereits bestehende Verfahren und Abläufe? • Ist der verwendete Sprachgebrauch korrekt?

Die nächste Stufedata/operation abstraction design hat die Aufgabe, Informationen, welche in der vorangegangenen Stufe ermittelt wurden, in eine für den Entwickler verwendbare Form zu überführen. Dabei ist sicherzustellen, dass sowohl die Datentypen als auch die Operationen klar definiert sind.

In der darauffolgenden Stufeencoding/interaction technique design liegt die Aufmerk-samkeit auf der Visualisierung der Daten und der angebotenen Interaktionstechniken. Visualisierungen sollen für den Anwender verständlich sein. Die Interaktionen sollen den Anwender unterstützen und dürfen daher auch nicht zu kompliziert sein.

Die letzte Stufealgorithm design beschäftigt sich mit der algorithmischen Umsetzung der Visualisierung und der Interaktionen. Schlechte Algorithmen sind unter anderem durch eine hohe Laufzeit und Speicherkomplexität charakterisiert. Dadurch können längere Wartezeiten entstehen oder nicht alle Daten zeitgleich geladen werden.

Im weiteren erklärt die Autorin, was Gefahren der jeweiligen Stufe sind und wie man diese überprüfen kann. Die Gefahr in der ersten Stufe besteht darin, dass das Visuali-sierungsystem seine Aufgabe nicht erfüllt, da das Problem falsch spezifiziert ist. Eine mögliche Überprüfung ist die direkte Befragung der Anwender und die Beobachtung der Reaktionen auf Änderungen im Visualisierungssystem. Ein Risiko der zweiten Stufe besteht darin, dass die gewählten Datentypen und Interaktionen nicht auf das spezi-fizierte Problem passen. Für eine Überprüfung empfiehlt sich die Durchführung einer von zwei Studienarten. Entweder eine Kurzzeit- oder eine Langzeitstudie, in der das Visualisierungssystem im Alltäglichen Gebrauch ist. In der dritten Stufe wäre eine mög-liche Fehlerquelle, dass der Anwender aus der Visualisierung nicht die gewünschten Informationen erhält. Die erste Überprüfung besteht darin, das Visualisierungssystem an bereits bekannte Prinzipien für Visualisierungen zu überprüfen. Weitere Möglichkeiten sind die Überprüfung der gewonnen Ergebnisse oder die Durchführung einer Laborstudie mit festgelegten Ergebnissen. Der Risikofaktor der letzten Stufe entsteht durch schlechte Algorithmen. Überprüfungen sind in Form von klassischen Laufzeit- und Speicheranaly-sen möglich. Ebenso sollte die Korrektheit der verwendeten Algorithmen sichergestellt sein.

3.1.2. Taxonomie für Anwenderinteraktionen

Brehmer und Munzner [BM13] stellen für die aufgabenorientierte Betrachtung eine mehrstufige Taxonomie vor, dargestellt in Abbildung 3.2. Damit können Visual Analytics Aufgaben abstrakt dargestellt werden. Die Taxonomie unterteilt einzelne Teile einer Anwenderinteraktion hierfür in drei Fragekategorien:„warum?“ (en. why?), „wie?“ (en. how?) und„was?“ (en. what?). Für die „warum?“-Frage wird die mehrstufige Taxonomie verwendet. Die Intention besteht darin, eine Möglichkeit zu schaffen, die komplexen

(27)

3.1. Evaluation von Visualisierungssystemen

Abbildung 3.1.: Das Nested Model von Munzner [Mun09] wird für eine stufenweise Evaluierung von Visualisierungsystemen verwendet.

Ursachen einer Exploration über die Suchstrategien mit den einfachen ausgeführten Interaktionen zu verbinden. Alsconsume wird der Grund für eine Aufgabe beschrieben, beispielsweise die Präsentation von Informationen oder das Beweisen einer Hypothese. Unterproduce verstehen Brehmer und Munzner das Ergebnis oder das Ziel. Das Ergebnis kann auch ein Teilschritt in einem komplexeren Prozesss sein. Darauf folgt die Explorati-on, dargestellt alssearch, das Finden von relevanten Daten. Diese sind durch das Wissen über das Ziel kategorisiert, die Faktoren sind hierbei „was“ und „wo“. Letztlich erfolgen die Abfragen zusammengefasst alsquery. Dabei handelt es sich um Interaktionen wie das Identifizieren, Vergleichen oder das Zusammenfassen der gefundenen Daten. Der nächste Schritt ist die Beantwortung der Frage „wie“. Dafür bietet die Taxonomie wieder eine Aufteilung in drei Klassen. Entscheidend ist die Visualisierung der Daten,encode. Manipulationen, dargestellt alsmanipulate, sind grundlegende Techniken, welche die Visualisierung beeinflussen. Diese sind beispielsweise das Hervorheben von ausgewähl-ten Objekausgewähl-ten, Verschiebungen in der Anwenderperspektive oder Änderungen in der Ordnung von angezeigten Daten. Durchintroduce werden hauptsächlich neue Objek-te zur Visualisierung hinzugefügt. Dabei handelt es sich nicht nur um DaObjek-ten, sondern auch um Beschriftungen, Berechnungen und vieles mehr. Bezüglich des „was“, ist nach Brehmer und Munzner einzig eine klare Zuordnung zuinput und output gefordert. Für einen Vergleich wird nun von mehreren Anwendern die Bearbeitung derselben Aufgabe mit dieser Taxonomie abstrahiert. Dadurch lassen sich verschiedene Vorgehensweisen vergleichen und analysieren. Somit können Rückschlüsse auf das Anwenderverhalten und auf Programmschwächen gefunden werden.

3.1.3. Erweiterte Visualisierungspipeline für Eye-Tracking-Daten

Kurzhals et al. [Kur+17] präsentiert eine erweiterte Visualisierungspipeline basierend auf der Sensmaking Loop von Pirolli und Card [PC05]. Der analytische Schwerpunkt der Pipeline liegt in der Evaluierung von Eye-Tracking-Daten, dargestellt in Abbildung 3.3. Diese beschreibt die Verarbeitung der gesammelten Daten. Im folgenden wird die

(28)

Abbildung 3.2.: Mehrstufige Taxonomie von Brehmer und Munzner [BM13] zur abs-trakten Beschreibung von Anwenderinteraktionen.

Visualisierungspipeline erläutert. Im Bereich Data Acquisition werden Eye-Tracking-Daten, Aufzeichnungen der Stimuli und weitere Daten gesammelt. Die gesammelten Daten werden inProcessing + Annotation verarbeitet und in verschiedene Kategorien eingeordnet. Anschließend werden die Daten als Visualisierung dargestellt,Mapping. Wichtig sind hierbei die drei HaupteigenschaftenSpatial, Temporal und Relational. Diese Datendimensionen lassen sich weiter analysieren,Sensmaking Loop. Danach beginnt wieder ein Analyseprozess mit der Interpretation der Visualisierung in Interpretation. Der/die AnalystIn kann nun Hypothesen aufstellen und diese durch Gewinnung wei-terer Erkenntnisse,Gaining Insight, belegen oder widerlegen. Die Autoren empfehlen die Auswertung primär anhand der bereits angeführten Haupteigenschaften Spatial, Temporal und Relational durchzuführen, da diese bei den meisten Eye-Tracking-Daten identisch sind. Dadurch wird es möglich, identische Analysestrategien auf verschiedene Visualisierungssysteme zu übertragen.

3.2. Evaluation von Anwenderverhalten

Um das Anwenderverhalten zu evaluieren, haben sich bestimmte Techniken durchgesetzt. Zunächst wird vorgestellt, wie eine allgemeine Auswertung von Eye-Tracking-Daten in der Praxis aussehen kann. Anschließend werden wissenschaftliche Arbeiten vorgestellt, die sich speziell mit der Evaluierung von Anwenderstrategien und Attention Guiding befassen.

3.2.1. Visual Analytics für Eye-Tracking-Daten

Blaschek et al. [Bla+16] stellen ein Visualisierungssystem vor, welches es ermöglicht, Eye-Tracking-Daten auf Basis der Betrachtung von Mustern aus Fixationen, AoI und

(29)

In-3.2. Evaluation von Anwenderverhalten

Abbildung 3.3.: Erweiterte Visualisierungspipeline für die Evaluierung von Eye-Tracking-Daten [Kur+17] basierend auf der Sensmaking loop von Pirolli

und Card [PC05].

teraktionen zu vergleichen. Für dieses Tool werden Eye-Tracking-Daten, Aufzeichnungen der Anwenderinteraktionen und Think-Aloud-Protokolle verwendet. Die Kernvisualisie-rung einSequence Chart wird in Abbildung 3.4 dargestellt. Alle Daten werden entlang mehrerer synchroner Zeitachsen sortiert. Es existiert eine Zeitachse für Thinking-Aloud-Ereignisse, dargestellt als Sprechblasen. Für jede im Visualisierungssystem definierte Area of Interestwird jeweils eine weitere Zeitachse verwendet. Die Eye-Tracking-Daten werden vorab in Fixationen gebündelt, dargestellt als graue Rechtecke, und den ent-sprechenden AoI zugeordnet. Aufgezeichnete Interaktionen werden als farbige Punkte visualisiert. Die Farben repräsentieren jeweils eine Interaktion aus der von Brehmer und Munzner vorgestellten Taxonomie. Interaktionen, die mehrere Fixationen lang anhalten, werden bis zu ihrem Abschluss durch eine gleichfarbige Linie verbunden. Anstelle einer linearen Zeitfolge werden die Fixationen, Interaktionen sowie Think-Aloud-Ereignisse auf eine sequenzielle Abbildung übertragen. Als Maßstab für diese Neuordnung werden die Zeitpunkte der Fixationen verwendet. Dies geschieht für die Daten aller Anwender. Das Visualisierungssystem enthält darüber hinaus eine Funktionalität, welche es erlaubt, nach Mustern in der Abfolge von Fixationen zu suchen. Zudem können dabei auch Interaktionen berücksichtigt werden. Dabei kann sowohl nach exakten als auch nach abweichenden Mustern gesucht werden. Für die Suche nach exakten Mustern wird die Levenshtein-Distanz berechnet. Für eine Suche nach ähnlichen Mustern wird eine Fuzzy search verwendet. Dies ermöglicht ein schnelles Überprüfen von Hypothesen, die auf bestimmten Mustern basieren. Die Suche wird dann über die Daten aller Anwender ausge-führt. Weiterhin ist es möglich, sich per Automatisierung Muster in den Anwenderdaten anzeigen zu lassen und so erste Erkenntnisse zu gewinnen.

In einer Studie wurde das Tool VarifocalReader evaluiert. Der VarifocalReader ist ein mehrstufiges Visualisierungstool für die Analyse von Texten, eine genaue Beschreibung ist in der wissenschaftlichen Arbeit von Koch et al. [Koc+14] zu finden. Dafür wurden 16

(30)

Abbildung 3.4.: Links: Sequence Chart Zuordnung von Fixationen auf AoIs. Mitte: Fest-legung des Suchmusters mit wild cards. Rechts: Suchergebnisse der Suchanfrage.

Probanden anhand zweier Texte jeweils eine einfache, eine mittlere und eine schwere Aufgabe gestellt. Die Aufgaben sind typisch für die Literaturwissenschaften. Dadurch konnten Gemeinsamkeiten in der Verwendung des Programms, besonders am Anfang und am Ende einer Aufgabe, identifiziert werden. Ebenso konnte festgestellt werden, dass Probanden, die weniger Interaktionen durchgeführt haben und mehr Zeit auf das Lesen des Textes verwendet haben, länger für die Lösung der Aufgaben gebraucht haben.

3.2.2. Modellierung von Anwenderverhalten

Reda et al. [Red+16] betrachten das Zusammenspiel zwischen Visualisierung einerseits und den Auswirkungen auf den Prozess der Erkenntnisgewinnung andererseits. Dafür nutzen die Autoren als Grundannahme ein Verhaltensmodell basierend auf der Visual Analytics Pipeline mit einer weiteren mentalen Komponente für den Anwender. Diese wird umgewandelt in eine Markow-Kette, siehe Abbildung 3.5. Der computional sta-te enthält hierbei die Aufgaben, die der Compusta-ter abarbeista-tet, wie die Normalisierung von Daten oder Auswertungen. Derinteraction state enthält alle Interaktionen, die dem Anwender zur Verfügung stehen, wie Modifikationen der Perspektive oder der Visua-lisierung. Immental state werden die mentalen Prozesse des Menschen abgebildet, Die typischen Beispiele hierfür sind das Bilden von Hypothesen, die Erkennung von Zusam-menhängen oder die Erkenntnisgewinnung. Für die Zustandsgenerierung werden vor allem Aufzeichnungen der Interaktionen, Think-Aloud-Protokolle und Aufzeichnungen der einwirkenden Stimuli beispielsweise durch eine Desktopaufzeichnung generiert. Die Studie wird mit zwei Gruppen zu je fünf Probanden durchgeführt. Beide Gruppen erhalten das gleiche Visualisierungssystem. Der Unterschied zwischen den beiden Grup-pen ist Größe des Displays, auf dem das Visualisierungssystem angezeigt wird. Gruppe 1 erhält also ein kleineres Display als Gruppe 2. In Abbildung 3.6 wird dargestellt, wie sich das größere Display auswirkt. In der Adjazenzmatrix wird die prozentuale Veränderung der Wahrscheinlichkeit eines Zustandsübergangs angezeigt. Die

(31)

Wahrscheinlichkeits-3.2. Evaluation von Anwenderverhalten

Abbildung 3.5.: Erweiterte Visual Analytics Pipeline abstrahiert als Markow-Kette [Red+16]. Dabei werden zwischen Maschinellen(computational), interaktion(interaction) und mentale(mental) zustände unterschieden.

Abbildung 3.6.: Zustandsdiagramm und Adjazenzmatrix für den Vergleich zweier Stu-diengruppen [Red+16]. Eine ausführliche Erklärung befindet sich im Abschnitt 3.2.2.

werte von Gruppe 2 werden hierfür als Ausgangspunkt verwendet. Berechnet Wurden die Werte mit der nachfolgenden Formel 3.1:

P = 100

PG2

∗ (PG2− PG1) (3.1)

Daraus ergibt sich, dass Gruppe 1 mit dem kleineren Display eine höhere Wahrscheinlich-keit hat, zu den Zuständen aus deminteraction state zu wechseln. Hingegen hat Gruppe 2 eine höhere Wahrscheinlichkeit, in Zustände aus demmental state zu wechseln. Im linken Teil der Abbildung ist der Zustandsübergangsgraph dargestellt, welcher sich aus der Adjazenzmatrix ergibt. Positive Werte werden als orange Pfeile abgebildet. Negative Werte werden als violette Pfeile abgebildet. Die Transparenz der Pfeile ist dabei ein

(32)

Hinweis auf die Höhe des Wertes. Der Zustandsgraph zeigt recht deutlich, dass Gruppe 2 häufiger in Zustände aus dermental state-Kategorie gewechselt hat.

3.2.3. Analyse der Anwenderstrategien

Çöltekin et al. [lFL10] verwenden in ihrer Arbeit Exploring the efficiency of users visual analytics strategies einen ähnlichen Ansatz wie die bereits vorgestellte wissenschaftli-che Arbeit von Blaswissenschaftli-check et al [Bla+16]. Für die Studie werden 20 Probanden in zwei Gruppen zu je 10 Probanden eingeteilt, in eine schnelle und eine langsame Gruppe. Für die Studie wird das Visualisierungssystem „National Atlas of the United States“ verwen-det. Die Aufgaben der Probanden besteht darin zu ermitteln, wie viele Überfälle es in Washington County im Jahre 2000 gab und in welchem County des Staates Oregon die größte Anzahl an Morden verübt worden ist. Beide Autorengruppen verwenden eine Abbildung des Scanpath in Form von Fixationen auf AoI sowie ür den Vergleich der AoI Ähnlichkeitsanalysen wie die Levenshtein-Distanz, Dendrogramme usw. Zusätzlich verwenden Çöltekin et al. eine Transitionsmatrix, basierend auf einer Markow-Kette, für die Auswertung der Beispielstudie. Somit können durch die Auswertung der Transi-tionen weitere InformaTransi-tionen über das Nutzerverhalten gewonnen werden. Durch die Betrachtung der Übergangswahrscheinlichkeiten lässt sich ermitteln, welche Teile der Anwendung häufig nacheinander betrachtet werden. Ebenso wird durch den Scanpath erkannt, dass die langsame Gruppe dazu neigt, alle AoI mehrfach zu überprüfen.

3.3. Attention Guiding

Attention Guiding erlaubt es die Aufmerksamkeit des Anwenders zu lenken. Daher ist es wichtig das für das Attention Guiding Visualisierungen verwendet werden die sowohl für den Datensatz als auch die alle möglichen Aufgaben zweckmäßig sind. Die folgenden Arbeiten evaluieren verschiedene Visualisierungen von Attention Guiding. Dabei nutzen sie Daten, welche durch die Aufzeichnung von Probanden bei der Lösung von Aufgaben entsteht.

3.3.1. Evaluierung von Suchhilfen für Landkarten

Netzel et al. [Net+17] zeigen in ihrer Arbeit, wie Attention Guiding genutzt werden kann, um Suchzeiten in Visualisierungssystemen zu verringern.Dies ist insbesondere dann relevant, wenn das gesuchte Objekt starke Ähnlichkeit mit den umliegenden Objekten hat. Als Beispiel dafür wählen die Autoren die Suche nach einem Ort auf einer Karte. In einer Studie vergleichen die Autoren die in Abbildung 3.7 gezeigten Suchhilfen. Die klassische Gittersystem (zum Beispiel bei Atlaskarten) funktioniert nach dem Prinzip, dass außerhalb der Karte der Name der gesuchten Stadt gesucht wird. Sobald man den

(33)

3.3. Attention Guiding

Abbildung 3.7.: Untersuchte Lokalisierungshilfen der Studie von Netzel et al. [Net+17]. (a) Gittersystem (b) Richtungspfeil (c) Miniaturreferenz Eine Erläute-rung der LokalisieErläute-rungshilfen befindet sich im Abschnitt 3.3.

Namen und die zugehörigen Koordinaten ermittelt hat, betrachtet man in der Karte die beiden Achsen und sucht in der entsprechenden Zelle nach dem Ort. Die Miniaturreferenz zeigt durch die Markierung direkt die Zielzelle an. Anschließend wird die Zelle aufgesucht und nach dem Ort gesucht. Der Richtungspfeil gibt durch die orthogonale Linie in etwa den Abstand zum Zielort an. Es wird der Richtung des Pfeils für die abgeschätzte Distanz gefolgt und dort nach dem Ort gesucht.

In einer Studie werden mit sämtlichen Probanden alle Suchhilfen getestet. Zusätzlich suchen die Probanden in einem weiteren Durchlauf ohne ein Hilfsmittel nach einem Ort innerhalb der Visualisierung. Für den Vergleich der 30 Probanden wird zunächst die durchschnittliche Zeit betrachtet. Mit der Miniaturreferenz benötigten die Probanden durchschnittlich 3.56 s, für das Gittersystem 4.19 s, für den Richtungspfeil 4.54 s und ohne Hilfsmittel 5.95 s. Zudem werden die durchschnittlichen Längen von Fixationen innerhalb und außerhalb der Karte betrachtet. Dabei haben die Probanden außerhalb der Karte bei dem Richtungspfeil und der Miniaturreferenz in etwa 300 ms lange Fixationen. Das Gittersystem hat in etwa 400 ms lange Fixationen. Innerhalb der Karte haben alle drei Suchhilfen wieder eine in etwa gleich lange Fixationsdauer zwischen 450 und 500 ms. Die Autoren vermuten, dass es mit der Menge zu lesender Informationen zusammenhängt.

3.3.2. Attention Guiding in der Videoüberwachung

Ein weiteres Beispiel, bei dem Attention Guiding von großem Nutzen sein kann, präsen-tierten Kurzhals et al. [KHW13] im Bereich der Videoüberwachung. Dabei werden vier verschiedene Attention-Guiding-Techniken untersucht. Dies sind die „Bounding Box-“,

(34)

die „Grid-“, die „Force-Directed-“ und die „Top-Down-“Visualisierung. Dabei sind zwei Aspekte besonders wichtig. Zum einen soll eine gute Verteilung der Aufmerksamkeit erreicht werden, zum anderen soll der Anwender schnell auf Veränderungen reagieren. Obwohl das Ergebnis der durchgeführten Studie eher durchwachsen ausgefallen ist, konnte doch nachgewiesen werden, dass die „Bounding Box-“, „Top-Down-“ und „Grid-“ Visualisierungen zu einer wesentlich besseren Gleichverteilung der Aufmerksamkeit geführt haben. Bei der Wahrnehmung von Veränderungen wurde entweder ein Objekt verändert oder ein Charakter in die Szenerie eingefügt. Die Probanden waren bei Ver-wendung der „Top-Down-“ und „Grid-“ Visualisierungen dabei in etwa 500 ms schneller als bei Nutzung der anderen Visualisierungen.

3.4. Einordnung der Bachelorthese

Wie in der Einleitung bereits ausgeführt wurde, besteht das Ziel dieser Bachelorthese darin, die Wechselwirkungen zwischen Interaktionstechniken, Attention Guiding und dem Analyseverhalten eines Anwenders zu untersuchen. Die vorgestellten Arbeiten untersuchen entweder wichtige Aspekte der Interaktionstechniken oder kognitive Pro-zesse durch Think-Aloud-Protokolle. Zudem wird evaluiert, wie sich Visualisierungen auf die Effizienz auswirken. Was fehlt, ist eine Modellierung von Anwendern, welche es erlaubt, deren Verhalten einzuschätzen oder zu Identifizieren. Anhand der Betrachtung von Interaktionen zwischen einem Anwender und den Visualisierungen des Attention Guiding wird vor allem analysiert, wie die Auswirkungen auf das Verhalten des Anwen-ders sind. Der in dieser Bachelorthese verwendete Ansatz bindet mehrere Techniken aus den vorgestellten wissenschaftlichen Arbeiten ein. Im nachfolgenden Kapitel wird die Konzeption der Gewinnung diese Einblicks näher erläutert.

(35)

4. Konzeption

Diese Kapitel erklärt die Aufgabenstellung der Bachelorarbeit und die daraus folgenden Anforderungen und vorgaben an den Lösungsansatz. Im ersten Abschnitt 4.1 wird die Aufgabenstellung genauer definiert und die Vorgegebenen Komponenten Präsentiert. Im darauf folgenden Abschnitt 4.2 wird die für die Aufgabe entwickelte Studie präsentiert. Ebenso wird eine Anwendung zur Messung der Abweichung von Eye-Tracking-Daten vorgestellt.

4.1. Aufgabenstellung

Die Aufgabe dieser Bachelorthese besteht darin, neue Erkenntnisse über die Wechsel-wirkung zwischen Anwendern und Attention Guidingzu finden. Dafür sollen das bereits bestehende Visualisierungssystem TrajectoryLenses und ein bereits integriertes Auf-nahmeframework verwendet werden. Um die Wechselwirkung genauer zu untersuchen, sollen die folgenden Daten aufgezeichnet werden: Eye-Tracking-Daten, Interaktionen des Anwenders, Desktopaufzeichnungen, Think-Aloud-Protokolle. Durch eine Analyse dieser Daten werden Unterschiede im Interaktionsverhalten der Anwender herausgear-beitet. Um diese Daten zu erhalten, soll eine Studie konzipiert und durchgeführt werden. Zusätzlich sollen mögliche Fehler des Eye-Trackers identifiziert werden.

4.1.1. TrajectoryLenses

TrajectoryLenses ist ein Visualisierungssystem für die Darstellung von Verkehrsbewe-gungen. Die Anwendung wurde von Robert Krüger entwickelt [Kr13]. Die Anwender haben die Möglichkeit, mithilfe verschiedener Magic lenses und anderer Werkzeuge wie einetime line Verkehrsbewegungen auszuwerten. Bei Verkehrsbewegungen handelt es sich um Fahrten welche von den Verschiedensten Fahrzeugen stammen können. Wichtig ist das Fahrt Daten mindestens die GPS Positionen der gefahrenen strecke enthalten. Abbildung 4.1 stellt die Kern Interaktionsmöglichkeiten von TrajectoryLenses dar. Bei (A) Handelt es sich um einen navigierbaren Kartenausschnitt welcher aus OpenStreatmaps übertragen wird. (B) Enthält die Ergebnisse der Vereinigung aller Gruppen von Magic lenses. (C) stellt eine Auflistung aller Gruppen dar, dabei wird für jede Gruppe eine eigene Statistik angezeigt. Eine Gruppe kann aus 1 bis n verschiedenen Magic lenses bestehen. In (D) ist die time line abgebildete sie erlaubt es durch eine Hierarchische

(36)

Darstellung der Zeit sowohl einzelne Zeitpunkte als auch verschieden große Zeiträume zu selektieren. dadurch werden in dem Kartenausschnitt nur noch Fahrten angezeigt die innerhalb dieses Zeitraums liegen. Bei (E) handelt es sich um eine Magic lenses in diesem Fall eine Origin lense gekennzeichnet durch das „O“ Nordwestlich der Magic lens. Zusätz-lich können Wetter und Temperaturinformationen zu den jeweiligen Tagen betrachtet werden. Außerdem existiert eine Option, Fahrten nicht nur als abgeschlossene Route zu betrachten sondern diese wie in einem Video Abzuspielen. So kann beispielsweise der Verkehrsfluss einer Stadt analysiert werden. Durch die Verwendung von Magic lenses kann TrajectoryLenses als Focus+Context-Anwendung angesehen werden. Die Magic lenses erlauben es, Details eines Bereiches genauer zu betrachten, wobei der Gesamtüber-blick nicht verloren geht. TrajectoryLenses bietet drei verschiedene Magic lenses, welche sich in ihrer Filtereigenschaft unterscheiden:

• DieOrigin lens filtert nach den Startpunkten von Verkehrsbewegungen. • DieDestination lens filtert nach den Zielpunkten von Verkehrsbewegungen. • DieWaypoint lens filtert alle Verkehrsbewegungen, die über einen Teilabschnitt

innerhalb der Waypoint lens verfügen.

TrajectoryLenses, in der Zurverfügungstellen Version, arbeitet mit drei Visualisierungen. Heatmaps, Trajektorien und Punkte. Dabei wird die Heatmap genutzt um auf interessante Bereiche aufmerksam zu machen. Die Trajektorien und Punkte werden verwendet um Gefilterte Routen zu Visualisieren.

Für die Visualisierung des Attention Guidingwerden nur die Datensätze in Betracht gezogen, die innerhalb der Magic lens liegen und den Filtereigenschaften entsprechen. Durch das Zusammenfassen der verschiedenen Magic lenses in Gruppen können kann so weiter gefiltert werden.

4.1.2. Datenerfassung

Die Standart verwendung des Eye-Trackers sieht nur eine Aufzeichnung des angezeigten Desktops vor und legt nachträglich die Fixationen darüber. Da dies für die Auswertung der Studie nicht Ausreichend ist, wird eine Aufnahmeframework verwendet, welches in einem Studienprojekt erarbeitet wurde. Das Aufnahmeframework dient dazu einen Teil der Daten für die Auswertung benötigten daten aufzuzeichnen. Über Das aufnah-meframework werden die Blickpunkte des Eye-Trackers, die AoI, die Interaktione und Mausbewegungen des Probanden. Diese Aufzeichnung geschieht durch zwei komponen-ten. Einen Java-Client welcher in eine belibige Java-Anwendung integriert werden kann und einem Server.

Der Client verbindet sich durch die Integraiton des Eye-Tracker-SDK mit dem Eye-Tracker und erhält in einem intervall von 60 Hz die aktuelle Blickposition des Probanden. Der Java-Client liefert vordefinierte Schnitstellen objekte welche es erlauben Sowohl AoI

(37)

4.1. Aufgabenstellung

Abbildung 4.1.: TrajectoryLenses entnommen von Krüger et al. [Kr13]. (A) Karten-ausschnitt (B) Ergebnisausgabe (C) Gruppenauflistung (D) time line (E) Magic lense.

als auch Interaktionsobjekte zu definieren. In der verwendeten Anwendung müssen die entsprechenden Schnitstellenobjekte nur integriert werden. Bei Interaktionen, Mausbe-wegungen oder dem Auftreten von Blickpositionen werden interene Events generiert welchevon einem Controller des Java-Client dann in form von TCP Paketen an den Server gesendet werden. Diese TCP Pakete enthalten sowohl den Zeitpunkt des Auftreten des Events, die Positionen, Informationen zu Betroffenen AoI, die Betrachten Datenelementen und vieles mehr. Der Server, geschrieben in C# nimmt die TCP pakete entgegen und bereitet sie in ein einheitliches „.csv“ Format auf. Anschließend speichert er die Pakete fortlaufend in mehreren Dateien auf der Festplatte.

Für die Aufzeichnung des Think-Aloud-Protokolls und des Angezeigten Desktops wird die Software Camtasia Studio 6 verwendet.

4.1.3. Softwareanpassung

Im Rahmen dieser Arbeit ist auch die verwendete Software angepasst worden. So wurden sowohl das Java-Framework als auch der Server für die Studie weiterentwickelt. Es wurde eine einheitliche Zeitgebung für die Datenaufzeichnung im Java-Client implementiert. Im Server wurden die Tabellenstruktur neu geordnet.

(38)

4.2. Lösungsansatz

TrajectoryLenses Arbeitet, wie beschrieben, mit drei unterschiedlichen Visualisierun-gen welche an verschiedenen stellen Verwendung finden. Die Heatmap-Visualisierung wird beim Aufnehmen der ersten Magic Lens Aktiviert und zeigt die Häufungen des gesamten Datensatzes an. Fährt der/die AnwenderIn nun über Datenelemente werden die Trajektorien und Punkte Angezeigt. Setzt der/die AnwenderIn nun die Magic Lense ab verschwindet die Heatmap und es verbleiben die Trajektorien und Punkte. Wird nun eine Weitere Magic Lens hinzugefügt werden die Trajektorien ausgeblendet und erst wieder eingeblendet wenn die Zweite Magic Lense über einem Datenelement ist welche in der ersten Magic Lens bereits selektiert ist. Während des Analyseprozesses kommt es immer wieder zu Vermischungen der drei Visualisierungen und es ist letztlich nicht möglich die gesamte Exploration eines/einer AnwenderIn auf eine einzelne Visualisierung einzugren-zen. Vor allem da die verschiedensten Stimuli die Exploration beeinflussen können. Daher bietet sich, in einem ersten Schritt, eine Getrennte Analyse der drei Visualisierungen an. Dadurch können Verhaltens und Interaktionsmuster den jeweiligen Visualisierungen zugeordnet werden. Somit entsteht ein erster Einblick in die Wechselwirkung zwischen AnwenderIn und Attention Guiding. Ebenso entsteht eine Grundlage für die Analyse von Kombinationen der Visualisierungen. So können in einem weiteren Schritt die ge-funden Verhaltens und Interaktionsmuster in einer Kombination der Visualisierungen klar identifiziert werden. Um so das verhalten der Anwender bei anderen Aufgaben und Visualisierungen zu verstehen. Dies übersteigt jedoch den zeitlichen Rahmen einer Bachelorthese daher beschränkt sich die Studie auf den ersten Schritt.

4.2.1. Fehlererkennung

Um bei der Auswertung mögliche Fehler in den Daten nachzuvollziehen zu können bietet es sich an, die verschiedenen Abweichungen eines Eye-Trackers zu messen. Hierbei ist zu beachten, dass Blickpunkte nahe beieinander stehen und das dass fixierte Ziel auch getroffen wird. Das verfahren ist detailliert in Holmqvist [Hol15] beschrieben. In Abbildung 4.2 werden zwei Fälle gezeigt. Im linken Bild wird das Ziel nicht getroffen, dafür sind stehen die Blickpunkte dicht beieinander. Im rechten Bild wird das Zeil zwar getroffen, allerdings sind die Blickpunkte um das Ziel verstreut. Aus dem ersten Fall entsteht beispielsweise das Problem, dass eine AoI nicht getroffen wird. Im zweiten Fall kann evtl. keine Fixation gefunden werden, da der Abstand zwischen den Punkten nicht mehr dem Kriterium für die Fixation entspricht.

Um diese Ungenauigkeiten auszuwerten, wurde eine Java-Anwendung wurde implemen-tiert. Durch erste Tests stellte sich heraus, dass der für die Studie verwendete Eye-Tracker häufig das Ziel verfehlt, die Blickpunkte aber dicht beieinander stehen. Somit wurde die Java-Anwendung dahingehend angepasst, in der Studie die Zielgenauigkeit des Eye-Trackers für die Probanden zu messen. Die Anwendung besteht aus neun Knöpfen, welche

(39)

4.2. Lösungsansatz

Abbildung 4.2.: Abweichungen von Blickpunkten beim Eye-Tracking, Abbildung ent-nommen aus Holmqvist [Hol15]. Die Kreuze repräsentieren ein beliebi-ges betrachtetes Objekt, während die Punkte von Eye-Tracker aufge-zeichnete Blickpunkte darstellen.

Reihe angeordnet. Sobald einer der Knöpfe mit der Maus angeklickt wird, erfolgt die Berechnung des Abstandes zwischen Blickpunktes und Knopf. Zusätzlich werden die Positionen des Blickpunktes und des Knopfes mit gespeichert. Die Probanden werden nach dem Kalibrieren gebeten, nacheinander alle neun Knöpfe zu fixieren und sie dann jeweils mindestens fünf Mal anzuklicken. Diese Informationen werden dann protokolliert und statistisch ausgewertet.

(40)
(41)

5. Studie

Das Kapitel Studie veranschaulicht detailliert den Aufbau der Studie. Dabei wird im ersten Abschnitt 5.1 Aufbau der Studienaufbau zusammengefasst. Ebenso werden die Studienaufgaben und die Probanden vorgestellt. Der darauf folgende Abschnitt 5.2 Mate-rial beschriebt detailliert alle MateMate-rialien, welche für die Studie verwendet wurden. Im letzten Abschnitt 5.3 wird exemplarisch der Ablauf einer Studiensitzung dargestellt.

5.1. Aufbau

Für die Studie wurden 30 Studenten der Universität Stuttgart angeworben. Diese wurden in 3 Gruppen zu je 10 Probanden eingeteilt. Für diese Studie wird ein Datensatz der EnBW verwendet. Der Datensatz enthält Verkehrsinformationen von Elektrorollern, die über ein Jahr lang im Großraum Stuttgart gesammelt wurden. Die Probanden beginnen mit dem Einwilligungsformular. Danach zieht jeder der Probanden einen Zettel mit einer Gruppennummer von 1 bis 3 aus einem geschlossenen Beutel. Daraufhin folgt ein Shanel-und ein Ishihara-Sehtest. Falls es keine größeren Probleme gibt, erhalten die Probanden nun das Tutorial für TrajectoryLenses. Danach wird die Kinnstütze Montiert und der Proband stellt diese für sich bequem ein. Anschließend wird der Eye-Tracker auf den Probanden kalibriert und es werden mögliche Fehler gemessen. Danach beginnen die eigentlichen Studienaufgaben mit der Anwendung TrajectoryLenses. Alle Gruppe erhält dieselbe Aufgabenstellung. Während die Probanden die Aufgaben bearbeiten, werden alle in Kapitel 4 beschriebenen Aufzeichnungen durchgeführt. Damit die Probanden den Blick vom Eye-Tracker nicht abwenden müssen, werden ihnen die Aufgaben vorgelesen. Durch das Beobachten der Interaktionen der Probanden werden erste Eindrücke gesammelt, welche Analysemuster wiederholt auftauchen. Zum Abschluss füllen die Probanden einen Fragebogen über ihre persönlichen Informationen und ihr Empfinden im Umgang mit dem Visualisierungssystem aus.

In der Studie werden zwei Magic Lenses verwendet: die Origin Lens und die Destination Lens. Abhängig von der gewählten Magic Lens erhalten die Probanden eine Visualisie-rung für die Start- oder die Zielpunkte. Die Maigc Lenses sind hierbei eine Mithilfe der Magic Lenses sollen die Probanden einfache Fragen zu den Daten beantworten. Weitere Funktionalitäten wie Kartennavigation, Wetterdaten und die Timeline wurden für die Studie deaktiviert. Für Gruppe 1 wurden die Trajektorien- und Punkt-Visualisierungen deaktiviert. Verwendet ein/eine ProbandIn der Gruppe 1 eine Magic Lens so wird eine

(42)

(a) Origin Lens (b) Destination Lens

Abbildung 5.1.: Beispiele für die Heatmap-Visualisierung. Die Farbe der Visualisierung ist abhängig von der Verwendeten Magic Lens.

(a) Origin Lens (b) Destination Lens

Abbildung 5.2.: Beispiele für die Trajektorien-Visualisierung. Die Farbe der Visualisie-rung ist abhängig von der Verwendeten Magic Lens.

(a) Origin Lens (b) Destination Lens

Abbildung 5.3.: Beispiele für die Punkte-Visualisierung. Die Farbe der Visualisierung ist abhängig von der Verwendeten Magic Lens.

(43)

5.1. Aufbau

Heatmap dargestellt, vgl. Abbildung 5.1. Vor dem setzen der Ersten Magic Lens wird eine Heatmap über alle Datenelemente errechnet. Nachdem die erste Magic Lens gesetzt wurde werden für die Berechnung der Heatmap nur noch Datenelemente berücksichtigt welche durch die Magic Lens selektiert wurden. Wird eine Origin Lens verwendet so werden alle Startpunkte in einer gelben Heatmap zusammengefasst. Bei der Verwendung einer Destination Lens werden alle Zielpunkte in einer blauen Heatmap zusammengefasst. Bei Gruppe 2 wurden die Heatmap- und die Punkte-Visualisierung deaktiviert. Verwendet ein/eine ProbandIn der Gruppe 2 eine Magic Lens so werden Trajektorien dargestellt welche die Start und Endpunkte der einzelnen Fahrten verbinden, vgl. Abbildung 5.2. Während die erste Magic Lens noch nicht gesetzt wurde werden alle Fahrten, welche durch die Magic Lense aktuell selektiert sind, als Trajektorien abgebildet. Bei der Benut-zung einer zweiten Magic wird die Schnittmenge beider selektierter Magic Lenses in der Farbe der zweiten Magic Lens hervorgehoben. Durch die Verwendung einer Origin Lens werden alle Trajektorien gelb hervorgehoben. Wird eine Destination Lens verwendet so werden alle Trajektorien blau dargestellt. Für Gruppe 3 wurden die Heatmap- und die Trajektorien-Visualisierung deaktiviert. Verwendet ein/eine ProbandIn der Gruppe 3 eine Magic Lens so werden die Start und Endpunkte der Fahrten dargestellt. Bei der Verwendung der ersten Magic Lens werden der gewählten Magic Lens entsprechend dei Punkte hervorgehoben. Die zweite Magic Lens löst keine weitere Visualisierung aus. Bei der verwendung einer Origin Lens werden die Startpunkte innerhalb der Magic Lens gelb hervorgehoben und die Zielpunkte außerhalb der Magic Lens in blau angezeigt. Durch die verwendung einer Destination Lens werden die Zielpunkte innerhalb der Magic Lens in blau dargestellt und die Startpunkte außerhalb der Magic Lens in gelb Eine Kontrollgruppe ohne eine weitere Visualisierung wird in dieser Studie nicht betrachtet. Das fehlen aller Visualisierungen der Fahrten würde in vielen Studienaufgaben dazu führen das Datenlemente entweder sehr lange gesucht werden. Oder nur Orte betrachtet werden an denen Datenelemente auch vermutet werden. Dadurch würden die suche nach Datenelementen in den einzelnen Aufgaben zu viel Zeit in Anspruch nehmen. Ebenso würde auch die gefundenen Ergebnisse innerhalb der Kontrollgruppe divergieren. Im Buch von Field und Hole [FH03] wird der in dieser Arbeit verwendete Studienaufbau alsbetween-group design bezeichnet. Dabei werden sogenante abhängige Varialben (en. dependent varables) Quantitativ aufgezeichnet und mit einer ANOVA ausgewertet. Dadurch lassen sich Schlüsse auf dieunabhängige Variablen (en. independent varia-bles) der Studie ziehen. Die Unabhängigen Variablen der Studie sind die unterschiedlichen Visualisierungen. Die abhängigen Variablen für die Analyse der Visualisierungen sind: die Zeit für die Lösung der einzelnen Aufgaben und die Menge der explorierter rele-vanter Daten. Die Zeit für die Bearbeitung einer Aufgabe wird mithilfe zweier Knöpfe innerhalb von TrajectoryLenses erfasst. Bei den Aufgaben 7 bis 10 werden die relevanten Daten erhoben. Zusätzlich findet eine Qualitative Auswertung der gesammelten Eye-Tracking und Interaktions Daten statt. Dadurch sollen Interaktionsmuster und von den Visualisierungen Ausgelöste verhalten analysiert werden.

(44)

5.1.1. Aufgaben

Für die Aufgaben werden die bereits in den Grundlagenkapitel 2.1.1 beschriebenen Ana-lysestrategien berücksichtigt, dabei handelt es sich um explorative, investigative und beweisende Strategien. Eine genaue Aufschlüsselung der Beziehungen zwischen Fragen und Kategorien ist in Tabelle 5.1 dargestellt. Im Folgenden werden weitere Eigenschaften der Aufgaben genauer erläutert. Die Fragen haben einen explorativen oder beweisenden Charakter. Ferner wurden ein Teil der Fragen so konzipiert, dass die Probanden sowohl nach Outliern als auch Clustern suchen sollen. Für die Kategorie Strecke sollen Stre-ckenlängen ermittelt werden. Ein weiterer Teil der Fragen hat einen Ortsbezug. Dies bedeutet, dass durch die Aufgabe ein Ort vorgegeben wird. Alle Aufgaben sind im Muster des Studienbogens im Anhang A.1 zu finden. Die Aufgaben sind so gedacht das die Probanden mit maximal zwei Magic Lenses alle Aufgaben lösen können. Das Reduziert sowohl lange Anpassungszeiten vieler Magic Lenses als auch die Schwierigkeit für die Probanden. Ebenso Schützt diese Einschränkung davor das durch die Verwendung zu vieler Magic Lenses die Übersichtlichkeit verloren geht.

Die Fragen für Aufgabe Nr. 1 und Nr. 15 lauten: „Schätzen sie ein, wie viel Prozent der Daten Sie bereits exploriert haben“. Der/die ProbandIn wird das erste Mal nach der Explorationsphase, das zweite Mal am Ende der Aufgaben danach gefragt. Aufgabe Nr. 6 ist eine Kontrollfrage mit einem Ergebnis von null. Dabei ist nach der Anzahl Fahrten von Zuffenhausen nach Fellbach gefragt. Anhand des Verhaltens der Probanden kann festgestellt werden ob sie die Aufgaben Ernst nehmen. Diese drei Aufgaben sind daher für die Auswertung uninteressant.

Die Aufgaben Nr. 2-5 sind explorativer Natur. Dabei werden allgemeine Übersichtsfragen gestellt. Die Fragen beinhalten beispielsweise, wie viele Roller in Untertürkheim starten oder wie groß ist der durchschnittliche Batterieverbrauch aller Fahrten mit dem Ziel Münster ist. Für die Beantwortung dieser Fragen sind die Probanden auf eine Magic Lens beschränkt.

Aufgaben Nr. 7-10 sind investigative Fragen, so wird beispielsweise nach der schnellsten Fahrt mit dem Ziel Stuttgart Nord gefragt oder nach dem Startort der meisten Fahrten die in Bad Cannstatt enden. Dabei kann der/die ProbandIn erste Hypothesen aufstellen, welche die Exploration unterstützen. Der/die ProbandIn können nun sowohl Destination als auch Origin Lens verwenden, eine der beiden Magic Lenses ist durch die Fragestellung ortsgebunden. Somit bleibt nur die zweite Magic Lense um die Frage zu beantworten. Die Aufgaben Nr. 11-14 sind von beweisender Natur, da angenommen wird, dass gesuchten Werte in dem Datensatz zu finden sind. Es werden Fragen gestellt wie finden Sie einen Bereich oder eine Route, mit ungefähr 200 Rollern oder finden Sie einen Bereich oder eine Route, mit einer durchschnittlich zurückgelegte Strecke von ungefähr 25 km.

(45)

5.1. Aufbau

Tabelle 5.1.: Aufstellung der Eigenschaften der Studienaufgaben.

Aufgaben Nr. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 Explorativ # # # # # # # # # # # Investigativ # # # # # # # # # # Beweisend # # # # # # # # # # # Cluster # # # # # # # # # # # Outlier # # # # # # # # # # # Strecke # # # # # # # # # # # # # Ortsbezug # # # # # #

: Die Frage besitzt die Eigenschaft, #Die Frage besitzt die Eigenschaft nicht.

1 2 3 4 5 6 7 8 9 101112131415161718192021222324252627282930 Enthaltung 0 Keine 1 Schlecht 2 Ausreichend 3 Gut 4 Sehr gut 5 Probanden-ID

Abbildung 5.4.: Selbsteinschätzung der Probanden: G : Fähigkeiten im Umgang mit dem Computer. G: Vorkenntnisse im Gebiet der Visual Analytics. #: Orts-kenntnis im Großraum Stuttgart.

5.1.2. Probanden

Bei den Probanden handelt es sich primär um Studenten der Universität Stuttgart. Die Probanden verteilen sich auf verschiedene Studiengänge wie folgt: 10 aus dem Bereich In-formatik; 3 aus dem Bereich Elektrotechnik; jeweils 2 aus den Bereichen Softwaretechnik, Medieninformatik, Wirtschaftsinformatik, Mechatronik, Luft- und Raumfahrttechnik, Maschinenbau; jeweils 1 aus den Bereichen Computional Linguistics, Digital Humanities, Verfahrenstechnik, Anglistik, Erneuerbare Energien. Insgesamt nehmen 14 Master- und 16 Bachelorstudenten. Die Altersspanne reicht von 19 bis 32 Jahren, im Durchschnitt liegt das Alter bei 23 Jahren. 6 der Probanden sind weiblich, 24 sind männlich. 6 der Probanden gaben an, dass Deutsch nicht ihre Muttersprache ist.

Referenzen

ÄHNLICHE DOKUMENTE

studies where the results show that limited quantity is being more effective in the decision making process than limited time scarcity (Aggarwal et al., 2011; Jang et al.,

September, aber auch der Streit um das Kopftuch oder um die Rolle der Autorität in der Katholischen Kirche stellen eine Herausforderung für die klas- sische liberale Idee dar,

While the behav- ioural paradigm revealed no evidence of AB in any group, the eye-tracking paradigm revealed a more negative bias towards disorder-specific stimuli in

EyeScout: Active Eye Tracking for Position and Movement Independent Gaze Interaction with Large Public Displays... GazeDrone: Using Drones

Daher zielte die vorliegende Studie darauf ab, mittels Eye-Tracking zu untersuchen, wie Kinder mit sichtbarer Karies im Vergleich zu Kindern nach Zahnsanierung

Auf Bildung als jenseitige Beschäftigung wird noch zurückzukommen sein. Bildung war aber natürlich auch Teil des irdischen Lebens, und das wird in der Festrede Gregors

Finally, the chapter discusses the nature of the eye-movement metrics used in various visual world studies and different solutions to analyzing them in order to derive

Regarding the interaction between the smooth pursuit network and attention, Culham and colleagues [27] showed that, during fixation of a stationary target, attentive tracking