6.1 Zusammenfassung
Im Rahmen dieser Arbeit wurde überprüft, ob es möglich ist ein Modell zu erstellen, mit dem au-tomatisiert Emotionen auf unterschiedlichen Robotern dargestellt werden können. Dafür wur-de zunächst ermittelt, wie Emotionen wur-definiert werwur-den, wobei wur-deutlich wurwur-de, dass es nicht ei-ne allgemein gültige Emotionsdefinition gibt, sondern mehre verschiedeei-ne Ansätze. Während sich viele Forscher bezüglich der Aufgabe der Emotion als Kommunikationsmittel einig sind, gehen ihre Vorstellungen über die Ursachen der Emotionen auseinander. Darwin und viele ihm nachfolgende Forscher wie Scherer [Sch87] sind der Meinung, dass Emotionen eine Reaktion auf ein in der Umwelt, oder körperintern erfolgtes Ereignis erfolgen und den Menschen zu ei-ner Handlung motivieren sollen. Diese These wird im kognitiven Ansatz um den Schritt der Bewertung zwischen dem Ereignis und der Reaktion erweitert.
William James [Jam84] hingegen prägte als erster den Ansatz, dass Emotionen eine Reaktion auf eine vom Körper automatisch auf einen Reiz ausgeführte Handlung sind.
Die letzte vorgestellte Definition bezieht sich auf die Theorie der sozialen Konstruktivisten, die besagt, dass Emotionen ein Produkt gesellschaftlicher Regeln und Normen sind.
Über all diesen Definition steht allerdings die Erkenntnis, dass es grundlegende Emotionen gibt, die im Gegensatz zu den meisten Emotionen keinerlei sozialen, oder gesellschaftlichen Unterschieden unterliegen und auf der ganzen Welt erkennbar sind.
Nachdem die Bestandteile von Emotionen zusammengefasst wurden widmete sich der nächs-te Abschnitt der Erkennung von Emotionen. Darin wurde geklärt, dass das Erkennen in mehre-ren Schritten durch einen Musterabgleich mit bereits bekannten Mustern verglichen wird und Vorwissen über bereits bekannte Emotionale Reaktionen in bestimmten Situationen bei der Er-kennung hilft. Außerdem wurde gezeigt, dass Emotionen nicht nur über das Gesicht, sondern auch viel über den Körper dargestellt werden.
Nach der Vorstellung einiger Roboter, mit mehr oder weniger ausgeprägten Fähigkeiten zur Emotionsdarstellung und wofür diese benutzt werden widmete sich das nächste große Kapitel der Modellerstellung. Dabei wurde zunächst auf die Anforderungen eingegangen, die ein Modell erfüllen können sollte um Emotionen damit zu modellieren. In dieser Arbeit wurde vorgeschla-gen, dass ein solches Modell Verknüpfunvorgeschla-gen, Ausschlüsse, Implikationen, zwingende Voraus-setzungen, sowie VorausVoraus-setzungen, wenn möglich, Kardinalitäten und Einteilungen in Katego-rien ermöglichen muss. Da viele dieser Bedingungen bereits von Feature-Modellen, oder deren Erweiterungen unterstützt werden, wurde vorgeschlagen die Modelle auf Basis von Feature-Modellen mit geringen Abwandlungen zu erstellen.
Mit den im nächsten Schritt erstellten Modellen wurde anschließend eine Anwendung ent-wickelt um diese am Roboter Loomo zu testen. Um die Emotionsdarstellung so modular wie möglich zu halten wurde die Logik in eine Android-Bibliothek ausgelagert und nur die konkre-ten Bewegungen in der App selbst programmiert.
Um zu testen, ob die erstellten Modelle erkennbare Emotionen generieren können wurde an-schließend eine Nutzerstudie durchgeführt. Diese ergab, dass grundlegende Emotionen sehr
gut erkannt werden, bei anderen Emotionen die Erkennung, aber nur schlechte Ergebnisse lie-fert.
6.2 Fazit
Wie die Nutzerstudie in Kapitel 5 zeigte, ist eine automatisierte Emotionsdarstellung für grund-legende Emotionen sehr gut möglich. Auch die nur sehr kurz dargestellten Emotionen wurden sehr gut erkannt und vor allem durch die Gesichtsausdrücke kann somit eine erkennbare Emo-tion auch während anderen Aufgaben des Roboters gut dargestellt werden. Da diese EmoEmo-tionen trotz eines nur sehr rudimentär dargestellten Gesichts und eingeschränkten Bewegungsfähig-keiten des Roboters, gut erkannt wurden lässt sich außerdem annehmen, dass diese für fast alle Roboter implementiert werden können, so lange sie die Möglichkeit haben Augen, Augenbrau-en und Mund darzustellAugenbrau-en. Allerdings wurde auch deutlich, dass nicht grundlegAugenbrau-ende Emotio-nen, wie zum Beispiel Unsicherheit, so gut wie nicht erkannt werden können. Da grundlegende Emotionen aber sehr gut erkannt wurden, kann man davon ausgehen, dass diese schlechte Er-kennung nicht an der Architektur, oder den Möglichkeiten des Modells liegt, sondern eher am fehlenden Kontext, gepaart mit einer für komplexe Emotionen zu geringen Darstellungsfähig-keit des Testroboters Loomo. Da für die meisten Aufgabenbereiche, die in Kapitel 1 genannt wurden grundlegende Emotionen als grobe Indikatoren ausreichen wird vorgeschlagen, wo es möglich ist diese zu verwenden um Missverständnissen vorzubeugen und ein besseres Nutzer-erlebnis zu ermöglichen. Sollten trotzdem andere Emotionen verwendet werden wollen, ist es besonders wichtig, diese möglichst exakt umsetzen zu können, also ein detailliertes Gesicht und möglichst viele bewegliche, manipulierbare Körperteile zu haben.
Die vor allem in der Altenpflege, oder im Umgang mit behinderten Menschen, gewünschte Multimodalität lässt sich zwar umsetzen, stößt aber sehr schnell an Grenzen, wenn nicht nur kurze Töne ausgegeben werden sollen, die eine Emotion charakterisieren, sondern die „Stim-me“ des Roboters manipuliert werden soll um beispielsweise zittrig zu klingen. Es zeigte sich in der Nutzerstudie auch, dass die Wahl der richtigen Tonausgabe sehr entscheidend ist, da da-durch die Erkennung sehr stark beeinflusst wird. So zum Beispiel bei der Emotion Angst, bei der viele der Offline-Testpersonen nach dem Beantworten der Emotion den Schrei als irre-führend nannten. Dies ist vor allem für Sehbehinderte ein Problem, da diese ohne Tonausgabe keine Möglichkeit haben die Emotion zu erkennen. Eine mögliche Verbesserung dafür wäre die Emotion konkret anzusagen, was allerdings für sehende wahrscheinlich zu sehr ungewohnten Interaktionen führen würde. Eine elegante Lösung für dieses Problem wäre den Roboter auf Kommando erklären zu lassen wie er sich fühlt. Er würde also zuerst die Emotion gemäß dem Modell ausführen. Sollte diese Emotion nicht erkannt werden, kann über ein Sprachkommando gefragt werden, wie er sich fühlt, worauf eine Emotion genannt wird.
6.3 Ausblick
Eine Herausforderung, die bei Emotionsdarstellungen für Roboter nicht oft Beachtung findet, ist, dass Emotionen und deren Darstellung meist nur im Kontext des Menschen erforscht wer-den. Dadurch wird wenig auf die speziellen Fähigkeiten, oder Limitierungen von Robotern in ihrer Darstellung und Ausdrucksweise eingegangen und das volle Potential der Roboter ausge-nutzt. Ein Beispiel, für ein solches Denken außerhalb gewohnter Grenzen der Emotionsdarstel-lung, wäre der Roboter Daryl [Emb+12] mit seinen LEDs im Rumpf.
6.3 Ausblick
Im Kontext der Modelle wäre zum Beispiel eine Möglichkeit bestimmten Emotionen Farben zuzuordnen, welche der Entwickler des entsprechenden Roboters dann selbständig auf etwaig zur Verfügung stehende LEDs übertragen muss. Im Beispiel von Loomo wäre bei einem umfang-reicheren SDK so möglich die Lichter in den Rädern, oder den Seiten des Kopfes bei Wut rot, oder bei Ekel grün leuchten zu lassen. Um dies wirklich sinnvoll und ohne Missverständnisse für die Person, die die Emotionen erkennen soll einzusetzen, müssten allerdings erst entsprechen-de Tests durchgeführt werentsprechen-den, ob Farben förentsprechen-derlich für das Verständnis sind, oentsprechen-der vielleicht sogar das Gegenteil.
Eine weitere denkbare Erweiterung des Modells bezüglich der binären Überprüfung, ob Emo-tionen darstellbar sind, oder nicht, wäre es eine Zuversichtsskala einzubauen, mit der Emotio-nen erkannt werden könEmotio-nen. Dabei würde je nach Menge der Bewegungen, des Modells, die der Roboter ausführen kann der Wert steigen, oder sinken und ab einem bestimmten Wert die Dar-stellung abbrechen, obwohl jede verpflichtende Bewegung dargestellt werden kann, aber durch das Fehlen der anderen Bewegungen eine Erkennung trotzdem nur noch sehr schwer möglich ist.
Darüber hinaus wäre eine denkbare Verbesserung die Modelle an mehreren unterschiedli-chen Robotern zu testen und um spezielle Fähigkeiten zu erweitern. Mit den dadurch gesam-melten Ergebnissen wäre es möglich, die bis jetzt, aufgrund der vorhandenen Literatur, haupt-sächlich auf den Menschen ausgelegten Emotionsbestandteile, besser auf unterschiedliche Ro-boter und deren Fähigkeiten, bzw. Einschränkungen anzupassen.
Da während der Recherche zu dieser Arbeit keinerlei andere Arbeiten bezüglich Modellen zur automatisierten Emotionsdarstellung bei Robotern gefunden werden konnten, hier aber gezeigt werden konnte, dass mit dem vorgestellten Modell grundlegende Emotionen sehr gut erkenn-bar dargestellt werden können, eröffnen sich viele neue Forschungsgebiete. Um zu überprüfen, wie gut nicht grundlegende Emotionen tatsächlich erkannt werden können ist es nötig klare Bewegungsmuster dieser Emotionen zum Beispiel im Stile der FABO zu erforschen. Mit diesen genauen Bewegungsmustern könnten anschließend weitere Emotionsmodelle erstellt werden, mit welchen anschließende Nutzertests eine Aussage über die Erkennbarkeit liefern könnten.
A Anhang
A.1 Befehlsliste
Die Befehlsliste enthält alle Befehle, die in den Modellen enthalten sein können. Außerdem sind für verschiedene Komplexere Bewegungsmuster, wie zum Beispiel Kopfschütteln, genaue Ab-laufpläne enthalten.
6 Augenbrauen nach unten gezogen
7 Augenbrauen nach oben gezogen
8 Augenbrauen innere Ecken nach oben gezogen
9 Augenbrauen nach innen zusammengezogen
10 Stirn
18 Unteres Augenlid nach unten gezogen
19 Augenlider hängen herab
20 Augenlider geschlossen
21 Augenlid innere Ecke erhöht
22 Augen
36 Lippen Ecken nach oben gezogen
37 Lippen Ecken nach unten gezogen
38 Lippen Ecken nach hinten gezogen
39 Oberlippe erhöht
40 Oberlippe gesenkt
41 Unterlippe erhöht
42 Unterlippe gesenkt
43 Unterlippe zur Oberlippe gedrückt
44 Kinn
54 Kopf nach links geneigt
55 Kopf nach rechts geneigt
56 Kopf nach oben geneigt
57 Kopf nach unten geneigt
58 Kopfschütteln
59 solange Zeitraum nicht überschritten
60 Kopf mit doppelter Geschwindigkeit und halber Bewegungsdauer nach links
61 Kopf mit doppelter Geschwindigkeit und halber Bewegungsdauer nach rechts
62 Kopf gebeugt
75 Hand geht zum Kopf
76 Hand kratzt Kopf
84 Hände zur Faust geballt
85 Hände nah am Körper
86 Hände über Gesicht
87 Hände bedecken Gesicht
88 Hände bedecken Nacken
89 Hände gehen zum Kopf
90 Hände zusammengepresst
91 Hände öffnen
92 Hände über Kopf
93 Handflächen nach oben
A.1 Befehlsliste
94 Hände öffnen
95 Innenseite nach oben
96 Hand kratzt Kopf
97 Hand geht zum Kopf
98 Zeigefinger ausstrecken
99 schnelle Vorwärts-/Rückwärtsbewegungen
100 Hände nach oben öffnen
101 Hände öffnen
102 Hände bewegen sich zueinander
103 Hände berühren sich an Innenseiten
104 Fingerzeig
105 Zeigefinger ausgestreckt
106 restliche Finger angewinkelt
107 Arm heben
108 Faust schütteln
109 Hand zur Faust geballt
110 Arm Auf-/Abwärtsbewegung
111 Handflächen nach unten Geste
112 Hände öffnen
113 Handflächen nach unten zeigen
114 Arme bewegen sich auf und ab
115 Nägel beißen
116 Hände leicht geschlossen
117 Finger zu Mund bewegen
118 kauen
119 solange Zeitraum nicht überschritten
120 Mund schließen
121 Mund öffnen
122 solange Finger vorhanden nächsten Finger zu Mund bewegen
123 Hände klatschen
124 solange Zeitraum nicht überschritten
125 Hände bewegen sich schnell zusammen
126 Arme
127 Arme um Körper geschlungen
128 Arme um Schultern geschlungen
129 Arme heben
130 Arme vom Körper strecken
131 Arme nach vorn gestreckt
132 Arme verschränkt
133 linker Unterarm bewegt sich vor Brust nach rechts
134 rechter Unterarm bewegt sich vor Brust nach links
135 Oberkörper
136 Oberkörper nach vorn gelehnt
137 Schultern
147 ruckartige Flucht
148 Bewegungsart
149 wenig Bewegungen
150 langsame Bewegungen
151 leichte Bewegungen
152 unausgeprägte Bewegungen
153 schnelle Bewegungen