• Keine Ergebnisse gefunden

6.1 Zusammenfassung

Im Rahmen dieser Arbeit wurde überprüft, ob es möglich ist ein Modell zu erstellen, mit dem au-tomatisiert Emotionen auf unterschiedlichen Robotern dargestellt werden können. Dafür wur-de zunächst ermittelt, wie Emotionen wur-definiert werwur-den, wobei wur-deutlich wurwur-de, dass es nicht ei-ne allgemein gültige Emotionsdefinition gibt, sondern mehre verschiedeei-ne Ansätze. Während sich viele Forscher bezüglich der Aufgabe der Emotion als Kommunikationsmittel einig sind, gehen ihre Vorstellungen über die Ursachen der Emotionen auseinander. Darwin und viele ihm nachfolgende Forscher wie Scherer [Sch87] sind der Meinung, dass Emotionen eine Reaktion auf ein in der Umwelt, oder körperintern erfolgtes Ereignis erfolgen und den Menschen zu ei-ner Handlung motivieren sollen. Diese These wird im kognitiven Ansatz um den Schritt der Bewertung zwischen dem Ereignis und der Reaktion erweitert.

William James [Jam84] hingegen prägte als erster den Ansatz, dass Emotionen eine Reaktion auf eine vom Körper automatisch auf einen Reiz ausgeführte Handlung sind.

Die letzte vorgestellte Definition bezieht sich auf die Theorie der sozialen Konstruktivisten, die besagt, dass Emotionen ein Produkt gesellschaftlicher Regeln und Normen sind.

Über all diesen Definition steht allerdings die Erkenntnis, dass es grundlegende Emotionen gibt, die im Gegensatz zu den meisten Emotionen keinerlei sozialen, oder gesellschaftlichen Unterschieden unterliegen und auf der ganzen Welt erkennbar sind.

Nachdem die Bestandteile von Emotionen zusammengefasst wurden widmete sich der nächs-te Abschnitt der Erkennung von Emotionen. Darin wurde geklärt, dass das Erkennen in mehre-ren Schritten durch einen Musterabgleich mit bereits bekannten Mustern verglichen wird und Vorwissen über bereits bekannte Emotionale Reaktionen in bestimmten Situationen bei der Er-kennung hilft. Außerdem wurde gezeigt, dass Emotionen nicht nur über das Gesicht, sondern auch viel über den Körper dargestellt werden.

Nach der Vorstellung einiger Roboter, mit mehr oder weniger ausgeprägten Fähigkeiten zur Emotionsdarstellung und wofür diese benutzt werden widmete sich das nächste große Kapitel der Modellerstellung. Dabei wurde zunächst auf die Anforderungen eingegangen, die ein Modell erfüllen können sollte um Emotionen damit zu modellieren. In dieser Arbeit wurde vorgeschla-gen, dass ein solches Modell Verknüpfunvorgeschla-gen, Ausschlüsse, Implikationen, zwingende Voraus-setzungen, sowie VorausVoraus-setzungen, wenn möglich, Kardinalitäten und Einteilungen in Katego-rien ermöglichen muss. Da viele dieser Bedingungen bereits von Feature-Modellen, oder deren Erweiterungen unterstützt werden, wurde vorgeschlagen die Modelle auf Basis von Feature-Modellen mit geringen Abwandlungen zu erstellen.

Mit den im nächsten Schritt erstellten Modellen wurde anschließend eine Anwendung ent-wickelt um diese am Roboter Loomo zu testen. Um die Emotionsdarstellung so modular wie möglich zu halten wurde die Logik in eine Android-Bibliothek ausgelagert und nur die konkre-ten Bewegungen in der App selbst programmiert.

Um zu testen, ob die erstellten Modelle erkennbare Emotionen generieren können wurde an-schließend eine Nutzerstudie durchgeführt. Diese ergab, dass grundlegende Emotionen sehr

gut erkannt werden, bei anderen Emotionen die Erkennung, aber nur schlechte Ergebnisse lie-fert.

6.2 Fazit

Wie die Nutzerstudie in Kapitel 5 zeigte, ist eine automatisierte Emotionsdarstellung für grund-legende Emotionen sehr gut möglich. Auch die nur sehr kurz dargestellten Emotionen wurden sehr gut erkannt und vor allem durch die Gesichtsausdrücke kann somit eine erkennbare Emo-tion auch während anderen Aufgaben des Roboters gut dargestellt werden. Da diese EmoEmo-tionen trotz eines nur sehr rudimentär dargestellten Gesichts und eingeschränkten Bewegungsfähig-keiten des Roboters, gut erkannt wurden lässt sich außerdem annehmen, dass diese für fast alle Roboter implementiert werden können, so lange sie die Möglichkeit haben Augen, Augenbrau-en und Mund darzustellAugenbrau-en. Allerdings wurde auch deutlich, dass nicht grundlegAugenbrau-ende Emotio-nen, wie zum Beispiel Unsicherheit, so gut wie nicht erkannt werden können. Da grundlegende Emotionen aber sehr gut erkannt wurden, kann man davon ausgehen, dass diese schlechte Er-kennung nicht an der Architektur, oder den Möglichkeiten des Modells liegt, sondern eher am fehlenden Kontext, gepaart mit einer für komplexe Emotionen zu geringen Darstellungsfähig-keit des Testroboters Loomo. Da für die meisten Aufgabenbereiche, die in Kapitel 1 genannt wurden grundlegende Emotionen als grobe Indikatoren ausreichen wird vorgeschlagen, wo es möglich ist diese zu verwenden um Missverständnissen vorzubeugen und ein besseres Nutzer-erlebnis zu ermöglichen. Sollten trotzdem andere Emotionen verwendet werden wollen, ist es besonders wichtig, diese möglichst exakt umsetzen zu können, also ein detailliertes Gesicht und möglichst viele bewegliche, manipulierbare Körperteile zu haben.

Die vor allem in der Altenpflege, oder im Umgang mit behinderten Menschen, gewünschte Multimodalität lässt sich zwar umsetzen, stößt aber sehr schnell an Grenzen, wenn nicht nur kurze Töne ausgegeben werden sollen, die eine Emotion charakterisieren, sondern die „Stim-me“ des Roboters manipuliert werden soll um beispielsweise zittrig zu klingen. Es zeigte sich in der Nutzerstudie auch, dass die Wahl der richtigen Tonausgabe sehr entscheidend ist, da da-durch die Erkennung sehr stark beeinflusst wird. So zum Beispiel bei der Emotion Angst, bei der viele der Offline-Testpersonen nach dem Beantworten der Emotion den Schrei als irre-führend nannten. Dies ist vor allem für Sehbehinderte ein Problem, da diese ohne Tonausgabe keine Möglichkeit haben die Emotion zu erkennen. Eine mögliche Verbesserung dafür wäre die Emotion konkret anzusagen, was allerdings für sehende wahrscheinlich zu sehr ungewohnten Interaktionen führen würde. Eine elegante Lösung für dieses Problem wäre den Roboter auf Kommando erklären zu lassen wie er sich fühlt. Er würde also zuerst die Emotion gemäß dem Modell ausführen. Sollte diese Emotion nicht erkannt werden, kann über ein Sprachkommando gefragt werden, wie er sich fühlt, worauf eine Emotion genannt wird.

6.3 Ausblick

Eine Herausforderung, die bei Emotionsdarstellungen für Roboter nicht oft Beachtung findet, ist, dass Emotionen und deren Darstellung meist nur im Kontext des Menschen erforscht wer-den. Dadurch wird wenig auf die speziellen Fähigkeiten, oder Limitierungen von Robotern in ihrer Darstellung und Ausdrucksweise eingegangen und das volle Potential der Roboter ausge-nutzt. Ein Beispiel, für ein solches Denken außerhalb gewohnter Grenzen der Emotionsdarstel-lung, wäre der Roboter Daryl [Emb+12] mit seinen LEDs im Rumpf.

6.3 Ausblick

Im Kontext der Modelle wäre zum Beispiel eine Möglichkeit bestimmten Emotionen Farben zuzuordnen, welche der Entwickler des entsprechenden Roboters dann selbständig auf etwaig zur Verfügung stehende LEDs übertragen muss. Im Beispiel von Loomo wäre bei einem umfang-reicheren SDK so möglich die Lichter in den Rädern, oder den Seiten des Kopfes bei Wut rot, oder bei Ekel grün leuchten zu lassen. Um dies wirklich sinnvoll und ohne Missverständnisse für die Person, die die Emotionen erkennen soll einzusetzen, müssten allerdings erst entsprechen-de Tests durchgeführt werentsprechen-den, ob Farben förentsprechen-derlich für das Verständnis sind, oentsprechen-der vielleicht sogar das Gegenteil.

Eine weitere denkbare Erweiterung des Modells bezüglich der binären Überprüfung, ob Emo-tionen darstellbar sind, oder nicht, wäre es eine Zuversichtsskala einzubauen, mit der Emotio-nen erkannt werden könEmotio-nen. Dabei würde je nach Menge der Bewegungen, des Modells, die der Roboter ausführen kann der Wert steigen, oder sinken und ab einem bestimmten Wert die Dar-stellung abbrechen, obwohl jede verpflichtende Bewegung dargestellt werden kann, aber durch das Fehlen der anderen Bewegungen eine Erkennung trotzdem nur noch sehr schwer möglich ist.

Darüber hinaus wäre eine denkbare Verbesserung die Modelle an mehreren unterschiedli-chen Robotern zu testen und um spezielle Fähigkeiten zu erweitern. Mit den dadurch gesam-melten Ergebnissen wäre es möglich, die bis jetzt, aufgrund der vorhandenen Literatur, haupt-sächlich auf den Menschen ausgelegten Emotionsbestandteile, besser auf unterschiedliche Ro-boter und deren Fähigkeiten, bzw. Einschränkungen anzupassen.

Da während der Recherche zu dieser Arbeit keinerlei andere Arbeiten bezüglich Modellen zur automatisierten Emotionsdarstellung bei Robotern gefunden werden konnten, hier aber gezeigt werden konnte, dass mit dem vorgestellten Modell grundlegende Emotionen sehr gut erkenn-bar dargestellt werden können, eröffnen sich viele neue Forschungsgebiete. Um zu überprüfen, wie gut nicht grundlegende Emotionen tatsächlich erkannt werden können ist es nötig klare Bewegungsmuster dieser Emotionen zum Beispiel im Stile der FABO zu erforschen. Mit diesen genauen Bewegungsmustern könnten anschließend weitere Emotionsmodelle erstellt werden, mit welchen anschließende Nutzertests eine Aussage über die Erkennbarkeit liefern könnten.

A Anhang

A.1 Befehlsliste

Die Befehlsliste enthält alle Befehle, die in den Modellen enthalten sein können. Außerdem sind für verschiedene Komplexere Bewegungsmuster, wie zum Beispiel Kopfschütteln, genaue Ab-laufpläne enthalten.

6 Augenbrauen nach unten gezogen

7 Augenbrauen nach oben gezogen

8 Augenbrauen innere Ecken nach oben gezogen

9 Augenbrauen nach innen zusammengezogen

10 Stirn

18 Unteres Augenlid nach unten gezogen

19 Augenlider hängen herab

20 Augenlider geschlossen

21 Augenlid innere Ecke erhöht

22 Augen

36 Lippen Ecken nach oben gezogen

37 Lippen Ecken nach unten gezogen

38 Lippen Ecken nach hinten gezogen

39 Oberlippe erhöht

40 Oberlippe gesenkt

41 Unterlippe erhöht

42 Unterlippe gesenkt

43 Unterlippe zur Oberlippe gedrückt

44 Kinn

54 Kopf nach links geneigt

55 Kopf nach rechts geneigt

56 Kopf nach oben geneigt

57 Kopf nach unten geneigt

58 Kopfschütteln

59 solange Zeitraum nicht überschritten

60 Kopf mit doppelter Geschwindigkeit und halber Bewegungsdauer nach links

61 Kopf mit doppelter Geschwindigkeit und halber Bewegungsdauer nach rechts

62 Kopf gebeugt

75 Hand geht zum Kopf

76 Hand kratzt Kopf

84 Hände zur Faust geballt

85 Hände nah am Körper

86 Hände über Gesicht

87 Hände bedecken Gesicht

88 Hände bedecken Nacken

89 Hände gehen zum Kopf

90 Hände zusammengepresst

91 Hände öffnen

92 Hände über Kopf

93 Handflächen nach oben

A.1 Befehlsliste

94 Hände öffnen

95 Innenseite nach oben

96 Hand kratzt Kopf

97 Hand geht zum Kopf

98 Zeigefinger ausstrecken

99 schnelle Vorwärts-/Rückwärtsbewegungen

100 Hände nach oben öffnen

101 Hände öffnen

102 Hände bewegen sich zueinander

103 Hände berühren sich an Innenseiten

104 Fingerzeig

105 Zeigefinger ausgestreckt

106 restliche Finger angewinkelt

107 Arm heben

108 Faust schütteln

109 Hand zur Faust geballt

110 Arm Auf-/Abwärtsbewegung

111 Handflächen nach unten Geste

112 Hände öffnen

113 Handflächen nach unten zeigen

114 Arme bewegen sich auf und ab

115 Nägel beißen

116 Hände leicht geschlossen

117 Finger zu Mund bewegen

118 kauen

119 solange Zeitraum nicht überschritten

120 Mund schließen

121 Mund öffnen

122 solange Finger vorhanden nächsten Finger zu Mund bewegen

123 Hände klatschen

124 solange Zeitraum nicht überschritten

125 Hände bewegen sich schnell zusammen

126 Arme

127 Arme um Körper geschlungen

128 Arme um Schultern geschlungen

129 Arme heben

130 Arme vom Körper strecken

131 Arme nach vorn gestreckt

132 Arme verschränkt

133 linker Unterarm bewegt sich vor Brust nach rechts

134 rechter Unterarm bewegt sich vor Brust nach links

135 Oberkörper

136 Oberkörper nach vorn gelehnt

137 Schultern

147 ruckartige Flucht

148 Bewegungsart

149 wenig Bewegungen

150 langsame Bewegungen

151 leichte Bewegungen

152 unausgeprägte Bewegungen

153 schnelle Bewegungen