• Keine Ergebnisse gefunden

Verwandte Arbeiten

Im Dokument f¨ ur den humanoiden Roboter Myon (Seite 13-17)

Die vorliegende Masterarbeit liefert eine vielschichtige Verhaltenssteuerung f¨ur den am NRL entwickelten Roboter Myon und baut daher auf vielen Ergebnissen auf, die im Rah-men von anderen Abschlussarbeiten am NRL entstanden sind. Aus diesem Grund werden zuerst relevante Arbeiten des NRLs vorgestellt, bevor das zugrundeliegende Thema in den aktuellen Stand der Forschung eingeordnet wird.

In [Thi14] ist die Entwicklung der verteilten Echtzeit-Systemarchitektur des Roboters Myon dargestellt und Siedel pr¨asentiert in [Sie15] und [SHW11] wichtige Aspekte der Konstruktion. Eine Cognitive Sensorimotor Loop (CSL) ist eine von Hild entwickel-te adaptive Regelschleife [HK11], die, je nach Parameentwickel-terwahl, verschiedene kognitive F¨ahigkeiten aufweist. In [KBH11] und [Hil13] wird am Beispiel eines aufstehenden Ro-boterbeins pr¨asentiert, wie sich komplexes Verhalten als Emergenz aus dem Zusam-menspiel dreier adaptiver Regelungsstrukturen ergibt (siehe Abbildung 1.3). In den Ver¨offentlichungen werden an einem Myon-Bein die Motoren des H¨uft-, Knie- und Fuß-gelenks jeweils durch ein CSL im Modus Contraction betrieben. In diesem Modus ar-beitet der Motor stets entgegen der einwirkenden Kraft. Die Motoren arbeiten durch die Einbettung in das physikalische System Erde und aufgrund der Anatomie des Beins kontinuierlich gegen die Schwerkraft, wodurch sich das Bein aus einer liegenden Position in einer adaptiven Bewegung von alleine aufrichtet. Es findet keine direkte Kommuni-kation zwischen den drei CSL statt – sie ergibt sich indirekt ¨uber die Interaktion mit der Umwelt (vgl. Abbildung 1.1). Ein robustes CSL f¨uhrt zu einer gewissen Langsamkeit in der Ansteuerung. In [Wer13] wird als Verbesserung eine Methode vorgeschlagen, die einen Roboter dazu bef¨ahigt, auch schnelle Bewegungen mit CSL auszuf¨uhren. Pro CSL m¨ussen dabei nur zwei Parameter gelernt und gespeichert werden und die Methode kann adaptiv auf morphologische Ver¨anderungen des Systems reagieren.

Attractor-Based Behavior Control (ABC, [HK11]) beschreibt die Sichtweise, einen Ro-boter als dynamisches System aufzufassen, sodass ein Verhalten, wie Stehen oder Sitzen, als ein Attraktor des Systems Roboter mathematisch identifiziert werden kann. Mit die-ser Herangehensweise kann ein Roboter Bewegungen zwischen zwei Attraktoren durch Ausprobieren selbst erlernen. Die selbstexplorierende Methode wird als ABC-Learning bezeichnet und ist von Bethge und Janz n¨aher untersucht worden. In [Bet14] wird die Qualit¨at des Lernfortschritts in Abh¨angigkeit von verschiedenen Entscheidungsheuristi-ken aufgezeigt, w¨ahrend in [Jan15] eine Situationserkennung implementiert wurde. Beide Arbeiten beziehen sich auf den am NRL entwickelten Roboter Semni3, wobei die erziel-ten Forschungsergebnisse im Rahmen des ABC-Learnings plattformunabh¨angig sind.

Verschiedene Ansteuerungsstrukturen des Roboters Myon sind aus Forschungsarbeiten am NRL entstanden. Sie bildeten zu Beginn meiner Arbeit eine gute Grundlage und

3Der Roboter Semni hat zwei rotatorische Freiheitsgrade und kann sich innerhalb einer festen orperebene bewegen. Die zwei Gelenke ¨ahneln in ihrer Funktion einer H¨ufte und einem Knie, sodass sich der Roboter selbstst¨andig aufrichten, abrollen, hinknien und hinstellen kann.

1 2 3

4 5 6

Abbildung 1.3. Das Verhalten des aufstehenden Beins ergibt sich aus dem gleich-zeitigen Wirken von drei lokalen, adaptiven Regelungsstrukturen. Jedes Gelenk (H¨ufte, Knie und Kn¨ochel) wird durch ein CSL angesteuert. Das Bein liegt in der Startpositi-on auf dem Boden (1), dr¨uckt sich in 2 zusammen und kippt letztendlich nach vorne und bleibt auf dem Fuß stehen (3). In 4 – 6 richtet sich der Oberschenkel auf und das Bein steht gestreckt auf dem Boden (6). Wenn das H¨uftende den Bodenkontakt ver-liert ¨andert das Knie seine Wirkungsrichtung, lediglich bedingt durch die ge¨anderten externen Krafteinfl¨usse. Abbildung angelehnt an Abbildung 3.6 aus [Bet14].

motivierten die Einbettung in ein Gesamtverhalten. In [KWH11] werden die Verhaltens-weisen Stehen und Laufen als koexistierende Attraktoren beschrieben, wobei der Wechsel zwischen den Attraktoren durch interne oder externe Signale initiiert werden kann. Ein balancierendes Stehen mit CSL wurde in [KBH11] ver¨offentlicht. Darin wird eine inhibie-rende CSL-Ansteuerung f¨ur linkes und rechtes Roll-Gelenk der H¨ufte vorgestellt, damit sich die Beine beim gespreizten Stehen nicht gegeneinander dr¨ucken, sondern lediglich die seitliche Translation des Oberk¨orpers ausgleichen. F¨ur Laufmuster humanoider Roboter existieren verschiedene Ans¨atze: Zum einen gibt es das Limit Cycle Walking [SWH10;

HW07; CR05], welches von Natur aus stabil und robust gegen¨uber kleineren externen St¨orungen ist, da es als Attraktor entworfen ist. Ebenfalls als Attraktor entworfen ist das in [KWH11] vorgestellte Laufmuster, welches durch eine sensomotorische Schleife entsteht, indem die seitliche Bewegung des Roboters als Oszillator benutzt wird anstelle eines internen statischen Oszillators. Ebenso kann ein sich wiederholendes Laufmuster durch einen sogenannten Central Pattern Generator erzeugt und dann in der Geschwin-digkeit variabel angepasst werden. An einem robusten Laufen wird z. Z. noch gearbeitet.

In der Literatur sind Ver¨offentlichungen zu Aufstehbewegungen von humanoiden Robo-tern zu finden, jedoch f¨allt dort die Aktuierung der Gelenke im Verh¨altnis zur K¨ orper-gr¨oße des Roboters sehr hoch und kr¨aftig aus. Die große Kraft der Roboter bef¨ahigt sie, ihre Bewegungen so auszuf¨uhren, dass jede Zwischenpose problemlos gehalten werden kann. Dadurch wirken die Bewegungen sehr statisch und unnat¨urlich, da keine energie-effizienten Teilbewegungen ausgenutzt werden, sondern nur darauf geachtet wird, dass der Roboter autonom aufstehen kann und nicht umf¨allt.

”Jupp“ [SSB06] ist 60 cm groß, 2.3 kg schwer und hat 19 Servomotoren.

”HRP-2P“ ist 154 cm groß, wiegt jedoch 58 kg [Hir+05].

Die Verhaltenskontrolle ist bei

”Jupp“ durch eine Hierarchie reaktiver Verhalten imple-mentiert, die zeitlich unterschiedliche Priorit¨aten haben (vgl. [BR00]). In [Gat98] wird Verhaltenssteuerung als ein Drei-Schichten System beschrieben, bei dem effektive Algo-rithmen zur Roboteransteuerung in eine der folgenden Kategorien fallen:

(i) reaktive Kontrollmechanismen, die den sensorischen Input ohne oder mit nur geringen internen Zust¨anden auf die Aktuatoren leiten

(ii) Kontrollmechanismen zur Verhaltenssteuerung, die auf komplexen internen Zu-standsunterscheidungen basieren, aber keine zeitaufw¨andige Suche ben¨otigen (iii) zeitaufw¨andige Suchmechanismen, wie z. B. Planer

Die Verhaltenssteuerung in dieser Masterarbeit enth¨alt Mechanismen aus Kategorie (i) und (ii). Algorithmen aus Kategorie (iii) werden z. Z. von Gellfart im Rahmen einer wei-teren Masterarbeit am NRL entwickelt, in der wiederauftretende Muster im sensorischen Input erkannt und abgespeichert werden.

Es gibt wenige Ver¨offentlichungen, die beschreiben, wie mit einem humanoiden Robo-ter durch nat¨urlich wirkende Interaktionen kommuniziert werden kann. Der Roboter in [Fer+12] bietet eine breitgef¨acherte Kommunikationsschnittstelle. Er kann die Richtun-gen einer gew¨unschten Lokomotion erkennen, indem ein Anwender die Stellungen seiner Arme ver¨andert oder ihn an H¨ufte (von hinten) und Fersen ber¨uhrt. Ebenso kann er Ob-jekte verfolgen und auf perkussive Reize reagieren. Dem Anwender k¨onnen auditive und visuelle R¨uckmeldungen gegeben werden durch Laute und Mimik. In [WTR00] erfolgt die Interaktion dadurch, dass eine Kamera einen Menschen erkennt und seine Armbewegun-gen analysiert. Dadurch soll der Roboter auf Gesten des Menschen reagieren und ihm folgen k¨onnen. Eine ¨Ubersicht ¨uber sicherheitskritische Aspekte der Mensch-Roboter-Interaktion, vor allem hinsichtlich industrieller Roboter, ist in [MDY08] und [Ahm11]

gegeben.

Anmerkung: Der Stand der in dieser Masterarbeit beschriebenen Implementierung be-zieht sich auf einen fr¨uhen Zeitpunkt, als die in Kapitel 4 vorgestellten Bewegungen, Bewegungs¨uberg¨ange und Ausl¨oser entworfen und im Rahmen der Verhaltenssteue-rung implementiert und getestet wurden. Anschließend flossen nur noch VerbesseVerhaltenssteue-rungen ein, die die Verhaltenssteuerung robuster machten. Bewegungen und Ausl¨oser wurden nachtr¨aglich nicht optimiert. Im Rahmen eines Projekts des NRL wurden jedoch weitere und tiefergehende Erfahrungen mit der Verhaltenssteuerung gesammelt, woraufhin ei-nige Bewegungen angepasst wurden. Diese Erfahrungen werden in Kapitel 5.5 erl¨autert und diskutiert.

Im Dokument f¨ ur den humanoiden Roboter Myon (Seite 13-17)