• Keine Ergebnisse gefunden

9 Ausgewählte Themen

N/A
N/A
Protected

Academic year: 2022

Aktie "9 Ausgewählte Themen"

Copied!
12
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

9 Ausgewählte Themen

27. Vorlesung: Mensch-Maschine-Kommunikation – Von Agenten zu Interface-Agenten

und Standpunkt IW

• Intelligenz entfaltet sich in der

Interaktion

(wenn auch sie kognitive Fähigkeiten bei den beteiligten Partnern voraussetzt)

• Die Interaktion dient in Arbeitskontexten einem bestimmten Zweck (oder mehreren)

• Wenn ich interaktive Systeme/Maschinen will, die sich im Gebrauch "intelligent anstellen", benötigen sie eine entsprechende "kognitive" Ausstattung

• Ein technisches Ziel der Künstlichen Intelligenz sollte es sein, Systeme mit kognitiven Fähigkeiten soweit auszustatten, daß sie den Menschen von mühsamer Bedienung entlasten

(Akademisches Ziel bleibt nach wie vor die Erklärung von

Intelligenz-Phänomenen)

(2)

! " #

$

Methoden der Künstlichen Intelligenz, insbesondere Expertensystemtechniken, können in der Mensch- Maschine-Kommunikation nutzbringend eingesetzt werden.

Kernidee

• Finde Konzeptualisierung der Anwendungsdomäne

• beschreibe Domänenwissen in Form von Regeln etc.

• mache sie einem Domänenproblemlöser (oder mehreren) verfügbar

Die Anwendung von Expertensystemtechniken für

intelligente Interfaces zu technischen Systemen ist

einfacher als für Entscheidungsunterstützung !

(3)

! " &

Regeln

• zur Modellierung von Domänenwissen

• Inferenzberechnung z.B. mit CLIPS

Frames

• strukturierte Beschreibung von Objekttypen

• Vererbung von Eigenschaften auf Instanzen

Constraints

• Darstellung und Test von Objektabhängigkeiten

• automatische Propagierung von Änderungen

thematisiert in der

• Robotik (autonome Systeme; verteilte Systeme)

• Sprachverarbeitung (Sprach-Handlungssysteme)

• Computergrafik (interaktives Design, Animation)

Projekte:

• am CSLI an der Stanford University

• am CIS der University of Pennsylvania

• am Sony Computer Science Laboratory Tokyo

• am DFKI in Saarbrücken (AKA)

• an der Uni Bielefeld im Rahmen von KI-NRW

(4)

! "

Kognitive Verarbeitung

Reasoning

Wissensbasis Knowledge Base

Agent A

Kognitive Verarbeitung

Reasoning

Wissensbasis Knowledge Base

Agent B

gesprochene oder geschriebene

Sprache

(Sprach-) Handlungen

(Sprach-) Perzepte

Mensch-Maschine-Kommunikation: Agent A ist ein Mensch, Agent B eine Maschine (oder umgekehrt)

(angelehnt an Russell & Norvig 1995)

• Agent B perzipiert übermittelte sprachliche Äußerungen (deren Bedeutung er verstehen will)

• Agent A agiert in Form sprachlicher Handlungen (produziert Äußerungen, die er übermittelt)

Agenten haben

– Basisfunktionalität (können bestimmte, ihnen zugeteilte Aufgaben lösen)

– kooperativen Überbau (zur Teilnahme an Ko- operationsverfahren mit anderen Agenten) – Kommunikationsfähigkeit (durch Zugriff auf

Kommunikationskanäle zu anderen Agenten)

gestaffelte Systeme:

auf der obersten Ebene lediglich zwei Agenten:

menschlicher Benutzer - künstliches System, Aufgliederung in Gesellschaft weiterer Agenten bis hin zu primitiven (nicht weiter zerlegbaren)

(z.B. Müller & Siekmann 1991, Steiner 1992, Cremers et al. 1992)

'Höhere' Agenten können Wissen über andere Agenten haben.

Kein Agent hat Überblick über das zu lösende Gesamtproblem (keine zentrale Kontrolle).

(5)

! " )

Modularität

• rüste autonome Problemlöser (Spezialisten) mit Expertenwissen für Teilaufgaben aus und füge sie “im Team” zusammen

Multiagentensysteme

Idee: Jeder Agent hat gerade soviel Wissen, wie benötigt wird, um seine Spezialaufgabe zu lösen.

Interaktion zwischen mehreren Agenten mit einfachem Verhalten kann genutzt werden, um komplexe Aufgaben zu lösen.

B C DE F GH DIJ I K DF LF MF LN

→ Arbeiten am MIT Media-Lab; übernommen in Visionen über zukünftige Benutzerschnittstellen (Apple, HP, DEC...)

• Systeme zur Unterstützung von Benutzern im Umgang mit Computer-Anwendungen ("personal assistants")

• benutzen Wissen über Aufgaben, Gewohnheiten und Präferenzen ihrer Benutzer, um an deren Stelle Handlungen auszuführen

• graduell erweiterte Delegation von Aufgaben in dem Maße, wie sich ein Agent in Wahrnehmung seiner Aufgabe bewährt (Bsp: Scheduling-Aufgaben)

Wie erhalten Agenten das erforderliche Wissen über ihre Benutzer?

(Lernverfahren vs. explizite Program- mierung)

(z.B. Laurel 1990, Kozierok & Maes 1993)

(6)

* + , - . /01 2 3 4 5 6 1 78 . 9 1 4 9 1 / : ; 4 2 70< = 8 1 4 > 4 71 00< 5 1 4 ? @ @

Übersicht:

• Software-Agenten

• Idee: Instruierbare Interface-Agenten

• Trade-offs zwischen Komfort und Kontrolle Botschaft des Artikels:

Von einer Sicht des Computers als überquellende Toolbox zu einer Sicht des Computers als einer Agentur Agentur:

Gruppe von Agenten mit individuellen Fähigkeiten und mit der Fähigkeit zur Kooperation

Quelle:

Lieberman, H. & Maulsby, D.

(1996): Instructible agents:

Software that just keeps getting better. IBM Systems Journal 35(3&4), 539-556.

B C DE F GH DIJ I K DF LF MF LN

* sollen die Mensch-Maschine-Kommunikation möglichst menschenähnlich gestalten

* werden in alle möglichen direkt-manipulierten Interfaces eingebettet

* sollen bei Bedarf beigezogen werden, aber auch umgangen werden können

Zwei komplementäre Ansätze:

• direkte Instruktion

• induktive Inferenz

auch kombiniert einsetzbar

Beispiele T u r v y Mondrian Letizia ACT

(7)

* + , - . /01 2 3 4 5 6 1 78 . 9 1 4 9 1 / : ; 4 2 70< = 8 1 4 > 4 71 00< 5 1 4 ? @ O

• Ein Experiment: Simulation der Benutzer/Agenten- Interaktion in einem Texteditor (ein Mensch spielt Rolle des Interface-Agenten)

• Beispiel: Formatieren einer Literaturliste (u.a.: Wie findet man Autorennamen und das Erscheinungsjahr heraus?) Ersparnis einer großen Menge von Maus-, Menu-, Tastaturkommandos

• Ziel: Finden geeigneten Diskurs-Vokabulars;

Entwicklung allgemeiner Interaktionskriterien:

- Lernen aus Beispielen

- verbale und gestische Eingaben verstehen - Entdecken von Spezialfällen ("van Lehn") - Erkennen impliziter Negativbeispiele (was der Benutzer nicht macht)

Einiges davon ist im System Cima implementiert (symbolischer Lernalgorithmus, der kontinuierlich mitläuft)

B C DE F GH DIJ I K DF LF MF LN

• ein Agent, der neue Graphik-Prozeduren durch explizite Instruktion lernt, auf der Basis von a) Vormachen b) graphisch annotierten Videos

• Feedback über das Gelernte durch bildhafte und sprachliche Agentenäußerungen

• Beispielszenario: Dokumentation der Bedienung und Wartung elektrischer Geräte in Flugzeugen

• eingebettet in eine multimediale (Video-) Bedienungsanleitung (z.B. wie findet man Teile und modifiziert - etwa zerlegt - man sie?)

• aufgrund einiger Vormachbeispiele wird feste Prozedur gelernt

(8)

* + , - . /01 2 3 4 5 6 1 78 . 9 1 4 9 1 / : ; 4 2 70< = 8 1 4 > 4 71 00< 5 1 4 ? @ Q

• ein Agent, der beim Web-browsing assistiert und durch Beobachtung des Benutzers stetig inkrementell lernt

• Web-Suche als Kooperation zwischen Mensch und Software-Agent

- arbeitet in Verbindung mit dem Netscape Navigator;

beobachtet das Browsing-Verhalten des Benutzers - macht eine ressourcen-beschränkte Suche, um dem

Benutzer Empfehlungen über als nächstes zu verfolgende links zu geben

nicht wissensbasiert, sondern verhaltensbasiert realisiert:

• entwickelt neue "behaviors" durch nichtüberwachtes Lernen

• soll in Zukunft doch explizit instruiert werden, da das Entwickeln gewünschten Verhaltens sehr langsam und unzuverlässig erfolgt

B C DE F GH DIJ I K DF LF MF LN

Arbeiten im Rahmen des MIT-Projekts ALIVE (Artificial Life Video Environment)

• instruierbarer Agent, der neue Verhaltens- weisen für animierte Charaktere eines Virtual-Reality Environments lernt

• Benutzer tritt im Environment als "Avatar" auf

• integiertes Lernen durch Beobachtung, Rat und explizite Instruktion:

- alle Agentenverhaltensweisen müssen bislang vorprogrammiert sein

- Ziel jedoch: Benutzer soll durch erlernte neue Verhaltensweisen erfreut werden

Beispielanwendung:

Agent Jasper, der Rutschbahnen (mit richtigen Abständen der Leitersprossen) aus virtuellen Lego- Steinen bauen lernt

(9)

* + , - . /01 2 3 4 5 6 1 78 . 9 1 4 9 1 / : ; 4 2 70< = 8 1 4 > 4 71 00< 5 1 4 ? @ +

Ein Spektrum instruierbarer Systeme im Vergleich:

S T T U V W X V Y Z Z [\ V ] ^ X _ [V \ ` a \ Z Y ^ [U ] b Y a [W ^ [^ c a V ] [\ V d Y V \ Y X \ ^ a \ ^ e\ ^ X b [c f d ] a b \ V e

gh i j k k gl j h m

k n o p m j gi n q n r i gs h

n o i s t n i gu gj v o h l

r v s l v n t t g j v w n v x j gi

k j v h n o p y n h q

gh u i v o x i gs h u n o p y n h q

w j h o i m j v x s h i v s k k j

(dunkel: Eigenschaft wenig gegeben; hell: Eigenschaft stark gegeben)

’ “ ”• – —˜ ”™š ™ › ”– œ– – œž

• Instruierbare Agenten repräsentieren einen

"sweet spot" zwischen Komfort und Kontrolle • sie ermöglichen dem Benutzer die Delegation von

Aufgaben an ein semi-intelligentes System, ohne

ihm/ihr die detaillierte Kontrolle zu entziehen

(10)

z { | } ~ € ‚ ƒ „ … †  ‡ˆ ~ ‰  „ ‰   Š ‹ „ ‚ ‡€Œ  ˆ  „ Ž „ ‡ €€Œ …  „   Ÿ

These: Ein Schnittstellen-Assistent ist dann vonnöten, wenn die Hand- habung eines Programms durch den Menschen schlecht oder gar nicht möglich ist.

=> Ursache: Programme sind schlecht aufgebaut oder zu komplex, so daß diese hätten aufgeteilt werden müssen („Wollmilchsau“)

=> Kernproblem angehen

(Word-Assistent „Büroklammer“

als exemplarisches Beispiel)

Der IA muß „intuitiven“ Umgang bieten:

 

den Willen des Menschen richtig interpretieren

 

die verschiedenen Benutzersichten berücksichtigen („Informatiker“ –

„Sekretärin“)

 

die Handhabung vereinfachen

 

Vorgänge transparent darstellen

 

darf nur korrekte Dinge im Sinne des Benutzers tun (Wird nach einem Punkt groß geschrieben? Wann wird der Benutzer gefragt?)

  i.a. keine Dinge automatisch ändern

(Stellungnahme von Frank Kastrup / Stud. NWI)

’ “ ”• – —˜ ”™š ™ › ”– œ– – œž  

IA frißt Rechenzeit/Speicherplatz

 

Wenn der IA gut funktionieren soll, wird er ein Benutzerprofil erstellen und sich rasch anpassen

=> Datenschutzproblem

 

Der IA muß Wissen repräsentieren, um dem Benutzer Übersicht zu geben, allerdings nicht immer

 

Das Umgehen des IA wird bei erfolgreicher Implementation immer unwahrscheinlicher

 

Hauptproblem: Kontrollverlust!

  siehe These

 

Die meisten Problemkreise sind zu komplex, um sie in den Griff zu bekommen

 

Programmieraufwand ist zu hoch, wenn man es nicht schafft, eine allgemeine Vorgehensweise zu implementieren, die für viele Programme gut funktioniert

 

Die Vereinheitlichung von Ober- flächen macht mehr Sinn, da der Benutzer rasch Übersicht gewinnt

(Stellungnahme von Frank Kastrup / Stud. NWI)

(11)

z { | } ~ € ‚ ƒ „ … †  ‡ˆ ~ ‰  „ ‰   Š ‹ „ ‚ ‡€Œ  ˆ  „ Ž „ ‡ €€Œ …  „  z 

Komplexe Bedienung eines modernen Grafik-Systems: auf jeder Seite eine Randmenüleiste mit 20 Feldern, oben und unten noch ein paar Felder, zwischen drei oder vier solchen Bild- schirmen kann hin- und her- geschaltet werden, jedes Menü- feld läßt weitere Unter- und Unter-unter-Menüs aufspringen, die mehrere tausend Funktionen aktivieren und kombinieren, mit Hilfe der Maus sind fein- motorisch anspruchsvolle Manipulationen auf vier Teil- bildschirmen vorzunehmen...

Leicht vorstellbar, daß die Ein- arbeitung ein halbes Jahr oder mehr erfordert, bevor das System im gewünschten Maße nützlich wird.

’ “ ”• – —˜ ”™š ™ › ”– œ– – œž ¢ £ ¤ ¥ ¦ §¨¤ ¥ £ ¨

© ª ¨« £ ¬

­¦ «£ ® ¯° ¤ £ ±

² ³ £ ¦ «£ ¦

´ £ ¦ ¨¤ ¥ ¢ £ §µ° «· ¦ · ¬ £ ¨ © ª ¨«£ ¬

¸

als Bindeglied in der Mensch- Maschine-Kommunikation

¸

Vereinfachung der Handhabung komplexer technischer Systeme

statt direkter Manipulation:

Kommunikation mit einem teilautonomen System

Teilautonomes System:

Ein System, das Anteile seiner Funktion unabhängig von direkter Steuerung durch Benutzer erbringen kann

(12)

z { | } ~ € ‚ ƒ „ … †  ‡ˆ ~ ‰  „ ‰   Š ‹ „ ‚ ‡€Œ  ˆ  „ Ž „ ‡ €€Œ …  „  z ¹

º » ¼ ½ ¾ ¿ À Á Â Ã Ä Å

Æ Ç È É È ¾ Ê ¾ Ë ¾ Ê Ì

Í Î Î Ï Ð Í Î Î Ñ

’ “ ”• – —˜ ”™š ™ › ”– œ– – œž

Referenzen

ÄHNLICHE DOKUMENTE

4 Der KB werden nur Fakten über die externe Welt in Form von propositionalen Formeln erzählt und keine Aussagen über ihr eigenes Wissen. 5 Alles was der KB erzählt wird

Den rechtlichen Rahmen zieht zudem nicht der Gesetzgeber, sondern die Gerichte – wie bei der Entscheidung des Europäischen Gerichtshofs, dass eine E-Mail eben nicht wie ein Brief

 Wissenstransfer erfolgt primär über Remigranten als Wissensträger und weniger über Beziehungen zu externen Akteuren ( pipelines ). Polnische Remigranten als Agenten des Wandels

„Wir beschäftigen uns seit 20 Jahren mit dem Klimawandel, wir leben weit über unsere Ver- hältnisse beim CO2-Ausstoß – wir wissen das alle – also, warum setzen wir dieses Wissen

• Autonomie: Agenten operieren ohne direkten Eingriff durch Benutzer oder äußere Steuerung, haben selbst Kontrolle über ihre Aktionen.. • Soziale Fähigkeiten: Agenten

•  Agenten sind Systeme, die ihre Umgebung!. wahrnehmen ( PERCEIVE ) und in ihr handeln (

% Sämtliche aus der Kommunikation und Kooperation resultierenden Aktivitäten sind für alle Agenten einheitlich definiert. Jeder Agent kann die Rolle eines Auftraggebers

Alle Gefäße, die leicht sind, einen Henkel haben und einen flachen Boden, sind Becher... Dieser Schluß ist (wie die Induktion) nicht wahrheitserhaltend, sondern