• Keine Ergebnisse gefunden

Wissensrepr¨asentation und -verarbeitung

N/A
N/A
Protected

Academic year: 2022

Aktie "Wissensrepr¨asentation und -verarbeitung"

Copied!
162
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Wissensrepr¨ asentation und -verarbeitung

Prof. Dr. Sibylle Schwarz HTWK Leipzig, Fakult¨at IMN Gustav-Freytag-Str. 42a, 04277 Leipzig

Zimmer Z 411 (Zuse-Bau)

http://www.imn.htwk-leipzig.de/~schwarz sibylle.schwarz@htwk-leipzig.de

Sommersemester 2017

(2)

Motivation

Wie wird Wissen

I repr¨asentiert?

I verarbeitet?

I erworben?

I ausgetauscht?

Wissen ¨uber

I Eigenschaften und Beziehungen von Objekten und Gruppen von Objekten

I Aktionsm¨oglichkeiten und deren Folgen Nutzung von Wissen zum gemeinsamen

I L¨osen von Aufgaben

I Planen von Handlungen

I Handeln

(3)

Inhalt der Lehrveranstaltung

Vorlesung:

I Daten, Information, Wissen, intelligente Agenten

I Wissensrepr¨asentation und -verarbeitung

I Wiederholung klassische Aussagen- und Pr¨adikatenlogik

I Modallogik, multimodale Logiken

I Unvollst¨andiges Wissen, nichtmonotones Schließen

I Unsicheres und unscharfes Wissen:

mehrwertige Logiken (probabilistisch, fuzzy)

I Koordination gemeinsamen Wissens und Handelns, Multi-Agenten-Systeme

I gemeinsamer Wissenserwerb, Kognition, maschinelles Lernen

I gemeinsames Planen Seminar (Pr¨ufungsvorleistung):

I Selbstudium mit Vortr¨agen (Themen demn¨achst)

I evtl. gemeinsame Robotik-Projekte

(4)

Literatur

Informationen und Folien zur aktuellen Vorlesung unter www.imn.htwk-leipzig.de/~schwarz/lehre/ss17/wr B¨ucher zu wissensbasierten Systemen:

I Stuart Russell, Peter Norvig:

K¨unstliche Intelligenz (Pearson 2004)

I Ingo Boersch, Jochen Heinsohn, Rolf Socher:

Wissensverarbeitung (Spektrum, 2007)

I Ronald Brachman, Hector Levesque:

Knowledge Representation and Reasoning (Morgan Kaufmann 2004)

I George Luger: K¨unstliche Intelligenz (Pearson 2001)

(5)

Agenten

Agent: selbst¨andig handelnde Einheit Funktionen:

I Wahrnehmung der Umwelt

I Reaktion auf Umwelt

I Anpassung, Lernen

I Kommunikation mit anderen Agenten Beispiele: z.B. Spieler

I Mensch

I Roboter

I Computer

I Software

(6)

Agent und Umgebung

Agent

Sensoren Steuerung

Aktoren

Umgebung Wahrnehmung

Aktion M¨ogliche Interaktion abh¨angig von vorhandenen

Sensoren z.B. Sinnesorgane, Kamera, Thermometer, Aktoren z.B. Hand, Motor, Regler

Steuerung z.B. Planung, Reaktion auf St¨orungen

(7)

Intelligente Agenten

Eigenschaften:

I reaktiv: regelm¨aßige Wahrnehmung der Umweltsignale, jede Aktionen abh¨angig vom Weltzustand

I aktiv: handelt zielgerichtet

I sozial: Interaktion mit anderen Agenten Agent hat und verwendet Wissen ¨uber

I aktuellen Weltzustand

I von eigenen Aktionen unabh¨angige ¨Anderungen des Weltzustandes

(z.B. Nachts wird es dunkel.)

I von eigenen Aktionen abh¨angige ¨Anderungen des Weltzustandes

(z.B. Ein von einer Stelle weggenommener Gegenstand befindet sich nicht mehr dort.)

(8)

Typische Anwendungen k¨ unstlicher Agenten

I Spiele (z.B. Schachprogramm)

I autonome Steuerung (z.B. autonome Fahrzeuge, Autopilot)

I autonome Planung (z.B. Zeitpl¨ane)

I Diagnose (z.B. Anlagen¨uberwachung)

I Entscheidungsunterst¨utzung (z.B. Konfigurationen)

I Robotik (z.B. Reinigungsroboter, Roboterfußball)

(9)

Was ist (k¨ unstliche) Intelligenz?

Turing-Test (1950): eine Person A, 2 verschlossene R¨aume R1 und R2, in einem Raum befindet sich ein Mensch B, im andern eine Maschine C

Kommunikation ¨uber neutrales Medium A stellt Fragen, B und C antworten

Maschine besteht Turing-Test (ist intelligent), wenn A durch Fragen nicht herausfinden kann, in welchem Raum sich die Maschine befindet

These: Intelligenz = intelligentesVerhalten

Chinese-Room-Test (Searle 1980): eine (nicht chinesisch verstehende) Person B in einem Zimmer mit einem (riesigen) Regelbuch mit chinesischen Fragen und passenden Antworten.

A stellt Fragen, B antwortet.

B antwortet immer passend, ohne die Frage verstanden zu haben.

These: (anscheinend) intelligentes Verhalten ist noch keine Intelligenz, wennVerst¨andnisfehlt.

Beispiel: Psychotherapeutin Eliza

(10)

Ans¨ atze zur Modellierung von Wissen / Intelligenz

verschiedene Abstraktionsstufen:

I Modellierung der menschlichen Reizaufnahme und -verarbeitung und des menschlichen Verstehens (kognitive Methoden)

I Modellierung des menschlichen Handelns Turing Test

I Modellierung des rationalen Denkens (abstrahiert von biologischem Vorbild) Regelsysteme, Logiken

(11)

Ziele wissensverarbeitender Systeme

I Simulation menschlichen Verhaltens

(Verst¨andnis und eigenes Denken nicht notwendig) schwachek¨unstliche Intelligenz

I Simulation des menschlichen Denkens (Verst¨andnis und eigenes Denken notwendig) starke k¨unstliche Intelligenz

(12)

Wissen, Information, Daten

Umwelt Eindr¨ucke, Reize

System Wahrnehmen, Beobachten Daten Erkennen, Verstehen Information

Anwenden, K¨onnen Wissen Lernen, Reflektieren Intelligenz

(13)

Wissen, Information, Daten

Daten Darstellungsform (Syntax) Zeichenketten, Symbole, Ton, . . . Information Bedeutung der Daten (Semantik)

in einem bestimmten Kontext Wissen Information mit einem Nutzen

tr¨agt zur L¨osung eines Problemes bei

(14)

Wissen zur Probleml¨ osung – Beispiele

Daten: 39.7

Information: K¨orpertemperatur= 39.7

Kontextwissen: K¨orpertemperatur>39.0 ist Fieber

Wissen: Fieber

Probleml¨osung: Fieberbehandlung

Daten: FRUEFPUJRERFCEBOYRZ

Information: FRUEFPUJRERFCEBOYRZ ist eine un- verst¨andliche, also wahrscheinlich ver- schl¨usselte Nachricht

Kontextwissen: verschiedene Chiffrierverfahren, Buchsta- benh¨aufigkeiten

Wissen: FRUEFPUJRERFCEBOYRZ ist eine mit dem . . . -Verfahren und dem Sch¨ussel . . . verschl¨usselte Nachricht

Probleml¨osung: . . .

(15)

Arten von Wissen

deklarativ ¨uber Zust¨ande (der Welt) Fakten, Aussagen, Zusammenh¨ange, z.B.

I Fliegenpilze sind ungenießbar.

I Es existieren gerade Primzahlen.

I Eine Liste (x1, . . . ,xn) ist genau dann aufsteigend sortiert, wenn sie leer ist oder (x1x2und (x2, . . . ,xn) aufsteigend sortiert ist).

prozedural ¨uber Zustands¨uberg¨ange Regeln, Algorithmen, Funktionen, z.B.

I Kochrezept

I Euklidischer Algorithmus

I aussagenlogisches Resolutionsverfahren

I Sortierverfahren

Ist die folgende Aussage Fakten- oder prozedurales Wissen?

Jedes Kind eines Kindes einer PersonX ist ein Enkel vonX.

Also: Repr¨asentationen von Regeln, Algorithmen und Funktionen lassen sich auch als Faktenwissen auffassen.

(16)

Explizites und implizites Wissen

implizit

”unbewusst“ angewendtes Wissen

z.B. Bewegungsabl¨aufe, Erkennen von Personen (Objekten), Reflexe

explizit kommunizierbares Wissen oft formale Darstellung

z.B. Personendaten, Gebrauchsanweisung, Spielregeln Lernvorg¨ange sind oft Transformationen

explizites→implizites Wissen

z.B. Autofahren, Grammatik in Fremdsprachen

zur maschinellen Wissensverarbeitung ist explizites Wissen notwendig

Transformation notwendig:

implizites→explizites Wissen anspruchsvoll, nicht immer m¨oglich

(17)

Darstellung von Wissen

formale Repr¨asentation des Wissens in einerWissensbasis:

spezielle Form der Daten in der Wissensbasis abh¨angig von

I Problembereich

I geplante Verwendung

Wissen in Wissensbasis ist immerAbstraktion, beschreibt Modelle der Realit¨at

I Auswahl von (f¨ur den Anwendungsbereich) wichtigem Wissen

I Vernachl¨assigung unwichtiger Details Beispiele:

I Liniennetzplan

I Grundriss

I Stundenplan

I Kostenplan

(18)

Wissensverarbeitung

I Probleml¨osen

I algorithmische Suche in Zustandsr¨aumen

I logisches Schließen

Beispiel: n-Damen-Problem, k¨urzeste Wege in Graphen

I Planen

Finden einer Folge von Aktionen zum Erreichen eines Zieles Beispiel: morgens Anziehen, Fertigungsroboter

I Klassifikation

Finden von Klassen (Diagnosen) anhand der Merkmalswerte (Symptome)

Beispiel: Fahrzeuge, Fehlfunktionen teilweise bekannt aus den Lehrveranstaltungen

I Modellierung

I Algorithmen und Datenstrukturen

I K¨unstliche Intelligenz

(19)

Anforderungen an Wissensbasen

Qualit¨atskriterien bei der Modellierung:

I f¨ur Problembereich geeignete Abstraktion

I effektiv, redundanzfrei

I vollst¨andig

I erweiterbar

I verst¨andlich

(20)

Beispiele f¨ ur Wissensrepr¨ asentation und Probleml¨ osen

Kontext: Zustands¨ubergangssystem

Aufgabe: Startzustand und Anforderungen an Zielzust¨ande L¨osungsverfahren: Suche (vollst¨andig oder heuristisch)

Kontext: Menge logischer Formeln

Aufgabe: Gilt die Behauptung (logische Formel) im Kontext?

L¨osungsverfahren: logisches Folgern oder Schließen Kontext: Datenmenge (bekannte F¨alle)

Aufgabe: neuer Fall L¨osungsverfahren: 2 Schritte

1. Training eines KNN mit Datenmenge (Kontext als implizites Wissen)

2. Anwendung des KNN auf den neuen Fall (L¨osung mehrerer F¨alle m¨oglich)

(21)

Programmierung und Wissensrepr¨ asentation

Programmierung Wissensrepr¨asentation Entwurf eines Algorithmus zur

L¨osung des Problemes

Identifikation des zur L¨osung des Problemes relevanten Wissens Implementierung in einer geeig-

neten Programmiersprache

Darstellung des relevanten Wis- sens in einer geeigneten Re- pr¨asentationssprache

Probleml¨osung durch Ausf¨uh- rung des Programmes

Probleml¨osung durch Anwendung eines Standardverfahrens

(22)

Beispiel: n-Damen-Problem

Aufgabe: Setzen Damen ohne gegenseitige Bedrohungen auf ein n×n-Spielfeld

Programmierung Wissensrepr¨asentation Entwurf geigneter Datenstruk-

turen und eines Algorithmus zur L¨osungssuche

Identifikation der Bedingungen an Aufgabe und L¨osung

Implementierung Repr¨asentation von Spielfeld und Bedingungen an eine L¨osung als logische Formeln (z.B. CNF) Probleml¨osung durch

Ausf¨uhrung des Program- mes

Probleml¨osung durch logisches In- ferenzverfahren (z.B. Resolution, SAT-Solver, Prolog)

(23)

Programmierung und Wissensrepr¨ asentation

Programmieren Wissensrepr¨asentation Erkl¨arung der L¨osung:

Verfolgen der Zu-

stands¨anderung bei Program- mausf¨uhrung (Debugging)

vom Inferenzverfahren verwendete Voraussetzungen

Fehlerbehandlung:

Debugging fehlendes Wissen einf¨ugen Code¨anderung falsches Wissen l¨oschen

Wissenserweiterung:

neuer Entwurf, Neuimplemen- tierung

neues Wissen in Wissensbasis einf¨ugen

(24)

Intelligente (wissensbasierte) Systeme

Modellierung der Aufgabe:

Kontext Frage

Zentrale Komponenten intelligenter Systeme:

Wissensbasis (Kontext) enth¨alt deklaratives Wissen

Anfragekomponente erlaubt (formalisierte) Fragen Probleml¨osekomponente

prozedurales Wissen

z.B. Suchverfahren, Inferenzsystem Zusatz-Komponenten, z.B. f¨ur

Interview Abfrage fallspezifischer Information Erkl¨arung Begr¨undung der vorgeschlagenen L¨osung Wissenserwerb konsistente Erweiterung der Wissensbasis

(25)

Probleml¨ osung durch Suche in Graphen – Beispiele

I Finden von Wegen in einem Graphen

I Aufgabe:

I gegeben: GraphG (Tafel)

I gesucht: Weg (Pfad) inG von Knotenuzu Knotenv

I osungsidee: Suche im Graphen

I unzenstapelspiel (f¨ur eine Person)

I Aufgabe:

I gegeben: Stapel vonnunzen

I gesucht: Zugfolge durch erlaubte Z¨uge (zwei M¨unzen von einem Stapel nehmen und auf beide Nachbarn verteilen) bis zu einer Situation, in der kein Zug m¨oglich ist

I osungsidee:

I Modellierung als Zustands¨ubergangssystem

I Suche im Graphen I 3 Kr¨uge

I Aufgabe:

I gegeben: 3 volle Kr¨uge mit Volumen 4l, 7l, 9l,

I gesucht: genau 6l in einem der 3 Kr¨uge

I osungsidee: Zust¨ande als Knoten eines Suchbaumes

(26)

Darstellung von Aufgabe und L¨ osung

Aufgabe:

gegeben: I Menge V von Zust¨anden (evtl. unendlich) oft beschrieben durch Eigenschaften

I Startzustand s ∈V

I Menge Z ⊆V von Zielzust¨anden (oder Eigenschaften der Zielzust¨ande)

I m¨ogliche ¨Uberg¨ange zwischen Zust¨anden Ubergangsrelation¨ E ⊆V ×V

L¨osung: Folge von Zust¨anden (Weg von einem Start- zu einem Zielzustand) (Mitunter interessiert nur der erreichte Zielzustand.)

Wissensrepr¨asentation: als GraphG = (V,E) (Zustands¨ubergangssystem):

I Knotenmenge V: Zust¨ande

I (gerichtete) Kanten: Zustands¨uberg¨ange Entfaltung des Graphen zu einem Baum:

Pfade im Graphen = Knoten im Baum

(27)

Probleml¨ osen durch Suchen

I formale Darstellung des Problemes als Graph bzw. Baum

I formale Beschreibung der L¨osung als Eigenschaft von

I Pfaden im Graphen

I Knoten im Baum

M¨oglichkeiten zum Probleml¨osen:

I Pfadsuche im Graphen

I Knotensuche im Baum

(28)

Suche in Graphen

(schon bekannte) Verfahren zur Suche in Graphen (und B¨aumen):

I Tiefensuche (depth-first search):

Suche zuerst in Teilb¨aumen eines noch nicht besuchten Nachbarn des aktuellen Knotens

I Breitensuche (breadth-first search):

Suche zuerst in Teilb¨aumen eines noch nicht besuchten Knotens mit der geringsten Tiefe

(29)

Allgemeines Suchverfahren

Daten: La Menge der noch zu expandierenden Knoten Lx Menge der expandierten Knoten

s Startknoten

ϕ Anforderungen an L¨osung (Zielknoten) Allgemeiner Suchalgorithmus:

1. La ={s},Lx = 2. solange¬La=∅:

2.1 Verschiebe einen auffestgelegte Artausgew¨ahlten Knotenu ausLa inLx

2.2 uge alle Nachbarn von u, die nicht inLaLx enthalten sind, auf einefestgelegte ArtinLa ein

(Abbruch falls ein Nachbarv vonudie Bedingungϕerf¨ullt, also eine L¨osung repr¨asentiert)

prominente Spezialf¨alle:

Tiefensuche I Verwaltung von La alsStack

I Einf¨ugen der Nachbarn an den Anfangder ListeLa I festgelegter Knoten wurdezuletztinLa eingef¨ugt Breitensuche I Verwaltung von La alsQueue

I Einf¨ugen der Nachbarn an dasEndeder ListeLa I festgelegter Knoten wurdezuerstin La eingef¨ugt

29

(30)

Was bisher geschah

I Daten, Information, Wissen

I Wissensrepr¨asentation und -verarbeitung Wissensrepr¨asentation: Beschreibung von

Wissen: Zustands¨ubergangssystem: gerichteter Graph G = (V,E) mit

I Knotenmarkierungen lv :V →LV mitLV: Eigenschaften der Zust¨ande

I Startzustand s ∈V

I Eigenschaften der Zielzust¨ande (z.B.

Variablenwerte)

I Kantenmarkierungen lE :V →LE mit LE: m¨ogliche / zul¨assige Aktionen ( ¨Uberg¨ange) L¨osung: zul¨assiger Weg (Zustandsfolge p ∈V) vom Start-

zu einem Zielzustand

Wissensverarbeitung: Pfadsuche im Graphen

I blinde Suchverfahren: Tiefensuche, Breitensuche

(31)

Allgemeiner Suchalgorithmus

1. aktuelle Menge der zu untersuchenden Knoten La ={s} 2. aktuelle Menge der erledigten Lx =∅

3. solange nicht (gefunden oder La=∅) wiederhole:

3.1 Verschiebe einenfestgelegtenKnoten uausLa inLx

3.2 uge alle Nachbarn von u, dieLaLx nicht enth¨alt, (auf eine festgelegte Art) inLa ein

Verschiedene Suchverfahren unterscheiden sich nur in der Auswahl des expandierten (festgelegten) Knotens ausLa

nach Festlegung durch Datenstruktur zur Verwaltung vonLa I Stack: Tiefensuche

I Queue: Breitensuche

(32)

Schrittweise Vertiefung

beschr¨ankte Tiefensuche:

1. festgelegte Tiefenbeschr¨ankung m∈N 2. Tiefensuche auf allen Pfaden bis zur Tiefe m

nicht vollst¨andig, weiter entfernte L¨osungen werden nicht gefunden Schrittweise Vertiefung(iterative deepening)

Kombination aus Breiten- und Tiefensuche durch

Nacheinanderausf¨uhrung der beschr¨ankten Tiefensuche f¨ur alle m∈N, solange keine L¨osung gefunden wurde

vollst¨andig, optimal

(asymptotischer) Zeit- und Platzbedarf wie Tiefensuche

(33)

Gleiche-Kosten-Suche (kleinste bisherige Kosten)

(uniform-cost-search)

bei Zustands¨uberg¨angen mit verschiedenen Kosten

Ziel: L¨osung (Pfad vom Start- zu einem L¨osungsknoten) mit m¨oglichst geringen Pfadkosten

(Pfadkosten = Summe der Kosten aller ¨Uberg¨ange auf dem Pfad) Bewertungsfunktion f¨ur Knoten k :V →R≥0

k(u) = minimale (bisher entdeckte) Pfadkosten vom Startknoten zuu

Datenstruktur zur Verwaltung vonLa: Priority Queue Priorit¨at eines Knotensu:k(u)

Beispiele:

I I Breitensuche (Kosten = Tiefe des Knotens) I k¨urzeste Wege (Kosten = Abstand des Knotens vom Startknoten)

Dijkstra-Algorithmus

Uniforme Kostensuche ist wie Breitensuche und Tiefensuche ein uninformiertesSuchverfahren

(34)

Heuristische Suche – Motivation

Heuristik: Effizienzsteigerung durch Zusatzinformationen (z.B. Erfahrungswerte)

Anwendung bei

I Aufgaben mit mehreren L¨osungen (z.B. Wege in Graphen)

I unterschiedliche Qualit¨at der L¨osungen (z.B. L¨ange des Weges)

I Suche nach optimalenL¨osungen (z.B. k¨urzester Weg)

I falls vollst¨andige Suche zu aufwendig Ziele:

I Wahl einer geeigneten Such-Reihenfolge, unter welcher gute L¨osungen zuerst gefunden werden

I Verwerfen von Knoten, die wahrscheinlich nicht zu einer L¨osung f¨uhren

(beabsichtigte Verletzung der Fairness-Eigenschaft)

(35)

Sch¨ atzfunktionen

Ziel: sinnvolle Auswahl der in jedem Schritt zu expandierenden Knoten unter Verwendung von Zusatzinformationen

Sch¨atzfunktion (heuristische Funktion) h:V →R≥0∪ {∞}

(oder in eine andere geordnete Menge)

Sch¨atzung der erwartete Restkosten vom Knotenu bis zum Ziel

repr¨asentiert die Zusatzinformation

(36)

Eigenschaften von Heuristiken

Sch¨atzfunktion h:V →R≥0∪ {∞} heißt

perfekt (Sch¨atzfunktion H(u)), gdw. ∀u ∈V :H(u) = genau die Kosten einer optimalen L¨osung durchu (H(u) =∞, falls keine L¨osung ¨uber u existiert) zielerkennend gdw. f¨ur jeden L¨osungsknotenu ∈V gilt h(u) = 0

sicher gdw. f¨ur jeden Knoten u ∈V, aus dem kein L¨osungsknoten erreichbar ist, gilth(u) =∞ konsistent gdw. f¨ur jeden Knoten u ∈V und alle Nachbarn v

vonu gilth(u)≤w(u,v) +h(v)

(w(u,v) Kosten des ¨Ubergangs vonu nachv) nicht-¨ubersch¨atzend gdw. f¨ur jeden Knoten u∈V gilt

h(u)≤H(u)

Aus nicht-¨ubersch¨atzend folgt sicher und zielerkennend.

Aus zielerkennend und konsistent folgt nicht-¨ubersch¨atzend.

(37)

Besten-Suche

(best-first-search)

Allgemeines Suchverfahren mit Bewertungsfunktion f :V →R≥0∪ {∞}

mit folgender Strategie zur Auswahl der in jedem Schritt zu expandierenden Knoten:

I Knoten werden aufsteigend nach Bewertung f(u) expandiert,

I Expansion des Knotensu mit dem geringsten Wertf(u) zuerst

I Verwaltung von La als priority queue

Beispiel: Suche eines k¨urzesten Weges zwischen Orten A und B

I Bewertungsfunktion f(u): bisherige Kosten bis zum Ortu (ohne Sch¨atzfunktion, uniforme Kostensuche, Dijkstra)

I Bewertungsfunktion f(u):

Luftlinienentfernung des Ortes u von B (nur Sch¨atzfunktion)

(38)

Besten-Suche – Eigenschaften

zwei Methoden:

1. Knoten mit großen Werten m¨oglichst sp¨atexpandieren 2. Knoten mit großen Werten nichtexpandieren

I Bestensuche mit einer beliebigen Besertungsfunktionfunktion ist nicht immer optimal.

I Bestensuche nach Methode 1 (fair) ist vollst¨andig

I Bestensuche nach Methode 2 ist nicht immer vollst¨andig

(39)

Greedy-Suche (kleinste Restkosten)

Idee: Suche zuerst in Teilb¨aumen der noch nicht besuchten Knoten mit den geringsten (gesch¨atzten) noch aufzuwendenden Kosten Heuristische Funktionh:V →R≥0∪ {∞}

h(v) ist Absch¨atzung des von Knotenv aus den noch notwendigen Kosten zum Erreichen eines Zielzustandes

Greedy-Suche:

Besten-Suche mit Bewertungsfunktionf :V →R≥0∪ {∞}, wobei f¨ur jeden Knoten v ∈V gilt

f(v) =h(v)

Eigenschaften der Greedy-Suche:

I optimal?

I vollst¨andig?

(40)

Beispiel Schiebefax

I Zust¨andeu∈ {0, . . . ,8}3×3, 3×3-Matrix mit Eintr¨agen{0, . . . ,8}

(jede Zahl genau einmal, 0 leeres Feld)

I Zul¨assige Z¨uge: Verschieben des leeren Feldes auf ein Nachbarfeld d. h. Vertauschen von 0 und einem Wert in einem Nachbarfeld (gleicher Zeilen- oder Spaltenindex)

I Zielkonfiguration

1 2 3

8 4

7 6 5

I Aufgabeninstanz: gegebene Ausgangskonfiguration (Matrix), z.B.

8 3

2 1 4 7 6 5

I osung: Folge von zul¨assigen Z¨ugen (Bewegung der L¨ucke 0) von der Ausgangs- zur Zielkonfiguration

I Bewertung der L¨osung: Anzahl der Z¨uge (L¨ange der L¨osungsfolge)

(41)

Schiebefax – Heuristische Funktionen

Heuristische Funktionenhi :{0, . . . ,8}3×3 →N mit

h1 Anzahl der Zahlen, die sich nicht an ihrer Zielposition befinden

h2 weitester Abstand einer Zahl zu seiner Zielposition h3 Summe der Manhattan-Abst¨ande jeder Zahl zu seiner

Zielposition

Tafel: Bestensuche mit Bewertungsfunktionenf(u) =hi(u) Qualit¨at der Sch¨atzfunktionen:

I gute Trennung verschiedener Zust¨ande

I fair: zu jedemn ≥0 existieren nur endlich vieleu ∈V mit h(u)≤n

(42)

Bisherige Kosten

Kostenfunktion k:V →R≥0

k(u) Kosten des besten (bisher bekannten) Pfades vom Startzustand zum Zustand u

Kostenfunktionk :V →R≥0 heißt

streng monoton wachsend , falls f¨ur alle Knotenv und alle Nachfolger u von v giltk(u)<k(v)

Beispiele f¨ur Kostenfunktionen:

I Tiefe des Knotens im Suchbaum,

I maximale Entfernung vom Startknoten

(43)

A

-Suche (kleinste Gesamtkosten)

Idee: Suche zuerst in Teilb¨aumen der noch nicht besuchten Knoten mit demgeringsten Wert der Sch¨atzfunktion

(Summe von bisherigen und gesch¨atzen zuk¨unftigen Kosten) Funktionen

I k :V →R≥0 – bisher bekannte Kosten von einem Startzustand zu v

I h :V →R≥0 – gesch¨atzte Kosten vonv zu einem Endzustand A-Suche:

Besten-Suche mit Sch¨atzfunktion f :V →R≥0, wobei f¨ur jeden Knotenv∈V gilt

f(v) =k(v) +h(v) Eigenschaften derA-Suche:

I vollst¨andig?

I optimal?

(44)

Anwendungen

Planungsprobleme und kombinatorische Suchprobleme, z.B.

I Routenplanung

I TSP

I Verlegen von Leitungen

I Schaltkreis-Layout

I Navigation (z.B. von Robotern)

I Scheduling

I Produktionsplanung

(45)

Was bisher geschah

I Daten, Information, Wissen

I Wissensrepr¨asentation und -verarbeitung

I Wissensbasierte Systeme Wissensrepr¨asentation:

I Zustands¨ubergangssystem:

Graph mit markierten Knoten (Zust¨ande und deren Eigenschaften)

I Startzustand

I Eigenschaften der Zielzust¨ande L¨osung: Pfad vom Start- zu einem Zielzustand Wissensverarbeitung: Suche im Graphen

uninformiert: Breiten-, Tiefen-, Gleiche-Kosten-Suche informiert: heuristische, Greedy-, A-Suche

(46)

Zwei-Personen-Spiele

Brettspiel

I aktueller Spielzustand immer f¨ur beide Spieler sichtbar (vollst¨andige Information)

I einer gewinnt, der andere verliert (Nullsummenspiel) Wissensrepr¨asentation (Spielbaum):

I Menge von Zust¨anden (Min- und Max-Zust¨ande)

I Startzustand

I Endzust¨ande (ohne Fortsetzung)

I Nachfolgermenge S(v) = Menge von Zust¨anden (nach zul¨assigen Z¨ugen)

I Bewertungsfunktion: Menge der Endzust¨ande→Z

I positiv: Spieler (1, Max, beginnt) gewinnt

I negativ: Gegner (0, Min) gewinnt

(47)

Beispiel Nim (Variante)

I n M¨unzen auf einem Stapel

I Spielzug: Teilen eines Stapels in zwei nichtleere Stapel ungleicher Gr¨oße

I Sobald ein Spieler keinen Zug mehr ausf¨uhren kann, hat er verloren (und der andere gewonnen).

Modellierung als Zustands¨ubergangssystem:

Zust¨ande: S :N→N

(Multimenge: Zahl→ Anzahl der Vorkommen in S) Startzustand: S(n) = 1∧ ∀i 6=n :S(i) = 0

Endzust¨ande: kein Zug m¨oglich

Uberg¨¨ ange: (erlaubte Z¨uge) f¨urx =x1+x2∧x16=x2∧x1x2 6= 0:

S →S0 mit

S0(x) =S(x)−1∧S0(x1) =S(x1) + 1∧

S0(x2) =S(x2) + 1∧ ∀i 6∈ {x,x1,x2}:S0(i) =S(i)

(48)

Minimax-Werte

Fortsetzung der Bewertungsfunktion von den Bl¨attern (Endzust¨anden) auf alle Knoten im Spielbaum b :V →Z rekursive Berechnung (Minimax-Algorithmus) des Wertes eines Knotensv im Spielbaum:

m(v) =

b(v) falls v Endzustand

max{m(u)|u ∈S(v)} falls v Max-Knoten min{m(u)|u ∈S(v)} falls v Min-Knoten Beispiele (Tafel):

I Spielbaum,

I Nim mitn = 7

I Tic-Tac-Toe (mit heuristischer Bewertung) Spielstrategie f¨ur Spieler 1 (Max):

Zug w¨ahlen, der zum Zustand mit h¨ochstem Minimax-Wert f¨uhrt

(49)

α-β-Suche

Idee: Tiefensuche mit Verwaltung zus¨atzlicher Werte

α : bisher h¨ochster Minimax-Wert an Max-Positionen β : bisher geringster Minimax-Wert an Min-Positionen Bei Berechnung des Minimax-Wertes der Wurzel Berechnungen f¨ur Teilb¨aume abbrechen, sobald bekannt ist, dass sieα und β nicht verbessern

Abtrennen jedes Kindesv eines min-Knotens u, fallsβ(u)≤α(v)

(min-Spieler kann durch Wahl eines zuvor untersuchten Kindes vonu den geringeren

Minimax-Wertβ(u) erreichen als durch Wahl von v) max-Knotens u, fallsα(u)≥β(v)

(max-Spieler kann durch Wahl eines zuvor untersuchten Kindes vonu den h¨oheren

Minimax-Wertα(u) erreichen als durch Wahl von v) Beispiel (Tafel)

(50)

Was bisher geschah

I Daten, Information, Wissen

I explizites und implizites Wissen

I intelligente Agenten

Wissensrepr¨asentation und -verarbeitung:

Wissensbasis: Kontextwissen

Formulierung der Aufgabe: fallspezifisches Wissen osung: Bedingungen

osungsverfahren

Wissensrepr¨asentation und -verarbeitung in Zustands¨ubergangssystemen:

Wissensbasis: Graph (mit Knoten- und Kantenmarkierungen) Formulierung der Aufgabe: Weg von Startknoten zu L¨osung gesucht

osung: Bedingungen osungsverfahren: Suchverfahren

blind: Breiten-, Tiefen-, Gleiche-Kosten-Suche informiert: Besten-, Greedy-, A-Suche

Zwei-Personen-Spiele, MiniMax-Werte,α-β-Pruning

(51)

Entwicklung gemeinsamen Wissens

3 Logiker in der Bar (http://spikedmath.com/445.html) Wollt Ihr alle Bier?

Formal: Gilt∀x B(x) inS = ({a,b,c},J·KS)?

Gilt alsoJBKS ={a,b,c}?

Wissen der einzelnen Individuen zu Beginn:

aweiß, ob a∈JBKS, aber nicht, obb∈JBKS oderc ∈JBKS

(b,c analog)

Entwicklung des gemeinsamen Wissens ¨uber S:

JBKS ist zun¨achst unbekannt.

a: Ich weiß es nicht.

Antwort nur korrekt, wenna∈JBKS,

also a∈JBKS nun gemeinsam bekannt b: Ich weiß es nicht.

Antwort nur korrekt, wenn außerdem b∈JBKS,

also {a,b} ⊆JBKS nun gemeinsam bekannt c: Ja

Antwort nur korrekt, wenn außerdem c ∈JBKS,

also {a,b,c}=⊆ B S nun gemeinsam bekannt 51

(52)

Entwicklung gemeinsamen Wissens

Beispiel: Zahlenr¨atsel

A w¨ahlt zwei nat¨urliche Zahlen zwischen (einschließlich) 2 und 100 und verr¨at S deren Summe und P deren Produkt. Dann kommt es zu folgendem Gespr¨ach:

P: Ich kenne die beiden Zahlen nicht.

S: Das weiß ich. Ich kenne sie auch nicht.

P: Dann kenne ich die beiden Zahlen jetzt.

S: Dann kenne ich sie jetzt auch.

Welche Zahlen hat A gew¨ahlt ? Kontext: Wissen ¨uber Teilbarkeit usw.

(53)

Wissensrepr¨ asentation durch Logiken

Anforderungen an Formalismus zur Wissensrepr¨asentation:

I hinreichende Ausdrucksst¨arke

I syntaktisch und semantisch eindeutig

I oglichkeit der maschinellen Verarbeitung

I klassische Aussagenlogik AL(P)

I hinreichende Ausdrucksst¨arke: oft ja

I syntaktisch und semantisch eindeutig: ja

I oglichkeit der maschinellen Verarbeitung: ja (algorithmische Entscheidbarkeit)

I klassische Pr¨adikatenlogik (der ersten Stufe) FOL(Σ)

I hinreichende Ausdrucksst¨arke: meist ja

I syntaktisch und semantisch eindeutig: ja

I oglichkeit der maschinellen Verarbeitung: meist ja (Unentscheidbarkeit)

I nichtklassische Logiken:

I Modale Logiken, z.B. Temporallogiken, Raumlogiken, Beschreibungslogiken

I Mehrwertige Logiken, z.B.Fuzzy-Logik 53

(54)

Wissensrepr¨ asentation und -verarbeitung in Logiken

Wissensbasis: Formelmenge Φ Problemdarstellung: Formel ψ

repr¨asentiert die Frage:

(F¨ur welche Variablenbelegung) Folgt ψaus Φ?

L¨osung: ja / nein, evtl. erf¨ullende Belegung

L¨osungsverfahren:

Folgern (semantisch):

z.B. Wahrheitswerttabellen, Modellmengen Schließen (syntaktisch):

Kalk¨ule, z.B. Resolution

(55)

Aussagenlogik – Syntax

Junktoren Syntax: Symbole t,f (nullstellig),

¬(einstellig), ∨,∧,→,↔ (zweistellig) Semantik: Wahrheitswertfunktion

Atome Syntax: Aussagenvariablen (elementare Formeln) Semantik: Wahrheitswert

Formeln Syntax (induktive Definition):

IA: Alle Atome sind Formeln.

IS: Sind j einn-stelliger Junktor undϕ1, . . . , ϕn Formeln,

dann ist auch j(ϕ1, . . . , ϕn) eine Formel.

Baumstruktur

Semantik: Boolesche Funktion Beispiele:

I (p∧(q →r))∨(r → ¬p)

I ¬p∧p

(56)

Bedeutung der Junktoren

Syntax Semantik

Stelligkeit Symbol Wahrheitswertfunktion

wahr 0 t 1

falsch 0 f 0

Konjunktion 2 ∧ min

Disjunktion 2 ∨ max

Negation 1 ¬ x7→1−x

Implikation 2 → ≤

Aquivalenz¨ 2 ↔ =

(57)

Aussagenlogik – Semantik

Belegung W :P → {0,1}

Wert vonϕ∈AL(P) unter BelegungW:W(ϕ) mit W(p) f¨ur ϕ=p ∈P und

induktive Berechnung f¨ur zusammengesezte Formeln Modell (erf¨ullende Belegung) f¨urϕ∈AL(P):

W :P → {0,1}mitW(ϕ) = 1 Modellmenge von ϕ∈AL(P):

Mod(ϕ) ={W :P → {0,1} |W(ϕ) = 1}

(Boolesche Funktion, Wahrheitswerttabelle)

(58)

Erf¨ ullbarkeit

Formelϕ∈AL(P) heißt erf¨ullbar gdw.Mod(ϕ)6=∅ unerf¨ullbar gdw.Mod(ϕ) =∅ allgemeing¨ultig gdw.Mod(¬ϕ) =∅

Erf¨ullbarkeit (und Allgemeing¨ultigkeit) ist algorithmisch entscheidbar.

semantisch z.B. durch Wahrheitswerttabellen syntaktisch z.B. durch Resolution

Werkzeuge: SAT-Solver

(59)

Modellierungsbeispiel (Aussagenlogik)

1. Es wird nicht mehr viel Eis gekauft, wenn es kalt ist.

2. Der Eisverk¨aufer ist traurig, wenn nicht viel Eis gekauft wird.

3. Es ist kalt.

Wissensbasis: . . . Problem: . . .

L¨osung: . . . L¨osungsverfahren: . . .

neue zus¨atzliche Aussage (Erweiterung der Wissensbasis):

4. Der Eisverk¨aufer ist nicht traurig.

(60)

Semantische ¨ Aquivalenz

Relation≡⊆AL(P)×AL(P) (Relation zwischen zwei Formeln)

ϕ≡ψ gdw. Mod(ϕ)=Mod(ψ)

Beispiele:

I p →q≡¬p∨q

I p∨q≡¬p →q

I p∧q≡¬(p→ ¬q)

I p ↔q≡(p →q)∧(q→p)

Regeln der klassische Aussagenlogik (z.B. DeMorgan,

Distributivgesetze) erm¨oglichen rein syntaktische ¨aquivalente Umformungen.

(61)

Normalformen

Junktorbasen{∨,∧,¬},{→,¬},{NAND},{I,t,f}mit I(x,y,z) = (x∧y)∨(¬x∧z)

Zu jeder Formelϕ∈AL(P) existieren ¨aquivalente Formeln in NNF Formeln, in denen das Negationssymbol¬h¨ochstens

auf Atome angewendet wird Beispiel: ¬p∨((¬q∨p)∧q) CNF Formeln der FormVn

i=1

Wmi

j=1li,j mit Literalen li,j

Beispiel: (¬p∨ ¬q)∧(p∨q)∧ ¬q DNF Formeln der FormWn

i=1

Vmi

j=1li,j

mit Literalen li,j

Beispiel: ¬p∨(¬q∧p)∨(p∧q) NAND-NF ¬ϕ=ϕNANDϕ,

ϕ∧ψ= (ϕNANDϕ) NAND(ψNANDψ), IF-NF I(p, ϕ, ψ) mit p∈P, (Entscheidungsb¨aume)

(62)

Semantisches Folgern

Folgerungsrelation|=⊆2AL(P)×AL(P) (Relation zwischen Formelmenge und Formel)

Φ|=ψ gdw. Mod(Φ)⊆Mod(ψ) Notation:|=ψstatt ∅ |=ψ und ϕ|=ψ statt{ϕ} |=ψ Beispiele:

I {p} |=p,

I {p →q,¬q} |=¬p,

I ∅ |=p →p

I {p,¬p,¬q} |=q Es gilt:

|=ψ gdw. ψallgemeing¨ultig ϕ≡ψ gdw. (ϕ|=ψund ψ|=ϕ)

(63)

Semantisches Folgern

Fakt

F¨ur jede FormelmengeΦ⊆AL(P) und jede Formelψ∈Φ gilt Φ|=ψ.

Fakt

F¨ur jede FormelmengeΦ⊆AL(P)und jede Formelψ∈AL(P)gilt:

Φ|=ψ gdw. Mod(Φ) = Mod(Φ∪ {ψ}) Fakt

F¨ur jede FormelmengeΦ⊆AL(P)und jede Formelψ∈AL(P)gilt:

Φ|=ψ gdw. Φ∪ {¬ψ} unerf¨ullbar Folgerung:

Φ|=ψ gdw. Φ∪ {¬ψ} |=f

(64)

Syntaktisches Ableiten

gegeben: Formelmenge Φ Formel ψ Frage : Gilt Φ|=ψ?

Ziel: Verfahren zur Beantwortung dieser Frage durchsyntaktische Operationen

(ohne Benutzung der Semantik, Modellmengen) Syntaktische Ableitungsrelation` ⊆2AL(P)×AL(P) passendzur

semantischen Folgerungsrelation|=⊆2AL(P)×AL(P)

`passtzu|=, falls f¨ur jede Formelmenge Φ∈AL(P) und jede Formelψ∈AL(P) gilt

Φ`ψ gdw. Φ|=ψ

(65)

Syntaktisches Ableiten

gegeben: Formelϕ(Formelmenge Φ) Formel ψ

Frage: Gilt Φ|=ψ

Idee: schrittweises Ableiten (ohne Zugriff auf die Semantik der Formeln) von Folgerungen aus einer Formelmenge durch syntaktische Umformungen

logischer Kalk¨ul Menge von Regeln zur syntaktischen Umformung von Formeln (Formelmengen)

(ohne ¨Anderung der Semantik der Formelmengen) Ein logischer Kalk¨ul K ist sinnvoll, wenn man zeigen kann:

Korrektheit Jede inK ableitbare Formel ist allgemeing¨ultig.

Vollst¨andigkeit Jede allgemeing¨ultige Formel ist inK ableitbar.

(66)

Aussagenlogischer Tableau-Kalk¨ ul

Idee:

I intuitiver Beweiskalk¨ul (rekursiv ¨uber Aufbau der Formel)

I Unerf¨ullbarkeitbeweis durch Fallunterscheidung

I Darstellung in Baumform Grundform der Formel:

konjunktiv: ϕ∧ψ

¬(ϕ∨ψ), weil ¨aquivalent zu¬ϕ∧¬ψ

¬(ϕ→ψ), weil ¨aquivalent zuϕ∧¬ψ

¬¬ϕ disjunktiv: ϕ∨ψ

¬(ϕ∧ψ), weil ¨aquivalent zu¬ϕ∨¬ψ ϕ→ψ, weil ¨aquivalent zu ¬ϕ∨ψ

(67)

Aussagenlogischer Tableau-Kalk¨ ul: Regeln

Regeln f¨ur konjunktive Formeln:

¬¬A

| A

A∧B

| A

| B

¬(A∨B)

|

¬A

|

¬B

¬(A→B)

| A

|

¬B

Regeln f¨ur disjunktive Formeln:

A∨B

/ \

A B

¬(A∧B)

/ \

¬A ¬B

A→B

/ \

¬A B

(68)

Aussagenlogische Tableaux

Aussagenlogisches Tableau f¨ur ϕ∈AL(P):

endlicher BaumT mit

I Markierungen der Knotenu ∈T mit Formeln ψ∈AL(P)

I Markierung der Wurzel inT:ϕ

I Zu jedem Knoten ui ∈T und jedem Pfad von ui zu einem Blatt in T existiert ein Knotenuj ∈T mit Kindern

entsprechend der Tableau-Regel f¨ur Markierungψ vonui. (schrittweise Konstruktion)

Beispiele:

I ¬(p→q)∧(¬p∨q)

I (p∨q)∧ ¬(p∧q)

I Pfadu0, . . . ,un in einem TableauT heißt geschlossengdw.

auf diesem Pfad zwei Knoten mit den Markierungen {ψ,¬ψ}

existieren.

I TableauT heißt geschlossengdw.jeder Pfad inT geschlossen ist.

(69)

Beweisen mit aussagenlogischen Tableaux

Satz

F¨ur jede Formelϕ∈AL(P)gilt:

Vollst¨andigkeit: Falls ϕunerf¨ullbar ist, ist jedes Tableau f¨urϕ geschlossen.

Korrektheit: Falls ein geschlossenes Tableau f¨urϕ existiert, istϕ unerf¨ullbar.

(70)

Aussagenlogische Tableau-Beweise

f¨ur die Unerf¨ullbarkeit einer Formelϕ∈AL(P):

(schrittweise) Konstruktion eines Tableau mit Wurzelmarkierungϕ durch eine Folge von Knoten-Expansionen entsprechend der Tableau-Regeln

I ϕ∈AL(P) ist unerf¨ullbar gdw.ein geschlossenes Tableau mit Wurzelmarkierung ϕexistiert.

I ϕ∈AL(P) ist allgemeing¨ultig gdw.ein geschlossenes Tableau mit Wurzelmarkierung ¬ϕexistiert.

Aus jedem nicht-geschlossenen Tableau f¨urϕ lassen sich Modelle f¨urϕablesen.

(71)

Aussagenlogische Tableaux: Beispiele

I p∧(p →q) ist erf¨ullbar

I ¬(((¬p →q)→r)→((¬q →p)→r)) ist unerf¨ullbar

I p →(q →p) ist allgemeing¨ultig

I (p∨q)∧ ¬((p∧ ¬q)∨q) ist unerf¨ullbar

(72)

Was bisher geschah

I Daten, Information, Wissen

I explizites und implizites Wissen

I intelligente Agenten

I Wiederholung klassische Aussagenlogik

I Tableau-Kalk¨ul f¨ur klassische Aussagenlogik

(73)

Prinzipien der klassischen Logiken

Zweiwertigkeit Jede Aussage ist wahr oder falsch.

ausgeschlossener Widerspruch Keine Aussage ist sowohl wahr als auch falsch.

Wahrheitswerte 1 (wahr) oder 0 (falsch)

Jede Aussagep hat genau einen Wahrheitswert W(p)∈ {0,1}.

(74)

Klassische Logiken

I klassische Aussagenlogik AL(P) + Entscheidbarkeit,

effiziente Methoden und Werkzeuge (SAT-Solver) - geringe Ausdrucksst¨arke

I klassische Pr¨adikatenlogik FOL(Σ,X) + hohe Ausdrucksst¨arke

Automatisierte L¨osungsverfahren und Werkzeuge f¨ur viele spezielle Probleme und Problemgebiete

(z.B. Diagnosesysteme, interaktive Beweiswerkzeuge) - Unentscheidbarkeit

Automatisierte L¨osungsverfahren f¨ur alle Probleme k¨onnen nicht existieren

Ziel:

syntaktischeFragmente der klassische Pr¨adikatenlogik mit folgenden Eigenschaften

I entscheidbar

I hohe Ausdrucksst¨arke (intuitive Wissensrepr¨asentation)

(75)

Modellierung

Ziel: Darstellung von Aussagen wie z.B.

I ϕgilt notwendigerweise.

I Es ist m¨oglich, dass ϕgilt.

I ϕmuss erf¨ullt sein.

I ϕsollte erf¨ullt sein.

I Manchmal gilt ϕ.

I ϕgilt immer.

I ϕgilt zum n¨achsten Zeitpunkt.

I ϕgilt, solange ψ gilt.

I Es ist bekannt, dass ϕgilt.

I A weiß, dassϕgilt.

I A weiß, dassB nicht wissen kann, ob ϕgilt.

(76)

Modallogik – Syntax

(aussagenlogische Modallogik)

Erweiterung der Aussagenlogik umModalit¨aten und Bedeutung:

m¨oglich (manchmal) notwendig (immer)

Syntax der Formeln aus ML(P) in BNF:

ϕ::=p | ¬ϕ|ϕ∨ψ|ϕ∧ψ|ϕ|ϕ mitp∈P, ϕ, ψ∈ML(P)

abgeleitete Junktoren (analog Aussagenlogik):→,↔ Beispiele:

I (p →q)

I (p∨ ¬ q)

I p → ¬(q∧ ¬r)

(77)

Modellierung in Modallogiken

Typische Aussagen:

I Eine Aussage ist immer wahr.

I Ein Ereignis tritt m¨oglicherweise ein.

I Ein Ereignis kann niemals eintreten.

I Tritt das Ereignis Airgendwann ein, dann wird damit auf jeden Fall das EreignisB ausgel¨ost.

(z.B. A: kritische Situation, B: Alarm) Modellierung solcher Aussagen durch

I verschiedene

”Welten“ (Zust¨ande, Situationen)

I Jede Welt ist durch durch die dort geltenden (atomaren) Aussagen charakterisiert

I Zusammenh¨ange zwischen verschiedenen Welten (z.B. ¨Ubergangsm¨oglichkeiten)

(78)

Kripke-Strukturen

Kripke-Frame (W,R) mit

I Menge W von Welten,

I Relation R⊆W2 (Erreichbarkeitsrelation) Kripke-Frames sind also (m¨oglicherweise unendliche) Graphen.

Kripke-Struktur K = (W,R,V) mit

I Kripke-Frame (W,R)

I Variablenbelegung V : (W ×P)−→ {0,1}) ordnet jeder Welt eine Belegung der

Aussagenvariablen zu

alternative Definition V :W −→2P

Kripke-Strukturen sind also Graphen, deren Knoten mit Mengen aus 2P markiert sind.

H¨aufig enthalten Kripke-Strukturen eine ausgezeichnete Welt.

(analog Startzustand in endlichen Automaten)

(79)

Beispiele

Kripke-Strukturen:

I K1= (W1,R1,V1) mit

I W1={1,2},R1={(1,2),(2,1),(2,2)}

I V1(1) ={p,q}, V1(2) ={q}

I K2= (W2,R2,V2) mit

I W2=N,R2=<

I ∀nN: (V2(2n) ={p} ∧V2(2n+ 1) ={p,q})

I K3= (W3,R3,V3) mit

I W3={1,2,3},R3={(1,2),(2,3),(1,3)}

I V3(1) ={p,q}, V3(2) ={p},V3(3) =

(80)

Modale Logiken – Semantik

(induktive) Definition:

WertJϕK(K,u) einer Formelϕ∈ML(P) in (K,u) mit

I einer Kripke-StrukturK = (W,R,V) und

I einer Welt u∈W

JpK(K,u) = V(u,p) J¬ϕK(K,u) = 1−JϕK(K,u)

Jϕ∨ψK(K,u) = max{JϕK(K,u),JψK(K,u)} Jϕ∧ψK(K,u) = min{JϕK(K,u),JψK(K,u)}

JϕK(K,u) = max{JϕK(K,v)|(u,v)∈R}

JϕK(K,u) = min{JϕK(K,v)|(u,v)∈R}

(81)

Beispiele

Kripke-Strukturen:

I K1= (W1,R1,V1) mit

I W1={1,2},R1={(1,2),(2,1),(2,2)}

I V1(1) ={p,q}, V1(2) ={q}

I K2= (W2,R2,V2) mit

I W2=N,R2=<

I V2(2n) ={p}, V2(2n+ 1) ={p,q}

I K3= (W3,R3,V3) mit

I W3={1,2,3},R3={(1,2),(2,3),(1,3)}

I V3(1) ={p,q}, V3(2) ={p},V3(3) = Welche Struktur erf¨ullt welche der folgenden Formeln in welchen Zust¨anden:

I p

I ¬q

I q →q

I p →p

I (p∧q)→(p∧q)

I ¬q → ¬q

(82)

Modale Logiken – Semantik

Kripke-Strukturen (K,u) mitJϕK(K,u)= 1 heißen Modellef¨ur ϕ Mod(ϕ) ={(K,u)|JϕK(K,u) = 1}

Formelnϕ∈ML(P) undψ∈ML(P) mit Mod(ϕ) = Mod(ψ) heißen¨aquivalent.

Beispiel:ϕ≡ ¬ ¬ϕ Formelϕ∈ML(P) heißt

erf¨ullbar gdw.Mod(ϕ)6=∅

allgemeing¨ultig gdw.jede Kripke-Struktur ein Modell f¨urϕist z.B.(ϕ→ψ)→(ϕ→ψ)

Aquivalenz, Erf¨¨ ullbarkeit und Algemeing¨ultigkeit werden auch bzgl.

eingeschr¨ankter Mengen von Kripke-Strukturen untersucht.

(83)

Formelschemata und Interpretationen der Modalit¨ aten

ϕ1 = ϕ→ϕ ϕ2 = ϕ→ ϕ ϕ3 = ϕ→ϕ ϕ4 = t

ϕ5 = ϕ→ ϕ ϕ6 = ϕ∨¬ϕ

ϕ7 = (ϕ→ψ)∧(ϕ→ψ) ϕ8 = (ϕ∧ ψ)→ (ϕ∧ψ)

Sollteϕ→ϕallgemeing¨ultig sein, fallsϕinterpretiert als

I ϕist notwendig. ja

I Agent weiß, dass ϕgilt. ja

I Agent denkt, dass ϕgilt. nein

(analog f¨ur alle ϕi)

(84)

Kripke-Strukturen als algebraische Strukturen

Zu jeder MengeP von Aussagenvariablen wird die folgende Signatur definiert:

ΣP ={(R,2)} ∪ {(a,1)|a∈P}

Ubersetzung der Kripke-Struktur¨ K = (W,R,V) in die ΣP-Struktur SK = (W,J·KSK) mit

JRKSK = R

∀a∈P :JaKSK = {w ∈W |a∈V(w)}

(85)

Einbettung von ML(P ) in FOL(Σ

P

, X )

Ubersetzung¨ T : ML(P)× {xi |i ∈N} −→FOL(Σ(P)) f¨ura∈P : T(a,xi) = a(xi)

T(¬ϕ,xi) = ¬T(ϕ,xi)

T(ϕ∧ψ,xi) = T(ϕ,xi)∧T(ψ,xi) T(ϕ,xi) = ∃xj(R(xi,xj)∧T(ϕ,xj)) T(ϕ,xi) = ∀xj(R(xi,xj)→T(ϕ,xj)) wobeixj eine neue Variable aus X ist, die inT(ϕ,xi) nicht vorkommt.

Beispiel:T(p,x) =∀y(R(x,y)→ ∃z(R(y,z)∧p(z))) Satz

F¨ur jede Formelϕ∈ML(P) und jede Kripke-Struktur (K,u)gilt (K,u)|=ϕ gdw. Jθ(T(ϕ,x0))KSK = 1 f¨urθ(x0) =u.

(86)

Was bisher geschah

I Wiederholung klassische Aussagenlogik

I Tableau-Kalk¨ul f¨ur klassische Aussagenlogik

I Einbettung ML in FOL

Modallogiken

I Motivation

I Syntax Modallogik

I Kripke-Frames und -Strukturen

I Semantik Modallogik

(87)

Wissensrepr¨ asentation in Modallogiken

I Problembeschreibung (Wissensbasis) als Formelmenge Φ⊆ML(P)

I Behauptung als Formelψ∈ML(P)

I Frage: Folgt ψaus Φ?

formal: Gilt Mod(Φ)⊆Mod(ψ)?

(semantisches Folgern Φ|=ψ)

weitere h¨aufige Fragestellungen:

I Istϕ∈ML(P) erf¨ullbar?

I Istϕ∈ML(P) allgemeing¨ultig?

¨aquivalent: Ist ¬ϕunerf¨ullbar?

(88)

Modale Logiken – Schließen

Syntaktische Methode zur Feststellung der Erf¨ullbarkeit einer beliebigen Formelϕ∈ML(P)

Tableau-Kalk¨ul f¨ur Modallogik:

I Erweiterung des Tableau-Kalk¨uls f¨ur die Aussagenlogik um neue Regeln

I Markierung der Tableau-Knoten mit Paaren w :ϕmitw ∈W und ϕ∈ML(P)

I Wurzelmarkierung u :ϕ(f¨ur Startweltu) Wiederholung Tableau-Kalk¨ul-Idee:

I schrittweise Konstruktion eines Tableau mit Wurzelmarkierung ϕ

I Pfade mit widerspr¨uchlichen Formeln (in derselben Welt) werden geschlossen

I nicht geschlossene maximale Pfade repr¨asentieren Modelle

I ϕist unerf¨ullbar, wenn alle Pfade geschlossen

(89)

Aussagenlogische Tableau-Regeln

Regeln f¨ur konjunktive Formeln (an jedes erreichbare Blatt anh¨angen):

s:¬¬ϕ

| s :ϕ

s:ϕψ

| s:ϕ

| s:ψ

s :¬(ϕψ)

| s:¬ϕ

| s :¬ψ

s:¬(ϕψ)

| s:ϕ

| s:¬ψ Regeln f¨ur disjunktive Formeln (an jedes erreichbare Blatt anh¨angen):

s:ϕψ

/ \ s:ϕ s:ψ

s:¬(ϕψ)

/ \ s:¬ϕ s:¬ψ

s:ϕψ

/ \ s:¬ϕ s:ψ Beispiel: ((pq)p)q allgemeing¨ultig

(90)

Zus¨ atzliche Tableau-Regeln f¨ ur Modallogik

s:ϕ s:ϕ s:¬ϕ s:¬ ϕ

| (s,t)R

| t :ϕ

| t1:ϕ

| ...

| tn:ϕ

| s:¬ϕ

| s:¬ϕ

I zur -Regel:

t ist ein (neues) Symbol, welches auf dem Pfad zur Wurzel nicht vorkommt.

Zus¨atzlich f¨ur jeden schon markierten Knotens:ψan jeden Pfad durchs:ϕeinen neuen Knotent :ψanh¨angen

I zur -Regel:

ur die Menge{t1, . . . ,tn} aller Symbole (Welten), f¨ur die ein Knoten (s,ti)R auf dem Pfad zur Wurzel vorkommt.

(91)

Beispiele

I ¬p erf¨ullbar?

I (p∨q)→ ¬p erf¨ullbar?

I (p →q)→(p →q) allgemeing¨ultig?

Ubungsaufgaben:¨

I (p →q)↔p erf¨ullbar?

I (p →q)∧ p∧¬q unerf¨ullbar?

I p →(p∨q) allgemeing¨ultig?

(92)

Allgemeing¨ ultige modallogische Formeln

aus ¨Aquivalenzen z.B.

¬ϕ ↔ ¬ϕ (ϕ∧ψ) ↔ ϕ∧ψ

(ϕ∨ψ) ↔ ϕ∨ ψ

K : ((ϕ→ψ)∧ϕ)→ψ

≡ (ϕ→ψ)→(ϕ→ψ) nicht allgemeing¨ultig sind z. B.

p→p p→ p

¬p →¬p t

(93)

Formelschemata

Prominente Axiome:

K1 (ϕ→ψ)→(ϕ→ψ) (Distributivit¨at) K2 ϕ→ϕ(necessitation rule)

Was wahr ist, gilt notwendig.

M ϕ→ϕ

Was notwendig gilt, ist wahr.

4 ϕ→ ϕ (positive Introspektion) 5 ¬ϕ→¬ϕ (negative Introspektion) B ϕ→ϕ

Jede wahre Formel muss notwendig m¨oglich sein.

D ϕ→ ϕ

Alles Notwendige ist m¨oglich.

Sollte M (ϕ→ϕ) allgemeing¨ultig sein, fallsϕinterpretiert als

I ϕist notwendig. ja

I Agent weiß, dass ϕgilt. ja

I Agent denkt, dass ϕgilt. nein

(analog f¨ur alle ϕi)

(94)

Was bisher geschah

I Wiederholung klassische Aussagenlogik

I Tableau-Kalk¨ul f¨ur klassische Aussagenlogik

I Wiederholung klassische Pr¨adikatenlogik (1. Stufe) Modallogiken

I Motivation

I Syntax Modallogik

I Kripke-Frames und -Strukturen

I Semantik Modallogik

I Einbettung ML in FOL

I Tableau-Kalk¨ul f¨ur ML

Wiederholung: (p →p)→ tallgemeing¨ultig?

Referenzen

ÄHNLICHE DOKUMENTE

Auch im virtuellen Raum der Architektursimulation kann sich der Mensch offenbar nicht von Emo­. tionalität und Subjektivität der

• F ind(x) Ist x in einer Menge enthalten, so liefere diese in Form eines kanonischen Elementes zur¨ uck. Anderenfalls liefere

Gast JC – Einstieg Klassen &amp; Objekte (OOPS, 17.11.2005) Seite 2..

Repr¨asentation durch den abstrakten Datentyp IOError..

(Repr¨ asentation von Mengen von Schlussregeln durch Regelschemata) Kalk¨ ul K ist sinnvoll, wenn man zeigen kann:. Korrektheit: Jede in K ableitbare Formel ist

Wissensrepr¨ asentation und -verarbeitung durch I K¨ unstliche Neuronale Netze (insbes. auch CNN) I Zustands¨ ubergangssysteme.. I

Die Studierenden sind in der Lage, Wissensrepr¨ asentationen zur Modellierung zu benutzen, die ¨ uber klassische Pr¨ adikatenlogik hinausgeht.. Insbesondere k¨ onnen sie dem

Eine Anatomie ohne Präparierkurs aber bedeutet: Den Studierenden fehlt die Möglichkeit, am Original – dem menschlichen Körper – von Grund auf strukturelle, funktionelle