Wissensrepr¨ asentation und -verarbeitung
Prof. Dr. Sibylle Schwarz HTWK Leipzig, Fakult¨at IMN Gustav-Freytag-Str. 42a, 04277 Leipzig
Zimmer Z 411 (Zuse-Bau)
http://www.imn.htwk-leipzig.de/~schwarz sibylle.schwarz@htwk-leipzig.de
Sommersemester 2017
Motivation
Wie wird Wissen
I repr¨asentiert?
I verarbeitet?
I erworben?
I ausgetauscht?
Wissen ¨uber
I Eigenschaften und Beziehungen von Objekten und Gruppen von Objekten
I Aktionsm¨oglichkeiten und deren Folgen Nutzung von Wissen zum gemeinsamen
I L¨osen von Aufgaben
I Planen von Handlungen
I Handeln
Inhalt der Lehrveranstaltung
Vorlesung:
I Daten, Information, Wissen, intelligente Agenten
I Wissensrepr¨asentation und -verarbeitung
I Wiederholung klassische Aussagen- und Pr¨adikatenlogik
I Modallogik, multimodale Logiken
I Unvollst¨andiges Wissen, nichtmonotones Schließen
I Unsicheres und unscharfes Wissen:
mehrwertige Logiken (probabilistisch, fuzzy)
I Koordination gemeinsamen Wissens und Handelns, Multi-Agenten-Systeme
I gemeinsamer Wissenserwerb, Kognition, maschinelles Lernen
I gemeinsames Planen Seminar (Pr¨ufungsvorleistung):
I Selbstudium mit Vortr¨agen (Themen demn¨achst)
I evtl. gemeinsame Robotik-Projekte
Literatur
Informationen und Folien zur aktuellen Vorlesung unter www.imn.htwk-leipzig.de/~schwarz/lehre/ss17/wr B¨ucher zu wissensbasierten Systemen:
I Stuart Russell, Peter Norvig:
K¨unstliche Intelligenz (Pearson 2004)
I Ingo Boersch, Jochen Heinsohn, Rolf Socher:
Wissensverarbeitung (Spektrum, 2007)
I Ronald Brachman, Hector Levesque:
Knowledge Representation and Reasoning (Morgan Kaufmann 2004)
I George Luger: K¨unstliche Intelligenz (Pearson 2001)
Agenten
Agent: selbst¨andig handelnde Einheit Funktionen:
I Wahrnehmung der Umwelt
I Reaktion auf Umwelt
I Anpassung, Lernen
I Kommunikation mit anderen Agenten Beispiele: z.B. Spieler
I Mensch
I Roboter
I Computer
I Software
Agent und Umgebung
Agent
Sensoren Steuerung
Aktoren
Umgebung Wahrnehmung
Aktion M¨ogliche Interaktion abh¨angig von vorhandenen
Sensoren z.B. Sinnesorgane, Kamera, Thermometer, Aktoren z.B. Hand, Motor, Regler
Steuerung z.B. Planung, Reaktion auf St¨orungen
Intelligente Agenten
Eigenschaften:
I reaktiv: regelm¨aßige Wahrnehmung der Umweltsignale, jede Aktionen abh¨angig vom Weltzustand
I aktiv: handelt zielgerichtet
I sozial: Interaktion mit anderen Agenten Agent hat und verwendet Wissen ¨uber
I aktuellen Weltzustand
I von eigenen Aktionen unabh¨angige ¨Anderungen des Weltzustandes
(z.B. Nachts wird es dunkel.)
I von eigenen Aktionen abh¨angige ¨Anderungen des Weltzustandes
(z.B. Ein von einer Stelle weggenommener Gegenstand befindet sich nicht mehr dort.)
Typische Anwendungen k¨ unstlicher Agenten
I Spiele (z.B. Schachprogramm)
I autonome Steuerung (z.B. autonome Fahrzeuge, Autopilot)
I autonome Planung (z.B. Zeitpl¨ane)
I Diagnose (z.B. Anlagen¨uberwachung)
I Entscheidungsunterst¨utzung (z.B. Konfigurationen)
I Robotik (z.B. Reinigungsroboter, Roboterfußball)
Was ist (k¨ unstliche) Intelligenz?
Turing-Test (1950): eine Person A, 2 verschlossene R¨aume R1 und R2, in einem Raum befindet sich ein Mensch B, im andern eine Maschine C
Kommunikation ¨uber neutrales Medium A stellt Fragen, B und C antworten
Maschine besteht Turing-Test (ist intelligent), wenn A durch Fragen nicht herausfinden kann, in welchem Raum sich die Maschine befindet
These: Intelligenz = intelligentesVerhalten
Chinese-Room-Test (Searle 1980): eine (nicht chinesisch verstehende) Person B in einem Zimmer mit einem (riesigen) Regelbuch mit chinesischen Fragen und passenden Antworten.
A stellt Fragen, B antwortet.
B antwortet immer passend, ohne die Frage verstanden zu haben.
These: (anscheinend) intelligentes Verhalten ist noch keine Intelligenz, wennVerst¨andnisfehlt.
Beispiel: Psychotherapeutin Eliza
Ans¨ atze zur Modellierung von Wissen / Intelligenz
verschiedene Abstraktionsstufen:
I Modellierung der menschlichen Reizaufnahme und -verarbeitung und des menschlichen Verstehens (kognitive Methoden)
I Modellierung des menschlichen Handelns Turing Test
I Modellierung des rationalen Denkens (abstrahiert von biologischem Vorbild) Regelsysteme, Logiken
Ziele wissensverarbeitender Systeme
I Simulation menschlichen Verhaltens
(Verst¨andnis und eigenes Denken nicht notwendig) schwachek¨unstliche Intelligenz
I Simulation des menschlichen Denkens (Verst¨andnis und eigenes Denken notwendig) starke k¨unstliche Intelligenz
Wissen, Information, Daten
Umwelt Eindr¨ucke, Reize
System Wahrnehmen, Beobachten Daten Erkennen, Verstehen Information
Anwenden, K¨onnen Wissen Lernen, Reflektieren Intelligenz
Wissen, Information, Daten
Daten Darstellungsform (Syntax) Zeichenketten, Symbole, Ton, . . . Information Bedeutung der Daten (Semantik)
in einem bestimmten Kontext Wissen Information mit einem Nutzen
tr¨agt zur L¨osung eines Problemes bei
Wissen zur Probleml¨ osung – Beispiele
Daten: 39.7
Information: K¨orpertemperatur= 39.7◦
Kontextwissen: K¨orpertemperatur>39.0◦ ist Fieber
Wissen: Fieber
Probleml¨osung: Fieberbehandlung
Daten: FRUEFPUJRERFCEBOYRZ
Information: FRUEFPUJRERFCEBOYRZ ist eine un- verst¨andliche, also wahrscheinlich ver- schl¨usselte Nachricht
Kontextwissen: verschiedene Chiffrierverfahren, Buchsta- benh¨aufigkeiten
Wissen: FRUEFPUJRERFCEBOYRZ ist eine mit dem . . . -Verfahren und dem Sch¨ussel . . . verschl¨usselte Nachricht
Probleml¨osung: . . .
Arten von Wissen
deklarativ ¨uber Zust¨ande (der Welt) Fakten, Aussagen, Zusammenh¨ange, z.B.
I Fliegenpilze sind ungenießbar.
I Es existieren gerade Primzahlen.
I Eine Liste (x1, . . . ,xn) ist genau dann aufsteigend sortiert, wenn sie leer ist oder (x1≤x2und (x2, . . . ,xn) aufsteigend sortiert ist).
prozedural ¨uber Zustands¨uberg¨ange Regeln, Algorithmen, Funktionen, z.B.
I Kochrezept
I Euklidischer Algorithmus
I aussagenlogisches Resolutionsverfahren
I Sortierverfahren
Ist die folgende Aussage Fakten- oder prozedurales Wissen?
Jedes Kind eines Kindes einer PersonX ist ein Enkel vonX.
Also: Repr¨asentationen von Regeln, Algorithmen und Funktionen lassen sich auch als Faktenwissen auffassen.
Explizites und implizites Wissen
implizit
”unbewusst“ angewendtes Wissen
z.B. Bewegungsabl¨aufe, Erkennen von Personen (Objekten), Reflexe
explizit kommunizierbares Wissen oft formale Darstellung
z.B. Personendaten, Gebrauchsanweisung, Spielregeln Lernvorg¨ange sind oft Transformationen
explizites→implizites Wissen
z.B. Autofahren, Grammatik in Fremdsprachen
zur maschinellen Wissensverarbeitung ist explizites Wissen notwendig
Transformation notwendig:
implizites→explizites Wissen anspruchsvoll, nicht immer m¨oglich
Darstellung von Wissen
formale Repr¨asentation des Wissens in einerWissensbasis:
spezielle Form der Daten in der Wissensbasis abh¨angig von
I Problembereich
I geplante Verwendung
Wissen in Wissensbasis ist immerAbstraktion, beschreibt Modelle der Realit¨at
I Auswahl von (f¨ur den Anwendungsbereich) wichtigem Wissen
I Vernachl¨assigung unwichtiger Details Beispiele:
I Liniennetzplan
I Grundriss
I Stundenplan
I Kostenplan
Wissensverarbeitung
I Probleml¨osen
I algorithmische Suche in Zustandsr¨aumen
I logisches Schließen
Beispiel: n-Damen-Problem, k¨urzeste Wege in Graphen
I Planen
Finden einer Folge von Aktionen zum Erreichen eines Zieles Beispiel: morgens Anziehen, Fertigungsroboter
I Klassifikation
Finden von Klassen (Diagnosen) anhand der Merkmalswerte (Symptome)
Beispiel: Fahrzeuge, Fehlfunktionen teilweise bekannt aus den Lehrveranstaltungen
I Modellierung
I Algorithmen und Datenstrukturen
I K¨unstliche Intelligenz
Anforderungen an Wissensbasen
Qualit¨atskriterien bei der Modellierung:
I f¨ur Problembereich geeignete Abstraktion
I effektiv, redundanzfrei
I vollst¨andig
I erweiterbar
I verst¨andlich
Beispiele f¨ ur Wissensrepr¨ asentation und Probleml¨ osen
Kontext: Zustands¨ubergangssystem
Aufgabe: Startzustand und Anforderungen an Zielzust¨ande L¨osungsverfahren: Suche (vollst¨andig oder heuristisch)
Kontext: Menge logischer Formeln
Aufgabe: Gilt die Behauptung (logische Formel) im Kontext?
L¨osungsverfahren: logisches Folgern oder Schließen Kontext: Datenmenge (bekannte F¨alle)
Aufgabe: neuer Fall L¨osungsverfahren: 2 Schritte
1. Training eines KNN mit Datenmenge (Kontext als implizites Wissen)
2. Anwendung des KNN auf den neuen Fall (L¨osung mehrerer F¨alle m¨oglich)
Programmierung und Wissensrepr¨ asentation
Programmierung Wissensrepr¨asentation Entwurf eines Algorithmus zur
L¨osung des Problemes
Identifikation des zur L¨osung des Problemes relevanten Wissens Implementierung in einer geeig-
neten Programmiersprache
Darstellung des relevanten Wis- sens in einer geeigneten Re- pr¨asentationssprache
Probleml¨osung durch Ausf¨uh- rung des Programmes
Probleml¨osung durch Anwendung eines Standardverfahrens
Beispiel: n-Damen-Problem
Aufgabe: Setzen Damen ohne gegenseitige Bedrohungen auf ein n×n-Spielfeld
Programmierung Wissensrepr¨asentation Entwurf geigneter Datenstruk-
turen und eines Algorithmus zur L¨osungssuche
Identifikation der Bedingungen an Aufgabe und L¨osung
Implementierung Repr¨asentation von Spielfeld und Bedingungen an eine L¨osung als logische Formeln (z.B. CNF) Probleml¨osung durch
Ausf¨uhrung des Program- mes
Probleml¨osung durch logisches In- ferenzverfahren (z.B. Resolution, SAT-Solver, Prolog)
Programmierung und Wissensrepr¨ asentation
Programmieren Wissensrepr¨asentation Erkl¨arung der L¨osung:
Verfolgen der Zu-
stands¨anderung bei Program- mausf¨uhrung (Debugging)
vom Inferenzverfahren verwendete Voraussetzungen
Fehlerbehandlung:
Debugging fehlendes Wissen einf¨ugen Code¨anderung falsches Wissen l¨oschen
Wissenserweiterung:
neuer Entwurf, Neuimplemen- tierung
neues Wissen in Wissensbasis einf¨ugen
Intelligente (wissensbasierte) Systeme
Modellierung der Aufgabe:
Kontext Frage
Zentrale Komponenten intelligenter Systeme:
Wissensbasis (Kontext) enth¨alt deklaratives Wissen
Anfragekomponente erlaubt (formalisierte) Fragen Probleml¨osekomponente
prozedurales Wissen
z.B. Suchverfahren, Inferenzsystem Zusatz-Komponenten, z.B. f¨ur
Interview Abfrage fallspezifischer Information Erkl¨arung Begr¨undung der vorgeschlagenen L¨osung Wissenserwerb konsistente Erweiterung der Wissensbasis
Probleml¨ osung durch Suche in Graphen – Beispiele
I Finden von Wegen in einem Graphen
I Aufgabe:
I gegeben: GraphG (Tafel)
I gesucht: Weg (Pfad) inG von Knotenuzu Knotenv
I L¨osungsidee: Suche im Graphen
I M¨unzenstapelspiel (f¨ur eine Person)
I Aufgabe:
I gegeben: Stapel vonnM¨unzen
I gesucht: Zugfolge durch erlaubte Z¨uge (zwei M¨unzen von einem Stapel nehmen und auf beide Nachbarn verteilen) bis zu einer Situation, in der kein Zug m¨oglich ist
I L¨osungsidee:
I Modellierung als Zustands¨ubergangssystem
I Suche im Graphen I 3 Kr¨uge
I Aufgabe:
I gegeben: 3 volle Kr¨uge mit Volumen 4l, 7l, 9l,
I gesucht: genau 6l in einem der 3 Kr¨uge
I L¨osungsidee: Zust¨ande als Knoten eines Suchbaumes
Darstellung von Aufgabe und L¨ osung
Aufgabe:
gegeben: I Menge V von Zust¨anden (evtl. unendlich) oft beschrieben durch Eigenschaften
I Startzustand s ∈V
I Menge Z ⊆V von Zielzust¨anden (oder Eigenschaften der Zielzust¨ande)
I m¨ogliche ¨Uberg¨ange zwischen Zust¨anden Ubergangsrelation¨ E ⊆V ×V
L¨osung: Folge von Zust¨anden (Weg von einem Start- zu einem Zielzustand) (Mitunter interessiert nur der erreichte Zielzustand.)
Wissensrepr¨asentation: als GraphG = (V,E) (Zustands¨ubergangssystem):
I Knotenmenge V: Zust¨ande
I (gerichtete) Kanten: Zustands¨uberg¨ange Entfaltung des Graphen zu einem Baum:
Pfade im Graphen = Knoten im Baum
Probleml¨ osen durch Suchen
I formale Darstellung des Problemes als Graph bzw. Baum
I formale Beschreibung der L¨osung als Eigenschaft von
I Pfaden im Graphen
I Knoten im Baum
M¨oglichkeiten zum Probleml¨osen:
I Pfadsuche im Graphen
I Knotensuche im Baum
Suche in Graphen
(schon bekannte) Verfahren zur Suche in Graphen (und B¨aumen):
I Tiefensuche (depth-first search):
Suche zuerst in Teilb¨aumen eines noch nicht besuchten Nachbarn des aktuellen Knotens
I Breitensuche (breadth-first search):
Suche zuerst in Teilb¨aumen eines noch nicht besuchten Knotens mit der geringsten Tiefe
Allgemeines Suchverfahren
Daten: La Menge der noch zu expandierenden Knoten Lx Menge der expandierten Knoten
s Startknoten
ϕ Anforderungen an L¨osung (Zielknoten) Allgemeiner Suchalgorithmus:
1. La ={s},Lx =∅ 2. solange¬La=∅:
2.1 Verschiebe einen auffestgelegte Artausgew¨ahlten Knotenu ausLa inLx
2.2 F¨uge alle Nachbarn von u, die nicht inLa∪Lx enthalten sind, auf einefestgelegte ArtinLa ein
(Abbruch falls ein Nachbarv vonudie Bedingungϕerf¨ullt, also eine L¨osung repr¨asentiert)
prominente Spezialf¨alle:
Tiefensuche I Verwaltung von La alsStack
I Einf¨ugen der Nachbarn an den Anfangder ListeLa I festgelegter Knoten wurdezuletztinLa eingef¨ugt Breitensuche I Verwaltung von La alsQueue
I Einf¨ugen der Nachbarn an dasEndeder ListeLa I festgelegter Knoten wurdezuerstin La eingef¨ugt
29
Was bisher geschah
I Daten, Information, Wissen
I Wissensrepr¨asentation und -verarbeitung Wissensrepr¨asentation: Beschreibung von
Wissen: Zustands¨ubergangssystem: gerichteter Graph G = (V,E) mit
I Knotenmarkierungen lv :V →LV mitLV: Eigenschaften der Zust¨ande
I Startzustand s ∈V
I Eigenschaften der Zielzust¨ande (z.B.
Variablenwerte)
I Kantenmarkierungen lE :V →LE mit LE: m¨ogliche / zul¨assige Aktionen ( ¨Uberg¨ange) L¨osung: zul¨assiger Weg (Zustandsfolge p ∈V∗) vom Start-
zu einem Zielzustand
Wissensverarbeitung: Pfadsuche im Graphen
I blinde Suchverfahren: Tiefensuche, Breitensuche
Allgemeiner Suchalgorithmus
1. aktuelle Menge der zu untersuchenden Knoten La ={s} 2. aktuelle Menge der erledigten Lx =∅
3. solange nicht (gefunden oder La=∅) wiederhole:
3.1 Verschiebe einenfestgelegtenKnoten uausLa inLx
3.2 F¨uge alle Nachbarn von u, dieLa∪Lx nicht enth¨alt, (auf eine festgelegte Art) inLa ein
Verschiedene Suchverfahren unterscheiden sich nur in der Auswahl des expandierten (festgelegten) Knotens ausLa
nach Festlegung durch Datenstruktur zur Verwaltung vonLa I Stack: Tiefensuche
I Queue: Breitensuche
Schrittweise Vertiefung
beschr¨ankte Tiefensuche:
1. festgelegte Tiefenbeschr¨ankung m∈N 2. Tiefensuche auf allen Pfaden bis zur Tiefe m
nicht vollst¨andig, weiter entfernte L¨osungen werden nicht gefunden Schrittweise Vertiefung(iterative deepening)
Kombination aus Breiten- und Tiefensuche durch
Nacheinanderausf¨uhrung der beschr¨ankten Tiefensuche f¨ur alle m∈N, solange keine L¨osung gefunden wurde
vollst¨andig, optimal
(asymptotischer) Zeit- und Platzbedarf wie Tiefensuche
Gleiche-Kosten-Suche (kleinste bisherige Kosten)
(uniform-cost-search)
bei Zustands¨uberg¨angen mit verschiedenen Kosten
Ziel: L¨osung (Pfad vom Start- zu einem L¨osungsknoten) mit m¨oglichst geringen Pfadkosten
(Pfadkosten = Summe der Kosten aller ¨Uberg¨ange auf dem Pfad) Bewertungsfunktion f¨ur Knoten k :V →R≥0
k(u) = minimale (bisher entdeckte) Pfadkosten vom Startknoten zuu
Datenstruktur zur Verwaltung vonLa: Priority Queue Priorit¨at eines Knotensu:k(u)
Beispiele:
I I Breitensuche (Kosten = Tiefe des Knotens) I k¨urzeste Wege (Kosten = Abstand des Knotens vom Startknoten)
Dijkstra-Algorithmus
Uniforme Kostensuche ist wie Breitensuche und Tiefensuche ein uninformiertesSuchverfahren
Heuristische Suche – Motivation
Heuristik: Effizienzsteigerung durch Zusatzinformationen (z.B. Erfahrungswerte)
Anwendung bei
I Aufgaben mit mehreren L¨osungen (z.B. Wege in Graphen)
I unterschiedliche Qualit¨at der L¨osungen (z.B. L¨ange des Weges)
I Suche nach optimalenL¨osungen (z.B. k¨urzester Weg)
I falls vollst¨andige Suche zu aufwendig Ziele:
I Wahl einer geeigneten Such-Reihenfolge, unter welcher gute L¨osungen zuerst gefunden werden
I Verwerfen von Knoten, die wahrscheinlich nicht zu einer L¨osung f¨uhren
(beabsichtigte Verletzung der Fairness-Eigenschaft)
Sch¨ atzfunktionen
Ziel: sinnvolle Auswahl der in jedem Schritt zu expandierenden Knoten unter Verwendung von Zusatzinformationen
Sch¨atzfunktion (heuristische Funktion) h:V →R≥0∪ {∞}
(oder in eine andere geordnete Menge)
Sch¨atzung der erwartete Restkosten vom Knotenu bis zum Ziel
repr¨asentiert die Zusatzinformation
Eigenschaften von Heuristiken
Sch¨atzfunktion h:V →R≥0∪ {∞} heißt
perfekt (Sch¨atzfunktion H(u)), gdw. ∀u ∈V :H(u) = genau die Kosten einer optimalen L¨osung durchu (H(u) =∞, falls keine L¨osung ¨uber u existiert) zielerkennend gdw. f¨ur jeden L¨osungsknotenu ∈V gilt h(u) = 0
sicher gdw. f¨ur jeden Knoten u ∈V, aus dem kein L¨osungsknoten erreichbar ist, gilth(u) =∞ konsistent gdw. f¨ur jeden Knoten u ∈V und alle Nachbarn v
vonu gilth(u)≤w(u,v) +h(v)
(w(u,v) Kosten des ¨Ubergangs vonu nachv) nicht-¨ubersch¨atzend gdw. f¨ur jeden Knoten u∈V gilt
h(u)≤H(u)
Aus nicht-¨ubersch¨atzend folgt sicher und zielerkennend.
Aus zielerkennend und konsistent folgt nicht-¨ubersch¨atzend.
Besten-Suche
(best-first-search)
Allgemeines Suchverfahren mit Bewertungsfunktion f :V →R≥0∪ {∞}
mit folgender Strategie zur Auswahl der in jedem Schritt zu expandierenden Knoten:
I Knoten werden aufsteigend nach Bewertung f(u) expandiert,
I Expansion des Knotensu mit dem geringsten Wertf(u) zuerst
I Verwaltung von La als priority queue
Beispiel: Suche eines k¨urzesten Weges zwischen Orten A und B
I Bewertungsfunktion f(u): bisherige Kosten bis zum Ortu (ohne Sch¨atzfunktion, uniforme Kostensuche, Dijkstra)
I Bewertungsfunktion f(u):
Luftlinienentfernung des Ortes u von B (nur Sch¨atzfunktion)
Besten-Suche – Eigenschaften
zwei Methoden:
1. Knoten mit großen Werten m¨oglichst sp¨atexpandieren 2. Knoten mit großen Werten nichtexpandieren
I Bestensuche mit einer beliebigen Besertungsfunktionfunktion ist nicht immer optimal.
I Bestensuche nach Methode 1 (fair) ist vollst¨andig
I Bestensuche nach Methode 2 ist nicht immer vollst¨andig
Greedy-Suche (kleinste Restkosten)
Idee: Suche zuerst in Teilb¨aumen der noch nicht besuchten Knoten mit den geringsten (gesch¨atzten) noch aufzuwendenden Kosten Heuristische Funktionh:V →R≥0∪ {∞}
h(v) ist Absch¨atzung des von Knotenv aus den noch notwendigen Kosten zum Erreichen eines Zielzustandes
Greedy-Suche:
Besten-Suche mit Bewertungsfunktionf :V →R≥0∪ {∞}, wobei f¨ur jeden Knoten v ∈V gilt
f(v) =h(v)
Eigenschaften der Greedy-Suche:
I optimal?
I vollst¨andig?
Beispiel Schiebefax
I Zust¨andeu∈ {0, . . . ,8}3×3, 3×3-Matrix mit Eintr¨agen{0, . . . ,8}
(jede Zahl genau einmal, 0 leeres Feld)
I Zul¨assige Z¨uge: Verschieben des leeren Feldes auf ein Nachbarfeld d. h. Vertauschen von 0 und einem Wert in einem Nachbarfeld (gleicher Zeilen- oder Spaltenindex)
I Zielkonfiguration
1 2 3
8 4
7 6 5
I Aufgabeninstanz: gegebene Ausgangskonfiguration (Matrix), z.B.
8 3
2 1 4 7 6 5
I L¨osung: Folge von zul¨assigen Z¨ugen (Bewegung der L¨ucke 0) von der Ausgangs- zur Zielkonfiguration
I Bewertung der L¨osung: Anzahl der Z¨uge (L¨ange der L¨osungsfolge)
Schiebefax – Heuristische Funktionen
Heuristische Funktionenhi :{0, . . . ,8}3×3 →N mit
h1 Anzahl der Zahlen, die sich nicht an ihrer Zielposition befinden
h2 weitester Abstand einer Zahl zu seiner Zielposition h3 Summe der Manhattan-Abst¨ande jeder Zahl zu seiner
Zielposition
Tafel: Bestensuche mit Bewertungsfunktionenf(u) =hi(u) Qualit¨at der Sch¨atzfunktionen:
I gute Trennung verschiedener Zust¨ande
I fair: zu jedemn ≥0 existieren nur endlich vieleu ∈V mit h(u)≤n
Bisherige Kosten
Kostenfunktion k:V →R≥0
k(u) Kosten des besten (bisher bekannten) Pfades vom Startzustand zum Zustand u
Kostenfunktionk :V →R≥0 heißt
streng monoton wachsend , falls f¨ur alle Knotenv und alle Nachfolger u von v giltk(u)<k(v)
Beispiele f¨ur Kostenfunktionen:
I Tiefe des Knotens im Suchbaum,
I maximale Entfernung vom Startknoten
A
∗-Suche (kleinste Gesamtkosten)
Idee: Suche zuerst in Teilb¨aumen der noch nicht besuchten Knoten mit demgeringsten Wert der Sch¨atzfunktion
(Summe von bisherigen und gesch¨atzen zuk¨unftigen Kosten) Funktionen
I k :V →R≥0 – bisher bekannte Kosten von einem Startzustand zu v
I h :V →R≥0 – gesch¨atzte Kosten vonv zu einem Endzustand A∗-Suche:
Besten-Suche mit Sch¨atzfunktion f :V →R≥0, wobei f¨ur jeden Knotenv∈V gilt
f(v) =k(v) +h(v) Eigenschaften derA∗-Suche:
I vollst¨andig?
I optimal?
Anwendungen
Planungsprobleme und kombinatorische Suchprobleme, z.B.
I Routenplanung
I TSP
I Verlegen von Leitungen
I Schaltkreis-Layout
I Navigation (z.B. von Robotern)
I Scheduling
I Produktionsplanung
Was bisher geschah
I Daten, Information, Wissen
I Wissensrepr¨asentation und -verarbeitung
I Wissensbasierte Systeme Wissensrepr¨asentation:
I Zustands¨ubergangssystem:
Graph mit markierten Knoten (Zust¨ande und deren Eigenschaften)
I Startzustand
I Eigenschaften der Zielzust¨ande L¨osung: Pfad vom Start- zu einem Zielzustand Wissensverarbeitung: Suche im Graphen
uninformiert: Breiten-, Tiefen-, Gleiche-Kosten-Suche informiert: heuristische, Greedy-, A∗-Suche
Zwei-Personen-Spiele
Brettspiel
I aktueller Spielzustand immer f¨ur beide Spieler sichtbar (vollst¨andige Information)
I einer gewinnt, der andere verliert (Nullsummenspiel) Wissensrepr¨asentation (Spielbaum):
I Menge von Zust¨anden (Min- und Max-Zust¨ande)
I Startzustand
I Endzust¨ande (ohne Fortsetzung)
I Nachfolgermenge S(v) = Menge von Zust¨anden (nach zul¨assigen Z¨ugen)
I Bewertungsfunktion: Menge der Endzust¨ande→Z
I positiv: Spieler (1, Max, beginnt) gewinnt
I negativ: Gegner (0, Min) gewinnt
Beispiel Nim (Variante)
I n M¨unzen auf einem Stapel
I Spielzug: Teilen eines Stapels in zwei nichtleere Stapel ungleicher Gr¨oße
I Sobald ein Spieler keinen Zug mehr ausf¨uhren kann, hat er verloren (und der andere gewonnen).
Modellierung als Zustands¨ubergangssystem:
Zust¨ande: S :N→N
(Multimenge: Zahl→ Anzahl der Vorkommen in S) Startzustand: S(n) = 1∧ ∀i 6=n :S(i) = 0
Endzust¨ande: kein Zug m¨oglich
Uberg¨¨ ange: (erlaubte Z¨uge) f¨urx =x1+x2∧x16=x2∧x1x2 6= 0:
S →S0 mit
S0(x) =S(x)−1∧S0(x1) =S(x1) + 1∧
S0(x2) =S(x2) + 1∧ ∀i 6∈ {x,x1,x2}:S0(i) =S(i)
Minimax-Werte
Fortsetzung der Bewertungsfunktion von den Bl¨attern (Endzust¨anden) auf alle Knoten im Spielbaum b :V →Z rekursive Berechnung (Minimax-Algorithmus) des Wertes eines Knotensv im Spielbaum:
m(v) =
b(v) falls v Endzustand
max{m(u)|u ∈S(v)} falls v Max-Knoten min{m(u)|u ∈S(v)} falls v Min-Knoten Beispiele (Tafel):
I Spielbaum,
I Nim mitn = 7
I Tic-Tac-Toe (mit heuristischer Bewertung) Spielstrategie f¨ur Spieler 1 (Max):
Zug w¨ahlen, der zum Zustand mit h¨ochstem Minimax-Wert f¨uhrt
α-β-Suche
Idee: Tiefensuche mit Verwaltung zus¨atzlicher Werte
α : bisher h¨ochster Minimax-Wert an Max-Positionen β : bisher geringster Minimax-Wert an Min-Positionen Bei Berechnung des Minimax-Wertes der Wurzel Berechnungen f¨ur Teilb¨aume abbrechen, sobald bekannt ist, dass sieα und β nicht verbessern
Abtrennen jedes Kindesv eines min-Knotens u, fallsβ(u)≤α(v)
(min-Spieler kann durch Wahl eines zuvor untersuchten Kindes vonu den geringeren
Minimax-Wertβ(u) erreichen als durch Wahl von v) max-Knotens u, fallsα(u)≥β(v)
(max-Spieler kann durch Wahl eines zuvor untersuchten Kindes vonu den h¨oheren
Minimax-Wertα(u) erreichen als durch Wahl von v) Beispiel (Tafel)
Was bisher geschah
I Daten, Information, Wissen
I explizites und implizites Wissen
I intelligente Agenten
Wissensrepr¨asentation und -verarbeitung:
Wissensbasis: Kontextwissen
Formulierung der Aufgabe: fallspezifisches Wissen L¨osung: Bedingungen
L¨osungsverfahren
Wissensrepr¨asentation und -verarbeitung in Zustands¨ubergangssystemen:
Wissensbasis: Graph (mit Knoten- und Kantenmarkierungen) Formulierung der Aufgabe: Weg von Startknoten zu L¨osung gesucht
L¨osung: Bedingungen L¨osungsverfahren: Suchverfahren
blind: Breiten-, Tiefen-, Gleiche-Kosten-Suche informiert: Besten-, Greedy-, A∗-Suche
Zwei-Personen-Spiele, MiniMax-Werte,α-β-Pruning
Entwicklung gemeinsamen Wissens
3 Logiker in der Bar (http://spikedmath.com/445.html) Wollt Ihr alle Bier?
Formal: Gilt∀x B(x) inS = ({a,b,c},J·KS)?
Gilt alsoJBKS ={a,b,c}?
Wissen der einzelnen Individuen zu Beginn:
aweiß, ob a∈JBKS, aber nicht, obb∈JBKS oderc ∈JBKS
(b,c analog)
Entwicklung des gemeinsamen Wissens ¨uber S:
JBKS ist zun¨achst unbekannt.
a: Ich weiß es nicht.
Antwort nur korrekt, wenna∈JBKS,
also a∈JBKS nun gemeinsam bekannt b: Ich weiß es nicht.
Antwort nur korrekt, wenn außerdem b∈JBKS,
also {a,b} ⊆JBKS nun gemeinsam bekannt c: Ja
Antwort nur korrekt, wenn außerdem c ∈JBKS,
also {a,b,c}=⊆ B S nun gemeinsam bekannt 51
Entwicklung gemeinsamen Wissens
Beispiel: Zahlenr¨atsel
A w¨ahlt zwei nat¨urliche Zahlen zwischen (einschließlich) 2 und 100 und verr¨at S deren Summe und P deren Produkt. Dann kommt es zu folgendem Gespr¨ach:
P: Ich kenne die beiden Zahlen nicht.
S: Das weiß ich. Ich kenne sie auch nicht.
P: Dann kenne ich die beiden Zahlen jetzt.
S: Dann kenne ich sie jetzt auch.
Welche Zahlen hat A gew¨ahlt ? Kontext: Wissen ¨uber Teilbarkeit usw.
Wissensrepr¨ asentation durch Logiken
Anforderungen an Formalismus zur Wissensrepr¨asentation:
I hinreichende Ausdrucksst¨arke
I syntaktisch und semantisch eindeutig
I M¨oglichkeit der maschinellen Verarbeitung
I klassische Aussagenlogik AL(P)
I hinreichende Ausdrucksst¨arke: oft ja
I syntaktisch und semantisch eindeutig: ja
I M¨oglichkeit der maschinellen Verarbeitung: ja (algorithmische Entscheidbarkeit)
I klassische Pr¨adikatenlogik (der ersten Stufe) FOL(Σ)
I hinreichende Ausdrucksst¨arke: meist ja
I syntaktisch und semantisch eindeutig: ja
I M¨oglichkeit der maschinellen Verarbeitung: meist ja (Unentscheidbarkeit)
I nichtklassische Logiken:
I Modale Logiken, z.B. Temporallogiken, Raumlogiken, Beschreibungslogiken
I Mehrwertige Logiken, z.B.Fuzzy-Logik 53
Wissensrepr¨ asentation und -verarbeitung in Logiken
Wissensbasis: Formelmenge Φ Problemdarstellung: Formel ψ
repr¨asentiert die Frage:
(F¨ur welche Variablenbelegung) Folgt ψaus Φ?
L¨osung: ja / nein, evtl. erf¨ullende Belegung
L¨osungsverfahren:
Folgern (semantisch):
z.B. Wahrheitswerttabellen, Modellmengen Schließen (syntaktisch):
Kalk¨ule, z.B. Resolution
Aussagenlogik – Syntax
Junktoren Syntax: Symbole t,f (nullstellig),
¬(einstellig), ∨,∧,→,↔ (zweistellig) Semantik: Wahrheitswertfunktion
Atome Syntax: Aussagenvariablen (elementare Formeln) Semantik: Wahrheitswert
Formeln Syntax (induktive Definition):
IA: Alle Atome sind Formeln.
IS: Sind j einn-stelliger Junktor undϕ1, . . . , ϕn Formeln,
dann ist auch j(ϕ1, . . . , ϕn) eine Formel.
Baumstruktur
Semantik: Boolesche Funktion Beispiele:
I (p∧(q →r))∨(r → ¬p)
I ¬p∧p
Bedeutung der Junktoren
Syntax Semantik
Stelligkeit Symbol Wahrheitswertfunktion
wahr 0 t 1
falsch 0 f 0
Konjunktion 2 ∧ min
Disjunktion 2 ∨ max
Negation 1 ¬ x7→1−x
Implikation 2 → ≤
Aquivalenz¨ 2 ↔ =
Aussagenlogik – Semantik
Belegung W :P → {0,1}
Wert vonϕ∈AL(P) unter BelegungW:W(ϕ) mit W(p) f¨ur ϕ=p ∈P und
induktive Berechnung f¨ur zusammengesezte Formeln Modell (erf¨ullende Belegung) f¨urϕ∈AL(P):
W :P → {0,1}mitW(ϕ) = 1 Modellmenge von ϕ∈AL(P):
Mod(ϕ) ={W :P → {0,1} |W(ϕ) = 1}
(Boolesche Funktion, Wahrheitswerttabelle)
Erf¨ ullbarkeit
Formelϕ∈AL(P) heißt erf¨ullbar gdw.Mod(ϕ)6=∅ unerf¨ullbar gdw.Mod(ϕ) =∅ allgemeing¨ultig gdw.Mod(¬ϕ) =∅
Erf¨ullbarkeit (und Allgemeing¨ultigkeit) ist algorithmisch entscheidbar.
semantisch z.B. durch Wahrheitswerttabellen syntaktisch z.B. durch Resolution
Werkzeuge: SAT-Solver
Modellierungsbeispiel (Aussagenlogik)
1. Es wird nicht mehr viel Eis gekauft, wenn es kalt ist.
2. Der Eisverk¨aufer ist traurig, wenn nicht viel Eis gekauft wird.
3. Es ist kalt.
Wissensbasis: . . . Problem: . . .
L¨osung: . . . L¨osungsverfahren: . . .
neue zus¨atzliche Aussage (Erweiterung der Wissensbasis):
4. Der Eisverk¨aufer ist nicht traurig.
Semantische ¨ Aquivalenz
Relation≡⊆AL(P)×AL(P) (Relation zwischen zwei Formeln)
ϕ≡ψ gdw. Mod(ϕ)=Mod(ψ)
Beispiele:
I p →q≡¬p∨q
I p∨q≡¬p →q
I p∧q≡¬(p→ ¬q)
I p ↔q≡(p →q)∧(q→p)
Regeln der klassische Aussagenlogik (z.B. DeMorgan,
Distributivgesetze) erm¨oglichen rein syntaktische ¨aquivalente Umformungen.
Normalformen
Junktorbasen{∨,∧,¬},{→,¬},{NAND},{I,t,f}mit I(x,y,z) = (x∧y)∨(¬x∧z)
Zu jeder Formelϕ∈AL(P) existieren ¨aquivalente Formeln in NNF Formeln, in denen das Negationssymbol¬h¨ochstens
auf Atome angewendet wird Beispiel: ¬p∨((¬q∨p)∧q) CNF Formeln der FormVn
i=1
Wmi
j=1li,j mit Literalen li,j
Beispiel: (¬p∨ ¬q)∧(p∨q)∧ ¬q DNF Formeln der FormWn
i=1
Vmi
j=1li,j
mit Literalen li,j
Beispiel: ¬p∨(¬q∧p)∨(p∧q) NAND-NF ¬ϕ=ϕNANDϕ,
ϕ∧ψ= (ϕNANDϕ) NAND(ψNANDψ), IF-NF I(p, ϕ, ψ) mit p∈P, (Entscheidungsb¨aume)
Semantisches Folgern
Folgerungsrelation|=⊆2AL(P)×AL(P) (Relation zwischen Formelmenge und Formel)
Φ|=ψ gdw. Mod(Φ)⊆Mod(ψ) Notation:|=ψstatt ∅ |=ψ und ϕ|=ψ statt{ϕ} |=ψ Beispiele:
I {p} |=p,
I {p →q,¬q} |=¬p,
I ∅ |=p →p
I {p,¬p,¬q} |=q Es gilt:
|=ψ gdw. ψallgemeing¨ultig ϕ≡ψ gdw. (ϕ|=ψund ψ|=ϕ)
Semantisches Folgern
Fakt
F¨ur jede FormelmengeΦ⊆AL(P) und jede Formelψ∈Φ gilt Φ|=ψ.
Fakt
F¨ur jede FormelmengeΦ⊆AL(P)und jede Formelψ∈AL(P)gilt:
Φ|=ψ gdw. Mod(Φ) = Mod(Φ∪ {ψ}) Fakt
F¨ur jede FormelmengeΦ⊆AL(P)und jede Formelψ∈AL(P)gilt:
Φ|=ψ gdw. Φ∪ {¬ψ} unerf¨ullbar Folgerung:
Φ|=ψ gdw. Φ∪ {¬ψ} |=f
Syntaktisches Ableiten
gegeben: Formelmenge Φ Formel ψ Frage : Gilt Φ|=ψ?
Ziel: Verfahren zur Beantwortung dieser Frage durchsyntaktische Operationen
(ohne Benutzung der Semantik, Modellmengen) Syntaktische Ableitungsrelation` ⊆2AL(P)×AL(P) passendzur
semantischen Folgerungsrelation|=⊆2AL(P)×AL(P)
`passtzu|=, falls f¨ur jede Formelmenge Φ∈AL(P) und jede Formelψ∈AL(P) gilt
Φ`ψ gdw. Φ|=ψ
Syntaktisches Ableiten
gegeben: Formelϕ(Formelmenge Φ) Formel ψ
Frage: Gilt Φ|=ψ
Idee: schrittweises Ableiten (ohne Zugriff auf die Semantik der Formeln) von Folgerungen aus einer Formelmenge durch syntaktische Umformungen
logischer Kalk¨ul Menge von Regeln zur syntaktischen Umformung von Formeln (Formelmengen)
(ohne ¨Anderung der Semantik der Formelmengen) Ein logischer Kalk¨ul K ist sinnvoll, wenn man zeigen kann:
Korrektheit Jede inK ableitbare Formel ist allgemeing¨ultig.
Vollst¨andigkeit Jede allgemeing¨ultige Formel ist inK ableitbar.
Aussagenlogischer Tableau-Kalk¨ ul
Idee:
I intuitiver Beweiskalk¨ul (rekursiv ¨uber Aufbau der Formel)
I Unerf¨ullbarkeitbeweis durch Fallunterscheidung
I Darstellung in Baumform Grundform der Formel:
konjunktiv: ϕ∧ψ
¬(ϕ∨ψ), weil ¨aquivalent zu¬ϕ∧¬ψ
¬(ϕ→ψ), weil ¨aquivalent zuϕ∧¬ψ
¬¬ϕ disjunktiv: ϕ∨ψ
¬(ϕ∧ψ), weil ¨aquivalent zu¬ϕ∨¬ψ ϕ→ψ, weil ¨aquivalent zu ¬ϕ∨ψ
Aussagenlogischer Tableau-Kalk¨ ul: Regeln
Regeln f¨ur konjunktive Formeln:
¬¬A
| A
A∧B
| A
| B
¬(A∨B)
|
¬A
|
¬B
¬(A→B)
| A
|
¬B
Regeln f¨ur disjunktive Formeln:
A∨B
/ \
A B
¬(A∧B)
/ \
¬A ¬B
A→B
/ \
¬A B
Aussagenlogische Tableaux
Aussagenlogisches Tableau f¨ur ϕ∈AL(P):
endlicher BaumT mit
I Markierungen der Knotenu ∈T mit Formeln ψ∈AL(P)
I Markierung der Wurzel inT:ϕ
I Zu jedem Knoten ui ∈T und jedem Pfad von ui zu einem Blatt in T existiert ein Knotenuj ∈T mit Kindern
entsprechend der Tableau-Regel f¨ur Markierungψ vonui. (schrittweise Konstruktion)
Beispiele:
I ¬(p→q)∧(¬p∨q)
I (p∨q)∧ ¬(p∧q)
I Pfadu0, . . . ,un in einem TableauT heißt geschlossengdw.
auf diesem Pfad zwei Knoten mit den Markierungen {ψ,¬ψ}
existieren.
I TableauT heißt geschlossengdw.jeder Pfad inT geschlossen ist.
Beweisen mit aussagenlogischen Tableaux
Satz
F¨ur jede Formelϕ∈AL(P)gilt:
Vollst¨andigkeit: Falls ϕunerf¨ullbar ist, ist jedes Tableau f¨urϕ geschlossen.
Korrektheit: Falls ein geschlossenes Tableau f¨urϕ existiert, istϕ unerf¨ullbar.
Aussagenlogische Tableau-Beweise
f¨ur die Unerf¨ullbarkeit einer Formelϕ∈AL(P):
(schrittweise) Konstruktion eines Tableau mit Wurzelmarkierungϕ durch eine Folge von Knoten-Expansionen entsprechend der Tableau-Regeln
I ϕ∈AL(P) ist unerf¨ullbar gdw.ein geschlossenes Tableau mit Wurzelmarkierung ϕexistiert.
I ϕ∈AL(P) ist allgemeing¨ultig gdw.ein geschlossenes Tableau mit Wurzelmarkierung ¬ϕexistiert.
Aus jedem nicht-geschlossenen Tableau f¨urϕ lassen sich Modelle f¨urϕablesen.
Aussagenlogische Tableaux: Beispiele
I p∧(p →q) ist erf¨ullbar
I ¬(((¬p →q)→r)→((¬q →p)→r)) ist unerf¨ullbar
I p →(q →p) ist allgemeing¨ultig
I (p∨q)∧ ¬((p∧ ¬q)∨q) ist unerf¨ullbar
Was bisher geschah
I Daten, Information, Wissen
I explizites und implizites Wissen
I intelligente Agenten
I Wiederholung klassische Aussagenlogik
I Tableau-Kalk¨ul f¨ur klassische Aussagenlogik
Prinzipien der klassischen Logiken
Zweiwertigkeit Jede Aussage ist wahr oder falsch.
ausgeschlossener Widerspruch Keine Aussage ist sowohl wahr als auch falsch.
Wahrheitswerte 1 (wahr) oder 0 (falsch)
Jede Aussagep hat genau einen Wahrheitswert W(p)∈ {0,1}.
Klassische Logiken
I klassische Aussagenlogik AL(P) + Entscheidbarkeit,
effiziente Methoden und Werkzeuge (SAT-Solver) - geringe Ausdrucksst¨arke
I klassische Pr¨adikatenlogik FOL(Σ,X) + hohe Ausdrucksst¨arke
Automatisierte L¨osungsverfahren und Werkzeuge f¨ur viele spezielle Probleme und Problemgebiete
(z.B. Diagnosesysteme, interaktive Beweiswerkzeuge) - Unentscheidbarkeit
Automatisierte L¨osungsverfahren f¨ur alle Probleme k¨onnen nicht existieren
Ziel:
syntaktischeFragmente der klassische Pr¨adikatenlogik mit folgenden Eigenschaften
I entscheidbar
I hohe Ausdrucksst¨arke (intuitive Wissensrepr¨asentation)
Modellierung
Ziel: Darstellung von Aussagen wie z.B.
I ϕgilt notwendigerweise.
I Es ist m¨oglich, dass ϕgilt.
I ϕmuss erf¨ullt sein.
I ϕsollte erf¨ullt sein.
I Manchmal gilt ϕ.
I ϕgilt immer.
I ϕgilt zum n¨achsten Zeitpunkt.
I ϕgilt, solange ψ gilt.
I Es ist bekannt, dass ϕgilt.
I A weiß, dassϕgilt.
I A weiß, dassB nicht wissen kann, ob ϕgilt.
Modallogik – Syntax
(aussagenlogische Modallogik)
Erweiterung der Aussagenlogik umModalit¨aten und Bedeutung:
m¨oglich (manchmal) notwendig (immer)
Syntax der Formeln aus ML(P) in BNF:
ϕ::=p | ¬ϕ|ϕ∨ψ|ϕ∧ψ|ϕ|ϕ mitp∈P, ϕ, ψ∈ML(P)
abgeleitete Junktoren (analog Aussagenlogik):→,↔ Beispiele:
I (p →q)
I (p∨ ¬ q)
I p → ¬(q∧ ¬r)
Modellierung in Modallogiken
Typische Aussagen:
I Eine Aussage ist immer wahr.
I Ein Ereignis tritt m¨oglicherweise ein.
I Ein Ereignis kann niemals eintreten.
I Tritt das Ereignis Airgendwann ein, dann wird damit auf jeden Fall das EreignisB ausgel¨ost.
(z.B. A: kritische Situation, B: Alarm) Modellierung solcher Aussagen durch
I verschiedene
”Welten“ (Zust¨ande, Situationen)
I Jede Welt ist durch durch die dort geltenden (atomaren) Aussagen charakterisiert
I Zusammenh¨ange zwischen verschiedenen Welten (z.B. ¨Ubergangsm¨oglichkeiten)
Kripke-Strukturen
Kripke-Frame (W,R) mit
I Menge W von Welten,
I Relation R⊆W2 (Erreichbarkeitsrelation) Kripke-Frames sind also (m¨oglicherweise unendliche) Graphen.
Kripke-Struktur K = (W,R,V) mit
I Kripke-Frame (W,R)
I Variablenbelegung V : (W ×P)−→ {0,1}) ordnet jeder Welt eine Belegung der
Aussagenvariablen zu
alternative Definition V :W −→2P
Kripke-Strukturen sind also Graphen, deren Knoten mit Mengen aus 2P markiert sind.
H¨aufig enthalten Kripke-Strukturen eine ausgezeichnete Welt.
(analog Startzustand in endlichen Automaten)
Beispiele
Kripke-Strukturen:
I K1= (W1,R1,V1) mit
I W1={1,2},R1={(1,2),(2,1),(2,2)}
I V1(1) ={p,q}, V1(2) ={q}
I K2= (W2,R2,V2) mit
I W2=N,R2=<
I ∀n∈N: (V2(2n) ={p} ∧V2(2n+ 1) ={p,q})
I K3= (W3,R3,V3) mit
I W3={1,2,3},R3={(1,2),(2,3),(1,3)}
I V3(1) ={p,q}, V3(2) ={p},V3(3) =∅
Modale Logiken – Semantik
(induktive) Definition:
WertJϕK(K,u) einer Formelϕ∈ML(P) in (K,u) mit
I einer Kripke-StrukturK = (W,R,V) und
I einer Welt u∈W
JpK(K,u) = V(u,p) J¬ϕK(K,u) = 1−JϕK(K,u)
Jϕ∨ψK(K,u) = max{JϕK(K,u),JψK(K,u)} Jϕ∧ψK(K,u) = min{JϕK(K,u),JψK(K,u)}
JϕK(K,u) = max{JϕK(K,v)|(u,v)∈R}
JϕK(K,u) = min{JϕK(K,v)|(u,v)∈R}
Beispiele
Kripke-Strukturen:
I K1= (W1,R1,V1) mit
I W1={1,2},R1={(1,2),(2,1),(2,2)}
I V1(1) ={p,q}, V1(2) ={q}
I K2= (W2,R2,V2) mit
I W2=N,R2=<
I V2(2n) ={p}, V2(2n+ 1) ={p,q}
I K3= (W3,R3,V3) mit
I W3={1,2,3},R3={(1,2),(2,3),(1,3)}
I V3(1) ={p,q}, V3(2) ={p},V3(3) =∅ Welche Struktur erf¨ullt welche der folgenden Formeln in welchen Zust¨anden:
I p
I ¬q
I q →q
I p →p
I (p∧q)→(p∧q)
I ¬q → ¬q
Modale Logiken – Semantik
Kripke-Strukturen (K,u) mitJϕK(K,u)= 1 heißen Modellef¨ur ϕ Mod(ϕ) ={(K,u)|JϕK(K,u) = 1}
Formelnϕ∈ML(P) undψ∈ML(P) mit Mod(ϕ) = Mod(ψ) heißen¨aquivalent.
Beispiel:ϕ≡ ¬ ¬ϕ Formelϕ∈ML(P) heißt
erf¨ullbar gdw.Mod(ϕ)6=∅
allgemeing¨ultig gdw.jede Kripke-Struktur ein Modell f¨urϕist z.B.(ϕ→ψ)→(ϕ→ψ)
Aquivalenz, Erf¨¨ ullbarkeit und Algemeing¨ultigkeit werden auch bzgl.
eingeschr¨ankter Mengen von Kripke-Strukturen untersucht.
Formelschemata und Interpretationen der Modalit¨ aten
ϕ1 = ϕ→ϕ ϕ2 = ϕ→ ϕ ϕ3 = ϕ→ϕ ϕ4 = t
ϕ5 = ϕ→ ϕ ϕ6 = ϕ∨¬ϕ
ϕ7 = (ϕ→ψ)∧(ϕ→ψ) ϕ8 = (ϕ∧ ψ)→ (ϕ∧ψ)
Sollteϕ→ϕallgemeing¨ultig sein, fallsϕinterpretiert als
I ϕist notwendig. ja
I Agent weiß, dass ϕgilt. ja
I Agent denkt, dass ϕgilt. nein
(analog f¨ur alle ϕi)
Kripke-Strukturen als algebraische Strukturen
Zu jeder MengeP von Aussagenvariablen wird die folgende Signatur definiert:
ΣP ={(R,2)} ∪ {(a,1)|a∈P}
Ubersetzung der Kripke-Struktur¨ K = (W,R,V) in die ΣP-Struktur SK = (W,J·KSK) mit
JRKSK = R
∀a∈P :JaKSK = {w ∈W |a∈V(w)}
Einbettung von ML(P ) in FOL(Σ
P, X )
Ubersetzung¨ T : ML(P)× {xi |i ∈N} −→FOL(Σ(P)) f¨ura∈P : T(a,xi) = a(xi)
T(¬ϕ,xi) = ¬T(ϕ,xi)
T(ϕ∧ψ,xi) = T(ϕ,xi)∧T(ψ,xi) T(ϕ,xi) = ∃xj(R(xi,xj)∧T(ϕ,xj)) T(ϕ,xi) = ∀xj(R(xi,xj)→T(ϕ,xj)) wobeixj eine neue Variable aus X ist, die inT(ϕ,xi) nicht vorkommt.
Beispiel:T(p,x) =∀y(R(x,y)→ ∃z(R(y,z)∧p(z))) Satz
F¨ur jede Formelϕ∈ML(P) und jede Kripke-Struktur (K,u)gilt (K,u)|=ϕ gdw. Jθ(T(ϕ,x0))KSK = 1 f¨urθ(x0) =u.
Was bisher geschah
I Wiederholung klassische Aussagenlogik
I Tableau-Kalk¨ul f¨ur klassische Aussagenlogik
I Einbettung ML in FOL
Modallogiken
I Motivation
I Syntax Modallogik
I Kripke-Frames und -Strukturen
I Semantik Modallogik
Wissensrepr¨ asentation in Modallogiken
I Problembeschreibung (Wissensbasis) als Formelmenge Φ⊆ML(P)
I Behauptung als Formelψ∈ML(P)
I Frage: Folgt ψaus Φ?
formal: Gilt Mod(Φ)⊆Mod(ψ)?
(semantisches Folgern Φ|=ψ)
weitere h¨aufige Fragestellungen:
I Istϕ∈ML(P) erf¨ullbar?
I Istϕ∈ML(P) allgemeing¨ultig?
¨aquivalent: Ist ¬ϕunerf¨ullbar?
Modale Logiken – Schließen
Syntaktische Methode zur Feststellung der Erf¨ullbarkeit einer beliebigen Formelϕ∈ML(P)
Tableau-Kalk¨ul f¨ur Modallogik:
I Erweiterung des Tableau-Kalk¨uls f¨ur die Aussagenlogik um neue Regeln
I Markierung der Tableau-Knoten mit Paaren w :ϕmitw ∈W und ϕ∈ML(P)
I Wurzelmarkierung u :ϕ(f¨ur Startweltu) Wiederholung Tableau-Kalk¨ul-Idee:
I schrittweise Konstruktion eines Tableau mit Wurzelmarkierung ϕ
I Pfade mit widerspr¨uchlichen Formeln (in derselben Welt) werden geschlossen
I nicht geschlossene maximale Pfade repr¨asentieren Modelle
I ϕist unerf¨ullbar, wenn alle Pfade geschlossen
Aussagenlogische Tableau-Regeln
Regeln f¨ur konjunktive Formeln (an jedes erreichbare Blatt anh¨angen):
s:¬¬ϕ
•
| s :ϕ
s:ϕ∧ψ
•
| s:ϕ
| s:ψ
s :¬(ϕ∨ψ)
•
| s:¬ϕ
| s :¬ψ
s:¬(ϕ→ψ)
•
| s:ϕ
| s:¬ψ Regeln f¨ur disjunktive Formeln (an jedes erreichbare Blatt anh¨angen):
s:ϕ∨ψ
• / \ s:ϕ s:ψ
s:¬(ϕ∧ψ)
• / \ s:¬ϕ s:¬ψ
s:ϕ→ψ
• / \ s:¬ϕ s:ψ Beispiel: ((p→q)∧p)→q allgemeing¨ultig
Zus¨ atzliche Tableau-Regeln f¨ ur Modallogik
s:ϕ s:ϕ s:¬ϕ s:¬ ϕ
•
| (s,t)∈R
| t :ϕ
•
| t1:ϕ
| ...
| tn:ϕ
•
| s:¬ϕ
•
| s:¬ϕ
I zur -Regel:
t ist ein (neues) Symbol, welches auf dem Pfad zur Wurzel nicht vorkommt.
Zus¨atzlich f¨ur jeden schon markierten Knotens:ψan jeden Pfad durchs:ϕeinen neuen Knotent :ψanh¨angen
I zur -Regel:
F¨ur die Menge{t1, . . . ,tn} aller Symbole (Welten), f¨ur die ein Knoten (s,ti)∈R auf dem Pfad zur Wurzel vorkommt.
Beispiele
I ¬p erf¨ullbar?
I (p∨q)→ ¬p erf¨ullbar?
I (p →q)→(p →q) allgemeing¨ultig?
Ubungsaufgaben:¨
I (p →q)↔p erf¨ullbar?
I (p →q)∧ p∧¬q unerf¨ullbar?
I p →(p∨q) allgemeing¨ultig?
Allgemeing¨ ultige modallogische Formeln
aus ¨Aquivalenzen z.B.
¬ϕ ↔ ¬ϕ (ϕ∧ψ) ↔ ϕ∧ψ
(ϕ∨ψ) ↔ ϕ∨ ψ
K : ((ϕ→ψ)∧ϕ)→ψ
≡ (ϕ→ψ)→(ϕ→ψ) nicht allgemeing¨ultig sind z. B.
p→p p→ p
¬p →¬p t
Formelschemata
Prominente Axiome:
K1 (ϕ→ψ)→(ϕ→ψ) (Distributivit¨at) K2 ϕ→ϕ(necessitation rule)
Was wahr ist, gilt notwendig.
M ϕ→ϕ
Was notwendig gilt, ist wahr.
4 ϕ→ ϕ (positive Introspektion) 5 ¬ϕ→¬ϕ (negative Introspektion) B ϕ→ϕ
Jede wahre Formel muss notwendig m¨oglich sein.
D ϕ→ ϕ
Alles Notwendige ist m¨oglich.
Sollte M (ϕ→ϕ) allgemeing¨ultig sein, fallsϕinterpretiert als
I ϕist notwendig. ja
I Agent weiß, dass ϕgilt. ja
I Agent denkt, dass ϕgilt. nein
(analog f¨ur alle ϕi)
Was bisher geschah
I Wiederholung klassische Aussagenlogik
I Tableau-Kalk¨ul f¨ur klassische Aussagenlogik
I Wiederholung klassische Pr¨adikatenlogik (1. Stufe) Modallogiken
I Motivation
I Syntax Modallogik
I Kripke-Frames und -Strukturen
I Semantik Modallogik
I Einbettung ML in FOL
I Tableau-Kalk¨ul f¨ur ML
Wiederholung: (p →p)→ tallgemeing¨ultig?