4 ei* kann Spuren von Katzen enthalten nicht für Humorallergiker geeignet alle Angaben ohne Gewehr *
Mensch-Maschine- Kommunikation 1
(ab WS 2016/17)
1. Allgemeine Einf¨ uhrung
1.1. Grundbegriffe der MMK
Interaktion Kommunikation zwischen Mensch und Maschine.
Interaktives System
System, das auf Eingaben reagiert und gegebenenfalls auch Ausgaben generiert.
HCI Human-Computer Interaction.
MMI Mensch-Maschine-Interface.
Usability Gebrauchstauglichkeit bzw. Eignung eines Produkts.
Usability En- gineering
Gestaltung und Testen eines Produktes mit dem Ziel optimaler Bedienbarkeit durch die Mensch-Maschine- Schnittstelle.
Software- Ergonomie
Wissenschaft ¨uber die Gestaltung von Programmen mit benutzerfreundlicher Mensch-Maschine-Schnittstelle.
Medium Datentr¨ager f¨ur Information, z.B. Papier oder CD.
Multimedia Datenverarbeitung und -darstellung unter Nutzung ver- schiedener Medien, z.B. Text, Grafik und Audio und Video.
Modalit¨at Ein-/Ausgabekanal der menschlichen Kommunikation und Sinneswahrnehmung, z.B. Sprache, Zeigen, Gestik, Tastatur.
1.2. Wichtigste Disziplinen der MMK
1.3. Trends in der MMK
•Steigerung der Leistungsf¨ahigkeit
•Reduzierung der Kosten
•Erweiterung der Funktionalit¨at
•Verbesserung der Bedienbarkeit
1.4. ¨ Ubersicht ¨ uber Sinnesmodalit¨ aten
Sinnesbezeichnung Modalit¨at Bemerkung
Sehen visuell
”5 Sinne“
H¨oren auditiv
Riechen olfaktorisch
Schmecken gustatorisch
Tasten taktil
Druck
haptisch mechanische Modal.
Kraft Ber¨uhrung
taktil oberfl¨achen-sensitiv Vibration
Temperatur thermorezeptorisch
Bewegung und Orientierung kin¨asthetisch Gleichgewicht vestibul¨ar
1.5. Die Sinne des Menschen und ihre Datenraten
1.6. Datenraten g¨ angiger System der MMK
System Verhalten Rate (KByte/sec)
Tastatur (unge¨ubt) Eingabe 0.01
Tastatur (ge¨ubt) Eingabe 0.025
Handschrift Eingabe 0.0025
Spracheingabe Eingabe 0.01-0.02
Maus Eingabe 0.02
Sprachausgabe Ausgabe 0.6
Text lesen Ausgabe 0.03-0.3
H¨oren (CD) Ausgabe 40
Sehen (Video) Ausgabe 20000
2. Sprachkommunikation
Ermittlung der ge¨außerten Wortfolge aus einem vorliegenden Sprachsignal und Verarbeitung dieser Information. Die Sprachkom- munikation hat gr¨oßtes Potential aller Eingabemethoden, da sie auch beim Menschen die h¨aufigste und nat¨urlichste Kommunika- tionsform ist.
2.1. Physikalische Wellen
Transversalwelle: Longitudinalwelle (z.B. Schall):
2.2. Schallquellen und ihre typischen Pegel
2.3. Menschliche H¨ orsinn
2.3.1. Das OhrAußenohr Ohrmuschel & Geh¨organg.
Mittelohr Trommelfell, Geh¨orkn¨ochelchen (Hammer, Amboss, Steigb¨ugel) & Euchstachische R¨ohre; Wandlung von Luftschwingung in mech. Schwingung.
Innenohr Steigb¨ugel ¨uber ovale Fenster in mit Fl¨ussigkeit gef¨ullte Schne- cke; Impedanzwandlung von Luft zu Fl¨ussigkeit.
Basilarmembran Haarzellen (25k - 30k Rezeptoren) wandeln Schwin- gung in elektronische Nervenimpulse Frequenz-Ort-Wandlung, Zerlegung in Frequenzanteile⇒H¨ornerv (30k Nervenfasern)⇒Hirn
2.3.2. Psychoakustik
•Empfindlich von etwa 20 Hz - 20 kHz (≈10 Oktaven)
•Starke D¨ampfung f¨ur sehr niedrige und sehr hohe Frequenzen
•Resonanzfrequenz des Geh¨organgs bei ca.3. . .3.4kHz;
•Lauteinheit in [sone] 1 sone≜Lautheit eines 1kHz Sinus mit 40 dB
•Verh¨altnistonh¨ohe [mel] 1000 mel≜1000Hz
Psychoakustik Physik
Bezeichnung Einheit Bezeichnung Einheit
TonheitZ Bark
Frequenzf Hz
Verh¨altnistonh.V Mel
Schalldruckp N
m2=P a Schallschnellev ms Schallintensit¨atI W
m2= smN Lautstrk.pegelLn Phon
Schalldruckp.L dB
LautheitN sone
Schallleist.Pak W=N ms Bezugsschalldruckp0= 2·10−5 N
m2 = 20µP a Bezugsintensit¨atI0= 1.0·10−12W
m2
H¨orfl¨ache Jener Frequenz- und Pegelbereich von Schall, der vom menschlichen Geh¨or wahrgenommen werden kann:
Frequenzbewertung Verfahren zur frequenzabh¨angigen Anpassung von Schalldruckpegeln an das menschliche H¨orempfinden (nichtlinear zur Lautst¨arke). Hierf¨ur werden verschiedene Filterkurven verwendet: A(20–40 phon), B(50–70 phon), C(80–90 phon), D(sehr hohe Schalldr¨ucke) mit gleichem Lautst¨arkeeindruck. LautheitNin Sone ist angepasstes Sche- ma.
Frequenzgruppen (24) begrenzte Aufl¨osung des Geh¨ors; jede Frequenz- gruppe nimmt gleiche L¨ange auf Basilarmembran ein (1,3mm - unter 500 Hz = 100Hz, dr¨uber kleine Terz 1,19 der Mittenfrequenz); Bark-Skala;
1.31 Bark = 131 mel = 131 Hz.; Bl¨atterrauschen in Ferne L = 10dB, D¨usenj¨ager in 30 m L = 140dB.
Verdeckungen H¨orschwelle bei St¨orschall (Maskierer);
•Spektrale: verbreitet sich mit steigendem Pegel ¨uberproportional.
•Zeitliche: Vorverdeckung; Simultanverdeckung; Nachverdeckung (ei- nige hundert ms).
Kompression: Mith¨orschwelle ¨uber Verdeckungen ermitteln; MP3 ab 160 kBit/s.
Homepage:www.latex4ei.de– Fehler bittesofortmelden. von Fabian G¨ottel, Hendrik B¨ottcher und Lukas Kompatscher – Mail:lukas.kompatscher@tum.de Stand: 5. March 2020 um 05:08 Uhr (git 21) 1/4
2.4. Menschliche Spracherzeugung
2.4.1. Phoneme
Das Phonem ist die kleinste bedeutungsunterscheidende Einheit des ge- sprochenen Wortes.
Systematische Einteilung der Phoneme:
3. Grammatiken
Nat¨urlichsprachige Systeme; Modellierung von Dialogen.
3.1. Kontextfreie Grammatiken (CFG)
G={V, T , P, S}mit•V≡Variable (Großbuchstaben)
•T≡Terminale (Kleinbuchstaben)
•P ≡Produktionsregel (A → α mit A ∈ {V}undα ∈ {V∪T})
•S≡Startsymbol
3.1.1. Chomsky-NormalForm (CNF)
Enth¨alt nur Produktionsregeln, bei denen auf der rechten Seite nur zwei Variablen oder nur ein terminaler Ausdruck steht:
A→BCoderA→a 3.1.2. Backus-Naur-Form (BNF)
Formal exakte Definition von Programmiersprachen. Nichtterminalsymbo- le werden syntaktische Variablen genannt und durch< >gekennzeichnet.
Darstellung von Wiederholungen durch Rekursion.
• |Alternative
•(. . .)Gruppierung
•[. . .]oder(. . .)?Option
•(. . .)∗optionale Wiederholung (keinmal, ein- oder mehrfach)
•(. . .)+Wiederholung (ein- oder mehrfach) 3.1.3. Erweiterte Backus-Naur-Form (EBNF)
•[. . .]Option
•. . .optionale Wiederholung (keinmal, ein- oder mehrfach)
•n∗abgez¨ahlte Wiederholung 3.1.4. Parsing
Satzgenerierung: Produktionsregeln solange anwenden, bis alle Variablen V durch terminale Symbole T ersetzt sind; Parse-Tree; Ambiguit¨aten;
3.1.5. Anwendung von Grammatiken in KI Sprache; Mustererkennung;
3.2. Beispiele Grammatiken
Palindrom-String:S→aSa|bSb|a∗ |b∗
Doppelte Anzahl a wie b:
S→A|SA|AS|aSC|CSa|aSD|DSa|bSB|BSb A→Bb|Ca|Da
B→aa C→ab D→ba
Grammatik-Grammatik:
S (Satz), NP (Nominalphrase), VP (Verbalphrase), PP (P¨apositionalphrase), DET (Determinator, Artikel), ADJ (Adjektiv), AUX (Hilfswort), V (Verb), PRE (Pr¨aposition) und N (Nomen)
S→NP VP|VP NP
NP→DET N|ADJ N|DET NP|NP PP VP→V NP|AUX V|V PP|V NP|VP PP|AUX VP PP→PRE NP
DET→
”der“,
”die“,
”das“,...
ADJ→
”klein“,
”groß“,...
AUX→
”wird“,...
V→
”streicheln“,...
PRE→
”in“,
”mit“,...
N→
”Junge“,
”Hund“,
”Hand“,...
4. Automatentheorie
Verarbeitung von Symbolfolgen; Modellierung von Dialogen;
4.1. Zustandsautomat
Graphenform; bestimmte Anzahl von Knoten (Zust¨ande) und Verbindun- gen (Transitionen).
Z= (S,X,T e
, s0,F)
• SSet mit endlicher Anzahl Zust¨ande
• Xzul¨assiges Alphabet f¨ur die zu verarbeitende Symbolfolge X
•T e
Transitionsfunktionen f¨ur die Zust¨ande inS
•s0Anfangszustand
• Fein Set von festgelegten Endzust¨anden Transitionsfunktion als Regel:t(s−, xi) =s+
Umwandlung: Zustandsautomat in Grammatik 1.Zust¨ange werden Variable:S ⇒V
2.Eingabealph. wird zu Terminal:X ⇒T 3.Transitionen werden Produktionsregeln:T
e
⇒P, z.B.P={S→aA, ArabA
4.F¨ur jeden EndzustandsEerstelle Produktionsregel, z.B. f¨ur B als Endzustand⇒P={. . . , B→ϵ}
Endliche Zustandsautomaten Automat mit endlicher Menge von Zust¨andenS
Deterministische Zustandsautomaten Automat, in dem die Folge- zust¨ande immereindeutigdefiniert sind durch den aktuellen Zustand und Eingabesymbol
Deterministisch: Nicht Deterministisch:
Transitionsregeln in Tabellenform:
S={s0, s1, s2, s3} X={0,1}
F={s0}
4.2. Kellerautomaten
Komplexere Grammatiken; Erweiterung mit Stack (LIFO-Queue); Transi- tion abh¨angig von Stack und Eingang; Stack leer⇒Folge akzeptiert;
Z= (S,X,Y,T e
, s0, y0,F)
• Yzul¨assiges Alphabet f¨ur den Stack
•y0Startsymbol f¨ur den Stack
• Fein Set von festgelegten Endzust¨anden (leer wenn Endzustand ¨uber leeren Stack definiert ist)
•(F¨urS,X,T e
,s0siehe Zustandsautomat) Aktionen:
•push(x)legexauf den Stack
•pop()lese und entferne oberste Stack-Element
•εkeine Aktion
•#leeres Stack (ersterundletzterSchritt) Beispiel f¨ur einen Kellerautomaten:
S={S0, S1} X={a, b}
Y={#, a}
y0= #
F={}(Ende durch leeren Stack) Generiert Sprache:L(anbn)mitn >0 Angaben in Klammern:
(Voraussetzung auf Stack∈ Y, Eingabe∈ X, Aktion)
5. Spracherkennung
Spracherkennung besch¨aftigt sich mit der Untersuchung und Ent- wicklung von Verfahren, die Automaten, insbesondere Compu- tern, die gesprochene Sprache der automatischen Datenerfassung zug¨anglich macht.
5.1. Klassifizierung
Zuordnung zu Bedeutungseinheiten; Merkmalsextraktion; Merkmalsvek- tor; Merkmalsraum; Klassen; Training;
5.2. Abstandsklassifikatoren
Distanz eines Mustervektors zu Klasse;•⃗xunbekannter, zu klassifizierende Mustervektor
•⃗rk,ii-ter Referenzvektor f¨ur die k-te Klasse
•m⃗kKlassenzentrum der Klasse k
•dk(⃗x, ⃗mk)Abstandsformel
•kxKlasse mit minimalen Abstand zu⃗x Formeln
⃗ mk= 1
Mk Mk X i=1
⃗ rk,i
dk(⃗x, ⃗mk) = (⃗x−m⃗k)T·W f
k·(⃗x−m⃗k) kx= argmin
x dk(⃗x, ⃗mk) Trennfunktion:
d1(x, m1)−d2(x, m2) = 0
GewichtsmatrixWkentscheidend ¨uber Ergebnis;mkwird im Training ermittelt;xgeh¨ort zur Klasse k mit minimalen Abstand;
Quadratischer Abstand Wkist Einheitsmatrix; Trennfunktion ist eine Gerade;
Mahalanobis Abstand Inverse der Kovarianzmatrix; Abh¨angig von Klas- se; Bestandteil des Trainings; Trennfunktion ist Kegelschnitt (Gerade, El- lipse, Parabel, Hyperbel).
C e
k=
1 Mk
Mk X i=1
⃗
rk,i·rTk,i−mk·mTk
W f
k=C e
−1 k
A−1= 1 ad−bc
"
d −b
−c a
#
5.3. Cepstrum
Praktische Berechnung:
•Selektion eines Zeitfensters f¨ur das betrachtete Sprachsignal
•Fourier-Transformation dieses Signals in den Frequenzbereich
•Bilden des Betrags des resultierenden (komplexen) Spektrums
•Logarithmierung des Amplitudenspektrums
•R¨ucktransformation mit inverser FT
Homepage:www.latex4ei.de– Fehler bittesofortmelden. von Fabian G¨ottel, Hendrik B¨ottcher und Lukas Kompatscher – Mail:lukas.kompatscher@tum.de Stand: 5. March 2020 um 05:08 Uhr (git 21) 2/4
6. Hidden-Markov-Modelle und Algorithmen
Wahrscheinlichkeit Statistischer Klassifikator. Liefert Wahschein- lichkeitp, dass eine Beobachtung einer bestimmten Klasse zu- geordnet werden kann. Klassifizieren ganze Sequenzen (dyna- mische Folgen).
”Finde diejenige Klasse, die die Beobachtung o= (o1, o2, . . . , ot)am besten nachbilden kann.“.
6.1. Markov-Modelle (MM)
Abbildung stochastischer Prozesse, deren aktueller Zustand nur vom vor- ausgegangenen Zustand abh¨angt.
•Matrix der ¨Ubergangswkt.:A e
=p
qt+1=sj|qt=si
•Vektor der Einsprungswkt.:
⃗e= (p(q1=s1), . . . , p(q1=sN))T
6.2. Hidden-Markov-Modelle (HMM)
Stochastische Version eines endlichen Zustandautomaten; Zu- stands¨uberg¨ange und Symbolemissionen nicht deterministisch.
•MatrixA e
und Vektor⃗esiehe MM
•Beobachtungsfolge:⃗o= (o1, . . . , oT)T
•Alphabet:⃗v= (v1, . . . , vM)T
•Beobachtungswahrscheinlichkeiten:bmi=p(vm|si)
•Matrix der Beobachtungswahrscheinlichkeiten:
B=
p(v1|s1) . . . p(v1|sN) ..
. ...
.. . p(vM|s1) . . . p(vM|sN)
Zusammengefasste Parameter des HMMs:λ= (⃗e,A e
,B e ) Beobachtungs- bzw. Produktionswkt.:p(⃗o|λ)
Dabei durchlaufene (vorborgene/hidden) Zustandsfolge:
⃗
q= (q1, . . . , qT) HMM - Eigenschaften
Ergodisches HMM Es kann aus jedem Zustand in jeder andere Zustand erreicht werden; A ist voll besetzt
Links-Rechts-HMM keine R¨uckspr¨unge; kausal; A hat rechte obere Dreiecksform; Graphisch nach rechts aufsteigend
6.2.1. Klassifizierung mit HMM
Pro Klasse ein HMM; das HMM welches die gr¨oßte Produktionswahr- scheinlichkeitp(o|λk)liefert, repr¨asentiert die gesuchte Klassekx; 6.2.2. Training von HMM
Kompensation von St¨orungen; Bed.: geeignete Parameterλk; Training mit iterativen Verfahren;⇒Baum-Welch-Algorithmus
6.3. HMM in der Spracherkennung
Cepstrum; Merkmalsexrahierung; 12D Merkmalsvektor;
6.3.1. Modelle
Einzelworterkenner vs. fließende Sprache; Phoneme, kleinste bedeutungs- unterscheidenden Lauteinheiten; HMM pro Phonem; Pausen;
6.3.2. Training
Zusammenfassung der Phonem HMM zu einem HMM;
6.3.3. Erkennung
W¨orterb¨ucher, Grammatiken, Wahrscheinlichkeiten bestimmter Phonem- kombinationen, Sprachmodelle f¨ur Wortkombinationen;
6.4. HMM-Algorithmen
6.4.1. TrellisMathematische Formel zur Berechnung der Beobachtungswkt.
F¨ur verschiedene Wegeqgilt:
p(⃗o, ⃗q|λk) =eq1bq1(o1) T Q t=2
aqt−1qtbqt(ot)Beobachtungswah- scheinlichkeit:
p(⃗o|λk) = X q∈Q
p(⃗o, ⃗q|λk)
= X
q∈Q
eq1bq1(o1) T Y t=2
aqt−1qtbqt(ot)
Ben¨otigte OPS∼2T·NT (sehr rechenintensiv) 6.4.2. Vorw¨arts-Algorithmus
Vorw¨arts-Wahrscheinlichkeit:
αt(i) =P(o1, o2, . . . , ot, qt=si|λk)
d.h. die Wahrscheinlichkeit, dass die Teilbeobachtungoiemittiert werden und das sich das HMM zu t im Zustandsibefindet;
Vorw¨arts-Algorithmus (Rekursiv) 1.Initialisierung:
α1(i) =eibi(o1), 1≤i≤N
2.Induktion:
αt+1(j) =
"
N P i=1
αt(i)aij
# bj(ot+1) 1≤t≤T−1; 1≤j≤N;
3.Terminierung P(o|λk) =
N P i=1
αT(i)
Ben¨otigte OPS∼T·N2
6.4.3. Baum-Welch-Algorithmus R¨uckw¨artswahrscheinlichkeit:
βt(i) =P(ot+1, ot+2, . . . , oT|qt=si, λk);
d.h. Wahrscheinlichkeit, die restlichen Teilbeob. zu emmttieren;
Baum-Welch-Algorithmus (Rekursiv) 1.Initialisierung
βT(i) = 1 1≤i≤N
2.Induktion βt(i) = PN
j=1
aijbj(ot+1)βt+1(j) t=T−1, T−2, . . .1 1≤i≤N
Wahrscheinlichkeit, dass sich dass HMM zu t im Zustandsibefindet und o emmitiert wird; Summe dr¨uber⇒
”alle Aufenthalte im Zustandsi“ γt(i) = αt(i)βt(i)
PN i=1
αt(i)βt(i)
Wahrscheinlichkeit, dass sich das HMM zu t insi und zu t+1 insj befindet; Summe dr¨uber⇒
”aller ¨Uberg¨ange vonsizusj; ξt(i, j) =αt(i)aijbj(ot+1)βt+1(j)
PN i=1
αt(i)βt(i)
γt(i) = N X j=1 ξ
6.4.4. Viterbi-Algo
Berechnet die Beobachtungswahscheinlichkeit des wahrscheinlichsten Pfa- des.
Viterbi-Algorithmus 1.Initialisierung:
δ1(i) =eibi(o1) 1≤i≤N ψ1(i) = 0
2.Induktion:
δt(j) = max 1≤i≤N
δt−1(i)aij bj(ot) ψt(j) = argmax
1≤i≤N
δt−1(i)aij 2≤t≤T; 1≤j≤N
3.Terminierung:
P∗= max 1≤i≤N[δT(i)]
qT∗= max 1≤i≤N[δT(i)]
4.Ermittlung der wahrsch. Zustandsfolge:
qt∗=ψt+1(qt+1∗ ) t=T−1, T−2, . . . ,1
7. Suchverfahren
Formulierung und Darstellung eines Problems im Zustandsraum;
Graphen-Darstellung; Suchbaum;
Zyklische Wiederholungen unterbinden (gerichtete Kanten im Baum).
7.1. Allgemeiner Algorithmus f¨ ur Suche
Suchalgorithmus 1.Initialisiere Queue2.Schreibe Startknoten inQueue 3.Wiederhole:
a) Queue leer?⇒SZiel nicht gefunden”
b) Entnehme n¨achsten Knoten c) Knoten == Ziel?⇒SZiel erreicht”
d) Schreibe alle Kinder des Knotens in die Queue e)Update Queue
Art des Algorithmus betimmt die Art derQueue, und damit die Update- Funktion:
Suchalgorithmus Art der Queue Breitensuche FIFO-Queue Tiefensuche LIFO-Queue (Stack)
A-Suche Priotiy-Queue
A*-Suche Priotiy-Queue mit heuristischen Kosten als Priorit¨at Dijkstra Priotiy-Queue mit bisherige Weg als Heuristik
7.2.
Tiefensucheund
Breitensuche 1. einelementige Liste mit Wurzelknoten 2. bis Liste leer / Ziel erreicht:-pr¨ufe erstes Element auf Zielknotenbzw. max. Suchtiefe -wenn ja, fertig
- wenn nein, entferne dieses Element und f¨uge all seine Nachfolgeran gleicher Stelle/am Endeein.
Vorraussetzung: Elemente der Warteliste werden systematisch erzeugt;
Suchtiefe wird geeignet groß festgesetzt / ausgewertete Suchbaum muss gespeichert werden;
7.3. Heuristische Suche / A-Algorithmus
Verarbeitung zus¨atzlicher Informationen; Bewertungsm¨oglichkeit f¨ur Er- folgsaussichten eines bestimmten Pfades; Entscheidungen ordnen; Viel- versprechende Alternative zuerst,
”dem atm billigsten folgen“; Heuristik besteht in Definition einer geeigneten Bewertungs (Kostenfunktion)f(n):
f(n) =g(n) +h(n)
Bewertungsfunktion = Bisherige Kosten + Sch¨atzfunktion (hier: falsche Pl¨attchen)
Fallsh(n)≡0gew¨ahlt wird identisch zur Dijkstra-Algorithmus (wenn dazug(n)≡T ief e des Knotensidentisch zur Breitensuche)
7.4. A*-Algorithmus
Sch¨atzfunktionh(n)monoton, d.h. Kosten werden nicht ¨ubersch¨atzt; ter- miniert wenn Zielknoten gefunden und keine geringere Kostensch¨atzung existiert; A* somit optimaler Pfad; wird die optimale Kostenfkth1∗(n) verwendet, so wird k¨urzester Pfad auf Anhieb gefunden (sprich: informierte Suche); Liste mit allen Elementen erstellen + sortieren; dem insg. billigsten folgen; nix verwerfen.
Homepage:www.latex4ei.de– Fehler bittesofortmelden. von Fabian G¨ottel, Hendrik B¨ottcher und Lukas Kompatscher – Mail:lukas.kompatscher@tum.de Stand: 5. March 2020 um 05:08 Uhr (git 21) 3/4
8. Logik und Theorembeweisen
Wissen algorithmisch darstellen; Fakten ableiten; Behauptungen best¨atigen / widerlegen;
8.1. Aussagenlogik
atomare Aussagen; wahr oder falsch; UND , ODER, NICHT; Implikation
⇒;
8.2. Pr¨ adikatenlogik
Analyse und Bewertung von Beziehungen und logischen Verkn¨upfungen 1. Ordnung⇒nur Ver¨anderung von Objekten, nicht Pr¨adikaten Pr¨adikate und Funktionen, Konstanten, Variablen, Funktionen, Negation, Disjunktion, Konjunktion, Existenz-Quantor, All-Quantor, Implikation, Aquivalenz.¨
Beispiel:
”In jeder Stadt gibt es einen B¨urgermeister“
(∀x){Stadt(x)⇒(∃y) [Mensch(y)·Bgm(x, y)]}
Regeln und Zusammenh¨ange aufstellen;⇒Regelwerk (Axiome); Frage (Theorem); Beweis durch Wahrheitstabelle oder Umformen der Regeln und Schlussfolgern (Resolution, Unifikation - effektiver);
Umformregeln 1.Doppelte Negation¬¬A≡A 2.IdempotenzA+A≡AundA·A≡A
3.Kommutativit¨atA+B≡B+AundA·B≡B·A 4.Assoziativit¨atA+ (B+C)≡(A+B) +Cund
A·(B·C)≡(A·B)·C
5.Distributivit¨atA+ (B·C)≡(A+B)·(A+C)und A·(B+C)≡(A·B) + (A·C)
6.De Morgan¬(A·B)≡ ¬A+¬Bund
¬(A+B)≡ ¬A· ¬B
7.KontrapositivA⇒B≡ ¬B⇒ ¬A 8.A⇒B≡ ¬A+B
9.A⇔B≡(A⇒B)·(B⇒A)≡(A·B) + (¬A· ¬B) 10.¬(∀x)A(x)≡(∃x)(¬A(x))
11.¬(∃x)A(x)≡(∀x)(¬A(x))
12.(∀x)(A(x)·B(x))≡(∀x)A(x)·(∀y)B(y) 13.(∃x)(A(x) +B(x))≡(∃x)A(x) + (∃y)B(y)
8.3. Standardformen
Konjunktive Normalform (KNF):(A1+A2+. . .)·(B1+B2+. . .)·. . . Disjunktive Normalform (DNF):
(A1·A2·. . .) + (B1·B2·. . .) +. . . Regeln zur Umformung in Normalform:
1.Eliminierung aller ¨Aquivalenzen (# 9) 2.Eliminierung aller Implikationen (# 8)
3.Einziehung der Negation nach innen (#6, #10, #11) 4.Einf¨uhrung neuer Variabeln f¨ur jeden Quantifizierer 5.Eliminierung aller Existenz Quantoren
6.Ausklammern der All-Quantoren und Entfallen dieser
7.Anwendung des Distributivgesetzes zur Transformation in Konjunk- tive Normalform (#5)
8.Eliminierung der UND-Verkn¨upfungen durch Auflistung der Klau- seln
9.Einf¨uhrung getrennter Variablen f¨ur jede Klausel
8.4. Theorembeweis mit Resolutionsverfahren
Allgemeines Resolutionsgesetz:(X+A)·(¬X+B)≡(X+A)·(¬X+B)·(A+B)
| {z } Resolvente Spezielles Resolutionsgesetz:
(X+A)·(¬X+A)≡A Absorptionsgesetz:
(A+B)·A≡A Weitere Sonderf¨alle:
1. A
A⇒B≡ ¬A+B R≡B
2. A+B
¬A+B R≡B+B=B
3. A
¬A R≡N IL
4. A⇒B≡ ¬A+B
B⇒C≡ ¬B+C R≡ ¬A+C≡A⇒C Anwendung beim Theorembeweis:
Geg.: Set von n existierenden und bewiesenen Axiomen S = {S1. . . Sn}; Es gilt T zu beweisenn
Vorgehen: Erweiterung vonSzuS∗={S1. . . Sn,¬T}Und Resolu- tionieren bis leere Klausel erzeugt wird.
Erkl¨arung: Statt Beweis wird Unerf¨ullbarkeit seines Gegenteils gezeigt.
Tautologie beweisen Beweis durch Widerspruch:¬w≡f: 1.Negiere Aussage
2.Bringe Aussage in KNF 3.Zeige Kontradiktion
9. Wissensrepr¨ asentation
effizient speichern; strukturiert darstellen; Menge von Fakten, Re- geln, Prozeduren, Modellen, Daten, Heuristiken; interpretierbar mit Hilfe von Repr¨asentationsmechanismen;
9.1. Pr¨ adikatenlogik
Aufteilung in Fakten und Regeln; Standardisiert durch KNF; Resolution als Inferenzmechanismus; Formulierung aufw¨andig und unnat¨urlich; zwingend Umformung in KNF;
9.2. Produktionsregeln
keine Umformung in KNF; Wenn-Dann bleibt erhalten; Vorw¨arts- R¨uckw¨artsverkettung als Inferenzmechanismus; Darstellung im UND/ODER-Graphen; Fakten als Blatt, Regeln als Verzweigung;
9.3. Semantische Netze
Graphische Modelle zur Darstellung von Wissen ¨uber beziehungen zw. Ob- jekten; entsprechen etwa Fakten der Pr¨adikatenlogik; Knoten = Objekte;
Kanten = Pr¨adikate; Verwendung bei nat¨urlichssprachigen Systemen; kei- ne 2 Knoten gleicher Beschriftung; Richtung der Kanten von Bedeutung;
9.4. Rahmen
Darstellung der Zerlegung von Objekten oder Situationen in ihre Bestand- teile; ¨Ahnlichkeit zu semantischen Netzen, wesentlich m¨achtiger und fle- xibler; FrameName - zentraler Knoten, Slots - Kanten, Filler - Knoten;
1. Suchverfahren zur Ermittlung von Beziehungen;
2.”Rahmen-Abgleich“; Fakten als Fragezeichen markiert; mit aktuellen Daten auff¨ullen;
10. Handschrifterkennung
10.1. Vorverarbeitung
Eingabemethoden 1.freie Eingabe (hohe Vorverarbeitung) 2.liniengef¨uhrte Eingabe
3.feldgef¨uhrte Eingabe
Eingangssignal:⃗x(t) = (x(t), y(t), p(t))T
x(t) x-Koordinate
y(t) y-Koordinate
p(t) Druck (des Stifts)
10.1.1. Abtastung
Abtastung / Neuabtastung
1.Diskretisierung von⃗x(t)mitn·∆T⇒zeit¨aquidistante Abtas- tung
2.Lineare Interpolation der Stifttrajektorie
3.Neuabtastung⇒orts¨aquidistante Abtastpunkte⃗xre[k]
L¨ange einer Kurve⃗r(t) = (x(t), y(t))T: L(a, b) =
´b a
r
(dx(t)dt )2+ (dy(t)dt )2dt
Druckkomponente:pn=p1+k·(p2−p1) 10.1.2. Korrekturen
Zeilenneigung (skew)
1.Horizontale Ausrichtung der Kernlinie des Geschriebenen 2.Drehung um den Mittelpunktm⃗d. Kernlinie um den Winkelα0 3.Bestimmung vonα0mit Projektionsprofilen oder Richtungshisto-
grammen in y-Richtung,Hy(α)muss m¨oglichst klein sein Entropie: (B: Anzahl d. Bins, N(Bi): Anzahl d. Punkte in Bin i) Hy(α) = PB
i=1 I(i)
I(Bi) =− N(Bi) B P j=1
N(Bj)
(ld) BN(Bi) P j=1
N(Bj) Regressionsgeradey=mx+b:
m= N P i=1
[(xi−x)(yi−y)]
NP i=1
(xi−x)2
undb=y−mx
Rotation:
⃗ xskew[k] =
cosα0 −sinα0 0 sinα0 cosα0 0
0 0 1
(⃗xre[k]−m) +⃗ m⃗
Schriftneigung (slant) 1.Scherung der Schrift an der GrundlinieyS 2.Scherung um den Winkelϕ0
3.Bestimmun vonϕ0mit Projektionsprofilen oder Richtungshisto- grammen in x-Richtung,Hx(ϕ)muss m¨oglichst klein sein Scherung:
⃗
xslant[k] =
1 −tanϕ0 0
0 1 0
0 0 1
(⃗xskew[k]−
0 yS
0
) +
0 yS
0
Schriftgr¨oße 1.Sch¨atzen der Referenzlinien 2.Berechnung der Kernh¨ohe 3.Normirung des Schriftzuges W: H¨ohe der Bins, P: Projektionsprofil
Oberl¨angenlinie:yober=ymax, Unterl¨angenlinie:yunter=ymin Kernlinie:ykern=argmin(djdPy(j))−0.5)W+ymin Basislinie:ygrund=argmax(djdPy(j))−0.5)W+ymin Kernh¨ohe:hkern=|ykern−ygrund|
Normierung:
⃗
xnorm[k] = 1 hkern
"
x[k]−xmin y[k]−(ygrund+hkern2 )
#
10.2. Merkmalsextraktion
Extraktion aus dem normalisierten Schriftzug Sekantensteigungswinkel:
θ[k] =π2 +
(arctan(∆x∆y)−π2sgn(∆x) f¨ur∆x̸= 0 π
2(1−sgn(∆x)) f¨ur∆x= 0
∆x = xnorm[k+ 1]−xnorm[k],∆y = ynorm[k+ 1]− ynorm[k]
Richtungs¨anderung:
∆θ[k] =θ[k+ 1]−θ[k]
5-dim. Merkmalsvektor:m[k] =⃗
sin(θ[k]) cos(θ[k]) sin(∆θ[k]) cos(∆θ[k])
p[k]
10.3. Erkennung
Trainig und Erkennung l¨auft ¨uber Hidden-Markov-Modelle (HMM) mit Graphemen (z.B. Buchstabe, Sonderzeichen od. Ziffern) als kleinste Einheit
Training: Baum-Welch-Alogrithmus Erkennung: Viterbi-Algorithmus
11. Dialogsystem (Anhang)
•fortgeschrittene intuitive Ein-/Ausgabetechniken
•Hohes Maß an Interaktivit¨at durch Benutzerfreundlichkeit und ausgepr¨agte Dialogf¨ahigkeit
•Intelligentes Systemverhalten, selbstst¨andig logische Schl¨usse ziehen;
Teilgebiete der KI: Maschinelles Lernen, Bildverstehende Syste- me, Expertensysteme, Robotik, Logik und automatisches Beweisen, nat¨urlichsprachliche Systeme;
Homepage:www.latex4ei.de– Fehler bittesofortmelden. von Fabian G¨ottel, Hendrik B¨ottcher und Lukas Kompatscher – Mail:lukas.kompatscher@tum.de Stand: 5. March 2020 um 05:08 Uhr (git 21) 4/4