• Keine Ergebnisse gefunden

Mensch-Maschine-Kommunikation 1 (ab WS 2016/17)

N/A
N/A
Protected

Academic year: 2022

Aktie "Mensch-Maschine-Kommunikation 1 (ab WS 2016/17)"

Copied!
4
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

4 ei

* kann Spuren von Katzen enthalten nicht für Humorallergiker geeignet alle Angaben ohne Gewehr *

Mensch-Maschine- Kommunikation 1

(ab WS 2016/17)

1. Allgemeine Einf¨ uhrung

1.1. Grundbegriffe der MMK

Interaktion Kommunikation zwischen Mensch und Maschine.

Interaktives System

System, das auf Eingaben reagiert und gegebenenfalls auch Ausgaben generiert.

HCI Human-Computer Interaction.

MMI Mensch-Maschine-Interface.

Usability Gebrauchstauglichkeit bzw. Eignung eines Produkts.

Usability En- gineering

Gestaltung und Testen eines Produktes mit dem Ziel optimaler Bedienbarkeit durch die Mensch-Maschine- Schnittstelle.

Software- Ergonomie

Wissenschaft ¨uber die Gestaltung von Programmen mit benutzerfreundlicher Mensch-Maschine-Schnittstelle.

Medium Datentr¨ager f¨ur Information, z.B. Papier oder CD.

Multimedia Datenverarbeitung und -darstellung unter Nutzung ver- schiedener Medien, z.B. Text, Grafik und Audio und Video.

Modalit¨at Ein-/Ausgabekanal der menschlichen Kommunikation und Sinneswahrnehmung, z.B. Sprache, Zeigen, Gestik, Tastatur.

1.2. Wichtigste Disziplinen der MMK

1.3. Trends in der MMK

•Steigerung der Leistungsf¨ahigkeit

•Reduzierung der Kosten

•Erweiterung der Funktionalit¨at

•Verbesserung der Bedienbarkeit

1.4. ¨ Ubersicht ¨ uber Sinnesmodalit¨ aten

Sinnesbezeichnung Modalit¨at Bemerkung

Sehen visuell

”5 Sinne“

H¨oren auditiv

Riechen olfaktorisch

Schmecken gustatorisch

Tasten taktil

Druck

haptisch mechanische Modal.

Kraft Ber¨uhrung

taktil oberfl¨achen-sensitiv Vibration

Temperatur thermorezeptorisch

Bewegung und Orientierung kin¨asthetisch Gleichgewicht vestibul¨ar

1.5. Die Sinne des Menschen und ihre Datenraten

1.6. Datenraten g¨ angiger System der MMK

System Verhalten Rate (KByte/sec)

Tastatur (unge¨ubt) Eingabe 0.01

Tastatur (ge¨ubt) Eingabe 0.025

Handschrift Eingabe 0.0025

Spracheingabe Eingabe 0.01-0.02

Maus Eingabe 0.02

Sprachausgabe Ausgabe 0.6

Text lesen Ausgabe 0.03-0.3

H¨oren (CD) Ausgabe 40

Sehen (Video) Ausgabe 20000

2. Sprachkommunikation

Ermittlung der ge¨außerten Wortfolge aus einem vorliegenden Sprachsignal und Verarbeitung dieser Information. Die Sprachkom- munikation hat gr¨oßtes Potential aller Eingabemethoden, da sie auch beim Menschen die h¨aufigste und nat¨urlichste Kommunika- tionsform ist.

2.1. Physikalische Wellen

Transversalwelle: Longitudinalwelle (z.B. Schall):

2.2. Schallquellen und ihre typischen Pegel

2.3. Menschliche H¨ orsinn

2.3.1. Das Ohr

Außenohr Ohrmuschel & Geh¨organg.

Mittelohr Trommelfell, Geh¨orkn¨ochelchen (Hammer, Amboss, Steigb¨ugel) & Euchstachische R¨ohre; Wandlung von Luftschwingung in mech. Schwingung.

Innenohr Steigb¨ugel ¨uber ovale Fenster in mit Fl¨ussigkeit gef¨ullte Schne- cke; Impedanzwandlung von Luft zu Fl¨ussigkeit.

Basilarmembran Haarzellen (25k - 30k Rezeptoren) wandeln Schwin- gung in elektronische Nervenimpulse Frequenz-Ort-Wandlung, Zerlegung in Frequenzanteile⇒H¨ornerv (30k Nervenfasern)⇒Hirn

2.3.2. Psychoakustik

•Empfindlich von etwa 20 Hz - 20 kHz (≈10 Oktaven)

•Starke D¨ampfung f¨ur sehr niedrige und sehr hohe Frequenzen

•Resonanzfrequenz des Geh¨organgs bei ca.3. . .3.4kHz;

•Lauteinheit in [sone] 1 sone≜Lautheit eines 1kHz Sinus mit 40 dB

•Verh¨altnistonh¨ohe [mel] 1000 mel≜1000Hz

Psychoakustik Physik

Bezeichnung Einheit Bezeichnung Einheit

TonheitZ Bark

Frequenzf Hz

Verh¨altnistonh.V Mel

Schalldruckp N

m2=P a Schallschnellev ms Schallintensit¨atI W

m2= smN Lautstrk.pegelLn Phon

Schalldruckp.L dB

LautheitN sone

Schallleist.Pak W=N ms Bezugsschalldruckp0= 2·10−5 N

m2 = 20µP a Bezugsintensit¨atI0= 1.0·10−12W

m2

H¨orfl¨ache Jener Frequenz- und Pegelbereich von Schall, der vom menschlichen Geh¨or wahrgenommen werden kann:

Frequenzbewertung Verfahren zur frequenzabh¨angigen Anpassung von Schalldruckpegeln an das menschliche H¨orempfinden (nichtlinear zur Lautst¨arke). Hierf¨ur werden verschiedene Filterkurven verwendet: A(20–40 phon), B(50–70 phon), C(80–90 phon), D(sehr hohe Schalldr¨ucke) mit gleichem Lautst¨arkeeindruck. LautheitNin Sone ist angepasstes Sche- ma.

Frequenzgruppen (24) begrenzte Aufl¨osung des Geh¨ors; jede Frequenz- gruppe nimmt gleiche L¨ange auf Basilarmembran ein (1,3mm - unter 500 Hz = 100Hz, dr¨uber kleine Terz 1,19 der Mittenfrequenz); Bark-Skala;

1.31 Bark = 131 mel = 131 Hz.; Bl¨atterrauschen in Ferne L = 10dB, D¨usenj¨ager in 30 m L = 140dB.

Verdeckungen H¨orschwelle bei St¨orschall (Maskierer);

•Spektrale: verbreitet sich mit steigendem Pegel ¨uberproportional.

•Zeitliche: Vorverdeckung; Simultanverdeckung; Nachverdeckung (ei- nige hundert ms).

Kompression: Mith¨orschwelle ¨uber Verdeckungen ermitteln; MP3 ab 160 kBit/s.

Homepage:www.latex4ei.de– Fehler bittesofortmelden. von Fabian G¨ottel, Hendrik B¨ottcher und Lukas Kompatscher – Mail:lukas.kompatscher@tum.de Stand: 5. March 2020 um 05:08 Uhr (git 21) 1/4

(2)

2.4. Menschliche Spracherzeugung

2.4.1. Phoneme

Das Phonem ist die kleinste bedeutungsunterscheidende Einheit des ge- sprochenen Wortes.

Systematische Einteilung der Phoneme:

3. Grammatiken

Nat¨urlichsprachige Systeme; Modellierung von Dialogen.

3.1. Kontextfreie Grammatiken (CFG)

G={V, T , P, S}mit

•V≡Variable (Großbuchstaben)

•T≡Terminale (Kleinbuchstaben)

•P ≡Produktionsregel (A → α mit A ∈ {V}undα ∈ {V∪T})

•S≡Startsymbol

3.1.1. Chomsky-NormalForm (CNF)

Enth¨alt nur Produktionsregeln, bei denen auf der rechten Seite nur zwei Variablen oder nur ein terminaler Ausdruck steht:

A→BCoderA→a 3.1.2. Backus-Naur-Form (BNF)

Formal exakte Definition von Programmiersprachen. Nichtterminalsymbo- le werden syntaktische Variablen genannt und durch< >gekennzeichnet.

Darstellung von Wiederholungen durch Rekursion.

• |Alternative

•(. . .)Gruppierung

•[. . .]oder(. . .)?Option

•(. . .)∗optionale Wiederholung (keinmal, ein- oder mehrfach)

•(. . .)+Wiederholung (ein- oder mehrfach) 3.1.3. Erweiterte Backus-Naur-Form (EBNF)

•[. . .]Option

•. . .optionale Wiederholung (keinmal, ein- oder mehrfach)

•n∗abgez¨ahlte Wiederholung 3.1.4. Parsing

Satzgenerierung: Produktionsregeln solange anwenden, bis alle Variablen V durch terminale Symbole T ersetzt sind; Parse-Tree; Ambiguit¨aten;

3.1.5. Anwendung von Grammatiken in KI Sprache; Mustererkennung;

3.2. Beispiele Grammatiken

Palindrom-String:

S→aSa|bSb|a∗ |b∗

Doppelte Anzahl a wie b:

S→A|SA|AS|aSC|CSa|aSD|DSa|bSB|BSb A→Bb|Ca|Da

B→aa C→ab D→ba

Grammatik-Grammatik:

S (Satz), NP (Nominalphrase), VP (Verbalphrase), PP (P¨apositionalphrase), DET (Determinator, Artikel), ADJ (Adjektiv), AUX (Hilfswort), V (Verb), PRE (Pr¨aposition) und N (Nomen)

S→NP VP|VP NP

NP→DET N|ADJ N|DET NP|NP PP VP→V NP|AUX V|V PP|V NP|VP PP|AUX VP PP→PRE NP

DET→

”der“,

”die“,

”das“,...

ADJ→

”klein“,

”groß“,...

AUX→

”wird“,...

V→

”streicheln“,...

PRE→

”in“,

”mit“,...

N→

”Junge“,

”Hund“,

”Hand“,...

4. Automatentheorie

Verarbeitung von Symbolfolgen; Modellierung von Dialogen;

4.1. Zustandsautomat

Graphenform; bestimmte Anzahl von Knoten (Zust¨ande) und Verbindun- gen (Transitionen).

Z= (S,X,T e

, s0,F)

• SSet mit endlicher Anzahl Zust¨ande

• Xzul¨assiges Alphabet f¨ur die zu verarbeitende Symbolfolge X

•T e

Transitionsfunktionen f¨ur die Zust¨ande inS

•s0Anfangszustand

• Fein Set von festgelegten Endzust¨anden Transitionsfunktion als Regel:t(s, xi) =s+

Umwandlung: Zustandsautomat in Grammatik 1.Zust¨ange werden Variable:S ⇒V

2.Eingabealph. wird zu Terminal:X ⇒T 3.Transitionen werden Produktionsregeln:T

e

⇒P, z.B.P={S→aA, ArabA

4.F¨ur jeden EndzustandsEerstelle Produktionsregel, z.B. f¨ur B als Endzustand⇒P={. . . , B→ϵ}

Endliche Zustandsautomaten Automat mit endlicher Menge von Zust¨andenS

Deterministische Zustandsautomaten Automat, in dem die Folge- zust¨ande immereindeutigdefiniert sind durch den aktuellen Zustand und Eingabesymbol

Deterministisch: Nicht Deterministisch:

Transitionsregeln in Tabellenform:

S={s0, s1, s2, s3} X={0,1}

F={s0}

4.2. Kellerautomaten

Komplexere Grammatiken; Erweiterung mit Stack (LIFO-Queue); Transi- tion abh¨angig von Stack und Eingang; Stack leer⇒Folge akzeptiert;

Z= (S,X,Y,T e

, s0, y0,F)

• Yzul¨assiges Alphabet f¨ur den Stack

•y0Startsymbol f¨ur den Stack

• Fein Set von festgelegten Endzust¨anden (leer wenn Endzustand ¨uber leeren Stack definiert ist)

•(F¨urS,X,T e

,s0siehe Zustandsautomat) Aktionen:

•push(x)legexauf den Stack

•pop()lese und entferne oberste Stack-Element

•εkeine Aktion

•#leeres Stack (ersterundletzterSchritt) Beispiel f¨ur einen Kellerautomaten:

S={S0, S1} X={a, b}

Y={#, a}

y0= #

F={}(Ende durch leeren Stack) Generiert Sprache:L(anbn)mitn >0 Angaben in Klammern:

(Voraussetzung auf Stack∈ Y, Eingabe∈ X, Aktion)

5. Spracherkennung

Spracherkennung besch¨aftigt sich mit der Untersuchung und Ent- wicklung von Verfahren, die Automaten, insbesondere Compu- tern, die gesprochene Sprache der automatischen Datenerfassung zug¨anglich macht.

5.1. Klassifizierung

Zuordnung zu Bedeutungseinheiten; Merkmalsextraktion; Merkmalsvek- tor; Merkmalsraum; Klassen; Training;

5.2. Abstandsklassifikatoren

Distanz eines Mustervektors zu Klasse;

•⃗xunbekannter, zu klassifizierende Mustervektor

•⃗rk,ii-ter Referenzvektor f¨ur die k-te Klasse

•m⃗kKlassenzentrum der Klasse k

•dk(⃗x, ⃗mk)Abstandsformel

•kxKlasse mit minimalen Abstand zu⃗x Formeln

⃗ mk= 1

Mk Mk X i=1

⃗ rk,i

dk(⃗x, ⃗mk) = (⃗x−m⃗k)T·W f

k·(⃗x−m⃗k) kx= argmin

x dk(⃗x, ⃗mk) Trennfunktion:

d1(x, m1)−d2(x, m2) = 0

GewichtsmatrixWkentscheidend ¨uber Ergebnis;mkwird im Training ermittelt;xgeh¨ort zur Klasse k mit minimalen Abstand;

Quadratischer Abstand Wkist Einheitsmatrix; Trennfunktion ist eine Gerade;

Mahalanobis Abstand Inverse der Kovarianzmatrix; Abh¨angig von Klas- se; Bestandteil des Trainings; Trennfunktion ist Kegelschnitt (Gerade, El- lipse, Parabel, Hyperbel).

C e

k=

 1 Mk

Mk X i=1

rk,i·rTk,i−mk·mTk

W f

k=C e

−1 k

A−1= 1 ad−bc

"

d −b

−c a

#

5.3. Cepstrum

Praktische Berechnung:

•Selektion eines Zeitfensters f¨ur das betrachtete Sprachsignal

•Fourier-Transformation dieses Signals in den Frequenzbereich

•Bilden des Betrags des resultierenden (komplexen) Spektrums

•Logarithmierung des Amplitudenspektrums

•R¨ucktransformation mit inverser FT

Homepage:www.latex4ei.de– Fehler bittesofortmelden. von Fabian G¨ottel, Hendrik B¨ottcher und Lukas Kompatscher – Mail:lukas.kompatscher@tum.de Stand: 5. March 2020 um 05:08 Uhr (git 21) 2/4

(3)

6. Hidden-Markov-Modelle und Algorithmen

Wahrscheinlichkeit Statistischer Klassifikator. Liefert Wahschein- lichkeitp, dass eine Beobachtung einer bestimmten Klasse zu- geordnet werden kann. Klassifizieren ganze Sequenzen (dyna- mische Folgen).

”Finde diejenige Klasse, die die Beobachtung o= (o1, o2, . . . , ot)am besten nachbilden kann.“.

6.1. Markov-Modelle (MM)

Abbildung stochastischer Prozesse, deren aktueller Zustand nur vom vor- ausgegangenen Zustand abh¨angt.

•Matrix der ¨Ubergangswkt.:A e

=p

qt+1=sj|qt=si

•Vektor der Einsprungswkt.:

⃗e= (p(q1=s1), . . . , p(q1=sN))T

6.2. Hidden-Markov-Modelle (HMM)

Stochastische Version eines endlichen Zustandautomaten; Zu- stands¨uberg¨ange und Symbolemissionen nicht deterministisch.

•MatrixA e

und Vektor⃗esiehe MM

•Beobachtungsfolge:⃗o= (o1, . . . , oT)T

•Alphabet:⃗v= (v1, . . . , vM)T

•Beobachtungswahrscheinlichkeiten:bmi=p(vm|si)

•Matrix der Beobachtungswahrscheinlichkeiten:

B=

p(v1|s1) . . . p(v1|sN) ..

. ...

.. . p(vM|s1) . . . p(vM|sN)

Zusammengefasste Parameter des HMMs:λ= (⃗e,A e

,B e ) Beobachtungs- bzw. Produktionswkt.:p(⃗o|λ)

Dabei durchlaufene (vorborgene/hidden) Zustandsfolge:

q= (q1, . . . , qT) HMM - Eigenschaften

Ergodisches HMM Es kann aus jedem Zustand in jeder andere Zustand erreicht werden; A ist voll besetzt

Links-Rechts-HMM keine R¨uckspr¨unge; kausal; A hat rechte obere Dreiecksform; Graphisch nach rechts aufsteigend

6.2.1. Klassifizierung mit HMM

Pro Klasse ein HMM; das HMM welches die gr¨oßte Produktionswahr- scheinlichkeitp(o|λk)liefert, repr¨asentiert die gesuchte Klassekx; 6.2.2. Training von HMM

Kompensation von St¨orungen; Bed.: geeignete Parameterλk; Training mit iterativen Verfahren;⇒Baum-Welch-Algorithmus

6.3. HMM in der Spracherkennung

Cepstrum; Merkmalsexrahierung; 12D Merkmalsvektor;

6.3.1. Modelle

Einzelworterkenner vs. fließende Sprache; Phoneme, kleinste bedeutungs- unterscheidenden Lauteinheiten; HMM pro Phonem; Pausen;

6.3.2. Training

Zusammenfassung der Phonem HMM zu einem HMM;

6.3.3. Erkennung

W¨orterb¨ucher, Grammatiken, Wahrscheinlichkeiten bestimmter Phonem- kombinationen, Sprachmodelle f¨ur Wortkombinationen;

6.4. HMM-Algorithmen

6.4.1. Trellis

Mathematische Formel zur Berechnung der Beobachtungswkt.

F¨ur verschiedene Wegeqgilt:

p(⃗o, ⃗q|λk) =eq1bq1(o1) T Q t=2

aqt−1qtbqt(ot)Beobachtungswah- scheinlichkeit:

p(⃗o|λk) = X q∈Q

p(⃗o, ⃗q|λk)

= X

q∈Q

eq1bq1(o1) T Y t=2

aqt−1qtbqt(ot)

Ben¨otigte OPS∼2T·NT (sehr rechenintensiv) 6.4.2. Vorw¨arts-Algorithmus

Vorw¨arts-Wahrscheinlichkeit:

αt(i) =P(o1, o2, . . . , ot, qt=sik)

d.h. die Wahrscheinlichkeit, dass die Teilbeobachtungoiemittiert werden und das sich das HMM zu t im Zustandsibefindet;

Vorw¨arts-Algorithmus (Rekursiv) 1.Initialisierung:

α1(i) =eibi(o1), 1≤i≤N

2.Induktion:

αt+1(j) =

"

N P i=1

αt(i)aij

# bj(ot+1) 1≤t≤T−1; 1≤j≤N;

3.Terminierung P(o|λk) =

N P i=1

αT(i)

Ben¨otigte OPS∼T·N2

6.4.3. Baum-Welch-Algorithmus R¨uckw¨artswahrscheinlichkeit:

βt(i) =P(ot+1, ot+2, . . . , oT|qt=si, λk);

d.h. Wahrscheinlichkeit, die restlichen Teilbeob. zu emmttieren;

Baum-Welch-Algorithmus (Rekursiv) 1.Initialisierung

βT(i) = 1 1≤i≤N

2.Induktion βt(i) = PN

j=1

aijbj(ot+1t+1(j) t=T−1, T−2, . . .1 1≤i≤N

Wahrscheinlichkeit, dass sich dass HMM zu t im Zustandsibefindet und o emmitiert wird; Summe dr¨uber⇒

”alle Aufenthalte im Zustandsi“ γt(i) = αt(i)βt(i)

PN i=1

αt(i)βt(i)

Wahrscheinlichkeit, dass sich das HMM zu t insi und zu t+1 insj befindet; Summe dr¨uber⇒

”aller ¨Uberg¨ange vonsizusj; ξt(i, j) =αt(i)aijbj(ot+1t+1(j)

PN i=1

αt(i)βt(i)

γt(i) = N X j=1 ξ

6.4.4. Viterbi-Algo

Berechnet die Beobachtungswahscheinlichkeit des wahrscheinlichsten Pfa- des.

Viterbi-Algorithmus 1.Initialisierung:

δ1(i) =eibi(o1) 1≤i≤N ψ1(i) = 0

2.Induktion:

δt(j) = max 1≤i≤N

δt−1(i)aij bj(ot) ψt(j) = argmax

1≤i≤N

δt−1(i)aij 2≤t≤T; 1≤j≤N

3.Terminierung:

P= max 1≤i≤N[δT(i)]

qT= max 1≤i≤N[δT(i)]

4.Ermittlung der wahrsch. Zustandsfolge:

qtt+1(qt+1 ) t=T−1, T−2, . . . ,1

7. Suchverfahren

Formulierung und Darstellung eines Problems im Zustandsraum;

Graphen-Darstellung; Suchbaum;

Zyklische Wiederholungen unterbinden (gerichtete Kanten im Baum).

7.1. Allgemeiner Algorithmus f¨ ur Suche

Suchalgorithmus 1.Initialisiere Queue

2.Schreibe Startknoten inQueue 3.Wiederhole:

a) Queue leer?⇒SZiel nicht gefunden”

b) Entnehme n¨achsten Knoten c) Knoten == Ziel?⇒SZiel erreicht”

d) Schreibe alle Kinder des Knotens in die Queue e)Update Queue

Art des Algorithmus betimmt die Art derQueue, und damit die Update- Funktion:

Suchalgorithmus Art der Queue Breitensuche FIFO-Queue Tiefensuche LIFO-Queue (Stack)

A-Suche Priotiy-Queue

A*-Suche Priotiy-Queue mit heuristischen Kosten als Priorit¨at Dijkstra Priotiy-Queue mit bisherige Weg als Heuristik

7.2.

Tiefensuche

und

Breitensuche 1. einelementige Liste mit Wurzelknoten 2. bis Liste leer / Ziel erreicht:

-pr¨ufe erstes Element auf Zielknotenbzw. max. Suchtiefe -wenn ja, fertig

- wenn nein, entferne dieses Element und f¨uge all seine Nachfolgeran gleicher Stelle/am Endeein.

Vorraussetzung: Elemente der Warteliste werden systematisch erzeugt;

Suchtiefe wird geeignet groß festgesetzt / ausgewertete Suchbaum muss gespeichert werden;

7.3. Heuristische Suche / A-Algorithmus

Verarbeitung zus¨atzlicher Informationen; Bewertungsm¨oglichkeit f¨ur Er- folgsaussichten eines bestimmten Pfades; Entscheidungen ordnen; Viel- versprechende Alternative zuerst,

”dem atm billigsten folgen“; Heuristik besteht in Definition einer geeigneten Bewertungs (Kostenfunktion)f(n):

f(n) =g(n) +h(n)

Bewertungsfunktion = Bisherige Kosten + Sch¨atzfunktion (hier: falsche Pl¨attchen)

Fallsh(n)≡0gew¨ahlt wird identisch zur Dijkstra-Algorithmus (wenn dazug(n)≡T ief e des Knotensidentisch zur Breitensuche)

7.4. A*-Algorithmus

Sch¨atzfunktionh(n)monoton, d.h. Kosten werden nicht ¨ubersch¨atzt; ter- miniert wenn Zielknoten gefunden und keine geringere Kostensch¨atzung existiert; A* somit optimaler Pfad; wird die optimale Kostenfkth1(n) verwendet, so wird k¨urzester Pfad auf Anhieb gefunden (sprich: informierte Suche); Liste mit allen Elementen erstellen + sortieren; dem insg. billigsten folgen; nix verwerfen.

Homepage:www.latex4ei.de– Fehler bittesofortmelden. von Fabian G¨ottel, Hendrik B¨ottcher und Lukas Kompatscher – Mail:lukas.kompatscher@tum.de Stand: 5. March 2020 um 05:08 Uhr (git 21) 3/4

(4)

8. Logik und Theorembeweisen

Wissen algorithmisch darstellen; Fakten ableiten; Behauptungen best¨atigen / widerlegen;

8.1. Aussagenlogik

atomare Aussagen; wahr oder falsch; UND , ODER, NICHT; Implikation

⇒;

8.2. Pr¨ adikatenlogik

Analyse und Bewertung von Beziehungen und logischen Verkn¨upfungen 1. Ordnung⇒nur Ver¨anderung von Objekten, nicht Pr¨adikaten Pr¨adikate und Funktionen, Konstanten, Variablen, Funktionen, Negation, Disjunktion, Konjunktion, Existenz-Quantor, All-Quantor, Implikation, Aquivalenz.¨

Beispiel:

”In jeder Stadt gibt es einen B¨urgermeister“

(∀x){Stadt(x)⇒(∃y) [Mensch(y)·Bgm(x, y)]}

Regeln und Zusammenh¨ange aufstellen;⇒Regelwerk (Axiome); Frage (Theorem); Beweis durch Wahrheitstabelle oder Umformen der Regeln und Schlussfolgern (Resolution, Unifikation - effektiver);

Umformregeln 1.Doppelte Negation¬¬A≡A 2.IdempotenzA+A≡AundA·A≡A

3.Kommutativit¨atA+B≡B+AundA·B≡B·A 4.Assoziativit¨atA+ (B+C)≡(A+B) +Cund

A·(B·C)≡(A·B)·C

5.Distributivit¨atA+ (B·C)≡(A+B)·(A+C)und A·(B+C)≡(A·B) + (A·C)

6.De Morgan¬(A·B)≡ ¬A+¬Bund

¬(A+B)≡ ¬A· ¬B

7.KontrapositivA⇒B≡ ¬B⇒ ¬A 8.A⇒B≡ ¬A+B

9.A⇔B≡(A⇒B)·(B⇒A)≡(A·B) + (¬A· ¬B) 10.¬(∀x)A(x)≡(∃x)(¬A(x))

11.¬(∃x)A(x)≡(∀x)(¬A(x))

12.(∀x)(A(x)·B(x))≡(∀x)A(x)·(∀y)B(y) 13.(∃x)(A(x) +B(x))≡(∃x)A(x) + (∃y)B(y)

8.3. Standardformen

Konjunktive Normalform (KNF):

(A1+A2+. . .)·(B1+B2+. . .)·. . . Disjunktive Normalform (DNF):

(A1·A2·. . .) + (B1·B2·. . .) +. . . Regeln zur Umformung in Normalform:

1.Eliminierung aller ¨Aquivalenzen (# 9) 2.Eliminierung aller Implikationen (# 8)

3.Einziehung der Negation nach innen (#6, #10, #11) 4.Einf¨uhrung neuer Variabeln f¨ur jeden Quantifizierer 5.Eliminierung aller Existenz Quantoren

6.Ausklammern der All-Quantoren und Entfallen dieser

7.Anwendung des Distributivgesetzes zur Transformation in Konjunk- tive Normalform (#5)

8.Eliminierung der UND-Verkn¨upfungen durch Auflistung der Klau- seln

9.Einf¨uhrung getrennter Variablen f¨ur jede Klausel

8.4. Theorembeweis mit Resolutionsverfahren

Allgemeines Resolutionsgesetz:

(X+A)·(¬X+B)≡(X+A)·(¬X+B)·(A+B)

| {z } Resolvente Spezielles Resolutionsgesetz:

(X+A)·(¬X+A)≡A Absorptionsgesetz:

(A+B)·A≡A Weitere Sonderf¨alle:

1. A

A⇒B≡ ¬A+B R≡B

2. A+B

¬A+B R≡B+B=B

3. A

¬A R≡N IL

4. A⇒B≡ ¬A+B

B⇒C≡ ¬B+C R≡ ¬A+C≡A⇒C Anwendung beim Theorembeweis:

Geg.: Set von n existierenden und bewiesenen Axiomen S = {S1. . . Sn}; Es gilt T zu beweisenn

Vorgehen: Erweiterung vonSzuS={S1. . . Sn,¬T}Und Resolu- tionieren bis leere Klausel erzeugt wird.

Erkl¨arung: Statt Beweis wird Unerf¨ullbarkeit seines Gegenteils gezeigt.

Tautologie beweisen Beweis durch Widerspruch:¬w≡f: 1.Negiere Aussage

2.Bringe Aussage in KNF 3.Zeige Kontradiktion

9. Wissensrepr¨ asentation

effizient speichern; strukturiert darstellen; Menge von Fakten, Re- geln, Prozeduren, Modellen, Daten, Heuristiken; interpretierbar mit Hilfe von Repr¨asentationsmechanismen;

9.1. Pr¨ adikatenlogik

Aufteilung in Fakten und Regeln; Standardisiert durch KNF; Resolution als Inferenzmechanismus; Formulierung aufw¨andig und unnat¨urlich; zwingend Umformung in KNF;

9.2. Produktionsregeln

keine Umformung in KNF; Wenn-Dann bleibt erhalten; Vorw¨arts- R¨uckw¨artsverkettung als Inferenzmechanismus; Darstellung im UND/ODER-Graphen; Fakten als Blatt, Regeln als Verzweigung;

9.3. Semantische Netze

Graphische Modelle zur Darstellung von Wissen ¨uber beziehungen zw. Ob- jekten; entsprechen etwa Fakten der Pr¨adikatenlogik; Knoten = Objekte;

Kanten = Pr¨adikate; Verwendung bei nat¨urlichssprachigen Systemen; kei- ne 2 Knoten gleicher Beschriftung; Richtung der Kanten von Bedeutung;

9.4. Rahmen

Darstellung der Zerlegung von Objekten oder Situationen in ihre Bestand- teile; ¨Ahnlichkeit zu semantischen Netzen, wesentlich m¨achtiger und fle- xibler; FrameName - zentraler Knoten, Slots - Kanten, Filler - Knoten;

1. Suchverfahren zur Ermittlung von Beziehungen;

2.”Rahmen-Abgleich“; Fakten als Fragezeichen markiert; mit aktuellen Daten auff¨ullen;

10. Handschrifterkennung

10.1. Vorverarbeitung

Eingabemethoden 1.freie Eingabe (hohe Vorverarbeitung) 2.liniengef¨uhrte Eingabe

3.feldgef¨uhrte Eingabe

Eingangssignal:⃗x(t) = (x(t), y(t), p(t))T

x(t) x-Koordinate

y(t) y-Koordinate

p(t) Druck (des Stifts)

10.1.1. Abtastung

Abtastung / Neuabtastung

1.Diskretisierung von⃗x(t)mitn·∆T⇒zeit¨aquidistante Abtas- tung

2.Lineare Interpolation der Stifttrajektorie

3.Neuabtastung⇒orts¨aquidistante Abtastpunkte⃗xre[k]

L¨ange einer Kurve⃗r(t) = (x(t), y(t))T: L(a, b) =

´b a

r

(dx(t)dt )2+ (dy(t)dt )2dt

Druckkomponente:pn=p1+k·(p2−p1) 10.1.2. Korrekturen

Zeilenneigung (skew)

1.Horizontale Ausrichtung der Kernlinie des Geschriebenen 2.Drehung um den Mittelpunktm⃗d. Kernlinie um den Winkelα0 3.Bestimmung vonα0mit Projektionsprofilen oder Richtungshisto-

grammen in y-Richtung,Hy(α)muss m¨oglichst klein sein Entropie: (B: Anzahl d. Bins, N(Bi): Anzahl d. Punkte in Bin i) Hy(α) = PB

i=1 I(i)

I(Bi) =− N(Bi) B P j=1

N(Bj)

(ld) BN(Bi) P j=1

N(Bj) Regressionsgeradey=mx+b:

m= N P i=1

[(xi−x)(yi−y)]

NP i=1

(xi−x)2

undb=y−mx

Rotation:

⃗ xskew[k] =

cosα0 −sinα0 0 sinα0 cosα0 0

0 0 1

(⃗xre[k]−m) +⃗ m⃗

Schriftneigung (slant) 1.Scherung der Schrift an der GrundlinieyS 2.Scherung um den Winkelϕ0

3.Bestimmun vonϕ0mit Projektionsprofilen oder Richtungshisto- grammen in x-Richtung,Hx(ϕ)muss m¨oglichst klein sein Scherung:

xslant[k] =

1 −tanϕ0 0

0 1 0

0 0 1

(⃗xskew[k]−

 0 yS

0

) +

 0 yS

0

Schriftgr¨oße 1.Sch¨atzen der Referenzlinien 2.Berechnung der Kernh¨ohe 3.Normirung des Schriftzuges W: H¨ohe der Bins, P: Projektionsprofil

Oberl¨angenlinie:yober=ymax, Unterl¨angenlinie:yunter=ymin Kernlinie:ykern=argmin(djdPy(j))−0.5)W+ymin Basislinie:ygrund=argmax(djdPy(j))−0.5)W+ymin Kernh¨ohe:hkern=|ykern−ygrund|

Normierung:

xnorm[k] = 1 hkern

"

x[k]−xmin y[k]−(ygrund+hkern2 )

#

10.2. Merkmalsextraktion

Extraktion aus dem normalisierten Schriftzug Sekantensteigungswinkel:

θ[k] =π2 +

(arctan(∆x∆y)−π2sgn(∆x) f¨ur∆x̸= 0 π

2(1−sgn(∆x)) f¨ur∆x= 0

∆x = xnorm[k+ 1]−xnorm[k],∆y = ynorm[k+ 1]− ynorm[k]

Richtungs¨anderung:

∆θ[k] =θ[k+ 1]−θ[k]

5-dim. Merkmalsvektor:m[k] =⃗

 sin(θ[k]) cos(θ[k]) sin(∆θ[k]) cos(∆θ[k])

p[k]

10.3. Erkennung

Trainig und Erkennung l¨auft ¨uber Hidden-Markov-Modelle (HMM) mit Graphemen (z.B. Buchstabe, Sonderzeichen od. Ziffern) als kleinste Einheit

Training: Baum-Welch-Alogrithmus Erkennung: Viterbi-Algorithmus

11. Dialogsystem (Anhang)

•fortgeschrittene intuitive Ein-/Ausgabetechniken

•Hohes Maß an Interaktivit¨at durch Benutzerfreundlichkeit und ausgepr¨agte Dialogf¨ahigkeit

•Intelligentes Systemverhalten, selbstst¨andig logische Schl¨usse ziehen;

Teilgebiete der KI: Maschinelles Lernen, Bildverstehende Syste- me, Expertensysteme, Robotik, Logik und automatisches Beweisen, nat¨urlichsprachliche Systeme;

Homepage:www.latex4ei.de– Fehler bittesofortmelden. von Fabian G¨ottel, Hendrik B¨ottcher und Lukas Kompatscher – Mail:lukas.kompatscher@tum.de Stand: 5. March 2020 um 05:08 Uhr (git 21) 4/4

Referenzen

ÄHNLICHE DOKUMENTE

Analysis 1 von Lukas Kompatscher (lukas.kompatscher@tum.de) Stand: 31... Analysis 1 von Lukas Kompatscher (lukas.kompatscher@tum.de)

Lineare Algebra von Lukas Kompatscher (lukas.kompatscher@tum.de) Stand: 25... Lineare Algebra von Lukas Kompatscher (lukas.kompatscher@tum.de)

von Lukas Kompatscher und Roberto Gudelj – Mail: lukas.kompatscher@tum.de Stand: 23... Funktionentheorie

von Alwin Ebermann, Emanuel Regnath, Martin Zellner, Alexander Preißner, Hendrik B¨ ottcher, Lukas Kompatscher, Samuel Harder – Mail: samuel.harder@tum.de Stand: 9...

Bl¨ ocke ohne Gesicht werden verworfen - Bl¨ ocke mit Gesicht gelangen eine Ebene

keine Umformung in KNF; Wenn-Dann bleibt erhalten; Vorw¨ arts- R¨ uckw¨ artsverkettung als Inferenzmechanismus; Darstellung im UND/ODER-Graphen; Fakten als Blatt, Regeln

Aber sie sind wie Pflanzen ohne Wurzeln; zunächst glauben sie, doch wenn eine Zeit der Prüfung kommt, wenden sie sich wieder ab.. 14 Wieder bei anderen ist es wie mit der Saat,

Dabei war es nicht das Zeichnen und Malen von Bildern, sondern das abstraktere, aber offensichtlich auch wirkungsmächtigere Lesen und Schreiben von Schriftzeichen