4 ei* kann Spuren von Katzen enthalten nicht für Humorallergiker geeignet alle Angaben ohne Gewehr *
Mensch-Maschine- Kommunikation 1
1. Ein-/Ausgabegr¨ ate
Datenraten der MMK deutlich unter den
”normalen“ Datenraten.
(1oo - 3oo.oo KByte/s vs. 0.01 (Tastatur) - 40 (h¨oren) und 2o.ooo (sehen)(beides nur Input)).
1.1. Eingabeger¨ ate
1.1.1. TastaturQWERTZ vs. Dvorak (typewriting vs. Ergonomie)
Row-Scanning Tasten in einer Matrix angeordnet. z.B. 6×17. Zur Abfrage werden die Spalten seriell auf high gelegt und die horizontale
¨ uberpr¨uft.
Vorteile:
•weniger Leitungen(6 + 17 = 23)statt6∗17 = 102(Tastenan- zahl), wobei nur 6 Stk. auf ihren Pegel gepr¨uft werden m¨ussen.
•Tasten k¨onnen beliebig belegt werden.
Nachteile:
•Reaktionsgewschwindigkeit. Es m¨ussen nacheinandermax(6,17) Leitungen geschalten werden.
•somit niedrigere m¨ogliche Anschlagrate
”typematic-rate“(typical: 2- 30 Hz)
•Verarbeitungsaufwand im Rechner, somit Erh¨ohung des typematic Delay (Zeit zwischen Tastendruck und Controller-Ausgabe) (typ:
δt= 10ms−1s).
Dimensionierung:∆tmax∗r∗NE= 1
Prelleffekt Ursache: schneller Pegelwechsel zu Beginn/Ende eines Schaltvorganges.
L¨osung: Entprellschaltung durch RS-Flipflop, oder Totzeit (via Controller
⇒Erh¨ohung typematic delay)
1.1.2. Maus
Opto-mechanische Maus Kontaktkugel, zwei orthogonale, horizontale Walzen an Lochscheiben, Auswertung anhand der Phasen (evtl. Verschie- bung⇒2 Lichtschranken)
Ortsaufl¨osung:r0=DddLochsch.
Sch.achse
hAnz. d Ausl¨oser m
i
Optische Maus Bestimmung des optischen Flusse zweier aufeinander fol- gender Bilder; 16x16 Pixel;>1000 dpi; bis 1500 Hz;
Vmax=q
vh2max+v2vmax
Trackball Auf dem R¨ucken liegende opto-mechanische Maus.
Spacemouse 3D Eingabeger¨at, Puck der sich drehen, neigen, ziehen und schieben, Dehnungsmesstreifen Controller Computer
1.1.3. Joystick
auf Bodenplatte befestigter Stick, analog(poti), digital(taster), isome- trisch(DMS) (keine Auslenkung)
1.1.4. Touchscreen - TS
Abstand zwischen Darstellungsebene und Ber¨uhrungseben⇒Parallaxen- probleme, allgemein robust (keine beweglichen Teile)
optischer TS Reihe von IR-LED am Displayrand, gg¨u. Fotosensoren, Git- ter unsichtbarer Lichtstraheln (Opto-Matrix), Lokalisationsungenauigkeit wg. Schattenwurf
akustischer TS Piezoelketrische Sender/Empf¨anger, Signalburst im MHz Bereich wird vom Sender in gerichtete Ultraschallwellen, x,y Koordi- nate aus zeitlicher Lage der D¨ampfung, aus D¨ampfung kann Andruckkraft ermittelt werden
Resistiver TS 2 durchsichtige, gegen¨uberliegende, leitf¨ahige Schichten;
Isolaterpunkte; Spannungsteiler; abwechselnd x,y; h¨aufige Spannungs- wechsel⇒elmag. St¨orfeld;
x1=Ux1 +uy2|xUx1−Ux2 x y1= Uy1 +Ux2|uUy1−Uy2 y x2=Ux2 +Uy2|x
Ux2−Ux1 x y2= Uy2 +Ux2|y Uy2−Uy1 y
Kapazitiver TS leitend beschichtete Glasplatte; Strom an 4 Ecken; Fin- ger absorbiert Strom; Ber¨uhrungsposition aus Verh¨altnissen der Str¨ome (und R der Glasplatte);
Piezoelektrischer TS an 4 Ecken Piezoelement; abfallende Spannungen
⇒Postion; Summe der abfallenden Spannungen⇒Druck;
Grafiktablett elmag Abtastutmechanismus, Gitter von Dr¨ahten, Multi- plex, Kabel an Griffel / Schwingkreis in Stift (passiv);
1.1.5. Scanner
opt. Abtastung; Orts- und Helligkeitsdiskretisierung; Farbe in 3 Werten;
3*8Bit⇒24 Bit Farbtiefe;
CCD Matrix, lichtempfindliche SiZellen; Lichtquant; sequentielle Ausle- sung (Spg an Nachbarzellen) limitiert Auslesegeschwindigkeit; Blooming- Effekt (¨uberbelichtete Zellen⇒¨uberb. Streifen in Ldgstransportrichtung);
PMT Photokathodenschicht; Dynoden; steigendes Potential;
Flachbettscanner gl¨aserne Auflagefl¨ache; CCD; zeilenweise Abtastung;
bis 2k4 dpi; kosteng¨unstig; versch. Vorlagedicken;
Trommelscanner bis 10k dpi; Vorlage auf Trommel spannen; kollimierter Lichtstrahl; Spiegeleinheit; Linsen-Spiegelsystem; PMT/Lichtstrahl;
1.1.6. Videokamera
Fr¨uher R¨ohren; CCD; 1/3 Chip (Farbiflter/Prisma); kos- teng¨unstig/Aufl¨osung & Farbechtheit; progressiv(Vollbild / Abtastzeit- punkt) oder interlace (Halbbild / Ab); Zukunft: IC, schneller Auslesung, Preis, hohe Dynamik;
1.1.7. Mikrophon
Luftschall in elek. Signal; versch. Richtcharakterisitigken; Tauchspule/
B¨andchen/ Kondensator/ Kohle/ Piezo;
1.2. Ausgabeger¨ ate
1.2.1. Video
R¨ohrenbildschirm CRT; Helligkeit Geschw.Variation; farbe: 3 El.Kanonen treffen auf RGB Phosphore; Lochmaske; hohe Farbs¨attigung
& Farbbereich & Kontrast; Flimmern durch raschen Helligkeitsverlust;
Interlacing reduziert Flimmern; kugelf¨ormige W¨olbung;
Fl¨ussigkristall-Zelle LCD; LC zwischen 2 Glasplatten; Glasplatten aussen elek. leitend; Abstand 5µm;90◦gedrehte Polarisationsfilter; Glausplat- ten mit Richtungsstruktur; normally white / black; mode; Lichtquelle: LED / Leuchtstoffr¨ohren, bzw. Reflektiv-LCDS;
Passives Matrix Display horizontales + vertikales Drahtgitter zwischen Polaris.filter; R¨uckstellzeit⇒schlieren; native Aufl¨osung; Farbe durch be- nachbarte Monochromzellen; Farbfilter Durchlassfilter mit endliche Band- breite; schlechterer Kontrast als CRT;
aktives TFT-LCD Thin Film Transistor; TF / Pixel; source zeilen, ga- te spalten verbunden; verschiedene Grausuften; Polarisation rascher als passive;
Plasma Display Plasma = fast vollst¨andig ionisiertes Gas; Drahtgit- ter zur Plasmazellensteuerung; Bild⇒Zellen werden gez¨undet; UV⇒ Szintillatoren⇒sichtbares (monochromatisches) Licht; hohe Farbbrilli- anz/S¨attigung; versch. Helligkeit durch PWM;
1.2.2. Audio
Lautsprecher Schwingspule, Spinne, ber¨ungsfrei zwischen Dauermagnet;
2. Menschliche Sinnesorgane
Auge 87% , Ohr 10% , Rest 3%;
2.1. Sehen
2.1.1. Das AugeHornhaut; Pupille; Iris (hell/dunkel Adaption); Zilliarmuskel; Linse (Fo- kus); Glask¨orper; Retina (optisch aktive Elemente, 1−2∗108Re- zeptoren) mit Fovea centralis (h¨ochste Zapfendichte) und blindem Fleck;
Sehnerv(106Nervenfasern); Aderhaut; Lederhaut;
tan β
2
=2lh =xdhz
Auge hz=
q1 D Dmax≈1,4∗1011m−2 Dmin≈5∗109m−2
Prinzip des Sehens ca. 380-750nm (4∗1014Hz−7,5∗1014Hz≈ 1 Oktave;λ=fc); 100dB; spektr. Empf. je nach Adaption: Tagsehen / photopische Sehen / Farbempfinden bzw. Nachtsehen / scotopische Se- hen; Sakkade⇒fovea centralis;
2.1.2. Psychooptische und physik. Messgr¨oßen
1cd∼=Lichtst¨arke eines monochromatischen strahles mit f = 5.4· 1014Hzund der Strahlungsst¨arke von6831 Wsr
Psychooptik Physik
Bezeichnung Einheit Bezeichnung Einheit
Lichtst¨arkeIv cd(Candela) Strahl.st¨arkeI Wsr LeuchtdichteL cd
m2 Strahl.dichteLΩ W
sr m2 LichtstromΦv lm=cd sr Strahl.leistungP W LichtmengeQe lm·s Strahl.energieE J=W s Beleucht.st¨arkeEv lx= lm
m2 Bestrahl.st¨arkeE W m2
BelichtungH lx·s Energiedichtew J
m2 Lichtausbeuteµ=StahlungsleistungLichtstrom 1lmW
2.1.3. Farbsehen
St¨abchen sw, hohe Konz(1.2∗108), Nachtsehen; S-Zapfen Blau 430nm, M-Zapfen Gr¨un 530nm, L-Zapfen Rot 560nm, 1:10:10, insg.7∗106;
2.1.4. Gesichtsfeld
volles Farbemfpinden nur im ¨Uberlappungsbereich der Farbzonen; prim¨ares Gesichtsfeld horiz.−15◦< θ <+15◦und vert.−17◦< ϕ <+14◦; 3D:−55◦< θ <55◦
2.2. Farbmischung
Arten der Farbmischung Additivaktive Prim¨arstrahler; RGB;SubtraktivCMY ; Absorption best. Prim.farben; Ausgegangen wird von einer weiß beleuchteten Oberfl¨ache;
Farbw¨urfel Grundfarben, Mischungen, s/w definieren Ecken;
(R, G, B)T= (1,1,1)T−(C, M, Y)T;
Homepage:www.latex4ei.de– Fehler bittesofortmelden. von Fabian G¨ottel und Hendrik B¨ottcher – Mail:info@latex4ei.de Stand: 5. March 2020 um 05:08 Uhr (git 21) 1/4
2.2.1. CIE
Normfarbtafel nach C.I.E Ziel:
Farbeindruck s¨amtlicher spektraler Farben duch additive ¨Uberlagerung dreie monochromatischer Strah- ler nachzubilden; λR,CIE =
700nm, λG,CIE =
546.1nm, λB,CIE = 435.8nmsog. Normvalenzen;
Im Bereich 350nm < λR <
540nm negativ; ⇒ nachzubil- dende Farbe mit rot ¨uberlagert;
⇒es ist nicht m¨oglich, alle wahr- nehmbaren Farben mit nur drei Prim¨arstrahlern nachzubilden;
Virtuelle Normvalenzen Uneigentliche Farbmischung; X(r), Y(g), Z(b);
exist nicht real durch add. Farbmischung, k¨onnen aber jede wahrnehmbare Farbe darstellen;
X Y Z
=
T
z }| {
0.49 0.31 0.2 0.177 0.813 0.01
0 0.01 0.99
RCIE GCIE BCIE
Daraus ergibt sichz= 1−(x+y); Die Farbeindr¨ucke durch elmag Wellen best. F, befinden sich auf Begrenzunglinie der Fl¨ache. Im Inneren befinden sich s¨amtliche Mischfarben, die durch Mischug der x und y Va- lenzen erzeugen lassen; Weißpunkt im schwerpunkt; Luminanznormierte Normkarte:
x+y+z= 1
⇒z= 1−(x+y)
x=X+YX+Z y=X+YY+Z z= X+YZ+Z
2.3. H¨ oren
2.3.1. Das OhrAußenohr (Ohrmuschel & Geh¨organg); Mittelohr (Trommelfell, Geh¨orkn¨ochelchen (Hammer, Amboss, Steigb¨ugel) & Euchstachische R¨ohre) - Wandlung von Luftschwingung in mech. Schwingung; Innenohr (Steigb¨ugel ¨uber ovale Fenster in mit Fl¨ussigkeit gef¨ullte Schnecke) Impedanzwandlung von Luft zu Fl¨ussigkeit;
Basilarmembran: Haarzellen (25k - 30k Rezeptoren) wandeln Schwingung in el. Nervenimpulse, Frequenz-Ort-Wandlung, Zerle- gung in Frequenzanteile ⇒ H¨ornerv (30k Nervenfasern) ⇒ Hirn
2.3.2. Psychoakustik
Empfindlich von etwa 20 Hz - 20 kHz (≈10 Oktaven); starke D¨ampfung f¨ur sehr niedrige und sehr hohe Frequenzen; Resonanzfrequenz des Geh¨organgs bei ca.3. . .3.4kHz;
Lauteinheit in [sone] 1 sone≜Lautheit eines 1kHz Sinustons mit 40 dB Verh¨altnistonh¨ohe [mel] 1000 mel≜1000Hz
Psychoakustik Physik
Bezeichnung Einheit Bezeichnung Einheit
TonheitZ Bark
Frequenzf Hz
Verh¨altnistonh.V Mel
Schalldruckp N
m2 =P a Schallschnellev ms Schallintensit¨atI W
m2 =smN Lautstrk.pegelLn Phon
Schalldruckp.L dB
LautheitN sone
Schallleist.Pak W= N ms Bezugsschalldruckp0= 2·10−5N
m2 = 20µP a Bezugsintensit¨atI0= 1.0·10−12W
m2
H¨orfl¨ache Bewertungsfilter mit gleichem Lautst¨arkeeindruck (A, B, C, D - da nichtlinear zur Lautst¨arke);
Lautheit Z in Sone ist angepasstes Schema;
Frequenzgruppen (24) begrenzte Aufl¨osung des Geh¨ors; jede F.gruppe nimmt gleiche L¨ange auf Basilarmembran ein (1,3mm - unter 500 Hz = 100Hz, dr¨uber kleine Terz 1,19 der Mittenfrequenz); Bark-Skala; 1.31 Bark
= 131 mel = 131 Hz.; Bl¨atterrauschen in Ferne L = 10dB, D¨usenj¨ager in 30 m L = 140dB;
Verdeckungen H¨orschwelle bei St¨orschall (Maskierer);
Spektrale: verbreitet sich mit steigendem Pegel ¨uberproportional;
Zeitliche: Vorverdeckung; Simultanverdeckung; Nachverdeckung (einige hundert ms);
Kompression: Mith¨orschwelle ¨uber Verdeckungen ermitteln; MP3 ab 160 kBit/s;
3. Dialogsystem
•fortgeschrittene intuitive Ein-/Ausgabetechniken
•Hohes Maß an Interaktivit¨at durch Benutzerfreundlichkeit und ausgepr¨agte Dialogf¨ahigkeit
•Intelligentes Systemverhalten, selbstst¨andig logische Schl¨usse ziehen;
Teilgebiete der KI: Maschinelles Lernen, Bildverstehende Syste- me, Expertensysteme, Robotik, Logik und automatisches Beweisen, Nat¨urlichsprachliche Systeme;
3.1. Suchverfahren
Formulierung und Darstellung eines Problems im Zustandsraum;
Graphen-Darstellung; Suchbaum;
zyklische Wiederholungen unterbinden (gerichtete Kanten im Baum)
3.1.1.TiefensucheundBreitensuche 1. einelementige Liste mit Wurzelknoten 2. bis Liste leer / Ziel erreicht:
-pr¨ufe erstes Element auf Zielknotenbzw. max. Suchtiefe -wenn ja, fertig
- wenn nein, entferne dieses Element und f¨uge all seine Nachfolgeran gleicher Stelle/am Endeein.
Vorraussetzung: Elemente der Warteliste werden systematisch erzeugt;
Suchtiefe wird geeignet groß festgesetzt / ausgewertete Suchbaum muss gespeichert werden;
3.1.2. Heuristische Suche / A-Algorithmus
Verarbeitung zus¨atzlicher Informationen; Bewertungsm¨oglichkeit f¨ur Er- folgsaussichten eines bestimmten Pfades; Entscheidungen ordnen; Viel- versprechende Alternative zuerst,
”dem atm billigsten folgen“; Heuristik besteht in Definition einer geeigneten Bewertungs (Kostenfunktion)f(n);
z.B.
f(n) =g(n) +h(n)
Bewertungsfunktion = Bisherige Kosten + Sch¨atzfunktion (hier: falsche Pl¨attchen)
Fallsh(n)≡0gew¨ahlt wird identisch zur Breitensuche
3.1.3. A*-Algorithmus
Sch¨atzfunktionh(n)monoton, d.h. Kosten werden nicht ¨ubersch¨atzt; ter- miniert wenn Zielknoten gefunden und keine geringere Kostensch¨atzung existiert; A* somit optimaler Pfad; wird die optimale Kostenfkth1∗(n) verwendet, so wird k¨urzester Pfad auf Anhieb gefunden (sprich: informierte Suche); Liste mit allen Elementen erstellen + sortieren; dem insg. billigsten folgen; nix verwerfen;
4. Logik und Theorembeweisen
Wissen algorithmisch darstellen; Fakten ableiten; Behauptungen best¨atigen / widerlegen;
4.1. Logik
4.1.1. Aussagenlogikatomare Aussagen; wahr oder falsch; UND , ODER, NICHT; Implikation
⇒;
4.1.2. Pr¨adikatenlogik
Analyse und Bewertung von Beziehungen und logischen Verkn¨upfungen; 1.
Ordnung⇒nur Ver¨anderung von Objekten, nicht Pr¨adikaten; Pr¨adikate und FUnktionen, Konstanten, Variablen, Funktionen, Negation, Disjunkti- on, Konjunktion, Existenz-Quantor, All-Quantor, Implikation, ¨Aquivalenz
”In jeder Stadt gibt es einen B¨urgermeister“
(∀x){Stadt(x)⇒(∃y) [Mensch(y)·Bgm(x, y)]}
Regeln und Zusammenh¨ange aufstellen;⇒Regelwerk (Axiome); Frage (Theorem); Beweis durch Wahrheitstabelle oder Umformen der Regeln und Schlussfolgern (Resolution, Unifikation - effektiver);
Umformregeln:
1. Doppelte Negation¬¬A≡A 2. IdempotenzA+A≡AundA·A≡A 3. Kommutativit¨atA+B≡B+A
4. Assoziativit¨atA+ (B+C)≡(A+B) +C 5. Distributivit¨atA+ (B·C)≡(A+B)·(A+C) 6. De Morgan¬(A·B)≡ ¬A+¬B
7. KontrapositivA⇒B≡ ¬B⇒ ¬A 8.A⇒B≡ ¬A+B
9.A⇔B≡(A⇒B)·(B⇒A)≡(A·B)+(¬A·¬B) 10.¬(∀x)A(x)≡(∃x)(¬A(x))
11.¬(∃x)A(x)≡(∀x)(¬A(x))
12.(∀x)(A(x)·B(x))≡(∀x)A(x)·(∀y)B(y) 13.(∃x)(A(x) +B(x))≡(∃x)A(x) + (∃y)B(y)
4.1.3. Standardformen
Konjunktive Normalform (KNF):(A1+A2+. . .)·(B1+B2+. . .)·
. . .
Disjunktive Normalform:(A1·A2·. . .) + (B1·B2·. . .) +. . . Regeln zur Umformung in Normalform:
1.Eliminierung aller ¨Aquivalenzen (# 9) 2.Eliminierung aller Implikationen (# 8)
3.Einziehung der Negation nach innen (#6, #10, #11) 4.Einf¨uhrung neuer Variabeln f¨ur jeden Quantifizierer 5.Eliminierung aller Existenz Quantoren
6.Ausklammern der All-Quantoren und Entfallen dieser
7.Anwendung des Distributivgesetzes zur Transofrmation in Konjunk- tive Normalform (#5)
8.Eliminierung der UND-Verkn¨upfungen durch Auflistung der Klau- seln
9.Einf¨uhrung getrennter Variablen f¨ur jede Klausel
4.2. Theorembeweis
4.2.1. Resolutionsverfahren Gegeben sind zwei Formel der Form:A1+A2+· · ·+An+P B1+B2+· · ·+Bn+¬P wird zu A1+· · ·+An+B1+· · ·+Bne≡R Anwendung beim Theorembeweis:
Geg.: Set von n existierenden und bewiesenen Axiomen S = {S1. . . Sn}; Es gilt T zu beweisenn
Vorgehen: Erweiterung vonSzuS∗={S1. . . Sn,¬T}Und Resolu- tionieren bis leere Klausel erzeugt wird.
Erkl¨arung: Statt Beweis wird Unerf¨ullbarkeit seines Gegenteils gezeigt.
Tautologie beweisen:
1.Wahrheit auf KNF bringen 2.Gegenteil auf KNF bringen 3.Zeige, dass Gegenteil{ }ist.
5. Wissensrepr¨ asentation
effizient speichern; strukturiert darstellen; Menge von Fakten, Re- geln, Prozeduren, Modellen, Daten, Heuristiken; interpretierbar mit Hilfe von Repr¨asentationsmechanismen;
5.0.1. Pr¨adikatenlogik
Aufteilung in Fakten und Regeln; Standardisiert durch KNF; Resolution als Inferenzmechanismus; Formulierung aufw¨andig und unnat¨urlich; zwingend Umformung in KNF;
Homepage:www.latex4ei.de– Fehler bittesofortmelden. von Fabian G¨ottel und Hendrik B¨ottcher – Mail:info@latex4ei.de Stand: 5. March 2020 um 05:08 Uhr (git 21) 2/4
5.1. Produktionsregeln
keine Umformung in KNF; Wenn-Dann bleibt erhalten; Vorw¨arts- R¨uckw¨artsverkettung als Inferenzmechanismus; Darstellung im UND/ODER-Graphen; Fakten als Blatt, Regeln als Verzweigung;
Vorw¨artsverkettung 1.G¨ultige Fakten einkreisen
2.Suchen nach Regeln, in denen diese Fakten im Bedingungsteil der Regeln vorkommen
3.Uberpr¨¨ ufen ob Aktionsteil der Regeln eingeleitet werden kann 4.Back to #2
5.Wenn keine neuen Regeln mehr feuern, ¨uberpr¨ufen ob ein Ziel erf¨ullt wurde
R¨uckw¨artsverkettung 1.Vorgabe eines m¨oglichen Ziels
2.Untersuchen der Bedingungen die zum erreichen dieses Ziels erf¨ullt sein m¨ussen
3.Formulierung dieser Bedingungen als neue Teilziele, back to # 2 4.Falls Ziel wg. Bedingungen nicht erreicht werden kann, back to #1
mit anderem Ziel
5.Wurden f¨ur ein Ziel alle Bedingungen erf¨ullt⇒Finish
5.2. Semantische Netze
Graphische Modelle zur Darstellung von Wissen ¨uber beziehungen zw. Ob- jekten; entsprechen etwa Fakten der Pr¨adikatenlogik; Knoten = Objekte;
Kanten = Pr¨adikate; Verwendung bei nat¨urlichssprachigen Systemen; kei- ne 2 Knoten gleicher Beschriftung; Richtung der Kanten von Bedeutung;
5.3. Rahmen
Darstellung der Zerlegung von Objekten oder Situationen in ihre Bestand- teile; ¨Ahnlichkeit zu semantischen Netzen, wesentlich m¨achtiger und fle- xibler; FrameName - zentraler Knoten, Slots - Kanten, Filler - Knoten;
1. Suchverfahren zur Ermittlung von Beziehungen;
2.”Rahmen-Abgleich“; Fakten als Fragezeichen markiert; mit aktuellen Daten auff¨ullen;
6. Grammatiken
nat¨urlichsprachige Systeme; Modellierung von Dialogen;
6.1. Kontextfreie Grammatiken
CFG; G = {V, T , P, S}mit Variable (Großbuchstaben), Terminale (Kleinbuchstaben), Produktionsregel (A → αmitA ∈ {V}und α∈ {V∪T}), Startsymbol;
6.2. Chomsky-NormalForm
CNF; Enth¨alt nur Produktionsregeln, bei denen auf der rechten Seite nur zwei Variablen oder nur ein terminaler Ausdruck steht:
A→BCoderA→a
6.3. Backus-Naur-Form (BNF)
formal exakte Definition von Programmiersprachen; Nichtterminalsymbole werden syntaktische Variablen genannt und durch<,>gekennzeichnet;
Darst. von Wdh. durch Rekursion;
6.4. EBNF
Erweiterte BNF; Optionen [...]; abgez¨ahlte Wdh. 4*;
6.5. Parsing
Satzgenerierung: Produktionsregeln solange anwenden, bis alle Variablen V durch terminale Symbole T ersetzt sind; Parse-Tree; Ambiguit¨aten;
6.6. Anwendung von Grammatiken in KI
Sprache; Mustererkennung;6.7. Beispiele
Palindrom-String:S→aSa|bSb|a∗ |b∗
Doppelte Anzahl a wie b:
S→A|SA|AS|aSC|CSa|aSD|DSa|bSB|BSb A→Bb|Ca|Da
B→aa C→ab D→ba Grammatik-Grammatik:
S (Satz), NP (Nominalphrase), VP (Verbalphrase), PP (P¨apositionalphrase), DET (Determinator, Artikel), ADJ (Adjektiv), AUX (Hilfswort), V (Verb), PRE (Pr¨aposition) und N (Nomen)
S→NP VP|VP NP
NP→DET N|ADJ N|DET NP|NP PP VP→V NP|AUX V|V PP|V NP|VP PP|AUX VP PP→PRE NP
DET→
”der“,
”die“,
”das“,...
ADJ→
”klein“,
”groß“,...
AUX→
”wird“,...
V→
”streicheln“,...
PRE→
”in“,
”mit“,...
N→
”Junge“,
”Hund“,
”Hand“,...
7. Automatentheorie
Verarbeitung von Symbolfolgen; Modellierung von Dialogen;
7.1. Automatentypen
7.1.1. ZustandsautomatGraphenform; bestimmte Anzahl von Knoten (Zust¨ande) und Verbindun- gen (Transitionen);
Z= (S, X, T , s0,F)
Set mit endlicher Anzahl Zust¨ande, x zul¨assiges Alphabet f¨ur die zu ver- arbeitende Symbolfolge X, T Transitionsfunktionen,s0Anfangszustand, Fein Set von festgelegten Endzust¨anden; deterministisch / nicht-d.;
7.1.2. Kellerautomaten
komplexere Grammatiken; Erweiterung mit Stack (LIFO); Transition abh¨angig von Stack und Eingang; Stack leer⇒Folge akzeptiert;
Z= (S, X, Y, T , s0, y0F)
Y - zul¨assiges Alphabet f¨urn Stack,y0Start f¨ur Stack,Fleer wenn End- zustand ¨uber leeren Stack definiert ist;
8. Dialoggestaltung
Ein-/Ausgabe; Fehlerbehandlung; Fehlertoleranz; Kenntnis der Aufgabe; Benutzergruppen;
8.1. Expertensysteme
komplexes, wissensbasiertes Softwarepaket; Wissensbasis statt Datenba- sis; Komponenten zur Pflege und Erweiterung dieser Basis; Schließregeln k¨onnen neues Wissen produzieren;
8.2. Wissen
informelles, technisches (Algorithmen, Formeln, fixe Formeln, variable Da- ten), formales (wenn-dann, variable formeln + daten);
8.3. Einsatzgebiete
komplexe Aufgabenstellungen; Diagnoseaufgaben; Konfigurationsaufga- ben; Beratungsaufgaben;
8.4. Aufbau
Wissensbasis: Fakten, Regeln, Prozeduren; wichtigste Komponente;
Inferenzkomponente: Verarbeitung; Such- Verkettungsmechanismus;
Erkl¨arungskomponente: L¨osungsweg; graphisch; Debugging;
Dialogkomponente: Interface;
Wissenserwerbkomponente: effiziente Entlastung des Programmierers;
Experten, Entwickler, Anwender;
8.5. Dialogformen
Frage-Antwort; Men¨uauswahl; Formular; Kommandosprachen;
Nat¨urlichsprachlich; Direkte Manipulation; Multimediadialog;
9. Sprachkommunikation
eine der nat¨urlichsten Kommunikationsformen; gr¨oßtes Potential; bedeu- tendste & komplexeste Teil: Spracherkennung;
9.1. Klassifizierung
Zuordnung zu Bedeutungseinheiten; Merkmalsextraktion; Merkmalsvek- tor; Merkmalsraum; Klassen; Training;
9.2. Abstandsklassifikatoren
Distanz eines Mustervektors zu Klasse;mk= 1 Mk
Mk X i=1
rk,i
dk(x, mk) = (x−mk)T∗Wk∗(x−mk) Trennfunktion:
d1(x, m1)−d2(x, m2) = 0
Gewichtsmatrix Wkentscheidend;mkwird im Training ermittelt; x geh¨ort zur Klass mit min. Abstand;
Quadratischer Abstand:Wkist Einheitsmatrix; Trennfunktion ist eine Ge- rade;
Mahalanobis Abstand:Inverseder Kovarianzmatrix; Abh¨angig von Klasse;
Bestandteil des Trainings; Trennfunktion ist Kegelschnitt (Gerad, Ellipse, Parabel, Hyperbel)
WK,k= 1 Mk
Mk X i=1
rk,i·rk,iT −mk·mTk
A−1= 1 ad−bc
"
d −b
−c a
#
10. HMM und Algorithmen
10.0.1. Markov-Modelle
Abbildung stochastischer Prozesse, deren aktueller Zustand nur vom vor- ausgegangenen Zustand abh¨angt; Matrixdarstellung
A=p
qt+1=sj|qt=si
Startzustandq1; Vektore= (p(q1=s1), . . . , p(q1=sN))Tder Einsprungwahrscheinlichkeit
10.1. HMM
Hidden-Markov-Modelle; statistischer Klassifikator; liefertpdass eine Be- obachtung einer best. Klasse zugeordnet werden kann; klassifizieren ganze Sequenzen (dynamische Folgen);
”Finde diejenige Klasse, die die Beob- achtungo= (o1, o2, . . . , ot)am besten nachbilden kann.“;
10.1.1. HMM
stochastische Version eines endlichen Zustandautomaten; Zu- stands¨uberg¨ange und Symbolemissionen nicht deterministisch; Beob- achtungswahrscheinlichkeitsmatrix; v = (V1, . . . , vM) Menge der m¨oglichen Beobachtungen;
B=
p(v1|s1) . . . p(v1|sN) ..
. ...
.. . p(vM|s1) . . . p(Vm|sN)
λ= (e, A, B) p(o|λ)
Von Beobachtungsfolge o kann i.A. nicht auf durchlaufene Zustandsfolge q geschlossen werden (hidden)
HMM - Eigenschaften
Ergodisches HMM Es kann aus jedem Zustand in jeder andere Zustand erreicht werden; A ist voll besetzt
Links-Rechts-HMM keine R¨uckspr¨unge; kausal; A hat rechte obere Dreiecksform; Graphisch nach rechts aufsteigend⇒Name
10.1.2. Klassifizierung mit HMM
Pro Klasse ein HMM; das HMM welches die gr¨oßte Produktionswahr- scheinlichkeitp(o|λk)liefert repr¨asentiert die gesuchte Klassekx;
10.1.3. Training von HMM
Kompensation von St¨orungen; Bed.: geeignete Parameterλk; Training mit iterativen Verfahren;⇒Baum-Welch-Algorithmus
10.1.4. Trellis
Zeitabfolge in Diagramm; Berechnung sehr rechenintensiv (OP S2T+ NT); Wegq;
p(o|λk) = X q∈Q
eq1bq1(o1) T Y t=2
aqt−1qtbqt(ot)
10.2. HMM in der Spracherkennung
Cepstrum; Merkmalsexrahierung; 12D Merkmalsvektor;
10.2.1. Modelle
Einzelworterkenner vs. fließende Sprache; Phoneme, kleinste bedeutungs- unterscheidenden Lauteinheiten; HMM pro Phonem; Pausen;
10.2.2. Training
Zusammenfassung der Phonem HMM zu einem HMM;
10.2.3. Erkennung
W¨orterb¨ucher, Grammatiken, Wahrscheinlichkeiten bestimmter Phonem- kombinationen, Sprachmodelle f¨ur Wortkombinationen;
Homepage:www.latex4ei.de– Fehler bittesofortmelden. von Fabian G¨ottel und Hendrik B¨ottcher – Mail:info@latex4ei.de Stand: 5. March 2020 um 05:08 Uhr (git 21) 3/4
10.3. HMM-Algorithmen
10.3.1. Vorw¨arts-Algorithmus Vorw¨arts-Wahrscheinlichkeit:αt(i) =P(o1, o2, . . . , ot, qt=si|λk)
d.h. die Wahrscheinlichkeit, dass die Teilbeobachtungoiemittiert werden und das sich das HMM zu t im Zustandsibefindet;
Vorw¨arts-Algorithmus (Rekursiv) 1.Initialisierung:
α1(i) =eibi(o1), 1≤i≤N 2.Induktion:
αt+1(j) =
"
N P i=1
αt(i)aij
# bj(ot+1) 1≤t≤T−1; 1≤j≤N;
3.Terminierung P(o|λk) = PN
i=1 αT(i)
Ben¨otigte OPS :T∗N2;
10.3.2. Baum-Welch-Algorithmus R¨uckw¨artswahrscheinlichkeit:
βt(i) =P(ot+1, ot+2, . . . , oT|qt=si, λk);
d.h. Wahrscheinlichkeit, die restlichen Teilbeob. zu emmttieren;
Baum-Welch-Algorithmus (Rekursiv) 1.Initialisierung
βT(i) = 1 1≤i≤N 2.Induktion
βt(i) = N P j=1
aijbj(ot+1)βt+1(j) t=T−1, T−2, . . .1 1≤i≤N
Wahrscheinlichkeit, dass sich dass HMM zu t im Zustandsibefindet und o emmitiert wird; Summe dr¨uber⇒
”alle Aufenthalte im Zustandsi“ γt(i) = αt(i)βt(i)
N P i=1
αt(i)βt(i)
Wahrscheinlichkeit, dass sich das HMM zu t insiund zu t+1 insj befindet; Summe dr¨uber⇒
”aller ¨Uberg¨ange vonsizusj; ξt(i, j) =αt(i)aijbj(ot+1)βt+1(j)
N P i=1
αt(i)βt(i)
γt(i) = N X j=1 ξ
10.3.3. Viterbi-Algo
meist reicht Kenntnis des wahrscheinlichsten Pfades;
Viterbi-Algorithmus 1.Initialisierung:
δ1(i) =eibi(o1) 1≤i≤N ψ1(i) = 0
2.Induktion:
δt(j) = max 1≤i≤N
δt−1(i)aij bj(ot) ψt(j) = argmax
1≤i≤N
δt−1(i)aij 2≤t≤T; 1≤j≤N 3.Terminierung:
P∗= max 1≤i≤n[δt(i)]
q∗T= max 1≤i≤n[δt(i)]
4.Ermittlung der wahrsch. Zustandsfolge:
q∗t =ψt+1(q∗t+1) t=T−1, T−2, . . . ,1
Homepage:www.latex4ei.de– Fehler bittesofortmelden. von Fabian G¨ottel und Hendrik B¨ottcher – Mail:info@latex4ei.de Stand: 5. March 2020 um 05:08 Uhr (git 21) 4/4