• Keine Ergebnisse gefunden

HTWK Leipzig, Fakultät IM Prof. Dr. Sibylle Schwarz

N/A
N/A
Protected

Academic year: 2022

Aktie "HTWK Leipzig, Fakultät IM Prof. Dr. Sibylle Schwarz"

Copied!
1
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

HTWK Leipzig, Fakultät IM

Prof. Dr. Sibylle Schwarz sibylle.schwarz@htwk-leipzig.de

Arbeitspaket zu KW 24 zum Modul „Grundlagen der Künstlichen Intelligenz“

Sommersemester 2020

In dieser Woche beginnen wir, uns mit dem Schließen aus unsicherem Wissen zu beschäftigen.

Dies wird im Buch ausführlich anhand eines durchgehenden Beispiels aus der Medizininfor- matik illustriert, womit wir gleichzeitig einen Einblick in dieses Gebiet bekommen. Wie in der Medizin allgemein, wird dort sehr viel mit statistischen Methoden gearbeitet.

Wir gehen nun also von den symbolischen zu den statistischen Teilgebieten der KI über, zu denen auch die meisten Verfahren des maschinellen Lernens gehören. Damit werden wir uns bis zum Ende des Semesters beschäftigen.

Dazu wiederholen wir zunächst einige Grundbegriffe aus der Wahrscheinlichkeitsrechnung und der Informationsverarbeitung, die Sie schon aus früheren Modulen kennen.

Lesen und Verstehen

Kapitel 7: Schließen mit Unsicherheit (nur Abschnitte 7.1 bis 7.3)

im Buch Grundkurs Künstliche Intelligenz - Eine praxisorientierte Einführung (https://link.springer.com/content/pdf/10.1007%2F978-3-658-13549-2.pdf)

In Abschnitt 7.1 werden Grundlagen der Wahrscheinlichkeitsrechnung, die Sie schon aus den entsprechenden Mathematik-Modulen kennen, anhand vieler Beispiele wiederholt.

In Abschnitt 7.2 wird die Methode der Maximalen Entropie als System zum Schließen mit Wahrscheinlichkeiten vorgestellt. Beschäftigen Sie sich dort insbesondere auch mit den Bei- spielen, bis Sie sie verstanden haben.

Einen medizinische Anwendung dieses Verfahrens wird in Abschnitt 7.3 vorgestellt.

Begriffe Wiederholung:

Ereignis, Ereignisraum, Elementarereignis, sicheres Ereignis, unmögliches Ereignis, Zufallsvariablen, Häufigkeit, Wahrscheinlichkeit, bedingte Wahrscheinlichkeit, Wahrscheinlichkeitsverteilung, gleichverteilt, Bayes-Formel,

Entropie (evtl.) neu:

Kettenregel, Marginalisierung, Randverteilung

Methode der Maximalen Entropie, Lagrange-Gleichung, indifferente Variable, MaxEnt-System Inferenzregeln mit Wahrscheinlichkeiten und deren Anwendung

Übungsaufgaben und Autotool

Weil in dieser Woche im Buch recht viel zu verstehen ist, gibt es keine neuen Aufgaben.

Die Aufgaben 7.1 bis 7.9 in Abschnitt 7.6 sind zum Selbsttest geeignet.

Wenn gewünscht, gibt es für Lösungen zu 7.1, 7.2, 7.3, 7.5, 7.8 je einen Aufgabenpunkt.

Punkte für die Prüfungszulassung

Die in 7.1 vorgestellten Grundbegriffe der Wahrscheinlichkeitsrechnung kennen Sie schon aus den Mathematik-Modulen und Ihren Unterlagen dazu.

• je ein Moderationspunkt für kompakte Zusammenfassung / Präsentation von – Abschnitt 7.2

– Abschnitt 7.3

Referenzen

ÄHNLICHE DOKUMENTE

Wenn der Bauer den Wolf gefüttert hat und in der Stadt Markt ist, geht er in die Stadt und lässt Wolf und Ziege alleina. Wenn der Wolf gefüttert ist, ist

Formulieren Sie diese Aussagen mit Hilfe eines zweistelligen Prädikatsymboles für „läuft schneller als“b. Geben Sie die Grundinstanziierung dieser

In dieser Woche kommt die Deklaration eines rekursiven Datentyps für Peano-Zahlen hinzu:?. data Nat = Z |

Dabei werden wir (im Unterschied zum Buch) zunächst wieder vorwiegend mit einer selbst- definierten Version arbeiten?. Deshalb gibt es auch eine kurze Einführung und

In Haskell geschieht das bedarfsgesteuert (lazy), Teilausdrücke werden also erst dann ausge- wertet, wenn ihr Wert benötigt wird.. Das ermöglicht es auch, Daten (potentiell)

Definieren Sie durch eine zusätzliche Regel ein zweistelliges Prädikat „erreichbar“, welches die Erreichbarkeit (über einen oder mehrere aufeinanderfolgende Strecken-

Zur Automatisierung dieser Auswahl wird meist eine Bewertungsfunktion definiert, die jedem Zug (Knoten im Graphen des Spiels) einen Wert in einer geordneten Menge zuordnet.. In

Wir werden deshalb zusätzlich mit einigen übersichtlichen Zwei-Personen-Spielen arbeiten, die sich besser für kleine praktische Beispiele zur Anwendung der Minimax-Suche eignen: