• Keine Ergebnisse gefunden

Wissensentdeckung in Datenbanken Probabilistische Graphische Modelle Nico Piatkowski und Uwe Ligges

N/A
N/A
Protected

Academic year: 2022

Aktie "Wissensentdeckung in Datenbanken Probabilistische Graphische Modelle Nico Piatkowski und Uwe Ligges"

Copied!
53
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Graphische Modelle

Wissensentdeckung in Datenbanken

Probabilistische Graphische Modelle

Nico Piatkowski und Uwe Ligges

Informatik—Künstliche Intelligenz Computergestützte Statistik Technische Universität Dortmund

22.06.2017

(2)

Graphische Modelle

Überblick

Was bisher geschah...

Modellklassen Verlustfunktionen

Numerische Optimierung Regularisierung

Überanpassung SQL, Häufige Mengen SVM, xDA, Bäume, . . . Heute

Graphische Modelle

(3)

Graphische Modelle

Überblick

Was bisher geschah...

Modellklassen Verlustfunktionen

Numerische Optimierung Regularisierung

Überanpassung SQL, Häufige Mengen SVM, xDA, Bäume, . . . Heute

Graphische Modelle

(4)

Graphische Modelle

Überblick

Wahrscheinlichkeiten

Stochastische Abhängigkeiten Graphen

Graphische Modelle—Intuition Graphische Modelle—Notation Anwendungsbeispiele

(5)

Graphische Modelle

Erinnerung: Wahrscheinlichkeiten und Klassifikation

ZufallsvariableX mit diskreter DomäneX Wahrscheinlichkeit:P(X =x) ∈ [0; 1]

Normalisiert:∑x∈XP(X =x) =1 Bedingte Wahrscheinlichkeit:

P(Y =y∣X =x)

´ ¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶

≈SVM,Log.Regr.,Entscheidungsbäume,...

= P(Y=y,X=x)

P(X=x)

↑↑Klassifikation mittels↑↑

diskriminativemModell Alternative:

GenerativesModell:P(Y =y,X =x)

(6)

Graphische Modelle

Erinnerung: Wahrscheinlichkeiten und Klassifikation

ZufallsvariableX mit diskreter DomäneX Wahrscheinlichkeit:P(X =x) ∈ [0; 1]

Normalisiert:∑x∈XP(X =x) =1 Bedingte Wahrscheinlichkeit:

P(Y =y∣X =x)

´ ¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶

≈SVM,Log.Regr.,Entscheidungsbäume,...

= P(Y=y,X=x)

P(X=x)

↑↑Klassifikation mittels↑↑

diskriminativemModell Alternative:

GenerativesModell:P(Y =y,X =x)

(7)

Graphische Modelle

Erinnerung: Wahrscheinlichkeiten und Klassifikation

ZufallsvariableX mit diskreter DomäneX Wahrscheinlichkeit:P(X =x) ∈ [0; 1]

Normalisiert:∑x∈XP(X =x) =1 Bedingte Wahrscheinlichkeit:

P(Y =y∣X =x)

´ ¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶

≈SVM,Log.Regr.,Entscheidungsbäume,...

= P(Y=y,X=x)

P(X=x)

↑↑Klassifikation mittels↑↑

diskriminativemModell Alternative:

GenerativesModell:P(Y =y,X =x)

(8)

Graphische Modelle

Exkurs: Korrelation vs. Abhängigkeit

Hier: Achsen sind Domänen reelwertiger ZufallsvariablenX,Y

(9)

Graphische Modelle

Abhängigkeiten zwischen Zufallsvariablen

X,Y sindunabhängig, falls

∀x∈ X,∀y∈ Y ∶P(Y =y∣X =x) =P(Y =y) Unabhängigkeitkann auch nur für einigex∈S mitS⊂ X gelten!!

∀x∈S,∀y∈ Y ∶P(Y =y∣X =x) =P(Y =y) oder in Abhängigkeit von dritter VariableW

∀x∈ X,∀y∈ Y ∶P(Y =y∣X =x,W =1) =P(Y =y∣W =1) Frage: Wie können alle Abhängigkeiten einer

hochdimensionalen Zufallsvariable kompakt dargestellt (gespeichert) werden??

(10)

Graphische Modelle

Abhängigkeiten zwischen Zufallsvariablen

X,Y sindunabhängig, falls

∀x∈ X,∀y∈ Y ∶P(Y =y∣X =x) =P(Y =y) Unabhängigkeitkann auch nur für einigex∈S mitS⊂ X gelten!!

∀x∈S,∀y∈ Y ∶P(Y =y∣X =x) =P(Y =y) oder in Abhängigkeit von dritter VariableW

∀x∈ X,∀y∈ Y ∶P(Y =y∣X =x,W =1) =P(Y =y∣W =1) Frage: Wie können alle Abhängigkeiten einer

hochdimensionalen Zufallsvariable kompakt dargestellt (gespeichert) werden??

(11)

Graphische Modelle

Abhängigkeiten zwischen Zufallsvariablen

X,Y sindunabhängig, falls

∀x∈ X,∀y∈ Y ∶P(Y =y∣X =x) =P(Y =y) Unabhängigkeitkann auch nur für einigex∈S mitS⊂ X gelten!!

∀x∈S,∀y∈ Y ∶P(Y =y∣X =x) =P(Y =y) oder in Abhängigkeit von dritter VariableW

∀x∈ X,∀y∈ Y ∶P(Y =y∣X =x,W =1) =P(Y =y∣W =1) Frage: Wie können alle Abhängigkeiten einer

hochdimensionalen Zufallsvariable kompakt dargestellt (gespeichert) werden??

(12)

Graphische Modelle

Abhängigkeiten zwischen Zufallsvariablen

X,Y sindunabhängig, falls

∀x∈ X,∀y∈ Y ∶P(Y =y∣X =x) =P(Y =y) Unabhängigkeitkann auch nur für einigex∈S mitS⊂ X gelten!!

∀x∈S,∀y∈ Y ∶P(Y =y∣X =x) =P(Y =y) oder in Abhängigkeit von dritter VariableW

∀x∈ X,∀y∈ Y ∶P(Y =y∣X =x,W =1) =P(Y =y∣W =1) Frage: Wie können alle Abhängigkeiten einer

hochdimensionalen Zufallsvariable kompakt dargestellt (gespeichert) werden??

(13)

Graphische Modelle

Graphen

Möglicherweise wichtigstes abstraktes Werkzeug der Informatik

Erlaubt Repräsentation beliebiger Beziehungen (Relationen) zwischen beliebigen Objekten

Formal spezifiziert viaG= (V, E)mit KnotenmengeV und KantenmengeE

Auch Zusatzinformationen möglich wie Knoten- oder Kantengewichte, Farben, . . .

(14)

Graphische Modelle

Graphen

Möglicherweise wichtigstes abstraktes Werkzeug der Informatik

Erlaubt Repräsentation beliebiger Beziehungen (Relationen) zwischen beliebigen Objekten

Formal spezifiziert viaG= (V, E)mit KnotenmengeV und KantenmengeE

Auch Zusatzinformationen möglich wie Knoten- oder Kantengewichte, Farben, . . .

(15)

Graphische Modelle

Probabilistische Graphische Modelle

GraphG= (V, E),∣V∣-dimensionale ZufallsvariableX Indexierung der Zufallsvariable mittels Knoten(mengen) Kodiere Liste aller bedingten Unabhängigkeiten als Nachbarschaften in einem Graph

KantenmengeEentspricht bedingten Unabhängigkeiten gemäßMarkov Eigenschaft:

Xv⊥⊥XV∖N (v)∪{v}∣XN (v)=xN (v) Für alle Knotenpaarev, u∈V gilt:

Gibt es einen Pfad durchGauf dem alle Knoten unbeobachtet sind, so sindXv undXu nicht

unabhängig (Xv⊥/⊥Xu).

(16)

Graphische Modelle

Probabilistische Graphische Modelle

GraphG= (V, E),∣V∣-dimensionale ZufallsvariableX Indexierung der Zufallsvariable mittels Knoten(mengen) Kodiere Liste aller bedingten Unabhängigkeiten als Nachbarschaften in einem Graph

KantenmengeEentspricht bedingten Unabhängigkeiten gemäßMarkov Eigenschaft:

Xv⊥⊥XV∖N (v)∪{v}∣XN (v)=xN (v) Für alle Knotenpaarev, u∈V gilt:

Gibt es einen Pfad durchGauf dem alle Knoten unbeobachtet sind, so sindXv undXu nicht

unabhängig (Xv⊥/⊥Xu).

(17)

Graphische Modelle

Probabilistische Graphische Modelle

GraphG= (V, E),∣V∣-dimensionale ZufallsvariableX Indexierung der Zufallsvariable mittels Knoten(mengen) Kodiere Liste aller bedingten Unabhängigkeiten als Nachbarschaften in einem Graph

KantenmengeEentspricht bedingten Unabhängigkeiten gemäßMarkov Eigenschaft:

Xv⊥⊥XV∖N (v)∪{v}∣XN (v)=xN (v) Für alle Knotenpaarev, u∈V gilt:

Gibt es einen Pfad durchGauf dem alle Knoten unbeobachtet sind, so sindXv undXu nicht

unabhängig (Xv⊥/⊥Xu).

(18)

Graphische Modelle

Probabilistische Graphische Modelle (II)

GraphG= (V, E),∣V∣-dimensionale ZufallsvariableX Fakt: Wahrscheinlichkeits(dichte) faktorisiert über den (maximalen) Cliquen des Graph

P(X =x) = 1

Z ∏

C∈C(G)

ψC(xC)

A⊆V ist Clique⇔(∀{v, u} ⊆A⇒ {v, u} ∈E) Z ist Summe überallemöglichen Werte vonX JedesψC ∶ XC →R+mit diskretem

ZustandsraumXC ist darstellbar alsexp(⟨βC, φC(⋅)⟩)

Dichten der FormP(X =x) = 1

ZC∈C(G)exp(⟨βC, φC(⋅)⟩) gehören zu einerExponentialfamilie

(19)

Graphische Modelle

Probabilistische Graphische Modelle (II)

GraphG= (V, E),∣V∣-dimensionale ZufallsvariableX Fakt: Wahrscheinlichkeits(dichte) faktorisiert über den (maximalen) Cliquen des Graph

P(X =x) = 1

Z ∏

C∈C(G)

ψC(xC)

A⊆V ist Clique⇔(∀{v, u} ⊆A⇒ {v, u} ∈E) Z ist Summe überallemöglichen Werte vonX JedesψC ∶ XC →R+mit diskretem

ZustandsraumXC ist darstellbar alsexp(⟨βC, φC(⋅)⟩)

Dichten der FormP(X =x) = 1

ZC∈C(G)exp(⟨βC, φC(⋅)⟩) gehören zu einerExponentialfamilie

(20)

Graphische Modelle

Probabilistische Graphische Modelle (II)

GraphG= (V, E),∣V∣-dimensionale ZufallsvariableX Fakt: Wahrscheinlichkeits(dichte) faktorisiert über den (maximalen) Cliquen des Graph

P(X =x) = 1

Z ∏

C∈C(G)

ψC(xC)

A⊆V ist Clique⇔(∀{v, u} ⊆A⇒ {v, u} ∈E) Z ist Summe überallemöglichen Werte vonX JedesψC ∶ XC →R+mit diskretem

ZustandsraumXC ist darstellbar alsexp(⟨βC, φC(⋅)⟩)

Dichten der FormP(X =x) = 1

ZC∈C(G)exp(⟨βC, φC(⋅)⟩) gehören zu einerExponentialfamilie

(21)

Graphische Modelle

Parameterlernen in Graphischen Modellen

Gegeben DatensatzDVerlustfunktion: Negative mittlere log-Likelihood

`(β,D) = − 1

∣D∣

x∈D

logPβ(x)

= − 1

∣D∣

x∈D

log⎛

⎝ 1

Z ∏

C∈C(G)

ψC(xC)

= − 1

∣D∣

x∈D

log⎛

⎝ 1

Z ∏

C∈C(G)

exp(⟨βC, φC(xC)⟩)

= (− 1

∣D∣

x∈D

⟨β, φ(x)⟩) + logZ

²

Komplexität: #P-vollständig

(22)

Graphische Modelle

Parameterlernen in Graphischen Modellen

Gegeben DatensatzDVerlustfunktion: Negative mittlere log-Likelihood

`(β,D) = − 1

∣D∣

x∈D

logPβ(x)

= − 1

∣D∣

x∈D

log⎛

⎝ 1

Z ∏

C∈C(G)

ψC(xC)

= − 1

∣D∣

x∈D

log⎛

⎝ 1

Z ∏

C∈C(G)

exp(⟨βC, φC(xC)⟩)

= (− 1

∣D∣

x∈D

⟨β, φ(x)⟩) + logZ

²

Komplexität: #P-vollständig

(23)

Graphische Modelle

Parameterlernen in Graphischen Modellen

Gegeben DatensatzDVerlustfunktion: Negative mittlere log-Likelihood

`(β,D) = − 1

∣D∣

x∈D

logPβ(x)

= − 1

∣D∣

x∈D

log⎛

⎝ 1

Z ∏

C∈C(G)

ψC(xC)

= − 1

∣D∣

x∈D

log⎛

⎝ 1

Z ∏

C∈C(G)

exp(⟨βC, φC(xC)⟩)

= (− 1

∣D∣

x∈D

⟨β, φ(x)⟩) + logZ

²

Komplexität: #P-vollständig

(24)

Graphische Modelle

Parameterlernen in Graphischen Modellen

Gegeben DatensatzDVerlustfunktion: Negative mittlere log-Likelihood

`(β,D) = − 1

∣D∣

x∈D

logPβ(x)

= − 1

∣D∣

x∈D

log⎛

⎝ 1

Z ∏

C∈C(G)

ψC(xC)

= − 1

∣D∣

x∈D

log⎛

⎝ 1

Z ∏

C∈C(G)

exp(⟨βC, φC(xC)⟩)

= (− 1

∣D∣

x∈D

⟨β, φ(x)⟩) + logZ

²

Komplexität: #P-vollständig

(25)

Graphische Modelle

Exkurs: Allgemeine Vorgehensweise bei Graphischen Modellen

Gegeben DatensatzD

1 Modellselektion; [Hier:≡Wähle graphische Struktur (und φ)]

2 Aufteilen der Daten in Trainings und Testdaten

3 Lerne Modellparameterβauf den TrainingsdatenD(z.B.

mit Gradientenabstieg)

4 Vorhersage beliebiger VariablenXU∣XV∖U auf Testdaten und berechne die Vorhersagegenauigkeit

5 Wiederhole Schritte 2-4 so oft wie möglich und berechne mittleren Vorhersagefehler

6 Entscheide ob Schritt 1 gut genug war..

(26)

Graphische Modelle

Exkurs: Allgemeine Vorgehensweise bei Graphischen Modellen

Gegeben DatensatzD

1 Modellselektion; [Hier:≡Wähle graphische Struktur (und φ)]

2 Aufteilen der Daten in Trainings und Testdaten

3 Lerne Modellparameterβauf den TrainingsdatenD(z.B.

mit Gradientenabstieg)

4 Vorhersage beliebiger VariablenXU∣XV∖U auf Testdaten und berechne die Vorhersagegenauigkeit

5 Wiederhole Schritte 2-4 so oft wie möglich und berechne mittleren Vorhersagefehler

6 Entscheide ob Schritt 1 gut genug war..

(27)

Graphische Modelle

Exkurs: Allgemeine Vorgehensweise bei Graphischen Modellen

Gegeben DatensatzD

1 Modellselektion; [Hier:≡Wähle graphische Struktur (und φ)]

2 Aufteilen der Daten in Trainings und Testdaten

3 Lerne Modellparameterβauf den TrainingsdatenD(z.B.

mit Gradientenabstieg)

4 Vorhersage beliebiger VariablenXU∣XV∖U auf Testdaten und berechne die Vorhersagegenauigkeit

5 Wiederhole Schritte 2-4 so oft wie möglich und berechne mittleren Vorhersagefehler

6 Entscheide ob Schritt 1 gut genug war..

(28)

Graphische Modelle

Exkurs: Allgemeine Vorgehensweise bei Graphischen Modellen

Gegeben DatensatzD

1 Modellselektion; [Hier:≡Wähle graphische Struktur (und φ)]

2 Aufteilen der Daten in Trainings und Testdaten

3 Lerne Modellparameterβauf den TrainingsdatenD(z.B.

mit Gradientenabstieg)

4 Vorhersage beliebiger VariablenXU∣XV∖U auf Testdaten und berechne die Vorhersagegenauigkeit

5 Wiederhole Schritte 2-4 so oft wie möglich und berechne mittleren Vorhersagefehler

6 Entscheide ob Schritt 1 gut genug war..

(29)

Graphische Modelle

Exkurs: Allgemeine Vorgehensweise bei Graphischen Modellen

Gegeben DatensatzD

1 Modellselektion; [Hier:≡Wähle graphische Struktur (und φ)]

2 Aufteilen der Daten in Trainings und Testdaten

3 Lerne Modellparameterβauf den TrainingsdatenD(z.B.

mit Gradientenabstieg)

4 Vorhersage beliebiger VariablenXU∣XV∖U auf Testdaten und berechne die Vorhersagegenauigkeit

5 Wiederhole Schritte 2-4 so oft wie möglich und berechne mittleren Vorhersagefehler

6 Entscheide ob Schritt 1 gut genug war..

(30)

Graphische Modelle

Exkurs: Allgemeine Vorgehensweise bei Graphischen Modellen

Gegeben DatensatzD

1 Modellselektion; [Hier:≡Wähle graphische Struktur (und φ)]

2 Aufteilen der Daten in Trainings und Testdaten

3 Lerne Modellparameterβauf den TrainingsdatenD(z.B.

mit Gradientenabstieg)

4 Vorhersage beliebiger VariablenXU∣XV∖U auf Testdaten und berechne die Vorhersagegenauigkeit

5 Wiederhole Schritte 2-4 so oft wie möglich und berechne mittleren Vorhersagefehler

6 Entscheide ob Schritt 1 gut genug war..

(31)

Graphische Modelle

Nutzung des Mobilfunknetzes

Angemeldete Mobilfunkzelle ist dem Mobiltelefon bekannt.

Idee: Modell der Zellnutzung über denTag.

Jeder Knotent∈V entspricht der aktuellen Zelle zur Zeitt Zeitliche Auflösung ist fest, z.B.: 15min. Insgesamt:

∣V∣ =T =96

00:00

−00:15

00:30

−00:45 00:15

−00:30

00:45

−01:00

23:30

−23:45 01:00

−01:15

23:45

−00:00

...

(32)

Graphische Modelle

Nutzung des Mobilfunknetzes

Angemeldete Mobilfunkzelle ist dem Mobiltelefon bekannt.

Idee: Modell der Zellnutzung über denTag.

Jeder Knotent∈V entspricht der aktuellen Zelle zur Zeitt Zeitliche Auflösung ist fest, z.B.: 15min. Insgesamt:

∣V∣ =T =96

t=1 t=2 t=3 t=4 t=5 t=T−1 t=T

...

(33)

Graphische Modelle

Netzwerkzellen (idealisiert)

cell

-1

cell

-2

cell

-3 14 von 32

(34)

Graphische Modelle

Netzwerkzellen (geschätzt)

(35)

Graphische Modelle

Suffiziente Statistik für Netzwerkzellen

Daten werden fortlaufend aufgezeichnet abernur die suffiziente Statistikφ(D)muss gespeichert werden!

Für Knotent∈V und Kanten(i, i+1) ∈E:

φt(x) =

1{Zelle1Zeitt}

. . . 1{ZelleM Zeitt}

φ(i,i+1)(x) =

⎜⎜

⎜⎜

1{Zelle1Zeiti}1{Zelle1Zeiti+1}

1{Zelle1Zeiti}1{Zelle2Zeiti+1}

1{ZelleM Zeiti}1{ZelleM Zeiti+1}

⎟⎟

⎟⎟

(36)

Graphische Modelle

φ(D)

Eine Farbe pro Zelle

0 0.2 0.4 0.6 0.8 1

0 200 400 600 800 1000 1200 1400

Minute des Tages

(37)

Graphische Modelle

P(Xt)

Eine Farbe pro Zelle

0 0.2 0.4 0.6 0.8 1

0 200 400 600 800 1000 1200 1400

Minute des Tages

(38)

Graphische Modelle

P(Xt∣X17∶30−17∶45=“grüne Zelle”) Eine Farbe pro Zelle

0 0.2 0.4 0.6 0.8 1

0 200 400 600 800 1000 1200 1400

Minute des Tages

(39)

Graphische Modelle

Vorhersage Ergebnisse

Accuracy [%] 020406080100 83.75 78.16 75.42 70.31 79.53 51.82

User A User B User C

SVM MRF, time

SVM hat “mehr Daten”:P(X,Y)

´ ¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶

MRF

= P(Y ∣X)

´ ¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶

≈Klassifikation P(X)

(40)

Graphische Modelle

Ressourcennutzung I Auf dem Gerät:

Wiederholte Verbindungsversuche verbrauchen viel Energie

⇒Vorhersage der Netzverfügbarkeit verwenden um Datentransfers zu verschieben

Beim Provider:

Vorhersage der Gesamtauslastung von Mobilfunkzellen E[#Nutzer in Zelleium Zeitt] = ∑

u∈Nutzer

pu(xt=i) Vorhersage der Anzahl von Nutzern die im nächsten Zeitpunkt in eine bestimmte Zelle wechseln werden

(41)

Graphische Modelle

Ressourcennutzung I Auf dem Gerät:

Wiederholte Verbindungsversuche verbrauchen viel Energie

⇒Vorhersage der Netzverfügbarkeit verwenden um Datentransfers zu verschieben

Beim Provider:

Vorhersage der Gesamtauslastung von Mobilfunkzellen E[#Nutzer in Zelleium Zeitt] = ∑

u∈Nutzer

pu(xt=i) Vorhersage der Anzahl von Nutzern die im nächsten Zeitpunkt in eine bestimmte Zelle wechseln werden

(42)

Graphische Modelle

Apps

t 1 2 . . . T

Vorhersage der App Nutzung ermöglicht:

Verbesserte

Ressourcennutzung Verbesserte Vorhersage verbleibender Ressourcen

Installierte Apps sind immer bekannt

Jede App läuft oder nicht (binärer Zustandsraum) Graph wird aus Daten bestimmt (nächste Woche)

(43)

Graphische Modelle

Apps über die Zeit

(44)

Graphische Modelle

App Modell

84.0%

86.0%

88.0%

90.0%

92.0%

94.0%

96.0%

98.0%

00:0001:0002:0003:0004:0005:0006:0007:0008:0009:0010:0011:0012:0013:0014:0015:0016:0017:0018:0019:0020:0021:0022:00

(45)

Graphische Modelle

Smarte Ressourcennutzung

Apps bestimmten den Ressourcenverbrauch (Batterie, Netzwerk)

Vorhersage: “offline-Apps” genutztTrenne

Internetverbindung oder Wechsel zu Netz mit geringerer Bandbreite

Batterieverbrauch einzelner Apps geschätzt per Regression auf Gesamtverbrauch

Vorhersage der App-Nutzung kann dann für eine verbessert Batterielaufzeitprognose verwendet werden (auch: E-Auto, Roboter, Drohnen, usw.)

E[Batterie Nutzung zur Zeitt] =

∑AppP(App läuft umt) ⋅Batterie(App)

(46)

Graphische Modelle

Smarte Ressourcennutzung

Apps bestimmten den Ressourcenverbrauch (Batterie, Netzwerk)

Vorhersage: “offline-Apps” genutztTrenne

Internetverbindung oder Wechsel zu Netz mit geringerer Bandbreite

Batterieverbrauch einzelner Apps geschätzt per Regression auf Gesamtverbrauch

Vorhersage der App-Nutzung kann dann für eine verbessert Batterielaufzeitprognose verwendet werden (auch: E-Auto, Roboter, Drohnen, usw.)

E[Batterie Nutzung zur Zeitt] =

∑AppP(App läuft umt) ⋅Batterie(App)

(47)

Graphische Modelle

Smarte Geräte

(48)

Graphische Modelle

Smarte Geräte

(49)

Graphische Modelle

Straßennetze I

Daten: Sensoren messen Verkehrsfluss und Verkehrsdichte

Verstehen und verbessern des aktuellen Straßennetzes Unterstützung für Routenplanung

Autobahn.NRW

(50)

Graphische Modelle

Straßennetze II

Daten: Sensoren messen Verkehrsfluss und Verkehrsdichte

Verstehen und verbessern des aktuellen Straßennetzes Unterstützung für Routenplanung

Stadt Dublin

(51)

Graphische Modelle

Straßennetze III

Daten: Sensoren messen Verkehrsfluss und Verkehrsdichte

Verstehen und verbessern des aktuellen Straßennetzes Unterstützung für Routenplanung

Idee: Graphisches Modell der Straßennutzung

Graphische Struktur gegeben durch Straßennetz(!)G0

Straßengraph wird für jeden Zeitpunkt repliziert G=G1G2○ ⋅ ⋅ ⋅ ○GT

Zustandsraum gegeben durch “Auslastung” der Straße

(52)

Graphische Modelle

Güte

0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

STRF MRF 4NN 3NN 2NN 1NN RAND

(53)

Graphische Modelle

Verbesserte Nutzung des Straßennetzes

Durch Stau werden jedes JahrMillionen EURO umgewandelt inTonnenvonCO2

Optimierung des Straßennetzes durch Minimierung der Stauwahrscheinlichkeit

Verhindern von Staus durch frühe Vorhersagen und automatische Umleitungen

Verwendung von Stauwahrscheinlichkeiten in Navigationssystemen.

Referenzen

ÄHNLICHE DOKUMENTE

Informatik—Künstliche Intelligenz Computergestützte Statistik Technische Universität

Erster Ordnung, mit Gradient Einfache Implementierung Geringer Ressourcenverbrauch Vergleichsweise langsame Konvergenz Zweiter Ordnung, mit Hesse-Matrix. Hoher

Relationale Datenbanken ≡ Menge von Tabellen Relationales Datenbankmanagementsystem erlaubt Anfrage und Manipulation von Daten mittels Structured Query Language (SQL).

Nutzung eine Ordnung auf den Items um jeder Transaktionen einen eindeutigen String zuzuordnen Häufigkeiten identischer Teilstrings können dann in einem Prefixbaum

Informatik—Künstliche Intelligenz Computergestützte Statistik Technische Universität Dortmund..

baumberechnung sind die empirischen (aus den Daten bestimmte) Mutual- Informations zwischen den Knoten Gefundener Baum hat minimale. Kullback-Leibler Divergenz zum optimalen

Es gibt m Klassen von Neuronen—alle Neuronen einer Klasse c verwenden den gleichen Gewichtsvektor β c Jedes Neuron jeder Klasse (=Filter) ist mit einem anderen h × h Ausschnitt

The Elements of Statistical Learning; 14.3.6, 14.3.7 Graphical Models, Exponential Families, and Variational Inference; Example 3.5.. Merkmalsauswahl, Greedy Selection,