• Keine Ergebnisse gefunden

Kalman Filter [Kalman, 1960]

N/A
N/A
Protected

Academic year: 2022

Aktie "Kalman Filter [Kalman, 1960]"

Copied!
8
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Computer Vision: Kalman Filter

D. Schlesinger – TUD/INF/KI/IS

D. Schlesinger () Computer Vision: Kalman Filter 1 / 8

(2)

Bayesscher Filter

Ein Objekt kann sich in einemZustandx∈ X befinden.

Zum Zeitpunktisei die Wahrscheinlichkeitsverteilungpi(xi) bekannt (Achtung!!! Nicht der Zustandxi, sondern Wahrscheinlichkeitsverteilung).

Gegeben sei ein statistischesBewegungsmodellp(xi+1|xi)

Daraus ergibt sich die (a-priori) Wahrscheinlichkeitsverteilung der Zuständexi+i als pi+1(xi+1)=

P

xipi(xip(xi+1|xi)–Prediction

Gegeben sei einBeobachtungsmodellp(oi+1|xi+1),o∈ O Die Wahrscheinlichkeitsverteilung imi+1 Zeitpunkt ergibt sich als pi+1(xi+1)≡pi+1(xi+1|oi+1)∼pi+1(xi+1p(oi+1|xi+1)–Correction

(3)

Markovsche Ketten

Die ZustandsmengeX ist diskret.

+ ziemlich allgemein, da „beliebige“ diskrete Modelle repräsentiert werden können

−für große Zustandsräume meist nicht geeignet (wegen Zeitkomplexität)

„Markovsche Ketten mit kontinuierlicher Zustandsmenge“ ...

D. Schlesinger () Computer Vision: Kalman Filter 3 / 8

(4)

Kalman Filter [Kalman, 1960]

Zustände und Beobachtungen sind Vektorenx∈Rnbzw.o∈Rm Bewegungsmodell und Beobachtungsmodell sind linear

xi+1=A·xi+, oi=B·xi+δ AundBsindn×nbzw.n×mMatrizen

∈Rnundδ∈Rmsind Gaussch verteilte Störungen, d.h.

p() =N(0,Σ)∼exp(−TΣ−1 ), p(δ) =N(0,Σδ)∼exp(−δTΣ−1δ δ) mit Mittelwerten = 0 und Kovarianzmatrizen Σund Σδ

Beispiel: Zustandx= [x,y,vx,vy] beschreibt die Lage (x,y) und die Geschwindigkeit (vx,vy) eines Objektes imR2.

Es gilt für „fast“ gleichförmige Bewegung (Mt ist der Zeitschritt):

xi+1=xi+Mt·vx,i+O(Mt2) yi+1=yi+Mt·vy,i+O(Mt2) vx,i+1=vx,i+O(Mt) vy,i+1=vy,i+O(Mt)

(5)

Kalman Filter

In der Matrixform:

xi+1

yi+1

vx,i+1

vy,i+1

=

1 0 Mt 0

0 1 0 Mt

0 0 1 0

0 0 0 1

·

xi

yi

vx,i

vy,i

+

Für die Beobachtung analog:

h

o

x,i+1

oy,i+1

i

=

h

1 0 0 0

0 1 0 0

i

·

xi

yi

vx,i

vy,i

+δ

(nur die Lage wird beobachtet).

2D→3D (R6)→6D (mit Winkeln) (R12)→...

D. Schlesinger () Computer Vision: Kalman Filter 5 / 8

(6)

Kalman Filter

Annahme: im ersten Zeitpunktp(x0) =N(¯x0,Σ0) 1) Prediction ist die Faltung zweier Gaussiane

pi+1(xi+1) =

Z

pi(xip(xi+1|xi)dxi

Z

exp

−(xi−¯xi)TΣ−1i (xi−¯xi)

·

·exp

−(xi+1Axi)TΣ−1 (xi+1Axi)

dxi

⇒Ergebnis – wieder ein GaussianN(¯xi+10 0i+1).

2) Correction ist komponentenweise Multiplikation zweier Gaussiane pi+1(xi+1|oi+1) =pi+1(xi+1p(oi+1|xi+1)∼

∼exp

−(xi+1−¯xi+10 )TΣ0−1i+1(xi+1−¯x0i+1)

·

·exp

−(oi+1Bxi+1)TΣ−1δ (oi+1Bxi+1)

⇒Ergebnis – wieder ein GaussianN(¯xi+1i+1).

Die Wahrscheinlichkeitsverteilungen werden nicht explizit neu berechnet, sondern dieParameter(Mittelwerte und Kovarianzmatrizen) werden propagiert.

(7)

Kalman Filter – Anwendungsbeispiel

[Yedidya, Hartley, 2008]

„Verfolgung“ von Blutgefäßen:

Gesucht wird eine Trajektorie

Ein Objekt bewegt sich entlang einer Bahn (Blutgefäß) und wird dabei verfolgt

„Zustand“ beschreibt Position, Geschwindigkeit, Dicke, unterwegs gesehene Grauwerte usw.

D. Schlesinger () Computer Vision: Kalman Filter 7 / 8

(8)

Partikel Filter

Nachteil des Kalman Filters: nur Gaussiane – für komplizierte Zustandsräume ungeeignet.

(i) Besser – Mischungen von Gaussianen, z.B.p() =

P

kwkN(µkk).

Das Problem – die Anzahl der Komponenten wächst (selbst bei linearen Modellen).

P

i·

P

j =

P

ij6=

P

i – kann nicht parametrisch propagiert werden.

Ausweg: man approximiere ständig durch Mischung

mit konstanter Anzahl der Komponenten (nachχ2, Likelihood etc.).

(ii) Allgemeinere Fälle – nicht lineare Bewegungsmodelle, d.h.

Axwird zua(x) undBxwird zub(x) – z.B. lokal linearisieren ...

Zu (i) und (ii) – man approximiere die Berechnungen durch Sampling:

– würfelex0entsprechendpi(xi) – propagierex00=a(x0)

– berechnep(oi+1|x00) (vergleicheoi+1mitb(x00))

– entscheide, obx00in die Lernstichprobe aufgenommen wird (accept/reject)

→so generierte Lernstichprobe vonx00gehorchtpi+1(xi+1)

Manchmal ist es gar nicht nötig, die Wahrscheinlichkeitsverteilung zu spezifizieren – gearbeitet wird immer mit den Samples.

CONDENSATION (Conditional Density Propagation) – eine bestimmte Art davon.

Referenzen

ÄHNLICHE DOKUMENTE

In recent years, it has been shown that the SEIK filter is an ensemble-based Kalman filter that uses a factoriza- tion rather than square-root of the state error covari- ance

To this end the initialization of the second type of experiments, referred to as experiment ’B’, is conducted with the esti- mated state and covariance matrix after the second

prescribed state estimate and error covariance matrix approximately by a stochastic ensemble of model states?. Forecast: Evolve each of the ensemble member states with the

Ein Objekt bewegt sich entlang einer Bahn (Blutgefäß) und wird dabei verfolgt. „Zustand“ beschreibt Position, Geschwindigkeit, Dicke, unterwegs gesehene

It can also be used to estimate time- varying parameters in a linear regression and to obtain Maximum likelihood estimates of a state-space model.. This section discusses some

Studies about the properties of the ensemble transformation in different square-root filters (e.g., Wang et al. 2004; Sakov and Oke 2008) have shown that a symmetric matrix C

• The Error Subspace Transform Kalman filter (ESTKF) is an efficient ensemble square-root filter that com- putes the weights for the ensemble transformation di- rectly in the

If the influence of the observations is larger, OL requires a smaller localization length scale and, still, can lead to inferior assimilation results than using CL.. The