• Keine Ergebnisse gefunden

2.1 Berechnung der POD-Basis (endlich-dimensionaler Fall)

N/A
N/A
Protected

Academic year: 2022

Aktie "2.1 Berechnung der POD-Basis (endlich-dimensionaler Fall)"

Copied!
13
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Handout zum Seminarvortrag

“Modellreduktion mittels Proper Orthogonal Decomposition”

Arthur Fleig 18. Juli 2012

1 Problemstellung und Motivation

Zur Motivation betrachten wir das folgende konkrete Optimalsteuerungsproblem mit parti- ellen Differentialgleichungen als Nebenbedingungen:

Seien Ω⊂R2 beschr¨anktes Gebiet und T, λ >0. Betrachte

(y,u)∈W×Umin J(y, u) := 1 2

T

Z

0

Z

|y−yQ|2dxdt+λ 2

T

Z

0

Z

|u|2dxdt (1)

unter den Nebenbedingungen

ty−∆y=Bu auf ]0, T[×Ω =:Q (2)

y=yD auf ]0, T]×ΓD (3)

∂y

∂ν =yN auf ]0, T]×ΓN (4)

y(0,·) =y0 auf Ω (Temperaturstartverteilung) (5) wobei ∂Ω =: ΓD ∪˙ ΓN, yQ, yD, yN, y0 vorgegeben, W = U = L2(Q) und B : U → L2(0, T;V0). V0 ist der Dualraum zum Hilbertraum V. In der schwachen Formulierung ist V der Raum der Testfunktionen. yD, yN und y0 sind Rand- und Anfangswerte und yQ der angestrebte Zustand. Gleichung (2) heißt W¨armeleitungsgleichung.

Wir m¨ochten das Problem (1) - (5) numerisch l¨osen, wir m¨ussen es also diskretisieren.

Dies f¨uhrt wiederum auf ein nichtlineares Optimierungsproblem mit sehr vielen Variablen;

so vielen, dass das Problem auf den heutigen Computern nicht gel¨ost werden kann.

Ein Ansatz, der daher verfolgt wird, sind die sogenannten “Reduced order methods”, die, wie der Name schon sagt, versuchen, mit (wesentlich) weniger Variablen auszukommen und trotzdem das Problem mit annehmbarer Genauigkeit zu l¨osen. Dazu geh¨ort auch das POD-Verfahren, das im Folgenden vorgestellt wird.

Die POD-Methode ist keinesfalls auf das obige Optimalsteuerungsproblem beschr¨ankt.

Wir werden uns im Rahmen dieses Seminarvortrags allerdings an [1] orientieren und uns entsprechend auf parabolische Differentialgleichungen einschr¨anken.

(2)

2 Die POD-Methode

Die Grundidee der POD-Methode ist einfach: Gegeben sei ein dynamisches System. Pro- jiziere dieses System in einen Unterraum, in dem die Hauptdynamik stattfindet, d.h. ver- suche, die wesentlichen Informationen mit (m¨oglichst) wenigen Basiselementen zu behal- ten. Im Gegensatz zu der “Finite Element”-Methode sollen diese Basiselemente Eigenschaf- ten/Charakteristika der erwarteten L¨osung besitzen. Im Folgenden m¨ochten wir diese Ba- siselemente bestimmen.

2.1 Berechnung der POD-Basis (endlich-dimensionaler Fall)

Betrachte ein dynamisches System, dessen Zustandy=y(x, t) mit Hilfe der Finiten Elemente diskretisiert wurde, d.h. wir haben

yh(x, tj) =

n

X

i=1

ijϕi(x), x∈Ω, j = 1, . . . , m,

wobei Ω⊂Rdbeschr¨anktes Gebiet,d∈ {2,3}, ϕi, i= 1, . . . , ndie Finite-Element-Funktionen beschreiben und in ˜Y ∈ Rn×m die Koeffizienten des obigen Galerkin-Ansatzes stehen. Das Ziel ist die Approximation der L2-Funktionen {yh(·, tj)}mj=1.

Zun¨achst sollen dieL2-Funktionen{yh(·, tj)}mj=1durch eine einzige normierteL2-Funktion ψ ∈ span{ϕ1, . . . , ϕn} im Mittel bestm¨oglich approximiert werden, d.h. das folgende Opti- mierungsproblem ist zu l¨osen:

max

m

X

j=1

|hyh(·, tj), ψiL2(Ω)|2 s.t. kψk2L2(Ω) = 1 (P1)

Die POD-Basisfunktion ψ kann geschrieben werden als:

ψ(x) =

n

X

i=1

viϕi(x).

Weil die ϕi fest sind, l¨asst sich (P1) damit umschreiben zu:

max

m

X

j=1

*

yh(·, tj),

n

X

i=1

viϕi +

L2(Ω)

2

s.t.

n

X

i=1

viϕi

2

L2(Ω)

= 1.

Sei v := (v1, . . . , vn)T. Die zu (P1) geh¨orige Lagrange-Funktion L:Rn×R→R ist gegeben durch:

L(v, λ) :=

m

X

j=1

*

yh(·, tj),

n

X

i=1

viϕi +

L2(Ω)

2

1−

n

X

i=1

viϕi

2

L2(Ω)

(3)

Man kann zeigen, dass ein Lagrange-Multiplikatorλund eine L¨osungv f¨ur das Problem (P1) existieren, die ∇L(v, λ) = 0 erf¨ullt. ∇L(v, λ) = 0 ist in diesem Fall eine notwendige und hinreichende Bedingung. Daher soll im Folgenden∇L(v, λ) bzw. speziell∇vL(v, λ) bestimmt werden.

Bezeichne mit M ∈Rn×n die symmetrische, positiv definite “Massenmatrix”, d.h.Mij = hϕi, ϕjiL2(Ω). Es gilt f¨ur i= 1, . . . , n (vgl. [2], Seite 17):

viL(v, λ) = ∂

∂vi

m

X

j=1

* n X

k=1

kjϕk,

n

X

l=1

vlϕl +

L2(Ω)

2

+ λ

1−

* n X

k=1

vkϕk,

n

X

l=1

vlϕl +

L2(Ω)

=. . .

= 2

MY˜Y˜TM v

i

−2λ(M v)i = 0

⇔(MY˜Y˜TM v)i =λ(M v)i Also:∇vL(v, λ) = 0⇔MY˜Y˜TM v =λM v.

DaM symmetrisch positiv definit ist, besitztM eine eindeutige “Wurzel”M1/2, die durch M1/2M1/2 = M definiert ist. M1/2 ist selbst symmetrisch und positiv definit, insbesondere existiert auch die InverseM−1/2. Definiere nunY :=M1/2Y˜ ∈Rn×m und u:=M1/2v ∈Rn. Dann l¨asst sich die notwendige Bedingung MY˜Y˜TM v =λM v schreiben als:

M1/2Y YTu=λM1/2u

Multiplikation von links mit M−1/2 liefert schließlich das folgende symmetrische Eigenwert- problem:

Y YTu=λu (6)

Y YT ∈Rn×n ist symmetrisch (klar) und positiv semi-definit:

xT(Y YT)x= (YTx)T(YTx) = YTx

2 ≥0, x∈Rn

⇒ Alle Eigenwerteλ von Y YT sind reell und ≥0:

0≤xTY YTx=xT(λx) = λkxk2, wobei x Eigenvektor von Y YT. Man kann nun zeigen:

ˆ Jeder Eigenvektor von Y YT erf¨ullt die notwendige Bedingung (6).

ˆ Sei ˆu der zum gr¨oßten Eigenwert ˆλ geh¨orende Eigenvektor von Y YT. Das zu ˆv :=

M−1/2uˆgeh¨orige normierteψ l¨ost das Problem (P1) und bildet die sogenanntePOD- Basis von Rang 1.

(4)

Als n¨achstes wollen wir das Problem (P1) verallgemeinern. Die im Mittel optimale Ap- proximation der L2-Funktionen {yh(·, tj)}mj=1 durch k ∈ N paarweise orthonormale L2- Funktionenψi f¨uhrt zu der folgenden Verallgemeinerung von (P1):

ψmax1,...,ψk k

X

i=1 m

X

j=1

|hyh(·, tj), ψiiL2(Ω)|2 s.t. hψi, ψjiL2(Ω)ij (Pk) Analog zu (6) l¨asst sich die Optimalit¨atsbedingung f¨ur (Pk) herleiten:

Y YTuiiui, i= 1, . . . , k, (7) wobei ui ∈Rn. Seien die ui die Eigenvektoren, die zu den k gr¨oßten Eigenwerten λ1, . . . , λk geh¨oren. Die zu vi = M−1/2ui geh¨origen normierten ψi bilden dann eine POD-Basis von Rang k.

Statt der Berechnung der Eigenwerte und –vektoren l¨asst sich Problem (Pk) auch mit der sogenannten Singul¨arwertzerlegung (Singular value decomposition, kurz: SVD) l¨osen.

Satz 2.1 (Singul¨arwertzerlegung)

Sei Y ∈Rn×m, d:=Rang(Y)≤min{m, n}

⇒ ∃U :=

u1, . . . , un

∈ Rn×n, V :=

v1, . . . , vm

∈ Rm×m jeweils orthonormal, σi ∈ R, i = 1, . . . , d, σ1 ≥. . .≥σd>0 mit

Y =UΣVT, wobei Σ =

D 0 0 0

und D=diag(σ1, . . . , σd)∈Rd×d. Weiter gilt:

Y viiui und YTuiivi f¨ur i= 1, . . . , d (8) Beweis. Siehe [3], Seite 327f.

Korollar 2.2

(a) Y aus Satz 2.1 l¨asst sich schreiben als:

Y =

u1, . . . , ud

D

v1, . . . , vd

T

=:UdD(Vd)T (b) Es gilt:

YTY vi =YTσiuii2vi Y YTui =Y σivi2iui

d.h. die vi bzw. ui sind Eigenvektoren von YTY bzw. Y YT zu den Eigenwerten σi2, i = 1, . . . , d.

(5)

(c) Die Eigenwerte vonY YT und YTY sind gleich und die Eigenvektorenui k¨onnen aus den vi berechnet werden durch

ui = 1 σi

Y vi, i= 1, . . . , d.

Beweis. Aussage (a) gilt offensichtlich aufgrund der Gestalt von Σ. Aussage (b) erh¨alt man durch Multiplizieren der Gleichungen in (8) von links mit YT bzw. Y. Aussage (c) ist eine direkte Folgerung aus (b) und (8).

Korollar 2.3

Die zu den ui aus der SVD geh¨origenψi l¨osen das Problem (Pk), wobei λi2i, i= 1, . . . , k mit k ≤d.

Beweis. Der Beweis ist analog zu dem aus [4], Seite 4ff.

Bemerkung 2.4

Man kann also w¨ahlen, ob man

ˆ die Eigenwerte von YTY ∈Rm×m (sinnvoll f¨ur mn),

ˆ die Eigenwerte von Y YT ∈Rn×n (sinnvoll f¨ur mn) oder

ˆ die Singul¨arwertzerlegung von Y berechnet.

2.2 Berechnung der POD-Basis (∞-dimensionaler Fall)

Die Berechnung der POD-Basis im ∞-dimensionalen Fall ist prinzipiell analog zum endlich- dimensionalen Fall und wird daher nur skizziert. Detaillierte Ausf¨uhrungen sind in [1] zu finden.

Wir betrachten als abstraktes dynamisches System das nichtlineare Evolutionsproblem d

dthy(t), ϕiH +a(y(t), ϕ) +hF(y(t)), ϕiV0,V =hf(t), ϕiH (N EPa) f¨ur alle ϕ∈V und t∈]0, T] fast ¨uberall sowie

y(0) =y0 inH. (N EPb)

Dabei seien

ˆ V, H reelle separable Hilbertr¨aume,

ˆ V dicht inH und kompakt eingebettet in H,

ˆ V0 der Dualraum von V,

ˆ a:V×V →Reine symmetrische, beschr¨ankte,V-elliptische Bilinearform mithϕ, ψiV =:

a(ϕ, ψ),

(6)

ˆ F :V ×V →V0 bilinear und stetig mitF(ϕ) =F(ϕ, ϕ) als abk¨urzende Schreibweise,

ˆ f ∈C([0, T];H),

ˆ y0 ∈V und

ˆ hF(y(t)), ϕiV0,V :=F(y(t))(ϕ) (“duality pairing”)

Wir m¨ochten nun den Raum der Testfunktionen V durch Vk := span{ψ1, . . . , ψk} er- setzen, wobei ψi, i = 1, . . . , k die ersten k POD-Basisfunktionen sind. Ziel ist wieder die Berechnung der POD-Basisfunktionen. Wie in Abschnitt 2.1 haben wir daf¨ur ein Optimie- rungsproblem zu l¨osen. Seien dazu

ˆ y die eindeutige L¨osung f¨ur das Problem (N EP),

ˆ die sogenannten “Snapshots” yj := y(tj), j = 0, . . . , m f¨ur 0 =: t0 < . . . < tm ≤ T gegeben,

ˆ V := span{y0, . . . , ym}mit dim V =d und

ˆ {ψi}di=1 eine orthonormale Basis von V.

MitXbezeichnen wir im FolgendenV oderH, es ist beides m¨oglich. Die Idee ist, die L¨osung y mit Hilfe der orthonormalen Basis von V zu approximieren, d.h. wir betrachten X = V. Im Hinblick auf die sp¨atere Anwendung (vgl. Abschnitt 3.2) ist es n¨utzlich, auch X =H zu untersuchen.

Wir k¨onnen die Snapshots yj mit der orthonormalen Basis {ψi}di=1 darstellen:

yj =

d

X

i=1

hyj, ψiiXψi, j = 0, . . . , m

Wir m¨ochten nun die “optimale” orthonormale Basis f¨ur die Approximation der yj finden.

“Optimal” heißt, dass wir dieyj im Mittel am besten approximieren m¨ochten, d.h. es ist f¨ur k ≤d das folgende Optimierungsproblem zu l¨osen:

min

ψ1,...,ψk

m

X

j=0

αj

yj

k

X

i=1

hyj, ψiiXψi

2

X

s.t.hψi, ψjiXij (Pk) Dabei sind dieαj ≥0 Gewichte.

Das obige Minimierungsproblem (Pk) scheint zun¨achst ein anderes Problem zu sein als der endlich-dimensionale Pendant (Pk). In Wahrheit ist (Pk) jedoch ¨aquivalent zu

max

ψ1,...,ψk

k

X

i=1 m

X

j=0

αj|hyj, ψiiX|2 s.t.hψi, ψjiXij ( ˜Pk) und damit dem bereits bekannten Maximierungsproblem (Pk) sehr ¨ahnlich.

(7)

Bemerkung 2.5

Die Gewichte αj aus (Pk) k¨onnen dazu verwendet werden, das folgende Integral zu approxi- mieren:

T

Z

0

y(t)−

k

X

i=1

hy(t), ψiiXψi

2

X

Dies f¨uhrt auf die sogenannte “kontinuierliche POD-Methode” (vgl. z.B. [1]), die unter an- derem f¨ur Fehlerabsch¨atzungen verwendet werden kann.

Wie im endlich-dimensionalen Fall erh¨alt man die L¨osung von (Pk) durch L¨osen eines Eigenwertproblems. Definiere dazu den linearen beschr¨ankten Operator

Ym :Rm+1 →X, Ymv :=

m

P

j=0

αjvjyj

Dann ist der adjungierte Operator gegeben durch:

Ymz :X →Rm+1, Ymz = (hz, y0iX, . . . ,hz, ymiX)T. Damit lassen sich nun definieren:

Rm :=YmYm ∈ L(X), Rmz =

m

P

j=0

αjhz, yjiXyj

Km :=YmYm ∈R(m+1)×(m+1), (Km)ijjhyj, yiiX, i, j = 0, . . . , m

Die POD-Basisfunktionen ψi erh¨alt man schließlich durch L¨osen des folgenden Eigenwert- problems:

Rmψiiψi, i= 1, . . . , k,

wobei λ1 ≥. . .≥λd>0 alle positiven Eigenwerte vonRm sind und k≤d <∞ ist.

3 Anwendungen der POD-Methode

Bisher lag der Fokus auf der Berechnung der POD-Basis. Wir m¨ochten jetzt mit Hilfe der POD-Basis ein reduziertes Modell eines dynamischen Systems mittels Galerkin-Projektion erhalten. Abschließend soll das eingangs erw¨ahnte Optimalsteuerungsproblem mit Hilfe der POD-Methode gel¨ost werden.

3.1 Galerkin-Projektion f¨ ur dynamische Systeme

Wir betrachten wieder das nichtlineare Optimierungsproblem (N EP). Sei ein “Snapshot- Gitter”{tj}mj=0 mit zugeh¨origen Snapshots y0, . . . , ym gegeben.1 Der Raum der Testfunktio- nenV wird, wie in Abschnitt 2.2 beschrieben, durchVkersetzt. F¨ur die L¨osung des Systems

1Es kann sinnvoll sein, nicht nury(tj), sondern auch Differenzenquotienten, z.B. die Vorw¨artsdifferenz, als Snapshots zu verwenden, vgl. [1].

(8)

verwenden wir den Ansatz:

Y(t) =

k

X

i=1

αi(t)ψi (9)

Wir setzen diesen Ansatz in (N EP) ein und erhalten das folgendek-dimensionale nichtlineare dynamische System von gew¨ohnlichen Differentialgleichungen f¨ur die Funktionen αi, i = 1, . . . , k:

Mα˙ +Aα+n(α) =F (10)

M α(0) = (hy0, ψjiH)kj=1 (11) Dabei sind:

ˆ M :=

i, ψjiH

k

i,j=1 (POD-Massenmatrix) (M =Ik fallsX =H in (Pk))

ˆ A:=

a(ψi, ψj)k

i,j=1 (POD-Steifigkeitsmatrix)

ˆ n(α) := (hF(Y), ψjiV0,V)kj=1 (Nichtlinearit¨at)

ˆ F := (hf, ψjiH)kj=1 (rechte Seite)

Dieses System ist wesentlich handhabbarer als das urspr¨ungliche Problem.

Nat¨urlich kann die POD-Methode auch auf gew¨ohnliche Differentialgleichungen und mit

“Finite Differenzen” diskretisierte partielle Differentialgleichungen angewendet werden:

Beispiel 3.1

Betrachte das Gebiet Ω wie in Abb. 1 mit r = √

3 und f¨ur T > 0 das folgende Anfangs- Randwertproblem:

ΓN

ΓD Ω

r

(0,0)

(0,8) (8,8)

(12,4)

(12,0)

Abb. 1: Gebiet Ω

ty−∆y= 2 auf ]0, T[×Ω y= 0 auf ]0, T]×ΓD

∂y

∂ν = 0 auf ]0, T]×ΓN

y(0,·) = 0 (Temperaturstartverteilung)

In diesem Beispiel tritt weder eine Steuerung u noch ein Parameter in der partiellen Differentialgleichung auf, es handelt sich also nicht um eine “¨ubliche” Problemstellung f¨ur POD. Dennoch eignet sich dieses Beispiel, das Potential der POD-Methode zu verdeutlichen.

(9)

Eine Approximation durch “Finite Differenzen” im Ort liefert das folgende System von gew¨ohnlichen Differentialgleichungen

ty˜=Ay˜+b =:f(˜y), y(0) = 0,˜ (12) dessen Dimension von der Feinheit der Ortsdiskretisierung abh¨angt. In der Regel ist die Dimension groß.

Angenommen wir m¨ochten das System im Intervall[0,50]numerisch l¨osen.2 Je gr¨oßer das DGL-System ist und je gr¨oßer das gew¨unschte Zeitintervall, auf dem die L¨osung berechnet werden soll, desto l¨anger ist die Rechenzeit. Wir l¨osen das DGL-System (12) daher zun¨achst auf[0,1]und versuchen, ein reduziertes Modell herzuleiten, um dieses anschließend auf [0,50]

zu l¨osen.

Wir erhalten also zun¨achst Snapshots f¨ur die Zeiten 0 =: t0 < . . . < tm ≤ 1, die wir mit y(tˆ j), j = 0, . . . , m bezeichnen und in der Matrix Yˆ :=

ˆ

y(t0), . . . ,y(tˆ m)

festhalten. Sei Rang( ˆY) =d. Die in Satz 2.1 vorgestellte Singul¨arwertzerlegung von Yˆ liefert:

Yˆ =UdD(Vd)T.

Statt Ud k¨onnte man Uk, d.h. die ersten k < d Spalten von U, nehmen, um Yˆ zu approxi- mieren. Das bietet sich an, wenn σ1 ≥. . .≥σkσk+1 ≥. . .≥σd>0.

Durch die Projektion

˜

yneu := (Uk)Ty˜ (⇒y˜≈Ukneu) erh¨alt man das folgende k-dimensionale DGL-System:

tneu= (Uk)Tf(Ukneu) = (Uk)TA(Ukneu) + (Uk)Tb, y˜neu(0) = (Uk)T0 = 0 (13) Nun l¨osen wir (13) auf [0,50]. In den Abbildungen 2 bis 5 ist jeweils die L¨osung, die die W¨armeverteilung widerspiegelt, f¨ur 8172 Gitterpunkte zum Endzeitpunkt T = 50 f¨ur ver- schiedene k dargestellt.

3.2 Anwendung auf Optimalsteuerungsprobleme

Wir wollen die bisherigen Erkenntnisse auf Optimalsteuerungsprobleme anwenden. Wir de- finieren dazu f¨urT > 0 den Hilbertraum

W(0, T) :={ϕ∈L2(0, T;V) :ϕt∈L2(0, T;V0)}.

Sei U ein Hilbertraum und Uad ⊂ U abgeschlossen und konvex. Wir betrachten wieder das nichtlineare Evolutionsproblem (N EP), aber mit einer Steuerunguin der rechten Seite, also

d

dthy(t), ϕiH +a(y(t), ϕ) +hF(y(t)), ϕiV0,V =h(Bu)(t), ϕiV0,V (N EPau)

2Wir m¨ochten die explizite L¨osungsformel f¨ur lineare DGL-Systeme nicht verwenden. Stattdessen ver- wenden wir die Matlab-Routine ode15s f¨ur steife Differentialgleichungen.

(10)

0 2

4 6

8 10

12 0 2

4 6

8

0 2 4 6 8

Abb. 2: ˜y(50), (Original), Max = 9.52819

0 2

4 6

8 10

12 0 2

4 6

8

0 2 4 6 8

Abb. 3: ˜yneu(50), k= 10, Max = 9.18297

0 2

4 6

8 10

12 0 2

4 6

8

0 2 4

Abb. 4: ˜yneu(50), k = 1, Max = 4.79432

0 2

4 6

8 10

12 0 2

4 6

8

0 2 4 6 8

Abb. 5: ˜yneu(50), k=d= 93, Max = 9.52200 f¨ur alle ϕ∈V auf ]0, T] fast ¨uberall und

y(0) =y0 inH, (N EPbu)

wobei B:U →L2(0, T;V0) stetiger linearer Operator. Wir machen die folgende Annahme:

Annahme 3.2

∀u∈Uad, y0 ∈H ∃1y∈W(0, T): y l¨ost (N EPu).

Das Kostenfunktional J :W(0, T)×U →R definieren wir durch J(y, u) := α1

2 ky−yQk2L2(Q)+ α2

2 ky(T)−yk2L2(Ω)+ σ

2kuk2U, (14) wobei

(11)

ˆ Ω⊂Rd beschr¨anktes Gebiet, d∈N,

ˆ Q:=]0, T[×Ω,

ˆ yQ ∈L2(Q), y ∈L2(Ω) gew¨unschte Zust¨ande und

ˆ α1, α2, σ >0.

Das Optimalsteuerungsproblem ist dann gegeben durch

minJ(y, u) s.t. (y, u)∈W(0, T)×Uad l¨ost (N EPu). (CP) Das dynamische System (N EPu) wird nun durch das reduzierte System aus Abschnitt 3.1 ersetzt, d.h. wir verwenden den Ansatz (9) und das nichtlineare System gew¨ohnlicher Dif- ferentialgleichungen (10),(11), wobeiF entsprechend ersetzt wird durch (h(Bu)(t), ψjiH)kj=1. Damit erhalten wir das reduzierte Optimalsteuerungsproblem

minJ(α, u) s.t. (α, u)∈H1(0, T)k×Uad l¨ost (10),(11). (SCP) Essentiell f¨ur die POD-Methode ist die Wahl der Snapshots. Es ist nicht klar, ob Snaps- hots f¨ur eine Steuerung u1 auch die Dynamik f¨ur u2 6= u1 sinnvoll approximieren k¨onnen.

Zum Abschluss wird daher ein L¨osungsversuch in Form eines adaptiven Algorithmus, der in [1] vorgestellt wurde, gemacht.

Algorithmus 3.3 (POD-basierende adaptive Steuerung)

W¨ahle eine monoton wachsende Zahlenfolge Nj, eine Startsteuerung u0 und sei ein ε > 0 vorgegeben.

1. Seien Snapshots yi0, i= 1, . . . , N0 gegeben und setze j := 1.

2. Setze (oder bestimme)k und berechne die POD-Basisfunktionen und damit den Raum Vk.

3. L¨ose das reduzierte Optimalsteuerungsproblem (SCP), um die Steuerunguj zu erhalten.

4. Berechne den zu uj zugeh¨origen Zustand yj und nehme die Snapshots yji, i = Nj−1 + 1, . . . , Nj zu den bisherigen Snapshots yij−1, i= 1, . . . , Nj−1 hinzu.3

5. Falls |uj −uj−1|< ε, STOP. Ansonsten setze j :=j + 1 und gehe zu 2.

Wir m¨ochten versuchen, Algorithmus 3.3 auf das in der Motivation erw¨ahnte Optimal- steuerungsproblem anzuwenden, wobei wir wie in Beispiel 3.1 mit den Finiten Differenzen arbeiten.

3Alternativ: Verwerfe die bisherigen Snapshots und behalte nur die neuen Snapshots.

(12)

Beispiel 3.4

Betrachte wieder das Ω aus Beispiel 3.1 (Abbildung 1). Das Optimalsteuerungsproblem sei gegeben durch:

(y,u)∈Wmin×UJ(y, u) := 1 2

T

Z

0

Z

|y−2|2dxdt+λ 2

T

Z

0

Z

|u|2dxdt

unter den Nebenbedingungen

ty−∆y=Bu auf ]0, T[×Ω =: Q y= 0 auf ]0, T]×ΓD

∂y

∂ν = 0 auf ]0, T]×ΓN

y(0,·) = 0 (Temperaturstartverteilung) sowie

−5≤u≤5 wobei W =U =L2(Q),B:U →L2(0, T;V0).

Wir w¨ahlenT = 1, λ= 0.2und diskretisieren die obige PDGL wie in Beispiel 3.1 beschrie- ben und erhalten als projizierte DGL die Gleichung (13), wobei wir b durch die Steuerung u ersetzen. Diese projizierte DGL ist die DGL, die man dann in (SCP) zu l¨osen hat.

3.3 Offene Fragen

Bisher offene Fragen sind unter anderem:

ˆ Welche Snapshots nehmen? Differenzenquotienten einbeziehen?

ˆ Konvergiert Algorithmus 3.3?

ˆ Fehlerabsch¨atzungen?

(13)

Literatur

[1] Hinze, M. ; Volkwein, S.: Proper Orthogonal Decomposition Surrogate Models for Nonlinear Dynamical Systems: Error Estimates and Suboptimal Control. In: Dimension Reduction of Large-Scale Systems, Lecture Notes in Computational and Applied Mathe- matics (2005), S. 261–306

[2] Kahlbacher, M.: Proper Orthogonal Decomposition for Parameter Estimation of bilinear elliptic problems. 2006. – Online verf¨ugbar auf http://www.uni- graz.at/imawww/projects/pod/DA M Kahlbacher.pdf; zuletzt aufgerufen am 16.07.2012, 14:45 Uhr

[3] Noble, B.: Applied Linear Algebra. Second Edition. Englewood Cliffs, NJ:Prentice-Hall, 1977 and 1969

[4] Volkwein, S.: Model Reduction using Proper Orthogonal Decom- position. 2011. – Online verf¨ugbar auf http://www.math.uni- konstanz.de/numerik/personen/volkwein/teaching/POD-Vorlesung.pdf; zuletzt auf- gerufen am 16.07.2012, 14:45 Uhr

Referenzen

ÄHNLICHE DOKUMENTE

Aufbauend auf dem zuvor beschriebenen Anwendungsfall sollen die beiden Werkzeuge EMF Compare und Model Matcher (siehe Kapitel 2.2) f¨ur die Berechnung der Modell- differenzen

Das Framework umfasst ein Quellen- und Anfrage- beschreibungsformat S DF [GK03], welches als Grundlage zur Integration passiver und ak- tiver Quellen dienen kann, einem auf S

(4) Fullen Sie mit Hilfe der Funktion Table folgende Tabelle aus:. Zahl ASCII-Zeichen Hex-Darstellung

Alexey Ustinov Physik V - Festkörperphysik.. Experimentelle Bestimmung von

In this section numerical results are presented, where option prices in the Merton’s jump-diffusion model are computed by solving the pricing PIDE numerically.. The annualized

Elliptic-parabolic systems, semilinear equations, Newton method, proper orthogonal decomposition, empirical interpolation, error estimates.. The authors gratefully acknowledges

Model reduction, proper orthogonal decomposition, optimal snapshot locations, Helmholtz equation, optimal control, adaptive basis generation.. The author gratefully acknowledges

Computing POD basis functions for the ROM utilizing the greedy method is a standard approach in the reduced basis method for parametrized systems.. In the case of time