• Keine Ergebnisse gefunden

Differentialgleichungen f¨ ur Ingenieure WS 06/07

N/A
N/A
Protected

Academic year: 2021

Aktie "Differentialgleichungen f¨ ur Ingenieure WS 06/07"

Copied!
27
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Differentialgleichungen f¨ ur Ingenieure WS 06/07

12. Vorlesung Michael Karow

Thema heute:

• 1-dimensionale Randwertprobleme: der instation¨are Fall

• der Produktansatz von Bernoulli

• Eigenwerte und Eigenfunktionen

• Selbstadjungierte Probleme und Entwickung nach Eigenfunktionen

• Homogene Anfangs-Randwertprobleme

(2)

Einleitung

In der letzten VL wurden folgende Beispiele f¨ur lineare partielle DGL angegeben (1) µ(x) ˙u(x, t) − (k(x)u(x, t)) = f(x, t) kurz: µu˙ − (k u) = f,

(2) µ(x) ¨u(x, t) − (k(x)u(x, t)) = f(x, t) kurz: µu¨− (k u) = f. (3) µ(x) ¨u(x, t) + (k(x)u(x, t)′′)′′ = f(x, t) kurz: µu¨+ (k u′′)′′ = f. Hinzu kommen Randbedingungen.

Obige DGL kommen z.B. bei folgenden Problemen vor:

(1) W¨armeleitung, Diffusion

(2) Longitudinal- und Torsionsschwingungen eines geraden Stabes, schwingende Saite (3) Balkenbiegung

Alle Beispiele sind von der Form

µ(x) ˙u(x, t) + L[u](x, t) = f(x, t) oder µ(x) ¨u(x, t) +L[u](x, t) = f(x, t) (∗) mit einem nur die Abh¨angigkeit von x betreffenden linearen Differentialoperator

L = an(x) dn

dxn + an1(x) dn1

dxn1 + . . .+ a1(x) d

dx + a0(x).

Der station¨are Fall (bei dem u und f nicht von der Zeit abh¨angen) lautet L[u](x) = f(x). Dieser Fall wurde in der fr¨uheren VL diskutiert.

Nun betrachten wir den instation¨aren Fall (∗), zun¨achst mit f = 0.

(3)

Der Separationsansatz von Bernoulli f¨ur den homogenen Fall Wir betrachten homogene lineare partielle DGL der Form

µ(x) ˙u(x, t) + L[u](x, t) = 0 oder µ(x) ¨u(x, t) +L[u](x, t) = 0 (∗) Die Randbedingungen bleiben zun¨achst unber¨ucksichtigt.

Um spezielle L¨osungen zu finden, macht man den

Separationsansatz (Produktansatz) von Bernoulli:

u(x, t) = T(t)U(x)

Man sucht also zun¨achst L¨osungen u, die sich als ein Produkt einer nur vom Ort und einer nur von der Zeit abh¨angigen Funktion darstellen lassen.

Wir werden gleich folgendes sehen:

1. Der Produktansatz f¨uhrt auf ein Eigenwertproblem f¨ur den Operator L.

2. Man erh¨alt alle L¨osungen von (∗) indem man die Separationsl¨osungen summiert (auch unendlich viele).

(4)

Einsetzen des Produktansatzes u(x, t) = T(t)U(x) in die DGL µ(x) ¨u(x, t) +L[u](x, t) = 0

ergibt

µ(x) ¨T(t)U(x) + T(t)L[U](x) = 0, (∗)

denn der Differentialoperator L wirkt nur auf den von x abh¨angigen Anteil U(x).

Nun stellt man (∗) so um, dass die von x und von t abh¨angigen Terme jeweils auf einer Seite stehen:

L[U](x)

µ(x)U(x) = −T¨(t) T(t).

H¨alt man x fest und l¨asst t variieren, dann stellt man fest, dass der Quotient −T¨(t)/T(t) nicht von t abh¨angt, also gleich einer Konstanten λ ∈ C ist. Damit bekommt man

L[U](x)

µ(x)U(x) = −T¨(t)

T(t) = λ.

Durch Umstellen folgen die beiden Gleichungen

L[U](x) − λµ(x)U(x) = 0, T¨(t) + λT(t) = 0.

Die zweite Gleichung hat (auch bei komplexem λ) die allgemeine L¨osung T(t) =

A cos(√

λt− φ) = c1 cos(√

λt) +c2 sin(√

λt) falls λ 6= 0,

c1 + c2t falls λ = 0.

Die erste Gleichung ist im allgemeinen schwieriger. Genaueres auf den n¨achsten Seiten.

(5)

Eigenfunktionen und Eigenwerte

Die eben hergeleitete Gleichung L[U](x) − λµ(x)U(x) = 0 kann man auch auf folgende Weisen hinschreiben:

L[U](x) = λµ(x)U(x),

(1/µ(x))L[U](x) = λU(x) (∗).

Analogie zur linearen Algebra: Seien A, M ∈ Cn×n.

1) Ein Vektor v ∈ Cn heisst Eigenvektor von A zum Eigenwert λ ∈ C, falls A v = λ v.

2) Ein Vektor v ∈ Cn heisst Eigenvektor von (A, M) zum Eigenwert λ ∈ C, falls A v = λ M v.

Definition:

1) Eine Funktion U heisst Eigenfunktion des Operators L zum Eigenwert λ, falls L[U](x) = λ U(x).

2) Eine Funktion U heisst Eigenfunktion des Paares (L, µ) zum Eigenwert λ, falls L[U](x) = λ µ(x)U(x).

In beiden F¨allen muss U die Randbedingungen erf¨ullen, falls welche vorgegeben sind.

Bem.: (∗) besagt, dass U Eigenfunktion zum Operator L[Ue ] = (1/µ(x))L[U](x) ist.

(6)

In den vielen F¨allen kann man die Eigenfunktionen nur numerisch berechnen. Geschlos- sene L¨osungen gibt es aber, wenn µ eine konstante Funktion ist, und der Operator L konstante Koeffizienten hat.

Beispiel 1: Betrachte das Randwertproblem

µ¨u − τ u′′ = 0, u(0) = u(l) = 0

(Longitudinal- bzw. Torsionsschwingungen eines Stabes, schwingende Saite) Der Separationsansatz u(x, t) = T(t)U(x) f¨uhrt auf das Eigenwertproblem

−τ

µU′′(x) = λU(x), λ ∈ C mit der allgemeinen L¨osung

U(x) = c1 cos

rλµ τ x

!

+ c2 sin

rλµ τ x

!

, c1, c2 ∈ C. Einsetzen der Randbedingungen ergibt

U(0) = 0 ⇒ c1 · 1 +c2 · 0 = 0 ⇒ c1 = 0. U(l) = 0 ⇒ c2 sin

rλ µ τ l

!

= 0 ⇒

rλ µ

τ l = j π, j ∈ Z λ = λj = τ µ

j π

l

2

, j ∈ N0. Die Eigenfunktionen sind also die skalaren Vielfachen von

Uj(x) = sin

j µ τ x

!

= sin

jπ l x

, j ∈ N. Die Separationsl¨osungen sind von der Form

u(x, t) = A cos(p

λj t− φ)Uj(x) = A cos

rτ µ

l t − φ

sin

jπ l x

, A, φ beliebig.

(7)

Eigenfunktionen (Eigenformen) der schwingenden Saite

Uj(x) = sin

j π l x

.

0 0.2 0.4 0.6 0.8 1

−3

−2

−1 0 1 2 3

1. Eigenform

0 0.2 0.4 0.6 0.8 1

−3

−2

−1 0 1 2 3

2. Eigenform

0 0.2 0.4 0.6 0.8 1

−3

−2

−1 0 1 2 3

3. Eigenform

0 0.2 0.4 0.6 0.8 1

−3

−2

−1 0 1 2 3

4. Eigenform

0 0.2 0.4 0.6 0.8 1

−3

−2

−1 0 1 2 3

5. Eigenform

0 0.2 0.4 0.6 0.8 1

−3

−2

−1 0 1 2 3

6. Eigenform

(8)

Beispiel 2: Betrachte das Randwertproblem

µu¨ + E I u(4) = 0, u(0) = u(0) = 0, u′′(l) = u′′′(l) = 0.

(Biegung eines einseitig eingespannten Balkens, hier µ, E, I konstant)

Der Separationsansatz u(x, t) = T(t)U(x) f¨uhrt auf das Eigenwertproblem E I

µ U(4)(x) = λU(x), λ ∈ C mit der allgemeinen L¨osung

U(x) = c1 sin (κx) + c2 sinh (κx) + c3 cos (κx) + c4 cosh (κx), κ =

λµ E I

1/4

∈ C. Die Randbedingungen ergeben

 0 0 0 0

 =



U(0) U(0) U′′(l) U′′′(l)

 =



0 0 1 1

−1 1 0 0

−κ2 sin (κl) κ2 sinh (κl) −κ2 cos (κl) κ2 cosh (κl)

−κ3 cos (κl) κ3 cosh (κl) −κ3 sin (κl) κ3 sinh (κl)



 c1

c2

c3

c4



Damit eine L¨osung (c1, c2, c3, c4) 6= (0,0,0,0) existiert, muss die Determinante der Matrix

= 0 sein. Eine l¨angere Rechnung zeigt, dass dies genau dann der Fall ist, wenn cos(κl) = −1/cosh(κl).

Diese Gleichung hat unendlich viele L¨osungen 0 < κ1 < κ2 < . . .. Die Eigenwerte und Eigenfunktionen sind

λj = E I µ κj4

, Uj(x) = cos(κj x) − cosh(κjx) − cos(κj l) + cosh(κj l)

sin(κj l) + sinh(κjl) (sin(κj x)− sinh(κj x)). Die zugeh¨origen Separationsl¨osungen sind

u(x, t) = A cosp

λj t− φ

Uj(x), A, φ beliebig

(9)

Eigenfunktionen (Eigenformen) des links fest eingespannten und rechts freien Balkens

Uj(x) = cos(κj x)− cosh(κj x) − cos(κj l) + cosh(κjl)

sin(κj l) + sinh(κj l) (sin(κj x) − sinh(κj x)).

0 0.2 0.4 0.6 0.8 1

−3

−2

−1 0 1 2 3

1. Eigenform

0 0.2 0.4 0.6 0.8 1

−3

−2

−1 0 1 2 3

2. Eigenform

0 0.2 0.4 0.6 0.8 1

−3

−2

−1 0 1 2 3

3. Eigenform

0 0.2 0.4 0.6 0.8 1

−3

−2

−1 0 1 2 3

4. Eigenform

0 0.2 0.4 0.6 0.8 1

−3

−2

−1 0 1 2 3

5. Eigenform

0 0.2 0.4 0.6 0.8 1

−3

−2

−1 0 1 2 3

6. Eigenform

(10)

Interpretation der Produktl¨osungen als Eigenschwingungen

Wir haben gesehen, dass ein homogenes Randwertproblem mit einer DGL der Form µ(x) ¨u(x, t) +L[u](x, t) = 0

die Produktl¨osungen

u(x, t) = A cos

λt − φ

U(x), A, φ beliebig (∗) hat, wobei gilt

L[U](x) = λµ(x)U(x).

An jeder Stelle x stellt die Funktion u(x, t) eine (in t) harmonische Schwingung dar.

Die ganze Produktfunktion (∗) ist eine stehende Welle.

Man bezeichnet sie als Eigenschwingung oder Eigenmode.

Die Eigenfunktion U(x) nennt man auch Eigenform.

Beispiel: Balkenbiegung, 3. Eigenschwingung am Anfang

1/4 Periode 1/2 Periode 3/4 Periode 1 Periode

0 0.2 0.4 0.6 0.8 1

−2 0 2

0 0.2 0.4 0.6 0.8 1

−2 0 2

0 0.2 0.4 0.6 0.8 1

−2 0 2

0 0.2 0.4 0.6 0.8 1

−2 0 2

0 0.2 0.4 0.6 0.8 1

−2 0 2

(11)

Superposition von Eigenschwingungen Man pr¨uft leicht folgendes nach:

Wenn ein homogenes Randwertproblem mit einer DGL der Form µ(x) ¨u(x, t) +L[u](x, t) = 0

die L¨osungen u1(x, t), . . . , un(x, t) hat, dann ist auch jede Linearkombination u(x, t) = c1 u1(x, t) + . . . cnun(x, t)

L¨osung des Randwertproblems. Dies gilt insbesondere f¨ur die Produktl¨osungen uj(x, t) = cosp

λj t− φ

Uj(x).

Auch eine konvergente unendliche Reihe u(x, t) =

X j=1

cj uj(x, t)

ist L¨osung, wenn man sie oft genug gliedweise differenzieren kann.

Frage: Sind dies alle L¨osungen des homogenen Randwertproblems?

F¨ur die bisher diskutierten Beispiele ist die Antwort ’ja’, denn diese Probleme sind selbstadjungiert und positiv definit bez¨uglich eines Skalarprodukts.

Diese Begriffe und die zugeh¨origen S¨atze werden nun erkl¨art.

(12)

Skalarprodukte

Sei V ein Vektorraum. Eine Funktion h·,·i : V × V → C heisst Skalarprodukt, falls f¨ur alle v, w, v1, v2, w1, w2 ∈ C und alle λ C gilt

1. hv1 + v2, wi = hv1, wi + hv2, wi, 2. hv, w1 + w2i = hv, w1i + hv, w2i,

3. hλ v, wi = ¯λhv, wi, hv, λ wi = λhv, wi 4. hv, wi = hw, vi.

5. hv, vi > 0 wenn v 6= 0 (positive Definitheit).

Beispiele: 1. Sei M ∈ Cn×n eine hermitesche Matrix (d.h. M = ¯MT). Die Funktion hv, wiM : Cn × Cn C, hv, wiM := ¯vTM w =

Xn

j=1

Xn

k=1

mjk¯vj wk

ist ein Skalarprodukt, wenn sie positiv definit ist, d.h. wenn f¨ur alle v 6= 0 gilt, dass hv, viM := ¯vTM v =

Xn

j=1

Xn

k=1

mjk¯vj vk > 0.

Das Standardskalarprodukt ist hv, wiI := ¯vTIw = ¯vTw = ¯v1w1 + . . .+ ¯vnwn.

2. Sei µ : [a, b] → R eine stetige Funktion, die nur positive Werte annimmt. Dann ist hv, wiµ =

Z b a

v(x)w(x)µ(x)dx ein Skalarprodukt.

(13)

Orthonormalsysteme Definition:

Zwei Vektoren v, w heissen orthogonal (senkrecht) bzgl. des Skalarprodukts h·,·i, wenn hv, wi = 0.

Die L¨ange (Norm) des Vektors v ist

kvk = p

hv, vi.

Eine endliche oder unendliche Folge von Vektoren v1, v2, . . . heisst Orthonormalsystem, wenn gilt

hvj, vki =

0 wenn j 6= k, 1 wenn j = k.

Ein Orthonormalsystem heisst vollst¨andig, wenn sich jeder v ∈ V als endliche oder unendliche Reihe der Form

v = XN

k=1

ck vk, N ∈ N oder N =

darstellen l¨asst. Wenn dies der Fall ist, dann gilt f¨ur die Koeffizienten ck, dass ck = hvk, vi.

Beweis: Aus v = PN

k=1ck vk folgt hvj, vi = hvj,

XN

k=1

ck vki = XN

k=1

ck h| {z }vj, vki

=1 wenn j=k

=0 sonst

= cj.

(14)

Standardbeispiel f¨ur ein vollst¨andiges Orthonormalsystem:

Trigonometrische Funktionen und Fourier-Reihen Die Funktionen

1/√

2, cos(k x), sin(k x), k ∈ N

bilden ein vollst¨andiges Orthonormalsystem f¨ur das Skalarprodukt hv, wi = 1

π

Z 0

¯v(x)w(x)dx und den Vektorraum

V = { u : [0,2π] → C; hu, ui < ∞ }

F¨ur u ∈ V gilt an fast jeder Stelle x ∈ [0,2π], dass u(x) = a0

√1 2 +

X k=1

ak cos(k x) + X k=1

bk sin(k x),

wobei

a0 = h(1/√

2), ui = 1 π

Z 2π 0

(1/√

2)u(x)dx

ak = hcos(k x), ui = 1 π

Z 0

cos(k x)u(x)dx

bk = hsin(k x), ui = 1 π

Z 0

sin(k x)u(x)dx.

(15)

Selbstadjungierte Operatoren, Selbstadjungierte Randwertprobleme

Definition: Ein linearer Operator L : V → Ve, V ⊆ V, heisst selbstadjungiert, wenn hLv, wi = hv, Lwi f¨ur alle v, w ∈ V. (∗)

L heisst positiv definit, wenn hLv, vi > 0 f¨ur alle v 6= 0. (∗∗) Dies motiviert folgende weitere

Definition: Wir nennen einen linearen Differentialoperator L = an(x) dn

dxn + an1(x) dn1

dxn1 + . . . + a1(x) d

dx + a0(x), x ∈ [a, b]

selbstadjungiert bzgl. der homogenen linearen Randbedingungen R1[u] = R2[u] = . . . = Rm[u] = 0,

und der positiven Gewichtsfunktion µ : [a, b] → R, wenn () gilt, wobei

V := { u : [a, b] → C; u ist n-mal diffbar, R1[u] = R2[u] = . . . = Rm[u] = 0 } und

hv, wi = Z b

a

v(x)w(x)µ(x)dx.

L heisst positiv definit, wenn (∗∗) gilt. Sind diese Bedingungen erf¨ullt, dann nennen wir auch die zugeh¨origen Randwertprobleme

L[u](x) = f(x), R1[u] = r1, R2[u] = r2, . . . Rm[u] = rm

selbstadjungiert bzw. positiv definit.

(16)

Beispiel f¨ur selbstadjungiertheit und positive Definitheit Das Randwertproblem f¨ur den einseitig eingespannten Balken

(E(x)I(x)u′′(x))′′

| {z }

=L[u](x)

= f(x), u(0) = u(0) = 0, u′′(l) = u′′′(l) = 0.

ist selbstadjungiert, denn partielle Integration unter Ausnutzung der Randbedingungen ergibt (wir betrachten hier nur reellwertige Funktionen)

hLv, wi =

Z l

0

(E(x)I(x)v′′(x))′′ w(x)dx

=

Z l

0

E(x)I(x)v′′(x)w(x)′′ dx 2mal part. Integration (∗)

=

Z l 0

v′′(x)E(x)I(x)w(x)′′ dx

=

Z l 0

v(x) (E(x)I(x)w(x)′′)′′ dx 2mal part. Integration

= hv, Lwi.

Das Problem ist auch positiv definit, denn wegen (∗) ist hLv, vi =

Z l 0

E(x)I(x) (v′′(x))2dx > 0 f¨ur v 6= 0.

Bemerkung: Alle bisher angef¨uhrten Beispiele sind selbstadjungiert und positiv definit.

(17)

Hauptsatz ¨uber 1-dimensionale positiv definite Randwertprobleme

Gegeben sei ein selbstadj. und pos. definites lineares 1-dimensionales Randwertproblem L[u](x) = f(x), R1[u] = R2[u] = . . . = Rm[u] = 0,

auf dem Intervall [a, b]. Sei ausserdem µ : [a, b] → R eine stetige, ¨uberall positive Ge- wichtsfunktion mit dem zugeh¨origen Skalarprodukt

hv, wiµ = Z b

a

v(x)w(x)µ(x)dx. (∗) Dann hat das zugeh¨orige Eigenwertproblem

L[U](x) = λ µ(x)U(x), R1[U] = R2[U] = . . . = Rm[U] = 0

unendlich viele verschiedene L¨osungen λj ∈ R, Uj : [a, b] C, j N, wobei man die Rei- henfolge der Eigenwerte λj und die Eigenfunktionen Uj so w¨ahlen kann, dass

1. 0 < λ1 < λ2 < . . . (monoton wachsende Folge) und limj→∞λj = ∞.

2. Die Eigenfunktionen Uj bilden bzgl. (∗) ein vollst¨andiges Orthonormalsystem, d.h.

hUj, Ukiµ =

0 wenn j 6= k,

1 wenn j = k und v(x) =

X k=1

ckUk(x), wobei ck = hUk, viµ f¨ur mindestens alle n mal diffbaren v : [a, b] → C, die die homogenen Randbedingun- gen erf¨ullen, wobei n die h¨ochste Ableitungsordnung in L ist.

F¨ur genauere Infos siehe L. Collatz: ’Differentialgleichungen’ und ’Eigenwertprobleme’

(18)

L¨osung eines positiv definiten homogenen Anfangs-Randwertproblems durch Entwicklung nach Eigenfunktionen I

Gegeben sei folgendes Anfangs-Randwertproblem auf dem Intervall [a, b]:

µ(x) ¨u(x, t) + L[u](x, t) = 0, R1[u] = R2[u] = . . . = Rm[u] = 0,

u(x,0) = u0, u(x,˙ 0) = v0 .

Zum Zeitpunkt 0 sind also die Auslenkung u0 und die Geschwindigkeit v0 vorgegeben.

Die Operatoren L und Rj sollen sich nur auf x beziehen.

Wenn das station¨are Problem

L[u](x) = 0, R1[u] = R2[u] = . . . = Rm[u] = 0,

selbstadjungiert und positiv definit und µ stetig und positiv ist, dann kann man das Anfangs-Randwertproblem so l¨osen:

Entwickle die Anfangswerte nach Eigenfunktionen:

u0(x) = X k=0

ckUk(x), v0(x) = X k=0

dk Uk(x), ck = hUk, u0iµ, dk = hUk, v0iµ.

Die L¨osung des Anfangs-Randwertproblems ist dann u(x, t) =

X k=1

ck cosp

λkt

+ dk

√λk sinp

λk t

Uk(x).

(19)

L¨osung eines positiv definiten homogenen Anfangs-Randwertproblems durch Entwicklung nach Eigenfunktionen II

Gegeben sei folgendes Anfangs-Randwertproblem auf dem Intervall [a, b], das 1. Ordnung in t ist (W¨armeleitung, Diffusion):

µ(x) ˙u(x, t) + L[u](x, t) = 0, R1[u] = R2[u] = . . . = Rm[u] = 0, u(x,0) = u0(x),

Dann sehen die Separationsl¨osungen so aus

uk(x, t) = eλktUk(x) wobei L[Uk](x) = λk µ(x)Uk(x).

Wenn das Randwertproblem selbstadjungiert und positiv definit ist, dann kann man den Anfangswert u0 nach Eigenfunktionen entwickeln

u0(x) = X k=0

ckUk(x), ck = hUk, u0iµ,

und erh¨alt als L¨osung des Anfangs-Randwertproblems u(x, t) =

X k=1

ckeλktUk(x).

(20)

Bemerkungen zu selbstadjungierten Eigenwertproblemen I

Der Beweis des in letzten VL angegebene Hauptsatzes ¨uber die Entwicklung nach Eigenfunktionen zu schwierig um ihn hier zu bringen. Man kann aber einige

Teilaussagen elementar beweisen, die den Hauptsatz plausibel machen.

Dies soll nun geschehen.

Hilfssatz: Gegeben sei ein selbstadjungiertes Eigenwertproblem der Form

L[U](x) = λ µ(x)U(x), R1[U] = R2[U] = . . . = Rm[U] = 0, (∗) mit einer positiven Gewichtsfunktion µ : [a, b] → R.

Seien (λ1, U1(x)) und (λ2, U2(x)) L¨osungen von (∗). Dann gilt

¯λ1 hU1, U2iµ = λ2hU1, U2iµ. Beweis: Zur Erinnerung:

hu, vi = Z b

a

u(x)v(x)dx, hu, viµ = Z b

a

u(x)v(x)µ(x)dx = hu, v µi = hµ u, v i Es folgt:

¯λ1hU1, U2iµ = hλ1U1, U2iµ

= hλ1 µ U1, U2i

= hL[U1], U2 i

= hU1, L[U2]i (weil L selbstadjungiert)

= hU1, λ2 µ U2i

= hU1, λ2 U2 iµ

= hU1, U2iµ λ2, q.e.d.

(21)

Bemerkungen zu selbstadjungierten Eigenwertproblemen II 1. Folgerung aus dem Hilfssatz:

Bei selbstadjungierten Randwertproblemen sind die Eigenwerte reelle Zahlen.

Beweis: Der Hilfssatz besagt, dass

¯λ1hU1, U2iµ = λ2hU1, U2iµ

f¨ur Eigenfunktionen Uj und die zugeh¨origen Eigenwerte λj, j = 1,2.

F¨ur den Spezialfall, dass

λ1 = λ2 =: λ, U1 = U2 =: U, hat man

¯λhU, Uiµ = λhU, Uiµ Dividieren durch hU, Uiµ ergibt, dass

¯λ = λ, also ist λ eine reelle Zahl.

Das Dividieren ist erlaubt, denn weil µ eine positive Funktion ist, hat man hU, Uiµ =

Z b a

U(x)U(x)µ(x)dx = Z b

a |U(x)|2µ(x)

| {z }

positiv

dx> 0, wenn U 6≡ 0 (positive Definitheit des Skalarprodukts).

(22)

Bemerkungen zu selbstadjungierten Eigenwertproblemen III 2. Folgerung aus dem Hilfssatz:

Bei selbstadjungierten Randwertproblemen sind die Eigenfunktionen zu verschiedenen Eigenwerten orthogonal bez¨uglich des µ-Skalarprodukts.

Beweis: Wir betrachten wieder die Gleichung aus dem Hilfssatz

¯λ1 hU1, U2iµ = λ2hU1, U2iµ.

Da wir schon wissen, dass die Eigenwerte reell sind, k¨onnen wir den Konjugationsstrich vergessen:

λ1 hU1, U2iµ = λ2hU1, U2iµ. Umstellen ergibt:

1 − λ2)hU1, U2iµ = 0.

Wenn λ1 6= λ2, dann ist λ1 − λ2 6= 0 und es folgt hU1, U2iµ = 0. Die Eigenfunktionen sind also orthogonal.

(23)

Bemerkungen zu selbstadjungierten Eigenwertproblemen VI Behauptung:

Die Eigenwerte zu selbstadjungierten und positiv definiten Randwertproblemen sind positiv.

Beweis: Positive Definitheit bedeutet, dass

hL[u], ui > 0

f¨ur alle Funktionen u : [a, b] → C, u 6≡ 0, die n-mal diff’bar sind und die homogenen Randbedingungen erf¨ullen. F¨ur die Eigenfunktionen mit

L[U](x) = λ µ(x)U(x), U 6≡ 0 folgt daher

λ h| {z }U, U iµ

>0

= hλ U, U iµ = hλ µ U, U i = hL[U], U i > 0.

Also ist λ > 0.

(24)

Bemerkungen zu selbstadjungierten Eigenwertproblemen V Bemerkung: Wenn der selbstadjungierte Differentialoperator

L = an(x) dn

dxn + an1(x) dn1

dxn1 + . . . + a1(x) d

dx + a0(x), x ∈ [a, b]

reelle Koeffizienten hat, d.h. an(x), . . . , a0(x) ∈ R ur alle x, dann gibt es zu jedem Eigenwert auch eine Basis von reellwertigen Eigenfunktionen.

(Beweis: hier nicht, ist aber einfach).

Bemerkung: In der Quantenmechanik kommen schon bei den einfachsten Problemen Differentialoperatoren mit nicht-reellen Koeffizienten vor, z.B. der Impulsoperator

L = i d dx

(25)

Bemerkungen zu selbstadjungierten Eigenwertproblemen VI

Im Hauptsatz zur Entwicklung nach Eigenfunktionen wird behauptet, dass man eine Funktion v : [a, b] → C, die die homogenen Randbedingungen erf¨ullt, folgendermaßen nach Eigenfunktionen entwickeln kann:

v(x) = X k=0

ck Uk(x) = lim

N→∞

XN

k=0

ckUk(x), wobei ck = hUk, viµ = Z b

a

Uk(x)v(x)µ(x)dx. (∗) Die Konvergenz gilt f¨ur jedes x ∈ [a, b]. Wenn die Funktion v aber nicht die Randbe- dingungen erf¨ullt, oder nicht differenzierbar ist, dann stimmt (∗) im allgemeinen nicht mehr f¨ur jedes x. Man hat aber die sogenannte Konvergenz im quadratischen Mittel

Nlim→∞

v

XN

k=0

ck Uk

= 0, wobei

kuk = p

hu, ui =

sZ b

a |u(x)|2 dx,

vorausgesetzt, dass die zu entwickelnde Funktion v quadratintegrierbar ist, d.h. kvk < ∞.

(26)

Inhomogene Anfangs-Randwertprobleme I

In der letzten VL wurde gezeigt, dass man homogene Anfangs-Randwertprobleme der Form

µ(x) ¨u(x, t) + L[u](x, t) = 0, R1[u] = R2[u] = . . . = Rm[u] = 0, u(x,0) = u0(x), u˙(x,0) = v0(x).

oder der Form

µ(x) ˙u(x, t) + L[u](x, t) = 0, R1[u] = R2[u] = . . . = Rm[u] = 0,

u(x,0) = u0(x),

mit einem positiv definiten, selbstadjungierten Operator L durch Entwicklung der Anfangswerte v0, u0 nach den Eigenfunktionen l¨osen kann. Wir betrachten nun inhomogene Probleme der Form

µ(x) ¨u(x, t) +L[u](x, t) = f(x, t), R1[u] = r1(t), R2[u] = r2(t), . . . , Rm[u] = rm(t),

u(x,0) = u0(x), u(x,˙ 0) = v0(x) .

oder

µ(x) ˙u(x, t) + L[u](x, t) = f(x, t), R1[u] = r1(t), R2[u] = r2(t), . . . , Rm[u] = rm(t) u(x,0) = u0(x),

(27)

Inhomogene Anfangs-Randwertprobleme II Gegeben sei das Anfangs-Randwertproblem

µ(x) ˙u(x, t) + L[u](x, t) = f(x, t), R1[u] = r1(t), R2[u] = r2(t), . . . , Rm[u] = rm(t) u(x,0) = u0(x),

L¨osungsmethode:

1. Finde eine Funktion g(x, t), die die inhomogenen Randbedingungen erf¨ullt:

R1[g] = r1(t), R2[g] = r2(t), . . . ,Rm[g] = rm(t).

2. Mache den Ansatz u(x, t) = y(x, t) + g(x, t) mit einer unbekannten Funktion y.

Aufgrund der Linearit¨at der Randbedingungen muss gelten, dass R1[y] = R2[y] = . . . = Rm[y] = 0,

damit u das inhomogene Randwertproblem l¨ost. Ausserdem ergibt der Ansatz, dass µ(x) ( ˙y + ˙g)(x, t) + L[y + g](x, t) = f(x, t). (∗)

Bringe die von g abh¨angigen Anteile in (∗) auf die rechte Seite:

µ(x) ˙y(x, t) + L[y](x, t) = f(x, t) − µ(x) ˙g(x, t) − L[g](x, t) =: h(x, t) (∗∗).

3. Entwickle nach Eigenfunktionen:

y(x, t) = P

kyk(t)Uk(x), h(x,t)µ(x) = P

k hk(t)Uk(x), u0(x) − g(x,0) = P

k ck Uk(x)

4. Durch Einsetzen in (∗∗) folgen f¨ur die unbekannten Entwicklungskoeffizienten yk(t) die gew¨ohnlichen AWP y˙k(t) = −λkyk(t) + hk(t), yk(0) = ck.

Letztere l¨ost man mit der Variation-der- Konstanten-Formel.

Referenzen

ÄHNLICHE DOKUMENTE

Technische Universit¨ at Berlin – Fakult¨ at II – Institut f¨ ur Mathematik Differentialgleichungen f¨ ur Ingenieure WS 06/07..

Technische Universit¨ at Berlin Fakult¨ at II.. Institut f¨ ur Mathematik