Differentialgleichungen f¨ ur Ingenieure WS 06/07
12. Vorlesung Michael Karow
Thema heute:
• 1-dimensionale Randwertprobleme: der instation¨are Fall
• der Produktansatz von Bernoulli
• Eigenwerte und Eigenfunktionen
• Selbstadjungierte Probleme und Entwickung nach Eigenfunktionen
• Homogene Anfangs-Randwertprobleme
Einleitung
In der letzten VL wurden folgende Beispiele f¨ur lineare partielle DGL angegeben (1) µ(x) ˙u(x, t) − (k(x)u(x, t)′)′ = f(x, t) kurz: µu˙ − (k u′)′ = f,
(2) µ(x) ¨u(x, t) − (k(x)u(x, t)′)′ = f(x, t) kurz: µu¨− (k u′)′ = f. (3) µ(x) ¨u(x, t) + (k(x)u(x, t)′′)′′ = f(x, t) kurz: µu¨+ (k u′′)′′ = f. Hinzu kommen Randbedingungen.
Obige DGL kommen z.B. bei folgenden Problemen vor:
(1) W¨armeleitung, Diffusion
(2) Longitudinal- und Torsionsschwingungen eines geraden Stabes, schwingende Saite (3) Balkenbiegung
Alle Beispiele sind von der Form
µ(x) ˙u(x, t) + L[u](x, t) = f(x, t) oder µ(x) ¨u(x, t) +L[u](x, t) = f(x, t) (∗) mit einem nur die Abh¨angigkeit von x betreffenden linearen Differentialoperator
L = an(x) dn
dxn + an−1(x) dn−1
dxn−1 + . . .+ a1(x) d
dx + a0(x).
Der station¨are Fall (bei dem u und f nicht von der Zeit abh¨angen) lautet L[u](x) = f(x). Dieser Fall wurde in der fr¨uheren VL diskutiert.
Nun betrachten wir den instation¨aren Fall (∗), zun¨achst mit f = 0.
Der Separationsansatz von Bernoulli f¨ur den homogenen Fall Wir betrachten homogene lineare partielle DGL der Form
µ(x) ˙u(x, t) + L[u](x, t) = 0 oder µ(x) ¨u(x, t) +L[u](x, t) = 0 (∗) Die Randbedingungen bleiben zun¨achst unber¨ucksichtigt.
Um spezielle L¨osungen zu finden, macht man den
Separationsansatz (Produktansatz) von Bernoulli:
u(x, t) = T(t)U(x)
Man sucht also zun¨achst L¨osungen u, die sich als ein Produkt einer nur vom Ort und einer nur von der Zeit abh¨angigen Funktion darstellen lassen.
Wir werden gleich folgendes sehen:
1. Der Produktansatz f¨uhrt auf ein Eigenwertproblem f¨ur den Operator L.
2. Man erh¨alt alle L¨osungen von (∗) indem man die Separationsl¨osungen summiert (auch unendlich viele).
Einsetzen des Produktansatzes u(x, t) = T(t)U(x) in die DGL µ(x) ¨u(x, t) +L[u](x, t) = 0
ergibt
µ(x) ¨T(t)U(x) + T(t)L[U](x) = 0, (∗)
denn der Differentialoperator L wirkt nur auf den von x abh¨angigen Anteil U(x).
Nun stellt man (∗) so um, dass die von x und von t abh¨angigen Terme jeweils auf einer Seite stehen:
L[U](x)
µ(x)U(x) = −T¨(t) T(t).
H¨alt man x fest und l¨asst t variieren, dann stellt man fest, dass der Quotient −T¨(t)/T(t) nicht von t abh¨angt, also gleich einer Konstanten λ ∈ C ist. Damit bekommt man
L[U](x)
µ(x)U(x) = −T¨(t)
T(t) = λ.
Durch Umstellen folgen die beiden Gleichungen
L[U](x) − λµ(x)U(x) = 0, T¨(t) + λT(t) = 0.
Die zweite Gleichung hat (auch bei komplexem λ) die allgemeine L¨osung T(t) =
A cos(√
λt− φ) = c1 cos(√
λt) +c2 sin(√
λt) falls λ 6= 0,
c1 + c2t falls λ = 0.
Die erste Gleichung ist im allgemeinen schwieriger. Genaueres auf den n¨achsten Seiten.
Eigenfunktionen und Eigenwerte
Die eben hergeleitete Gleichung L[U](x) − λµ(x)U(x) = 0 kann man auch auf folgende Weisen hinschreiben:
L[U](x) = λµ(x)U(x),
(1/µ(x))L[U](x) = λU(x) (∗).
Analogie zur linearen Algebra: Seien A, M ∈ Cn×n.
1) Ein Vektor v ∈ Cn heisst Eigenvektor von A zum Eigenwert λ ∈ C, falls A v = λ v.
2) Ein Vektor v ∈ Cn heisst Eigenvektor von (A, M) zum Eigenwert λ ∈ C, falls A v = λ M v.
Definition:
1) Eine Funktion U heisst Eigenfunktion des Operators L zum Eigenwert λ, falls L[U](x) = λ U(x).
2) Eine Funktion U heisst Eigenfunktion des Paares (L, µ) zum Eigenwert λ, falls L[U](x) = λ µ(x)U(x).
In beiden F¨allen muss U die Randbedingungen erf¨ullen, falls welche vorgegeben sind.
Bem.: (∗) besagt, dass U Eigenfunktion zum Operator L[Ue ] = (1/µ(x))L[U](x) ist.
In den vielen F¨allen kann man die Eigenfunktionen nur numerisch berechnen. Geschlos- sene L¨osungen gibt es aber, wenn µ eine konstante Funktion ist, und der Operator L konstante Koeffizienten hat.
Beispiel 1: Betrachte das Randwertproblem
µ¨u − τ u′′ = 0, u(0) = u(l) = 0
(Longitudinal- bzw. Torsionsschwingungen eines Stabes, schwingende Saite) Der Separationsansatz u(x, t) = T(t)U(x) f¨uhrt auf das Eigenwertproblem
−τ
µU′′(x) = λU(x), λ ∈ C mit der allgemeinen L¨osung
U(x) = c1 cos
rλµ τ x
!
+ c2 sin
rλµ τ x
!
, c1, c2 ∈ C. Einsetzen der Randbedingungen ergibt
U(0) = 0 ⇒ c1 · 1 +c2 · 0 = 0 ⇒ c1 = 0. U(l) = 0 ⇒ c2 sin
rλ µ τ l
!
= 0 ⇒
rλ µ
τ l = j π, j ∈ Z ⇒ λ = λj = τ µ
j π
l
2
, j ∈ N0. Die Eigenfunktionen sind also die skalaren Vielfachen von
Uj(x) = sin
rλj µ τ x
!
= sin
jπ l x
, j ∈ N. Die Separationsl¨osungen sind von der Form
u(x, t) = A cos(p
λj t− φ)Uj(x) = A cos
rτ µ
jπ
l t − φ
sin
jπ l x
, A, φ beliebig.
Eigenfunktionen (Eigenformen) der schwingenden Saite
Uj(x) = sin
j π l x
.
0 0.2 0.4 0.6 0.8 1
−3
−2
−1 0 1 2 3
1. Eigenform
0 0.2 0.4 0.6 0.8 1
−3
−2
−1 0 1 2 3
2. Eigenform
0 0.2 0.4 0.6 0.8 1
−3
−2
−1 0 1 2 3
3. Eigenform
0 0.2 0.4 0.6 0.8 1
−3
−2
−1 0 1 2 3
4. Eigenform
0 0.2 0.4 0.6 0.8 1
−3
−2
−1 0 1 2 3
5. Eigenform
0 0.2 0.4 0.6 0.8 1
−3
−2
−1 0 1 2 3
6. Eigenform
Beispiel 2: Betrachte das Randwertproblem
µu¨ + E I u(4) = 0, u(0) = u′(0) = 0, u′′(l) = u′′′(l) = 0.
(Biegung eines einseitig eingespannten Balkens, hier µ, E, I konstant)
Der Separationsansatz u(x, t) = T(t)U(x) f¨uhrt auf das Eigenwertproblem E I
µ U(4)(x) = λU(x), λ ∈ C mit der allgemeinen L¨osung
U(x) = c1 sin (κx) + c2 sinh (κx) + c3 cos (κx) + c4 cosh (κx), κ =
λµ E I
1/4
∈ C. Die Randbedingungen ergeben
0 0 0 0
=
U(0) U′(0) U′′(l) U′′′(l)
=
0 0 1 1
−1 1 0 0
−κ2 sin (κl) κ2 sinh (κl) −κ2 cos (κl) κ2 cosh (κl)
−κ3 cos (κl) κ3 cosh (κl) −κ3 sin (κl) κ3 sinh (κl)
c1
c2
c3
c4
Damit eine L¨osung (c1, c2, c3, c4) 6= (0,0,0,0) existiert, muss die Determinante der Matrix
= 0 sein. Eine l¨angere Rechnung zeigt, dass dies genau dann der Fall ist, wenn cos(κl) = −1/cosh(κl).
Diese Gleichung hat unendlich viele L¨osungen 0 < κ1 < κ2 < . . .. Die Eigenwerte und Eigenfunktionen sind
λj = E I µ κj4
, Uj(x) = cos(κj x) − cosh(κjx) − cos(κj l) + cosh(κj l)
sin(κj l) + sinh(κjl) (sin(κj x)− sinh(κj x)). Die zugeh¨origen Separationsl¨osungen sind
u(x, t) = A cosp
λj t− φ
Uj(x), A, φ beliebig
Eigenfunktionen (Eigenformen) des links fest eingespannten und rechts freien Balkens
Uj(x) = cos(κj x)− cosh(κj x) − cos(κj l) + cosh(κjl)
sin(κj l) + sinh(κj l) (sin(κj x) − sinh(κj x)).
0 0.2 0.4 0.6 0.8 1
−3
−2
−1 0 1 2 3
1. Eigenform
0 0.2 0.4 0.6 0.8 1
−3
−2
−1 0 1 2 3
2. Eigenform
0 0.2 0.4 0.6 0.8 1
−3
−2
−1 0 1 2 3
3. Eigenform
0 0.2 0.4 0.6 0.8 1
−3
−2
−1 0 1 2 3
4. Eigenform
0 0.2 0.4 0.6 0.8 1
−3
−2
−1 0 1 2 3
5. Eigenform
0 0.2 0.4 0.6 0.8 1
−3
−2
−1 0 1 2 3
6. Eigenform
Interpretation der Produktl¨osungen als Eigenschwingungen
Wir haben gesehen, dass ein homogenes Randwertproblem mit einer DGL der Form µ(x) ¨u(x, t) +L[u](x, t) = 0
die Produktl¨osungen
u(x, t) = A cos√
λt − φ
U(x), A, φ beliebig (∗) hat, wobei gilt
L[U](x) = λµ(x)U(x).
An jeder Stelle x stellt die Funktion u(x, t) eine (in t) harmonische Schwingung dar.
Die ganze Produktfunktion (∗) ist eine stehende Welle.
Man bezeichnet sie als Eigenschwingung oder Eigenmode.
Die Eigenfunktion U(x) nennt man auch Eigenform.
Beispiel: Balkenbiegung, 3. Eigenschwingung am Anfang
1/4 Periode 1/2 Periode 3/4 Periode 1 Periode
0 0.2 0.4 0.6 0.8 1
−2 0 2
0 0.2 0.4 0.6 0.8 1
−2 0 2
0 0.2 0.4 0.6 0.8 1
−2 0 2
0 0.2 0.4 0.6 0.8 1
−2 0 2
0 0.2 0.4 0.6 0.8 1
−2 0 2
Superposition von Eigenschwingungen Man pr¨uft leicht folgendes nach:
Wenn ein homogenes Randwertproblem mit einer DGL der Form µ(x) ¨u(x, t) +L[u](x, t) = 0
die L¨osungen u1(x, t), . . . , un(x, t) hat, dann ist auch jede Linearkombination u(x, t) = c1 u1(x, t) + . . . cnun(x, t)
L¨osung des Randwertproblems. Dies gilt insbesondere f¨ur die Produktl¨osungen uj(x, t) = cosp
λj t− φ
Uj(x).
Auch eine konvergente unendliche Reihe u(x, t) =
X∞ j=1
cj uj(x, t)
ist L¨osung, wenn man sie oft genug gliedweise differenzieren kann.
Frage: Sind dies alle L¨osungen des homogenen Randwertproblems?
F¨ur die bisher diskutierten Beispiele ist die Antwort ’ja’, denn diese Probleme sind selbstadjungiert und positiv definit bez¨uglich eines Skalarprodukts.
Diese Begriffe und die zugeh¨origen S¨atze werden nun erkl¨art.
Skalarprodukte
Sei V ein Vektorraum. Eine Funktion h·,·i : V × V → C heisst Skalarprodukt, falls f¨ur alle v, w, v1, v2, w1, w2 ∈ C und alle λ ∈ C gilt
1. hv1 + v2, wi = hv1, wi + hv2, wi, 2. hv, w1 + w2i = hv, w1i + hv, w2i,
3. hλ v, wi = ¯λhv, wi, hv, λ wi = λhv, wi 4. hv, wi = hw, vi.
5. hv, vi > 0 wenn v 6= 0 (positive Definitheit).
Beispiele: 1. Sei M ∈ Cn×n eine hermitesche Matrix (d.h. M = ¯MT). Die Funktion hv, wiM : Cn × Cn → C, hv, wiM := ¯vTM w =
Xn
j=1
Xn
k=1
mjk¯vj wk
ist ein Skalarprodukt, wenn sie positiv definit ist, d.h. wenn f¨ur alle v 6= 0 gilt, dass hv, viM := ¯vTM v =
Xn
j=1
Xn
k=1
mjk¯vj vk > 0.
Das Standardskalarprodukt ist hv, wiI := ¯vTIw = ¯vTw = ¯v1w1 + . . .+ ¯vnwn.
2. Sei µ : [a, b] → R eine stetige Funktion, die nur positive Werte annimmt. Dann ist hv, wiµ =
Z b a
v(x)w(x)µ(x)dx ein Skalarprodukt.
Orthonormalsysteme Definition:
Zwei Vektoren v, w heissen orthogonal (senkrecht) bzgl. des Skalarprodukts h·,·i, wenn hv, wi = 0.
Die L¨ange (Norm) des Vektors v ist
kvk = p
hv, vi.
Eine endliche oder unendliche Folge von Vektoren v1, v2, . . . heisst Orthonormalsystem, wenn gilt
hvj, vki =
0 wenn j 6= k, 1 wenn j = k.
Ein Orthonormalsystem heisst vollst¨andig, wenn sich jeder v ∈ V als endliche oder unendliche Reihe der Form
v = XN
k=1
ck vk, N ∈ N oder N = ∞
darstellen l¨asst. Wenn dies der Fall ist, dann gilt f¨ur die Koeffizienten ck, dass ck = hvk, vi.
Beweis: Aus v = PN
k=1ck vk folgt hvj, vi = hvj,
XN
k=1
ck vki = XN
k=1
ck h| {z }vj, vki
=1 wenn j=k
=0 sonst
= cj.
Standardbeispiel f¨ur ein vollst¨andiges Orthonormalsystem:
Trigonometrische Funktionen und Fourier-Reihen Die Funktionen
1/√
2, cos(k x), sin(k x), k ∈ N
bilden ein vollst¨andiges Orthonormalsystem f¨ur das Skalarprodukt hv, wi = 1
π
Z 2π 0
¯v(x)w(x)dx und den Vektorraum
V = { u : [0,2π] → C; hu, ui < ∞ }
F¨ur u ∈ V gilt an fast jeder Stelle x ∈ [0,2π], dass u(x) = a0
√1 2 +
X∞ k=1
ak cos(k x) + X∞ k=1
bk sin(k x),
wobei
a0 = h(1/√
2), ui = 1 π
Z 2π 0
(1/√
2)u(x)dx
ak = hcos(k x), ui = 1 π
Z 2π 0
cos(k x)u(x)dx
bk = hsin(k x), ui = 1 π
Z 2π 0
sin(k x)u(x)dx.
Selbstadjungierte Operatoren, Selbstadjungierte Randwertprobleme
Definition: Ein linearer Operator L : V → Ve, V ⊆ V, heisst selbstadjungiert, wenn hLv, wi = hv, Lwi f¨ur alle v, w ∈ V. (∗)
L heisst positiv definit, wenn hLv, vi > 0 f¨ur alle v 6= 0. (∗∗) Dies motiviert folgende weitere
Definition: Wir nennen einen linearen Differentialoperator L = an(x) dn
dxn + an−1(x) dn−1
dxn−1 + . . . + a1(x) d
dx + a0(x), x ∈ [a, b]
selbstadjungiert bzgl. der homogenen linearen Randbedingungen R1[u] = R2[u] = . . . = Rm[u] = 0,
und der positiven Gewichtsfunktion µ : [a, b] → R, wenn (∗) gilt, wobei
V := { u : [a, b] → C; u ist n-mal diffbar, R1[u] = R2[u] = . . . = Rm[u] = 0 } und
hv, wi = Z b
a
v(x)w(x)µ(x)dx.
L heisst positiv definit, wenn (∗∗) gilt. Sind diese Bedingungen erf¨ullt, dann nennen wir auch die zugeh¨origen Randwertprobleme
L[u](x) = f(x), R1[u] = r1, R2[u] = r2, . . . Rm[u] = rm
selbstadjungiert bzw. positiv definit.
Beispiel f¨ur selbstadjungiertheit und positive Definitheit Das Randwertproblem f¨ur den einseitig eingespannten Balken
(E(x)I(x)u′′(x))′′
| {z }
=L[u](x)
= f(x), u(0) = u′(0) = 0, u′′(l) = u′′′(l) = 0.
ist selbstadjungiert, denn partielle Integration unter Ausnutzung der Randbedingungen ergibt (wir betrachten hier nur reellwertige Funktionen)
hLv, wi =
Z l
0
(E(x)I(x)v′′(x))′′ w(x)dx
=
Z l
0
E(x)I(x)v′′(x)w(x)′′ dx 2mal part. Integration (∗)
=
Z l 0
v′′(x)E(x)I(x)w(x)′′ dx
=
Z l 0
v(x) (E(x)I(x)w(x)′′)′′ dx 2mal part. Integration
= hv, Lwi.
Das Problem ist auch positiv definit, denn wegen (∗) ist hLv, vi =
Z l 0
E(x)I(x) (v′′(x))2dx > 0 f¨ur v 6= 0.
Bemerkung: Alle bisher angef¨uhrten Beispiele sind selbstadjungiert und positiv definit.
Hauptsatz ¨uber 1-dimensionale positiv definite Randwertprobleme
Gegeben sei ein selbstadj. und pos. definites lineares 1-dimensionales Randwertproblem L[u](x) = f(x), R1[u] = R2[u] = . . . = Rm[u] = 0,
auf dem Intervall [a, b]. Sei ausserdem µ : [a, b] → R eine stetige, ¨uberall positive Ge- wichtsfunktion mit dem zugeh¨origen Skalarprodukt
hv, wiµ = Z b
a
v(x)w(x)µ(x)dx. (∗) Dann hat das zugeh¨orige Eigenwertproblem
L[U](x) = λ µ(x)U(x), R1[U] = R2[U] = . . . = Rm[U] = 0
unendlich viele verschiedene L¨osungen λj ∈ R, Uj : [a, b] → C, j ∈ N, wobei man die Rei- henfolge der Eigenwerte λj und die Eigenfunktionen Uj so w¨ahlen kann, dass
1. 0 < λ1 < λ2 < . . . (monoton wachsende Folge) und limj→∞λj = ∞.
2. Die Eigenfunktionen Uj bilden bzgl. (∗) ein vollst¨andiges Orthonormalsystem, d.h.
hUj, Ukiµ =
0 wenn j 6= k,
1 wenn j = k und v(x) =
X∞ k=1
ckUk(x), wobei ck = hUk, viµ f¨ur mindestens alle n mal diffbaren v : [a, b] → C, die die homogenen Randbedingun- gen erf¨ullen, wobei n die h¨ochste Ableitungsordnung in L ist.
F¨ur genauere Infos siehe L. Collatz: ’Differentialgleichungen’ und ’Eigenwertprobleme’
L¨osung eines positiv definiten homogenen Anfangs-Randwertproblems durch Entwicklung nach Eigenfunktionen I
Gegeben sei folgendes Anfangs-Randwertproblem auf dem Intervall [a, b]:
µ(x) ¨u(x, t) + L[u](x, t) = 0, R1[u] = R2[u] = . . . = Rm[u] = 0,
u(x,0) = u0, u(x,˙ 0) = v0 .
Zum Zeitpunkt 0 sind also die Auslenkung u0 und die Geschwindigkeit v0 vorgegeben.
Die Operatoren L und Rj sollen sich nur auf x beziehen.
Wenn das station¨are Problem
L[u](x) = 0, R1[u] = R2[u] = . . . = Rm[u] = 0,
selbstadjungiert und positiv definit und µ stetig und positiv ist, dann kann man das Anfangs-Randwertproblem so l¨osen:
Entwickle die Anfangswerte nach Eigenfunktionen:
u0(x) = X∞ k=0
ckUk(x), v0(x) = X∞ k=0
dk Uk(x), ck = hUk, u0iµ, dk = hUk, v0iµ.
Die L¨osung des Anfangs-Randwertproblems ist dann u(x, t) =
X∞ k=1
ck cosp
λkt
+ dk
√λk sinp
λk t
Uk(x).
L¨osung eines positiv definiten homogenen Anfangs-Randwertproblems durch Entwicklung nach Eigenfunktionen II
Gegeben sei folgendes Anfangs-Randwertproblem auf dem Intervall [a, b], das 1. Ordnung in t ist (W¨armeleitung, Diffusion):
µ(x) ˙u(x, t) + L[u](x, t) = 0, R1[u] = R2[u] = . . . = Rm[u] = 0, u(x,0) = u0(x),
Dann sehen die Separationsl¨osungen so aus
uk(x, t) = e−λktUk(x) wobei L[Uk](x) = λk µ(x)Uk(x).
Wenn das Randwertproblem selbstadjungiert und positiv definit ist, dann kann man den Anfangswert u0 nach Eigenfunktionen entwickeln
u0(x) = X∞ k=0
ckUk(x), ck = hUk, u0iµ,
und erh¨alt als L¨osung des Anfangs-Randwertproblems u(x, t) =
X∞ k=1
cke−λktUk(x).
Bemerkungen zu selbstadjungierten Eigenwertproblemen I
Der Beweis des in letzten VL angegebene Hauptsatzes ¨uber die Entwicklung nach Eigenfunktionen zu schwierig um ihn hier zu bringen. Man kann aber einige
Teilaussagen elementar beweisen, die den Hauptsatz plausibel machen.
Dies soll nun geschehen.
Hilfssatz: Gegeben sei ein selbstadjungiertes Eigenwertproblem der Form
L[U](x) = λ µ(x)U(x), R1[U] = R2[U] = . . . = Rm[U] = 0, (∗) mit einer positiven Gewichtsfunktion µ : [a, b] → R.
Seien (λ1, U1(x)) und (λ2, U2(x)) L¨osungen von (∗). Dann gilt
¯λ1 hU1, U2iµ = λ2hU1, U2iµ. Beweis: Zur Erinnerung:
hu, vi = Z b
a
u(x)v(x)dx, hu, viµ = Z b
a
u(x)v(x)µ(x)dx = hu, v µi = hµ u, v i Es folgt:
¯λ1hU1, U2iµ = hλ1U1, U2iµ
= hλ1 µ U1, U2i
= hL[U1], U2 i
= hU1, L[U2]i (weil L selbstadjungiert)
= hU1, λ2 µ U2i
= hU1, λ2 U2 iµ
= hU1, U2iµ λ2, q.e.d.
Bemerkungen zu selbstadjungierten Eigenwertproblemen II 1. Folgerung aus dem Hilfssatz:
Bei selbstadjungierten Randwertproblemen sind die Eigenwerte reelle Zahlen.
Beweis: Der Hilfssatz besagt, dass
¯λ1hU1, U2iµ = λ2hU1, U2iµ
f¨ur Eigenfunktionen Uj und die zugeh¨origen Eigenwerte λj, j = 1,2.
F¨ur den Spezialfall, dass
λ1 = λ2 =: λ, U1 = U2 =: U, hat man
¯λhU, Uiµ = λhU, Uiµ Dividieren durch hU, Uiµ ergibt, dass
¯λ = λ, also ist λ eine reelle Zahl.
Das Dividieren ist erlaubt, denn weil µ eine positive Funktion ist, hat man hU, Uiµ =
Z b a
U(x)U(x)µ(x)dx = Z b
a |U(x)|2µ(x)
| {z }
positiv
dx> 0, wenn U 6≡ 0 (positive Definitheit des Skalarprodukts).
Bemerkungen zu selbstadjungierten Eigenwertproblemen III 2. Folgerung aus dem Hilfssatz:
Bei selbstadjungierten Randwertproblemen sind die Eigenfunktionen zu verschiedenen Eigenwerten orthogonal bez¨uglich des µ-Skalarprodukts.
Beweis: Wir betrachten wieder die Gleichung aus dem Hilfssatz
¯λ1 hU1, U2iµ = λ2hU1, U2iµ.
Da wir schon wissen, dass die Eigenwerte reell sind, k¨onnen wir den Konjugationsstrich vergessen:
λ1 hU1, U2iµ = λ2hU1, U2iµ. Umstellen ergibt:
(λ1 − λ2)hU1, U2iµ = 0.
Wenn λ1 6= λ2, dann ist λ1 − λ2 6= 0 und es folgt hU1, U2iµ = 0. Die Eigenfunktionen sind also orthogonal.
Bemerkungen zu selbstadjungierten Eigenwertproblemen VI Behauptung:
Die Eigenwerte zu selbstadjungierten und positiv definiten Randwertproblemen sind positiv.
Beweis: Positive Definitheit bedeutet, dass
hL[u], ui > 0
f¨ur alle Funktionen u : [a, b] → C, u 6≡ 0, die n-mal diff’bar sind und die homogenen Randbedingungen erf¨ullen. F¨ur die Eigenfunktionen mit
L[U](x) = λ µ(x)U(x), U 6≡ 0 folgt daher
λ h| {z }U, U iµ
>0
= hλ U, U iµ = hλ µ U, U i = hL[U], U i > 0.
Also ist λ > 0.
Bemerkungen zu selbstadjungierten Eigenwertproblemen V Bemerkung: Wenn der selbstadjungierte Differentialoperator
L = an(x) dn
dxn + an−1(x) dn−1
dxn−1 + . . . + a1(x) d
dx + a0(x), x ∈ [a, b]
reelle Koeffizienten hat, d.h. an(x), . . . , a0(x) ∈ R f¨ur alle x, dann gibt es zu jedem Eigenwert auch eine Basis von reellwertigen Eigenfunktionen.
(Beweis: hier nicht, ist aber einfach).
Bemerkung: In der Quantenmechanik kommen schon bei den einfachsten Problemen Differentialoperatoren mit nicht-reellen Koeffizienten vor, z.B. der Impulsoperator
L = i d dx
Bemerkungen zu selbstadjungierten Eigenwertproblemen VI
Im Hauptsatz zur Entwicklung nach Eigenfunktionen wird behauptet, dass man eine Funktion v : [a, b] → C, die die homogenen Randbedingungen erf¨ullt, folgendermaßen nach Eigenfunktionen entwickeln kann:
v(x) = X∞ k=0
ck Uk(x) = lim
N→∞
XN
k=0
ckUk(x), wobei ck = hUk, viµ = Z b
a
Uk(x)v(x)µ(x)dx. (∗) Die Konvergenz gilt f¨ur jedes x ∈ [a, b]. Wenn die Funktion v aber nicht die Randbe- dingungen erf¨ullt, oder nicht differenzierbar ist, dann stimmt (∗) im allgemeinen nicht mehr f¨ur jedes x. Man hat aber die sogenannte Konvergenz im quadratischen Mittel
Nlim→∞
v −
XN
k=0
ck Uk
= 0, wobei
kuk = p
hu, ui =
sZ b
a |u(x)|2 dx,
vorausgesetzt, dass die zu entwickelnde Funktion v quadratintegrierbar ist, d.h. kvk < ∞.
Inhomogene Anfangs-Randwertprobleme I
In der letzten VL wurde gezeigt, dass man homogene Anfangs-Randwertprobleme der Form
µ(x) ¨u(x, t) + L[u](x, t) = 0, R1[u] = R2[u] = . . . = Rm[u] = 0, u(x,0) = u0(x), u˙(x,0) = v0(x).
oder der Form
µ(x) ˙u(x, t) + L[u](x, t) = 0, R1[u] = R2[u] = . . . = Rm[u] = 0,
u(x,0) = u0(x),
mit einem positiv definiten, selbstadjungierten Operator L durch Entwicklung der Anfangswerte v0, u0 nach den Eigenfunktionen l¨osen kann. Wir betrachten nun inhomogene Probleme der Form
µ(x) ¨u(x, t) +L[u](x, t) = f(x, t), R1[u] = r1(t), R2[u] = r2(t), . . . , Rm[u] = rm(t),
u(x,0) = u0(x), u(x,˙ 0) = v0(x) .
oder
µ(x) ˙u(x, t) + L[u](x, t) = f(x, t), R1[u] = r1(t), R2[u] = r2(t), . . . , Rm[u] = rm(t) u(x,0) = u0(x),
Inhomogene Anfangs-Randwertprobleme II Gegeben sei das Anfangs-Randwertproblem
µ(x) ˙u(x, t) + L[u](x, t) = f(x, t), R1[u] = r1(t), R2[u] = r2(t), . . . , Rm[u] = rm(t) u(x,0) = u0(x),
L¨osungsmethode:
1. Finde eine Funktion g(x, t), die die inhomogenen Randbedingungen erf¨ullt:
R1[g] = r1(t), R2[g] = r2(t), . . . ,Rm[g] = rm(t).
2. Mache den Ansatz u(x, t) = y(x, t) + g(x, t) mit einer unbekannten Funktion y.
Aufgrund der Linearit¨at der Randbedingungen muss gelten, dass R1[y] = R2[y] = . . . = Rm[y] = 0,
damit u das inhomogene Randwertproblem l¨ost. Ausserdem ergibt der Ansatz, dass µ(x) ( ˙y + ˙g)(x, t) + L[y + g](x, t) = f(x, t). (∗)
Bringe die von g abh¨angigen Anteile in (∗) auf die rechte Seite:
µ(x) ˙y(x, t) + L[y](x, t) = f(x, t) − µ(x) ˙g(x, t) − L[g](x, t) =: h(x, t) (∗∗).
3. Entwickle nach Eigenfunktionen:
y(x, t) = P
kyk(t)Uk(x), h(x,t)µ(x) = P
k hk(t)Uk(x), u0(x) − g(x,0) = P
k ck Uk(x)
4. Durch Einsetzen in (∗∗) folgen f¨ur die unbekannten Entwicklungskoeffizienten yk(t) die gew¨ohnlichen AWP y˙k(t) = −λkyk(t) + hk(t), yk(0) = ck.
Letztere l¨ost man mit der Variation-der- Konstanten-Formel.