• Keine Ergebnisse gefunden

Gew¨ohnliche Differenzialgleichungen

N/A
N/A
Protected

Academic year: 2021

Aktie "Gew¨ohnliche Differenzialgleichungen"

Copied!
45
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Gew¨ohnliche Differenzialgleichungen

Martin Brokate ∗∗

Inhaltsverzeichnis

1 Lineare autonome Systeme 2

2 Der Satz von Picard-Lindel¨of 13

3 Das Lemma von Gronwall 19

4 Lineare zeitvariante Systeme 22

5 Abh¨angigkeit der L¨osung von den Anfangswerten 26

6 Stabilit¨at 34

7 Der Begradigungssatz 43

Vorlesungsskript, SS 2018

∗∗Zentrum Mathematik, TU M¨unchen

(2)

1 Lineare autonome Systeme

Ein einf¨uhrendes Beispiel.Wir betrachten die Funktion x, definiert durch

x(t) =ceat, t, a, cR. (1.1)

ur deren Ableitung gilt ˙x(t) = ceat ·a. Die durch (1.1) definierte Funktion erf¨ullt also die Gleichung

˙

x(t) = ax(t), ur allet R. (1.2) Wir schreiben sie k¨urzer als

˙

x=ax . (1.3)

Eine solche Gleichung heißt Differenzialgleichung. Sie verkn¨upft Funktionswerte und Ableitungen einer unbekannten Funktion. Genauer bezeichnet man sie als gew¨ohnliche Differenzialgleichung: Das Argument t ist eindimensional (es treten daher “gew¨ohn- liche” und keine partiellen Ableitungen auf), und Funktionswert und Ableitung werden an jeweils derselben Stelle t in Beziehung zueinander gesetzt (in Kontrast etwa zu der Differenzialgleichung, die durch ˙x(t) = ax(th) mit h >0 definiert wird).

Eine differenzierbare Funktion x : R R, welche (1.2) erf¨ullt, heißt osung von (1.2) auf R. Ist a R gegeben, so ist jede Funktion der Form (1.1) mit frei w¨ahlbarem c R eine L¨osung. Geben wir zus¨atzlich x0 Rvor und verlangen

x(0) =x0, (1.4)

so ist cdurch die Bedingung x0 =ce0 =ceindeutig festgelegt. Fasst man (1.3) und (1.4) zusammen, so erh¨alt man dasAnfangswertproblem

˙

x=ax , x(0) =x0. (1.5)

Gibt es außer Funktionen der Form (1.1) noch weitere L¨osungen? Sei y : R R eine beliebige L¨osung. Es gilt

d

dt e−aty(t)

=−ae−aty(t) +e−aty(t) =˙ e−at( ˙y(t)ay(t)) = 0

ur alle t, also e−aty(t) = c ur ein c R und damit y(t) = ceat. Die Antwort ist also

“nein”.

Bei Differenzialgleichungen interessiert man sich auch f¨ur das “asymptotische Verhalten”.

Im obigen Beispiel h¨angt das Verhalten der L¨osung f¨urt → ∞vom Vorzeichen von a ab.

Ist a= 0, so ist die L¨osung konstant. Ist a >0, so gilt |x(t)| → ∞ ur t→ ∞; ist a <0, so gilt x(t)0 f¨ur t→ ∞.

Systeme von Differenzialgleichungen. Sie haben die Form

˙

x=f(t, x), tR, xRn, (1.6) mit derrechten Seitef. Sie bestehen ausneinzelnen Differenzialgleichungen ˙xi =fi(t, x) ur die Komponenten xi von x. Diese sind verkoppelt, da fi im allgemeinen von allen Komponenten xj (nicht nur von xi) abh¨angt. Das System heißt autonom, falls f nicht von t abh¨angt,

˙

x=f(x). (1.7)

(3)

Die L¨osungen sind Kurven t 7→ x(t). Der Raum, in dem die L¨osungskurven verlaufen, heißt Zustandsraum oder Phasenraum. Das System (1.6) hat als Zustandsraum den Rn.

Lineare Systeme.Man spricht von einem linearen System, wenn die rechte Seitef linear von x abh¨angt. Ein lineares System hat die Form

˙

x=A(t)x , (1.8)

wobei A(t) eine n×n Matrix ist. F¨ur lineare Systeme gilt dasSuperpositionsprinzip:

Sind die Funktionen x1, . . . , xk osungen von (1.8), so ist auch jede Linearkombination Pk

j=1cjxj osung. Es gilt n¨amlich d

dt Xk

j=1

cjxj (t) =

k

X

j=1

cjx˙j(t) =

k

X

j=1

cjA(t)xj(t) =A(t)Xk

j=1

cjxj(t) .

Lineare autonome Systeme.Sie haben die Form

˙

x=Ax , AR(n,n). (1.9)

SeiA Diagonalmatrix,A= diag (λ1, . . . , λn). Dann zerf¨allt das System (1.9) inn einzelne Gleichungen

˙

xi =λixi, 1in , mit den L¨osungen

xi(t) =cieλit, ci R.

Sei A R(n,n) mit Eigenwert λ R und Eigenvektor v Rn, also Av = λv. Dann ist x(t) =eλtv eine L¨osung von (1.9), da

˙

x(t) = λeλtv =eλtAv=Ax(t).

Sei A R(n,n) mit Eigenwerten λ1, . . . , λn R und Eigenvektoren v1, . . . , vn Rn. Dann ist jede Linearkombination

x(t) =

n

X

j=1

cjeλjtvj (1.10)

osung von (1.9), gem¨aß dem Superpositionsprinzip. Ist V = (v1| . . . |vn) R(n,n) die Matrix mit den Spalten v1, . . . , vn, so k¨onnen wir die Vektorgleichungen Avj = λjvj zu einer Matrixgleichung AV = V D zusammenfassen mit D = diag (λ1, . . . , λn). Sind die Eigenvektorenv1, . . . , vnRn linear unabh¨angig, so istV invertierbar, und es folgt

V−1AV =D , D= diag (λ1, . . . , λn), V, DR(n,n). (1.11) Wir werden sp¨ater sehen, dass es außer den L¨osungen (1.10) keine anderen L¨osungen gibt.

Damit ist der Fall “A reell diagonalisierbar” hinsichtlich der Struktur der L¨osungen “im Prinzip” gekl¨art.

Das Phasenportr¨at. Im Fall n = 2 k¨onnen wir uns die L¨osungen eines Systems von Differenzialgleichungen veranschaulichen, indem wir L¨osungskurven x(t) = (x1(t), x2(t)) in der Zustandsebene (Phasenebene) graphisch darstellen. Eine solche Darstellung heißt

(4)

Phasenportr¨at oderPhasendiagramm. Wir betrachten Beispiele im linearen autono- men Fall, alsoA= diag (λ1, λ2).

−2 0 0 −1

,

−1 0 0 −1

,

2 0 0 1

,

−1 0 0 1

. (Phasenportr¨ats an der Tafel)

Komplexe Eigenwerte.Eine reelle Matrix kann komplexe Eigenwerte haben. Beispiels- weise hat die Matrix

A=

α −ω

ω α

, α, ωR,

die konjugiert komplexen Eigenwerteλ=α+undλ=α−iω. F¨ur die Zustandsvariable x= (x1, x2) betrachten wir das System

˙ x=

α −ω

ω α

x . (1.12)

Wir interpretieren den Zustand x als komplexe Zahl z = x1+ix2. Anstelle des Systems (1.12) im R2 betrachten wir eine einzelne Differenzialgleichung inC,

˙

z =λz , mit λ =α+iω, (1.13)

wobei wir die Multiplikation auf der rechten Seite als Multiplikation in C verstehen. Es gilt dann

˙

x1+ix˙2 = ˙z =λz = (α+iω)(x1+ix2) = (αx1ωx2) +i(ωx1+αx2). (1.14) Real- und Imagin¨arteil dieser Gleichung entsprechen gerade den beiden Komponenten der Gleichung (1.12). Eine L¨osung von (1.13) ist

z(t) = eλt, (1.15)

wie man durch Differenzieren der Potenzreihenentwicklung eλt=

X

k=0

λk k!tk erkennt. Aus (1.15) erhalten wir

z(t) =eλt =e(α+iω)t=eαteiωt. (1.16) Der Faktor eiωt beschreibt eine Drehung mit konstanter Winkelgeschwindigkeit und Fre- quenzω/2π (= Anzahl der Kreisdurchl¨aufe pro Zeiteinheit). Multipliziert mit dem Faktor eαtergibt sich eine spiralf¨ormige Bewegung (f¨urt→ ∞gegen Null oder ins Unendliche, je nach Vorzeichen vonα), und eine Kreisbewegung f¨urα = 0. In kartesischen Koordinaten erhalten wir

z(t) =

x1(t) x2(t)

=eαt

cos(ωt) sin(ωt)

. (1.17)

(5)

Im Fall α= 0 wird das System (1.12) zu

˙

x1 =−ωx2, x˙2 =ωx1.

Beide Komponentenx1 und x2 sind L¨osungen der Differenzialgleichung zweiter Ordnung ur eine reelle Variable y,

¨

y+ω2y= 0. (1.18)

Diese Gleichung beschreibt den sogenannten harmonischen Oszillator. Matrizen mit komplexen Eigenwerten sind somit ein grundlegendes Hilfsmittel zur Beschreibung von Schwingungsvorg¨angen.

Allgemeiner L¨osungsansatz. Ziel ist es, die Formel x(t) = eatx0 ur das skalare An- fangswertproblem ˙x=ax, x(0) =x0, auf Systeme ˙x=Ax zu verallgemeinern, so dass

x(t) = etAx0 (1.19)

eine L¨osung wird. Zu diesem Zweck wollen wir in der Exponentialfunktion als Argumente Matrizen (statt Zahlen) zulassen. Die naheliegende Definition ist

eA =

X

k=0

Ak k! . Reihen im normierten Raum.

Definition 1.1

Sei (X,k · k)normierter Raum ¨uber K (steht f¨ur R oderC), sei (xk)k≥0 Folge in X. Falls die Folge der Partialsummen

sn=

n

X

k=0

xk (1.20)

gegen einsX konvergiert, so sagen wir, dass die zugeh¨orige Reihe P

k=0xkkonvergiert, und definieren

X

k=0

xk =s . (1.21)

Die Reihe P

k=0xk heißt absolut konvergent, falls

X

k=0

kxkk<. (1.22)

2 Aus der Stetigkeit der Addition und Skalarmultiplikation im normierten Raum folgen die Rechenregeln

X

k=0

(xk+yk) =

X

k=0

xk+

X

k=0

yk,

X

k=0

λxk=λ

X

k=0

xk, (1.23)

λK, die jeweils g¨ultig sind, wenn die Grenzwerte auf der rechten Seite existieren.

(6)

Satz 1.2 Sei (X,k · k) Banachraum. Ist die ReiheP

k=0xk absolut konvergent, so ist sie auch konvergent, und es gilt

X

k=0

xk

X

k=0

kxkk. (1.24)

Beweis:Sei

σn=

n

X

k=0

kxkk,

dann gilt f¨ur die in (1.20) definierten Partialsummen f¨ur n > m ksnsmk=

n

X

k=m+1

xk

=nσm|.

n

X

k=m+1

kxkk=nσm|.

Da (σn) Cauchyfolge in R ist, ist (sn) Cauchyfolge in X, also konvergent. Wegenksnk ≤

n| folgt (1.24) aus

ksk= lim

n→∞ksnk ≤ lim

n→∞n|=

X

k=0

kxkk,

wobei die Stetigkeit der Norm verwendet wurde. 2

Matrixnormen. Wir betrachten Normen auf dem Matrizenraum K(n,n), die durch eine Norm auf Kn erzeugt werden.

Definition 1.3

Sei k · k eine Norm auf Kn. F¨ur AK(n,n) definieren wir kAk= sup

x∈Kn kxk=1

kAxk. (1.25)

2

Unmittelbar aus der Definition folgt

kAk= sup

x6=0

kAxk

kxk , (1.26)

sowie

kIk= 1.

Der Rand {kxk = 1} der Einheitskugel im Kn ist kompakt. Daher wird in (1.25) das Maximum angenommen,

kAk= max

x∈Kn kxk=1

kAxk. (1.27)

Lemma 1.4 Durch (1.25) wird eine Norm auf K(n,n) definiert. Sie heißt die von der gegebenen Vektornorm auf Kn erzeugte Operatornorm oder Matrixnorm.

Beweis:Folgt direkt aus den Definitionen. 2

Wir formulieren einige allgemeine Eigenschaften von Matrixnormen.

(7)

Lemma 1.5 Sei (k · k) Norm auf Kn. F¨ur die zugeh¨orige Matrixnorm gilt

kAxk ≤ kAkkxk, (1.28)

kABk ≤ kAkkBk, (1.29)

ur alle A, B K(n,n), xKn. Beweis:urx6= 0 gilt

kAxk=

A x

kxk

kxk ≤ kAkkxk, kABxk ≤ kAkkBxk ≤ kAkkBkkxk, also

sup

kxk=1

kABxk ≤ kAkkBk.

2 Satz 1.6 Sei

f(z) =

X

k=0

ckzk

Potenzreihe in C mit Konvergenzradius r. Dann ist die Matrixreihe f(A) =

X

k=0

ckAk (1.30)

absolut konvergent f¨ur alle AK(n,n) mit kAk< r.

Hierbei istk·keine beliebige Matrixnorm, das heißt, eine Matrixnorm, die von irgendeiner Vektornorm erzeugt wird.

Beweis:Gem¨aß Lemma 1.5 gilt

kckAkk ≤ |ck|kAkk, ur allek N. Ist kAk< r, so gilt

X

k=0

kckAkk ≤

X

k=0

|ck|kAkk <.

2 Die Matrixexponentialfunktion. Gem¨aß Satz 1.6 l¨asst sich

eA =

X

k=0

Ak

k! (1.31)

ur beliebige quadratische Matrizen AK(n,n) definieren. Unmittelbar aus der Definition folgen

e0 =I (1.32)

und

etA =

X

k=0

tkAk

k! , tR. (1.33)

Die Funktion t7→etA ist also auf ganzR in eine Potenzreihe um t= 0 entwickelbar.

(8)

Lemma 1.7 ur AK(n,n) gilt d

dtetA =AetA =etAA . (1.34)

Beweis:Aus (1.33) folgt d

dtetA = d dt

X

k=0

tkAk k!

=

X

k=1

tk−1 Ak

(k1)! =A

X

k=0

tkAk

k! =X

k=0

tkAk k!

A ,

da Rechts- und Linksmultiplikation mit A eine stetige Operation ist und daher mit dem

Grenzwert vertauscht werden kann. 2

Lemma 1.8 Seien A, B K(n,n) mit AB =BA. Dann gilt

eA+B =eA·eB. (1.35)

Beweis:Wie im skalaren Fall (siehe Analysis 1) beweist man die Formel f¨ur das Cauchy- Produkt von Reihen und erh¨alt

eA·eB =X

k=0

Ak k!

·X

j=0

Bj j!

=

X

m=0 m

X

k=0

Ak k!

Bm−k

(mk)!. (1.36) WegenAB =BA gilt die binomische Formel

m

X

k=0

m!

k!(mk)!AkBm−k = (A+B)m. (1.37) Aus (1.36) und (1.37) folgt

eA·eB =

X

m=0

(A+B)m

m! =eA+B.

2 osung des Anfangswertproblems. Wir betrachten das Anfangswertproblem

˙

x=Ax , x(0) =x0. (1.38)

Unter einer L¨osung von (1.38) verstehen wir eine differenzierbare Funktion x :R Kn, welche ˙x(t) =Ax(t) f¨ur alle tR sowiex(0) =x0 erf¨ullt.

Satz 1.9 (Eindeutige L¨osung des Anfangswertproblems)

ur jedes A K(n,n) und x0 Kn hat das Anfangswertproblem (1.38) die eindeutige osung

x(t) = etAx0. (1.39)

(9)

Beweis:Dass die Funktion x eine L¨osung ist, folgt unmittelbar aus (1.34) und aus x(0) =e0x0 =Ix0 =x0.

Zum Beweis der Eindeutigkeit betrachten wir eine beliebige L¨osung y : R K(n,n). Mit Lemma 1.7, der Produktregel und der Kettenregel erhalten wir f¨ur alle tR

d

dt e−tAy(t)

=−e−tAAy(t) +e−tAy(t) =˙ e−tA( ˙y(t)Ay(t)) = 0. Es folgt

e−tAy(t) = cKn.

Wir setzent= 0 und erhalten c=y(0) =x0. Linksmultiplikation mit etA ergibt etAx0 =etAe−tAy(t) = e0y(t) = y(t),

wobei wir Lemma 1.8 verwendet haben. 2

Satz 1.10 (L¨osungsraum des linearen Systems)

Sei A K(n,n). Die Menge L der L¨osungen des linearen Systems x˙ =Ax ist ein Vektor- raum der Dimension n ¨uber K. Die Spalten der Matrix etA bilden eine Basis von L.

Beweis:Wir definieren eine Abbildung Φ :KnAbb (R;Kn) durch (Φη)(t) =etAη .

Gem¨aß Superpositionsprinzip istLein Unterraum von Abb (R;Kn). Nach Satz 1.9 ist die Abbildung Φ :KnL bijektiv. Sie ist linear, und es gilt f¨ur Bild und Kern

Im (Φ) =L , ker(Φ) ={0}.

Da sich die Dimensionen von Bild und Kern zur Dimension des Urbildraums addieren, folgt dim(L) = dim(Kn) = n. Die Spalten von etA sind gerade die Bilder Φ(ei) der Einheitsvektorenei Kn. Da Φ bijektiv ist, bilden sie eine Basis von L. 2 Form der L¨osungen. Wir behandeln nun die Frage, wie etA ur eine beliebige Matrix AK(n,n) aussieht.

Lemma 1.11 Sei A = diag (λ1, . . . , λn). Dann gilt

etA = diag (eλ1t, . . . , eλnt). (1.40) Beweis:Einsetzen von (tA)k= diag ((λ1t)k, . . . ,nt)k) in die Reihenentwicklung vonetA. 2

Definition 1.12 Eine MatrixAK(n,n) heißtnilpotent, fallsAn = 0gilt f¨ur einn N.

(10)

Ist An= 0, so gilt

etA =

n−1

X

k=0

tkAk

k! . (1.41)

Beispiel:

A=

0 1 0 0 0 1 0 0 0

, A2 =

0 0 1 0 0 0 0 0 0

, A3 = 0. (1.42)

Es ist

etA =I+tA+t2A2 2 =

1 t 12t2 0 1 t

0 0 1

. (1.43)

Lemma 1.13 Seien A, V K(n,n), sei V invertierbar. Dann gilt

etV−1AV =V−1etAV , tR. (1.44) Beweis:Es ist

m

X

k=0

tk(V−1AV)k

k! =

m

X

k=0

tkV−1AkV

k! =V−1

m

X

k=0

tkAk k!

! V .

Grenz¨ubergangm → ∞liefert die Behauptung. 2

Wir f¨uhren die Bestimmung von etA ur eine allgemeine Matrix A K(n,n) durch Ba- siswechsel und Zerlegung auf die beiden schon behandelten F¨alle (diagonal, nilpotent) zur¨uck. In der Linearen Algebra wird zu einer beliebigen Matrix AC(n,n) durch Basis- wechsel deren Jordansche Normalform D konstruiert. D hat die Blockdiagonalform

D=

D1 0 · · · 0 0 D2 0 ... ... . .. ... 0 · · · 0 Dk

, (1.45)

wobei

Dj =

λj 1 0 · · · 0 0 λj 1 ... ... . .. ... ...

... λj 1

0 0 λj

Cnj×nj. (1.46)

Hierbei sind λj C die Eigenwerte von A (diese m¨ussen nicht voneinander verschieden sein), und es gilt

k

X

j=1

nj =n .

(11)

Wird der Basiswechsel durch die invertierbare Matrix V C(n,n) beschrieben, so ist

A =V−1DV . (1.47)

Nach Lemma 1.13 gilt dann

etA =V−1etDV . (1.48)

Aus der Blockdiagonalform von D,

D= diag (D1, . . . , Dk) folgt wie in Lemma 1.11

etD = diag (etD1, . . . , etDk). (1.49) Gem¨aß (1.46) ist

Dj =λjI +Nj, Nj =

0 1 0 · · · 0

0 0 1 ...

... . .. ... ...

... 0 1

0 0 0

Cnj×nj, (1.50)

und daher

etDj =et(λjI+Nj) =eλjtIetNj =eλjtetNj. (1.51) Es ist

Njµ = (δi,k−µ)1≤i,k≤nj, 0µnj 1, (1.52) (Kronecker-Delta), undNjµ = 0 f¨ur µnj. (Induktionsbeweis: µ= 1 klar, µµ+ 1:

(Njµ+1)il = (NjµNj)il =X

k

δi,k−µδk,l−1 =δi,l−(µ+1). Es folgt

etNj =

nj−1

X

µ=0

tµ µ!Njµ =

1 t t22 · · · (ntnj−1

j−1)!

0 1 . .. ...

. .. ... ...

. .. t

0 1

(1.53)

Zusammen mit den Formeln

etA =V−1etDV , etD = diag (etD1, . . . , etDk), etDj =eλjtetNj. (1.54) ist damit das Problem der Berechnung von etA zur¨uckgef¨uhrt worden auf das Problem der Linearen Algebra, die Jordansche Normalform von A zu bestimmen. Dazu muß man die Eigenwerte λj von A und die zugeh¨origen Eigenvektoren bzw. verallgemeinerten Ei- genvektoren (welche die Spalten von V bilden) berechnen. F¨ur eine allgemeine Matrix A wollen wir das nicht weiter verfolgen (siehe etwa das Lehrbuch von Walter), sondern uns

(12)

darauf beschr¨anken, uns die Struktur der L¨osungen klar zu machen. Aus (1.53) und (1.54) folgt, dass alle L¨osungen von ˙x=Ax,

x(t) =

x1(t)

... xn(t)

aus Komponentenfunktionen xi bestehen, welche Linearkombinationen von Funktionen der Form

tleλt

sind. Hierbei ist λ Eigenwert von A, und der m¨ogliche Wertebereich der Exponenten l angt von der Gr¨oße der zugeh¨origen Jordan-K¨astchen Dj ab. Ist A diagonalisierbar, so treten keine Exponenten l >0 auf, und die L¨osungen haben die Form

x(t) = X

λ∈σ(A)

vλeλt, vλ =

vλ,1

... vλ,n

Cn,

wobeiσ(A) die Menge der Eigenwerte vonA bezeichnet und die Koeffizientenvektorenvλ

durch die Eigenvektoren von A und die Anfangsbedingung x0 festgelegt sind.

urA R(n,n) und Anfangswertex0 Rn sind die L¨osungen x(t) =etAx0 reell. Die eben beschriebene Vorgehensweise liefert auch nichtreelle komplexe L¨osungen, fallsAnichtreelle Eigenwerteλhat. Die nichtreellen Eigenwerte treten aber in komplex konjugierten Paaren (λ, λ) auf; die entsprechenden Jordank¨astchen haben die gleiche Gr¨oße. Es ergeben sich Paare reeller L¨osungen mit Zeitanteilen der Formtleatcos(ωt) undtleatsin(ωt). Wir stellen das nicht im Einzelnen dar.

(13)

2 Der Satz von Picard-Lindel¨ of

Wir betrachten ein System gew¨ohnlicher Differentialgleichungen erster Ordnung,

˙

x=f(t, x), (2.1)

sowie das zugeh¨orige Anfangswertproblem

˙

x=f(t, x), x(t0) =x0. (2.2) Die Funktionf bezeichnet man als dierechte Seiteder Differenzialgleichung, den Vektor x0 alsAnfangswert zum Zeitpunktt0.

Definition 2.1 (L¨osung eines Systems erster Ordnung)

Sei I R Intervall, D R × Rn offen, f : D Rn. Eine Funktion x : I Rn heißt L¨osung von (2.1) in I, falls x in I differenzierbar ist und f¨ur alle t I gilt, dass (t, x(t))D und

˙

x(t) = f(t, x(t)) (2.3)

Falls außerdem (t0, x0)D gegeben ist mit t0 I und x(t0) =x0, so heißt x osung des

Anfangswertproblems (2.2) in I. 2

Wir sind interessiert an reellwertigen L¨osungen. Wir haben bereits gesehen, dass es im Falle linearer Systeme sinnvoll ist, sich auch mit komplexwertigen L¨osungen zu befassen, auch wenn man nur an reellwertigen L¨osungen interessiert ist. Wir verzichten aber im Folgenden darauf, Rn durch Kn zu ersetzen, obwohl das oft problemlos m¨oglich ist.

angt f nicht von x ab, so ist

x(t) = x0+ Z t

t0

f(s)ds

eine L¨osung des Anfangswertproblems (2.2), falls f stetig ist (Hauptsatz der Differential- und Integralrechnung).

Lemma 2.2 Sei DR×Rn offen, f :DRn stetig. Sei I Intervall in R und x:I Rn stetig, sei t0 I und (t0, x0) D. Dann ist x eine L¨osung des Anfangswertproblems (2.2) auf I genau dann, wenn gilt (t, x(t))D ur alle tI und

x(t) =x0+ Z t

t0

f(s, x(s))ds , ur alle t I. (2.4) Ist außerdem f Ck(D) so ist xCk+1(I).

Beweis:Ist x osung des AWP, so ist ˙x : I Rn stetig, da f stetig ist. Aus dem Hauptsatz folgt

x(t)x(t0) = Z t

t0

˙

x(s)ds= Z t

t0

f(s, x(s))ds .

Gilt umgekehrt (2.4), so folgt zun¨achstx(t0) = x0. Da der Integrand auf der rechten Seite von (2.4) stetig ist als Funktion von s, ist nach dem Hauptsatz x differenzierbar in I,

Referenzen

ÄHNLICHE DOKUMENTE

Bei Anwendung von chromsaurem Bleioxyd statt Kupferoxyd verfährt man genau in der zuerst beschrie- benen Weise. Das chromsaure Bleioxyd wird vor jeder Analyse in einer

, a n (x) ein, da sich –abh¨ angig von den a i (x)– die L¨ osung meist nur durch spezielle Funktionen (Bessel-Funktionen, Airy-Funktionen, hypergeometrische Funktionen etc., etc.,

Bestimme die

Stelle eine Differentialgleichung f¨ ur die Menge u(t) des Abfalles auf einem Quadratzentimeter auf, l¨ose diese und zeige, daß sich die Abfallmenge im Laufe der Zeit

Die Wahrscheinlichkeit daf¨ ur, daß ein ,,nicht-moderner” Farmer in einer Zeiteinheit die Innovation neu ¨ ubernimmt, setze sich additiv zusammen aus der konstanten Wahrscheinlichkeit

[r]

[r]

[r]