Gew¨ohnliche Differenzialgleichungen
∗Martin Brokate ∗∗
Inhaltsverzeichnis
1 Lineare autonome Systeme 2
2 Der Satz von Picard-Lindel¨of 13
3 Das Lemma von Gronwall 19
4 Lineare zeitvariante Systeme 22
5 Abh¨angigkeit der L¨osung von den Anfangswerten 26
6 Stabilit¨at 34
7 Der Begradigungssatz 43
∗Vorlesungsskript, SS 2018
∗∗Zentrum Mathematik, TU M¨unchen
1 Lineare autonome Systeme
Ein einf¨uhrendes Beispiel.Wir betrachten die Funktion x, definiert durch
x(t) =ceat, t, a, c∈R. (1.1)
F¨ur deren Ableitung gilt ˙x(t) = ceat ·a. Die durch (1.1) definierte Funktion erf¨ullt also die Gleichung
˙
x(t) = ax(t), f¨ur allet ∈R. (1.2) Wir schreiben sie k¨urzer als
˙
x=ax . (1.3)
Eine solche Gleichung heißt Differenzialgleichung. Sie verkn¨upft Funktionswerte und Ableitungen einer unbekannten Funktion. Genauer bezeichnet man sie als gew¨ohnliche Differenzialgleichung: Das Argument t ist eindimensional (es treten daher “gew¨ohn- liche” und keine partiellen Ableitungen auf), und Funktionswert und Ableitung werden an jeweils derselben Stelle t in Beziehung zueinander gesetzt (in Kontrast etwa zu der Differenzialgleichung, die durch ˙x(t) = ax(t−h) mit h >0 definiert wird).
Eine differenzierbare Funktion x : R → R, welche (1.2) erf¨ullt, heißt L¨osung von (1.2) auf R. Ist a ∈ R gegeben, so ist jede Funktion der Form (1.1) mit frei w¨ahlbarem c ∈R eine L¨osung. Geben wir zus¨atzlich x0 ∈Rvor und verlangen
x(0) =x0, (1.4)
so ist cdurch die Bedingung x0 =ce0 =ceindeutig festgelegt. Fasst man (1.3) und (1.4) zusammen, so erh¨alt man dasAnfangswertproblem
˙
x=ax , x(0) =x0. (1.5)
Gibt es außer Funktionen der Form (1.1) noch weitere L¨osungen? Sei y : R → R eine beliebige L¨osung. Es gilt
d
dt e−aty(t)
=−ae−aty(t) +e−aty(t) =˙ e−at( ˙y(t)−ay(t)) = 0
f¨ur alle t, also e−aty(t) = c f¨ur ein c ∈ R und damit y(t) = ceat. Die Antwort ist also
“nein”.
Bei Differenzialgleichungen interessiert man sich auch f¨ur das “asymptotische Verhalten”.
Im obigen Beispiel h¨angt das Verhalten der L¨osung f¨urt → ∞vom Vorzeichen von a ab.
Ist a= 0, so ist die L¨osung konstant. Ist a >0, so gilt |x(t)| → ∞ f¨ur t→ ∞; ist a <0, so gilt x(t)→0 f¨ur t→ ∞.
Systeme von Differenzialgleichungen. Sie haben die Form
˙
x=f(t, x), t∈R, x∈Rn, (1.6) mit derrechten Seitef. Sie bestehen ausneinzelnen Differenzialgleichungen ˙xi =fi(t, x) f¨ur die Komponenten xi von x. Diese sind verkoppelt, da fi im allgemeinen von allen Komponenten xj (nicht nur von xi) abh¨angt. Das System heißt autonom, falls f nicht von t abh¨angt,
˙
x=f(x). (1.7)
Die L¨osungen sind Kurven t 7→ x(t). Der Raum, in dem die L¨osungskurven verlaufen, heißt Zustandsraum oder Phasenraum. Das System (1.6) hat als Zustandsraum den Rn.
Lineare Systeme.Man spricht von einem linearen System, wenn die rechte Seitef linear von x abh¨angt. Ein lineares System hat die Form
˙
x=A(t)x , (1.8)
wobei A(t) eine n×n Matrix ist. F¨ur lineare Systeme gilt dasSuperpositionsprinzip:
Sind die Funktionen x1, . . . , xk L¨osungen von (1.8), so ist auch jede Linearkombination Pk
j=1cjxj L¨osung. Es gilt n¨amlich d
dt Xk
j=1
cjxj (t) =
k
X
j=1
cjx˙j(t) =
k
X
j=1
cjA(t)xj(t) =A(t)Xk
j=1
cjxj(t) .
Lineare autonome Systeme.Sie haben die Form
˙
x=Ax , A∈R(n,n). (1.9)
SeiA Diagonalmatrix,A= diag (λ1, . . . , λn). Dann zerf¨allt das System (1.9) inn einzelne Gleichungen
˙
xi =λixi, 1≤i≤n , mit den L¨osungen
xi(t) =cieλit, ci ∈R.
Sei A ∈ R(n,n) mit Eigenwert λ ∈ R und Eigenvektor v ∈ Rn, also Av = λv. Dann ist x(t) =eλtv eine L¨osung von (1.9), da
˙
x(t) = λeλtv =eλtAv=Ax(t).
Sei A ∈R(n,n) mit Eigenwerten λ1, . . . , λn ∈R und Eigenvektoren v1, . . . , vn ∈Rn. Dann ist jede Linearkombination
x(t) =
n
X
j=1
cjeλjtvj (1.10)
L¨osung von (1.9), gem¨aß dem Superpositionsprinzip. Ist V = (v1| . . . |vn) ∈ R(n,n) die Matrix mit den Spalten v1, . . . , vn, so k¨onnen wir die Vektorgleichungen Avj = λjvj zu einer Matrixgleichung AV = V D zusammenfassen mit D = diag (λ1, . . . , λn). Sind die Eigenvektorenv1, . . . , vn∈Rn linear unabh¨angig, so istV invertierbar, und es folgt
V−1AV =D , D= diag (λ1, . . . , λn), V, D∈R(n,n). (1.11) Wir werden sp¨ater sehen, dass es außer den L¨osungen (1.10) keine anderen L¨osungen gibt.
Damit ist der Fall “A reell diagonalisierbar” hinsichtlich der Struktur der L¨osungen “im Prinzip” gekl¨art.
Das Phasenportr¨at. Im Fall n = 2 k¨onnen wir uns die L¨osungen eines Systems von Differenzialgleichungen veranschaulichen, indem wir L¨osungskurven x(t) = (x1(t), x2(t)) in der Zustandsebene (Phasenebene) graphisch darstellen. Eine solche Darstellung heißt
Phasenportr¨at oderPhasendiagramm. Wir betrachten Beispiele im linearen autono- men Fall, alsoA= diag (λ1, λ2).
−2 0 0 −1
,
−1 0 0 −1
,
2 0 0 1
,
−1 0 0 1
. (Phasenportr¨ats an der Tafel)
Komplexe Eigenwerte.Eine reelle Matrix kann komplexe Eigenwerte haben. Beispiels- weise hat die Matrix
A=
α −ω
ω α
, α, ω∈R,
die konjugiert komplexen Eigenwerteλ=α+iωundλ=α−iω. F¨ur die Zustandsvariable x= (x1, x2) betrachten wir das System
˙ x=
α −ω
ω α
x . (1.12)
Wir interpretieren den Zustand x als komplexe Zahl z = x1+ix2. Anstelle des Systems (1.12) im R2 betrachten wir eine einzelne Differenzialgleichung inC,
˙
z =λz , mit λ =α+iω, (1.13)
wobei wir die Multiplikation auf der rechten Seite als Multiplikation in C verstehen. Es gilt dann
˙
x1+ix˙2 = ˙z =λz = (α+iω)(x1+ix2) = (αx1−ωx2) +i(ωx1+αx2). (1.14) Real- und Imagin¨arteil dieser Gleichung entsprechen gerade den beiden Komponenten der Gleichung (1.12). Eine L¨osung von (1.13) ist
z(t) = eλt, (1.15)
wie man durch Differenzieren der Potenzreihenentwicklung eλt=
∞
X
k=0
λk k!tk erkennt. Aus (1.15) erhalten wir
z(t) =eλt =e(α+iω)t=eαteiωt. (1.16) Der Faktor eiωt beschreibt eine Drehung mit konstanter Winkelgeschwindigkeit und Fre- quenzω/2π (= Anzahl der Kreisdurchl¨aufe pro Zeiteinheit). Multipliziert mit dem Faktor eαtergibt sich eine spiralf¨ormige Bewegung (f¨urt→ ∞gegen Null oder ins Unendliche, je nach Vorzeichen vonα), und eine Kreisbewegung f¨urα = 0. In kartesischen Koordinaten erhalten wir
z(t) =
x1(t) x2(t)
=eαt
cos(ωt) sin(ωt)
. (1.17)
Im Fall α= 0 wird das System (1.12) zu
˙
x1 =−ωx2, x˙2 =ωx1.
Beide Komponentenx1 und x2 sind L¨osungen der Differenzialgleichung zweiter Ordnung f¨ur eine reelle Variable y,
¨
y+ω2y= 0. (1.18)
Diese Gleichung beschreibt den sogenannten harmonischen Oszillator. Matrizen mit komplexen Eigenwerten sind somit ein grundlegendes Hilfsmittel zur Beschreibung von Schwingungsvorg¨angen.
Allgemeiner L¨osungsansatz. Ziel ist es, die Formel x(t) = eatx0 f¨ur das skalare An- fangswertproblem ˙x=ax, x(0) =x0, auf Systeme ˙x=Ax zu verallgemeinern, so dass
x(t) = etAx0 (1.19)
eine L¨osung wird. Zu diesem Zweck wollen wir in der Exponentialfunktion als Argumente Matrizen (statt Zahlen) zulassen. Die naheliegende Definition ist
eA =
∞
X
k=0
Ak k! . Reihen im normierten Raum.
Definition 1.1
Sei (X,k · k)normierter Raum ¨uber K (steht f¨ur R oderC), sei (xk)k≥0 Folge in X. Falls die Folge der Partialsummen
sn=
n
X
k=0
xk (1.20)
gegen eins∈X konvergiert, so sagen wir, dass die zugeh¨orige Reihe P∞
k=0xkkonvergiert, und definieren
∞
X
k=0
xk =s . (1.21)
Die Reihe P∞
k=0xk heißt absolut konvergent, falls
∞
X
k=0
kxkk<∞. (1.22)
2 Aus der Stetigkeit der Addition und Skalarmultiplikation im normierten Raum folgen die Rechenregeln
∞
X
k=0
(xk+yk) =
∞
X
k=0
xk+
∞
X
k=0
yk,
∞
X
k=0
λxk=λ
∞
X
k=0
xk, (1.23)
λ∈K, die jeweils g¨ultig sind, wenn die Grenzwerte auf der rechten Seite existieren.
Satz 1.2 Sei (X,k · k) Banachraum. Ist die ReiheP∞
k=0xk absolut konvergent, so ist sie auch konvergent, und es gilt
∞
X
k=0
xk
≤
∞
X
k=0
kxkk. (1.24)
Beweis:Sei
σn=
n
X
k=0
kxkk,
dann gilt f¨ur die in (1.20) definierten Partialsummen f¨ur n > m ksn−smk=
n
X
k=m+1
xk
=|σn−σm|.≤
n
X
k=m+1
kxkk=|σn−σm|.
Da (σn) Cauchyfolge in R ist, ist (sn) Cauchyfolge in X, also konvergent. Wegenksnk ≤
|σn| folgt (1.24) aus
ksk= lim
n→∞ksnk ≤ lim
n→∞|σn|=
∞
X
k=0
kxkk,
wobei die Stetigkeit der Norm verwendet wurde. 2
Matrixnormen. Wir betrachten Normen auf dem Matrizenraum K(n,n), die durch eine Norm auf Kn erzeugt werden.
Definition 1.3
Sei k · k eine Norm auf Kn. F¨ur A∈K(n,n) definieren wir kAk= sup
x∈Kn kxk=1
kAxk. (1.25)
2
Unmittelbar aus der Definition folgt
kAk= sup
x6=0
kAxk
kxk , (1.26)
sowie
kIk= 1.
Der Rand {kxk = 1} der Einheitskugel im Kn ist kompakt. Daher wird in (1.25) das Maximum angenommen,
kAk= max
x∈Kn kxk=1
kAxk. (1.27)
Lemma 1.4 Durch (1.25) wird eine Norm auf K(n,n) definiert. Sie heißt die von der gegebenen Vektornorm auf Kn erzeugte Operatornorm oder Matrixnorm.
Beweis:Folgt direkt aus den Definitionen. 2
Wir formulieren einige allgemeine Eigenschaften von Matrixnormen.
Lemma 1.5 Sei (k · k) Norm auf Kn. F¨ur die zugeh¨orige Matrixnorm gilt
kAxk ≤ kAkkxk, (1.28)
kABk ≤ kAkkBk, (1.29)
f¨ur alle A, B ∈K(n,n), x∈Kn. Beweis:F¨urx6= 0 gilt
kAxk=
A x
kxk
kxk ≤ kAkkxk, kABxk ≤ kAkkBxk ≤ kAkkBkkxk, also
sup
kxk=1
kABxk ≤ kAkkBk.
2 Satz 1.6 Sei
f(z) =
∞
X
k=0
ckzk
Potenzreihe in C mit Konvergenzradius r. Dann ist die Matrixreihe f(A) =
∞
X
k=0
ckAk (1.30)
absolut konvergent f¨ur alle A∈K(n,n) mit kAk< r.
Hierbei istk·keine beliebige Matrixnorm, das heißt, eine Matrixnorm, die von irgendeiner Vektornorm erzeugt wird.
Beweis:Gem¨aß Lemma 1.5 gilt
kckAkk ≤ |ck|kAkk, f¨ur allek ∈N. Ist kAk< r, so gilt
∞
X
k=0
kckAkk ≤
∞
X
k=0
|ck|kAkk <∞.
2 Die Matrixexponentialfunktion. Gem¨aß Satz 1.6 l¨asst sich
eA =
∞
X
k=0
Ak
k! (1.31)
f¨ur beliebige quadratische Matrizen A∈K(n,n) definieren. Unmittelbar aus der Definition folgen
e0 =I (1.32)
und
etA =
∞
X
k=0
tkAk
k! , t∈R. (1.33)
Die Funktion t7→etA ist also auf ganzR in eine Potenzreihe um t= 0 entwickelbar.
Lemma 1.7 F¨ur A∈K(n,n) gilt d
dtetA =AetA =etAA . (1.34)
Beweis:Aus (1.33) folgt d
dtetA = d dt
X∞
k=0
tkAk k!
=
∞
X
k=1
tk−1 Ak
(k−1)! =A
∞
X
k=0
tkAk
k! =X∞
k=0
tkAk k!
A ,
da Rechts- und Linksmultiplikation mit A eine stetige Operation ist und daher mit dem
Grenzwert vertauscht werden kann. 2
Lemma 1.8 Seien A, B ∈K(n,n) mit AB =BA. Dann gilt
eA+B =eA·eB. (1.35)
Beweis:Wie im skalaren Fall (siehe Analysis 1) beweist man die Formel f¨ur das Cauchy- Produkt von Reihen und erh¨alt
eA·eB =X∞
k=0
Ak k!
·X∞
j=0
Bj j!
=
∞
X
m=0 m
X
k=0
Ak k!
Bm−k
(m−k)!. (1.36) WegenAB =BA gilt die binomische Formel
m
X
k=0
m!
k!(m−k)!AkBm−k = (A+B)m. (1.37) Aus (1.36) und (1.37) folgt
eA·eB =
∞
X
m=0
(A+B)m
m! =eA+B.
2 L¨osung des Anfangswertproblems. Wir betrachten das Anfangswertproblem
˙
x=Ax , x(0) =x0. (1.38)
Unter einer L¨osung von (1.38) verstehen wir eine differenzierbare Funktion x :R → Kn, welche ˙x(t) =Ax(t) f¨ur alle t∈R sowiex(0) =x0 erf¨ullt.
Satz 1.9 (Eindeutige L¨osung des Anfangswertproblems)
F¨ur jedes A ∈ K(n,n) und x0 ∈ Kn hat das Anfangswertproblem (1.38) die eindeutige L¨osung
x(t) = etAx0. (1.39)
Beweis:Dass die Funktion x eine L¨osung ist, folgt unmittelbar aus (1.34) und aus x(0) =e0x0 =Ix0 =x0.
Zum Beweis der Eindeutigkeit betrachten wir eine beliebige L¨osung y : R → K(n,n). Mit Lemma 1.7, der Produktregel und der Kettenregel erhalten wir f¨ur alle t∈R
d
dt e−tAy(t)
=−e−tAAy(t) +e−tAy(t) =˙ e−tA( ˙y(t)−Ay(t)) = 0. Es folgt
e−tAy(t) = c∈Kn.
Wir setzent= 0 und erhalten c=y(0) =x0. Linksmultiplikation mit etA ergibt etAx0 =etAe−tAy(t) = e0y(t) = y(t),
wobei wir Lemma 1.8 verwendet haben. 2
Satz 1.10 (L¨osungsraum des linearen Systems)
Sei A∈ K(n,n). Die Menge L der L¨osungen des linearen Systems x˙ =Ax ist ein Vektor- raum der Dimension n ¨uber K. Die Spalten der Matrix etA bilden eine Basis von L.
Beweis:Wir definieren eine Abbildung Φ :Kn→Abb (R;Kn) durch (Φη)(t) =etAη .
Gem¨aß Superpositionsprinzip istLein Unterraum von Abb (R;Kn). Nach Satz 1.9 ist die Abbildung Φ :Kn→L bijektiv. Sie ist linear, und es gilt f¨ur Bild und Kern
Im (Φ) =L , ker(Φ) ={0}.
Da sich die Dimensionen von Bild und Kern zur Dimension des Urbildraums addieren, folgt dim(L) = dim(Kn) = n. Die Spalten von etA sind gerade die Bilder Φ(ei) der Einheitsvektorenei ∈Kn. Da Φ bijektiv ist, bilden sie eine Basis von L. 2 Form der L¨osungen. Wir behandeln nun die Frage, wie etA f¨ur eine beliebige Matrix A∈K(n,n) aussieht.
Lemma 1.11 Sei A = diag (λ1, . . . , λn). Dann gilt
etA = diag (eλ1t, . . . , eλnt). (1.40) Beweis:Einsetzen von (tA)k= diag ((λ1t)k, . . . ,(λnt)k) in die Reihenentwicklung vonetA. 2
Definition 1.12 Eine MatrixA∈K(n,n) heißtnilpotent, fallsAn = 0gilt f¨ur einn ∈N.
Ist An= 0, so gilt
etA =
n−1
X
k=0
tkAk
k! . (1.41)
Beispiel:
A=
0 1 0 0 0 1 0 0 0
, A2 =
0 0 1 0 0 0 0 0 0
, A3 = 0. (1.42)
Es ist
etA =I+tA+t2A2 2 =
1 t 12t2 0 1 t
0 0 1
. (1.43)
Lemma 1.13 Seien A, V ∈K(n,n), sei V invertierbar. Dann gilt
etV−1AV =V−1etAV , t∈R. (1.44) Beweis:Es ist
m
X
k=0
tk(V−1AV)k
k! =
m
X
k=0
tkV−1AkV
k! =V−1
m
X
k=0
tkAk k!
! V .
Grenz¨ubergangm → ∞liefert die Behauptung. 2
Wir f¨uhren die Bestimmung von etA f¨ur eine allgemeine Matrix A ∈ K(n,n) durch Ba- siswechsel und Zerlegung auf die beiden schon behandelten F¨alle (diagonal, nilpotent) zur¨uck. In der Linearen Algebra wird zu einer beliebigen Matrix A∈C(n,n) durch Basis- wechsel deren Jordansche Normalform D konstruiert. D hat die Blockdiagonalform
D=
D1 0 · · · 0 0 D2 0 ... ... . .. ... 0 · · · 0 Dk
, (1.45)
wobei
Dj =
λj 1 0 · · · 0 0 λj 1 ... ... . .. ... ...
... λj 1
0 0 λj
∈Cnj×nj. (1.46)
Hierbei sind λj ∈ C die Eigenwerte von A (diese m¨ussen nicht voneinander verschieden sein), und es gilt
k
X
j=1
nj =n .
Wird der Basiswechsel durch die invertierbare Matrix V ∈C(n,n) beschrieben, so ist
A =V−1DV . (1.47)
Nach Lemma 1.13 gilt dann
etA =V−1etDV . (1.48)
Aus der Blockdiagonalform von D,
D= diag (D1, . . . , Dk) folgt wie in Lemma 1.11
etD = diag (etD1, . . . , etDk). (1.49) Gem¨aß (1.46) ist
Dj =λjI +Nj, Nj =
0 1 0 · · · 0
0 0 1 ...
... . .. ... ...
... 0 1
0 0 0
∈Cnj×nj, (1.50)
und daher
etDj =et(λjI+Nj) =eλjtIetNj =eλjtetNj. (1.51) Es ist
Njµ = (δi,k−µ)1≤i,k≤nj, 0≤µ≤nj −1, (1.52) (Kronecker-Delta), undNjµ = 0 f¨ur µ≥nj. (Induktionsbeweis: µ= 1 klar, µ→µ+ 1:
(Njµ+1)il = (NjµNj)il =X
k
δi,k−µδk,l−1 =δi,l−(µ+1). Es folgt
etNj =
nj−1
X
µ=0
tµ µ!Njµ =
1 t t22 · · · (ntnj−1
j−1)!
0 1 . .. ...
. .. ... ...
. .. t
0 1
(1.53)
Zusammen mit den Formeln
etA =V−1etDV , etD = diag (etD1, . . . , etDk), etDj =eλjtetNj. (1.54) ist damit das Problem der Berechnung von etA zur¨uckgef¨uhrt worden auf das Problem der Linearen Algebra, die Jordansche Normalform von A zu bestimmen. Dazu muß man die Eigenwerte λj von A und die zugeh¨origen Eigenvektoren bzw. verallgemeinerten Ei- genvektoren (welche die Spalten von V bilden) berechnen. F¨ur eine allgemeine Matrix A wollen wir das nicht weiter verfolgen (siehe etwa das Lehrbuch von Walter), sondern uns
darauf beschr¨anken, uns die Struktur der L¨osungen klar zu machen. Aus (1.53) und (1.54) folgt, dass alle L¨osungen von ˙x=Ax,
x(t) =
x1(t)
... xn(t)
aus Komponentenfunktionen xi bestehen, welche Linearkombinationen von Funktionen der Form
tleλt
sind. Hierbei ist λ Eigenwert von A, und der m¨ogliche Wertebereich der Exponenten l h¨angt von der Gr¨oße der zugeh¨origen Jordan-K¨astchen Dj ab. Ist A diagonalisierbar, so treten keine Exponenten l >0 auf, und die L¨osungen haben die Form
x(t) = X
λ∈σ(A)
vλeλt, vλ =
vλ,1
... vλ,n
∈Cn,
wobeiσ(A) die Menge der Eigenwerte vonA bezeichnet und die Koeffizientenvektorenvλ
durch die Eigenvektoren von A und die Anfangsbedingung x0 festgelegt sind.
F¨urA ∈R(n,n) und Anfangswertex0 ∈Rn sind die L¨osungen x(t) =etAx0 reell. Die eben beschriebene Vorgehensweise liefert auch nichtreelle komplexe L¨osungen, fallsAnichtreelle Eigenwerteλhat. Die nichtreellen Eigenwerte treten aber in komplex konjugierten Paaren (λ, λ) auf; die entsprechenden Jordank¨astchen haben die gleiche Gr¨oße. Es ergeben sich Paare reeller L¨osungen mit Zeitanteilen der Formtleatcos(ωt) undtleatsin(ωt). Wir stellen das nicht im Einzelnen dar.
2 Der Satz von Picard-Lindel¨ of
Wir betrachten ein System gew¨ohnlicher Differentialgleichungen erster Ordnung,
˙
x=f(t, x), (2.1)
sowie das zugeh¨orige Anfangswertproblem
˙
x=f(t, x), x(t0) =x0. (2.2) Die Funktionf bezeichnet man als dierechte Seiteder Differenzialgleichung, den Vektor x0 alsAnfangswert zum Zeitpunktt0.
Definition 2.1 (L¨osung eines Systems erster Ordnung)
Sei I ⊂ R Intervall, D ⊂ R × Rn offen, f : D → Rn. Eine Funktion x : I → Rn heißt L¨osung von (2.1) in I, falls x in I differenzierbar ist und f¨ur alle t ∈ I gilt, dass (t, x(t))∈D und
˙
x(t) = f(t, x(t)) (2.3)
Falls außerdem (t0, x0)∈D gegeben ist mit t0 ∈I und x(t0) =x0, so heißt x L¨osung des
Anfangswertproblems (2.2) in I. 2
Wir sind interessiert an reellwertigen L¨osungen. Wir haben bereits gesehen, dass es im Falle linearer Systeme sinnvoll ist, sich auch mit komplexwertigen L¨osungen zu befassen, auch wenn man nur an reellwertigen L¨osungen interessiert ist. Wir verzichten aber im Folgenden darauf, Rn durch Kn zu ersetzen, obwohl das oft problemlos m¨oglich ist.
H¨angt f nicht von x ab, so ist
x(t) = x0+ Z t
t0
f(s)ds
eine L¨osung des Anfangswertproblems (2.2), falls f stetig ist (Hauptsatz der Differential- und Integralrechnung).
Lemma 2.2 Sei D⊂R×Rn offen, f :D→Rn stetig. Sei I Intervall in R und x:I → Rn stetig, sei t0 ∈ I und (t0, x0)∈ D. Dann ist x eine L¨osung des Anfangswertproblems (2.2) auf I genau dann, wenn gilt (t, x(t))∈D f¨ur alle t∈I und
x(t) =x0+ Z t
t0
f(s, x(s))ds , f¨ur alle t ∈I. (2.4) Ist außerdem f ∈Ck(D) so ist x∈Ck+1(I).
Beweis:Ist x L¨osung des AWP, so ist ˙x : I → Rn stetig, da f stetig ist. Aus dem Hauptsatz folgt
x(t)−x(t0) = Z t
t0
˙
x(s)ds= Z t
t0
f(s, x(s))ds .
Gilt umgekehrt (2.4), so folgt zun¨achstx(t0) = x0. Da der Integrand auf der rechten Seite von (2.4) stetig ist als Funktion von s, ist nach dem Hauptsatz x differenzierbar in I,