Skript zur Vorlesung
Mathematik 2
f¨ ur Studierende der Bachelorstudieng¨ ange Chemie und Biophysik
Dr. Caroline L¨obhard
27. Juni 2016
Inhaltsverzeichnis
1 Differentialgleichungen II 5
1.1 Lineare Differentialgleichungen h¨ oherer Ordnung . . . . 5
1.2 Lineare homogene Differentialgleichungen mit konstanten Koeffizienten . 8 1.3 Lineare inhomogene Differentialgleichungen mit konstanten Koeffizienten 9 1.4 Exakte Differentialgleichungen . . . . 13
2 Vektorraum, Basis und Dimension 17 2.1 Grundlegende Definitionen . . . . 17
2.2 Lineare H¨ ulle und Erzeugendensystem . . . . 19
2.3 Basis und Dimension . . . . 20
3 Skalarprodukt und Orthogonalit¨ at 23 3.1 Skalarprodukt und Norm . . . . 23
3.2 Orthogonalit¨ at . . . . 25
3.3 Orthogonales Komplement und orthogonale Projektion . . . . 26
4 Lineare Abbildungen und Matrizen 31 4.1 Lineare Abbildungen . . . . 31
4.2 Isomorphismen . . . . 33
4.3 Matrizen . . . . 34
5 Lineare Gleichungssysteme und Determinanten 39 5.1 Lineare Gleichungssysteme . . . . 39
5.2 Der Gauß-Algorithmus . . . . 40
5.3 Determinanten . . . . 43
5.4 Determinanten und lineare Gleichungssysteme . . . . 45
6 Eigenwerte und Eigenvektoren 47 6.1 Eigenwert, Eigenraum, Eigenvektor . . . . 47
6.2 Basiswechsel und Diagonalisierbarkeit . . . . 49
6.3 Definitheit von Matrizen . . . . 51
7 Anwendungen der Linearen Algebra 53 7.1 Extremwertaufgaben mit Nebenbedingungen . . . . 53
7.2 Systeme linearer Differentialgleichungen 1. Ordnung mit konstanten Ko-
effizienten . . . . 56
1 Differentialgleichungen II
1.1 Lineare Differentialgleichungen h¨ oherer Ordnung
Definition 1.1. Gegeben sind n ∈ N , ein Intervall I ⊂ R , Koeffizientenfunktionen a
0(t), a
1(t), a
2(t), . . . , a
n(t), wobei a
n(t) 6= 0 f¨ ur (mindestens) ein t ∈ I, und eine St¨ orfunktion h(t), die jeweils f¨ ur t ∈ I definiert sind . Eine lineare Differentialgleichung n-ter Ordnung hat die Form
a
n(t)y
(n)(t) + a
n−1(t)y
(n−1)(t) + · · · + a
1(t)y
0(t) + a
0(t)y(t) = h(t). (?) Die Differentialgleichung heißt
inhomogen, falls f¨ ur (mindestens) ein t ∈ I gilt: h(t) 6= 0, homogen , falls f¨ ur alle t ∈ I gilt: h(t) = 0,
explizit , falls f¨ ur alle t ∈ I gilt: a
n(t) 6= 0,
implizit , falls t
1, t
2∈ I existieren mit a
n(t
1) 6= 0 und a
n(t
2) = 0,
mit konstanten Koeffizienten , falls die Koeffizientenfunktionen alle konstant sind.
Bemerkung 1.2. In der Schreibweise aus MaI, Def. 10.1, ist
F (t, x
0, x
1, . . . , x
n) = a
n(t)x
n+ a
n−1(t)x
n−1+ · · · + a
1(t)x
1+ a
0(t)x
0− h(t), und falls die Differentialgleichung explizit ist, so ist in MaI, Def.10.3
g(t, x
0, x
1, . . . , x
n−1) = 1
a
n(t) (h(t) − a
n−1(t)x
n−1− a
n−2(t)x
n−2− · · · − a
1(t)x
1− a
0(t)x
0) .
Beispiel 1.3.
1 Differentialgleichungen II
Satz 1.4 (Existenz und Eindeutigkeit der L¨ osung). Ist die Differentialgleichung (S) in Definition 1.1 explizit, und sind alle Koeffizientenfunktionen und die St¨ orfunktion stetig, so besitzt das Anfangswertproblem
y
(n)(t) = g(t, y(t), y
0(t), . . . , y
(n−1)(t)), y(t
0) = y
0, y
0(t
0) = y
1, . . . , y
(n−1)(t
0) = y
n−1mit g aus Bemerkung 1.2 genau eine L¨ osung.
Beweis.
Satz 1.5. (i) Genauso wie in Ma.I Satz 10.20(ii) ist die allgemeine L¨ osung y
ceiner expliziten linearen Differentialgleichung die Summe aus einer partikul¨ aren L¨ osung y
pder inhomogenen Gleichung (mit einem beliebigen Anfangswert) und der allge- meinen L¨ osung y
h,cder zugeh¨ origen homogenen Gleichung, d.h.
y
c(t) = y
h,c(t) + y
p(t).
(ii) Es sei κ ∈ R ein Konstante, y
1eine L¨ osung der Gleichung (S) mit der rechten Seite h
1, und y
2sei eine L¨ osung der Gleichung (S) mit der rechten Seite h
2. Dann l¨ ost y = y
1+ κy
2die Gleichung (S) mit der rechten Seite h
1+ κh
2.
Beweis. (i)
(ii) siehe ¨ Ubung.
6
1.1 Lineare Differentialgleichungen h¨ oherer Ordnung Wir befassen uns jetzt mit der Struktur der L¨ osungsmenge y
h,cvon linearen homoge- nen Differentialgleichungen n-ter Ordnung.
Satz 1.6. Die allgemeine L¨ osung einer expliziten linear homogenen Differentialgleichung besitzt die Form
y
h,c(t) = c
1y
1(t) + c
2y
2(t) + · · · + c
ny
n(t),
wobei c
1, c
2, . . . , c
n∈ R , und y
1, y
2, . . . , y
nn verschiedene, linear unabh¨ angige L¨ osungen der Differentialgleichung sind.
” Linear unabh¨ angig“ bedeuted hier:
Wenn f¨ ur alle t ∈ I gilt
k
1y
1(t) + k
2y
2(t) + · · · + k
ny
n(t) = 0,
so folgt, dass alle Konstanten k
1= k
2= · · · = k
n= 0 Null sein m¨ ussen.
Um ein Anfangswertproblem zu l¨ osen, setzt man die allgemeine L¨ osung in die An- fangsbedingungen ein und ermittelt aus diesen Gleichungen c
1, c
2, . . . , c
n.
Beispiel 1.7.
In den folgenden Abschnitten betrachten wir lineare homogene Differentialgleichungen mit konstanten Koeffizienten a
0, a
1,. . . ,a
na
ny
(n)(t) + a
n−1y
(n−1)(t) + · · · + a
1y
0(t) + a
0y(t) = 0 (LHK) und die lineare inhomogene Differentialgleichungen mit der St¨ orfunktion h
a
ny
(n)(t) + a
n−1y
(n−1)(t) + · · · + a
1y
0(t) + a
0y(t) = h(t). (LIK)
1 Differentialgleichungen II
1.2 Lineare homogene Differentialgleichungen mit konstanten Koeffizienten
Bemerkung 1.8 (Anleitung zum Finden der allgemeinen L¨ osung von (LHK)).
1. Man macht den Ansatz: y(t) = e
λt. 2. Einsetzen in (LHK) liefert
0 =a
ny
(n)(t) + a
n−1y
(n−1)(t) + · · · + a
1y
0(t) + a
0y(t)
=a
nλ
ne
λt+ a
n−1λ
n−1e
λt+ · · · + a
1λe
λt+ a
0e
λt. Weil e
λt6= 0 ist, bekommt man die Gleichung
a
nλ
n+ a
n−1λ
n−1+ · · · + a
1λ + a
0= 0.
3. Man muss also die Nullstellen λ
1, λ
2, . . . , λ
s∈ C des obigen Polynoms mit den Vielfachheiten k
1, k
2, . . . , k
3bestimmen – das heißt, man berechnet die Faktorisie- rung
a
nλ
n+ a
n−1λ
n−1+ · · · + a
1λ + a
0= (λ − λ
1)
k1(λ − λ
2)
k2· · · · · (λ − λ
s)
ks. 4. Man bekommt die folgenden linear unabh¨ angigen L¨ osungen:
a) falls λ
l∈ R : e
λlt, te
λlt, . . . , t
kl−1e
λlt, b) falls λ
l∈ C \ R , λ
l= a + bi:
e
atcos(bt), te
atcos(bt), . . . , t
kl−1e
atcos(bt), e
atsin(bt), te
atsin(bt), . . . , t
kl−1e
atsin(bt).
5. In Schritt 4 bekommt man genau n linear unabh¨ angige L¨ osungen. Die allgemeine L¨ osung ist dann
y
h,c(t) = c
1y
1(t) + c
2y
2(t) + · · · + c
ny
n(t).
Definition 1.9. Das Polynom
P (λ) = a
nλ
n+ a
n−1λ
n−1+ · · · + a
1λ + a
0heißt charakteristisches Polynom der Differentialgleichung (LHK) bzw. (LIK), die Glei- chung
P (λ) = 0
heißt charakteristisches Gleichung von (LHK) bzw. von (LIK).
8
1.3 Lineare inhomogene Differentialgleichungen mit konstanten Koeffizienten Beispiel 1.10.
1.3 Lineare inhomogene Differentialgleichungen mit konstanten Koeffizienten
In diesem Abschnitt werden zwei L¨ osungsverfahren f¨ ur lineare inhomogene Differential- gleichungen (LIK) mit konstanten Koeffizienten a
0, a
1,. . . ,a
nund der St¨ orfunktion h(t) behandelt.
Falls die St¨ orfunktion h eine spezielle Form hat (Summe/Produkt von Polynom, Si- nus, Kosinus und Exponentialfunktion), so kann man die Struktur der L¨ osung
” erraten“
und muss dann nur noch einige Parameter durch Einsetzen in die Differentialgleichung bestimmen. Die Ansatzfunktion h¨ angt ab von
• den Nullstellen des charakteristischen Polynoms P der Differentialgleichung,
• der St¨ orfunktion h.
1 Differentialgleichungen II
Satz 1.11. Gegeben ist eine lineare inhomogene Differentialgleichung der Form (LIK) mit den Koeffizienten a
0, a
1, . . . , a
n∈ R . Wir definieren Typen von St¨ orfunktionen h(t) und zugh¨ orige Ansatzfunktionen y
p(t) wie folgt:
Typ I h(t) = p(t)e
λt,
P (t) = (t − λ)
kq(t) und q(λ) 6= 0,
wobei p ein Polynom vom Grad m, und λ eine k-fache Nullstelle des charakteri- stischen Polynoms ist. k = 0 bedeuted, dass λ keine Nullstelle von P ist.
Ansatz: y
p(t) = r(t)t
ke
λt, wobei r ein Polynom vom Grad m ist.
Typ II h(t) = p(t)e
λ1tcos(λ
2t) + q(t)e
λ1tsin(λ
2t),
P (t) = (t − (λ
1+ λ
2i))
kq(t) und q(λ
1+ λ
2i) 6= 0,
wobei p und q Polynome vom Grad m sind, und λ = λ
1+λ
2i eine k-fache Nullstelle des charakteristischen Polynoms ist.
Ansatz: y
p(t) = r(t)t
ke
λ1tcos(λ
2t) + s(t)t
ke
λ1tsin(λ
2t), wobei r und s Poly- nome vom Grad m sind.
Falls h vom Typ I bzw. II ist, so l¨ ost eine Funktion y
pder im jeweiligen Ansatz gegebenen Form die Differentialgleichung (LIK).
Beispiel 1.12.
10
1.3 Lineare inhomogene Differentialgleichungen mit konstanten Koeffizienten
Bemerkung 1.13 (Ansatzmethode zum L¨ osen von (LIK)).
1. Pr¨ ufe, ob h vom Typ I oder II aus Satz 1.11 ist. Falls ja, dann kann man die Gleichung mit der Ansatzmethode l¨ osen. Falls nicht, so muss man ein anderes L¨ osungsverfahren w¨ ahlen.
2. Bestimme die Nullstellen des charakteristischen Polynoms der Differentialgleichung.
3. Klassifiziere h nach den Kriterien aus Satz 1.11 und w¨ ahle den passenden Ansatz, z.B.
y
p(t) = (p
0+ p
1t + p
2t
2+ · · · + p
mt
m)e
λt.
4. Setze den Ansatz in die Differentialgleichung (LIK) ein. Dazu m¨ ussen die Ablei- tungen y
p0, y
00p,. . . ,y
(n)pberechnet werden.
5. Aus der Gleichung aus Schritt 4 kann man die Koeffizienten r
0, r
1,. . . ,r
mvon r und evtl. die Koeffizienten s
0, s
1,. . . ,s
mvon s berechnen.
6. Die allgemeine L¨ osung der inhomogenen Gleichung ist y
c= y
h,c+ y
p. Falls ein Anfangswertproblem gel¨ ost werden soll, so k¨ onnen die Konstanten c aus y
h,cin y
caus den Anfangswerten bestimmt werden.
Beispiel 1.14.
1 Differentialgleichungen II
Satz 1.15. Es sei y
h,c(t) = c
1y
1(t)+c
2y
2(t)+· · · +c
ny
n(t) = P
nk=1
c
ky
k(t) die allgemeine L¨ osung der zu (LIK) geh¨ orenden homogenen Gleichung. Außerdem seien C
1(t), C
2(t), . . . , C
n(t) differenzierbare Funktionen, die das folgende Gleichungssystem erf¨ ullen,
n
X
i=1
C
i0(t)y
i(t) = 0,
n
X
i=1
C
i0(t)y
0i(t) = 0, . . .
n
X
i=1
C
i0(t)y
(n−2)i(t) = 0,
n
X
i=1
C
i0(t)y
(n−1)i(t) = h(t) a
n. Dann l¨ ost y
p(t) = P
ni=1
C
i(t)y
i(t) die lineare inhomogene Differentialgleichung (LIK).
Beweis.
Bemerkung 1.16. Mit den Mitteln der linearen Algebra kann man nachweisen, dass das Gleichungssystem aus Satz 1.15 l¨ osbar ist. Außerdem gibt es eine Formel, wie die gesuchten Funktionen C
10(t), C
20(t), . . . , C
n0(t) berechnet werden k¨ onnen. Um die par- tikul¨ are L¨ osung der inhomogenen Differentialgleichung zu bestimmen, muss man deren Stammfunktionen C
1(t), C
2(t), . . . , C
n(t) bestimmen.
Beispiel 1.17.
12
1.4 Exakte Differentialgleichungen
1.4 Exakte Differentialgleichungen
Es seien Funktionen P, Q : I × M → R , mit Intervallen I, M ⊂ R gegeben. Wir betrach- ten hier Differentialgleichungen der Form
F (t, y(t), y
0(t)) = 0, mit F (t, x
0, x
1) = P (t, x
0) + Q(t, x
0)x
1. (#) Definition 1.18. Die Differentialgleichung (#) heißt exakte Differentialgleichung, falls das Vektorfeld N (t, x
0) = (P (t, x
0), Q(t, x
0)) exakt ist (vgl. MaI Def.3.27). Satz 3.28 aus MaI besagt, dass N genau dann exakt ist, wenn f¨ ur alle t ∈ I, x ∈ M gilt
dP (t, x)
dx = dQ(t, x) dt .
Satz 1.19. Ist ϕ ein Potential von N (t, x
0) aus Definition 1.18, so ist die L¨ osung der Gleichung (#) implizit gegeben durch die Aufl¨ osung der Gleichung
ϕ(t, y(t)) = c nach y(t).
Beweis.
1 Differentialgleichungen II
Bemerkung 1.20 (Zur Bestimmung des Potentials ϕ).
1. Der Ansatz
dϕ(t,x)dt= P (t, x) liefert ϕ(t, x) =
Z
P (t, x) dt + C(x).
2. Durch Einsetzen ergibt sich Q(t, x) = dϕ(t, x)
dx = d
dx Z
P (t, x) dt + C(x)
= Z d
dx P (t, x) dt + C
0(x).
Man bestimmt C(x) also durch Integration von C(x) =
Z
Q(t, x) − Z d
dx P (t, x) dt
dx.
Beispiel 1.21.
Definition 1.22. Es sei N = (P, Q) : I × M → R
2ein beliebiges Vektorfeld, wobei I, M Intervalle in R sind. Eine stetig differenzierbare Funktion µ : I × M → R heißt integrierender Faktor zu N, falls f¨ ur alle t ∈ I und alle x ∈ M gilt: µ(t, x) 6= 0, und falls das Vektorfeld µN = (µP, µQ) exakt ist.
14
1.4 Exakte Differentialgleichungen Satz 1.23. Es seien Funktionen P, Q : I × M → R , mit Intervallen I, M ⊂ R gegeben und µ sei ein integrierender Faktor des Vektorfelds N = (P, Q). Eine Funktion y l¨ ost die Differentialgleichung (#), genau dann, wenn sie die exakte Differentialgleichung
µ(t, y(t))P (t, y(t)) + µ(t, y(t))Q(t, y(t))y
0(t) = 0 l¨ ost.
Beweis.
Bemerkung 1.24 (Zur Bestimmung eines integrierenden Faktors). Im Allgemeinen ist die Bestimmung eines integrierenden Faktors genauso schwer, wie das direkte L¨ osen der Differentialgleichung. Aus dem Kriterium aus MaI.3.28 bekommt man die Bedingung
µ
x(t, x)P (t, x) + µ(t, x)P
x(t, x) = µ
t(t, x)Q(t, x) + µ(t, x)Q
y(t, x).
Im speziellen Fall, dass µ nur von t abh¨ angt ist µ
x(t, x) = 0 und die Bedingung lautet µ(t, x)P
x(t, x) = µ
t(t, x)Q(t, x) + µ(t, x)Q
y(t, x), d.h.
µ
t(t, x) = P
x(t, x) − Q
t(t, x)
Q(t, x) µ(t, x).
Das ist (f¨ ur jedes t) eine lineare homogene Differentialgleichung erster Ordnung f¨ ur µ – diese kann evtl. mit den Mitteln aus MaI Kap.10 gel¨ ost werden. Analog kann man vereinfachte Differentialgleichungen herleiten, wenn µ nur von x, oder beispielsweise nur von t + x abh¨ angt.
Beispiel 1.25.
2 Vektorraum, Basis und Dimension
2.1 Grundlegende Definitionen
Definition 2.1. Es sei K = R oder K = C . Ein K -Vektorraum ist eine Menge V mit einer Vektoraddition ⊕ : V × V → V , einer skalaren Multiplikation : K × V → V und einem Nullvektor 0 ∈ V , so dass die folgenden Rechenregeln gelten:
V1 (u ⊕ v) ⊕ w = u ⊕ (v ⊕ w) (Assoziativit¨ at)
V2 u ⊕ v = v ⊕ u (Kommutativit¨ at)
V3 v ⊕ 0 = v (Neutrales Element)
V4 ∀v ∈ V ∃v
0∈ V mit v ⊕ v
0= 0 (inverse Elemente v
0= −v)
V5 (λ + µ) v = λ v ⊕ µ v (Distributivgesetz I)
V6 λ (v ⊕ w) = λ v ⊕ λ w (Distributivgesetz II)
V7 (λ · µ) v = λ (µ v)
V8 1 v = v
Beispiel 2.2.
2 Vektorraum, Basis und Dimension
Satz 2.3. (i) In jedem Vektorraum gibt es genau einen Nullvektor.
(ii) F¨ ur jeden Vektor v ∈ V ist 0 v = 0.
(iii) F¨ ur jeden Vektor v ∈ V ist (−1) v = −v .
(iv) Zu jedem Element v des Vektorraums gibt es genau ein inverses Element v
0= −v.
Beweis.
Definition 2.4. Eine Teilmenge U ⊂ V eines Vektorraums V , die selbst ein Vektorraum ist, heißt Untervektorraum von V .
Beispiel 2.5.
Bemerkung 2.6. (i) Anstatt ⊕ und schreibt man meistens + und ·. Die Unter- scheidung zu Addition und Multiplikation in K ergibt sich dann aus dem Zusam- menhang.
(ii) Achtung: Vektoren kann man im Allgemeinen nicht multiplizieren und dividieren!
18
2.2 Lineare H¨ ulle und Erzeugendensystem
2.2 Lineare H¨ ulle und Erzeugendensystem
Definition 2.7. Es sei V ein Vektorraum, r ∈ N , und f¨ ur i = 1, 2, . . . , r seien Vektoren v
i∈ V und Zahlen λ
i∈ K gegeben. Die endliche Summe
r
X
i=1
λ
iv
i= λ
1v
1+ λ
2v
2+ . . . λ
rv
rheißt Linearkombination der Vektoren v
i. Die Menge
L ({v
1, v
2, . . . , v
r}) = (
nX
i=1
λ
iv
iλ
i∈ K )
heißt lineare H¨ ulle von {v
1, v
2, . . . , v
r}. F¨ ur eine (evtl. unendlich große) Teilmenge M ⊂ V ist die Lineare H¨ ulle L(M) die Menge aller endlichen Linearkombinationen aus Vek- toren in M .
Beispiel 2.8.
Satz 2.9. (i) Eine Teilmenge U ⊂ V ist ein Untervektorraum von V genau dann, wenn
U1 U 6= ∅,
U2 f¨ ur alle u, v ∈ U auch deren Summe in U liegt, u + v ∈ U und
U3 wenn sie zu jedem v ∈ U auch beliebige Vielfache λ v (λ ∈ K) enth¨ alt.
(ii) F¨ ur jede Teilmenge M ⊂ V ist L(M) ein Untervektorraum von V .
2 Vektorraum, Basis und Dimension Beweis.
Definition 2.10. Eine Teilmenge U ⊂ V heißt Erzeugendensystem von V , wenn L(U ) = V.
Beispiel 2.11.
2.3 Basis und Dimension
Definition 2.12. Eine Menge B ⊂ V heißt linear unabh¨ angig wenn f¨ ur jede Linear- kombination von Vektoren b
1, b
2, . . . , b
raus B gilt: Ist
λ
1b
1+ λ
2b
2+ . . . λ
rb
r= 0,
so m¨ ussen alle λ
1= λ
2= · · · = λ
r= 0 Null sein. ¨ Aquivalent dazu darf kein Vektor in B die Linearkombination der restlichen Vektoren sein. Eine Menge von Vektoren heißt linear abh¨ angig, wenn sie nicht linear unabh¨ angig ist.
Beispiel 2.13.
20
2.3 Basis und Dimension Definition 2.14. Eine Menge B ⊂ V heißt Basis von V wenn B linear unabh¨ angig und ein Erzeugendensystem von V ist.
Beispiel 2.15.
Satz 2.16. Ist B = (b
1, b
2, . . . , b
n) eine geordnete Basis von V , so gibt es f¨ ur jeden Vektor v ∈ V genau einen Tupel (λ
1, λ
2, . . . , λ
n) ∈ K
nvon Zahlen in K, so dass
v = λ
1b
1+ λ
2b
2+ . . . λ
nv
n.
Die Zahlen λ
iheißen Koordinaten von v in der Basis B und man schreibt v
B= (λ
1, λ
2, . . . , λ
n).
Beispiel 2.17.
Satz 2.18. Es sei B = {b
1, b
2, . . . , b
n} eine Basis eines Vektorraums V .
(i) Man kann ein Basiselement b
j∈ B austauschen durch eine Linearkombination c = λ
1b
1+ λ
2b
2+ · · · + λ
nb
n,
wobei λ
j6= 0 sein muss. Die Menge B = {b
1, b
2, . . . , b
j−1, c, b
j+1, . . . , b
n} ist dann wieder eine Basis von V .
(ii) Ist C = {c
1, c
2, . . . , c
m} eine weitere Basis von V , so gilt n = m (die Anzahl der
Basiselemente ist immer die gleiche).
2 Vektorraum, Basis und Dimension Beispiel 2.19.
Definition 2.20. Falls V eine endliche Basis besitzt, so ist die Zahl n an Basiselementen aus Satz 2.18(ii) die Dimension von V . Ansonsten ist die Dimension von V unendlich.
Man schreibt
dim(V ) = n bzw. dim(V ) = ∞.
Beispiel 2.21.
22
3 Skalarprodukt und Orthogonalit¨ at
3.1 Skalarprodukt und Norm
Definition 3.1. Es sei V ein K-Vektorraum (K = R oder K = C ).
(i) Eine Verkn¨ upfung h·, ·i mit hv, wi ∈ K heißt Skalarprodukt auf V , falls f¨ ur u, v, w ∈ V und λ ∈ K die folgenden Regeln gelten:
SP1 hv, wi = hw, vi (Symmetrie)
SP2 hλv, wi = λhv, wi (Homogenit¨ at)
SP3 hu + v, wi = hu, wi + hv, wi (Linearit¨ at)
SP4 hv, vi ≥ 0 f¨ ur alle v ∈ V, v 6= 0 ⇒ hv, v i 6= 0 (positive Definitheit) (ii) Eine Abbildung k · k : V → R heißt Norm auf V , falls f¨ ur u, v ∈ V und λ ∈ K die
folgenden Regeln gelten:
N1 kvk ≥ 0 und kvk = 0 ⇔ v = 0 (positive Definitheit)
N2 kλvk = |λ|kvk (Homogenit¨ at)
N3 ku + vk ≤ kuk + kvk (Dreiecksungleichung)
Beispiel 3.2.
3 Skalarprodukt und Orthogonalit¨ at
Satz 3.3 (Cauchy-Schwarz’sche Ungleichung). Es sei V ein K-Vektorraum mit dem Skalarprodukt h·, ·i und kvk = p
hv, vi (vgl. Satz 3.4). Dann gilt f¨ ur alle v, w ∈ V dass
|hv, wi| ≤ kvkkwk
und es gilt die Gleichheit |hv, wi| = kvkkwk genau dann, wenn die Menge {v, w} linear abh¨ angig ist.
Satz 3.4. Es sei V ein K-Vektorraum mit dem Skalarprodukt h·, ·i. Dann wird durch kvk = p
hv, v i eine Norm auf V definiert.
Beweis.
Beispiel 3.5.
24
3.2 Orthogonalit¨ at
3.2 Orthogonalit¨ at
Definition 3.6. F¨ ur Vektoren v, w ∈ V \ {0} ist die Zahl α ∈ [0, π[ mit cos(α) = hv, wi
kvk · kwk ∈ [−1, 1]
der Winkel zwischen v und w. Vektoren v, w ∈ V mit hv, wi = 0 heißen zueinander orthogonal und man schreibt v ⊥ w. Die Zahl kv k ∈ R ist die L¨ ange von v.
Beispiel 3.7.
Satz 3.8. Es sei V ein K-Vektorraum mit dem Skalarprodukt h·, ·i und B ⊂ V \ {0}
sei eine Teilmenge von V mit paarweise orthogonalen Vektoren ungleich Null, d.h. f¨ ur beliebige v, w ∈ B mit v 6= w gilt hv, wi = 0. Dann ist B linear unabh¨ angig.
Definition 3.9. Es sei V ein K-Vektorraum mit dem Skalarprodukt h·, ·i und B ⊂ V \ {0} sei eine Teilmenge von V wie in Satz 3.8. Eine solche Menge heißt Orthogonal- system. Besitzen alle Vektoren v ∈ B die Norm 1, d.h. kv k = p
hv, vi = 1, so heißt B Orthonormalsystem. Ist B eine Basis von V , so spricht man von einer Orthogonal- bzw.
Orthnormalbasis (ONB).
Beispiel 3.10.
3 Skalarprodukt und Orthogonalit¨ at
Satz 3.11. Es sei V ein endlichdimensionaler K-Vektorraum mit dem Skalarprodukt h·, ·i und der dadurch induzierten Norm k · k.
(i) Es sei B eine Basis von V . Es gilt
v = w ⇔ ∀b ∈ B : hv, bi = hw, bi.
(ii) Es sei B = {b
1, b
2, . . . , b
n} eine orthonormale Basis von V und v ∈ V . Es gilt v =
n
X
i=1
hv, b
iib
i.
Beweis.
3.3 Orthogonales Komplement und orthogonale Projektion
Definition 3.12. Es sei V ein K-Vektorraum mit dem Skalarprodukt h·, ·i und U ⊂ V sei eine Teilmenge von V . Dann ist
U
⊥= {v ∈ V | ∀u ∈ U : hu, vi = 0}
das orthogonale Komplement von U in V .
Satz 3.13. F¨ ur jede Teilmenge U ⊂ V ist U
⊥ein Untervektorraum von V .
26
3.3 Orthogonales Komplement und orthogonale Projektion Beispiel 3.14.
Satz 3.15. Es sei V ein K-Vektorraum mit dem Skalarprodukt h·, ·i, U ⊂ V sei ein Untervektorraum von V und v ∈ V sei ein Vektor in V . Dann existiert genau ein Vektor u
?∈ U , so dass der Abstand
d(v, U ) = min{kv − uk | u ∈ U} = kv − u
?k
von v zu U in u
?minimal ist. Man definiert eine Abbildung P
U: V → U durch P
U(v ) = u
?. P
Uheißt orthogonale Projektion von V auf U.
Beispiel 3.16.
Satz 3.17. Die Abbildung P
Uaus Satz 3.15 besitzt die folgenden Eigenschaften:
(i) Es gilt P
U(v ) = 0 genau dann, wenn v ∈ U
⊥. (ii) Es gilt P
U(v ) = v genau dann, wenn v ∈ U .
(iii) Es ist P
U◦ P
U= P
U, d.h. f¨ ur alle v ∈ V ist P
U(P
U(v)) = P
U(v).
(iv) F¨ ur alle v ∈ V ist v − P
U(v) ∈ U
⊥.
3 Skalarprodukt und Orthogonalit¨ at Beweis.
Satz 3.18. Es sei V ein K-Vektorraum mit dem Skalarprodukt h·, ·i und U ⊂ V sei ein Untervektorraum von V mit einer Orthonormalbasis B = {b
1, b
2, . . . , b
r}. Dann gilt f¨ ur alle v ∈ V
P
U(v) =
r
X
i=1
hv, b
iib
i. Beispiel 3.19.
28
3.3 Orthogonales Komplement und orthogonale Projektion Bemerkung 3.20 (Orthonormalisierungverfahren von Schmidt). Es sei V ein K -Vek- torraum mit dem Skalarprodukt h·, ·i und der dadurch induzierten Norm k · k. Außerdem sei A = {a
1, a
2, . . . , a
r} eine endliche linear unabh¨ angige Teilmenge von V . Man kann aus A eine Orthonormalbasis wie folgt konstruieren,
1. k = 1, b
1=
ka11k
a
1,
2. k = k + 1, ˜ b
k= a
k− P
k−1i=1
ha
k, b
iib
i, 3. b
k=
1k˜bkk
˜ b
k,
4. falls k = r → fertig, und B = {b
1, b
2, . . . , b
r} ist eine Orthonormalbasis von V , ansonsten weitermachen mit Schritt 2.
Beispiel 3.21.
4 Lineare Abbildungen und Matrizen
4.1 Lineare Abbildungen
Definition 4.1. Es seien V , W K-Vektorr¨ aume. Eine Abbildung f : V → W heißt linear oder Homomorphismus, wenn f¨ ur alle u, v ∈ V und λ ∈ K gilt
L1 f (u + v ) = f (u) + f(v), L2 f(λu) = λf(u).
Beispiel 4.2.
Satz 4.3. Die Menge aller linearen Abbildungen von V nach W wird mit Lin(V, W ) bezeichnet und ist ein Untervektorraum des Vektorraums X = Abb(V, W ) aller Abbil- dungen von V nach W .
Beweis.
4 Lineare Abbildungen und Matrizen
Satz 4.4. (i) Sind f : V → W und g : W → Z lineare Abbildungen, so ist auch die Verkettung f ◦ g : V → Z (mit (f ◦ g)(v) = f (g(v))) eine lineare Abbildung.
(ii) Ist f : V → W eine lineare Abbildung und besitzt f eine Umkehrfunktion f
−1, so ist auch die Umkehrfunktion linear.
Satz 4.5. Es sei V ein Vektorraum mit einem Skalarprodukt und U ein Untervektorraum von V . Die orthogonale Projektion P
U: V → U aus 3.15 ist linear.
Definition 4.6. Es sei f : V → W eine lineare Abbildung. Dann ist Im(f ) = f (V ) = {f (v) | v ∈ V }
das Bild von f, und
Ker(f) = {v ∈ V | f(v) = 0}
der Kern von f . Beispiel 4.7.
Satz 4.8. Ist f : V → W eine lineare Abbildung, so ist Im(f ) ein Untervektorraum von W , und Ker(f ) ein Untervektorraum von V .
Beweis.
32
4.2 Isomorphismen
4.2 Isomorphismen
Definition 4.9. Besitzt eine lineare Funktion f : V → W eine Umkehrfunktion f
−1: W → V , so heißt f Isomorphismus. Die Vektorr¨ aume V , W heißen zueinander isomorph, falls es einen Isomorphismus f : V → W gibt.
Beispiel 4.10.
Satz 4.11. Ist V ein Vektorraum mit der Basis B = {b
1, b
2, . . . , b
n}, so kann man eine lineare Abbildung f definieren, indem man die Bilder der Basisvektoren festlegt. D.h. f¨ ur f : V → W w¨ ahlt man w
1, w
2, . . . , w
n∈ W , und setzt f (b
i) = w
i. Dann ist f definiert durch
f (v) = f
n
X
i=1
λ
ib
i!
=
n
X
i=1
λ
if (b
i) =
n
X
i=1
λ
iw
i. Beispiel 4.12.
Satz 4.13. Es seien V , W K-Vektorr¨ aume, und f : V → W sei eine lineare Abbildung.
(i) Schr¨ ankt man den Bildbereich von f auf f (V ) ein, so ist die Abbildung f ˜ : V → f (V ) mit f(v) = ˜ f(v) invertierbar, genau dann, wenn Ker(f) = {0}.
(ii) Es sei B = {b
1, b
2, . . . , b
n} eine Basis von V . f ist ein Isomorphismus, genau dann wenn die Menge {f(b
1), f(b
2), . . . , f (b
n)} eine Basis von W ist.
(iii) Gilt Dim(V ) = Dim(W ), so ist f invertierbar, genau dann wenn Ker(f ) = {0}.
(iv) Ist V ein endlichdimensionaler Vektorraum, so gilt
Dim(V ) = Dim(Im(f )) + Dim(Ker(f )).
4 Lineare Abbildungen und Matrizen
Satz 4.14. Es sei V ein K -Vektorraum der Dimension n. Dann ist V isomorph zum Vektorraum K
n.
Beweis.
4.3 Matrizen
Es sei V ein Vektorraum mit der geordneten Basis B = (b
1, b
2, . . . , b
n), W sei ein Vek- torraum mit der geordneten Basis C = (c
1, c
2, . . . , c
m), und f : V → W sei eine lineare Abbildung. Denkt man an Satz 4.11, so ist f bereits vollst¨ andig gegeben durch die Definition von
f(b
1) = w
1, f (b
2) = w
2, . . . f (b
n) = w
n.
Stellt man die Vektoren w
ials Linearkombinationen in der Basis C dar (vgl. Satz 2.16), so bekommt man das Schema
f (b
1) = a
11c
1+ a
21c
2+ . . . a
m1c
m, f (b
2) = a
12c
1+ a
22c
2+ . . . a
m2c
m,
.. . .. .
f (b
n) = a
1nc
1+ a
2nc
2+ . . . a
mnc
m. Die lineare Abbildung f ist also durch das Zahlenschema
A =
a
11a
12. . . a
1na
21a
22. . . a
2n.. . .. . .. . .. . a
m1a
m2. . . a
mn
(?)
eindeutig definiert.
34
4.3 Matrizen
Definition 4.15. Ein Zahlenschema der Form (?) heißt m × n-Matrix. Die Menge aller solcher Zahlenschemata wird mit K
m×nbezeichnet. Man kann zwei m × n-Matrizen addieren wie folgt,
a
11a
12. . . a
1na
21a
22. . . a
2n.. . .. . .. . .. . a
m1a
m2. . . a
mn
+
b
11b
12. . . b
1nb
21b
22. . . b
2n.. . .. . .. . .. . b
m1b
m2. . . b
mn
=
a
11+b
11a
12+b
12. . . a
1n+b
1na
21+b
21a
22+b
22. . . a
2n+b
2n.. . .. . .. . .. . a
m1+b
m1a
m2+b
m2. . . a
mn+b
mn
und mit einer Zahl λ ∈ K multiplizieren,
λ ·
a
11a
12. . . a
1na
21a
22. . . a
2n.. . .. . .. . .. . a
m1a
m2. . . a
mn
=
λa
11λa
12. . . λa
1nλa
21λa
22. . . λa
2n.. . .. . .. . .. . λa
m1λa
m2. . . λa
mn.
Mit diesen Operationen + und · ist die Menge K
m×nein K-Vektorraum.
Definition 4.16. Es sei A ∈ K
m×nund B ∈ K
n×p. Man kann das Produkt C = A · B ∈ K
m×pdefinieren wie folgt,
a
11a
12. . . a
1na
21a
22. . . a
2n.. . .. . .. . .. . a
m1a
m2. . . a
mn
·
b
11b
12. . . b
1pb
21b
22. . . b
2p.. . .. . .. . .. . b
n1b
n2. . . b
np
=
c
11c
12. . . c
1pc
21c
22. . . c
2p.. . .. . .. . .. . c
m1c
m2. . . c
mp
,
wobei c
kj= P
ni=1
a
kib
ij= ha
k, b
ji, wobei a
kdie k-te Zeile von A, und b
jdie j -te Spalte von B ist (
” Zeile mal Spalte“). Das neutrale Element der Matrixmultiplikation in K
n×nist die Einheitsmatrix
E = E
n=
1 0 . . . 0 0 1 . . . 0 .. . .. . . .. ...
0 0 . . . 1
.
Beispiel 4.17.
4 Lineare Abbildungen und Matrizen
Satz 4.18. Es seien Matrizen A, B, C, D gegeben so dass die jeweiligen Rechenopera- tionen ausf¨ uhrbar sind. Dann gilt
(i) E · A = A · E = A, (ii) (A · B) · C = A · (B · C),
(iii) A · (B + C) = A · B + A · C und (B + C) · D = B · D + C · D.
Im Allgemeinen gilt (iv) A · B 6= B · A,
(v) A · B = 0 6⇒ A = 0 oder B = 0.
Zu Beginn dieses Abschnitts haben wir gesehen, dass man lineare Abbildungen zwi- schen endlichdimensionalen Vektorr¨ aumen als Zahlenmatrix darstellen kann. Der folgen- de Satz besagt, dass auch umgekehrt durch jede Zahlenmatrix eine lineare Abbildung definiert wird.
Satz 4.19. Durch eine Matrix A ∈ K
m×nwird eine lineare Abbildung f
A: K
n→ K
mdefiniert wie folgt:
f¨ ur x ∈ K
n= K
n×1ist f
A(x) = A · x.
Beweis.
Definition 4.20. Die Anzahl linear unabh¨ angiger Spalten einer Matrix A ∈ K
m×nist gleich der Anzahl linear unabh¨ angiger Zeilen der Matrix. Diese Zahl heißt Rang von A und wird mit Rang(A) bezeichnet. Eine quadratische Matrix A ∈ K
n×nheißt regul¨ ar, wenn Sie vollen Rang hat, d.h., wenn Rang(A) = n. Ansonsten heißt die Matrix singul¨ ar.
Beispiel 4.21.
36
4.3 Matrizen Satz 4.22. (i) Sind A ∈ K
m×n, B ∈ K
n×`Matrizen und f
A: K
n→ K
m, f
B: K
`→ K
ndie zugeh¨ origen linearen Abbildungen, so gilt f
A◦ f
B= f
A·B, d.h., f¨ ur x ∈ K
`ist
(f
A◦ f
B)(x) = f
A(f
B(x)) = f
A(B · x) = A · (B · x) = (A · B) · x (vgl. Satz 4.18 (ii)).
(ii) Eine Matrix A ∈ K
n×nist regul¨ ar, genau dann wenn die durch A induzierte li- neare Abbildung f
Aeine Umkehrfunktion besitzt. Die Matrix A besitzt dann eine Inverse A
−1(die Darstellungsmatrix von f
A−1) und es gilt A · A
−1= A
−1· A = E.
Beispiel 4.23.
Satz 4.24. Es seien A, B ∈ K
n×n.
(i) Ist A · B = E
n, so sind A und B regul¨ ar und es ist A = B
−1und B = A
−1. (ii) Sind A und B regul¨ ar, so ist auch das Produkt A · B regul¨ ar und es gilt
(A · B)
−1= B
−1· A
−1. Definition 4.25. Es sei
A =
a
11a
12. . . a
1na
21a
22. . . a
2n.. . .. . .. . .. . a
m1a
m2. . . a
mn
∈ K
m×n.
Dann ist
A
>=
a
11a
21. . . a
n1a
12a
22. . . a
2n.. . .. . .. . .. . a
1ma
2m. . . a
nm
∈ K
n×mdie zu A transponierte Matrix.
4 Lineare Abbildungen und Matrizen Beispiel 4.26.
Satz 4.27. Es seien A, B, C, D Matrizen, so dass die folgenden Operationen durch- gef¨ uhrt werden k¨ onnen. Es gilt
(A + B)
>= A
>+ B
>, (C · D)
>= D
>· C
>. Ist F eine quadratische, regul¨ are Matrix, so ist
(F
−1)
>= (F
>)
−1. Beispiel 4.28.
38
5 Lineare Gleichungssysteme und Determinanten
5.1 Lineare Gleichungssysteme
Definition 5.1. Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x
1, x
2, . . . , x
nso zu bestimmen, dass ein System von m linearen Gleichungen erf¨ ullt ist, d.h. f¨ ur vor- gegebene Zahlen a
ij, b
i(i = 1 . . . m, j = 1 . . . n) soll gelten:
a
11x
1+ a
12x
2+ · · · + a
1nx
n= b
1, a
21x
1+ a
22x
2+ · · · + a
2nx
n= b
2,
.. . .. . .. . .. . a
m1x
1+ a
m2x
2+ · · · + a
mnx
n= b
m.
(?)
Wenn man
A =
a
11a
12. . . a
1na
21a
22. . . a
2n.. . .. . .. . .. . a
m1a
m2. . . a
mn
, b =
b
1b
2.. . b
m
, x =
x
1x
2.. . x
n
setzt, so ist (?) ¨ aquivalent zu A · x = b. Ist b = 0, so nennt man (?) homogen, an- sonsten inhomogen. Das Gleichungssystem (?) kann als erweiterte Koeffizientenmatrix geschrieben werden wie folgt,
a
11a
12. . . a
1nb
1a
21a
22. . . a
2nb
2.. . .. . .. . .. . .. . a
m1a
m2. . . a
mnb
m
,
wenn die rechte Seite b = 0 ist, so kann sie in der Koeffizientenmatrix auch weggelassen werden.
Satz 5.2. (i) Die L¨ osungsmenge eines homogenen linearen Gleichungssystems ist der
Kern der zur Matrix A geh¨ orenden linearen Abbildung f
A, und damit ist die L¨ osungsmenge nach Satz 4.8 ein Untervektorraum des K
n.
(ii) Wenn A x ˆ = b gilt, so ist die L¨ osungsmenge des inhomogenen linearen Gleichungs- systems Ax = b die Menge
M = {ˆ x + y | y ∈ K
nso, dass Ay = 0} = ˆ x + Ker(f
A).
5 Lineare Gleichungssysteme und Determinanten
(iii) Das lineare Gleichungssystem (?) ist l¨ osbar genau dann, wenn b ∈ Im(f
A).
(iv) Es gilt Dim(Im(f
A)) = Rang(A) = n − Dim(Ker(f
A)).
Beispiel 5.3.
Satz 5.4. Wenn m = n und A eine regul¨ are Matrix ist, dann ist das Gleichungssystem Ax = b f¨ ur jedes b ∈ K
neindeutig l¨ osbar. Der L¨ osungsvektor ist x = A
−1· b.
Beweis.
5.2 Der Gauß-Algorithmus
Satz 5.5. Die folgenden Operationen ¨ andern die L¨ osungsmenge eines linearen Glei- chungssystems nicht:
(i) Vertauschung zweier Zeilen,
(ii) Multiplikation einer Zeile mit einer Zahl λ 6= 0,
(iii) Addition des Vielfachen einer Zeile zu einer gegebenen Zeile.
Diese Operationen kann man nutzen, um die L¨ osung eines linearen Gleichungssystems zu bestimmen.
40
5.2 Der Gauß-Algorithmus Bemerkung 5.6 (Gauß-Algorithmus zum L¨ osen linearer Gleichungssysteme). Gegeben ist die erweiterte Koeffizientenmatrix eines linearen Gleichungssystems Ax = b.
1. Man f¨ angt mit der ersten Spalte an, und w¨ ahlt den kleinsten Zeilenindex i, so dass a
i16= 0 (d.h., falls a
116= 0, i = 1, falls a
11= 0 aber a
216= 0, i = 2, etc.). Falls die gesamte erste Spalte gleich Null ist, dann springt man zu Schritt 5 und sucht in der zweiten Spalte, anfangend von der ersten Zeile, einen Eintrag ungleich Null.
2. Diese i-te Zeile teilt man durch a
1iund tauscht sie mit der ersten Zeile (wenn i = 1, dann ist dieser Schritt ¨ uberfl¨ ussig). Im Gleichungssystem steht jetzt links oben eine 1.
3. Im n¨ achsten Schritt nutzt man die 1 links oben im Gleichungssystem, um alle Eintr¨ age a
1kzu Null zu machen: Falls a
1k6= 0, so subtrahiert man von der k-ten Zeile a
1kmal die erste Zeile.
4. Die erste Spalte des Gleichungssystems lautet nun 1, 0, . . . , 0.
5. Jetzt ignoriert man die erste Zeile und die erste Spalte, und sucht in der zweiten Spalte, ab der zweiten Zeile den obersten Eintrag a
i26= 0 (i ≥ 2). Falls die gesamte zweite Spalte ab der zweiten Zeile abw¨ arts gleich Null ist, dann springt man zu Schritt 8 und sucht in der dritten Spalte weiter, etc.
6. Man teilt diese Zeile wieder durch a
i2und tauscht sie mit der 2-ten Zeile.
7. Nun wird wieder von jeder Zeile k ≥ 3 a
2kmal die zweite Zeile subtrahiert und man erh¨ alt die zweite Spalte ˜ a
12, 1, 0,. . . ,0.
8. Analog geht man spaltenweise durch das gesamte Gleichungssystem und erh¨ alt am Ende so etwas wie
1 ˜ a
12˜ a
13. . . ˜ a
1n˜ b
10 1 ˜ a
23. . . ˜ a
2n˜ b
2.. . .. . .. . .. . .. . 0 0 . . . 0 1 ˜ b
m
.
9. Durch die Umformungen in Schritt 1 bis 8 ¨ andert sich die L¨ osungsmenge des Glei-
chungssystems nicht (vgl. Satz 5.5). Die L¨ osung kann man durch R¨ ucksubstitution
aus der Form in Schritt 8 berechnen.
5 Lineare Gleichungssysteme und Determinanten Beispiel 5.7.
Bemerkung 5.8. (i) Will man ein und dasselbe Gleichungssystem (A|b) f¨ ur mehrere rechte Seiten b, c, d, . . . l¨ osen, so kann man in der erweiterten Koeffizientenmatrix mehrere rechte Seiten nebeneinander schreiben, (A|b c d . . . ) und dann den Gauß- Algorithmus simultan durchf¨ uhren.
(ii) Will man ein und dasselbe Gleichungssystem mit n Unbestimmten und n Glei- chungen f¨ ur mehr als n verschiedene rechte Seiten l¨ osen, so kann es sich lohnen, die Inverse A
−1von A zu berechnen und dann Satz 5.4 zu benutzen.
(iii) Um eine Matrix zu invertieren, kann man auf die rechte Seite der erweiterten Koeffizientenmatrix eine Einheitsmatrix schreiben, (A|E), und dann die Matrix so weit umformen, dass links eine Einheitsmatrix steht. Die Matrix auf der rechten Seite ist dann die Inverse von A (d.h. man formt um zu (E|A
−1)).
Beispiel 5.9.
42
5.3 Determinanten
5.3 Determinanten
Definition 5.10. Es sei A ∈ K
n×neine Matrix mit den Eintr¨ agen a
i,jin der i-ten Zeile, j-te Spalte. Außerdem sei f¨ ur i, j ∈ {1, 2, . . . , n} die (n − 1) × (n − 1)-Untermatrix A
ijgegeben als die Matrix, welche durch Streichen der i-ten Zeile und der j-ten Spalte entsteht. F¨ ur n ≥ 2 ist die Determinante von A definiert durch
det(A) = |A| =
n
X
k=1
(−1)
k+1a
1,kdet(A
1,k).
Die Determinanten det(A
1k) lassen sich rekursiv nach der gleichen Formel berechnen, solange sie mindestens 2 × 2 Matrizen sind. F¨ ur n = 1 ist die Determinante
det(A) = det(a
11) = a
11. Beispiel 5.11.
Satz 5.12 (Zur Berechnung von Determinanten).
(i) F¨ ur A ∈ K
2×2ist det(A) = a
11a
22− a
12a
21. (ii) (Regel von Sarrus:) F¨ ur A ∈ K
3×3ist
det(A) = a
11a
22a
33+ a
12a
23a
31+ a
13a
21a
32− a
13a
22a
31− a
11a
23a
32− a
12a
21a
33. (iii) (Laplace’scher Entwicklungssatz) Die Determinante einer Matrix A ∈ K
n×nkann
nach jeder Zeile oder Spalte von A entwickelt werden:
• Entwicklung nach der i-ten Zeile (liefert f¨ ur i = 1 die Definition):
det(A) =
n
X
k=1
(−1)
k+ia
i,kdet(A
i,k).
• Entwicklung nach der k-ten Spalte:
det(A) =
n
X
i=1
(−1)
k+ia
i,kdet(A
i,k).
5 Lineare Gleichungssysteme und Determinanten Beispiel 5.13.
Satz 5.14 (Eigenschaften der Determinante).
(i) Die Determinantenabbildung ist linear in der Zeilen/Spalten der Matrix A, d.h., es gilt z.B.
det
a
11. . . a
1,j−1x
1+ λy
1a
1,j+1. . . a
1na
21. . . a
2,j−1x
2+ λy
2a
2,j+1. . . a
2n.. . .. . .. . .. .
a
n1. . . a
n,j−1x
n+ λy
na
n,j+1. . . a
nn
= det
a
11. . . a
1,j−1x
1a
1,j+1. . . a
1na
21. . . a
2,j−1x
2a
2,j+1. . . a
2n.. . .. . .. . .. .
a
n1. . . a
n,j−1x
nq a
n,j+1. . . a
nn
+ λ det
a
11. . . a
1,j−1y
1a
1,j+1. . . a
1na
21. . . a
2,j−1y
2a
2,j+1. . . a
2n.. . .. . .. . .. .
a
n1. . . a
n,j−1y
na
n,j+1. . . a
nn
(ii) Das Vertauschen von Zeilen oder Spalten in einer Matrix ¨ andert das Vorzeichen ihrer Determinante.
(iii) Addiert man das Vielfache einer Zeile/Spalte zu einer anderen Zeile/Spalte, so
¨
andert sich die Determinante der Matrix nicht.
(iv) det(A) = det(A
T), det( ¯ A
T) = det(A) (v) det(A · B) = det(A) · det(B),
(vi) det(E
n) = 1, det(A
−1) = (det(A))
−1,
44
5.4 Determinanten und lineare Gleichungssysteme
5.4 Determinanten und lineare Gleichungssysteme
Satz 5.15 (Determinanten und die L¨ osbarkeit eines linearen Gleichungssystems).
Eine Matrix A ist regul¨ ar genau dann, wenn det(A) 6= 0. Das lineare Gleichungssystem Ax = b besitzt f¨ ur jedes b genau eine L¨ osung, genau dann, wenn A regul¨ ar ist, d.h. wenn det(A) 6= 0. Ansonsten besitzt das Gleichungssystem unendlich viele, oder gar keine L¨ osungen.
Beispiel 5.16.
Satz 5.17 (Cramer’sche Regel). Es sei A ∈ K
n×neine regul¨ are Matrix und b ∈ K
nsei ein Vektor. Die Matrix A
ksei diejenige Matrix, welche durch Ersetzen der k-ten Spalte von A mit dem Vektor b entsteht. Die L¨ osung des linearen Gleichungssystems Ax = b ist gegeben durch x = (x
1, x
2, . . . , x
n) mit
x
k= det(A
k) det(A) . Beispiel 5.18.
Bemerkung 5.19. Satz 5.17 liefert einen Algorithmus zum L¨ osen von linearen Glei-
chungssystemen. Typischerweise ist es jedoch wesentlich weniger Aufwand, den Gauß-
Algorithmus aus Bemerkung 5.6 zu verwenden.
6 Eigenwerte und Eigenvektoren
6.1 Eigenwert, Eigenraum, Eigenvektor
Definition 6.1. Es sei V ein Vektorraum und f : V → V eine lineare Abbildung. Ist λ ∈ K und v ∈ V mit v 6= 0 und f (v ) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f , und v heißt Eigenvektor (EV) von f . Spricht man von Eigenwerten bzw.
Eigenvektoren einer Matrix A ∈ K
n×n, so meint man die Eigenwerte/Eigenvektoren der durch A induzierten Abbildung f
A(v) = Av. Zu einem gegebenen Eigenwert λ heißt U = {v ∈ V | f(v) = λv} Eigenraum zum Eigenwert λ, und man schreibt U = Eig(f, λ) bzw. U = Eig(A, λ).
Beispiel 6.2.
Satz 6.3. Der Eigenraum Eig(f, λ) einer linearen Abbildung f : V → V zu einem Eigenwert λ ∈ K ist ein Untervektorraum von V .
Beweis.
6 Eigenwerte und Eigenvektoren
Satz 6.4. (i) Eine Zahl λ ist Eigenwert einer Matrix A, genau dann, wenn det(A − λ · E
n) = 0.
(ii) Der Ausdruck det(A − λE
n) ist ein Polynom in λ und heißt charakteristisches Polynom von A und wird mit χ
A(λ) = det(A − λE
n) bezeichnet.
(iii) Es gilt χ
A(λ) = (−λ)
n+ Spur(A)(−λ)
n−1+ · · ·+ det(A). Hier bei ist die Spur einer Matrix Spur(A) = P
ni=1
a
iidie Summe ihrer Diagonalelemente.
Beweis.
Beispiel 6.5.
Definition 6.6. In der Zerlegung χ
A(λ) = Q
rk=1
(λ − λ
k)
mkdes charakteristischen Po- lynoms in Linearfaktoren (in C , alternativ in lineare und quadratische Faktoren in R ) sind λ
kdie Eigenwerte von A, und m
kist die algebraische Vielfachheit des Eigenwerts λ
k.
Satz 6.7. Es sei A ∈ K
n×neine Matrix mit dem Eigenwert λ.
(i) Der Eigenraum Eig(A, λ) ist die L¨ osungsmenge des linearen Gleichungssystems (A − λE
n)x = 0. Das heißt, der Eigenraum ist der Kern der Abbildung f
A−λEn. (ii) Die Dimension des Eigenraums Eig(A, λ) ist q = Dim(Eig(A, λ) = n − Rang(A −
λE
n). Die Zahl q heißt geometrische Vielfachheit des Eigenwerts λ.
Beweis.
48
6.2 Basiswechsel und Diagonalisierbarkeit Beispiel 6.8.
Satz 6.9. (i) Die geometrische Vielfachheit eines Eigenwert ist immer kleiner gleich seiner algebraischen Vielfachheit.
(ii) Sind λ
1, . . . , λ
rverschiedene Eigenwerte einer Matrix A und v
1, . . . , v
rzugeh¨ orige Eigenvektoren, so ist die Menge {v
1, . . . , v
r} linear unabh¨ angig.
Beispiel 6.10.
6.2 Basiswechsel und Diagonalisierbarkeit
Definition 6.11. Zwei Matrizen A, B ∈ K
n×nheißen ¨ ahnlich, wenn einer regul¨ are Matrix T existiert, so dass
AT = T B, bzw. A = T BT
−1, bzw. B = T
−1AT.
Satz 6.12. Zueinander ¨ ahnliche Matrizen haben das gleiche charakteristische Polynom, und damit die gleichen Eigenwerte.
Beweis.
Satz 6.13. Ist A die Darstellungsmatrix einer linearen Abbildung f : K
n→ K
nin der
kanonischen Basis E
n= (e
1, e
2, . . . , e
n), so ist die Matrix B
−1AB die Darstellungsmatrix
von f in der Basis B = (b
1, b
2, . . . , b
n). Mit der Schreibweise B = (b
1, b
2, . . . , b
n) ist
einerseits die geordnete Basis mit den Vektoren b
1, . . . , b
n, und andererseits die Matrix
mit den Spalten b
1, . . . , b
ngemeint.
6 Eigenwerte und Eigenvektoren Beispiel 6.14.
Definition 6.15. Eine Matrix A ∈ K
n×nheißt diagonalisierbar, wenn es eine Matrix B ∈ K
n×ngibt, so dass B
−1AB eine Diagonalmatrix ist, d.h., wenn diese Matrix nur auf der Diagonalen Eintr¨ age ungleich Null hat (a
ij= 0 f¨ ur i 6= j ).
Satz 6.16. (i) Eine Matrix A ist diagonalisierbar, genau dann, wenn eine Basis des K
naus Eigenvektoren von A existiert. Die Matrix B ist dann die Matrix, die entsteht, wenn man als Spalten die Basisvektoren nimmt (vgl. Satz 6.13).
(ii) Es existiert eine Basis aus Eigenvektoren von A, wenn die geometrische Vielfach- heit jedes Eigenwerts gleich seiner algebraischen Vielfachheit ist.
Beispiel 6.17.
Definition 6.18. Eine Matrix A ∈ C
n×nheißt hermitesch, wenn ¯ A
>= A (d.h. a
ij= ¯ a
jif¨ ur i 6= j ) ist. Eine Matrix A ∈ R
n×nheißt symmetrisch, wenn A
>= A ist (d.h. reelle hermitesche Matrizen sind symmetrisch).
Satz 6.19. (i) Hermitesche Matrizen besitzen nur reelle Eigenwerte.
(ii) Aus a) folgt, dass das charakteristische Polynom einer reellen symmetrischen Ma- trix in Linearfaktoren zerlegt werden kann.
(iii) Sind λ, µ zwei verschiedene Eigenwerte einer symmetrischen Matrix, so sind die zugeh¨ origen Eigenvektoren zueinander senkrecht.
50
6.3 Definitheit von Matrizen Satz 6.20. Ist A ∈ R
n×nsymmetrisch, so existiert eine Orthonormalbasis B, so dass die Darstellungsmatrix BAB
−1der Abbildung f
Abez¨ uglich der Basis B eine Diagonalmatrix ist. Ist B eine Orthonormalbasis, so ist B
−1= B
>.
Beispiel 6.21.
Bemerkung 6.22 (Vgl. Aufgaben V 9.3, S 9.6a)). Es sei A ∈ K
n×neine Matrix, D = diag(d
1, d
2, . . . , d
n) ∈ K
n×nsei eine Diagonalmatrix, und B ∈ K
n×nsei invertierbar, so dass A = BDB
−1gilt. F¨ ur nat¨ urliche Zahlen k ∈ N ist die k-te Potenz einer Matrix definiert als A
k= Q
ki=1
A = A · A · · · · · A, und A
0= E
n. Damit kann man Matrizen in Polynome und in Potenzreihen einsetzen. Insbesondere ist exp(A) = P
∞k=0 1 k!