• Keine Ergebnisse gefunden

Mathematik 2 f¨ur Studierende der Bachelorstudieng¨ange Chemie und Biophysik

N/A
N/A
Protected

Academic year: 2021

Aktie "Mathematik 2 f¨ur Studierende der Bachelorstudieng¨ange Chemie und Biophysik"

Copied!
57
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Skript zur Vorlesung

Mathematik 2

f¨ ur Studierende der Bachelorstudieng¨ ange Chemie und Biophysik

Dr. Caroline L¨obhard

27. Juni 2016

(2)
(3)

Inhaltsverzeichnis

1 Differentialgleichungen II 5

1.1 Lineare Differentialgleichungen h¨ oherer Ordnung . . . . 5

1.2 Lineare homogene Differentialgleichungen mit konstanten Koeffizienten . 8 1.3 Lineare inhomogene Differentialgleichungen mit konstanten Koeffizienten 9 1.4 Exakte Differentialgleichungen . . . . 13

2 Vektorraum, Basis und Dimension 17 2.1 Grundlegende Definitionen . . . . 17

2.2 Lineare H¨ ulle und Erzeugendensystem . . . . 19

2.3 Basis und Dimension . . . . 20

3 Skalarprodukt und Orthogonalit¨ at 23 3.1 Skalarprodukt und Norm . . . . 23

3.2 Orthogonalit¨ at . . . . 25

3.3 Orthogonales Komplement und orthogonale Projektion . . . . 26

4 Lineare Abbildungen und Matrizen 31 4.1 Lineare Abbildungen . . . . 31

4.2 Isomorphismen . . . . 33

4.3 Matrizen . . . . 34

5 Lineare Gleichungssysteme und Determinanten 39 5.1 Lineare Gleichungssysteme . . . . 39

5.2 Der Gauß-Algorithmus . . . . 40

5.3 Determinanten . . . . 43

5.4 Determinanten und lineare Gleichungssysteme . . . . 45

6 Eigenwerte und Eigenvektoren 47 6.1 Eigenwert, Eigenraum, Eigenvektor . . . . 47

6.2 Basiswechsel und Diagonalisierbarkeit . . . . 49

6.3 Definitheit von Matrizen . . . . 51

7 Anwendungen der Linearen Algebra 53 7.1 Extremwertaufgaben mit Nebenbedingungen . . . . 53

7.2 Systeme linearer Differentialgleichungen 1. Ordnung mit konstanten Ko-

effizienten . . . . 56

(4)
(5)

1 Differentialgleichungen II

1.1 Lineare Differentialgleichungen h¨ oherer Ordnung

Definition 1.1. Gegeben sind n ∈ N , ein Intervall I ⊂ R , Koeffizientenfunktionen a

0

(t), a

1

(t), a

2

(t), . . . , a

n

(t), wobei a

n

(t) 6= 0 f¨ ur (mindestens) ein t ∈ I, und eine St¨ orfunktion h(t), die jeweils f¨ ur t ∈ I definiert sind . Eine lineare Differentialgleichung n-ter Ordnung hat die Form

a

n

(t)y

(n)

(t) + a

n−1

(t)y

(n−1)

(t) + · · · + a

1

(t)y

0

(t) + a

0

(t)y(t) = h(t). (?) Die Differentialgleichung heißt

inhomogen, falls f¨ ur (mindestens) ein t ∈ I gilt: h(t) 6= 0, homogen , falls f¨ ur alle t ∈ I gilt: h(t) = 0,

explizit , falls f¨ ur alle t ∈ I gilt: a

n

(t) 6= 0,

implizit , falls t

1

, t

2

∈ I existieren mit a

n

(t

1

) 6= 0 und a

n

(t

2

) = 0,

mit konstanten Koeffizienten , falls die Koeffizientenfunktionen alle konstant sind.

Bemerkung 1.2. In der Schreibweise aus MaI, Def. 10.1, ist

F (t, x

0

, x

1

, . . . , x

n

) = a

n

(t)x

n

+ a

n−1

(t)x

n−1

+ · · · + a

1

(t)x

1

+ a

0

(t)x

0

− h(t), und falls die Differentialgleichung explizit ist, so ist in MaI, Def.10.3

g(t, x

0

, x

1

, . . . , x

n−1

) = 1

a

n

(t) (h(t) − a

n−1

(t)x

n−1

− a

n−2

(t)x

n−2

− · · · − a

1

(t)x

1

− a

0

(t)x

0

) .

Beispiel 1.3.

(6)

1 Differentialgleichungen II

Satz 1.4 (Existenz und Eindeutigkeit der L¨ osung). Ist die Differentialgleichung (S) in Definition 1.1 explizit, und sind alle Koeffizientenfunktionen und die St¨ orfunktion stetig, so besitzt das Anfangswertproblem

y

(n)

(t) = g(t, y(t), y

0

(t), . . . , y

(n−1)

(t)), y(t

0

) = y

0

, y

0

(t

0

) = y

1

, . . . , y

(n−1)

(t

0

) = y

n−1

mit g aus Bemerkung 1.2 genau eine L¨ osung.

Beweis.

Satz 1.5. (i) Genauso wie in Ma.I Satz 10.20(ii) ist die allgemeine L¨ osung y

c

einer expliziten linearen Differentialgleichung die Summe aus einer partikul¨ aren L¨ osung y

p

der inhomogenen Gleichung (mit einem beliebigen Anfangswert) und der allge- meinen L¨ osung y

h,c

der zugeh¨ origen homogenen Gleichung, d.h.

y

c

(t) = y

h,c

(t) + y

p

(t).

(ii) Es sei κ ∈ R ein Konstante, y

1

eine L¨ osung der Gleichung (S) mit der rechten Seite h

1

, und y

2

sei eine L¨ osung der Gleichung (S) mit der rechten Seite h

2

. Dann l¨ ost y = y

1

+ κy

2

die Gleichung (S) mit der rechten Seite h

1

+ κh

2

.

Beweis. (i)

(ii) siehe ¨ Ubung.

6

(7)

1.1 Lineare Differentialgleichungen h¨ oherer Ordnung Wir befassen uns jetzt mit der Struktur der L¨ osungsmenge y

h,c

von linearen homoge- nen Differentialgleichungen n-ter Ordnung.

Satz 1.6. Die allgemeine L¨ osung einer expliziten linear homogenen Differentialgleichung besitzt die Form

y

h,c

(t) = c

1

y

1

(t) + c

2

y

2

(t) + · · · + c

n

y

n

(t),

wobei c

1

, c

2

, . . . , c

n

∈ R , und y

1

, y

2

, . . . , y

n

n verschiedene, linear unabh¨ angige L¨ osungen der Differentialgleichung sind.

” Linear unabh¨ angig“ bedeuted hier:

Wenn f¨ ur alle t ∈ I gilt

k

1

y

1

(t) + k

2

y

2

(t) + · · · + k

n

y

n

(t) = 0,

so folgt, dass alle Konstanten k

1

= k

2

= · · · = k

n

= 0 Null sein m¨ ussen.

Um ein Anfangswertproblem zu l¨ osen, setzt man die allgemeine L¨ osung in die An- fangsbedingungen ein und ermittelt aus diesen Gleichungen c

1

, c

2

, . . . , c

n

.

Beispiel 1.7.

In den folgenden Abschnitten betrachten wir lineare homogene Differentialgleichungen mit konstanten Koeffizienten a

0

, a

1

,. . . ,a

n

a

n

y

(n)

(t) + a

n−1

y

(n−1)

(t) + · · · + a

1

y

0

(t) + a

0

y(t) = 0 (LHK) und die lineare inhomogene Differentialgleichungen mit der St¨ orfunktion h

a

n

y

(n)

(t) + a

n−1

y

(n−1)

(t) + · · · + a

1

y

0

(t) + a

0

y(t) = h(t). (LIK)

(8)

1 Differentialgleichungen II

1.2 Lineare homogene Differentialgleichungen mit konstanten Koeffizienten

Bemerkung 1.8 (Anleitung zum Finden der allgemeinen L¨ osung von (LHK)).

1. Man macht den Ansatz: y(t) = e

λt

. 2. Einsetzen in (LHK) liefert

0 =a

n

y

(n)

(t) + a

n−1

y

(n−1)

(t) + · · · + a

1

y

0

(t) + a

0

y(t)

=a

n

λ

n

e

λt

+ a

n−1

λ

n−1

e

λt

+ · · · + a

1

λe

λt

+ a

0

e

λt

. Weil e

λt

6= 0 ist, bekommt man die Gleichung

a

n

λ

n

+ a

n−1

λ

n−1

+ · · · + a

1

λ + a

0

= 0.

3. Man muss also die Nullstellen λ

1

, λ

2

, . . . , λ

s

∈ C des obigen Polynoms mit den Vielfachheiten k

1

, k

2

, . . . , k

3

bestimmen – das heißt, man berechnet die Faktorisie- rung

a

n

λ

n

+ a

n−1

λ

n−1

+ · · · + a

1

λ + a

0

= (λ − λ

1

)

k1

(λ − λ

2

)

k2

· · · · · (λ − λ

s

)

ks

. 4. Man bekommt die folgenden linear unabh¨ angigen L¨ osungen:

a) falls λ

l

∈ R : e

λlt

, te

λlt

, . . . , t

kl−1

e

λlt

, b) falls λ

l

∈ C \ R , λ

l

= a + bi:

e

at

cos(bt), te

at

cos(bt), . . . , t

kl−1

e

at

cos(bt), e

at

sin(bt), te

at

sin(bt), . . . , t

kl−1

e

at

sin(bt).

5. In Schritt 4 bekommt man genau n linear unabh¨ angige L¨ osungen. Die allgemeine L¨ osung ist dann

y

h,c

(t) = c

1

y

1

(t) + c

2

y

2

(t) + · · · + c

n

y

n

(t).

Definition 1.9. Das Polynom

P (λ) = a

n

λ

n

+ a

n−1

λ

n−1

+ · · · + a

1

λ + a

0

heißt charakteristisches Polynom der Differentialgleichung (LHK) bzw. (LIK), die Glei- chung

P (λ) = 0

heißt charakteristisches Gleichung von (LHK) bzw. von (LIK).

8

(9)

1.3 Lineare inhomogene Differentialgleichungen mit konstanten Koeffizienten Beispiel 1.10.

1.3 Lineare inhomogene Differentialgleichungen mit konstanten Koeffizienten

In diesem Abschnitt werden zwei L¨ osungsverfahren f¨ ur lineare inhomogene Differential- gleichungen (LIK) mit konstanten Koeffizienten a

0

, a

1

,. . . ,a

n

und der St¨ orfunktion h(t) behandelt.

Falls die St¨ orfunktion h eine spezielle Form hat (Summe/Produkt von Polynom, Si- nus, Kosinus und Exponentialfunktion), so kann man die Struktur der L¨ osung

” erraten“

und muss dann nur noch einige Parameter durch Einsetzen in die Differentialgleichung bestimmen. Die Ansatzfunktion h¨ angt ab von

• den Nullstellen des charakteristischen Polynoms P der Differentialgleichung,

• der St¨ orfunktion h.

(10)

1 Differentialgleichungen II

Satz 1.11. Gegeben ist eine lineare inhomogene Differentialgleichung der Form (LIK) mit den Koeffizienten a

0

, a

1

, . . . , a

n

∈ R . Wir definieren Typen von St¨ orfunktionen h(t) und zugh¨ orige Ansatzfunktionen y

p

(t) wie folgt:

Typ I h(t) = p(t)e

λt

,

P (t) = (t − λ)

k

q(t) und q(λ) 6= 0,

wobei p ein Polynom vom Grad m, und λ eine k-fache Nullstelle des charakteri- stischen Polynoms ist. k = 0 bedeuted, dass λ keine Nullstelle von P ist.

Ansatz: y

p

(t) = r(t)t

k

e

λt

, wobei r ein Polynom vom Grad m ist.

Typ II h(t) = p(t)e

λ1t

cos(λ

2

t) + q(t)e

λ1t

sin(λ

2

t),

P (t) = (t − (λ

1

+ λ

2

i))

k

q(t) und q(λ

1

+ λ

2

i) 6= 0,

wobei p und q Polynome vom Grad m sind, und λ = λ

1

2

i eine k-fache Nullstelle des charakteristischen Polynoms ist.

Ansatz: y

p

(t) = r(t)t

k

e

λ1t

cos(λ

2

t) + s(t)t

k

e

λ1t

sin(λ

2

t), wobei r und s Poly- nome vom Grad m sind.

Falls h vom Typ I bzw. II ist, so l¨ ost eine Funktion y

p

der im jeweiligen Ansatz gegebenen Form die Differentialgleichung (LIK).

Beispiel 1.12.

10

(11)

1.3 Lineare inhomogene Differentialgleichungen mit konstanten Koeffizienten

Bemerkung 1.13 (Ansatzmethode zum L¨ osen von (LIK)).

1. Pr¨ ufe, ob h vom Typ I oder II aus Satz 1.11 ist. Falls ja, dann kann man die Gleichung mit der Ansatzmethode l¨ osen. Falls nicht, so muss man ein anderes L¨ osungsverfahren w¨ ahlen.

2. Bestimme die Nullstellen des charakteristischen Polynoms der Differentialgleichung.

3. Klassifiziere h nach den Kriterien aus Satz 1.11 und w¨ ahle den passenden Ansatz, z.B.

y

p

(t) = (p

0

+ p

1

t + p

2

t

2

+ · · · + p

m

t

m

)e

λt

.

4. Setze den Ansatz in die Differentialgleichung (LIK) ein. Dazu m¨ ussen die Ablei- tungen y

p0

, y

00p

,. . . ,y

(n)p

berechnet werden.

5. Aus der Gleichung aus Schritt 4 kann man die Koeffizienten r

0

, r

1

,. . . ,r

m

von r und evtl. die Koeffizienten s

0

, s

1

,. . . ,s

m

von s berechnen.

6. Die allgemeine L¨ osung der inhomogenen Gleichung ist y

c

= y

h,c

+ y

p

. Falls ein Anfangswertproblem gel¨ ost werden soll, so k¨ onnen die Konstanten c aus y

h,c

in y

c

aus den Anfangswerten bestimmt werden.

Beispiel 1.14.

(12)

1 Differentialgleichungen II

Satz 1.15. Es sei y

h,c

(t) = c

1

y

1

(t)+c

2

y

2

(t)+· · · +c

n

y

n

(t) = P

n

k=1

c

k

y

k

(t) die allgemeine L¨ osung der zu (LIK) geh¨ orenden homogenen Gleichung. Außerdem seien C

1

(t), C

2

(t), . . . , C

n

(t) differenzierbare Funktionen, die das folgende Gleichungssystem erf¨ ullen,

n

X

i=1

C

i0

(t)y

i

(t) = 0,

n

X

i=1

C

i0

(t)y

0i

(t) = 0, . . .

n

X

i=1

C

i0

(t)y

(n−2)i

(t) = 0,

n

X

i=1

C

i0

(t)y

(n−1)i

(t) = h(t) a

n

. Dann l¨ ost y

p

(t) = P

n

i=1

C

i

(t)y

i

(t) die lineare inhomogene Differentialgleichung (LIK).

Beweis.

Bemerkung 1.16. Mit den Mitteln der linearen Algebra kann man nachweisen, dass das Gleichungssystem aus Satz 1.15 l¨ osbar ist. Außerdem gibt es eine Formel, wie die gesuchten Funktionen C

10

(t), C

20

(t), . . . , C

n0

(t) berechnet werden k¨ onnen. Um die par- tikul¨ are L¨ osung der inhomogenen Differentialgleichung zu bestimmen, muss man deren Stammfunktionen C

1

(t), C

2

(t), . . . , C

n

(t) bestimmen.

Beispiel 1.17.

12

(13)

1.4 Exakte Differentialgleichungen

1.4 Exakte Differentialgleichungen

Es seien Funktionen P, Q : I × M → R , mit Intervallen I, M ⊂ R gegeben. Wir betrach- ten hier Differentialgleichungen der Form

F (t, y(t), y

0

(t)) = 0, mit F (t, x

0

, x

1

) = P (t, x

0

) + Q(t, x

0

)x

1

. (#) Definition 1.18. Die Differentialgleichung (#) heißt exakte Differentialgleichung, falls das Vektorfeld N (t, x

0

) = (P (t, x

0

), Q(t, x

0

)) exakt ist (vgl. MaI Def.3.27). Satz 3.28 aus MaI besagt, dass N genau dann exakt ist, wenn f¨ ur alle t ∈ I, x ∈ M gilt

dP (t, x)

dx = dQ(t, x) dt .

Satz 1.19. Ist ϕ ein Potential von N (t, x

0

) aus Definition 1.18, so ist die L¨ osung der Gleichung (#) implizit gegeben durch die Aufl¨ osung der Gleichung

ϕ(t, y(t)) = c nach y(t).

Beweis.

(14)

1 Differentialgleichungen II

Bemerkung 1.20 (Zur Bestimmung des Potentials ϕ).

1. Der Ansatz

dϕ(t,x)dt

= P (t, x) liefert ϕ(t, x) =

Z

P (t, x) dt + C(x).

2. Durch Einsetzen ergibt sich Q(t, x) = dϕ(t, x)

dx = d

dx Z

P (t, x) dt + C(x)

= Z d

dx P (t, x) dt + C

0

(x).

Man bestimmt C(x) also durch Integration von C(x) =

Z

Q(t, x) − Z d

dx P (t, x) dt

dx.

Beispiel 1.21.

Definition 1.22. Es sei N = (P, Q) : I × M → R

2

ein beliebiges Vektorfeld, wobei I, M Intervalle in R sind. Eine stetig differenzierbare Funktion µ : I × M → R heißt integrierender Faktor zu N, falls f¨ ur alle t ∈ I und alle x ∈ M gilt: µ(t, x) 6= 0, und falls das Vektorfeld µN = (µP, µQ) exakt ist.

14

(15)

1.4 Exakte Differentialgleichungen Satz 1.23. Es seien Funktionen P, Q : I × M → R , mit Intervallen I, M ⊂ R gegeben und µ sei ein integrierender Faktor des Vektorfelds N = (P, Q). Eine Funktion y l¨ ost die Differentialgleichung (#), genau dann, wenn sie die exakte Differentialgleichung

µ(t, y(t))P (t, y(t)) + µ(t, y(t))Q(t, y(t))y

0

(t) = 0 l¨ ost.

Beweis.

Bemerkung 1.24 (Zur Bestimmung eines integrierenden Faktors). Im Allgemeinen ist die Bestimmung eines integrierenden Faktors genauso schwer, wie das direkte L¨ osen der Differentialgleichung. Aus dem Kriterium aus MaI.3.28 bekommt man die Bedingung

µ

x

(t, x)P (t, x) + µ(t, x)P

x

(t, x) = µ

t

(t, x)Q(t, x) + µ(t, x)Q

y

(t, x).

Im speziellen Fall, dass µ nur von t abh¨ angt ist µ

x

(t, x) = 0 und die Bedingung lautet µ(t, x)P

x

(t, x) = µ

t

(t, x)Q(t, x) + µ(t, x)Q

y

(t, x), d.h.

µ

t

(t, x) = P

x

(t, x) − Q

t

(t, x)

Q(t, x) µ(t, x).

Das ist (f¨ ur jedes t) eine lineare homogene Differentialgleichung erster Ordnung f¨ ur µ – diese kann evtl. mit den Mitteln aus MaI Kap.10 gel¨ ost werden. Analog kann man vereinfachte Differentialgleichungen herleiten, wenn µ nur von x, oder beispielsweise nur von t + x abh¨ angt.

Beispiel 1.25.

(16)
(17)

2 Vektorraum, Basis und Dimension

2.1 Grundlegende Definitionen

Definition 2.1. Es sei K = R oder K = C . Ein K -Vektorraum ist eine Menge V mit einer Vektoraddition ⊕ : V × V → V , einer skalaren Multiplikation : K × V → V und einem Nullvektor 0 ∈ V , so dass die folgenden Rechenregeln gelten:

V1 (u ⊕ v) ⊕ w = u ⊕ (v ⊕ w) (Assoziativit¨ at)

V2 u ⊕ v = v ⊕ u (Kommutativit¨ at)

V3 v ⊕ 0 = v (Neutrales Element)

V4 ∀v ∈ V ∃v

0

∈ V mit v ⊕ v

0

= 0 (inverse Elemente v

0

= −v)

V5 (λ + µ) v = λ v ⊕ µ v (Distributivgesetz I)

V6 λ (v ⊕ w) = λ v ⊕ λ w (Distributivgesetz II)

V7 (λ · µ) v = λ (µ v)

V8 1 v = v

Beispiel 2.2.

(18)

2 Vektorraum, Basis und Dimension

Satz 2.3. (i) In jedem Vektorraum gibt es genau einen Nullvektor.

(ii) F¨ ur jeden Vektor v ∈ V ist 0 v = 0.

(iii) F¨ ur jeden Vektor v ∈ V ist (−1) v = −v .

(iv) Zu jedem Element v des Vektorraums gibt es genau ein inverses Element v

0

= −v.

Beweis.

Definition 2.4. Eine Teilmenge U ⊂ V eines Vektorraums V , die selbst ein Vektorraum ist, heißt Untervektorraum von V .

Beispiel 2.5.

Bemerkung 2.6. (i) Anstatt ⊕ und schreibt man meistens + und ·. Die Unter- scheidung zu Addition und Multiplikation in K ergibt sich dann aus dem Zusam- menhang.

(ii) Achtung: Vektoren kann man im Allgemeinen nicht multiplizieren und dividieren!

18

(19)

2.2 Lineare H¨ ulle und Erzeugendensystem

2.2 Lineare H¨ ulle und Erzeugendensystem

Definition 2.7. Es sei V ein Vektorraum, r ∈ N , und f¨ ur i = 1, 2, . . . , r seien Vektoren v

i

∈ V und Zahlen λ

i

∈ K gegeben. Die endliche Summe

r

X

i=1

λ

i

v

i

= λ

1

v

1

+ λ

2

v

2

+ . . . λ

r

v

r

heißt Linearkombination der Vektoren v

i

. Die Menge

L ({v

1

, v

2

, . . . , v

r

}) = (

n

X

i=1

λ

i

v

i

λ

i

∈ K )

heißt lineare H¨ ulle von {v

1

, v

2

, . . . , v

r

}. F¨ ur eine (evtl. unendlich große) Teilmenge M ⊂ V ist die Lineare H¨ ulle L(M) die Menge aller endlichen Linearkombinationen aus Vek- toren in M .

Beispiel 2.8.

Satz 2.9. (i) Eine Teilmenge U ⊂ V ist ein Untervektorraum von V genau dann, wenn

U1 U 6= ∅,

U2 f¨ ur alle u, v ∈ U auch deren Summe in U liegt, u + v ∈ U und

U3 wenn sie zu jedem v ∈ U auch beliebige Vielfache λ v (λ ∈ K) enth¨ alt.

(ii) F¨ ur jede Teilmenge M ⊂ V ist L(M) ein Untervektorraum von V .

(20)

2 Vektorraum, Basis und Dimension Beweis.

Definition 2.10. Eine Teilmenge U ⊂ V heißt Erzeugendensystem von V , wenn L(U ) = V.

Beispiel 2.11.

2.3 Basis und Dimension

Definition 2.12. Eine Menge B ⊂ V heißt linear unabh¨ angig wenn f¨ ur jede Linear- kombination von Vektoren b

1

, b

2

, . . . , b

r

aus B gilt: Ist

λ

1

b

1

+ λ

2

b

2

+ . . . λ

r

b

r

= 0,

so m¨ ussen alle λ

1

= λ

2

= · · · = λ

r

= 0 Null sein. ¨ Aquivalent dazu darf kein Vektor in B die Linearkombination der restlichen Vektoren sein. Eine Menge von Vektoren heißt linear abh¨ angig, wenn sie nicht linear unabh¨ angig ist.

Beispiel 2.13.

20

(21)

2.3 Basis und Dimension Definition 2.14. Eine Menge B ⊂ V heißt Basis von V wenn B linear unabh¨ angig und ein Erzeugendensystem von V ist.

Beispiel 2.15.

Satz 2.16. Ist B = (b

1

, b

2

, . . . , b

n

) eine geordnete Basis von V , so gibt es f¨ ur jeden Vektor v ∈ V genau einen Tupel (λ

1

, λ

2

, . . . , λ

n

) ∈ K

n

von Zahlen in K, so dass

v = λ

1

b

1

+ λ

2

b

2

+ . . . λ

n

v

n

.

Die Zahlen λ

i

heißen Koordinaten von v in der Basis B und man schreibt v

B

= (λ

1

, λ

2

, . . . , λ

n

).

Beispiel 2.17.

Satz 2.18. Es sei B = {b

1

, b

2

, . . . , b

n

} eine Basis eines Vektorraums V .

(i) Man kann ein Basiselement b

j

∈ B austauschen durch eine Linearkombination c = λ

1

b

1

+ λ

2

b

2

+ · · · + λ

n

b

n

,

wobei λ

j

6= 0 sein muss. Die Menge B = {b

1

, b

2

, . . . , b

j−1

, c, b

j+1

, . . . , b

n

} ist dann wieder eine Basis von V .

(ii) Ist C = {c

1

, c

2

, . . . , c

m

} eine weitere Basis von V , so gilt n = m (die Anzahl der

Basiselemente ist immer die gleiche).

(22)

2 Vektorraum, Basis und Dimension Beispiel 2.19.

Definition 2.20. Falls V eine endliche Basis besitzt, so ist die Zahl n an Basiselementen aus Satz 2.18(ii) die Dimension von V . Ansonsten ist die Dimension von V unendlich.

Man schreibt

dim(V ) = n bzw. dim(V ) = ∞.

Beispiel 2.21.

22

(23)

3 Skalarprodukt und Orthogonalit¨ at

3.1 Skalarprodukt und Norm

Definition 3.1. Es sei V ein K-Vektorraum (K = R oder K = C ).

(i) Eine Verkn¨ upfung h·, ·i mit hv, wi ∈ K heißt Skalarprodukt auf V , falls f¨ ur u, v, w ∈ V und λ ∈ K die folgenden Regeln gelten:

SP1 hv, wi = hw, vi (Symmetrie)

SP2 hλv, wi = λhv, wi (Homogenit¨ at)

SP3 hu + v, wi = hu, wi + hv, wi (Linearit¨ at)

SP4 hv, vi ≥ 0 f¨ ur alle v ∈ V, v 6= 0 ⇒ hv, v i 6= 0 (positive Definitheit) (ii) Eine Abbildung k · k : V → R heißt Norm auf V , falls f¨ ur u, v ∈ V und λ ∈ K die

folgenden Regeln gelten:

N1 kvk ≥ 0 und kvk = 0 ⇔ v = 0 (positive Definitheit)

N2 kλvk = |λ|kvk (Homogenit¨ at)

N3 ku + vk ≤ kuk + kvk (Dreiecksungleichung)

Beispiel 3.2.

(24)

3 Skalarprodukt und Orthogonalit¨ at

Satz 3.3 (Cauchy-Schwarz’sche Ungleichung). Es sei V ein K-Vektorraum mit dem Skalarprodukt h·, ·i und kvk = p

hv, vi (vgl. Satz 3.4). Dann gilt f¨ ur alle v, w ∈ V dass

|hv, wi| ≤ kvkkwk

und es gilt die Gleichheit |hv, wi| = kvkkwk genau dann, wenn die Menge {v, w} linear abh¨ angig ist.

Satz 3.4. Es sei V ein K-Vektorraum mit dem Skalarprodukt h·, ·i. Dann wird durch kvk = p

hv, v i eine Norm auf V definiert.

Beweis.

Beispiel 3.5.

24

(25)

3.2 Orthogonalit¨ at

3.2 Orthogonalit¨ at

Definition 3.6. F¨ ur Vektoren v, w ∈ V \ {0} ist die Zahl α ∈ [0, π[ mit cos(α) = hv, wi

kvk · kwk ∈ [−1, 1]

der Winkel zwischen v und w. Vektoren v, w ∈ V mit hv, wi = 0 heißen zueinander orthogonal und man schreibt v ⊥ w. Die Zahl kv k ∈ R ist die L¨ ange von v.

Beispiel 3.7.

Satz 3.8. Es sei V ein K-Vektorraum mit dem Skalarprodukt h·, ·i und B ⊂ V \ {0}

sei eine Teilmenge von V mit paarweise orthogonalen Vektoren ungleich Null, d.h. f¨ ur beliebige v, w ∈ B mit v 6= w gilt hv, wi = 0. Dann ist B linear unabh¨ angig.

Definition 3.9. Es sei V ein K-Vektorraum mit dem Skalarprodukt h·, ·i und B ⊂ V \ {0} sei eine Teilmenge von V wie in Satz 3.8. Eine solche Menge heißt Orthogonal- system. Besitzen alle Vektoren v ∈ B die Norm 1, d.h. kv k = p

hv, vi = 1, so heißt B Orthonormalsystem. Ist B eine Basis von V , so spricht man von einer Orthogonal- bzw.

Orthnormalbasis (ONB).

Beispiel 3.10.

(26)

3 Skalarprodukt und Orthogonalit¨ at

Satz 3.11. Es sei V ein endlichdimensionaler K-Vektorraum mit dem Skalarprodukt h·, ·i und der dadurch induzierten Norm k · k.

(i) Es sei B eine Basis von V . Es gilt

v = w ⇔ ∀b ∈ B : hv, bi = hw, bi.

(ii) Es sei B = {b

1

, b

2

, . . . , b

n

} eine orthonormale Basis von V und v ∈ V . Es gilt v =

n

X

i=1

hv, b

i

ib

i

.

Beweis.

3.3 Orthogonales Komplement und orthogonale Projektion

Definition 3.12. Es sei V ein K-Vektorraum mit dem Skalarprodukt h·, ·i und U ⊂ V sei eine Teilmenge von V . Dann ist

U

= {v ∈ V | ∀u ∈ U : hu, vi = 0}

das orthogonale Komplement von U in V .

Satz 3.13. F¨ ur jede Teilmenge U ⊂ V ist U

ein Untervektorraum von V .

26

(27)

3.3 Orthogonales Komplement und orthogonale Projektion Beispiel 3.14.

Satz 3.15. Es sei V ein K-Vektorraum mit dem Skalarprodukt h·, ·i, U ⊂ V sei ein Untervektorraum von V und v ∈ V sei ein Vektor in V . Dann existiert genau ein Vektor u

?

∈ U , so dass der Abstand

d(v, U ) = min{kv − uk | u ∈ U} = kv − u

?

k

von v zu U in u

?

minimal ist. Man definiert eine Abbildung P

U

: V → U durch P

U

(v ) = u

?

. P

U

heißt orthogonale Projektion von V auf U.

Beispiel 3.16.

Satz 3.17. Die Abbildung P

U

aus Satz 3.15 besitzt die folgenden Eigenschaften:

(i) Es gilt P

U

(v ) = 0 genau dann, wenn v ∈ U

. (ii) Es gilt P

U

(v ) = v genau dann, wenn v ∈ U .

(iii) Es ist P

U

◦ P

U

= P

U

, d.h. f¨ ur alle v ∈ V ist P

U

(P

U

(v)) = P

U

(v).

(iv) F¨ ur alle v ∈ V ist v − P

U

(v) ∈ U

.

(28)

3 Skalarprodukt und Orthogonalit¨ at Beweis.

Satz 3.18. Es sei V ein K-Vektorraum mit dem Skalarprodukt h·, ·i und U ⊂ V sei ein Untervektorraum von V mit einer Orthonormalbasis B = {b

1

, b

2

, . . . , b

r

}. Dann gilt f¨ ur alle v ∈ V

P

U

(v) =

r

X

i=1

hv, b

i

ib

i

. Beispiel 3.19.

28

(29)

3.3 Orthogonales Komplement und orthogonale Projektion Bemerkung 3.20 (Orthonormalisierungverfahren von Schmidt). Es sei V ein K -Vek- torraum mit dem Skalarprodukt h·, ·i und der dadurch induzierten Norm k · k. Außerdem sei A = {a

1

, a

2

, . . . , a

r

} eine endliche linear unabh¨ angige Teilmenge von V . Man kann aus A eine Orthonormalbasis wie folgt konstruieren,

1. k = 1, b

1

=

ka1

1k

a

1

,

2. k = k + 1, ˜ b

k

= a

k

− P

k−1

i=1

ha

k

, b

i

ib

i

, 3. b

k

=

1

k˜bkk

˜ b

k

,

4. falls k = r → fertig, und B = {b

1

, b

2

, . . . , b

r

} ist eine Orthonormalbasis von V , ansonsten weitermachen mit Schritt 2.

Beispiel 3.21.

(30)
(31)

4 Lineare Abbildungen und Matrizen

4.1 Lineare Abbildungen

Definition 4.1. Es seien V , W K-Vektorr¨ aume. Eine Abbildung f : V → W heißt linear oder Homomorphismus, wenn f¨ ur alle u, v ∈ V und λ ∈ K gilt

L1 f (u + v ) = f (u) + f(v), L2 f(λu) = λf(u).

Beispiel 4.2.

Satz 4.3. Die Menge aller linearen Abbildungen von V nach W wird mit Lin(V, W ) bezeichnet und ist ein Untervektorraum des Vektorraums X = Abb(V, W ) aller Abbil- dungen von V nach W .

Beweis.

(32)

4 Lineare Abbildungen und Matrizen

Satz 4.4. (i) Sind f : V → W und g : W → Z lineare Abbildungen, so ist auch die Verkettung f ◦ g : V → Z (mit (f ◦ g)(v) = f (g(v))) eine lineare Abbildung.

(ii) Ist f : V → W eine lineare Abbildung und besitzt f eine Umkehrfunktion f

−1

, so ist auch die Umkehrfunktion linear.

Satz 4.5. Es sei V ein Vektorraum mit einem Skalarprodukt und U ein Untervektorraum von V . Die orthogonale Projektion P

U

: V → U aus 3.15 ist linear.

Definition 4.6. Es sei f : V → W eine lineare Abbildung. Dann ist Im(f ) = f (V ) = {f (v) | v ∈ V }

das Bild von f, und

Ker(f) = {v ∈ V | f(v) = 0}

der Kern von f . Beispiel 4.7.

Satz 4.8. Ist f : V → W eine lineare Abbildung, so ist Im(f ) ein Untervektorraum von W , und Ker(f ) ein Untervektorraum von V .

Beweis.

32

(33)

4.2 Isomorphismen

4.2 Isomorphismen

Definition 4.9. Besitzt eine lineare Funktion f : V → W eine Umkehrfunktion f

−1

: W → V , so heißt f Isomorphismus. Die Vektorr¨ aume V , W heißen zueinander isomorph, falls es einen Isomorphismus f : V → W gibt.

Beispiel 4.10.

Satz 4.11. Ist V ein Vektorraum mit der Basis B = {b

1

, b

2

, . . . , b

n

}, so kann man eine lineare Abbildung f definieren, indem man die Bilder der Basisvektoren festlegt. D.h. f¨ ur f : V → W w¨ ahlt man w

1

, w

2

, . . . , w

n

∈ W , und setzt f (b

i

) = w

i

. Dann ist f definiert durch

f (v) = f

n

X

i=1

λ

i

b

i

!

=

n

X

i=1

λ

i

f (b

i

) =

n

X

i=1

λ

i

w

i

. Beispiel 4.12.

Satz 4.13. Es seien V , W K-Vektorr¨ aume, und f : V → W sei eine lineare Abbildung.

(i) Schr¨ ankt man den Bildbereich von f auf f (V ) ein, so ist die Abbildung f ˜ : V → f (V ) mit f(v) = ˜ f(v) invertierbar, genau dann, wenn Ker(f) = {0}.

(ii) Es sei B = {b

1

, b

2

, . . . , b

n

} eine Basis von V . f ist ein Isomorphismus, genau dann wenn die Menge {f(b

1

), f(b

2

), . . . , f (b

n

)} eine Basis von W ist.

(iii) Gilt Dim(V ) = Dim(W ), so ist f invertierbar, genau dann wenn Ker(f ) = {0}.

(iv) Ist V ein endlichdimensionaler Vektorraum, so gilt

Dim(V ) = Dim(Im(f )) + Dim(Ker(f )).

(34)

4 Lineare Abbildungen und Matrizen

Satz 4.14. Es sei V ein K -Vektorraum der Dimension n. Dann ist V isomorph zum Vektorraum K

n

.

Beweis.

4.3 Matrizen

Es sei V ein Vektorraum mit der geordneten Basis B = (b

1

, b

2

, . . . , b

n

), W sei ein Vek- torraum mit der geordneten Basis C = (c

1

, c

2

, . . . , c

m

), und f : V → W sei eine lineare Abbildung. Denkt man an Satz 4.11, so ist f bereits vollst¨ andig gegeben durch die Definition von

f(b

1

) = w

1

, f (b

2

) = w

2

, . . . f (b

n

) = w

n

.

Stellt man die Vektoren w

i

als Linearkombinationen in der Basis C dar (vgl. Satz 2.16), so bekommt man das Schema

f (b

1

) = a

11

c

1

+ a

21

c

2

+ . . . a

m1

c

m

, f (b

2

) = a

12

c

1

+ a

22

c

2

+ . . . a

m2

c

m

,

.. . .. .

f (b

n

) = a

1n

c

1

+ a

2n

c

2

+ . . . a

mn

c

m

. Die lineare Abbildung f ist also durch das Zahlenschema

A =

a

11

a

12

. . . a

1n

a

21

a

22

. . . a

2n

.. . .. . .. . .. . a

m1

a

m2

. . . a

mn

(?)

eindeutig definiert.

34

(35)

4.3 Matrizen

Definition 4.15. Ein Zahlenschema der Form (?) heißt m × n-Matrix. Die Menge aller solcher Zahlenschemata wird mit K

m×n

bezeichnet. Man kann zwei m × n-Matrizen addieren wie folgt,

a

11

a

12

. . . a

1n

a

21

a

22

. . . a

2n

.. . .. . .. . .. . a

m1

a

m2

. . . a

mn

 +

b

11

b

12

. . . b

1n

b

21

b

22

. . . b

2n

.. . .. . .. . .. . b

m1

b

m2

. . . b

mn

=

a

11

+b

11

a

12

+b

12

. . . a

1n

+b

1n

a

21

+b

21

a

22

+b

22

. . . a

2n

+b

2n

.. . .. . .. . .. . a

m1

+b

m1

a

m2

+b

m2

. . . a

mn

+b

mn

und mit einer Zahl λ ∈ K multiplizieren,

λ ·

a

11

a

12

. . . a

1n

a

21

a

22

. . . a

2n

.. . .. . .. . .. . a

m1

a

m2

. . . a

mn

=

λa

11

λa

12

. . . λa

1n

λa

21

λa

22

. . . λa

2n

.. . .. . .. . .. . λa

m1

λa

m2

. . . λa

mn

.

Mit diesen Operationen + und · ist die Menge K

m×n

ein K-Vektorraum.

Definition 4.16. Es sei A ∈ K

m×n

und B ∈ K

n×p

. Man kann das Produkt C = A · B ∈ K

m×p

definieren wie folgt,

a

11

a

12

. . . a

1n

a

21

a

22

. . . a

2n

.. . .. . .. . .. . a

m1

a

m2

. . . a

mn

·

b

11

b

12

. . . b

1p

b

21

b

22

. . . b

2p

.. . .. . .. . .. . b

n1

b

n2

. . . b

np

=

c

11

c

12

. . . c

1p

c

21

c

22

. . . c

2p

.. . .. . .. . .. . c

m1

c

m2

. . . c

mp

 ,

wobei c

kj

= P

n

i=1

a

ki

b

ij

= ha

k

, b

j

i, wobei a

k

die k-te Zeile von A, und b

j

die j -te Spalte von B ist (

” Zeile mal Spalte“). Das neutrale Element der Matrixmultiplikation in K

n×n

ist die Einheitsmatrix

E = E

n

=

1 0 . . . 0 0 1 . . . 0 .. . .. . . .. ...

0 0 . . . 1

 .

Beispiel 4.17.

(36)

4 Lineare Abbildungen und Matrizen

Satz 4.18. Es seien Matrizen A, B, C, D gegeben so dass die jeweiligen Rechenopera- tionen ausf¨ uhrbar sind. Dann gilt

(i) E · A = A · E = A, (ii) (A · B) · C = A · (B · C),

(iii) A · (B + C) = A · B + A · C und (B + C) · D = B · D + C · D.

Im Allgemeinen gilt (iv) A · B 6= B · A,

(v) A · B = 0 6⇒ A = 0 oder B = 0.

Zu Beginn dieses Abschnitts haben wir gesehen, dass man lineare Abbildungen zwi- schen endlichdimensionalen Vektorr¨ aumen als Zahlenmatrix darstellen kann. Der folgen- de Satz besagt, dass auch umgekehrt durch jede Zahlenmatrix eine lineare Abbildung definiert wird.

Satz 4.19. Durch eine Matrix A ∈ K

m×n

wird eine lineare Abbildung f

A

: K

n

→ K

m

definiert wie folgt:

f¨ ur x ∈ K

n

= K

n×1

ist f

A

(x) = A · x.

Beweis.

Definition 4.20. Die Anzahl linear unabh¨ angiger Spalten einer Matrix A ∈ K

m×n

ist gleich der Anzahl linear unabh¨ angiger Zeilen der Matrix. Diese Zahl heißt Rang von A und wird mit Rang(A) bezeichnet. Eine quadratische Matrix A ∈ K

n×n

heißt regul¨ ar, wenn Sie vollen Rang hat, d.h., wenn Rang(A) = n. Ansonsten heißt die Matrix singul¨ ar.

Beispiel 4.21.

36

(37)

4.3 Matrizen Satz 4.22. (i) Sind A ∈ K

m×n

, B ∈ K

n×`

Matrizen und f

A

: K

n

→ K

m

, f

B

: K

`

→ K

n

die zugeh¨ origen linearen Abbildungen, so gilt f

A

◦ f

B

= f

A·B

, d.h., f¨ ur x ∈ K

`

ist

(f

A

◦ f

B

)(x) = f

A

(f

B

(x)) = f

A

(B · x) = A · (B · x) = (A · B) · x (vgl. Satz 4.18 (ii)).

(ii) Eine Matrix A ∈ K

n×n

ist regul¨ ar, genau dann wenn die durch A induzierte li- neare Abbildung f

A

eine Umkehrfunktion besitzt. Die Matrix A besitzt dann eine Inverse A

−1

(die Darstellungsmatrix von f

A−1

) und es gilt A · A

−1

= A

−1

· A = E.

Beispiel 4.23.

Satz 4.24. Es seien A, B ∈ K

n×n

.

(i) Ist A · B = E

n

, so sind A und B regul¨ ar und es ist A = B

−1

und B = A

−1

. (ii) Sind A und B regul¨ ar, so ist auch das Produkt A · B regul¨ ar und es gilt

(A · B)

−1

= B

−1

· A

−1

. Definition 4.25. Es sei

A =

a

11

a

12

. . . a

1n

a

21

a

22

. . . a

2n

.. . .. . .. . .. . a

m1

a

m2

. . . a

mn

∈ K

m×n

.

Dann ist

A

>

=

a

11

a

21

. . . a

n1

a

12

a

22

. . . a

2n

.. . .. . .. . .. . a

1m

a

2m

. . . a

nm

∈ K

n×m

die zu A transponierte Matrix.

(38)

4 Lineare Abbildungen und Matrizen Beispiel 4.26.

Satz 4.27. Es seien A, B, C, D Matrizen, so dass die folgenden Operationen durch- gef¨ uhrt werden k¨ onnen. Es gilt

(A + B)

>

= A

>

+ B

>

, (C · D)

>

= D

>

· C

>

. Ist F eine quadratische, regul¨ are Matrix, so ist

(F

−1

)

>

= (F

>

)

−1

. Beispiel 4.28.

38

(39)

5 Lineare Gleichungssysteme und Determinanten

5.1 Lineare Gleichungssysteme

Definition 5.1. Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x

1

, x

2

, . . . , x

n

so zu bestimmen, dass ein System von m linearen Gleichungen erf¨ ullt ist, d.h. f¨ ur vor- gegebene Zahlen a

ij

, b

i

(i = 1 . . . m, j = 1 . . . n) soll gelten:

a

11

x

1

+ a

12

x

2

+ · · · + a

1n

x

n

= b

1

, a

21

x

1

+ a

22

x

2

+ · · · + a

2n

x

n

= b

2

,

.. . .. . .. . .. . a

m1

x

1

+ a

m2

x

2

+ · · · + a

mn

x

n

= b

m

.

(?)

Wenn man

A =

a

11

a

12

. . . a

1n

a

21

a

22

. . . a

2n

.. . .. . .. . .. . a

m1

a

m2

. . . a

mn

 , b =

 b

1

b

2

.. . b

m

 , x =

 x

1

x

2

.. . x

n

setzt, so ist (?) ¨ aquivalent zu A · x = b. Ist b = 0, so nennt man (?) homogen, an- sonsten inhomogen. Das Gleichungssystem (?) kann als erweiterte Koeffizientenmatrix geschrieben werden wie folgt,

a

11

a

12

. . . a

1n

b

1

a

21

a

22

. . . a

2n

b

2

.. . .. . .. . .. . .. . a

m1

a

m2

. . . a

mn

b

m

 ,

wenn die rechte Seite b = 0 ist, so kann sie in der Koeffizientenmatrix auch weggelassen werden.

Satz 5.2. (i) Die L¨ osungsmenge eines homogenen linearen Gleichungssystems ist der

Kern der zur Matrix A geh¨ orenden linearen Abbildung f

A

, und damit ist die L¨ osungsmenge nach Satz 4.8 ein Untervektorraum des K

n

.

(ii) Wenn A x ˆ = b gilt, so ist die L¨ osungsmenge des inhomogenen linearen Gleichungs- systems Ax = b die Menge

M = {ˆ x + y | y ∈ K

n

so, dass Ay = 0} = ˆ x + Ker(f

A

).

(40)

5 Lineare Gleichungssysteme und Determinanten

(iii) Das lineare Gleichungssystem (?) ist l¨ osbar genau dann, wenn b ∈ Im(f

A

).

(iv) Es gilt Dim(Im(f

A

)) = Rang(A) = n − Dim(Ker(f

A

)).

Beispiel 5.3.

Satz 5.4. Wenn m = n und A eine regul¨ are Matrix ist, dann ist das Gleichungssystem Ax = b f¨ ur jedes b ∈ K

n

eindeutig l¨ osbar. Der L¨ osungsvektor ist x = A

−1

· b.

Beweis.

5.2 Der Gauß-Algorithmus

Satz 5.5. Die folgenden Operationen ¨ andern die L¨ osungsmenge eines linearen Glei- chungssystems nicht:

(i) Vertauschung zweier Zeilen,

(ii) Multiplikation einer Zeile mit einer Zahl λ 6= 0,

(iii) Addition des Vielfachen einer Zeile zu einer gegebenen Zeile.

Diese Operationen kann man nutzen, um die L¨ osung eines linearen Gleichungssystems zu bestimmen.

40

(41)

5.2 Der Gauß-Algorithmus Bemerkung 5.6 (Gauß-Algorithmus zum L¨ osen linearer Gleichungssysteme). Gegeben ist die erweiterte Koeffizientenmatrix eines linearen Gleichungssystems Ax = b.

1. Man f¨ angt mit der ersten Spalte an, und w¨ ahlt den kleinsten Zeilenindex i, so dass a

i1

6= 0 (d.h., falls a

11

6= 0, i = 1, falls a

11

= 0 aber a

21

6= 0, i = 2, etc.). Falls die gesamte erste Spalte gleich Null ist, dann springt man zu Schritt 5 und sucht in der zweiten Spalte, anfangend von der ersten Zeile, einen Eintrag ungleich Null.

2. Diese i-te Zeile teilt man durch a

1i

und tauscht sie mit der ersten Zeile (wenn i = 1, dann ist dieser Schritt ¨ uberfl¨ ussig). Im Gleichungssystem steht jetzt links oben eine 1.

3. Im n¨ achsten Schritt nutzt man die 1 links oben im Gleichungssystem, um alle Eintr¨ age a

1k

zu Null zu machen: Falls a

1k

6= 0, so subtrahiert man von der k-ten Zeile a

1k

mal die erste Zeile.

4. Die erste Spalte des Gleichungssystems lautet nun 1, 0, . . . , 0.

5. Jetzt ignoriert man die erste Zeile und die erste Spalte, und sucht in der zweiten Spalte, ab der zweiten Zeile den obersten Eintrag a

i2

6= 0 (i ≥ 2). Falls die gesamte zweite Spalte ab der zweiten Zeile abw¨ arts gleich Null ist, dann springt man zu Schritt 8 und sucht in der dritten Spalte weiter, etc.

6. Man teilt diese Zeile wieder durch a

i2

und tauscht sie mit der 2-ten Zeile.

7. Nun wird wieder von jeder Zeile k ≥ 3 a

2k

mal die zweite Zeile subtrahiert und man erh¨ alt die zweite Spalte ˜ a

12

, 1, 0,. . . ,0.

8. Analog geht man spaltenweise durch das gesamte Gleichungssystem und erh¨ alt am Ende so etwas wie

1 ˜ a

12

˜ a

13

. . . ˜ a

1n

˜ b

1

0 1 ˜ a

23

. . . ˜ a

2n

˜ b

2

.. . .. . .. . .. . .. . 0 0 . . . 0 1 ˜ b

m

 .

9. Durch die Umformungen in Schritt 1 bis 8 ¨ andert sich die L¨ osungsmenge des Glei-

chungssystems nicht (vgl. Satz 5.5). Die L¨ osung kann man durch R¨ ucksubstitution

aus der Form in Schritt 8 berechnen.

(42)

5 Lineare Gleichungssysteme und Determinanten Beispiel 5.7.

Bemerkung 5.8. (i) Will man ein und dasselbe Gleichungssystem (A|b) f¨ ur mehrere rechte Seiten b, c, d, . . . l¨ osen, so kann man in der erweiterten Koeffizientenmatrix mehrere rechte Seiten nebeneinander schreiben, (A|b c d . . . ) und dann den Gauß- Algorithmus simultan durchf¨ uhren.

(ii) Will man ein und dasselbe Gleichungssystem mit n Unbestimmten und n Glei- chungen f¨ ur mehr als n verschiedene rechte Seiten l¨ osen, so kann es sich lohnen, die Inverse A

−1

von A zu berechnen und dann Satz 5.4 zu benutzen.

(iii) Um eine Matrix zu invertieren, kann man auf die rechte Seite der erweiterten Koeffizientenmatrix eine Einheitsmatrix schreiben, (A|E), und dann die Matrix so weit umformen, dass links eine Einheitsmatrix steht. Die Matrix auf der rechten Seite ist dann die Inverse von A (d.h. man formt um zu (E|A

−1

)).

Beispiel 5.9.

42

(43)

5.3 Determinanten

5.3 Determinanten

Definition 5.10. Es sei A ∈ K

n×n

eine Matrix mit den Eintr¨ agen a

i,j

in der i-ten Zeile, j-te Spalte. Außerdem sei f¨ ur i, j ∈ {1, 2, . . . , n} die (n − 1) × (n − 1)-Untermatrix A

ij

gegeben als die Matrix, welche durch Streichen der i-ten Zeile und der j-ten Spalte entsteht. F¨ ur n ≥ 2 ist die Determinante von A definiert durch

det(A) = |A| =

n

X

k=1

(−1)

k+1

a

1,k

det(A

1,k

).

Die Determinanten det(A

1k

) lassen sich rekursiv nach der gleichen Formel berechnen, solange sie mindestens 2 × 2 Matrizen sind. F¨ ur n = 1 ist die Determinante

det(A) = det(a

11

) = a

11

. Beispiel 5.11.

Satz 5.12 (Zur Berechnung von Determinanten).

(i) F¨ ur A ∈ K

2×2

ist det(A) = a

11

a

22

− a

12

a

21

. (ii) (Regel von Sarrus:) F¨ ur A ∈ K

3×3

ist

det(A) = a

11

a

22

a

33

+ a

12

a

23

a

31

+ a

13

a

21

a

32

− a

13

a

22

a

31

− a

11

a

23

a

32

− a

12

a

21

a

33

. (iii) (Laplace’scher Entwicklungssatz) Die Determinante einer Matrix A ∈ K

n×n

kann

nach jeder Zeile oder Spalte von A entwickelt werden:

• Entwicklung nach der i-ten Zeile (liefert f¨ ur i = 1 die Definition):

det(A) =

n

X

k=1

(−1)

k+i

a

i,k

det(A

i,k

).

• Entwicklung nach der k-ten Spalte:

det(A) =

n

X

i=1

(−1)

k+i

a

i,k

det(A

i,k

).

(44)

5 Lineare Gleichungssysteme und Determinanten Beispiel 5.13.

Satz 5.14 (Eigenschaften der Determinante).

(i) Die Determinantenabbildung ist linear in der Zeilen/Spalten der Matrix A, d.h., es gilt z.B.

det

a

11

. . . a

1,j−1

x

1

+ λy

1

a

1,j+1

. . . a

1n

a

21

. . . a

2,j−1

x

2

+ λy

2

a

2,j+1

. . . a

2n

.. . .. . .. . .. .

a

n1

. . . a

n,j−1

x

n

+ λy

n

a

n,j+1

. . . a

nn

= det

a

11

. . . a

1,j−1

x

1

a

1,j+1

. . . a

1n

a

21

. . . a

2,j−1

x

2

a

2,j+1

. . . a

2n

.. . .. . .. . .. .

a

n1

. . . a

n,j−1

x

n

q a

n,j+1

. . . a

nn

+ λ det

a

11

. . . a

1,j−1

y

1

a

1,j+1

. . . a

1n

a

21

. . . a

2,j−1

y

2

a

2,j+1

. . . a

2n

.. . .. . .. . .. .

a

n1

. . . a

n,j−1

y

n

a

n,j+1

. . . a

nn

(ii) Das Vertauschen von Zeilen oder Spalten in einer Matrix ¨ andert das Vorzeichen ihrer Determinante.

(iii) Addiert man das Vielfache einer Zeile/Spalte zu einer anderen Zeile/Spalte, so

¨

andert sich die Determinante der Matrix nicht.

(iv) det(A) = det(A

T

), det( ¯ A

T

) = det(A) (v) det(A · B) = det(A) · det(B),

(vi) det(E

n

) = 1, det(A

−1

) = (det(A))

−1

,

44

(45)

5.4 Determinanten und lineare Gleichungssysteme

5.4 Determinanten und lineare Gleichungssysteme

Satz 5.15 (Determinanten und die L¨ osbarkeit eines linearen Gleichungssystems).

Eine Matrix A ist regul¨ ar genau dann, wenn det(A) 6= 0. Das lineare Gleichungssystem Ax = b besitzt f¨ ur jedes b genau eine L¨ osung, genau dann, wenn A regul¨ ar ist, d.h. wenn det(A) 6= 0. Ansonsten besitzt das Gleichungssystem unendlich viele, oder gar keine L¨ osungen.

Beispiel 5.16.

Satz 5.17 (Cramer’sche Regel). Es sei A ∈ K

n×n

eine regul¨ are Matrix und b ∈ K

n

sei ein Vektor. Die Matrix A

k

sei diejenige Matrix, welche durch Ersetzen der k-ten Spalte von A mit dem Vektor b entsteht. Die L¨ osung des linearen Gleichungssystems Ax = b ist gegeben durch x = (x

1

, x

2

, . . . , x

n

) mit

x

k

= det(A

k

) det(A) . Beispiel 5.18.

Bemerkung 5.19. Satz 5.17 liefert einen Algorithmus zum L¨ osen von linearen Glei-

chungssystemen. Typischerweise ist es jedoch wesentlich weniger Aufwand, den Gauß-

Algorithmus aus Bemerkung 5.6 zu verwenden.

(46)
(47)

6 Eigenwerte und Eigenvektoren

6.1 Eigenwert, Eigenraum, Eigenvektor

Definition 6.1. Es sei V ein Vektorraum und f : V → V eine lineare Abbildung. Ist λ ∈ K und v ∈ V mit v 6= 0 und f (v ) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f , und v heißt Eigenvektor (EV) von f . Spricht man von Eigenwerten bzw.

Eigenvektoren einer Matrix A ∈ K

n×n

, so meint man die Eigenwerte/Eigenvektoren der durch A induzierten Abbildung f

A

(v) = Av. Zu einem gegebenen Eigenwert λ heißt U = {v ∈ V | f(v) = λv} Eigenraum zum Eigenwert λ, und man schreibt U = Eig(f, λ) bzw. U = Eig(A, λ).

Beispiel 6.2.

Satz 6.3. Der Eigenraum Eig(f, λ) einer linearen Abbildung f : V → V zu einem Eigenwert λ ∈ K ist ein Untervektorraum von V .

Beweis.

(48)

6 Eigenwerte und Eigenvektoren

Satz 6.4. (i) Eine Zahl λ ist Eigenwert einer Matrix A, genau dann, wenn det(A − λ · E

n

) = 0.

(ii) Der Ausdruck det(A − λE

n

) ist ein Polynom in λ und heißt charakteristisches Polynom von A und wird mit χ

A

(λ) = det(A − λE

n

) bezeichnet.

(iii) Es gilt χ

A

(λ) = (−λ)

n

+ Spur(A)(−λ)

n−1

+ · · ·+ det(A). Hier bei ist die Spur einer Matrix Spur(A) = P

n

i=1

a

ii

die Summe ihrer Diagonalelemente.

Beweis.

Beispiel 6.5.

Definition 6.6. In der Zerlegung χ

A

(λ) = Q

r

k=1

(λ − λ

k

)

mk

des charakteristischen Po- lynoms in Linearfaktoren (in C , alternativ in lineare und quadratische Faktoren in R ) sind λ

k

die Eigenwerte von A, und m

k

ist die algebraische Vielfachheit des Eigenwerts λ

k

.

Satz 6.7. Es sei A ∈ K

n×n

eine Matrix mit dem Eigenwert λ.

(i) Der Eigenraum Eig(A, λ) ist die L¨ osungsmenge des linearen Gleichungssystems (A − λE

n

)x = 0. Das heißt, der Eigenraum ist der Kern der Abbildung f

A−λEn

. (ii) Die Dimension des Eigenraums Eig(A, λ) ist q = Dim(Eig(A, λ) = n − Rang(A −

λE

n

). Die Zahl q heißt geometrische Vielfachheit des Eigenwerts λ.

Beweis.

48

(49)

6.2 Basiswechsel und Diagonalisierbarkeit Beispiel 6.8.

Satz 6.9. (i) Die geometrische Vielfachheit eines Eigenwert ist immer kleiner gleich seiner algebraischen Vielfachheit.

(ii) Sind λ

1

, . . . , λ

r

verschiedene Eigenwerte einer Matrix A und v

1

, . . . , v

r

zugeh¨ orige Eigenvektoren, so ist die Menge {v

1

, . . . , v

r

} linear unabh¨ angig.

Beispiel 6.10.

6.2 Basiswechsel und Diagonalisierbarkeit

Definition 6.11. Zwei Matrizen A, B ∈ K

n×n

heißen ¨ ahnlich, wenn einer regul¨ are Matrix T existiert, so dass

AT = T B, bzw. A = T BT

−1

, bzw. B = T

−1

AT.

Satz 6.12. Zueinander ¨ ahnliche Matrizen haben das gleiche charakteristische Polynom, und damit die gleichen Eigenwerte.

Beweis.

Satz 6.13. Ist A die Darstellungsmatrix einer linearen Abbildung f : K

n

→ K

n

in der

kanonischen Basis E

n

= (e

1

, e

2

, . . . , e

n

), so ist die Matrix B

−1

AB die Darstellungsmatrix

von f in der Basis B = (b

1

, b

2

, . . . , b

n

). Mit der Schreibweise B = (b

1

, b

2

, . . . , b

n

) ist

einerseits die geordnete Basis mit den Vektoren b

1

, . . . , b

n

, und andererseits die Matrix

mit den Spalten b

1

, . . . , b

n

gemeint.

(50)

6 Eigenwerte und Eigenvektoren Beispiel 6.14.

Definition 6.15. Eine Matrix A ∈ K

n×n

heißt diagonalisierbar, wenn es eine Matrix B ∈ K

n×n

gibt, so dass B

−1

AB eine Diagonalmatrix ist, d.h., wenn diese Matrix nur auf der Diagonalen Eintr¨ age ungleich Null hat (a

ij

= 0 f¨ ur i 6= j ).

Satz 6.16. (i) Eine Matrix A ist diagonalisierbar, genau dann, wenn eine Basis des K

n

aus Eigenvektoren von A existiert. Die Matrix B ist dann die Matrix, die entsteht, wenn man als Spalten die Basisvektoren nimmt (vgl. Satz 6.13).

(ii) Es existiert eine Basis aus Eigenvektoren von A, wenn die geometrische Vielfach- heit jedes Eigenwerts gleich seiner algebraischen Vielfachheit ist.

Beispiel 6.17.

Definition 6.18. Eine Matrix A ∈ C

n×n

heißt hermitesch, wenn ¯ A

>

= A (d.h. a

ij

= ¯ a

ji

f¨ ur i 6= j ) ist. Eine Matrix A ∈ R

n×n

heißt symmetrisch, wenn A

>

= A ist (d.h. reelle hermitesche Matrizen sind symmetrisch).

Satz 6.19. (i) Hermitesche Matrizen besitzen nur reelle Eigenwerte.

(ii) Aus a) folgt, dass das charakteristische Polynom einer reellen symmetrischen Ma- trix in Linearfaktoren zerlegt werden kann.

(iii) Sind λ, µ zwei verschiedene Eigenwerte einer symmetrischen Matrix, so sind die zugeh¨ origen Eigenvektoren zueinander senkrecht.

50

(51)

6.3 Definitheit von Matrizen Satz 6.20. Ist A ∈ R

n×n

symmetrisch, so existiert eine Orthonormalbasis B, so dass die Darstellungsmatrix BAB

−1

der Abbildung f

A

bez¨ uglich der Basis B eine Diagonalmatrix ist. Ist B eine Orthonormalbasis, so ist B

−1

= B

>

.

Beispiel 6.21.

Bemerkung 6.22 (Vgl. Aufgaben V 9.3, S 9.6a)). Es sei A ∈ K

n×n

eine Matrix, D = diag(d

1

, d

2

, . . . , d

n

) ∈ K

n×n

sei eine Diagonalmatrix, und B ∈ K

n×n

sei invertierbar, so dass A = BDB

−1

gilt. F¨ ur nat¨ urliche Zahlen k ∈ N ist die k-te Potenz einer Matrix definiert als A

k

= Q

k

i=1

A = A · A · · · · · A, und A

0

= E

n

. Damit kann man Matrizen in Polynome und in Potenzreihen einsetzen. Insbesondere ist exp(A) = P

k=0 1 k!

A

k

. (i) F¨ ur jedes k ∈ N gilt: A

k

= BD

k

B

−1

.

(ii) F¨ ur jedes k ∈ N gilt: D

k

= diag(d

k1

, d

k2

, . . . , d

kn

).

(iii) Es ist exp(A) = B · diag(e

d1

, e

d2

, . . . , e

dn

) · B

−1

.

6.3 Definitheit von Matrizen

Definition 6.23. Eine Matrix A ∈ K

n×n

heißt

positiv semidefinit , wenn f¨ ur alle Vektoren x ∈ K

n

gilt x

>

Ax ≥ 0, positiv definit , wenn f¨ ur alle Vektoren x ∈ K

n

, x 6= 0 gilt x

>

Ax > 0,

negativ semidefinit , wenn f¨ ur alle Vektoren x ∈ K

n

gilt x

>

Ax ≤ 0 (d.h. wenn −A positiv semidefinit ist),

negativ definit , wenn f¨ ur alle Vektoren x ∈ K

n

, x 6= 0 gilt x

>

Ax > 0 (d.h. wenn −A positiv definit ist).

Die obigen Definitionen k¨ onnen jeweils auf eine Teilmenge des K

n

eingeschr¨ ankt werden:

Eine Matrix A heißt z.B. positiv definit ¨ uber einer Menge M ⊂ R

n

, wenn die obige

Bedingung f¨ ur alle x ∈ M gilt.

Referenzen

ÄHNLICHE DOKUMENTE

Dann kann die Gauß-Elimination ohne Zeilen- vertauschung durchgef¨uhrt werden und die dadurch erhaltene Restmatrix ist wiederum symmetrisch und positiv definit... Multiplikationen

• Aussagen von S¨ atzen, die unten erw¨ ahnt werden, k¨ onnten in voller mathematischer Pr¨ azision abgefragt werden. • Beweise und Beweisideen werden

Die Vek- toren r k konvergieren gegen einen Eigenvektor zum betragsgr ¨oßten Eigenwert, sofern dieser Eigenwert dem Betrage nach einfach ist und seine algebraische Vielfachheit

[r]

ab = −1: Dann ist A singulär und das Bild folglich höchstens 2-dimensional.. sind symmetrisch und eine symmetrische Matrix ist genau dann positiv definit, wenn alle Eigenwerte

Bestimmen Sie die Parameter C und λ optimal im Sinne der kleinsten

Sind die folgenden Funktionen ebenfalls charakteristische Funktionen?. Falls ja, zu welchen

Da A als symmetrische Matrix diagonalisierbar und Definitheit eine Ähnlichkeitsinvariante ist, ist A genau dann positiv semi-definit, wenn alle Eigenwerte nicht-negativ sind... Um