• Keine Ergebnisse gefunden

Kapitel 1 Matrizen

N/A
N/A
Protected

Academic year: 2021

Aktie "Kapitel 1 Matrizen"

Copied!
83
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Kapitel 1 Matrizen

§ 1 Der Vektorbegriff

Erkl¨ are zun¨ achst, was eine reelle Zahl ist (mit Dezimalbr¨ uchen).

Eine reelle Zahl kann man sich als Punkt auf einer Geraden vorstellen. Ein Paar (x, y) von reellen Zahlen beschreibt einen Punkt in der Ebene, ein Tripel (x, y, z) einen Punkt im Raum.

Man kann aber auch z.B. den Einkaufspreis x und den Verkaufspreis y eines Han- delsgutes zu einem Paar (x, y), oder die Verkaufszahlen x, y, z dreier Filialen eines Gesch¨ aftes zu einem Tripel (x, y, z) zusammenfassen. Befreit man sich also von der Vorstellung, dass die Koordinaten x, y, z unbedingt etwas mit dem Raum zu tun haben m¨ ussen, so kann man auch problemlos n Zahlen zu einem n-Tupel

x = (x

1

, . . . , x

n

) zusammenfassen.

Um z.B. Aussagen ¨ uber die Gesamtheit aller n-Tupel machen zu k¨ onnen, braucht man ein Verfahren, mathematische Objekte zu neuen Objekten zusammenzufassen.

Begriff der Menge, die Beziehung x ∈ M (

” x ist Element von M“).

Beispiele: {1, 2, 3}, {1, 1, 2, 3, 2, 2, 3}, N , Z , Q , R . Begriff der Teilmenge:

N ⊂ M(

” N Teilmenge von M“) : ⇐⇒ ∀ x : x ∈ N = ⇒ x ∈ M.

Die benutzten logischen Symbole werden erkl¨ art.

Die Menge

A

n

:= {(x

1

, . . . , x

n

) : x

1

, . . . , x

n

∈ R }

aller n-Tupel von reellen Zahlen nennen wir den n-dimensionalen (reellen) af- finen Raum, die Elemente x ∈ A

n

nennen wir Punkte.

Sind p und q zwei Punkte im A

n

, so bezeichnen wir das Paar (p, q) als einen Pfeil. Ein solcher Pfeil ist durch seinen Anfangspunkt, seine Richtung und seine L¨ ange festgelegt. In der Physik braucht man Gr¨ oßen, die durch Richtung und L¨ ange bestimmt sind, etwa um Kr¨ afte zu beschreiben. Allerdings m¨ ussen diese Gr¨ oßen i.a. frei verschiebbar sein. Dabei soll der Anfangspunkt beliebig gew¨ ahlt werden k¨ onnen, aber L¨ ange und Richtung sollen gleich bleiben. Unter einem Vektor in A

n

verstehen wir deshalb die Klasse (Menge) aller Pfeile, die aus einem festen Pfeil durch beliebige Parallelverschiebung entstehen. Jeder einzelne Pfeil aus der Klasse legt die gesamte Klasse fest und wird deshalb auch als ein Repr¨ asentant des Vektors bezeichnet.

Wir bezeichnen hier einen Vektor mit einem Buchstaben und einem Pfeil dar¨ uber.

Ist der Pfeil (p, q) ein Repr¨ asentant des Vektors

v , so schreiben wir auch

v = pq.

−→

Ist 0 = (0, . . . , 0) der Nullpunkt in A

n

, so gibt es genau einen Repr¨ asentanten

(2)

2 Kapitel 1 Matrizen

der Form (0, x) von

v . Diesen speziellen Pfeil nennt man auch den Ortsvektor des Punktes x.

Ist p ∈ A

n

ein Punkt und

v ein Vektor mit dem Repr¨ asentanten (p, q), so schreibt man:

p +

v = q oder

v = q − p.

Das bedeutet, dass der Vektor

v den Punkt p nach q verschiebt. Zu je zwei vorge- gebenen Punkten p und q gibt es genau einen Vektor

v , der p nach q verschiebt.

Das Besondere an den Vektoren ist, dass man sie addieren kann: Sind zwei Vektoren

v und

w gegeben, so gibt es einen eindeutig bestimmten Vektor

v +

w, so dass f¨ ur jeden Punkt p gilt:

(p +

v ) + w

= p + (

v +

w).

Verwendet man geeignete Repr¨ asentanten, so sieht das folgendermaßen aus:

pq

−→

+

−→

qr =

−→

pr.

Verschiebt man den Punkt p zun¨ achst nach q und dann nach r, so kann man genauso gut gleich p nach r verschieben. Die Summe von Vektoren bildet man also, indem man repr¨ asen- tierende Pfeile aneinander h¨ angt.

p s

s q

s r

v

w

v + w

Man ¨ uberzeugt sich leicht davon, dass die folgenden Regeln gelten:

(

u +

v ) +

w =

u + (

v +

w) (verwende Pfeile),

v +

w =

w +

v (Kr¨ afteparallelogramm).

Eine Ausnahme bildet der Nullvektor

o , der zu ¨ uberhaupt keiner Verschiebung f¨ uhrt. Repr¨ asentanten sind die Paare (p, p), die schwerlich als Pfeile zu deuten sind, denn ihnen fehlt Richtung und L¨ ange. Trotzdem spricht man von einem Vektor. Es gilt:

v +

o =

v , f¨ ur alle Vektoren

v .

Außerdem gibt es zu jedem Vektor

v einen Vektor −

v , den entgegengesetzten oder negativen Vektor, so dass

v + (−

v ) =

o ist. Wenn (p, q) ein Repr¨ asentant von

v ist, dann ist (q, p) ein Repr¨ asentant von −

v .

Da ein Vektor

x immer in der Form

x = 0x

−→

mit einem geeigneten Endpunkt x geschrieben werden kann, ist er durch den Ortsvektor (0, x) und damit durch dessen Endpunkt x = (x

1

, . . . , x

n

) festgelegt. Deshalb schreibt man auch

x =

 x

1

.. . x

n

 .

(3)

Dies ist die Spaltenschreibweise f¨ ur einen Vektor. Wie man sieht, besteht in Wirk- lichkeit gar kein großer Unterschied zwischen einem Punkt x, dem Ortsvektor (0, x) und dem zugeh¨ origen Vektor

x =

−→

0x.

Sind x und y zwei Punkte im A

n

, so bezeichnen wir den Endpunkt des Orts- vektors von 0x

−→

+

−→

0y mit x + y. Dann bilden 0, x, y und x + y die Ecken eines Parallelogramms.

0 s

s x

s x + y y s

Ist x = (x

1

, . . . , x

n

) und y = (y

1

, . . . , y

n

), so folgt aus der Konstruktion:

x + y = (x

1

+ y

1

, . . . , x

n

+ y

n

).

Deshalb kann auch die Vektoraddition algebraisch beschrieben werden:

 x

1

.. . x

n

 +

 y

1

.. . y

n

 =

x

1

+ y

1

.. . x

n

+ y

n

 . Ist r eine reelle Zahl, so definiert man

r ·

 x

1

.. . x

n

 :=

 rx

1

.. . rx

n

 .

Das bedeutet, dass alle zugeh¨ origen Pfeile um den Faktor r gestreckt werden.

Auch hier gelten diverse Rechenregeln (z.B. α(

v +

w) = α

v + α

w), die aber nicht alle aufgez¨ ahlt werden.

Da man mit Paaren, Tripeln, n-Tupeln, Ortsvektoren und freien Vektoren immer auf die gleiche Weise rechnen kann, dr¨ angt sich einem der Eindruck auf, dass es bei der Vektorrechnung gar nicht auf die Pfeile oder die Vorstellung davon ankommt. Tats¨ achlich sind Vektoren einfach Objekte, die ganz bestimmten Re- chenregeln gen¨ ugen, und nur diese Regeln stellen die Verbindung zur anschaulich- physikalischen Vektor-Vorstellung her.

Das f¨ uhrt zu folgender

Definition. Unter einem reellen Vektorraum verstehen wir eine Menge V , deren

Elemente addiert und mit reellen Zahlen multipliziert werden k¨ onnen, so dass f¨ ur

x, y, z ∈ V und α, β ∈ R folgende Rechenregeln erf¨ ullt sind:

(4)

4 Kapitel 1 Matrizen

x + (y + z) = (x + y) + z, x + y = y + x,

∃ 0 ∈ V : x + 0 = x,

∀ x ∈ V ∃ − x ∈ V : x + (−x) = 0,

(α + β)x = αx + βx, α(x + y) = αx + αy,

α(βx) = (αβ)x und 1 · x = x.

Die Elemente von V bezeichnet man als Vektoren.

Wichtige Beispiele sind der Vektorraum der Spaltenvektoren und der Vektorraum

der n-Tupel.

(5)

§ 2 Matrizen und lineare Gleichungen

Matrix, rechteckiges Zahlenschema

A = (a

ij

) =

a

11

a

12

· · · a

1n

a

21

a

22

· · · a

2n

.. . .. . .. . a

m1

a

m2

· · · a

mn

a

ij

(oder auch A

ij

) Koeffizienten oder Eintr¨ age

Z

i

(A) = (a

i1

, . . . , a

in

) = i-te Zeile (Zeilenvektor)

S

j

(A) =

 a

1j

a

2j

.. . a

mj

= j-te Spalte (Spaltenvektor)

M

m,n

( R ) = Menge der m × n-Matrizen

M

n

( R ) = M

n,n

( R ) = Menge der n-reihigen quadratischen Matrizen

speziell 0 = 0

mn

=

0 · · · 0 .. . .. . 0 · · · 0

 Nullmatrix,

E

n

=

1 · · · 0 .. . . .. ...

0 · · · 1

 Einheitsmatrix.

Addition von Matrizen:

a

11

· · · a

1n

.. . .. . a

m1

· · · a

mn

 +

b

11

· · · b

1n

.. . .. . b

m1

· · · b

mn

 :=

a

11

+ b

11

· · · a

1n

+ b

1n

.. . .. .

a

m1

+ b

m1

· · · a

mn

+ b

mn

Multiplikation einer Matrix mit einer reellen Zahl:

α ·

a

11

· · · a

1n

.. . .. . a

m1

· · · a

mn

 :=

α · a

11

· · · α · a

1n

.. . .. . α · a

m1

· · · α · a

mn

 . Dann sind folgende Rechenregeln erf¨ ullt:

A + B = B + A, (A + B) + C = A + (B + C) und A + 0 = 0 + A = A,

sowie

(6)

6 Kapitel 1 Matrizen

1 · A = A, α(βA) = (αβ)A, α(A + B) = αA + βB und (α + β)A = αA + βA.

Setzt man −A := (−1)A, so gilt außerdem: A + (−A) = 0.

Damit bilden die Elemente von M

m,n

( R ) einen reellen Vektorraum.

Linearkombination von A

1

, . . . , A

k

ist P

k

i=1

α

i

A

i

= α

1

A

1

+ · · · + α

k

A

k

i

∈ R ) B linear abh¨ angig von A

1

, . . . , A

k

: ⇐⇒

B = α

1

A

1

+ · · · + α

k

A

k

(mit geeigneten α

i

).

Ein System S = {A

1

, . . . , A

m

} heißt linear abh¨ angig, falls eine der Matrizen A

i

von den anderen linear abh¨ angt. Auch {0} wird linear abh¨ angig genannt. Ein System heißt linear unabh¨ angig, falls es nicht linear abh¨ angig ist.

2.1 Satz. Das System S = {A

1

, . . . , A

k

} habe folgende Eigenschaft:

Zu jedem r gibt es eine Position (i, j), so dass (A

r

)

ij

6= 0 und (A

l

)

ij

= 0 f¨ ur l 6= r ist.

Dann ist S linear unabh¨ angig.

Beweis: Annahme, es sei z.B. A

k

Linearkombination von A

1

, . . . , A

k−1

. W¨ ahle dann Position (i, j) zu k gem¨ aß der Voraussetzung und stelle fest, dass das einen Widerspruch ergibt.

Beispiel: E

ij

habe den Eintrag 1 an der Position (i, j) und sonst ¨ uberall den Eintrag 0. Dann ist das System der E

ij

mit i = 1, . . . , m und j = 1, . . . , n linear unabh¨ angig (in M

m,n

( R )).

Der Spann hA

1

, . . . , A

k

i ist die Menge aller Linearkombinationen von A

1

, . . . , A

k

. Eine Teilmenge U eines Vektorraumes V heißt Unterraum von V , falls gilt:

1. 0 ∈ U.

2. X, Y ∈ U = ⇒ X + Y ∈ U . 3. α ∈ R , X ∈ U = ⇒ αX ∈ U .

Es ist hA

1

, . . . , A

k

i ein Unterraum von M

m,n

( R ). Jeder Unterraum ist ein Vektor- raum.

Lineares Gleichungssystem:

a

11

x

1

+ · · · + a

1n

x

n

= b

1

.. . a

m1

x

1

+ · · · + a

mn

x

n

= b

m

Eine L¨ osung des LGS ist ein Spaltenvektor x =

 x

1

.. . x

n

 , dessen Komponenten

x

i

simultan alle Gleichungen erf¨ ullen. Ist A = (a

ij

) ∈ M

m,n

( R ) die Matrix der

(7)

Koeffizienten des LGS und b ∈ M

m,1

( R ) der Spaltenvektor, dessen Eintr¨ age b

i

die rechten Seiten der Gleichungen bilden, so hat das LGS die Gestalt

x

1

· S

1

(A) + · · · + x

n

· S

n

(A) = b.

F¨ uhre nun Matrizenprodukt A · B ein, f¨ ur A ∈ M

m,n

( R ), B ∈ M

n,r

( R ):

(A · B)

ij

= A

i1

B

1j

+ · · · + A

in

B

nj

. Dann ist

Z

1

(A) .. . Z

m

(A)

 · (S

1

(B), . . . , S

n

(B)) =

Z

1

(A) · S

1

(B) · · · Z

1

(A) · S

n

(B)

.. . .. .

Z

m

(A) · S

1

(B ) · · · Z

m

(A) · S

n

(B)

 ,

wobei (a

i1

, . . . , a

in

) ·

 b

1j

.. . b

nj

 = a

i1

b

1j

+ · · · + a

in

b

nj

ist.

F¨ ur die Matrizenmultiplikation gelten folgende Regeln:

A(BC) = (AB)C, A(B + C) = AB + AC, (A + B)C = AC + BC, i.A. ist aber AB 6= BA, z.B. ist

1 2

0 3

·

1 1

1 0

6=

1 1

1 0

·

1 2

0 3

. Insbesondere ist A · e

j

= S

j

(A) f¨ ur alle j und

A · x = A · (x

1

e

1

+ · · · + x

n

e

n

) = x

1

· S

1

(A) + · · · + x

n

· S

n

(A).

Daraus folgt: Ist A

1

· x = A

2

· x f¨ ur alle Vektoren x, so ist A

1

= A

2

. Das LGS bekommt nun die Gestalt

A · x = b.

Man nennt A · x = 0 ein homogenes System, jedes andere ein inhomogenes System.

Ziel: Bestimme L¨ osungsmenge L¨ os(A, b) = {x : A · x = b}.

2.2 Satz. L¨ os(A, 0) ist ein Unterraum von M

n,1

( R ) = R

n

. Beweis: Nachrechnen!

Speziell nennt man 0 die

” triviale“ L¨ osung. Eventuell ist das die einzige L¨ osung.

Die L¨ osungsmenge eines inhomogenen Systems kann leer sein (f¨ uhre hier die leere

Menge ∅ ein). Ist sie es nicht, so gilt:

(8)

8 Kapitel 1 Matrizen

2.3 Satz. Ist x

0

eine spezielle L¨ osung des LGS A · x = b, so ist L¨ os(A, b) = {x ∈ R

n

: x = x

0

+ y mit y ∈ L¨ os(A, 0)}.

Beweis: Es ist A · x

0

= b. Ist auch noch A · x = b, so ist A · (x − x

0

) = b − b = 0, also x = x

0

+ y mit y = x − x

0

∈ L¨ os(A, 0).

Umgekehrt: Ist x = x

0

+ y mit einem y ∈ L¨ os(A, 0), so ist 0 = A · y = A · (x − x

0

) = A · x − A · x

0

= A · x − b, also A · x = b.

2.4 Folgerung. A · x = b ist genau dann eindeutig l¨ osbar, wenn A · x = 0 nur die triviale L¨ osung besitzt. ( ¨ Uber die Existenz wird nichts ausgesagt).

Beweis: Ist L¨ os(A, b) = ∅ , so ist nichts zu zeigen. Andernfalls folgt die Behaup-

tung aus dem obigen Satz.

(9)

§ 3 Das Gaußverfahren

Beginne mit Beispiel:

x − 2y = 1, 3x + 2y = 11.

Eliminiere x aus der 2. Gleichung (Subtrahiere das 3-fache der 1. Gleichung von der 2. Gleichung) und bringe System auf Dreiecksgestalt:

x − 2y = 1, 8y = 8.

Berechne dann y = 1 aus der 2. Gleichung und gewinne x durch

” R¨ uckw¨ artseinset- zen“: x − 2 = 1, also x = 3.

Entwickle nun Gaußverfahren zur L¨ osung von A · x = b. Erlaube spezielle Umfor- mungen, die ein Gleichungssystem in ein

” ¨ aquivalentes“ System (d.h. ein System mit gleicher L¨ osungsmenge) ¨ uberf¨ uhren:

A) Vertauschung zweier Gleichungen.

B) Addition eines Vielfachen einer Gleichung zu einer anderen Gleichung.

C) Multiplikation einer Gleichung mit einer Konstanten λ 6= 0.

D) Umbenennung der Variablen.

(A) l¨ asst sich durch eine geschickte Kombination von Umformungen vom Typ (B) erreichen. Der Einfachheit halber l¨ asst man aber (A) als eigenst¨ andige Umformung zu.

Auf den Typ (C) verzichten wir erst mal. Auf Typ (D) k¨ onnte man auch verzich- ten, aber dann l¨ asst sich das Verfahren nur m¨ uhsam aufschreiben. Wir lassen eine Umbenennung der Variablen zu, allerdings m¨ ussen wir dar¨ uber Buch f¨ uhren.

Jede Information ¨ uber das Gleichungssystem ist in der erweiterten Koeffizienten- matrix enthalten:

A

e

=

a

11

· · · a

1n

b

1

.. . .. . .. . a

m1

· · · a

mn

b

m

 . (A) entspricht der Vertauschung zweier Zeilen von A

e

.

(B) entspricht der Addition eines Vielfachen der i-ten Zeile zur k-ten Zeile.

(C) entspricht der Multiplikation einer Zeile mit λ 6= 0.

(D) entspricht der Vertauschung zweier Spalten von A (aber nicht von A

e

). Das hat Einfluss auf den L¨ osungsraum.

Ziel ist es, f¨ ur A folgende Dreiecksform zu erreichen:

(10)

10 Kapitel 1 Matrizen

A →

D

r

B

0 0

, mit D

r

=

a

11

· · · a

1r

.. . . .. .. . 0 · · · a

rr

 und a

ii

6= 0 f¨ ur i = 1, . . . , r.

Das geht folgendermaßen: A ∈ M

m,n

( R ) soll r-speziell genannt werden, falls gilt:

A =

D

r

B

0 C

, mit D

r

=

a

11

· · · a

1r

.. . . .. .. . 0 · · · a

rr

 und a

ii

6= 0 f¨ ur i = 1, . . . , r.

Ist r = 0, so ist A = C. Jede Matrix ist also zumindest 0-speziell. Ist r = m ≤ n, so ist A = (D

r

|B). Ist r = n ≤ m, so ist A =

D

r

0

. Nun wird folgender Reduktionsschritt ausgef¨ uhrt:

Sei A

k

=

D

k

B

k

0 C

k

eine k-spezielle Umformung von A. Ist C

k

= 0, so hat man die gew¨ unschte Dreiecksform erreicht und ist fertig. Ist C

k

6= 0, so gibt es einen Eintrag a

ij

6= 0 in C

k

(ein sogenanntes Pivot-Element). Durch eine Reihe von Zeilen- und Spaltenvertauschungen verschiebt man a

ij

an die Position (k + 1, k + 1).

Anschließend subtrahiert man geeignete Vielfache der (k + 1)-ten Zeile von den folgenden Zeilen und erzeugt so Nullen unterhalb der Position (k + 1, k + 1). Das Ergebnis ist eine (k + 1)-spezielle Matrix.

Nach endlich vielen Schritten erh¨ alt man eine Matrix A

r

in der gew¨ unschten Drei- ecksgestalt, sp¨ atestens, wenn r = m oder r = n erreicht wird. Die Umformungen vom Typ (A) und (B) m¨ ussen an der erweiterten Matrix A

e

vorgenommen werden.

So erh¨ alt man ein Gleichungssystem

a

11

x

1

+ · · · + a

1r

x

r

+ a

1,r+1

x

r+1

+ · · · + a

1,n

x

n

= b

1

. .. .. .

a

rr

x

r

+ a

r,r+1

x

r+1

+ · · · + a

r,n

x

n

= b

r

Hinzu kommen noch Gleichungen der Gestalt 0 = b

i

, f¨ ur i = r + 1, . . . , m. Das urspr¨ ungliche Gleichungssystem ist genau dann l¨ osbar, wenn diese zus¨ atzlichen Gleichungen alle erf¨ ullt sind. Man beachte aber, dass die a

ij

und die b

i

nicht mehr die aus dem urspr¨ unglichen System sind. Deshalb kann man L¨ osbarkeit erst testen, wenn man die L¨ osung schon fast vorliegen hat.

Endg¨ ultig gewinnt man die L¨ osung durch R¨ uckw¨ artseinsetzen:

x

r

= 1 a

rr

b

r

− a

r,r+1

x

r+1

− . . . − a

r,n

x

n

x

r−1

= 1

a

r−1,r−1

b

r−1

− a

r−1,r+1

x

r+1

− . . . − a

r−1,n

x

n

− a

r−1,r

x

r

etc.

(11)

a) Eine spezielle L¨ osung des inhomogenen Systems:

Setzt man x

r+1

= . . . = x

n

= 0 und berechnet dann x

1

, . . . , x

r

durch R¨ uckw¨ artseinsetzen, so erh¨ alt man eine spezielle L¨ osung.

b) Die allgemeine L¨ osung des zugeh¨ origen homogenen Systems A · x = 0:

Fasst man x

r+1

, . . . , x

n

als freie Parameter auf und berechnet x

1

, . . . , x

r

in Abh¨ angigkeit dieser Parameter durch R¨ uckw¨ artseinsetzen, so erh¨ alt man alle L¨ osungen des homogenen Systems.

Es gibt Varianten des Gaußverfahrens:

1. Wenn man keine Spaltenvertauschungen zulassen will, erreicht man nur die Zeilen-Stufen-Form:

∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗

∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗

∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗

∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ . ..

0 ∗ ∗ ∗ ∗

Das Verfahren ist geringf¨ ugig einfacher, weil nur Zeilenoperationen vorkom- men, aber daf¨ ur ist es un¨ ubersichtlicher und m¨ uhsamer auzuschreiben.

2. Erlaubt man neben Zeilenoperationen und Spaltenvertauschungen auch noch die Multiplikation einer Zeile mit einem Faktor λ 6= 0, so kann man das Gaußverfahren u.U. etwas abk¨ urzen. Außerdem kann man erreichen, dass die Elemente a

ii

alle = 1 werden. Das erleichtert das R¨ uckw¨ arts-Einsetzen.

3. Die reduzierte Zeilen-Stufen-Form erreicht man, indem man wie in (1) zun¨ achst die Zeilen-Stufen-Form herstellt und dann mittels (2) daf¨ ur sorgt, dass die Pivot-Elemente (die vordersten Elemente der Stufen) alle = 1 werden und oberhalb eines Pivot-Elementes nur Nullen stehen:

1 ∗ ∗ 0 0 ∗ 0 ∗ ∗ ∗ 0 ∗ ∗ ∗ 1 0 ∗ 0 ∗ ∗ ∗ 0 ∗ ∗ ∗ 1 ∗ 0 ∗ ∗ ∗ 0 ∗ ∗ ∗ 1 ∗ ∗ ∗ 0 ∗ ∗ ∗

. ..

0 1 ∗ ∗ ∗

4. Die allgemeine L¨ osung des inhomogenen Systems kann man auch direkt ge-

winnen, wie beim homogenen System. Allerdings werden wir es bei vielen

Anwendungen nur mit homogenen Systemen zu tun haben.

(12)

12 Kapitel 1 Matrizen

Beispiel.

Betrachte das Gleichungssystem mit der erweiterten Matrix

A

e

=

1 3 5 2 0 1

3 9 10 1 2 0 0 2 7 3 −1 2 2 8 12 2 1 1

 .

Das Gaußverfahren liefert die Matrix

1 3 5 2 0 1

0 2 2 −2 1 −1

0 0 −5 −5 2 −3

0 0 0 0 0 0

 .

Mit x

4

= x

5

= 0 erh¨ alt man: x

3

= 3/5, x

2

= −11/10, x

1

= 13/10.

Zur L¨ osung des homogenen Systems (rechte Seite = Null): W¨ ahle x

4

= s und x

5

= t als freie Parameter. Dann ist

x

3

= −s + 2

5 t, x

2

= 2s − 9

10 t und x

1

= −3s + 7

10 t.

(13)

§ 4 Invertierbare Matrizen

Wir betrachten einige spezielle Matrizen:

E

n

=

1 0

. ..

0 1

 ist die (n-reihige) Einheitsmatrix. F¨ ur A ∈ M

n

( R ) ist stets E

n

· A = A · E

n

= A.

E

ij

sei die Matrix, die an der Position (i, j) eine Eins und sonst lauter Nullen hat.

Offensichtlich ist E

n

= E

11

+ · · · + E

nn

. Die Matrix E

ij

· A weist in der i-ten Zeile die gleichen Elemente wie die in der j-te Zeile von A auf, und sonst lauter Nullen.

Die Matrix A · E

ij

weist in der j-ten Spalte die gleichen Elemente wie die in der i-ten Spalte von A auf, und sonst lauter Nullen.

Nun sei E

ij

(λ) := E

n

+ λE

ji

. Dann ist E

ij

(λ) · A = A + λ(E

ji

· A) diejenige Matrix, die man aus A erh¨ alt, indem man das λ-Fache der i-ten Zeile zur j-ten Zeile addiert.

Offensichtlich ist E

ij

(−λ) · E

ij

(λ) = E

n

und E

ij

(λ) · E

ij

(−λ) = E

n

.

Definition: Eine Matrix A ∈ M

n

( R ) heißt invertierbar, falls es eine Matrix A

0

mit AA

0

= A

0

A = E

n

gibt. Die Matrix A

0

nennt man die inverse Matrix zu A und bezeichnet sie mit A

−1

.

Es gilt:

1. Die inverse Matrix ist (wenn sie existiert) eindeutig bestimmt.

Sind n¨ amlich A

01

, A

02

zwei potentielle Inverse, so ist A

02

= A

02

E

n

= A

02

(AA

01

) = (A

02

A)A

01

= E

n

A

01

= A

01

.

2. A, B invertierbar = ⇒ AB invertierbar und (AB)

−1

= B

−1

A

−1

. Beispiele.

1. Die

” Eliminationsmatrix“ E

ij

(λ) ist invertierbar.

2. Die Einheitsmatrix ist invertierbar.

3. Sei P

ij

:= E

n

− E

ii

− E

jj

+ E

ij

+ E

ji

. Dann ist A · P

ij

die Matrix, die man aus A erh¨ alt, wenn man die i-te und die j -te Spalte vertauscht. Offensichtlich ist P

ij

· P

ij

= E

n

. Man nennt P

ij

eine

” Permutationsmatrix“.

Das Gaußverfahren bedeutet, dass man eine Matrix A von links mit einer Folge von Eliminationsmatrizen und von rechts mit einer Folge von Permu- tationsmatrizen multipliziert.

4. Sei A =

a b

c d

. Damit A invertierbar ist, muss es Elemente u, v, x, y geben, so dass

a b

c d

·

u v

x y

=

1 0

0 1

ist. Das ergibt folgendes

Gleichungssystem:

(14)

14 Kapitel 1 Matrizen

au + bx = 1, av + by = 0, cu + dx = 0, cv + dy = 1.

Subtrahiert man das d-fache der1. Gleichung vom b-Fachen der 3. Gleichung, so erh¨ alt man (ad − bc)u = d. Analog erh¨ alt man auch (ad − bc)v = −b.

1. Fall: ad − bc = 0 = ⇒ b = d = 0; dann au = 1, av = 0 (also u 6= 0, a 6= 0 und v = 0), sowie cu = 0, cv = 1 (also c 6= 0, v 6= 0 und u = 0). Das ist ein Widerspruch. Es muss somit gelten:

2. Fall: ad − bc 6= 0. Dann ist u = d/(ad − bc) und v = −b/(ad − bc). Einsetzen liefert: x = −c/(ad − bc) und y = a/(ad − bc). Die Zahl ad − bc nennt man die Determinante von A. Wir haben gezeigt:

A invertierbar ⇐⇒ det(A) 6= 0.

Wir werden sp¨ ater versuchen, einer beliebigen quadratischen Matrix A eine Determinante zuzuordnen, die dar¨ uber entscheidet, ob A invertierbar ist.

4.1 Satz. Sei A invertierbar. Dann besitzt das Gleichungssystem A · x = 0 nur die triviale L¨ osung x = 0, und jedes Gleichungssystem A · x = b ist eindeutig l¨ osbar (durch x = A

−1

b).

Beweis: Ist A · x = 0, so ist x = (A

−1

A) · x = A

−1

(Ax) = A

−1

· 0 = 0.

4.2 Satz. Mit ∆ = ∆(d

1

, . . . , d

n

) sei die Diagonalmatrix mit den Elementen d

1

, . . . , d

n

bezeichnet. ∆ ist genau dann invertierbar, wenn alle d

i

6= 0 sind.

Beweis: 1) Ist ∆ invertierbar, so gibt es zu jedem j ein x mit ∆ · x = e

j

. Dann ist d

j

· x

j

= 1, also d

j

6= 0.

2) Sind alle d

j

6= 0, so ist ∆(d

1

, . . . , d

n

) · ∆(d

−11

, . . . , d

−1n

) = E

n

.

4.3 Satz. Ist A ∈ M

n

( R ) invertierbar, so sind die Spalten S

1

(A), . . . , S

n

(A) linear unabh¨ angig.

Beweis: Es ist Ae

j

= S

j

(A). W¨ are z.B. Ae

1

Linearkombination der Spal- ten Ae

2

, . . . , Ae

n

, so multipliziere mit A

−1

. Dann ist e

1

Linearkombination von e

2

, . . . , e

n

. WS!

4.4 Satz. a) Ist A invertierbar und entsteht A

0

aus A durch elementare Zeile- numformungen, so ist auch A

0

invertierbar.

b) Ist A invertierbar, so kann A durch elementare Zeilenumformungen in die Ein- heitsmatrix E = E

n

¨ uberf¨ uhrt werden.

Beweis: a) Es gibt eine invertierbare Matrix Q (zusammengesetzt aus Elimina-

tionsmatrizen), so dass QA = A

0

ist. Dann ist nat¨ urlich auch A

0

invertierbar.

(15)

b) Da S

1

(A) 6= 0 ist, kann man die erste Spalte in e

1

¨ uberf¨ uhren. Das Ergebnis ist wieder invertierbar. Hat man nach endlich vielen Schritten erreicht, dass die ersten k Spalten gerade die ersten k Einheitsvektoren sind, so muss sich in der (k + 1)- ten Spalte (wegen der linearen Unabh¨ angigkeit) ein Element a

i,k+1

6= 0 mit i > k finden (denn sonst w¨ are S

k+1

(A) Linearkombination von S

1

(A), . . . , S

k

(A)). Aber dann kann man erreichen, dass S

k+1

(A) = e

k+1

ist.

4.5 Satz. Sei AB = C. Entstehen A

0

aus A und C

0

aus C durch die gleichen elementaren Zeilenumformungen, so ist auch A

0

B = C

0

.

Beweis: Es gibt eine invertierbare Matrix Q mit QA = A

0

und QC = C

0

. Dann ist A

0

B = (QA)B = Q(AB) = QC = C

0

.

4.6 Folgerung. Ist A invertierbar und entstehen E aus A und E

0

aus E durch die gleichen elementaren Zeilenumformungen, so ist E

0

= A

−1

.

Beweis: Es ist AA

−1

= E, also A

−1

= EA

−1

= E

0

.

Die letzte Folgerung liefert ein Verfahren, die inverse Matrix zu berechnen.

Sei A ∈ M

n

( R ) invertierbar. Wir bilden die erweiterte Matrix (A|E

n

) und formen diese mit elementaren Zeilenoperationen solange um, bis auf der linken Seite die Einheitsmatrix steht. Man braucht dabei keine Spaltenvertauschungen. Entsteht so aus (A|E

n

) die Matrix (E

n

|E

0

), so ist E

0

= A

−1

.

Hier kommt ein Zahlenbeispiel:

(A, E) =

2 −1 0 1 0 0

−1 2 −1 0 1 0

0 −1 2 0 0 1

 →

1 0 0 3/4 1/2 1/4 0 1 0 1/2 1 1/2 0 0 1 1/4 1/2 3/4

 = (E, A

−1

).

Bemerkung. Ist D ∈ M

n

( R ) eine obere Dreiecksmatrix, deren Diagonalelemen- te alle 6= 0 sind, so ist D invertierbar. Das folgt daraus, dass D mit elementaren Zeilenumformungen in die Einheitsmatrix ¨ uberf¨ uhrt werden kann. Es gibt also eine invertierbare Matrix Q, so dass QD = E ist. Dann ist D = Q

−1

invertierbar.

Jetzt kann man die Ergebnisse auf LGS anwenden. Startet man mit einem LGS Ax = b, so liefert das Gaussverfahren ein Gleichungssystem der Gestalt

D B

0 0

· x

0

x

00

= b

0

b

00

, mit invertierbarer Dreiecksmatrix B.

Das f¨ uhrt zu D · x

0

+ B · x

00

= b

0

und 0 = b

00

. Die zweite Gleichung entscheidet ¨ uber die L¨ osbarkeit des LGS. Ist sie erf¨ ullt, so ist x

0

= D

−1

(b

0

− B · x

00

).

Uns interessiert besonders das homogene System.

4.7 Satz. Ist D ∈ M

r

( R ) und

(a

1

, . . . , a

n−r

) =

−D

−1

B E

n−r

,

(16)

4 Invertierbare Matrizen 17

so l¨ asst sich jede L¨ osung des homogenen LGS

D B

0 0

· x = 0 eindeutig als Linearkombination von a

1

, . . . , a

n−r

schreiben, und umgekehrt ist jede solche Line- arkombination eine L¨ osung.

Beweis: 1) Ist x L¨ osung, so ist x = x

0

x

00

mit x

0

= −D

−1

B · x

00

, also

x =

−D

−1

B E

n−r

· x

00

= x

r+1

a

1

+ · · · + x

n

a

n−r

.

2) Sei t =

 t

r+1

.. . t

n

 und

x = t

r+1

a

1

+ · · · + t

n

a

n−r

= (a

1

, . . . , a

n−r

) · t =

−D

−1

B E

n−r

· t , also

D B

0 0

· x =

D B

0 0

·

−D

−1

B E

n−r

· t =

−B + B 0

· t = 0

0

. Das bedeutet, dass x L¨ osung ist.

3) Zur Eindeutigkeit: Ist x = t

r+1

a

1

+ · · · + t

n

a

n−r

= s

r+1

a

1

+ · · · + s

n

a

n−r

, so ist −D

−1

Bt

t

=

−D

−1

B E

n−r

· t =

−D

−1

B E

n−r

· s =

−D

−1

Bs s

, also s = t.

Zum Schluss noch einige Bemerkungen ¨ uber das Transponieren von Matrizen.

Ist A ∈ M

m,n

( R ), so ist die transponierte Matrix die Matrix A

t

, die durch (A

t

)

ij

= A

ji

definiert wird. Dann gilt:

(A

t

)

t

= A,

(A + B)

t

= A

t

+ B

t

, (αA)

t

= α · A

t

, (AB)

t

= B

t

A

t

.

Ist A ∈ M

n

( R ) invertierbar, so ist auch A

t

invertierbar und (A

t

)

−1

= (A

−1

)

t

.

Ist x ein Spaltenvektor, so ist x

t

der entsprechende Zeilenvektor (und umgekehrt).

(17)

Kapitel 2 Vektorr¨ aume

§ 1 Strukturen

Erg¨ anzungen zur Mengenlehre:

• kartesisches Produkt von Mengen: A × B = {(x, y) : x ∈ A und y ∈ B}.

Dies sind i.a. Paare von irgendwelchen Objekten.

• Begriff der Abbildung: A, B seien Mengen. Eine Abbildung von A nach B ist eine Zuordnung f : A → B, die jedem x ∈ A genau ein y ∈ B zuordnet (man beachte den Unterschied zwischen

” ein“ und

” genau ein“). Die Menge A nennt man den Definitionsbereich der Abbildung, B den Wertebereich.

Schreibweisen: y = f (x), f : x 7→ y.

Beispiele:

1. Student 7→ Assistent (aber nicht umgekehrt).

2. f : M

m,n

( R ) → M

1,n

( R ), definiert durch A 7→ Z

m

(A).

3. f : R → R , definiert durch f (x) := x

3

.

4. f : A

n

× A

n

→ A

n

, definiert durch (x, y) 7→ x + y.

Definition. Gruppe = Menge G mit Verkn¨ upfung G × G → G, (a, b) 7→ ab, mit 1. a(bc) = (ab)c (Assoziativgesetz),

2. ∃ e ∈ G mit ea = ae = a f¨ ur alle a ∈ G (neutrales Element), 3. ∀ a ∈ G ∃ a

0

∈ G mit aa

0

= a

0

a = e (inverses Element).

Die Gruppe heißt kommutativ oder abelsch, falls ab = ba f¨ ur alle a, b ∈ G.

Bemerkung. Die Verkn¨ upfung wird bei allgemeinen Aussagen ¨ uber Gruppen multiplikativ geschrieben. In speziellen F¨ allen benutzt man aber auch + oder andere Symbole.

Beispiele.

1. ( Z , +), ( Q , +), ( R , +).

2. ( Q

, ·), ( R

, ·) (der Stern bedeutet: die Null wird weggelassen).

3. GL

n

( R ) = {A ∈ M

n

( R ) : A invertierbar }, mit der Matrizenmultiplikation.

1.1 Satz. Es reicht, in (2) und (3) nur ea = a und a

0

a = e zu fordern.

Beweis: Sei a gegeben, a

0

a = e und a

00

a

0

= e. Dann folgt aa

0

= (ea)a

0

=

((a

00

a

0

)a)a

0

= . . . = e, sowie ae = a(a

0

a) = . . . = a.

(18)

1 Strukturen 19

Eine Untergruppe ist eine Teilmenge H ⊂ G mit

1 ∈ H, (a, b ∈ H = ⇒ ab ∈ H), (a ∈ H = ⇒ a

−1

∈ H.

Jede Untergruppe ist eine Gruppe. Beispiel: Z ⊂ Q .

Definition. Ring = Menge R mit zwei Verkn¨ upfungen R ×R → R, (a, b) 7→ a+b und (a, b) 7→ a · b, mit

1. (R, +) ist abelsche Gruppe, 2. (a · b) · c = A · (b · c),

3. a · (b + c) = a · b + a · c und (a + b) · c = a · c + b · c (Distributivgesetze).

R heißt kommutativ, falls zus¨ atzlich a · b = b · a gilt. R heißt Ring mit Eins, falls

∃ 1 ∈ R mit 1 · a = a · 1 = a.

Beispiele.

1. Z , Q und R sind kommutative Ringe mit 1.

2. M

n

( R ) ist ein (nicht kommutativer) Ring mit Eins E

n

. Ein Unterring von R ist eine Teilmenge S ⊂ R mit

1 ∈ S, (a, b ∈ S = ⇒ a − b, ab ∈ R).

Jeder Unterring ist ein Ring.

Definition. Ein K¨ orper K ist ein kommutativer Ring mit Eins, in dem gilt:

1. 1 6= 0.

2. ∀ a ∈ K

= K \ {0} ∃ a

0

∈ K mit aa

0

= 1.

Beispiele.

1. Z und M

n

( R ) sind keine K¨ orper!

2. Q und R sind K¨ orper.

3. Q ( √

2) := {a + b √

2 : a, b ∈ Q } ist ein kommutativer Ring mit Eins (leicht nachzurechnen). Es ist auch 1 6= 0. Multiplikatives Inverses:

1 a + b √

2 = a − b √ 2

a

2

− 2b

2

∈ Q ( √ 2).

Annahme, √

3 = a + b √

2. Dann √

2 = (3 − a

2

− 2b

2

)/(2ab) rational, WS.

(19)

Zwei umfangreichere Beispiele:

C := {Z =

x −y

y x

: x, y ∈ R }

= {xE + yI : x, y ∈ R }, mit I =

0 −1

1 0

.

Man rechnet leicht nach, dass C ein Unterraum und ein Unterring von M

2

( R ) ist.

Außerdem ist I

2

= −E.

F¨ ur Z = aE + bI setze Z := aE − bI und |Z| := √

a

2

+ b

2

. Dann ist

ZZ = (aE + bI)(aE − bI ) = a

2

E − abI + baI + b

2

E = |Z|

2

· E, also Z

−1

= 1

|Z|

2

Z.

Damit ist C ein K¨ orper, der K¨ orper der komplexen Zahlen. Man schreibt 1 statt E und i statt I, dann ist C = {a + b i : a, b ∈ R }. Man kann R als Teilmenge von C auffassen, wenn man a mit aE

” identifiziert“.

F¨ ur m ∈ N , m ≥ 2, sei Z

m

:= {0, 1, 2, . . . , m − 1}. Zwei Zahlen a, b ∈ Z heißen kongruent modulo m, falls m ein Teiler von a − b ist.

Beispiel: 7 ≡ 19 mod 3 (denn 7−19 = −12) und −12 ≡ 3 mod 5 (denn −12−3 =

−15).

Zu jeder ganzen Zahl n gibt es genau ein r ∈ Z

m

, so dass n = qm + r ist (mit q ∈ Z ), also n ≡ r mod m. Schreibe dann [n] f¨ ur die Zahl r und setze

x ⊕ y := [x + y]

und x ⊗ y := [x · y].

Weil x ⊕ (m − x) = [x + (m − x)] = [m] = 0 ist, gibt es zu jedem x ∈ Z

m

ein Negatives. Man rechnet nun leicht nach, dass Z

m

ein kommutativer Ring mit Eins und 1 6= 0 ist.

In Z

m

ist 1 + 1 + · · · + 1

| {z }

m-mal

= 0. Nun sei m eine Primzahl und a ∈ Z

m

, a 6= 0.

Betrachte die Menge P := {a ⊗ b : b ∈ Z

m

} ⊂ Z

m

. W¨ are a ⊗ b

1

= a ⊗ b

2

f¨ ur ein b

1

≥ b

2

, so w¨ are b := b

1

− b

2

∈ Z

m

und a ⊗ b = 0, also ab durch m teilbar.

Weil m Primzahl ist, muss m dann a oder b teilen. Das geht nur, wenn b = 0 ist.

Also besteht P aus m verschiedenen Elementen und es gibt ein a

0

∈ Z

m

, so dass a ⊗ a

0

= 1 ist. Also ist Z

m

ein K¨ orper.

Im Falle m = 2 erh¨ alt man einen K¨ orper mit 2 Elementen.

+ 0 1 0 0 1 1 1 0

· 0 1

0 0 0

1 0 1

(20)

1 Strukturen 21

Definition. Sei K ein K¨ orper. Ein K-Vektorraum ist eine Menge V mit Ver- kn¨ upfungen V × V → V , (x, y) 7→ x + y, und K × V → V , (α, x) 7→ αx, so dass gilt:

1. (V, +) ist eine abelsche Gruppe,

2. f¨ ur α, β ∈ K, x, y ∈ V , gelten die Regeln (a) (αβ )x = α(βx),

(b) 1x = x,

(c) α(x + y) = αx + αy, (d) (α + β)x = αx + βx.

Beispiele.

1. Der Raum M

m,n

(K) der m × n-Matrizen mit Koeffizienten in K.

2. Der Spaltenraum K

m

:= M

m,1

(K) und der Zeilenraum M

1,n

(K).

3. Der Raum der Abbildungen f : M → K, mit (f + g)(x) := f (x) + g(x) und (αf )(x) := α · f(x).

4. Ist V ein K-Vektorraum, so heißt U ⊂ V Unterraum, falls

0 ∈ U, (x, y ∈ U = ⇒ x + y ∈ U ), (α ∈ K, x ∈ U = ⇒ αx ∈ U ).

U ist dann selbst ein Vektorraum.

Beispiele von Unterr¨ aumen:

• {0},

• Geraden durch den Nullpunkt,

• Der Durchschnitt U

1

∩ U

2

zweier Unterr¨ aume U

1

, U

2

⊂ V .

(21)

§ 2 Basis und Dimension

Sei V ein K-Vektorraum. Wie bei reellen Vektorr¨ aumen definiert man:

Linearkombination:

k

X

i=1

α

i

x

i

= α

1

x

1

+ · · · + α

k

x

k

, α

i

∈ K, x

i

∈ V . Lineare Abh¨ angigkeit und Unabh¨ angigkeit von Vektoren.

2.1 Satz. Aquivalente Aussagen: ¨ 1. a

1

, . . . , a

k

linear unabh¨ angig.

2. Ist P

k

i=1

α

i

a

i

= 0, so ist α

1

= . . . = α

k

= 0.

3. ∀ a: Ist a = P

k

i=1

α

i

a

i

, so sind die α

i

eindeutig bestimmt.

Beweis: 1) = ⇒ 2): Sei P

k

i=1

α

i

a

i

= 0, etwa α

1

6= 0. Dann a

1

Linearkombination von a

2

, . . . , a

k

, WS!

2) = ⇒ 3): Ist a = P

i

α

i

a

i

= P

i

β

i

a

i

, so ist P

i

i

− β

i

)a

i

= 0, also α

i

= β

i

f¨ ur alle i.

3) = ⇒ 1): Annahme, a

1

= P

k

i=2

α

i

a

i

. Dann 0 = 1 · a

1

+ P

k

i=2

(−α

i

)a

i

. Wegen der Eindeutigkeit muss dann 1 = 0 sein, WS!

Erg¨ anzungen zur Mengenlehre:

• Indexmengen,

• Familien von Mengen, speziell von Unterr¨ aumen,

• beliebige Durchschnitte und Vereinigungen.

Es gilt der Satz: Der Durchschnitt einer beliebigen Familie von Unterr¨ aumen ist wieder ein Unterraum.

Der Durchschnitt D aller Unterr¨ aume U ⊂ V mit M ⊂ U ist der

” kleinste“ Unter- raum von V , der M umfasst, denn:

1. D ist ein Unterraum von V , der M umfasst.

2. Sei U irgend ein Unterraum von V , der M umfasst. Dann ist D ⊂ U . Definition. Sei V ein K-Vektorraum, M ⊂ V Teilmenge. Dann heißt

Lin(M ) := kleinster Unterraum von V , der M umfasst

die lineare H¨ ulle, der Spann oder das Erzeugnis von M . Speziell ist Lin( ∅ ) = {0}.

Bemerkung. Ist M 6= ∅ , so ist Lin(M ) die Menge aller Linearkombinationen

von Elementen aus M . Definiert man eine leere Linearkombination als 0, so gilt

diese Aussage auch f¨ ur M = ∅ .

(22)

2 Basis und Dimension 23

Definition. Eine Teilmenge M ⊂ V heißt Erzeugendensystem von V , wenn V = Lin(M ) ist. V heißt endlich erzeugt, falls V ein endliches Erzeugendensystem besitzt.

Beispiele.

1. Sei e

i

:= (0, . . . , 0, 1, 0, . . . , 0)

t

∈ K

n

(mit einer 1 an der i-ten Stelle). Dann ist E = {e

1

, . . . , e

n

} ein endliches Erzeugendensystem von K

n

, denn es gilt x = (x

1

, . . . , x

n

)

t

= P

n

i=1

x

i

e

i

f¨ ur jedes x ∈ K

n

.

2. {1, i } ist ein endliches Erzeugendensystem f¨ ur C als R -Vektorraum.

3. {1, √

2} ist ein endliches Erzeugendensystem f¨ ur Q ( √

2) als Q -Vektorraum.

Definition. Ein n-Tupel B = (a

1

, . . . , a

n

) von Elementen eines K -Vektorraumes V heißt eine (endliche) Basis von V , falls gilt:

1. Die Vektoren a

1

, . . . , a

n

sind linear unabh¨ angig.

2. {a

1

, . . . , a

n

} ist ein Erzeugendensystem von V .

Eine Familie B = (a

ι

)

ι∈I

von Elementen von V heißt linear unabh¨ angig, wenn jede endliche Teilfamilie linear unabh¨ angig ist. Bildet die Menge der a

ι

außerdem ein Erzeugendensystem von V , so nennt man B eine Basis von V .

Bemerkung. Man kann zeigen, dass jeder Vektorraum eine Basis besitzt. Wir werden diesen Satz aber hier nicht beweisen und uns nur mit endlich erzeugten Vektorr¨ aumen besch¨ aftigen.

2.2 Satz. B = (a

1

, . . . , a

n

) ist genau dann eine Basis von V , wenn sich jeder Vektor x ∈ V auf eindeutige Weise als Linearkombination der a

i

schreiben l¨ asst.

Beweis: 1) Ist B eine Basis, so ist B insbesondere ein Erzeugendensystem, und jedes x ∈ V l¨ asst sich als Linearkombination der a

i

schreiben. Wegen der linearen Unabh¨ angigkeit der a

i

ist die Darstellung eindeutig.

2) Das Kriterium sei erf¨ ullt. Da die Null auf eindeutige Weise dargestellt werden kann, sind die a

i

linear unabh¨ angig. Da jedes x ∈ V dargestellt werden kann, bilden sie ein Erzeugendensystem.

Beispiel.

U := {(x

1

, x

2

, x

3

)

t

: x

1

+ x

2

+ x

3

= 0} ist Unterraum von V = K

3

. Ist x ∈ U , so ist x = x

1

·(1, 0, −1)

t

+x

2

·(0, 1, −1)

t

. Also bilden a

1

:= (1, 0, −1)

t

und a

2

:= (0, 1, −1)

t

ein Erzeugendensystem von U . Nach dem Kriterium aus Kapitel 1 sind sie auch linear unabh¨ angig, bilden also eine Basis.

2.3 Satz. Sei V 6= (0) ein endlich erzeugter K-Vektorraum. Dann gilt:

1. V besitzt eine Basis.

(23)

2. Jede Basis von V ist endlich.

Beweis: 1) Sei E = {a

1

, . . . , a

n

} ein endliches Erzeugendensystem von V . Sind die a

i

linear abh¨ angig, so kann einer der Vektoren durch die anderen linear kom- biniert werden und daher E verkleinert werden. Das macht man so lange, bis E minimal ist. Dann m¨ ussen die Vektoren linear unabh¨ angig und B = (a

1

, . . . , a

n

) eine Basis sein.

2) Sei B

0

eine weitere (eventuell unendliche) Basis. Zu jedem i gibt es eine endliche Teilfamilie B

i

⊂ B

0

, so dass a

i

Linearkombination der Elemente von B

i

ist. Also gibt es eine endliche Teilfamilie B

00

⊂ B

0

, die ein Erzeugendensystem von V darstellt.

Dieses System kann man so lange verkleinern, bis man ein linear unabh¨ angiges Teilsystem B

000

⊂ B

00

erh¨ alt, das immer noch V erzeugt.

G¨ abe es ein b ∈ B

0

\ B

000

, so m¨ usste b immerhin noch Linearkombination der Ele- mente von B

000

sein. Das w¨ urde aber bedeuten, dass {b} ∪ B

000

⊂ B

0

nicht linear unabh¨ angig w¨ are, im Widerspruch dazu, dass B

0

eine Basis ist. Also muss B

0

= B

000

endlich sein.

Beispiel.

Die Einheitsvektoren e

1

, . . . , e

n

⊂ K

n

bilden eine Basis von K

n

. Jede andere Basis von K

n

muss auch endlich sein.

2.4 Satz. Sei V ein beliebiger K -Vektorraum. Folgende Aussagen ¨ uber Vektoren a

1

, . . . , a

n

∈ V sind ¨ aquivalent:

1. (a

1

, . . . , a

n

) ist eine Basis von V .

2. a

1

, . . . , a

n

bilden ein maximales linear unabh¨ angiges System in V . 3. {a

1

, . . . , a

n

} ist ein minimales Erzeugendensystem von V .

Beweis: (1) = ⇒ (2): Sei (a

1

, . . . , a

n

) Basis. Ist a ∈ V beliebig, so gibt es α

i

mit a = P

i

α

i

a

i

. Dann ist

1 · a + (−α

1

)a

1

+ · · · + (−α

n

)a

n

= 0.

Also k¨ onnen a, a

1

, . . . , a

n

nicht linear unabh¨ angig sein.

(2) = ⇒ (3): a

1

, . . . , a

n

m¨ ogen ein maximales linear unabh¨ angiges System bilden.

F¨ ur jedes a 6∈ {a

1

, . . . , a

n

} sind dann a, a

1

, . . . , a

n

linear abh¨ angig. Das bedeutet, dass es eine Darstellung 0 = αa+α

1

a

1

+· · ·+α

n

a

n

mit (α, α

1

, . . . , α

n

) 6= (0, 0, . . . , 0) gibt. W¨ are α = 0, so m¨ usste auch α

1

= . . . = α

n

= 0 sein. Also ist α 6= 0 und a Linearkombination von a

1

, . . . , a

n

. Da a beliebig war, ist {a

1

, . . . , a

n

} ein Erzeugendensystem.

W¨ are {a

1

, . . . , a

n

} kein minimales Erzeugendensystem, so w¨ aren die Vektoren linear

abh¨ angig. WS!

(24)

2 Basis und Dimension 25

(3) = ⇒ (1): Sei {a

1

, . . . , a

n

} ein minimales Erzeugendensystem. W¨ aren die Vek- toren linear abh¨ angig, so k¨ onnte man einen davon weglassen. Aber das ist nicht m¨ oglich. Also ist (a

1

, . . . , a

n

) eine Basis.

Wollen nun zeigen: Je zwei Basen haben gleich viel Elemente.

2.5 Austausch-Lemma. Sei V ein K-Vektorraum, B = (v

1

, . . . , v

n

) eine Basis von V und w ∈ V . Ist w = λ

1

v

1

+ · · · + λ

n

v

n

und λ

k

6= 0, so ist auch

B

0

= (v

1

, . . . , v

k−1

, w, v

k+1

, . . . , v

n

) eine Basis von V .

Beweis: O.B.d.A. k = 1, also λ

1

6= 0.

1) Dann ist v

1

Linearkombination von w, v

2

, . . . , v

n

und daher {w, v

2

, . . . , v

n

} ein Erzeugendensystem.

2) Sei µw + P

n

i=2

µ

i

v

i

= 0. Dann ist 0 = µ ·

n

X

i=1

i

v

i

) +

n

X

i=2

µ

i

v

i

= (µλ

1

)v

1

+

n

X

i=2

(µλ

i

+ µ

i

)v

i

,

also µλ

1

= µλ

2

+ µ

2

= . . . = µλ

n

+ µ

n

= 0. daraus folgt: µ = 0 und dann µ

2

= . . . = µ

n

= 0.

2.6 Austauschsatz von Steinitz. Sei B = (v

1

, . . . , v

n

) eine Basis von V . Sind die Vektoren w

1

, . . . , w

r

∈ V linear unabh¨ angig, so gilt:

1. r ≤ n.

2. Es gibt Indizes i

1

, . . . , i

n−r

, so dass B

0

= (w

1

, . . . , w

r

, v

i1

, . . . , v

in−r

) wieder eine Basis von V ist.

Beweis: Induktion nach r. Ist r = 0, so ist nichts zu zeigen.

Der Satz sei nun f¨ ur r − 1 bewiesen.

Sind w

1

, . . . , w

r

∈ V linear unabh¨ angig, so sind erst recht w

1

, . . . , w

r−1

linear un- abh¨ angig. Nach Induktionsvoraussetzung ist r − 1 ≤ n, und nach geeigneter Num- merierung ist (w

1

, . . . , w

r−1

, v

r

, . . . , v

n

) eine Basis von V .

W¨ are r − 1 = n, so w¨ are (w

1

, . . . , w

r−1

) eine Basis von V , aber kein maximales linear unabh¨ angiges System. Das kann nicht sein. Also ist r − 1 < n und damit r ≤ n.

Es gibt eine Darstellung w

r

= P

r−1

i=1

λ

i

w

i

+ P

n

j=r

µ

j

v

j

. W¨ are µ

r

= . . . = µ

n

= 0, so w¨ aren w

1

, . . . , w

r−1

, w

r

linear abh¨ angig, WS! Also gibt es einen Index %, so dass µ

%

6=

0 ist. O.B.d.A. sei % = r. Dann kann man nach dem Austausch-Lemma v

r

durch

w

r

ersetzen und erh¨ alt wieder eine Basis von V , n¨ amlich (w

1

, . . . , w

r

, v

r+1

, . . . , v

n

).

(25)

2.7 Folgerung. Je zwei endliche Basen von V besitzen gleich viele Elemente.

Beweis: Sind (v

1

, . . . , v

n

) und (w

1

, . . . , w

r

) zwei Basen von V , so folgt aus dem Austauschsatz: r ≤ n und n ≤ r, also r = n.

Definition. Sei V ein K-Vektorraum. Dann heißt dim

K

(V ) :=

n falls V Basis mit n Elementen besitzt,

∞ falls V nicht endlich erzeugt ist.

die Dimension von V (¨ uber K).

2.8 Satz. Sei V ein endlich erzeugter K-Vektorraum, U ⊂ V ein Unterraum.

Dann ist auch U endlich erzeugt und dim

K

(U ) ≤ dim

K

(V ).

Ist sogar dim

K

(U ) = dim

K

(V ), so ist U = V .

Beweis: Annahme, U ist nicht endlich erzeugt. Dann gibt es in U kein ma- ximales linear unabh¨ angiges System (denn das w¨ are ja eine endliche Basis). Ist n = dim

K

(V ), so kann man also n + 1 linear unabh¨ angige Vektoren in U finden.

Aber die sind auch in V linear unabh¨ angig, und das ist ein WS. Also ist U doch endlich erzeugt. Ist B eine Basis von U mit r Elementen, so sind diese Elemente auch in V linear unabh¨ angig und es muss r ≤ n gelten.

Ist r = n, aber U 6= V , so gibt es ein x ∈ V \U , x 6= 0. Es muss x von den Elementen einer Basis von U linear unabh¨ angig sein (denn U enth¨ alt alle Linearkombinationen der Basiselemente). Das ergibt ein System von n + 1 linear unabh¨ angigen Vektoren in V , aber das kann nicht sein.

2.9 Folgerung. Jeder Unterraum U von K

n

besitzt eine (endliche) Basis mit h¨ ochstens n Elementen.

2.10 Basiserg¨ anzungssatz. Sei V ein endlich-dimensionaler K-Vektorraum.

Sind die Vektoren a

1

, . . . , a

r

∈ V linear unabh¨ angig, so gibt es Vektoren v

r+1

, v

r+2

, . . . , v

n

,

so dass {a

1

, . . . , a

r

, v

r+1

, . . . , v

n

} eine Basis von V ist.

Beweis: Sei {v

1

, . . . , v

n

} eine Basis von V . Nach dem Austauschsatz ist r ≤ n,

und nach geeigneter Nummerierung ist {a

1

, . . . , a

r

, v

r+1

, . . . , v

n

} eine Basis von V .

(26)

3 Lineare Abbildungen 27

§ 3 Lineare Abbildungen

Erg¨ anzungen zur Theorie der Abbildungen:

Sei f : A → B eine Abbildung.

• Ist M ⊂ A, so heißt f (M ) := {f(x) : x ∈ M } die Bildmenge von M .

• Ist N ⊂ B , so heißt f

−1

(N ) := {x ∈ A : f(x) ∈ N } die Urbildmenge von N .

• f heißt injektiv, falls gilt: x

1

6= x

2

= ⇒ f(x

1

) 6= f (x

2

) (

” verschiedene Bogensch¨ utzen treffen verschiedene Ziele“).

Aquivalent dazu: ¨ f (x

1

) = f (x

2

) = ⇒ x

1

= x

2

.

• f heißt surjektiv, falls gilt: f(A) = B, d.h. ∀ y ∈ B ∃ x ∈ A mit f (x) = y.

Definition. V, W seien K -Vektorr¨ aume. Eine Abbildung f : V → W heißt K-linear, falls gilt:

f(x + y) = f (x) + f (y) f¨ ur alle x, y ∈ V, und f (αx) = α · f (x) f¨ ur α ∈ K, x ∈ V.

Beispiele.

1. V Vektorraum mit Basis (a

1

, . . . , a

n

), f : K

n

→ V mit f (α

1

, . . . , α

n

) :=

α

1

a

1

+ · · · + α

n

a

n

.

2. Sei V ein K-Vektorraum, v ∈ V , v 6= 0, f : K → V definiert durch f(α) :=

αv.

3. f : R → R mit f (t) = at ist linear, f (t) = at + b mit b 6= 0 ist nicht linear, f(t) = t

2

ist auch nicht linear.

4. Besonders wichtiges Beispiel:

Sei A ∈ M

m,n

(K ), F

A

: K

n

→ K

m

definiert durch F

A

(x) := A · x.

Dann ist F

A

(e

i

) = A · e

i

= S

i

(A).

Achtung! Nicht jede lineare Abbildung kann so beschrieben werden!

3.1 Satz. Sei (a

1

, . . . , a

n

) ∈ V eine Basis, b

1

, . . . , b

n

∈ W beliebig. Dann gibt es genau eine lineare Abbildung f : V → W mit f(a

i

) = b

i

f¨ ur i = 1, . . . , n.

Beweis: Erst Eindeutigkeit, dann Existenz. f( P

i

x

i

a

i

) := P

i

x

i

b

i

. Definition. Sei f : V → W linear. Dann definiert man:

Ker f := {x ∈ V : f (x) = 0} und Im f := {f(x) . x ∈ V }.

Referenzen

ÄHNLICHE DOKUMENTE

(i) Zwei Vektoren u, v ∈ R 3 sind linear abh¨ angig, wenn sie parallel

Wir betrachten zwei linear unabh¨ angige Vektoren ~a,~b ∈ R 2 und das von diesen Vektoren und dem Ursprung aufgespannte Dreieck. (a) Schreiben Sie die Mittelpunkte der drei Seiten

Alternativ k¨ onnen nicht vier Vektoren eines drei-dimensionalen Raumes linear unabh¨

Wir betrachten zwei linear unabh¨ angige Vektoren ~a,~b ∈ R 2 und das von diesen Vektoren und dem Ursprung aufgespannte Dreieck. (a) Schreiben Sie die Mittelpunkte der drei Seiten

[r]

[r]

[r]

Suchen Sie bei der falschen Aussage ein Gegenbeispiel für n