• Keine Ergebnisse gefunden

3Vektorr¨ aume und lineare Abbildungen

Im Dokument Mathematik f¨ur Informatiker (Seite 105-110)

Um unendlichdimensionale R¨aume nicht auszuschließen und vor allem um den Begriff unabh¨angig von der Wahl einer Basis zu definieren, f¨uhren wir folgende abstrakte Definition eines Vektorraumes ein.

Definition VII.3.1 (Vektorraum ¨uber einem K¨orper K)

Sei K ein K¨orper, typischerweise R oder C, dann ist ein Vektorraum ¨uber K (auch genannt K-Vektorraum) gegeben durch eine Menge V und Operationen

+ :V ×V →V − ·−:K×V →V die folgenden Axiomen gen¨ugen

(V1) u+v =v+u (Kommutativgesetz)

(V2) (u+v) +w=u+ (v+w) (Assoziativgesetz)

(V3) es existiert (genau) ein 0∈V mit 0 +u=u=u+ 0 f¨ur alle u∈V (V4) zu jedem u∈V existiert (genau) ein −u∈V mit u+ (−u) = 0 (V5) α·(u+v) = α·u+α·v (1. Distributivgesetz)

(V6) (α+β)·u=α·u+β·u (2. Distributivgesetz) (V7) (αβ)·u=α·(β·u)

(V8) 1·u=u.

Die Elemente von V heißen Vektoren und die Elemente von K heißen Skalare.

F¨ur jede nat¨urliche Zahl n kann man die Menge Kn folgendermaßen mit einer K-Vektorraumstruktur ausstatten

u+v =

u1+v1 ... un+vn

 λ·u=

 λu1

... λun

 wobei

u=

 u1

... un

 v =

 v1

... vn

Elemente aus Kn sind und λ∈K.

In der angewandten Mathematik ist der K¨orper K meist R oderC. Aber in der f¨ur die informatische Praxis ¨außerst relevanten Theorie dererror-correcting codes betrachtet man Vektorr¨aume ¨uber endlichen K¨orpern.

Definition VII.3.2

Sei V ein Vektorraum dann ist eine Linearkombination der Elemente x1, . . . , xn

ein Vektor der Gestaltλ1x1+. . . λnxn∈V, wobei λ1, . . . , λn ∈K.

Ein Untervektorraum von V ist eine Teilmenge W ⊆V, die unter Linearkombi-nationen abgeschlossen ist.

Offenbar ist ein Untervektorraum einesK-Vektorraums wieder einK-Vektorraum, da f¨ur x ∈ W sein additives Inverses −x = (−1)· x ∈ W. Man zeigt leicht ( ¨Ubung!), daß Untervektorr¨aume unter beliebigen Schnitten abgeschlossen sind.

Also existiert f¨ur beliebige Teilmengen S ⊆V ein kleinster Untervektorraum W vonV mit S⊆W. Diesen nennt man lineare H¨ulle bzw.linearen Spann von S in V und bezeichnet ihn mit Sp(S). Man sieht leicht ( ¨Ubung!), daßSp(S) aus allen Linearkombinationen von Elementen ausS besteht.

Definition VII.3.3 (lineare Unabh¨angigkeit, Basis)

Eine Teilmenge S eines K-Vektorraums V heißt linear unabh¨angig, wenn f¨ur paarweise verschiedene Elemente x1, . . . , xn∈S aus λ1x1+· · ·+λnxn = 0 folgt, daß alle Skalare λi gleich 0 sind.

Eine Basis einesK-VektorraumsV ist eine linear unabh¨angige Teilmenge B ⊆V mitSp(B) =V. Ein Vektorraum heißt endlichdimensional, wenn er eine endliche Basis besitzt.

Wennb1, . . . , bneine (wiederholungsfreie Aufz¨ahlung einer) Basis vonV ist, dann gibt es f¨ur jeden Vektor x ∈ V eindeutig bestimmte Skalare λ1, . . . , λn ∈ K mit x = λ1b1 +· · ·+λnbn. Diese Skalare existieren, da V die lineare H¨ulle von {b1, . . . , bn} ist, und sie sind eindeutig, weil wegen der linearen Unabh¨angigkeit vonb1, . . . , bn ausλ1b1+· · ·+λnbn=x=µ1b1+· · ·+µnbn folgt, daß alleλii, da ja (λ1−µ1)b1+· · ·+ (λn−µn)bn= 0.

Ein typisches Beispiel einer Basis f¨ur den RaumKn sind die Koordinateneinheits-vektoren e1, . . . , en wobei (ei)j = δij, d.h. die i-te Komponente von ei ist 1 und alle anderen Komponenten von ei sind 0. Offenbar l¨aßt sich jeder Vektor in Kn als Linearkombination derei darstellen und aus λ1e1 +· · ·+λnen= 0 folgt, daß alle λi = 0, also sind e1, . . . , en linear unabh¨angig. Obwohl diese spezielle Basis als “kanonisch” erscheint, gibt es doch sehr viele verschiedene Basen f¨ur Vek-torr¨aume. Wenn b1, . . . , bn eine Basis ist, so ist auch λ1b1, . . . , λnbn eine Basis, sofern alle λi 6= 0. F¨ur den Raum R2 ist

cosα sinα

,

cosβ sinβ

eine Basis, sofern die Differenzβ−α kein ganzzahliges Vielfaches von π ist.

Mithilfe eines sehr abstrakten Arguments (dem sogenannten “Zornschen Lem-ma”) kann man beweisen, daß jeder Vektorraum eine Basis besitzt. Im Falle unendlichdimensionaler Vektorr¨aume sind diese Basen nicht besonders n¨utzlich.

Im Rahmen der linearen Algebra interessiert man sich typischerweise f¨ur endlich dimensionale Vektorr¨aume, f¨ur welche definitiongem¨aß Basen existieren und sol-che auch effektiv angegeben werden k¨onnen. Dies wird duch folgendes Lemma sichergestellt.

Lemma VII.3.4 (Steinitzscher Austauschsatz)

Sei B eine Basis f¨ur einen K-Vektorraums V und A eine linear unabh¨angige Teilmenge von V. Dann gibt es eine Teilmenge C von B, sodaß A∪(B\C) eine Basis f¨ur V ist und |A|=|C|, d.h. A undC gleich viele Elemente enthalten. Also hat A h¨ochstens so viele Elemente wie B.

Beweis:Mit Induktion ¨uber die Anzahl der Elemente vonA. WennA leer ist, ist die Behauptung trivial. AngenommenAist nicht leer. Dann gibt es eina∈Aund A˜:=A\ {a}hat ein Element weniger als A. Aufgrund der Induktionshypothese gibt es eine Teilmenge von ˜CvonB, sodaß ˜A∪(B\C) eine Basis ist und˜ |A|˜ =|C|.˜ Es l¨aßt sich dannaals LinearkombinationP

v∈A˜λvv+P

u∈B\C˜λuuschreiben. Da A linear unabh¨angig ist, gibt es ein b ∈B\C˜ mit λb 6= 0. Somit ist

b = 1

λba− X

w∈A∪(B\( ˜˜ C∪{b})))

λw λbw

ein Element vonSp(A∪(B\( ˜C∪ {b}))). Wir setzen nun C= ˜C∪ {b}. Offenbar gilt|C|=|A|. Weilb∈Sp(A∪(B\C)), giltV ⊆Sp( ˜A∪(B\C))˜ ⊆Sp(A∪(B\C)) und somitV =Sp(A∪(B\C)). Um zu zeigen, daßA∪(B\C) linear unabh¨angig ist, nehmen wir an P

w∈A∪(B\C)µww= 0. Dann gilt aber 0 =P

w∈A∪(B\C)˜ µww+µaa

=P

w∈A∪(B\C)˜ µww+µa P

u∈A∪(B\˜ C)˜ λuu

aλbb+P

w∈A∪(B\C)˜waλw)w

Da ˜A∪(B \C) nach Induktionshypothese linear unabh¨˜ angig ist, gilt µaλb = 0.

Da aberλb 6= 0, folgtµa= 0. Also gilt

0 = X

w∈A∪(B\C)˜

µww

und somit µw = 0 f¨ur alle w∈A˜∪(B \C). Also sind alleµw = 0, wie zu zeigen

war.

Eine unmittelbare Konsequenz des Steinitzschen Austauschsatzes ist, daß alle Ba-sen eines endlichdimensionalen Vektorraums gleich viele Elemente haben. Deshalb ist folgende Definition sinnvoll.

Definition VII.3.5 (Dimension eines Vektorraums)

F¨ur einen endlichdimensionalen K-VektorraumV seidim(V)die Anzahl der Ele-mente einer (beliebigen) Basis von V.

Wenn nun ein endlichdimensionaler VektorraumV Dimension n hat, dann kann man eine Basis folgendermaßen konstruieren. W¨ahle b1 ∈V \ {0}beliebig. Wenn b1, . . . , bkbereits konstruiert sind undk < n, dann w¨ahlebk+1 ∈V\Sp({b1, . . . , bk}) beliebig. Nachn Schritten erh¨alt man so eine Basisb1, . . . , bn.

Auf ¨ahnliche Art und Weise kann man auch f¨ur einen Unterraum W eines end-lichen Vektorraums V eine Basis konstruieren. Dieser Prozess muß nach dim(V) Schritten abbrechen, da ja linear unabh¨angige Teilmengen von W auch in V li-near unabh¨angig sind und somit nach Satz VII.3.4 h¨ochstens dim(V) Elemente enthalten k¨onnen.

Wir wenden uns nun den strukturerhaltenden Abbildungen zwischen Vektorr¨ aum-en zu, daum-en sogaum-enanntaum-en linearaum-en Abbildungaum-en.

Definition VII.3.6 (lineare Abbildung)

Seien V und W K-Vektorr¨aume. Eine lineare Abbildungvon V nach W ist eine Funktion f :V →W, sodaß

f(x+y) = f(x) +f(y) und f(λx) =λf(x) f¨ur alle x, y ∈V und λ∈K.

Man sieht leicht ein, daß die identische Abbildung idV :V →V immer linear ist und daß lineare Abbildungen unter Komposition abgeschlossen sind.

Satz VII.3.7 Sei V ein endlich dimensionaler Vektorrraum mit Basisb1, . . . , bn undf :V →W eine lineare Abbildung. Dann istf durchf(b1), . . . , f(bn) eindeu-tig bestimmt. Außerdem existiert zux1, . . . , xn ∈W genau eine lineare Abbildung f :V →W mit f(bi) = xi f¨ur i= 1, . . . , n.

Beweis: Angenommen g : V → W ist eine lineare Abbildung mit g(bi) = f(bi) f¨ur i = 1, . . . , n. Sei x ∈ V. Dann gibt es Skalare λ1, . . . , λn ∈ K mit x = λ1b1+· · ·+λnbn. Also gilt

f(x) = λ1f(b1) +· · ·+λnf(bn) =λ1g(b1) +· · ·+λng(bn) =g(x) wegen der Linearit¨at vonf und g. Also ist f =g.

F¨urx1, . . . , xn∈W definieren wir eine geeignete lineare Abbildung f durch f(λ1b1 +· · ·+λnbn) = λ1x1+· · ·+λnxn

Die Definition vonf ist eindeutig, da b1, . . . , bn eine Basis ist. Die Linearit¨at von f ist leicht nachzurechnen ( ¨Ubung!) und es gilt offenbar f(bi) =xi aufgrund der

Definition vonf.

Definition VII.3.8 (Vektorraum Isomorphismus)

Eine lineare Abbildung f :V →W heißt Vektorraum-Isomorphismus, wenn eine lineare Abbildungg :W →V existiert mit g◦f = idV und f◦g = idW.

Vektorr¨aumeV und W heißen isomorph, wenn es einen Isomorphismusf :V → W gibt.

Offenbar ist ein Vektorraum-Isomorphismus immer eine bijektive Funktion. Man sieht leicht, daß jede bijektive linear Abbildungf :V →W auch ein Isomorphis-mus ist, daf−1 :W →V auch linear ist ( ¨Ubung!).

Man ¨uberzeugt sich auch leicht von der Tatsache ( ¨Ubung!), daß ein Vektorraum-Isomorphismus Basen erh¨alt. Deshalb haben isomorphe endlich dimensionale Vek-torr¨aume dieselbe Dimension. Folgender Satz besagt, daß “bis auf Isomorphie”

endlich dimensionaleK-Vektorr¨aume von der GestaltKnf¨ur ein geeignetesn∈N0 sind.

Satz VII.3.9 Ein endlich dimensionaler VektorraumV ist isomorph zu Kdim(V). Beweis:SeiV ein endlich dimensionaler Vektorraum undb1, . . . , bdim(V) eine Basis von V. Dann ist die lineare Abbildung f : V → Kdim(V) mit f(bi) = ei ein Isomorphismus, wobeiei der i-te Koordinateneinheitsvektor ist.

Definition VII.3.10 Der Kern einer linearen Abbildung f : V → W ist die Menge ker(f) := f−1(0) und das Bild von f ist rng(f) :={f(x)|x∈V}.

Offenbar istker(f) ein Untervektorraum vonV und rng(f) ein Untervektorrraum von W. Man sieht leicht ( ¨Ubung!), daß f genau dann injektiv ist, wenn ker(f) Dimension 0 hat.

Außerdem stehen im Falle linearer Abbildungen zwischen endlich dimensionalen Vektorr¨aumen Kern und Bild in folgendem Zusammenhang.

Satz VII.3.11 (Dimensionsatz)

Wenn f : V → W eine lineare Abbildung zwischen endlich dimensionalen Vek-torr¨aumen ist, dann gilt dim(ker(f)) + dim(rng(f)) = dim(V).

Beweis: Sei B1 eine Basis f¨ur ker(f). Wegen Satz VII.3.4 kann man B1 zu einer BasisB vonV erweitern. Wir schreibenB2 f¨urB\B1 undVi f¨urSp(Bi). Offenbar gilt dim(V) = dim(V1) + dim(V2).

Jeder Vektor x ∈ V l¨aßt sich auf eindeutige Weise schreiben als x = x1 +x2 mit xi ∈ Vi. Aus diesem Grund ist V2 isomorph zu rng(f). Somit ist dim(V2) = dim(rng(f)). Da auch dim(V1) = dim(ker(f)), gilt somit dim(V) = dim(V1) + dim(V2) = dim(ker(f)) + dim(rng(f)) wie behauptet.

Im Dokument Mathematik f¨ur Informatiker (Seite 105-110)