• Keine Ergebnisse gefunden

3.2 Matrizen

Wir wollen nun lineare Abbildungen zwischen K-Vektorr¨aumen mit Hilfe von Basen explizit durch Elemente in K beschreiben. Zentral hierf¨ur ist

Satz 3.2.1.

Gegeben seien endlich–dimensionale Vektorr¨aumeV undW sowie Vektorenv1, . . . , vr ∈V und w1, . . . , wr ∈W. Dann gilt:

1. Ist die Familie (v1, . . . , vr) in V linear unabh¨angig, so gibt es mindestens eine lineare Abbildung Φ : V →W mit Φ(vi) = wi f¨ur i= 1, . . . , r.

2. Ist (v1, . . . , vr) sogar eine Basis vonV, so gibt es genau eine lineare Abbildung Φ : V →W mit Φ(vi) = wi. Diese hat die beiden Eigenschaften:

(a) Φ(V) = Im Φ = spanK(w1, . . . , wr)

(b) Die Abbildung Φ ist genau dann injektiv, wenn die Familie (w1, . . . , wr) inW linear unabh¨angig ist.

Beweis.

• Wir zeigen erst 2: da die Familie (v1, . . . , vr) eine Basis ist, hat jedesv ∈V eine eindeutige

gelten muss. Es gibt also h¨ochstens eine lineare Abbildung mit den genannten Eigen-schaften. Man rechnet leicht nach, dass die durch (∗) definierte Abbildung auch linear ist. also ist v ∈ker Φ. Damit ist ker Φ nicht trivial und Φ nicht injektiv.

• Sei umgekehrt Φ(v) = 0. Wir schreiben v als eindeutig bestimmte Linearkombination v =

Also ist Φ injektiv, wenn die Familie (wi) linear unabh¨angig ist.

• Ist die Familie (v1, . . . , vr) nur linear unabh¨angig, aber keine Basis, so k¨onnen wir mit Hilfe des Basiserg¨anzungssatzes 2.4.10.3 die Familie zu einer Basis von V erg¨anzen:

(v1, . . . , vr, vr+1, . . . , vn)

und ein Φ durch Vorgabe beliebiger Werte wr+1, . . . , wn ∈ W f¨ur vr+1, . . . , vn wie in 2.

festlegen.

Korollar 3.2.2.

Isomorphe Vektorr¨aume haben die gleiche Dimension.

Beweis.

Wir zeigen den Satz f¨ur endlich-dimensionale Vektorr¨aume. Sei Φ :V →W ein Isomorphismus vonK-Vektorr¨aumen und (v1, . . . , vn) eine Basis vonV. Dann ist die Familie (Φ(v1), . . . ,Φ(vn)) linear unabh¨angig, weil Φ injektiv ist, und ein Erzeugendensystem, weil Φ surjektiv ist, also eine Basis vonW. Die Vektorr¨aumeV undW haben also Basen gleicher L¨ange, also die gleiche

Dimension.

Korollar 3.2.3.

Ist V ein K–Vektorraum mit geordneter Basis B= (v1, . . . , vn), so gibt es genau einen Isomor-phismus

ΦB : Kn→V

mit ΦB(ei) = vi f¨ur i = 1, . . . , n wobei ei die kanonische Basis von Kn bezeichnet. Es ist n = dimKV; insbesondere ist jeder endlich–erzeugte K–Vektorraum V zu einen Vektorraum der Form Kn f¨ur genau einn isomorph.

Beweis.

Wende Satz 3.2.1.2 auf die Basen (e1, . . . , en) von Kn und (v1, . . . , vn) von V an. ΦB ist surjektiv nach Teilaussage a), weil die Familie (vi) ein Erzeugendensystem von V ist, und injektiv, weil (vi) linear unabh¨angig ist. Da isomorphe Vektorr¨aume nach Korollar 3.2.2 gleiche Dimension haben, aber f¨ur n 6= m gilt n = dimKKn 6= dimKKm = m, folgt auch die

Eindeutigkeitsaussage.

Nebenbei haben wir auch alle endlich erzeugten Vektorr¨aume bis auf Isomorphie klassifiziert:

zwei solche Vektorr¨aume sind genau dann isomorph, wenn sie die gleiche Dimension haben. Dies f¨uhrt uns darauf, zun¨achst lineare Abbildungen

Φ : Kn→Km zu bechreiben.

Definition 3.2.4 Sei K ein K¨orper.

1. Ein rechteckiges Schema der Form

a11 . . . a1n ... ... am1 . . . amn

mit aij ∈K heißt einem×n–Matrix mit Eintr¨agen inK. Die Menge derm×nMatrizen mit Eintr¨agen in K bezeichnen wir mit M(m×n, K).

2. SeiΦ : Kn →Km eine lineare Abbildung. Es seien

Φ(e1) =

 a11

... am1

 , . . . , Φ(en) =

 a1n

... amn

mit aij ∈K die Bilder der Vektoren (e1, . . . , en) der Standardbasis vonKn. Dann heißt

die darstellende Matrix von Φ.

Man beachte, dass wir hier die Standardbasis als geordnete Basis auffassen, damit wir wissen, was die erste Spalte der darstellenden Matrix ist, was die zweite Spalte etc.

Aus Satz 3.2.1 folgt, das M(Φ) und Φ sich umkehrbar eindeutig entsprechen. Sei nun

v =

beliebig. Dann rechnen wir mit v =Pn

i=1viei, also Multipli-kation von Matrizen mit Vektoren durch

A·v =

Wir setzen K =R und n =m= 2 und betrachten Drehungen um den Ursprung, vgl. Beispiel 3.1.4.2. Mit Hilfe des Produkts einer Matrix mit einem Vektor erh¨alt man mitθ ∈R

Rθ dann Ψ◦Φ wieder eine lineare Abbildung. Wir wollen deren darstellende Matrix M(Ψ ◦Φ) bestimmen. Dazu benutzen wir die Standardbasen (e1, . . . , en) ∈ Kn und (e01, . . . , e0m) ∈ Km. Seien

M(Ψ) = (aij), M(Φ) = (bij), M(Ψ◦Φ) = (cij)

die darstellenden Matrizen. Dann ist

Die Definition stellt sicher, dass M(Ψ ◦Φ) = M(Ψ)· M(Φ) gilt. Die Komposition linearer Abbildung wird also in die Multiplikation der darstellenden Matrizen ¨uberf¨uhrt.

Beispiel 3.2.9. Die Drehwinkel zweier Drehungen um den Ursprung addieren sich also.

Bemerkungen 3.2.10.

1. Im allgemeinen ist die Verkettung linearer Abbildungen und somit die Matrizenmultipli-kation nicht kommutativ. Zum Beispiel finden wir f¨ur

A =

2. Die Verkettung von Abbildungen und somit auch die Matrizenmultiplikation sind aber assoziativ.

3. Sei Φ : Kn →Km linear. Dann ist (vgl. Definition 3.1.5.3):

rg (Φ) = dimKIm Φ = dimKΦ(Kn)

dimKspanK(Φ(e1), . . . ,Φ(en)) []Satz 3.2.1.2 (a)] .

Dies ist wegen des Basisauswahlsatzes 2.4.6 gleich der maximalen Anzahl linear un-abh¨angiger Spaltenvektoren der Matrix M(Φ). Als Beispiel betrachten wir mit K = R die linearen Abbildungen Φ,Ψ : R3 →R2 mit

M(Φ) =

1 2 3 2 4 6

rg (Φ) = 1 M(Ψ) =

1 2 −1 2 0 5

rg (Φ) = 2

Wir wollen noch etwas mehr mit Matrizen rechnen. Nach Satz 3.1.9 ist HomK(Kn, Km) ein K–Vektorraum. Durch ¨Ubergang zu den darstellenden Matrizen wird auch die Menge M(m× n, K) der m×n Matrizen zu einem K–Vektorraum.

Definition 3.2.11

1. Die Summe zweier MatrizenA, B ∈M(m×n, K) ist komponentenweise erkl¨art:

A+B = (aij) + (bij) = (aij +bij) Sei λ ∈K; f¨ur die Skalarmultiplikation setzen wir

λA =λ(aij) = (λaij)

2. Die Transponierte einer Matrix A∈M(m×n, K) ist die durch At= (atij) = (aji)∈M(n×m, K) definierte n×m Matrix. Zum Beispiel ist:

2 3 0 1 4 1

t

=

 2 1 3 4 0 1

3. Wir setzen

En =M(idKn) =

1 0 0 0 1 0 . . .

... ... 1 . . . ... ... ... ...

und nennen En die Einheitsmatrix f¨urKn. Wir schreibenEn = (δij)mit δij =

(1 f¨uri=j 0 f¨uri6=j . δij heißt des Kroneckerscheδ–Symbol.

Lemma 3.2.12.

Es gelten die folgenden Rechenregeln: sind A, A0 ∈ M(m×n, K), B, B0 ∈ M(n×r, K), C ∈ M(r×s, K) undλ ∈K, so gilt

1. A·(B+B0) = AB+A·B0 und (A+A0)·B =AB+A0B (Distributivgesetze)

2. A·(λB) = (λA)·B =λ(A·B)

3. (A·B)·C =A·(B·C) (Assoziativgesetz) 4. (A·B)t =Bt·At

5. Em·A=A·En=A Beweis.

1.,2. und 5. zeigt man durch einfaches Hinschreiben.

3. folgt aus dem Assoziativit¨atsgesetz f¨ur die Verkettung von Abbildungen 4. rechnen wir vor: ist A= (aij) und B = (bjk), so istA·B = (cik) mit

cik =X

j

aijbjk .

Also ist (AB)t = (c0ki) mit c0ki =cik =P

jaijbjk. Weiter ist Bt= (b0kj) mit b0kj =bjk At= (a0ji) mit a0ji=bij Hieraus folgt

Bt·At= (dki) mit dki =X

j

b0kj·a0ji =X

j

bjk ·aij =cik =c0ki .

Korollar 3.2.13.

Die Menge M(n × n, K) der quadratischen Matrizen ¨uber einen K¨orper K bildet mit den Operationen (+,·) einen Ring. Dieser ist f¨urn≥2 nicht–kommutativ.

Unter der Entsprechung

Hom(Kn, Kn)→M(n×n, K) entsprechen den Isomorphismen die folgenden Matrizen:

Definition 3.2.14

Eine Matrix A ∈M(n×n, K) heißt invertierbar, wenn es eine Matrix A0 ∈M(n×n, K) gibt mit

A·A0 =A0·A =En .

Korollar 3.2.15.

Die Menge

GL(n, K) := {A∈M(n×n, K) : Ainvertierbar}

mit der Multiplikation als Verkn¨upfung bildet eine Gruppe mit neutralem ElementEn. Sie heißt allgemeine lineare Gruppe, englisch general linear group.

Beweis.

• Mit A, B ∈GL(n, K) ist auch A·B ∈GL(n, K). Denn gelte f¨urA0, B0 ∈M(n×n, K) AA0 =A0A=En und BB0 =B0B =En ,

so ist wegen der Assoziativit¨at der Matrizenmultiplikation

(B0A0)AB=B0(A0A)B =En und AB(B0A0) =A(BB0)A0 =En.

• Die Gruppenaxiome sind klar, das neutrale Element ist die Einheitsmatrix En.

Satz 3.2.16.

Gegeben seien K–Vektorr¨aume

V mit geordneter BasisA = (v1, . . . , vn) W mit geordneter Basis B = (w1, . . . , wm). Dann gibt es zu jeder linearen Abbildung

Φ : V →W genau eine Matrix A= (aij)∈M(m×n, K), so dass

Φ(vj) =

m

X

i=1

aijwi (∗) gilt. Die so erhaltene Abbildung

MBA : Hom(V, W)→M(m×n, K) Φ 7→A=MBA(Φ) ist ein Isomorphismus von K–Vektorr¨aumen. Insbesondere gilt

MBA(Φ + Ψ) =MBA(Φ) +MBA(Ψ) MBA(λΦ) =λMBA(Φ).

Nach Wahl von geordneten Basen von V und vonW kann man also lineare Abbildungen durch Matrizen beschreiben. Man sagt, die Matrix MBA(Φ) stelle die lineare Abbildung Φ bez¨uglich der geordneten Basen A, B von V und von W dar.

Beweis.

• Da B= (w1, . . . , wm) eine geordnete Basis von W ist, sind die Linearkombinationen aus (∗) und somit die Spalten der Matrix eindeutig bestimmt.

• Geh¨ort zur Abbildung Ψ die Matrix B = (bij), so rechnen wir:

(Φ + Ψ)(vj) = Φ(vj) + Ψ(vj)

=

m

X

i=1

aijwi+

m

X

i=1

bijwi

=

m

X

i=1

(aij +bij)wi

und f¨urλ∈K

(λΦ)(vj) =λ·Φ(vj) =λ

m

X

i=1

aijwi =

m

X

i=1

iaij)wi . Also ist die Abbildung MBA eine K–lineare Abbildung.

• Nach Satz 3.2.1.2 ist die Abbildung sogar bijektiv.

Korollar 3.2.17.

Mit den gleichen Bezeichnungen betrachte f¨ur jedes i = 1. . . n und j = 1. . . m die lineare Abbildung

Fij : V →W

mit Fij(vk) :=

(wj f¨ur k=i 0 sonst.

Diese m·n Abbildungen bilden eine Basis von Hom(V, W). Insbesondere gilt dimKHom(V, W) = dimKV ·dimKW .

Beweis.

• Es ist MBA(Fij) =Eij, also gleich der Matrix, deren Eintr¨age alle gleich Null sind, außer in der i–ten Spalte und j–ten Zeile. Man nennt so eine Matrix auch eine Basismatrix.

• Die Familie (Eij) bildet eine Basis desK–VektorraumsM(m×n, K). DaMBA ein Isomor-phismus ist, bildet auch (Fij) eine Basis von Hom(V, W).

Die Frage, wie die MatrixMBA(F) sich ¨andert, wenn man die geordneten BasenA,B¨andert, werden wir erst am Ende dieses Kapitels angehen.

Bemerkungen 3.2.18.

Ist V = W, d.h. liegt ein Endomorphismus vor, so ist es zweckm¨aßig, mit nur einer Basis zu arbeiten, also A=B= (v1, v2, . . . , vn) zu w¨ahlen. Man schreibt dann

MB :=MBB . Der Vektorraumisomorphismus

MB : End(V)→M(n×n, K) ist dann definiert durch die Gleichungen

Φ(vj) =

n

X

i=1

aijvi .

Die Einheitsmatrix En = (δij) beschreibt in jeder Basis B von V die identische Abbildung, MB(idV) = En. Die Frage, wie durch Wahl einer geeigneten Basis die darstellende Matrix eines Endomorphismus auf eine Standardform gebracht werden kann, werden wir erst sp¨ater, in den Kapiteln 5 und 7, beantworten k¨onnen.