• Keine Ergebnisse gefunden

. Daher gilt

rg (X) =

(3.7.12)rg

Er 0 0 0

=r

rg (X)f =

(3.7.12)rgf

Er 0 0 0

=r

Hieraus folgt rg (X) = r=rg (X).f

Beispiel 3.7.14.

rg

1 2 3 4 2 4 6 8

=rgf

1 2 3 4 2 4 6 8

= 1.

3.8 Kurzzusammenfassung der Kapitel 1 und 2

Wir wollen kurz den bisher entwickelten Stoff zusammenfassen.

1. Ausgehend vom Begriff der Gruppe haben wir Ringe und als spezielle Ringe K¨orper eingef¨uhrt. Wichtige Beispiele f¨ur Ringe, die nicht K¨orper sind, sind die ganzen Zahlen Z, die Restklassenringe Z/nZ f¨ur n nicht prim, und die Polynome ¨uber einem K¨orper.

Wichtige Beispiele f¨ur K¨orper sind die K¨orper der rationalen ZahlenQ, der reellen Zahlen R, der komplexen Zahlen C und der K¨orper Fp, der genau p Elemente hat mit p prim.

Endliche K¨orper habenpn Elemente, mit p prim und n ∈N.

2. F¨ur einen gegebenen K¨orper K haben wir den Begriff des K-Vektorraums kennengelernt.

Weitere wichtige Begriffe sind:

- Untervektorraum, affiner Unterraum.

- Innere Summe von Untervektorr¨aumen: es giltW1+W2 = spanK(W1∪W2), vergleiche Satz 2.5.2; die Dimension ist dimK(W1+W2) = dimK(W1) + dimK(W2)−dimK(W1∩ W2). Die innere direkte Summe ist der Spezialfall einer inneren Summe mit W1 ∩ W2 ={0}.

- ¨Außere direkte Summe und Produkt von Vektorr¨aumen.

- Zu einem Untervektorraum U ⊂ V k¨onnen wir den Quotienvektorraum V /U kon-struieren. Im Falle endlich erzeugter Vektorr¨aume ist dessen Dimension dimKV /U = dimKV −dimKU.

3. Aus den Vektoren eines Vektorraums kann man Linearkombinationen bilden. Dies f¨uhrt auf zwei wichtige Begriffe

- Erzeugnis /Erzeugendensystem B ⊂V: es gilt spanK(B) =V. - Lineare Unabh¨angigkeit

Linear unabh¨angige Erzeugendensysteme heißen Basen; sie existieren f¨ur jeden Vektor-raum; die Anzahl ihrer Elemente ist eindeutig und heißt die Dimension des Vektorraums.

Basen sind maximale linear unabh¨angige Familien und minimale Erzeugendensysteme.

- Der Basisauswahlsatz 2.4.6 erlaubte es uns, aus Erzeugendensystemen eine Basis auszuw¨ahlen.

- Der Basiserg¨anzungssatz 2.4.10.2 erlaubt es, linear unabh¨angige Familien zu Basen zu erg¨anzen.

4. F¨urK-lineare Abbildungen Φ :V →W sahen wir:

- Urbilder von Untervektorr¨aumen sind Untervektorr¨aume von V und somit nie die leere Menge. Insbesondere ist der Kern von Φ als Urbild der 0 ∈ W ein Untervek-torraum von V. Die lineare Abbildung Φ ist genau dann injektiv, wenn ker Φ ={0}

gilt.

- Urbilder affiner Unterr¨aume sind affine Unterr¨aume oder die leere Menge.

- Der Raum HomK(V, W) der K-linearen Abbildungen ist ein K-Vektorraum der Di-mension dimKV ·dimKW.

- Den Homomorphiesatz 3.4.3: f¨ur eine lineare Abbildung Φ : V → W erhalten wir einen Isomorphismus V /ker Φ → Im Φ. Hieraus folgt insbesondere die Dimensions-formel 3.1.7:

dimKV −dimKker Φ = dimKIm Φ = rg Φ.

5. Explizite Beschreibung von linearen Abbildungen Φ : V → W f¨ur endlich-dimensionale Vektorr¨aume:

- Situation:

dimKV <∞ A= (v1, . . . vn) geordnete Basis von V dimKW <∞ B= (w1, . . . wm) geordnete Basis von W

- Jede geordnete Basis A von V gibt einen Isomorphismus vom Standardvektorraum Kn mit Standardbasis auf V:

ΦA : Kn→V mit ΦA(ei) =vi. - Die darstellenden Matrizen geben Isomorphismen

MBA: HomK(V, W)→M(m×n, K)

von K Vektorr¨aumen (mit Multiplikationen, wo diese definiert sind).

- Ein Basiswechsel wird durch invertierbare Transformationsmatrizen TAA0 =MAA0(idV)

beschrieben. F¨ur lineare Abbildungen gilt die Transformationsformel 3.7.5 MBA00(Φ) =TBB0 ·MBA(Φ)·

TAA0

−1

.

- Zwei (nicht notwendigerweise quadratische) Matrizen X, Y heißen ¨aquivalent, wenn es invertible (und damit quadratische) Matrizen S, T gibt mit Y = SXT−1. Jede MatrixA ist ¨aquivalent zu einer Matrix der Form

Er 0 0 0

mit r= rg (A). Zeilenrang und Spaltenrang einer Matrix sind gleich.

- Zwei quadratische Matrizen X, Y heißen ¨ahnlich, wenn es eine invertible Matrix S gibt mit Y =SXS−1.

6. Aus den entwickelten Begriffen folgt eine Theorie f¨ur die L¨osungsmenge Lsg(A, b) eines inhomogenen linearen Gleichungssystems:

- Lsg(A, b) = ∅ genau dann, wenn b 6∈ ImA, was genau dann gilt, wenn rg (A, b) = rg (A) + 1.

- Lsg(A, b) ist entweder leer oder affiner Unterraum der Dimension n − rgA. Man erh¨alt alle L¨osungen des inhomogenen linearen Gleichungssystems, indem man zu einer speziellen L¨osung alle L¨osungen des zugeh¨origen homogenen Gleichungssystems addiert.x

- Der Gauß’sche Algorithmus erlaubt es, lineare Gleichungssysteme systematisch zu l¨osen.

4 Determinanten

4.1 Das Vektorprodukt auf R

3

Definition 4.1.1 Die Abbildung

R3×R3 → R3

(v, w) 7→ v×w:=

v2w3−v3w2

v3w1−v1w3 v1w2−v2w1

heißt Vektorprodukt.

Das Vektorprodukt kann nur f¨ur drei-dimensionale Vektorr¨aume mit Wahl einer geordneten Basis (eigentlich: Wahl einer euklidischen Struktur mit Orientierung) definiert werden; mathe-matisch sinnvoll ist es nur im Fall reeller drei-dimensionaler Vektorr¨aume mit Basis, auf den wir uns in diesem Unterkapitel beschr¨anken. Das Vektorprodukt wird von vielen Anwendern (Ingenieure, Physiker,. . . ) gerne benutzt.

Lemma 4.1.2.

Zusammen mit dem schon behandelten Skalarprodukt

hv, wi:=v1w1+v2w2 +v3w3

erf¨ullt das Vektorprodukt f¨ur alleu, v, u0, v0 ∈R3 und α, β ∈R die folgenden Identit¨aten:

1. Bilinearit¨at

(αv+βv0)×w=α(v×w) +β(v0×w) v×(αw+βw0) =α(v×w) +β(v ×w0)

2. Antisymmetrie

v×w=−w×v 3. Grassmann–Identit¨at

u×(v×w) =hu, wiv− hu, viw . 4. Jacobi-Identit¨at

u×(v×w) +v×(w×u) +w×(u×v) = 0 5. hu×v, wi=hu, v×wi

Beweis.

1.–3. durch einfaches Nachrechnen, ebenso 5. Wir zeigen, wie 4. aus 3. folgt:

u×(v×w) +v×(w×u) +w×(u×v)

=3. hu, wiv− hu, viw+hv, uiw− hv, wiu+hw, viu− hw, uiv = 0

Lemma 4.1.3 (Versch¨arfung der Cauchy–Schwarz’schen Ungleichung f¨ur den R3).

F¨ur allev, w∈R3 gilt

hv, wi2 +kv×wk2 =kvk2· kwk2 . Beweis.

Wir rechnen:

kv×wk2 =hv×w, v×wi

=hv, w×(v×w)i [wegen Lemma 4.1.2.5]

=hv,hw, wiv− hw, viwi [wegen Lemma 4.1.2.3]

=kwk2 kvk2− hv, wi2 .

Betrachtung 4.1.4.

• Aus der Antisymmetrie, Lemma 4.1.2.2, folgt v ×v = −v ×v = 0. Aus Lemma 4.1.2.5 folgt daher

hv, v×wi=hv×v, wi= 0 ,

also v⊥(v×w). ¨Ahnlich folgt auch w⊥(v×w). Der Vektor v×w steht also auf v und w senkrecht.

• Wir wollen auch die L¨ange des Vektors v×w berechnen. Mit Lemma 4.1.3 folgt:

kv×wk2 =kvk2kwk2 − hv, wi2

=kvk2kwk2(1−cos2α)

=kvk2kwk2sin2α .

kv×wk ist daher der Fl¨acheninhalt des von v, waufgespannten Parallelogramms:

w

v α

kwksinα

• Damit kennen wir L¨ange und Richtung des Vektorsv×w. Seine Orientierung wird durch die sogenannte “rechte Hand–Regel” angegeben: zeigt der Damen der rechten Hand in Richtung von v und der Zeigefinger in Richtung von w, so zeigt der Mittelfinger in Rich-tung vonv×w. Dies macht das Beispielv =e1 undw=e2 mit Vektorproduktv×w=e3 deutlich.

v v×w

w

Definition 4.1.5

Sei (b1, b2, b3) eine Basis von R3. Sei p∈R3. Dann heißt dieTeilmenge P ={p+αb1+βb2+γb3|0≤α, β, γ ≤1} ⊂ R3 das von b1, b2 und b3 aufgespannte Parallelotop oder Spat.

b1 b3

p

Satz 4.1.6.

Das Volumen des von den drei Vektoren b1, b2, b3 ∈R3 aufgespannten Spats ist vol(P) = |hb1×b2, b3i| .

Deshalb heißt das Vektorprodukt auch Spatprodukt.

Beweis.

Das Volumen ist bekanntermaßen “Grundfl¨ache mal H¨ohe”. Der Einheitsvektor n:= b1×b2

kb1×b2k

steht senkrecht auf den beiden Vektoren b1 und b2, die die Grundfl¨ache aufspannen. Die H¨ohe des Spats ist daher

h =|hn, b3i|

Wir erhalten

V =F ·h 4.1.4= kb1×b2k ·h=|hb1×b2, b3i|.