. Daher gilt
rg (X) =
(3.7.12)rg
Er 0 0 0
=r
rg (X)f =
(3.7.12)rgf
Er 0 0 0
=r
Hieraus folgt rg (X) = r=rg (X).f
Beispiel 3.7.14.
rg
1 2 3 4 2 4 6 8
=rgf
1 2 3 4 2 4 6 8
= 1.
3.8 Kurzzusammenfassung der Kapitel 1 und 2
Wir wollen kurz den bisher entwickelten Stoff zusammenfassen.
1. Ausgehend vom Begriff der Gruppe haben wir Ringe und als spezielle Ringe K¨orper eingef¨uhrt. Wichtige Beispiele f¨ur Ringe, die nicht K¨orper sind, sind die ganzen Zahlen Z, die Restklassenringe Z/nZ f¨ur n nicht prim, und die Polynome ¨uber einem K¨orper.
Wichtige Beispiele f¨ur K¨orper sind die K¨orper der rationalen ZahlenQ, der reellen Zahlen R, der komplexen Zahlen C und der K¨orper Fp, der genau p Elemente hat mit p prim.
Endliche K¨orper habenpn Elemente, mit p prim und n ∈N.
2. F¨ur einen gegebenen K¨orper K haben wir den Begriff des K-Vektorraums kennengelernt.
Weitere wichtige Begriffe sind:
- Untervektorraum, affiner Unterraum.
- Innere Summe von Untervektorr¨aumen: es giltW1+W2 = spanK(W1∪W2), vergleiche Satz 2.5.2; die Dimension ist dimK(W1+W2) = dimK(W1) + dimK(W2)−dimK(W1∩ W2). Die innere direkte Summe ist der Spezialfall einer inneren Summe mit W1 ∩ W2 ={0}.
- ¨Außere direkte Summe und Produkt von Vektorr¨aumen.
- Zu einem Untervektorraum U ⊂ V k¨onnen wir den Quotienvektorraum V /U kon-struieren. Im Falle endlich erzeugter Vektorr¨aume ist dessen Dimension dimKV /U = dimKV −dimKU.
3. Aus den Vektoren eines Vektorraums kann man Linearkombinationen bilden. Dies f¨uhrt auf zwei wichtige Begriffe
- Erzeugnis /Erzeugendensystem B ⊂V: es gilt spanK(B) =V. - Lineare Unabh¨angigkeit
Linear unabh¨angige Erzeugendensysteme heißen Basen; sie existieren f¨ur jeden Vektor-raum; die Anzahl ihrer Elemente ist eindeutig und heißt die Dimension des Vektorraums.
Basen sind maximale linear unabh¨angige Familien und minimale Erzeugendensysteme.
- Der Basisauswahlsatz 2.4.6 erlaubte es uns, aus Erzeugendensystemen eine Basis auszuw¨ahlen.
- Der Basiserg¨anzungssatz 2.4.10.2 erlaubt es, linear unabh¨angige Familien zu Basen zu erg¨anzen.
4. F¨urK-lineare Abbildungen Φ :V →W sahen wir:
- Urbilder von Untervektorr¨aumen sind Untervektorr¨aume von V und somit nie die leere Menge. Insbesondere ist der Kern von Φ als Urbild der 0 ∈ W ein Untervek-torraum von V. Die lineare Abbildung Φ ist genau dann injektiv, wenn ker Φ ={0}
gilt.
- Urbilder affiner Unterr¨aume sind affine Unterr¨aume oder die leere Menge.
- Der Raum HomK(V, W) der K-linearen Abbildungen ist ein K-Vektorraum der Di-mension dimKV ·dimKW.
- Den Homomorphiesatz 3.4.3: f¨ur eine lineare Abbildung Φ : V → W erhalten wir einen Isomorphismus V /ker Φ →∼ Im Φ. Hieraus folgt insbesondere die Dimensions-formel 3.1.7:
dimKV −dimKker Φ = dimKIm Φ = rg Φ.
5. Explizite Beschreibung von linearen Abbildungen Φ : V → W f¨ur endlich-dimensionale Vektorr¨aume:
- Situation:
dimKV <∞ A= (v1, . . . vn) geordnete Basis von V dimKW <∞ B= (w1, . . . wm) geordnete Basis von W
- Jede geordnete Basis A von V gibt einen Isomorphismus vom Standardvektorraum Kn mit Standardbasis auf V:
ΦA : Kn→V mit ΦA(ei) =vi. - Die darstellenden Matrizen geben Isomorphismen
MBA: HomK(V, W)→M(m×n, K)
von K Vektorr¨aumen (mit Multiplikationen, wo diese definiert sind).
- Ein Basiswechsel wird durch invertierbare Transformationsmatrizen TAA0 =MAA0(idV)
beschrieben. F¨ur lineare Abbildungen gilt die Transformationsformel 3.7.5 MBA00(Φ) =TBB0 ·MBA(Φ)·
TAA0
−1
.
- Zwei (nicht notwendigerweise quadratische) Matrizen X, Y heißen ¨aquivalent, wenn es invertible (und damit quadratische) Matrizen S, T gibt mit Y = SXT−1. Jede MatrixA ist ¨aquivalent zu einer Matrix der Form
Er 0 0 0
mit r= rg (A). Zeilenrang und Spaltenrang einer Matrix sind gleich.
- Zwei quadratische Matrizen X, Y heißen ¨ahnlich, wenn es eine invertible Matrix S gibt mit Y =SXS−1.
6. Aus den entwickelten Begriffen folgt eine Theorie f¨ur die L¨osungsmenge Lsg(A, b) eines inhomogenen linearen Gleichungssystems:
- Lsg(A, b) = ∅ genau dann, wenn b 6∈ ImA, was genau dann gilt, wenn rg (A, b) = rg (A) + 1.
- Lsg(A, b) ist entweder leer oder affiner Unterraum der Dimension n − rgA. Man erh¨alt alle L¨osungen des inhomogenen linearen Gleichungssystems, indem man zu einer speziellen L¨osung alle L¨osungen des zugeh¨origen homogenen Gleichungssystems addiert.x
- Der Gauß’sche Algorithmus erlaubt es, lineare Gleichungssysteme systematisch zu l¨osen.
4 Determinanten
4.1 Das Vektorprodukt auf R
3Definition 4.1.1 Die Abbildung
R3×R3 → R3
(v, w) 7→ v×w:=
v2w3−v3w2
v3w1−v1w3 v1w2−v2w1
heißt Vektorprodukt.
Das Vektorprodukt kann nur f¨ur drei-dimensionale Vektorr¨aume mit Wahl einer geordneten Basis (eigentlich: Wahl einer euklidischen Struktur mit Orientierung) definiert werden; mathe-matisch sinnvoll ist es nur im Fall reeller drei-dimensionaler Vektorr¨aume mit Basis, auf den wir uns in diesem Unterkapitel beschr¨anken. Das Vektorprodukt wird von vielen Anwendern (Ingenieure, Physiker,. . . ) gerne benutzt.
Lemma 4.1.2.
Zusammen mit dem schon behandelten Skalarprodukt
hv, wi:=v1w1+v2w2 +v3w3
erf¨ullt das Vektorprodukt f¨ur alleu, v, u0, v0 ∈R3 und α, β ∈R die folgenden Identit¨aten:
1. Bilinearit¨at
(αv+βv0)×w=α(v×w) +β(v0×w) v×(αw+βw0) =α(v×w) +β(v ×w0)
2. Antisymmetrie
v×w=−w×v 3. Grassmann–Identit¨at
u×(v×w) =hu, wiv− hu, viw . 4. Jacobi-Identit¨at
u×(v×w) +v×(w×u) +w×(u×v) = 0 5. hu×v, wi=hu, v×wi
Beweis.
1.–3. durch einfaches Nachrechnen, ebenso 5. Wir zeigen, wie 4. aus 3. folgt:
u×(v×w) +v×(w×u) +w×(u×v)
=3. hu, wiv− hu, viw+hv, uiw− hv, wiu+hw, viu− hw, uiv = 0
Lemma 4.1.3 (Versch¨arfung der Cauchy–Schwarz’schen Ungleichung f¨ur den R3).
F¨ur allev, w∈R3 gilt
hv, wi2 +kv×wk2 =kvk2· kwk2 . Beweis.
Wir rechnen:
kv×wk2 =hv×w, v×wi
=hv, w×(v×w)i [wegen Lemma 4.1.2.5]
=hv,hw, wiv− hw, viwi [wegen Lemma 4.1.2.3]
=kwk2 kvk2− hv, wi2 .
Betrachtung 4.1.4.
• Aus der Antisymmetrie, Lemma 4.1.2.2, folgt v ×v = −v ×v = 0. Aus Lemma 4.1.2.5 folgt daher
hv, v×wi=hv×v, wi= 0 ,
also v⊥(v×w). ¨Ahnlich folgt auch w⊥(v×w). Der Vektor v×w steht also auf v und w senkrecht.
• Wir wollen auch die L¨ange des Vektors v×w berechnen. Mit Lemma 4.1.3 folgt:
kv×wk2 =kvk2kwk2 − hv, wi2
=kvk2kwk2(1−cos2α)
=kvk2kwk2sin2α .
kv×wk ist daher der Fl¨acheninhalt des von v, waufgespannten Parallelogramms:
w
v α
kwksinα
• Damit kennen wir L¨ange und Richtung des Vektorsv×w. Seine Orientierung wird durch die sogenannte “rechte Hand–Regel” angegeben: zeigt der Damen der rechten Hand in Richtung von v und der Zeigefinger in Richtung von w, so zeigt der Mittelfinger in Rich-tung vonv×w. Dies macht das Beispielv =e1 undw=e2 mit Vektorproduktv×w=e3 deutlich.
v v×w
w
Definition 4.1.5
Sei (b1, b2, b3) eine Basis von R3. Sei p∈R3. Dann heißt dieTeilmenge P ={p+αb1+βb2+γb3|0≤α, β, γ ≤1} ⊂ R3 das von b1, b2 und b3 aufgespannte Parallelotop oder Spat.
b1 b3
p
Satz 4.1.6.
Das Volumen des von den drei Vektoren b1, b2, b3 ∈R3 aufgespannten Spats ist vol(P) = |hb1×b2, b3i| .
Deshalb heißt das Vektorprodukt auch Spatprodukt.
Beweis.
Das Volumen ist bekanntermaßen “Grundfl¨ache mal H¨ohe”. Der Einheitsvektor n:= b1×b2
kb1×b2k
steht senkrecht auf den beiden Vektoren b1 und b2, die die Grundfl¨ache aufspannen. Die H¨ohe des Spats ist daher
h =|hn, b3i|
Wir erhalten
V =F ·h 4.1.4= kb1×b2k ·h=|hb1×b2, b3i|.