Teil 5
Lineare Algebra
5.1 Gruppen und K¨ orper
Gruppe
Menge G mit bin¨arer Operation : G × G 7−→ G
• Assoziativit¨at: (a b) c = a (b c)
• Neutrales Element: ∃ ! e ∈ G: e a = a e = a
• Inverses Element: a a − 1 = a − 1 a = e kommutativ oder abelsch ⇔ a b = b a Untergruppe
Teilmenge U einer Gruppe G
abgeschlossen unter der Gruppenoperation von G, d.h.
a, b ∈ U = ⇒ a b ∈ U, a ∈ U = ⇒ a − 1 ∈ U
Permutationen und symmetrische Gruppe Gruppe S n der Bijektionen auf { 1, 2, . . . , n }
π =
1 2 3 . . . n
π(1) π(2) π(3) . . . π(n)
n! Elemente
Zyklenschreibweise von Permutationen
Zyklus: Bilder eines Elementes bei mehrfacher Ausf¨uhrung der Permutation Zerlegung von π ∈ S n , z.B.
π =
1 2 3 4 5 6 4 3 2 6 5 1
≡ (1 4 6) (2 3) (5) bzw. π = (1 4 6) (2 3)
Transposition und Signum einer Permutation τ = (j k): Vertauschung von j und k
Produktdarstellung von Permutationen
π = τ 1 ◦ · · · ◦ τ m
Vorzeichen (Signum) einer Permutation: σ(π) = ( − 1) m
K¨ orper
Menge K , auf der eine Addition + und eine Multiplikation · definiert sind
• (K, +): abelsche Gruppe mit neutralem Element 0
a + b = b + a (a + b) + c = a + (b + c)
a + 0 = a a + ( − a) = 0
• (K \{ 0 } , · ): abelsche Gruppe mit neutralem Element 1 a · b = b · a (a · b) · c = a · (b · c)
a · 1 = a a · a − 1 = 1
• Distributivgesetz: a · (b + c) = a · b + a · c
Primk¨ orper
Z p = { 0, 1, . . . , p − 1 } , p : Primzahl K¨orper unter Addition und Multiplikation modulo p
Chinesischer Restsatz
Kongruenzen
x = a 1 mod p 1
. . .
x = a n mod p n
eindeutige L¨osung x ∈ { 0, . . . , P − 1 } , P = p 1 · · · p n , f¨ur teilerfremde Zahlen p 1 , . . . , p n
x = X n k=1
a k Q k (P/p k ) mod P, Q k (P/p k ) = 1 mod p k
5.2 Vektorr¨ aume
Vektorraum
abelsche Gruppe (V, +), auf der eine Skalarmultiplikation · mit Elementen aus einem K¨orper K mit den folgenden Eigenschaften definiert ist
(λ 1 + λ 2 ) · v = λ 1 · v + λ 2 · v λ · (v 1 + v 2 ) = λ · v 1 + λ · v 2
(λ 1 · λ 2 ) · v = λ 1 · (λ 2 · v) 1 · v = v
Vektorraum der n-Tupel
K n : a =
a 1
...
a n
= (a 1 , . . . , a n ) t , a i ∈ K
komponentenweise definierte Addition und Skalarmultiplikation
a 1
...
a n
+
b 1
...
b n
=
a 1 + b 1
...
a n + b n
, λ ·
a 1
...
a n
=
λ · a 1
...
λ · a n
R n ( C n ): n-Tupel reeller (komplexer) Zahlen Unterraum
Teilmenge U eines K -Vektorraums V , die bzgl. der Addition und Skalarmultiplikation abgeschlossen ist:
u, v ∈ U = ⇒ u + v ∈ U λ ∈ K, u ∈ U = ⇒ λ · u ∈ U
Linearkombination
λ 1 · v 1 + λ 2 · v 2 + · · · + λ m · v m = X m
i=1
λ i · v i
lineare H¨ulle span(U ): Menge aller Linearkombinationen von Elementen aus U
Konvexkombination
λ 1 v 1 + λ 2 v 2 + · · · + λ m v m , λ i ≥ 0, X
i
λ i = 1 konvexe H¨ulle conv(U ): Menge aller Konvexkombinationen von Vektoren aus U Lineare Unabh¨ angigkeit
linear unabh¨angig:
α 1 v 1 + · · · + α m v m = 0 = ⇒ α 1 = · · · = α n = 0 linear abh¨angig:
∃ (α 1 , . . . , α n ) 6 = 0 : α 1 v 1 + · · · + α m v m = 0 (nicht-triviale Darstellung des Nullvektors)
Basis
B = { b 1 , b 2 , . . . } ⊂ V Basis ⇔
eindeutige Darstellbarkeit der Vektoren v des Vektorraums V als Linearkombination v = X
k
λ k b k
⇔ b k linear unabh¨angig und span(b 1 , b 2 , . . .) = V
Dimension: dim V = | B |
5.3 Skalarprodukt und Norm
Reelles Skalarprodukt
Bilinearform h· , ·i : V × V → R auf einem reellen Vektorraum V mit folgenden Eigenschaften
• Positivit¨at:
h v, v i > 0 f¨ur v 6 = 0
• Symmetrie:
h u, v i = h v, u i
• Linearit¨at:
h λu + %v, w i = λ h u, w i + % h v, w i
Komplexes Skalarprodukt
Abbildung h· , ·i : V × V → C auf einem komplexen Vektroraum V mit folgenden Eigenschaften
• Positivit¨at:
h v, v i > 0 f¨ur v 6 = 0
• Schiefsymmetrie:
h u, v i = h v, u i
• Linearit¨at:
h λu + %v, w i = λ h u, w i + % h v, w i
Euklidisches Skalarprodukt
y ∗ x = x 1 y ¯ 1 + · · · + x n y ¯ n
assoziierte Norm
| z | = p
| z 1 | 2 + · · · + | z n | 2
Cauchy-Schwarz-Ungleichung
|h u, v i| ≤ | u || v | , | w | = p h w, w i Gleichheit genau dann wenn u k v
bei reellem Skalarprodukt Definition eines Winkels α ∈ [0, π] via cos α = h u, v i
| u || v |
Norm
Abbildung k · k : V → R mit den folgenden Eigenschaften
• Positivit¨at:
k v k > 0 f¨ur v 6 = 0
• Homogenit¨at:
k λv k = | λ |k v k
• Dreiecksungleichung:
k u + v k ≤ k u k + k v k Norm, assoziiert mit einem Skalarprodukt
| u | = p h u, v i
Orthogonale Basis
h u i , u j i = 0, i 6 = j orthonormal, falls | u k | = 1
eindeutige Darstellung
v = X n k=1
c k u k , c k = h v, u k i
| u k | 2 Norm: | v | 2 = | c 1 | 2 | u 1 | 2 + · · · + | c n | 2 | u n | 2
Orthogonale Projektion
Abbildung auf einen Unterraum U eines Vektorraums V
v 7→ P U (v) ∈ U ⊂ V, h v − P U (v), u i = 0 ∀ u ∈ U u 1 , . . . , u k orthogonale Basis von U = ⇒
P U (v) = X j k=1
h v, u k i h u k , u k i u k
Verfahren von Gram-Schmidt
induktive Orthogonalisierung einer Basis b 1 , . . . , b n
u j = b j − X
k<j
h b j , u k i
h u k , u k i u k , j = 1, . . . , n
|h u k , u k i| = 1 bei Normierung, u j ← u j / | u j | , nach jedem Schritt
5.4 Lineare Abbildungen
Lineare Abbildung
Abbildung L : V → W zwischen Vektorr¨aumen
• additiv:
L(u + v) = L(u) + L(v)
• homogen:
L(λv) = λL(v)
insbesondere: L(0 V ) = 0 W , L( − v) = − L(v) Komposition linearer Abbildungen
Hintereinanderausf¨uhrung linearer Abbildungen S : U → V , T : V → W lineare Abbildung
T ◦ S : U → W, (T ◦ S)(u) = T (S(u)) Matrix
Rechteckschema mit m Zeilen und n Spalten
A = (a ij ) =
a 11 a 12 · · · a 1n
a 21 a 22 · · · a 2n
... ... ...
a m1 a m2 · · · a mn
komponentenweise Definition von Operationen
C = A ± B ⇔ c ij = a ij ± b ij , B = λA ⇔ b ij = λa ij
Matrix einer linearen Abbildung
lineare Abbildung L : V 7−→ W zwischen Vektorr¨aumen mit Basen E = { e 1 , . . . , e n } und F = { f 1 , . . . , f m } eindeutig bestimmt durch die Bilder der Basisvektoren
L(e j ) = a 1,j f 1 + · · · + a m,j f m
lineare Abbildung der Koordinaten
w F = Av E ⇔ w i = X n
j=1
a i,j v j , i = 1, . . . , m Affine Abbildung
affine Abbildung f : R n → R m :
f (x) = Ax + v v: Bild des Nullvektors
A: m × n-Matrix mit Spalten a 1:m,k = f (e k ) − v
Basiswechsel
Transformation der Koordinaten bei einem Basiswechsel E → E 0 v E
0= Av E , e k = X
j
a jk e 0 j
Bild und Kern
lineare Abbildung L : V → W
Kern L = { v ∈ V : L(v) = 0 } ⊆ V
Bild L = { w ∈ W : ∃ v ∈ V mit L(v) = w } ⊆ W dim V < ∞ = ⇒
dim V = dim Kern(L) + dim Bild(L) Inverse Abbildung
L : V → W injektiv ⇔ Kern L = 0 V lineare Umkehrabbildung
w 7→ v, w = L(v)
5.5 Matrizrechnung
Matrix-Multiplikation
A : m × n, B : n × ` C : m × `
C = AB, c ik = X n
j=1
a ij b jk , 1 ≤ i ≤ m, 1 ≤ k ≤ ` Komposition der linearen Abbildungen u 7→ v = Bu, v 7→ w = Av
i.a. nicht kommutativ Inverse Matrix
AA − 1 = A − 1 A = E Invertierung von Matrixprodukten: (AB) −1 = B −1 A −1
Transponierte, adjungierte, symmetrische und hermitesche Matrix transponierte Matrix
B = A t ⇔ b i,j = a j,i
symmetrisch: A = A t adjungierte Matrix
C = A ∗ = ¯ A t ⇔ c i,j = ¯ a j,i
selbst-adjungiert oder Hermitesch: A = A ∗ Regeln
(AB) t = B t A t und (AB) ∗ = B ∗ A ∗ , (A t ) − 1 = (A − 1 ) t und (A ∗ ) − 1 = (A − 1 ) ∗ Spur einer Matrix
Spur(A) = X n k=1
a kk
Regeln
Spur(AB) = Spur(BA), Spur(T − 1 AT ) = Spur(A)
Rang einer Matrix
maximale Anzahl linear unabh¨angiger Spalten bzw. Zeilen
Matrix-Norm zugeordnet
k A k = sup
x 6 =0
k Ax k
k x k = max
k x k =1 k Ax k submultiplikativ, d.h. k AB k ≤ k A kk B k
euklische Norm
k A k 2 = max { √
λ : A ∗ Av = λv } Zeilensummennorm
k A k ∞ = max
j
X
k
| a jk |
Orthogonale und unit¨ are Matrix
unit¨ar: Spalten bilden orthonormale Basis
A − 1 = A t = A ∗ orthogonal: Spezialfall reeller Matrizen, A −1 = A t
Invarianz der euklidischen Norm: | Av | = | v | Normale Matrizen
A normal ⇔ AA ∗ = A ∗ A, A ∗ = ¯ A t bzw. AA t = A t A f¨ur reelles A
unit¨ar, hermitesch, orthogonal oder symmetrisch = ⇒ normal Zyklische Matrizen
generiert durch zyklisches Verschieben der ersten Spalte
a 0 a n−1 a n−2 . . . a 1 a 0 a n − 1 . . . a 2 a 1 a 0 . . .
... ... ...
zyklische Struktur kompatibel mit Matrixmultiplikation Positiv definite Matrix
v ∗ Av > 0 ∀ v 6 = 0
positive Diagonalelemente und Eigenwerte, positiv definite Inverse
semidefinit, falls v ∗ Av ≥ 0
5.6 Determinanten
Determinante
Schreibweisen
det A = det(a 1 , . . . , a n ) = | A | =
a 11 · · · a 1n
... ...
a n1 · · · a nn
mit a k den Spalten von A
definierende Eigenschaften
• Multilineari¨at:
det(. . . , αa j + βb j , . . .) = α det(. . . , a j , . . .) + β det(. . . , b j , . . .)
• Antisymmetrie:
det(. . . , a j , . . . , a k , . . .) = − det(. . . , a k , . . . , a j , . . .)
• Normierung:
det(e 1 , . . . , e n ) = 1 , (e k ) ` = δ k`
f¨ur die Einheitsvektoren e k
Entwicklung als Summe n-facher Produkte
det A = X
i ∈ S
nσ(i) a i
1,1 · · · a i
n,n
mit σ(i) dem Vorzeichen der Permutation (i 1 , . . . , i n ) Determinante als Volumen
Volumen des von a 1 , . . . , a n aufgespannten Spats
| det A | = vol ( n
X
i=1
α i a i : 0 ≤ α i ≤ 1 )
= vol (A[0, 1] n )
Determinanten spezieller Matrizen
• Dreiecksmatrix: a ij = 0 f¨ur i < j oder i > j = ⇒
det A = a 11 · · · a nn
• Blockdiagonalmatrix: Blockstruktur mit A ij = 0, i 6 = j, und quadratischen Diagonalbl¨ocken A ii = ⇒ det A =
Y k i=1
det A ii
• Orthogonale und unit¨are Matrizen:
| det U | = 1
Eigenschaften von Determinanten
det A
• invariant bei Addition eines Vielfachen einer Spalte (Zeile) zu einer anderen Spalte (Zeile)
• null bei zwei gleichen Spalten (Zeilen)
• Vorzeichen¨anderung bei Vertauschung von Spalten (Zeilen) sukzessive Transformation auf Dreiecksform
Regeln
detA = detA t , det(A -1 ) = (detA) −1 , det(AB) = (detA)(detB)
Entwicklungssatz f¨ ur Determinanten
det A = P n j=1
( − 1) k+j a kj det ˜ A kj (Entwicklung nach Zeile k)
= P n i=1
( − 1) i+` a i` det ˜ A i` (Entwicklung nach Spalte l)
mit ˜ A ij der Matrix, die durch Streichen der i-ten Zeile j -ten Spalte entsteht
5.7 Lineare Gleichungssysteme und Ausgleichsprobleme
Lineares Gleichungssystem
a 1,1 x 1 + · · · + a 1,n x n = b 1
... ... ... ... ... ...
a m,1 x 1 + · · · + a m,n x n = b m
⇔ Ax = b
homogen (inhomogen): b = 0 (b 6 = 0)
uberbestimmt, falls unl¨osbar (im Allgemeinen f¨ur ¨ m > n)
unterbestimmt, falls keine eindeutige L¨osung (im Allgemeinen f¨ur m < n) L¨ osungsmenge eines linearen Gleichungssystems
Ax = a 1 x 1 + · · · a n x n = b ∈ R m mit a k den Spalten von A
(i) homogenenes System (b = 0):
immer l¨osbar, linearer L¨osungsraum Kern A
eindeutige L¨osung x = 0, falls a k linear unabh¨angig (ii) inhomogenes System (b 6 = 0):
l¨osbar genau dann wenn b ∈ Bild A (b als Linearkombination von a k darstellbar) affiner L¨osungsraum
x ∗ + Kern A mit einer speziellen L¨osung x ∗
eindeutig, falls Kern A = 0 Cramersche Regel
Ax = b ⇔ x i det A = det(a 1 , . . . , a i−1 , b, a i+1 , . . . , a n ) mit a k den Spalten der quadratischen Matrix A
eindeutige L¨osung f¨ur belibieges b, falls det A 6 = 0
b = e j (Einheitsvektoren) Koeffizienten der Inversen C = A − 1
c i,j = det(a 1 , . . . , a i − 1 , e j , a i+1 , . . . , a n )
det A
R¨ uckw¨ arts-Einsetzen
r 1,1 · · · r 1,n
. .. ...
0 r n,n
x 1
...
x n
=
b 1
...
b n
sukzessive Berechnung der Unbekannten
x ` = (b ` − r `,`+1 x `+1 − · · · − r `,n x n ) /r `,` , ` = n, . . . , 1
Gauß-Elimination
Transformation auf obere Dreiecksform nach ` − 1 Schritten
a 1,1 x 1 + a 1,2 x 2 + . . . + a 1,` x ` + . . . + a 1,n x n = b 1
a 2,2 x 2 + . . . + a 2,` x ` + . . . + a 2,n x n = b 2
... ... ...
a `,` x ` + . . . + a `,n x n = b `
a `+1,` x ` + . . . + a `+1,n x n = b `+1
... ... ...
a n,` x ` + . . . + a n,n x n = b n
`-ter Eliminationsschritt
• evtl. Vertauschung von Zeilen, so dass a `,` 6 = 0
• Subtraktion von Vielfachen der `-ten Zeile:
f¨ur i > ` und j ≥ `
a i,j ← a i,j − q i a `,j , b i ← b i − q i b ` (q i = a i,` /a `,` ) Nullen unterhalb von a ``
Zeilenstufenform eines Gleichungssystems
Ax = b ⇔
0...0 p 1 ∗ ... ∗
0 0...0 p 2 ∗ ... ∗
0 0...0 p 3 ∗ ...
. ..
x 1
...
x n
=
c 1
...
c m
mit Pivots p 1 , . . . , p k 6 = 0, k = Rang A
sukzessive Umformung analog zur Gauß-Elimination
L¨ osung eines linearen Gleichungssystems in Zeilenstufenform
0 . . . 0 p 1 ∗ . . . ∗
0 0 . . . 0 p 2 ∗ . . . ∗
0 0 . . . 0 p 3 ∗ . . . ∗ . ..
x 1
...
x n
=
c 1
...
c m
mit Pivots p 1 , . . . , p k 6 = 0
l¨osbar genau dann wenn c k+1 = · · · = c m = 0 (i) k = n eindeutige L¨osung
(ii) k < n n − k linear unabh¨angige L¨osungen des homogenen linearen Gleichungssystems (c i = 0)
Unbekannte, die den Spalten ohne Pivots entsprechen, frei w¨ahlbar
5.8 Eigenwerte, Normalformen und Singul¨ arwertzerlegung
Eigenwert, Eigenvektor und Eigenraum
Eigenvektor v zum Eigenwert λ einer quadratischen Matrix A Av = λv, v 6 = 0 Eigenraum: V λ = Kern(A − λE)
Ahnlichkeitstransformation ¨ Basiswechsel
A → B = Q −1 AQ erh¨alt Eigenwerte
v Eigenvektor von A ⇔ w = Q − 1 v Eigenvektor von B Charakteristisches Polynom
p A (λ) = det(A − λE) =
a 11 − λ a 12 . . . a 1n a 21 a 22 − λ . . . a 2n
... ... . .. ...
a n1 a n2 . . . a nn − λ
= (λ 1 − λ) · · · (λ n − λ) Eigenwerte λ k : Nullstellen von p A
X n k=1
λ k = Spur A, Y n k=1
λ k = det A
Eigenvektoren v: nicht-triviale L¨osungen des homogenen linearen Gleichungssystems (A − λE)v = 0
Konstruktion einer Basis f¨ur den Eigenraum V λ = Kern(A − λE) durch Transformation auf Zeilenstufen- form
Algebraische und geometrische Vielfachheit
algebraische Vielfachheit m λ : Ordnung der Nullstelle des charakteristischen Polynoms p A (λ) = det(A − λE n )
geometrische Vielfachheit d λ : Dimension des Eigenraums V λ = Kern(A − λE n ) Beziehungen zwischen m und d
d λ ≤ m λ , X
λ
m λ = n, d λ = n − Rang(A − λE )
Summe und Produkt von Eigenwerten
X n k=1
λ k = Spur A, Y n k=1
λ k = det A mehrfache Eigenwerte entsprechend ihrer algebraischen Vielfachheit gez¨ahlt Basis aus Eigenvektoren
Basis aus Eigenvektoren v k mit Eigenwerten λ k zu A Diagonalisierung
V − 1 AV = diag(λ 1 , . . . , λ n ), V = (v 1 , . . . , v n )
5.9 Normalformen
Diagonalisierung zyklischer Matrizen Eigenvektoren: Spalten der Fourier-Matrix
W = (w jk ) j,k=0,...,n−1 , w = exp(2πi/n) Diagonalform
1 n W
a 0 a n−1 · · · a 1
a 1 a 0 · · · a 2
... . .. ...
a n − 1 a n − 2 · · · a 0
W =
λ 1 · · · 0 ... ... ...
0 · · · λ n
mit den Eigenwerten
λ ` =
n − 1
X
k=0
a k w − k` , ` = 0, . . . , n − 1 Unit¨ are Diagonalisierung
A normal, d.h. A ∗ A = AA ∗ ⇔
U − 1 AU = diag(λ 1 , . . . , λ n )
mit einer unit¨aren Matrix U (Spalten: orthonormale Basis aus Eigenvektoren) Diagonalisierung hermitescher Matrizen
A = A ∗ = ⇒ reelle Eigenwerte und Orthonormalbasis aus Eigenvektoren u k
U ∗ AU = diag(λ 1 , . . . , λ n ), U = (u 1 , . . . , u n ) hermitesch ⇔ symmetrisch f¨ur reelle Matrizen
Rayleigh-Quotient
S hermitesch positiv definit = ⇒
r S (x) = x ∗ Sx
x ∗ x , x 6 = 0 f¨ur kleinsten und gr¨oßten Eigenwert extremal
Jordan-Form
Ahnlichkeitstranformation auf die Blockdiagonalform ¨
J =
J 1 0
. ..
0 J k
= Q − 1 AQ, J i =
λ i 1 0
0 λ i 1 . .. ...
λ i 1
0 λ i
mit λ i den Eigenwerten von A
Dominanter Eigenwert
λ betragsm¨aßig gr¨oßter Eigenwert von A mit Eigenvektor v = ⇒ A n x = λ n (cv + o(1)), n → ∞ , falls x eine nichttriviale Komponente im Eigenraum von λ hat Konvergenz von Matrix-Potenzen
A n → 0 ⇔ | λ k | < 1 ∀ k
A n beschr¨ankt ⇔ | λ k | ≤ 1 ∀ k und | λ k | = 1 nur f¨ur Eigenwerte mit gleicher algebraischer und geome- trischer Vielfachheit
Divergenz von A n in allen anderen F¨allen
5.10 Ausgleichsprobleme
Ausgleichsgerade
lineare Approximation von Daten (t k , f k ) durch Minimierung der Fehlerquadratsumme X n
k=1
(f k − p(t k )) 2 , p(t) = u + vt
eindeutig l¨osbar bei mindestens zwei verschiedenen Abszissen t i
u = ( P t 2 i )( P
f i ) − ( P t i )( P
t i f i ) n( P
t 2 i ) − ( P
t i ) 2 , v = n( P
t i f i ) − ( P t i )( P
f i ) n( P
t 2 i ) − ( P t i ) 2
Normalengleichungen
| Ax − b | → min ⇔ A t Ax = A t b eindeutige L¨osung x, falls die Spalten von A linear unabh¨angig sind Singul¨ arwert-Zerlegung
U ∗ AV = S =
s 1 0
s 2 0 . ..
, s 1 ≥ · · · ≥ s k > s k+1 = · · · = 0 mit k = Rang A
singul¨are Werte s j : Wurzeln der Eigenwerte von A ∗ A
Spalten u j von U und v j von V : orthonormale Basen aus Eigenvektoren von AA ∗ bzw. A ∗ A
Av j = s j u j , Ax = X k
i=1
s i (v ∗ i x)u i
Pseudo-Inverse
A + = V S + U ∗ , S + = diag(1/s 1 , . . . , 1/s k , 0, . . . , 0) mit s i > 0 den Singul¨arwerten von A
x = A + b: Minimum-Norm-L¨osung des Ausgleichsproblems | Ax − b | → min
5.11 Orthogonale Transformationen und Quadriken
Spiegelung
(orthogonale) Spiegelungsmatrix
Q = E − 2
| d | 2 dd t mit d einem Normalenvektor der Spiegelungsebene
Drehung
Drehung um den Winkel ϕ in der x i x j -Ebene Drehmatrix Q i,j
Zeile i →
Zeile j →
1 0
. ..
c − s
. ..
s c
. ..
0 1
mit c = cos ϕ und s = sin ϕ Q orthogonal, det Q = 1 = ⇒
Q = Y
i<j
Q i,j
Drehung im Raum
x 7→ Qx = cos ϕ x + (1 − cos ϕ)uu t x + sin ϕ u × x
mit normierter Drehachsenrichtung u, Drehwinkel ϕ (orientiert wie eine Rechtsschraube) und × dem Kreuzprodukt
Qu = u, cos ϕ = (Spur Q − 1)/2 entsprechende Drehmatrix
Q : q ik = cos ϕ δ ik + (1 − cos ϕ) u i u k + sin ϕ X
j
ε ijk u j
Drehachse und Drehwinkel
Jede Drehung Q im R 3 besitzt eine Drehachse, d.h. l¨asst einen Einheitsvektor u invariant, und entspricht einer ebenen Drehung um einen Winkel ϕ in der zu u orthogonalen Ebene.
Bez¨uglich eines orthonormalen Rechtssystems u, v, w besitzt Q die Matrixdarstellung
Q ˜ =
1 0 0
0 cos ϕ − sin ϕ 0 sin ϕ cos ϕ
.
Insbesondere gilt f¨ur den Drehwinkel
cos ϕ = 1
2 (Spur Q − 1) .
Quadrik
Q : x t Ax + 2b t x + c = 0 homogene Form: Q : ˜ x t A˜ ˜ x = 0 mit
A ˜ =
c b t b A
, x ˜ t = (1, x 1 , . . . , x n )
Klassifizierung
• kegelige Quadrik: Rang ˜ A = Rang A
• Mittelpunktsquadrik: Rang ˜ A = Rang A + 1
• parabolische Quadrik: Rang ˜ A = Rang A + 2
Hauptachsentransformation
Drehung und Verschiebung Normalform x t Ax + 2b t x + c =
X m i=1
λ i w 2 i + 2βw m+1 + γ , x = U w + v mit m = Rang A und βγ = 0
Spalten der Drehmatrix U : Eigenvektoren u i (Hauptachsen) zu den Eigenwerten λ i von A
Verschiebungsvektor v: Mittelpunkt der Quadrik
Kegelschnitt
Doppel-Kegel mit Spitze p (p 3 6 = 0), Richtung v und ¨ Offnungswinkel α K : (x − p) t v = ± cos α
2 | x − p || v | Schnitt mit der Ebene E : x 3 = 0 ebene Quadrik
Typ bestimmt durch Winkel β der Achse mit der Ebene E
Ellipse: β > α/2 Parabel: β = α/2 Hyperbel: β < α/2
Euklidische Normalformen der zweidimensionalen Quadriken
• Kegelige Quadriken
Normalform Bezeichnung
x
21a
21+ x a
2222
= 0 Punkt
x
21a
21− x a
2222
= 0 schneidendes Geradenpaar
x
21a
21= 0 Doppelgerade
• Mittelpunktsquadriken
Normalform Bezeichnung
x
21a
21+ x a
2222
+ 1 = 0 (leere Menge)
x
21a
21− x a
2222
+ 1 = 0 Hyperbel
− x a
2121
− x a
2222
+ 1 = 0 Ellipse
x
21a
21+ 1 = 0 (leere Menge)
− x a
2121
+ 1 = 0 paralleles Geradenpaar
• Parabolische Quadriken Normalform Bezeichnung
x
21a
21+ 2x 2 = 0 Parabel
Euklidische Normalformen der dreidimensionalen Quadriken
• Kegelige Quadriken
Normalform Bezeichnung
x
21a
21+ x a
2222
+ x a
2323
= 0 Punkt
x
21a
21+ x a
2222
− x a
2323
= 0 (Doppel-)Kegel
x
21a
21+ x a
2222
= 0 Gerade
x
21a
21− x a
2222
= 0 schneidende Ebenen
x
21a
21= 0 Doppelebene
• Mittelpunktsquadriken
Normalform Bezeichnung
x
21a
21+ x a
2222
+ x a
2323
+ 1 = 0 (leere Menge)
x
21a
21+ x a
2222
− x a
2323+ 1 = 0 zweischaliges Hyperboloid
x
21a
21− x a
2222
− x a
2323
+ 1 = 0 einschaliges Hyperboloid
− x a
2121
− x a
2222
− x a
2323
+ 1 = 0 Ellipsoid
x
21a
21+ x a
2222
+ 1 = 0 (leere Menge)
x
21a
21− x a
2222
+ 1 = 0 hyperbolischer Zylinder
− x a
2121
− x a
2222
+ 1 = 0 elliptischer Zylinder
x
21a
21+ 1 = 0 (leere Menge)
− x a
2121
+ 1 = 0 parallele Ebenen
• Parabolische Quadriken
Normalform Bezeichnung
x
21a
21+ x a
2222
+ 2x 3 = 0 elliptisches Paraboloid
x
21a
21− x a
2222