• Keine Ergebnisse gefunden

Teil 5 Lineare Algebra

N/A
N/A
Protected

Academic year: 2021

Aktie "Teil 5 Lineare Algebra"

Copied!
27
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Teil 5

Lineare Algebra

(2)
(3)

5.1 Gruppen und K¨ orper

Gruppe

Menge G mit bin¨arer Operation : G × G 7−→ G

• Assoziativit¨at: (a b) c = a (b c)

• Neutrales Element: ∃ ! e ∈ G: e a = a e = a

• Inverses Element: a a 1 = a 1 a = e kommutativ oder abelsch ⇔ a b = b a Untergruppe

Teilmenge U einer Gruppe G

abgeschlossen unter der Gruppenoperation von G, d.h.

a, b ∈ U = ⇒ a b ∈ U, a ∈ U = ⇒ a 1 ∈ U

Permutationen und symmetrische Gruppe Gruppe S n der Bijektionen auf { 1, 2, . . . , n }

π =

 1 2 3 . . . n

π(1) π(2) π(3) . . . π(n)

n! Elemente

Zyklenschreibweise von Permutationen

Zyklus: Bilder eines Elementes bei mehrfacher Ausf¨uhrung der Permutation Zerlegung von π ∈ S n , z.B.

π =

 1 2 3 4 5 6 4 3 2 6 5 1

 ≡ (1 4 6) (2 3) (5) bzw. π = (1 4 6) (2 3)

Transposition und Signum einer Permutation τ = (j k): Vertauschung von j und k

Produktdarstellung von Permutationen

π = τ 1 ◦ · · · ◦ τ m

Vorzeichen (Signum) einer Permutation: σ(π) = ( − 1) m

(4)

K¨ orper

Menge K , auf der eine Addition + und eine Multiplikation · definiert sind

• (K, +): abelsche Gruppe mit neutralem Element 0

a + b = b + a (a + b) + c = a + (b + c)

a + 0 = a a + ( − a) = 0

• (K \{ 0 } , · ): abelsche Gruppe mit neutralem Element 1 a · b = b · a (a · b) · c = a · (b · c)

a · 1 = a a · a 1 = 1

• Distributivgesetz: a · (b + c) = a · b + a · c

Primk¨ orper

Z p = { 0, 1, . . . , p − 1 } , p : Primzahl K¨orper unter Addition und Multiplikation modulo p

Chinesischer Restsatz

Kongruenzen

x = a 1 mod p 1

. . .

x = a n mod p n

eindeutige L¨osung x ∈ { 0, . . . , P − 1 } , P = p 1 · · · p n , f¨ur teilerfremde Zahlen p 1 , . . . , p n

x = X n k=1

a k Q k (P/p k ) mod P, Q k (P/p k ) = 1 mod p k

(5)

5.2 Vektorr¨ aume

Vektorraum

abelsche Gruppe (V, +), auf der eine Skalarmultiplikation · mit Elementen aus einem K¨orper K mit den folgenden Eigenschaften definiert ist

(λ 1 + λ 2 ) · v = λ 1 · v + λ 2 · v λ · (v 1 + v 2 ) = λ · v 1 + λ · v 2

(λ 1 · λ 2 ) · v = λ 1 · (λ 2 · v) 1 · v = v

Vektorraum der n-Tupel

K n : a =

 

 a 1

...

a n

 

 = (a 1 , . . . , a n ) t , a i ∈ K

komponentenweise definierte Addition und Skalarmultiplikation

 

 a 1

...

a n

 

 +

 

 b 1

...

b n

 

 =

 

a 1 + b 1

...

a n + b n

 

 , λ ·

 

 a 1

...

a n

 

 =

 

 λ · a 1

...

λ · a n

 

R n ( C n ): n-Tupel reeller (komplexer) Zahlen Unterraum

Teilmenge U eines K -Vektorraums V , die bzgl. der Addition und Skalarmultiplikation abgeschlossen ist:

u, v ∈ U = ⇒ u + v ∈ U λ ∈ K, u ∈ U = ⇒ λ · u ∈ U

Linearkombination

λ 1 · v 1 + λ 2 · v 2 + · · · + λ m · v m = X m

i=1

λ i · v i

lineare H¨ulle span(U ): Menge aller Linearkombinationen von Elementen aus U

(6)

Konvexkombination

λ 1 v 1 + λ 2 v 2 + · · · + λ m v m , λ i ≥ 0, X

i

λ i = 1 konvexe H¨ulle conv(U ): Menge aller Konvexkombinationen von Vektoren aus U Lineare Unabh¨ angigkeit

linear unabh¨angig:

α 1 v 1 + · · · + α m v m = 0 = ⇒ α 1 = · · · = α n = 0 linear abh¨angig:

∃ (α 1 , . . . , α n ) 6 = 0 : α 1 v 1 + · · · + α m v m = 0 (nicht-triviale Darstellung des Nullvektors)

Basis

B = { b 1 , b 2 , . . . } ⊂ V Basis ⇔

eindeutige Darstellbarkeit der Vektoren v des Vektorraums V als Linearkombination v = X

k

λ k b k

⇔ b k linear unabh¨angig und span(b 1 , b 2 , . . .) = V

Dimension: dim V = | B |

(7)

5.3 Skalarprodukt und Norm

Reelles Skalarprodukt

Bilinearform h· , ·i : V × V → R auf einem reellen Vektorraum V mit folgenden Eigenschaften

• Positivit¨at:

h v, v i > 0 f¨ur v 6 = 0

• Symmetrie:

h u, v i = h v, u i

• Linearit¨at:

h λu + %v, w i = λ h u, w i + % h v, w i

Komplexes Skalarprodukt

Abbildung h· , ·i : V × V → C auf einem komplexen Vektroraum V mit folgenden Eigenschaften

• Positivit¨at:

h v, v i > 0 f¨ur v 6 = 0

• Schiefsymmetrie:

h u, v i = h v, u i

• Linearit¨at:

h λu + %v, w i = λ h u, w i + % h v, w i

Euklidisches Skalarprodukt

y x = x 1 y ¯ 1 + · · · + x n y ¯ n

assoziierte Norm

| z | = p

| z 1 | 2 + · · · + | z n | 2

Cauchy-Schwarz-Ungleichung

|h u, v i| ≤ | u || v | , | w | = p h w, w i Gleichheit genau dann wenn u k v

bei reellem Skalarprodukt Definition eines Winkels α ∈ [0, π] via cos α = h u, v i

| u || v |

(8)

Norm

Abbildung k · k : V → R mit den folgenden Eigenschaften

• Positivit¨at:

k v k > 0 f¨ur v 6 = 0

• Homogenit¨at:

k λv k = | λ |k v k

• Dreiecksungleichung:

k u + v k ≤ k u k + k v k Norm, assoziiert mit einem Skalarprodukt

| u | = p h u, v i

Orthogonale Basis

h u i , u j i = 0, i 6 = j orthonormal, falls | u k | = 1

eindeutige Darstellung

v = X n k=1

c k u k , c k = h v, u k i

| u k | 2 Norm: | v | 2 = | c 1 | 2 | u 1 | 2 + · · · + | c n | 2 | u n | 2

Orthogonale Projektion

Abbildung auf einen Unterraum U eines Vektorraums V

v 7→ P U (v) ∈ U ⊂ V, h v − P U (v), u i = 0 ∀ u ∈ U u 1 , . . . , u k orthogonale Basis von U = ⇒

P U (v) = X j k=1

h v, u k i h u k , u k i u k

Verfahren von Gram-Schmidt

induktive Orthogonalisierung einer Basis b 1 , . . . , b n

u j = b j − X

k<j

h b j , u k i

h u k , u k i u k , j = 1, . . . , n

|h u k , u k i| = 1 bei Normierung, u j ← u j / | u j | , nach jedem Schritt

(9)

5.4 Lineare Abbildungen

Lineare Abbildung

Abbildung L : V → W zwischen Vektorr¨aumen

• additiv:

L(u + v) = L(u) + L(v)

• homogen:

L(λv) = λL(v)

insbesondere: L(0 V ) = 0 W , L( − v) = − L(v) Komposition linearer Abbildungen

Hintereinanderausf¨uhrung linearer Abbildungen S : U → V , T : V → W lineare Abbildung

T ◦ S : U → W, (T ◦ S)(u) = T (S(u)) Matrix

Rechteckschema mit m Zeilen und n Spalten

A = (a ij ) =

 

 

 

a 11 a 12 · · · a 1n

a 21 a 22 · · · a 2n

... ... ...

a m1 a m2 · · · a mn

 

 

 

komponentenweise Definition von Operationen

C = A ± B ⇔ c ij = a ij ± b ij , B = λA ⇔ b ij = λa ij

Matrix einer linearen Abbildung

lineare Abbildung L : V 7−→ W zwischen Vektorr¨aumen mit Basen E = { e 1 , . . . , e n } und F = { f 1 , . . . , f m } eindeutig bestimmt durch die Bilder der Basisvektoren

L(e j ) = a 1,j f 1 + · · · + a m,j f m

lineare Abbildung der Koordinaten

w F = Av E ⇔ w i = X n

j=1

a i,j v j , i = 1, . . . , m Affine Abbildung

affine Abbildung f : R n → R m :

f (x) = Ax + v v: Bild des Nullvektors

A: m × n-Matrix mit Spalten a 1:m,k = f (e k ) − v

(10)

Basiswechsel

Transformation der Koordinaten bei einem Basiswechsel E → E 0 v E

0

= Av E , e k = X

j

a jk e 0 j

Bild und Kern

lineare Abbildung L : V → W

Kern L = { v ∈ V : L(v) = 0 } ⊆ V

Bild L = { w ∈ W : ∃ v ∈ V mit L(v) = w } ⊆ W dim V < ∞ = ⇒

dim V = dim Kern(L) + dim Bild(L) Inverse Abbildung

L : V → W injektiv ⇔ Kern L = 0 V lineare Umkehrabbildung

w 7→ v, w = L(v)

(11)

5.5 Matrizrechnung

Matrix-Multiplikation

A : m × n, B : n × ` C : m × `

C = AB, c ik = X n

j=1

a ij b jk , 1 ≤ i ≤ m, 1 ≤ k ≤ ` Komposition der linearen Abbildungen u 7→ v = Bu, v 7→ w = Av

i.a. nicht kommutativ Inverse Matrix

AA 1 = A 1 A = E Invertierung von Matrixprodukten: (AB) −1 = B −1 A −1

Transponierte, adjungierte, symmetrische und hermitesche Matrix transponierte Matrix

B = A t ⇔ b i,j = a j,i

symmetrisch: A = A t adjungierte Matrix

C = A = ¯ A t ⇔ c i,j = ¯ a j,i

selbst-adjungiert oder Hermitesch: A = A Regeln

(AB) t = B t A t und (AB) = B A , (A t ) 1 = (A 1 ) t und (A ) 1 = (A 1 ) Spur einer Matrix

Spur(A) = X n k=1

a kk

Regeln

Spur(AB) = Spur(BA), Spur(T 1 AT ) = Spur(A)

Rang einer Matrix

maximale Anzahl linear unabh¨angiger Spalten bzw. Zeilen

(12)

Matrix-Norm zugeordnet

k A k = sup

x 6 =0

k Ax k

k x k = max

k x k =1 k Ax k submultiplikativ, d.h. k AB k ≤ k A kk B k

euklische Norm

k A k 2 = max { √

λ : A Av = λv } Zeilensummennorm

k A k ∞ = max

j

X

k

| a jk |

Orthogonale und unit¨ are Matrix

unit¨ar: Spalten bilden orthonormale Basis

A 1 = A t = A orthogonal: Spezialfall reeller Matrizen, A −1 = A t

Invarianz der euklidischen Norm: | Av | = | v | Normale Matrizen

A normal ⇔ AA = A A, A = ¯ A t bzw. AA t = A t A f¨ur reelles A

unit¨ar, hermitesch, orthogonal oder symmetrisch = ⇒ normal Zyklische Matrizen

generiert durch zyklisches Verschieben der ersten Spalte

 

 

 

a 0 a n−1 a n−2 . . . a 1 a 0 a n − 1 . . . a 2 a 1 a 0 . . .

... ... ...

 

 

 

zyklische Struktur kompatibel mit Matrixmultiplikation Positiv definite Matrix

v Av > 0 ∀ v 6 = 0

positive Diagonalelemente und Eigenwerte, positiv definite Inverse

semidefinit, falls v Av ≥ 0

(13)

5.6 Determinanten

Determinante

Schreibweisen

det A = det(a 1 , . . . , a n ) = | A | =

a 11 · · · a 1n

... ...

a n1 · · · a nn

mit a k den Spalten von A

definierende Eigenschaften

• Multilineari¨at:

det(. . . , αa j + βb j , . . .) = α det(. . . , a j , . . .) + β det(. . . , b j , . . .)

• Antisymmetrie:

det(. . . , a j , . . . , a k , . . .) = − det(. . . , a k , . . . , a j , . . .)

• Normierung:

det(e 1 , . . . , e n ) = 1 , (e k ) ` = δ k`

f¨ur die Einheitsvektoren e k

Entwicklung als Summe n-facher Produkte

det A = X

i ∈ S

n

σ(i) a i

1

,1 · · · a i

n

,n

mit σ(i) dem Vorzeichen der Permutation (i 1 , . . . , i n ) Determinante als Volumen

Volumen des von a 1 , . . . , a n aufgespannten Spats

| det A | = vol ( n

X

i=1

α i a i : 0 ≤ α i ≤ 1 )

= vol (A[0, 1] n )

Determinanten spezieller Matrizen

• Dreiecksmatrix: a ij = 0 f¨ur i < j oder i > j = ⇒

det A = a 11 · · · a nn

• Blockdiagonalmatrix: Blockstruktur mit A ij = 0, i 6 = j, und quadratischen Diagonalbl¨ocken A ii = ⇒ det A =

Y k i=1

det A ii

(14)

• Orthogonale und unit¨are Matrizen:

| det U | = 1

Eigenschaften von Determinanten

det A

• invariant bei Addition eines Vielfachen einer Spalte (Zeile) zu einer anderen Spalte (Zeile)

• null bei zwei gleichen Spalten (Zeilen)

• Vorzeichen¨anderung bei Vertauschung von Spalten (Zeilen) sukzessive Transformation auf Dreiecksform

Regeln

detA = detA t , det(A -1 ) = (detA) −1 , det(AB) = (detA)(detB)

Entwicklungssatz f¨ ur Determinanten

det A = P n j=1

( − 1) k+j a kj det ˜ A kj (Entwicklung nach Zeile k)

= P n i=1

( − 1) i+` a i` det ˜ A i` (Entwicklung nach Spalte l)

mit ˜ A ij der Matrix, die durch Streichen der i-ten Zeile j -ten Spalte entsteht

(15)

5.7 Lineare Gleichungssysteme und Ausgleichsprobleme

Lineares Gleichungssystem

a 1,1 x 1 + · · · + a 1,n x n = b 1

... ... ... ... ... ...

a m,1 x 1 + · · · + a m,n x n = b m

⇔ Ax = b

homogen (inhomogen): b = 0 (b 6 = 0)

uberbestimmt, falls unl¨osbar (im Allgemeinen f¨ur ¨ m > n)

unterbestimmt, falls keine eindeutige L¨osung (im Allgemeinen f¨ur m < n) L¨ osungsmenge eines linearen Gleichungssystems

Ax = a 1 x 1 + · · · a n x n = b ∈ R m mit a k den Spalten von A

(i) homogenenes System (b = 0):

immer l¨osbar, linearer L¨osungsraum Kern A

eindeutige L¨osung x = 0, falls a k linear unabh¨angig (ii) inhomogenes System (b 6 = 0):

l¨osbar genau dann wenn b ∈ Bild A (b als Linearkombination von a k darstellbar) affiner L¨osungsraum

x + Kern A mit einer speziellen L¨osung x

eindeutig, falls Kern A = 0 Cramersche Regel

Ax = b ⇔ x i det A = det(a 1 , . . . , a i−1 , b, a i+1 , . . . , a n ) mit a k den Spalten der quadratischen Matrix A

eindeutige L¨osung f¨ur belibieges b, falls det A 6 = 0

b = e j (Einheitsvektoren) Koeffizienten der Inversen C = A 1

c i,j = det(a 1 , . . . , a i − 1 , e j , a i+1 , . . . , a n )

det A

(16)

R¨ uckw¨ arts-Einsetzen

 

r 1,1 · · · r 1,n

. .. ...

0 r n,n

 

 

 x 1

...

x n

 

 =

 

 b 1

...

b n

 

sukzessive Berechnung der Unbekannten

x ` = (b ` − r `,`+1 x `+1 − · · · − r `,n x n ) /r `,` , ` = n, . . . , 1

Gauß-Elimination

Transformation auf obere Dreiecksform nach ` − 1 Schritten

a 1,1 x 1 + a 1,2 x 2 + . . . + a 1,` x ` + . . . + a 1,n x n = b 1

a 2,2 x 2 + . . . + a 2,` x ` + . . . + a 2,n x n = b 2

... ... ...

a `,` x ` + . . . + a `,n x n = b `

a `+1,` x ` + . . . + a `+1,n x n = b `+1

... ... ...

a n,` x ` + . . . + a n,n x n = b n

`-ter Eliminationsschritt

• evtl. Vertauschung von Zeilen, so dass a `,` 6 = 0

• Subtraktion von Vielfachen der `-ten Zeile:

f¨ur i > ` und j ≥ `

a i,j ← a i,j − q i a `,j , b i ← b i − q i b ` (q i = a i,` /a `,` ) Nullen unterhalb von a ``

Zeilenstufenform eines Gleichungssystems

Ax = b ⇔

 

 

 

0...0 p 1 ∗ ... ∗

0 0...0 p 2 ∗ ... ∗

0 0...0 p 3 ∗ ...

. ..

 

 

 

 

 x 1

...

x n

 

 =

 

 c 1

...

c m

 

mit Pivots p 1 , . . . , p k 6 = 0, k = Rang A

sukzessive Umformung analog zur Gauß-Elimination

L¨ osung eines linearen Gleichungssystems in Zeilenstufenform

(17)

 

 

 

0 . . . 0 p 1 ∗ . . . ∗

0 0 . . . 0 p 2 ∗ . . . ∗

0 0 . . . 0 p 3 ∗ . . . ∗ . ..

 

 

 

 

 x 1

...

x n

 

 =

 

 c 1

...

c m

 

mit Pivots p 1 , . . . , p k 6 = 0

l¨osbar genau dann wenn c k+1 = · · · = c m = 0 (i) k = n eindeutige L¨osung

(ii) k < n n − k linear unabh¨angige L¨osungen des homogenen linearen Gleichungssystems (c i = 0)

Unbekannte, die den Spalten ohne Pivots entsprechen, frei w¨ahlbar

(18)

5.8 Eigenwerte, Normalformen und Singul¨ arwertzerlegung

Eigenwert, Eigenvektor und Eigenraum

Eigenvektor v zum Eigenwert λ einer quadratischen Matrix A Av = λv, v 6 = 0 Eigenraum: V λ = Kern(A − λE)

Ahnlichkeitstransformation ¨ Basiswechsel

A → B = Q −1 AQ erh¨alt Eigenwerte

v Eigenvektor von A ⇔ w = Q 1 v Eigenvektor von B Charakteristisches Polynom

p A (λ) = det(A − λE) =

a 11 − λ a 12 . . . a 1n a 21 a 22 − λ . . . a 2n

... ... . .. ...

a n1 a n2 . . . a nn − λ

= (λ 1 − λ) · · · (λ n − λ) Eigenwerte λ k : Nullstellen von p A

X n k=1

λ k = Spur A, Y n k=1

λ k = det A

Eigenvektoren v: nicht-triviale L¨osungen des homogenen linearen Gleichungssystems (A − λE)v = 0

Konstruktion einer Basis f¨ur den Eigenraum V λ = Kern(A − λE) durch Transformation auf Zeilenstufen- form

Algebraische und geometrische Vielfachheit

algebraische Vielfachheit m λ : Ordnung der Nullstelle des charakteristischen Polynoms p A (λ) = det(A − λE n )

geometrische Vielfachheit d λ : Dimension des Eigenraums V λ = Kern(A − λE n ) Beziehungen zwischen m und d

d λ ≤ m λ , X

λ

m λ = n, d λ = n − Rang(A − λE )

(19)

Summe und Produkt von Eigenwerten

X n k=1

λ k = Spur A, Y n k=1

λ k = det A mehrfache Eigenwerte entsprechend ihrer algebraischen Vielfachheit gez¨ahlt Basis aus Eigenvektoren

Basis aus Eigenvektoren v k mit Eigenwerten λ k zu A Diagonalisierung

V 1 AV = diag(λ 1 , . . . , λ n ), V = (v 1 , . . . , v n )

(20)

5.9 Normalformen

Diagonalisierung zyklischer Matrizen Eigenvektoren: Spalten der Fourier-Matrix

W = (w jk ) j,k=0,...,n−1 , w = exp(2πi/n) Diagonalform

1 n W

 

 

 

a 0 a n−1 · · · a 1

a 1 a 0 · · · a 2

... . .. ...

a n − 1 a n − 2 · · · a 0

 

 

  W =

 

λ 1 · · · 0 ... ... ...

0 · · · λ n

 

mit den Eigenwerten

λ ` =

n − 1

X

k=0

a k w k` , ` = 0, . . . , n − 1 Unit¨ are Diagonalisierung

A normal, d.h. A A = AA

U 1 AU = diag(λ 1 , . . . , λ n )

mit einer unit¨aren Matrix U (Spalten: orthonormale Basis aus Eigenvektoren) Diagonalisierung hermitescher Matrizen

A = A = ⇒ reelle Eigenwerte und Orthonormalbasis aus Eigenvektoren u k

U AU = diag(λ 1 , . . . , λ n ), U = (u 1 , . . . , u n ) hermitesch ⇔ symmetrisch f¨ur reelle Matrizen

Rayleigh-Quotient

S hermitesch positiv definit = ⇒

r S (x) = x Sx

x x , x 6 = 0 f¨ur kleinsten und gr¨oßten Eigenwert extremal

Jordan-Form

Ahnlichkeitstranformation auf die Blockdiagonalform ¨

J =

 

J 1 0

. ..

0 J k

 

 = Q 1 AQ, J i =

 

 

 

 

λ i 1 0

0 λ i 1 . .. ...

λ i 1

0 λ i

 

 

 

 

mit λ i den Eigenwerten von A

(21)

Dominanter Eigenwert

λ betragsm¨aßig gr¨oßter Eigenwert von A mit Eigenvektor v = ⇒ A n x = λ n (cv + o(1)), n → ∞ , falls x eine nichttriviale Komponente im Eigenraum von λ hat Konvergenz von Matrix-Potenzen

A n → 0 ⇔ | λ k | < 1 ∀ k

A n beschr¨ankt ⇔ | λ k | ≤ 1 ∀ k und | λ k | = 1 nur f¨ur Eigenwerte mit gleicher algebraischer und geome- trischer Vielfachheit

Divergenz von A n in allen anderen F¨allen

(22)

5.10 Ausgleichsprobleme

Ausgleichsgerade

lineare Approximation von Daten (t k , f k ) durch Minimierung der Fehlerquadratsumme X n

k=1

(f k − p(t k )) 2 , p(t) = u + vt

eindeutig l¨osbar bei mindestens zwei verschiedenen Abszissen t i

u = ( P t 2 i )( P

f i ) − ( P t i )( P

t i f i ) n( P

t 2 i ) − ( P

t i ) 2 , v = n( P

t i f i ) − ( P t i )( P

f i ) n( P

t 2 i ) − ( P t i ) 2

Normalengleichungen

| Ax − b | → min ⇔ A t Ax = A t b eindeutige L¨osung x, falls die Spalten von A linear unabh¨angig sind Singul¨ arwert-Zerlegung

U AV = S =

 

s 1 0

s 2 0 . ..

 

 , s 1 ≥ · · · ≥ s k > s k+1 = · · · = 0 mit k = Rang A

singul¨are Werte s j : Wurzeln der Eigenwerte von A A

Spalten u j von U und v j von V : orthonormale Basen aus Eigenvektoren von AA bzw. A A

Av j = s j u j , Ax = X k

i=1

s i (v i x)u i

Pseudo-Inverse

A + = V S + U , S + = diag(1/s 1 , . . . , 1/s k , 0, . . . , 0) mit s i > 0 den Singul¨arwerten von A

x = A + b: Minimum-Norm-L¨osung des Ausgleichsproblems | Ax − b | → min

(23)

5.11 Orthogonale Transformationen und Quadriken

Spiegelung

(orthogonale) Spiegelungsmatrix

Q = E − 2

| d | 2 dd t mit d einem Normalenvektor der Spiegelungsebene

Drehung

Drehung um den Winkel ϕ in der x i x j -Ebene Drehmatrix Q i,j

Zeile i →

Zeile j →

 

 

 

 

 

 

 

1 0

. ..

c − s

. ..

s c

. ..

0 1

 

 

 

 

 

 

 

mit c = cos ϕ und s = sin ϕ Q orthogonal, det Q = 1 = ⇒

Q = Y

i<j

Q i,j

Drehung im Raum

x 7→ Qx = cos ϕ x + (1 − cos ϕ)uu t x + sin ϕ u × x

mit normierter Drehachsenrichtung u, Drehwinkel ϕ (orientiert wie eine Rechtsschraube) und × dem Kreuzprodukt

Qu = u, cos ϕ = (Spur Q − 1)/2 entsprechende Drehmatrix

Q : q ik = cos ϕ δ ik + (1 − cos ϕ) u i u k + sin ϕ X

j

ε ijk u j

(24)

Drehachse und Drehwinkel

Jede Drehung Q im R 3 besitzt eine Drehachse, d.h. l¨asst einen Einheitsvektor u invariant, und entspricht einer ebenen Drehung um einen Winkel ϕ in der zu u orthogonalen Ebene.

Bez¨uglich eines orthonormalen Rechtssystems u, v, w besitzt Q die Matrixdarstellung

Q ˜ =

 

1 0 0

0 cos ϕ − sin ϕ 0 sin ϕ cos ϕ

 

 .

Insbesondere gilt f¨ur den Drehwinkel

cos ϕ = 1

2 (Spur Q − 1) .

Quadrik

Q : x t Ax + 2b t x + c = 0 homogene Form: Q : ˜ x t A˜ ˜ x = 0 mit

A ˜ =

 c b t b A

 , x ˜ t = (1, x 1 , . . . , x n )

Klassifizierung

• kegelige Quadrik: Rang ˜ A = Rang A

• Mittelpunktsquadrik: Rang ˜ A = Rang A + 1

• parabolische Quadrik: Rang ˜ A = Rang A + 2

Hauptachsentransformation

Drehung und Verschiebung Normalform x t Ax + 2b t x + c =

X m i=1

λ i w 2 i + 2βw m+1 + γ , x = U w + v mit m = Rang A und βγ = 0

Spalten der Drehmatrix U : Eigenvektoren u i (Hauptachsen) zu den Eigenwerten λ i von A

Verschiebungsvektor v: Mittelpunkt der Quadrik

(25)

Kegelschnitt

Doppel-Kegel mit Spitze p (p 3 6 = 0), Richtung v und ¨ Offnungswinkel α K : (x − p) t v = ± cos α

2 | x − p || v | Schnitt mit der Ebene E : x 3 = 0 ebene Quadrik

Typ bestimmt durch Winkel β der Achse mit der Ebene E

Ellipse: β > α/2 Parabel: β = α/2 Hyperbel: β < α/2

Euklidische Normalformen der zweidimensionalen Quadriken

• Kegelige Quadriken

Normalform Bezeichnung

x

21

a

21

+ x a

222

2

= 0 Punkt

x

21

a

21

x a

222

2

= 0 schneidendes Geradenpaar

x

21

a

21

= 0 Doppelgerade

• Mittelpunktsquadriken

Normalform Bezeichnung

x

21

a

21

+ x a

222

2

+ 1 = 0 (leere Menge)

x

21

a

21

x a

222

2

+ 1 = 0 Hyperbel

x a

212

1

x a

222

2

+ 1 = 0 Ellipse

x

21

a

21

+ 1 = 0 (leere Menge)

x a

212

1

+ 1 = 0 paralleles Geradenpaar

(26)

• Parabolische Quadriken Normalform Bezeichnung

x

21

a

21

+ 2x 2 = 0 Parabel

Euklidische Normalformen der dreidimensionalen Quadriken

• Kegelige Quadriken

Normalform Bezeichnung

x

21

a

21

+ x a

222

2

+ x a

232

3

= 0 Punkt

x

21

a

21

+ x a

222

2

x a

232

3

= 0 (Doppel-)Kegel

x

21

a

21

+ x a

222

2

= 0 Gerade

x

21

a

21

x a

222

2

= 0 schneidende Ebenen

x

21

a

21

= 0 Doppelebene

• Mittelpunktsquadriken

Normalform Bezeichnung

x

21

a

21

+ x a

222

2

+ x a

232

3

+ 1 = 0 (leere Menge)

x

21

a

21

+ x a

222

2

x a

2323

+ 1 = 0 zweischaliges Hyperboloid

x

21

a

21

x a

222

2

x a

232

3

+ 1 = 0 einschaliges Hyperboloid

x a

212

1

x a

222

2

x a

232

3

+ 1 = 0 Ellipsoid

x

21

a

21

+ x a

222

2

+ 1 = 0 (leere Menge)

x

21

a

21

x a

222

2

+ 1 = 0 hyperbolischer Zylinder

x a

212

1

x a

222

2

+ 1 = 0 elliptischer Zylinder

x

21

a

21

+ 1 = 0 (leere Menge)

x a

212

1

+ 1 = 0 parallele Ebenen

(27)

• Parabolische Quadriken

Normalform Bezeichnung

x

21

a

21

+ x a

222

2

+ 2x 3 = 0 elliptisches Paraboloid

x

21

a

21

x a

222

2

+ 2x 3 = 0 hyperbolisches Paraboloid

x

21

a

21

+ 2x 2 = 0 parabolischer Zylinder

Abbildung

Abbildung k · k : V → R mit den folgenden Eigenschaften

Referenzen

ÄHNLICHE DOKUMENTE

[r]

Fachbereich Mathematik WS

Eine Bäckerei will vier verschiedene Arten Plätzchen backen: Vanillekipferl, Schwarz-Weiß Gebäck, Weih- nachtsplätzchen

Ein Körper K heißt algebraisch abgeschlossen, wenn jedes nicht-konstante Polynom eine Nullstelle in K hat.. Aufgabe G4 (Euklidischer Algorithmus) Es seien a und b zwei

(e) Zeigen Sie, dass das LGS nach x umgestellt werden kann und bestimmen Sie daraus für das obige Beispiel x in Abhängigkeit von g. Dieses Verfahren scheint für ein so kleines

Im nächsten Schritt enfernen wir P 1 aus dem Graphen und wiederholen unser Vorgehen. Wieder gibt es ein Produkt P 2 , welches nicht für andere Produkte benötigt wird. Ebenso ließt

(a) Ein neutrales Element ist auch linksneutral und ein inverses Element ist auch linksinvers.

Diese Äquivalenzklassen heißen auch Restklassen modulo n. Sie bilden, wie bereits aus dem ersten Tutorium bekannt ist eine Partition von Z. Multiplikation in den ganzen