• Keine Ergebnisse gefunden

Lineare Algebra 2

N/A
N/A
Protected

Academic year: 2021

Aktie "Lineare Algebra 2"

Copied!
85
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Lineare Algebra 2

Erstellt von Markus Windisch nach der Vorlesung von Clemens Heuberger im Sommersemester 2003

Institut für Optimierung und Diskrete Mathematik (Math B) Technische Universität Graz

Diese Auflage entspricht jenen Teilen der Vorlesung aus dem Sommersemester 2009, die ab Sommersemester 2010 noch Bestandteil der Vorlesung sind. Die ab Sommersemester 2010 neu

hinzugekommenen Stoffgebiete sind nicht enthalten.

Stand 488: 12. Jänner 2010 16:25:53

(2)

Inhaltsverzeichnis

0 Motivation 4

0.1 Vektor- und Matrizennormen . . . 4

0.2 Skalarprodukte und Orthogonalität . . . 4

0.3 Eigenwerte . . . 5

0.3.1 Asymptotik von Matrizenprodukten . . . 5

0.3.2 Positiv Definite Matrizen . . . 5

0.4 Singulärwertzerlegung . . . 5

I Matrizennormen 6

1 Vektor- und Matrizennormen 7 1.1 Vektornorm . . . 7

1.2 Operator- bzw. Matrixnormen . . . 8

2 Sensitivität linearer Gleichungssysteme 11 2.1 Konditionszahl, Sensitivität linearer Gleichungssysteme bei Störung der rechten Seite 11 2.2 Sensitivität eines Gleichungssystems bei beidseitiger Störung . . . 12

II Innere Produkte 14

3 Innere Produkte und Orthogonalität 15 3.1 Unitäre Räume und Euklidsche Räume . . . 15

3.2 Durch innere Produkte induzierte Normen . . . 16

3.3 Skalarprodukt und Winkel . . . 17

3.4 Orthogonalität . . . 17

3.5 Darstellung von Inneren Produkten durch Matrizen . . . 19

4 Innere Produkte und Lineare Abbildungen 20 4.1 Adjungierte Abbildungen . . . 20

4.2 Unitäre Abbildungen . . . 22

4.3 Projektionen . . . 24

4.4 Spiegelungen . . . 28

4.5 Dualraum . . . 29

4.5.1 Zusammenhang zwischen Dualraum und inneren Produkten . . . 30

5 Über- und unterbestimmte Gleichungssysteme, QR-Zerlegung 31 5.1 QR-Zerlegung . . . 31

5.2 Überbestimmte Gleichungssysteme . . . 32

5.3 Unterbestimmte Gleichungssysteme . . . 34

(3)

III Eigenwerte 35

6 Eigenwerte in allgemeinen Körpern 36

6.1 Motivation . . . 36

6.2 Eigenwerte und Eigenvektoren . . . 38

6.3 Charakteristisches Polynom von Matrizen . . . 39

6.4 Charakteristisches Polynom linearer Abbildungen . . . 43

6.5 Diagonalisierbarkeit . . . 44

6.6 Jordan-Zerlegung . . . 47

6.7 Anwendungen von Jordan-Zerlegung bzw. Diagonalisierung . . . 50

6.7.1 Matrizenpotenzen . . . 50

6.7.2 Satz von Cayley-Hamilton . . . 52

6.7.3 Asymptotisches Verhalten diskreter dynamischer Systeme . . . 52

6.7.4 Lineare Rekursionen mit konstanten Koeffizienten . . . 53

6.7.5 Differentialgleichungen . . . 55

7 Eigenwerte überR undC 56 7.1 Schursche Normalform . . . 56

7.2 Unitäre Diagonalisierbarkeit . . . 56

7.3 Anwendung: Klassifikation von Kegelschnitten . . . 59

8 Eigenwerte bei symmetrischen Matrizen 62 8.1 Rayleigh-Ritz-Prinzip . . . 62

8.2 Positiv definite Matrizen . . . 65

8.3 Berechnung der Cholesky-Faktorisierung . . . 67

8.4 Hadamardsche Ungleichung . . . 69

9 Nichtnegative Matrizen und der Satz von Perron-Frobenius 70 9.1 Reduzible und irreduzible Matrizen und deren kombinatorische Deutung . . . 70

9.2 Satz von Perron-Frobenius, Erster Teil . . . 72

9.3 Drehungsinvarianz von Eigenwerten . . . 74

9.4 Primitive Matrizen . . . 75

IV Singulärwertzerlegung 77

10 Singulärwertzerlegung 78 10.1 Definition, Existenz und einfache Eigenschaften . . . 78

10.2 Anwendungen der Singulärwertzerlegung . . . 80

10.2.1 Über- und unterbestimmte Gleichungssysteme . . . 81

10.2.2 Kern, Bild, Rang . . . 82

10.2.3 Numerischer Rang . . . 82

10.2.4 Konditionszahl . . . 84

10.2.5 Bildkompression . . . 84

(4)

Kapitel 0

Motivation

0.1 Vektor- und Matrizennormen

Seien

A=

1.0000 1.0000 1.0000 1.0001

, c=

2.0000 2.0000

, B=

1.0000 1.0000 1.0000 0.0001

, d=

2.0000 2.0001

. Löse die Gleichungssysteme Ax(1) =c,Ax(2)=d,Bx(3) =c,Bx(4) =d:

x(1) = 2

0

, x(2) = 1

1

, x(3) = 2

0

, x(4) =

2.0001

−0.0001

Aist schlecht konditioniert,κ2(A) = 40002,B ist gut konditioniert,κ2(B) = 2.6184.

0.2 Skalarprodukte und Orthogonalität

Gegeben seien200Punktepaare

0.030309884000 10.179922000000 0.048384392000 10.120494000000 0.083117662000 10.145601000000

... ...

9.935929800000 94.606340000000 9.967067200000 95.324167000000 9.996520900000 96.100050000000 Gesucht ist jene Funktion

f(x) =a0+a1x+a2x2+a3x3+a4x4+a5ex+a6cosx+a7sinx, die die Punkte am besten approximiert.

(5)

0.3 Eigenwerte

0.3.1 Asymptotik von Matrizenprodukten

Betrachte eine (abgeschlossene) Population von Hühnern und Füchsen. Die Anzahl der Hühner zum ZeitpunktnseiHn, jene der FüchseFn. Es gelte

Fn+1= 0.6Fn+ 0.5Hn,

Hn+1=−kFn+ 1.2Hn, k„Killrate“.

Zum Zeitpunkt 0gibt esF0= 100Füchse undH0= 1000Hühner.

• Wie entwickeln sich Fn,Hn fürn→ ∞?

• Wie groß muss ksein, damit beide Populationen aussterben?

• Gibt es einen „stabilen“ Zustand?

0.3.2 Positiv Definite Matrizen

Diskretisieren der stationären Wärmeleitungsgleichung

−d2u

dx2 =f(x), 0≤x≤1, u(0) =u(1) = 0 mit dem finiten Differenzen Schema

−u(xk+h)−2u(xk) +u(xk−h)

h2 =f(xk)

ergibt ein Gleichungssystem der Gestalt





2 −1 0 0 0

−1 2 −1 0 0 0 −1 2 −1 0 0 0 −1 2 −1

0 0 0 −1 2









 u1

u2

u3

u4

u5





= 1 62





 f(1/6)

... f(5/6)







tridiagonale, positiv definite Matrix

0.4 Singulärwertzerlegung

Sei

A=



0.3023161 0.7667215 0.3111570

−0.2835463 0.2194864 −0.0403317

−0.1163911 0.1914451 0.0094212

−0.2112675 0.4953307 0.0587599



,

B =



0.302324 0.766728 0.311133

−0.283463 0.219550 −0.040571

−0.116693 0.191214 0.010283

−0.211201 0.495382 0.058570



.

Numerische Rechnungen ergebenrank(A) = 3, rank(B) = 2undkA−Bk2= 0.001. Wie sieht man einer Matrix an, ob ihr Rang „echt“ ist oder durch numerisches Rauschen verursacht wurde?

(6)

Teil I

Matrizennormen

(7)

Kapitel 1

Vektor- und Matrizennormen

Notation 1.0.1. Folgende Notationen werden in diesem Skriptum verwendet.

K:=RoderC K:=Körper

1.1 Vektornorm

Definition 1.1.1. SeiV einK-Vektorraum. Eine Funktionk · k:V →RheißtVektornorm wenn sie die üblichen Normaxiome

(N1) kxk ≥0undkxk= 0⇔x= 0, (N2) kαxk=|α| · kxk,

(N3) kx+yk ≤ kxk+kyk

für allex, y∈V, α∈Kerfüllt.(V,k · k)heißt normierter Raum.

Beispiel 1.1.2. V =Kn, p∈N,kxkp:= pp

|x1|p+· · ·+|xn|p. Beispiel 1.1.3. V =Kn,kxk:= max{|x1|, . . . ,|xn|}. Beispiel 1.1.4. V =C[a, b], p∈N,kfkp:= p

qRb

a|f(x)|pdx.

Beispiel 1.1.5. V =C[a, b],kfk:= sup

x[a,b]|f(x)|.

Bemerkung 1.1.6. Sei (V,k · k) ein normierter Raum, dann wirdV vermittels d(x, y) :=kx−yk zu einem metrischen Raum (und damit zu einem topologischen Raum).

Satz 1.1. (Normäquivalenzsatz)

Seienk · kundk · k zwei Normen aufKn. Dann gibt es zwei positive Konstantenc1 undc2, sodass für alle x∈Kn gilt:

c1kxk ≤ kxk ≤c2kxk. Beweis. Zunächst setze:k · k=k · k2

1. Seix= (x1, . . . , xn)t=x1e1+· · ·+xnen.Dann gilt

kxk(N3)≤ kx1e1k+. . .+kxnenk(N≤ |2) x1| · ke1k+· · ·+|xn| · kenk

≤ max

i=1...n|xi|(ke1k+. . .+kenk

| {z }

c3

)≤ 2 q

|x1|2+. . .+|xn|2c3=c3kxk2.

(8)

2. Durchf(x) :=kxkwird eine Abbildungf :Kn →Rerklärt.

Behauptung:f ist stetige Funktion vomKn versehen mit der 2-Norm nachR. Seienx, y∈Kn.O.B.d.Af(x)≤f(y). Dann gilt:

0≤f(y)−f(x) =kyk − kxk=k(y−x) +xk − kxk ≤ ky−xk+kxk − kxk ≤c3kx−yk2, also|f(y)−f(x)| ≤c3kx−yk2.

Daher istf Lipschitz-stetig mit Lipschitzkonstantec3, also stetig.

3. Die MengeS:={x∈Kn:kxk2= 1}ist abgeschlossen und beschränkt, daher kompakt.

4. f nimmt auf S sein Minimum bei x = x0 an. Daher gilt f(x) ≥ f(x0) =c4 >0 für alle x∈S.

5. Seienx∈Kn, α=kxk2. Dann gilt:

kxk= α1

αx

=|α| · kyk=|α|f(y)

S ≥c4kxk2.

6. Sei jetztk · k eine beliebige Norm. Nach 1-5 gibt es positivec3, c4, c5, c6 mit:

c4kxk2≤ kxk ≤c3kxk2, c6kxk2≤ kxk≤c5kxk2, c4

c5

|{z}

c1

kxk≤c4kxk2≤ kxk ≤c3kxk2≤ c3

c6

|{z}

c2

kxk.

Bemerkung 1.1.7. Dadurch wird auf Kn durch verschiedene Normen dieselbe Topologie definiert.

1.2 Operator- bzw. Matrixnormen

Notation 1.2.1. Die Bezeichnungen „Linearer Operator“ und „lineare Abbildung“ werden in der Folge synonym verwendet.

Km×n. . . Menge derm×nMatrizen mit Einträgen ausK.

Wie soll man Matrizen eigentlich „messen“?

Jede Matrix∈Km×n kann als langer Vektor imKmn gedacht werden.

Definition 1.2.2. SeiA∈Km×n, dann definiere

kAkF :=

vu ut

Xm i=1

Xn j=1

|aij|2 (Frobeniusnorm).

Bemerkung 1.2.3. k · kF erfüllt die Normaxiome (N1) bis (N3).

Bemerkung 1.2.4. SeienA∈Km×n, B∈Kn×r, x∈Kn.Dann gilt:

kAxk2≤ kAkFkxk2, kABkF ≤ kAkFkBkF.

(9)

Die erste dieser Eigenschaften ist besonders wünschenswert (k · kF undk · k2sind verträglich).

Für eine interessante Matrixnorm soll also gelten:

kAk ≥ kAxk

kxk x6= 0.

Eine mögliche Wahl ist daher

kAk= sup kAxk

kxk : x6= 0

.

Definition 1.2.5. Seien(V,k · kV)und(W,k · kW)normierte Räume undF :V →W eine lineare Abbildung. Dann definiere:

kFkV,W := sup

kF(x)kW

kxkV

: x6= 0

„die vonk · kW undk · kV induzierte Operatornorm vonF“.

Bemerkung 1.2.6. Dadurch wird auch induzierte Matrixnorm definiert.

Satz 1.2(Eigenschaften von Operatornormen). Seien(V,k · kV),(W,k · kW),(X,k · kX)normier- te Räume,F, H:V →W, G:W →X, x∈V, α∈K.Dann gilt:

(N1) kFkV,W ≥0und kFkV,W = 0⇔F = 0 (Nullabbildung), (N2) kαFkV,W =|α| · kFkV,W,

(N3) kF+HkV,W ≤ kFkV,W+kHkV,W, (N4) kF(x)kW ≤ kFkV,WkxkV,

(N5) kG◦FkV,X ≤ kGkW,X· kFkV,W. Beweis von (N3). Es gilt:

k(F+H)(x)kW

kxkV

=kF(x) +H(x)kW

kxkV ≤ kF(x)kW

kxkV

+kH(x)kW

kxkV ≤ kFkV,W+kHkV,W. Bildet man auf beiden Seiten das Supremum über allex6= 0, so folgt

kF+HkV,W ≤ kFkV,W+kHkV,W.

Bemerkung 1.2.7. SeienV =Kn, W =Km, F :V →W linear. Dann gilt:

kFk= max{kF(x)kW : kxkV = 1} Beweis. Da

kF(x)k kxk

(N2)

=

1

kxk·F(x) =

F

1 kxk ·x

| {z }

k·k=1

,

müssen nurxmit kxkV = 1 betrachtet werden. Da diese eine kompakte Menge bilden, wird das Supremum tatsächlich angenommen, es handelt sich also um ein Maximum.

Satz 1.3. SeiA∈Kn×n. Dann gilt

• kAk:=kAk,= max

i=1...n

Pn

j=1|aij|„Zeilensummennorm“,

(10)

• kAk1=kAk1,1= max

j=1...n

Pn

i=1|aij|„Spaltensummennorm“.

Beweis. • Seix∈Kn mitkxk= 1.Dann gilt

kAxk= max

i=1...n|(Ax)i|= max

i=1...n

Xn j=1

aijxj

≤ max

i=1...n

Xn j=1

|aij| |xj|

|{z}

≤kxk=1

≤ max

i=1...n

Xn j=1

|aij|,

und damitkAk= max

kxk=1kAxk≤ max

i=1...n

Pn j=1|aij|.

Um die umgekehrte Richtung zu zeigen, wähle k ∈ {1, . . . n} so, dass Pn

j=1|akj| =

i=1...nmax Pn j=1|aij|.

Mann mussxj so wählen, dass|xj|= 1und|akj| · |xj|

|{z}

1

=akjxj.Setze

xj = (|a

kj|

akj akj 6= 0 1 akj = 0. Jetzt gilt also in obiger Ungleichung überall Gleichheit.

(11)

Kapitel 2

Sensitivität linearer Gleichungssysteme

2.1 Konditionszahl, Sensitivität linearer Gleichungssysteme bei Störung der rechten Seite

Ax=b, A(x+△x) =b+△b Wie groß ist△xhöchstens?

Seik · kin diesem und im nächsten Abschnitt eine feste Norm.

Was ist ein vernünftiges Maß für△x?

• k△xk. . . absoluter Fehler (uninteressant)

• besser: k△kxxkk. . .relativer Fehler Es gilt:

Ax+A△x=b+△b, A△x=△b,

△x=A1△b,

k△xk=kA1△bk ≤ kA1k · k△bk, kbk=kAxk ≤ kAk · kxk,

alsokxk ≥ kA1kkbk, zusammen erhalten wir k△xk

kxk ≤ kAk · kA1kk△bk kbk . Definition 2.1.1. SeiA∈Kn×n.Dann definiere

κ(A) :=

(kAk · kA1k . . .falls A regulär, +∞ . . .falls A singulär.

„Konditionszahl von A.“

(12)

Satz 2.1. SeienA∈Kn×n, b,△b, x,△x∈Kn, Aregulär,Ax=b,A(x+△x) = (b+△b). Dann gilt:

k△xk

kxk ≤κ(A)k△bk kbk . Bemerkung 2.1.2.

1. Die Konditionszahl hängt von der gewählten Norm ab. Wegen des Normäquivalenzsatzes heißt allerdings große Konditionszahl in einer Norm auch große Konditionszahl in jeder anderen Norm.

2. große Konditionszahl⇒Matrix schlecht konditioniert, kleine Konditionszahl⇒Matrix gut konditioniert.

3. geg. Gleichungssystem Ax = b (riesig). Sei x˜ eine Näherungslösung (z.B. aus iterativem Verfahren) Sei r:=A˜x−b„Residuum“ . Anders geschrieben:Ax=b, A˜x=b+r,

=Satz⇒kx−x˜k

kxk ≤κ(A)krk kbk.

2.2 Sensitivität eines Gleichungssystems bei beidseitiger Stö- rung

Notation 2.2.1. I . . .Einheitsmatrix

Lemma 2.2.2. Sei B ∈ Kn×n mit kBk < 1. Dann ist I−B invertierbar, die Reihe P

k=0

Bk konvergiert, es gilt (I−B)1= P

k=0

Bk und k(I−B)1k ≤ 1−k1Bk.

Beweis. 1. Annahme:I−B ist nicht invertierbar, d.h. es gibt einx6= 0, sodass(I−B)x= 0.

Dann giltx=Bx.

kxk=kBxk ≤ kBk · kxk<kxk Widerspruch.

2.

(I−B) XN k=0

Bk= XN k=0

Bk− XN k=0

Bk+1=I−BN+1 daraus folgt:

XN k=0

Bk = (I−B)1(I−BN+1) DakBN+1k ≤ kBk

|{z}

<1

N+1 N→∞

−−−−→0, folgt

X k=0

Bk = (I−B)1. 3.

k(I−B)1k=k X k=0

Bkk ≤ X k=0

kBkk ≤ X k=0

kBk

|{z}

<1

k= 1

1− kBk.

(13)

Satz 2.2. SeienA,△A∈Kn×n, b,△b, x, △x∈Kn. Es gelteAx=b,(A+△A)(x+△x) =b+△b, δ:= maxn

k△Ak

kAk , k△kbbkko

, r:=δκ(A)<1. Weiters seiA regulär. Dann gilt:

k△xk

kxk ≤2κ(A) 1−r ·max

k△Ak kAk , △bk

kbk

.

Beweis. 1. Brauche zunächst die Inverse von(A+△A) = (A+I△A) =A(I+A1△A).

Wir wissen:kA1△Ak ≤ kA1k · k△Ak ≤ kA1k ·δ· kAk=δκ(A) =r <1.

⇒obengenannte Matrix ist invertierbar (laut Lemma).

2. Multipliziere von links mitA1

(I+A1△A)(x+△x) =x+A1△b, x+△x+A1△A(x+△x) =x+A1△b,

△x=A1△b−A1△A(x+△x), (2.1) k△bk ≤δkbk=δkAxk ≤δkAk · kxk,

kx+△xk=k(I+A1△A)1(x+A1△b)k ≤ k(I+A1△A)1k ·(kxk+kA1k · k△bk) und laut Lemma gilt

≤ 1

1−r(kxk+δkA1k · kAk

| {z }

κ

| {z }

r

·kxk) = 1 +r 1−rkxk.

Alles in (2.1) einsetzen ergibt k△xk ≤δkA1k · kAk

| {z }

δκ(a)

·kxk+δκ(A)1 +r

1−rkxk=δκ(A)

1 + 1 +r 1−r

| {z }

2 1−r

kxk,

daraus folgt

k△xk

kxk ≤2κ(A) 1−r max

k△Ak kAk , k△bk

kbk

.

(14)

Teil II

Innere Produkte

(15)

Kapitel 3

Innere Produkte und Orthogonalität

3.1 Unitäre Räume und Euklidsche Räume

Definition 3.1.1. Sei V ein K-Vektorraum. Eine Funktion h·,·i : V ×V → K heißt inneres Produkt (bzw. Hermitesches Produkt/Form für K=C oder Skalarprodukt fürK=R), falls für allex, y, z∈V, α∈Kgilt:

(IP1) hx, y+zi=hx, yi+hx, zi(Linearität im 2. Argument) (IP2) hx, αyi=αhx, yi

(IP3) hx, yi=hy, xi Wenn zusätzlich

(IP4) hx, xi >0 fürx6= 0

gilt, so heißt das IP positiv definit (p.d.)

(V,h·,·i)heißt Inner-Produktraum (bzw. wenn das IP positiv definit ist, unitärer Raum fallsK=C, oder Euklidscher Raum fallsK=R).

Bemerkung 3.1.2. 1.

hαx+βy, zi=hz, αx+βyi=αhz, xi+βhz, yi=

=αhz, xi+βhz, yi=αhx, zi+βhy, zi. 2. Achtung: Definitionen, Namen, Position der Konjugation variieren.

Beispiel 3.1.3. V =Rn hx, yi:=

Pn i=1

xiyi=xty

„Standard-inneres-Produkt“, ist positiv definit.

Notation 3.1.4. FürA∈Km×n schreiben wir

AH=A:=At die zuAadjungierte Matrix.

Bemerkung 3.1.5.

(A+B)=A+B (αA)=αA (AB)=BA

(A)=A

(16)

Beispiel 3.1.6. V =Cn

hx, yi= Xn i=1

xiyi=xty=xy

=„Standard-IP“. Da

hx, xi= Xn i=n

xixi = Xn i=1

|xi|2>0, ist das IP positiv definit.

Beispiel 3.1.7. SeiA∈Kn×n mitA=A.Dann ist hx, yiA:=xAy ein inneres Produkt.

Beispiel 3.1.8. V =C[a, b] :={f : [a, b]→C : fstetig} hf, gi:=

Zb x=a

f(x)g(x)dx

3.2 Durch innere Produkte induzierte Normen

Definition 3.2.1. SeiV ein Vektorraum mit p.d. IPh·,·i, fürx∈V definiere kxk,·i:=p

hx, xi.

„Durchh·,·iinduzierte Vektornorm“.

Lemma 3.2.2 (Cauchy-Schwarzsche Ungleichung). V sei ein Innerer-Produktraum (p.d.),x, y ∈ V.Dann gilt

|hx, yi| ≤ kxk · kyk.

Beweis. Da füry= 0beide Seiten verschwinden, ist in diesem Fall nichts zu zeigen. Wir können daher annehmen, dassy6= 0. Seiµ∈K.Dann gilt

0≤ hx+µy, x+µyi=hx, xi+µhy, xi+µhx, yi+µµhy, yi. Wähleµ=−hhy,xy,yii. Es folgt

0≤ hx, xi −hx, yihy, xi

hy, yi −hx, yihy, xi

hy, yi +hx, yihy, xi hy, yihy, yihy, yi, 0≤ hx, xi −hx, yihy, xi

hy, yi , hx, yihx, yi ≤ hx, xihy, yi,

|hx, yi|2≤ kxk2· kyk2.

Satz 3.1. Die vorhin definierte Norm kxk,·i :=p

hx, xiist tatsächlich eine Vektornorm.

Beweis. (N1) und (N2) sind klar. Wir zeigen (N3):

kx+yk2=hx+y, x+yi = hx, xi+hy, xi+hx, yi+hy, yi=

=hx, xi+hy, yi+hx, yi+hx, yi = hx, xi+hy, yi+ 2·Rehx, yi ≤

≤ hx, xi+hy, yi+ 2|hx, yi| C.S.≤ kxk2+kyk2+ 2kxk · kyk=

= (kxk+kyk)2

(17)

Bemerkung 3.2.3. Das Standard IP auf Kn induziert die k · k2-Norm.

3.3 Skalarprodukt und Winkel

a2=b2+c2−2bccosα („Cosinus-Satz“) a=ky−xk, b=kyk, c=kxk ky−xk2=kxk2+kyk2−2kxk · kykcosα

ky−xk2=hy−x, y−xi=hy, yi − hx, yi − hy, xi+hx, xi

x

y y−x

α 0 Daraus folgt

cos∠(x, y) = hx, yi kxk · kyk

Für normierte Vektoren ist das Standard-Skalarprodukt gleich dem Cosinus des von ihnen eingeschlossenen Winkels. Wenn xund y den Winkel von90 einschließen: hx, yi = 0 „x und y sind orthogonal“.

3.4 Orthogonalität

In diesem Abschnitt sind alle IP p.d..

Definition 3.4.1. SeiV ein IPR,v, w∈V. vundwheißenorthogonal, wennhv, wi= 0.

Beispiel 3.4.2. V =Kn,Standard IP, v=ei, w=ej, i6=j.

Satz 3.2 (Satz von Pythagoras). Seienx, y orthogonale Vektoren, dann gilt:

kx+yk2=kxk2+kyk2. Beweis.

kx+yk2=hx+y, x+yi=hx, xi+hx, yi

| {z }

0

+hy, xi

| {z }

0

+hy, yi=kxk2+kyk2.

y x+y

x

·

Definition 3.4.3. SeiV ein IPR undW ein Teilraum vonV, dann heißt W:={v∈V : hv, wi= 0 ∀w∈W} das „orthogonales Komplement vonW“

Proposition 3.4.4. Seien V, W, W wie in Definition 3.4.3. Dann ist W ein Teilraum vonV. Beweis. Seienv, v ∈W, α, β∈K. Dann gilt für allew∈W

hw, αv+βvi=αhw, vi

| {z }

=0

+βhw, vi

| {z }

=0

= 0.

Proposition 3.4.5. W ∩W ={0}.

(18)

Beweis. Seiv ∈W undv∈W. Dann gilt

hv, wi= 0 fürw∈W und speziell fürw=v:

0 =hv, vi ⇒v= 0.

Definition 3.4.6. SeiV ein IPR,S⊆V.S heißt Orthogonalsystem, wenn:

• v6= 0 ∀v∈S,

• hv, wi= 0 fürv 6=w∈S.

Wenn zusätzlich

• hv, vi= 1 ∀v∈S

gilt, heißtS ein Orthonormalsystem. IstS eine Basis eines TeilraumesW, so heißtS eine Ortho- gonalbasis bzw. Orthonormalbasis vonW.

Beispiel 3.4.7. V =Kn, S ={e1, . . . , en}ist Orthonormalbasis vonKn. Beispiel 3.4.8. V =C[−π, π] : gn= 1einx

Behauptung: (gn)nZ ist ein Orthonormalsystem.

hgn, gmi= Zπ

π

√1

2πeinx 1

√2πeimxdx

= 1 2π

Zπ

π

ei(mn)xdx

= 1 2π

1

i(mn)ei(mn)x

π

π m6=n

x|ππ m=n

= 1 2π

(cos((mn)π)+isin((mn)π)cos((mn)π)+isin((mn)π)

i(mn) m6=n

π−(−π) m=n

=

(0 m6=n 1 m=n

Proposition 3.4.9. Jedes Orthogonalsystem ist linear unabhängig.

Beweis. Seienv1, . . . , vk ∈S, λ1, . . . , λk∈K. 0 =λ1v1+. . .+λkvk 0 =λ1hvi, v1i

| {z }

0

+. . .+λihvi, vii+. . .+λkhvi, vki

| {z }

0

ihvi, vii

| {z }

6

=0

.

Daraus folgtλi = 0füri= 1, . . . , k.

(19)

3.5 Darstellung von Inneren Produkten durch Matrizen

M ∈Kn×n, M=M,hx, yiM :=xM yist inneres Produkt.

Satz 3.3. SeiV ein endlich-dimensionaler IPR (IP nicht notwendigerweise p.d.) mit einer festen Basis B = {v1, . . . , vd} mit der Koordinatenabbildung ΦB : Kd → V. Dann gibt es genau eine MatrixM, sodass für alle x,y∈V

hx, yi= ΦB1(x)B1(y).

gilt. Für diese Matrix gilt M =M. Beweis. Seix=

Pd j=1

xjvjundy= Pd j=1

yjvj, alsoΦB1(x) = (x1, . . . , xd)tundΦB1(y) = (y1, . . . , yd)t, dann gilt

hx, yi=

* d X

j=1

xjvj, Xd k=1

ykvk +

=X

j,k

xjhvj, vk

| {z }

mjk

iyk = ΦB1(x)B1(y).

Somit giltmjk=hvj, vki1j,kd. FürM folgt daraus:

M= (hvj, vki)1kd 1jd

= (hvk, vji)1kd 1jd

=M.

Falls es eine zweite Matrix gibt, sagen wirN, dann folgt daraus, dass für allex, y ΦB1(x)B1(y) =hx, yi= ΦB1(x)B1(y)

gilt, alsoΦB1(x)(M−N)ΦB1(y) = 0. Sei nunC=M−N, dann gilt für alleu, v∈Kn:uCv= 0.

Sei nunu=ei, v=ej. Dann folgt

(ei)Cej =cij,

für allei, j, somit mussC= 0gelten und daraus folgt schließlichM =N.

(20)

Kapitel 4

Innere Produkte und Lineare Abbildungen

4.1 Adjungierte Abbildungen

A∈Km×n ist lineare Abbildung Kn→Km viax7→Ax. A=Atist AbbildungKm→Kn. Beispiel 4.1.1. Standard-IP. Füry∈Km, x∈Kn gilt

hy, Axi

imKm

=yAx=y(A)x= (Ay)x=hAy, xi

imKn

Definition 4.1.2. Seien V, W IPR mit IP h·,·iV, h·,·iW, F : V → W linear. Eine Abbildung F:W →V heißt zu F adjungiert, wennhy, F(x)iW =hF(y), xiV, ∀x∈V,∀y∈W.

Beispiel 4.1.3. Fortsetzung des Beispiels 4.1.1.

IstF :x7→Axso istF:y7→Ay zuF adjungiert.

Lemma 4.1.4. Seien V ein IPR mit p.d. IP und x, x ∈V. Gilt hx, yi=hx, yi ∀y ∈V,dann gilt x=x.

Beweis.

hx−x, yi= 0 ∀y∈V Wähley=x−x.Daraus folgt

hx−x, x−xi= 0 und daraus folgt wiederumx−x= 0⇒x=x.

Proposition 4.1.5. SeienV, W, F, Fwie in Definition 4.1.2,h·,·isei p.d.. Dann istF:W →V linear.

Beweis. Seieny, z∈W, α, β∈K. Dann gilt für allex∈V

hF(αy+βz), xi=hαy+βz, F(x)i=αhy, F(x)i+βhz, F(x)i=

=αhF(y), xi+βhF(z), xi=hαF(y) +βF(z), xi und aus Lemma 4.1.4 folgt nun

F(αy+βz) =αF(y) +βF(z).

Proposition 4.1.6. Seien V, W, F wie in Definition 4.1.2. Die IP seien p.d.. G, H : W → V seien zu F adjungiert. Dann folgt G=H.

(21)

Beweis. Für allex∈V und y∈W gilt

hG(y), xi=hy, F(x)i=hH(y), xi, und aus Lemma 4.1.4 folgt

G(y) =H(y) ∀y∈W und daraus folgt natürlichG=H.

Satz 4.1. SeienV, W IPR mit p.d. IP.V sei endlich-dimensional,F :V →W linear. Dann gibt es genau eine Abbildung F:W →V , die zuF adjungiert ist. Sie ist gegeben durch

F(y) = Xd j=1

cjvj,wobei

 c1

... cd

= hvi, vji1 1i,jd



hF(v1), yi ... hF(vd), yi



und{v1, . . . , vd} eine Basis von V ist.

Beweis. Sei{v1, . . . vd} eine Basis vonV undy ∈W. Wir setzen F(y) =

Xd j=1

cjvj an, dann gilt:

hx, F(y)i=hx, Xd j=1

cjvji= Xd j=1

cjhx, vji. Andererseits gilthx, F(y)i=hF(x), yiund daraus folgt:

Xd j=1

hx, vjicj=hF(x), yi ∀x∈V.

DaV endlich-dimensional ist, müssen nur diex=vi mit i= 1, . . . , düberprüft werden, für alle anderenxfolgt es aus Linearkombination.

Xd j=1

hvi, vjicj =hF(vi), yi i= 1, . . . , d Das ist ein lineares GLS mit Systemmatrix:

M = (hvi, vji)1i,jd∈Kd×d.

WennM regulär ist, so hat das lineare GLS eine eindeutige Lösung, nämlich

 c1

... cd

=M1



hF(v1), yi ... hF(vd), yi

.

Annahme:M ist singulär. Dann existiert ein u6= 0∈Kd, sodass M u= 0 gilt, und daraus folgt uM u= 0.

0 =uM u= Xd i=1

Xd j=1

uihvi, vjiuj =

* d X

i=1

uivi, Xd j=1

ujvj +

, und daraus folgt:

Xd i=1

uivi= 0v=jl.u.u1=. . .=ud= 0, Widerspruch.

(22)

Beispiel 4.1.7. Fortsetzung des Beispiels 4.1.1. Überprüfe Formel an diesem Spezialfall. Seivi=ei deri-te Einheitsvektor

hei, eji=

(0 i6=j

1 i=j, M =I, M1=I.

F(ei) =ai. . . i-te Spalte vonA

hF(ei), yi= (ai)y

(hF(ei), yi)i=1,...,d= ((a1), . . . ,(ad))ty=Ay c=IAy=Ay

F(y) = Xd i=1

cjej= (c1. . . cd)t=Ay

Definition 4.1.8. Sei V IPR, F : V → V linear. F heißt selbstadjungiert, wenn F = F (A . . .hermitsch wennK=C, A . . .symmetrisch wennK=R).

Beispiel 4.1.9. Fortsetzung des Beispiels 4.1.1.

x7→Axist selbstadjungiert, wennA=A.

Proposition 4.1.10. U, V, W, endlich-dimensionale VR, F, G : V → W, H : U → V linear, α∈K. Dann gilt:

(F+G)=F+G (αF)=αF (F◦H)=H◦F

(F)=F

4.2 Unitäre Abbildungen

In diesem Abschnitt seien alle IP positiv definit.

Definition 4.2.1. SeienV, W IPR,F :V →W. F heißtunitär, wenn gilt:

hF(x), F(y)iW =hx, yiV ∀x, y∈V.

Bemerkung 4.2.2. Unitäre Abbildungen sind längen- und winkeltreu.

Lemma 4.2.3. Sei V ein endlich dimensionaler IPR und F :V →V linear. Dann ist F genau dann unitär, wennF◦F = idV.

Beweis. DaV endlich-dimensional ist, gibt es die adjungierte AbbildungF.

F ist unitär ⇐⇒ Für alle x, y ∈V gilthF(x), F(y)i=hx, yi ⇐⇒ Für alle x, y ∈V gilt h(F◦F)(x), yi=hx, yi ⇐⇒ Für allex∈V gilt(F◦F)(x) =x ⇐⇒ F◦F= id.

Im vorletzten Schritt wurde Lemma 4.1.4 benutzt.

Proposition 4.2.4. Sei A ∈ Km×n und h ·,· i das Standard-IP. Dann sind folgende Aussagen äquivalent:

1. x7→Axist unitär.

2. AA=I.

3. Die Spalten vonA bilden ein Orthonormalsystem.

(23)

Beweis. (1)⇔(2) folgt sofort aus Lemma 4.2.3 und Beispiel 4.1.1.

Im folgenden Beweis wird die i-te Zeile (bzw. Spalte) der Matrix A mit A(i,:)(bzw. A(:, i)) bezeichnet.

(2)⇔(3)AA=Igilt genau dann, wenn

hA(:, i), A(:, j)i= (A(:, i))·A(:, j) =A(i,:)·A(:, j) = (AA)ij =

(1 i=j 0 i6=j

Definition 4.2.5. Eine Matrix, die eine unitäre Abbildung bezüglich des Standard-IP vermittelt, heißtunitäre Matrix (fallsK=C) bzw.orthogonale Matrix (fallsK=R).

Satz 4.2. SeiV ein endlich-dimensionaler IPR. Dann bildet die Menge U(V) :={F :V →V : F ist unitär}

zusammen mit der Hintereinanderausführung von Funktionen eine Gruppe („unitäre Gruppe von V“).

Beweis. 1. SeienF, G∈U(V). H:=F◦G.

hH(x), H(y)i = hF(G(x)), F(G(y))i

Funitär

= hG(x), G(y)iGunitär= hx, yi. Daraus folgt, dass H unitär ist.

2. SeiF ∈U(V).Behauptung:F ist injektiv. Seix∈KerF, dann gilt 0 =hF(x), F(x)i=hx, xi.

Somit istx= 0und damit giltKer(F) = 0. Daraus folgt wiederum, dassF ist injektiv ist.

3. Aufgrund der Dimensionsformel folgt, dassF surjektiv und somit bijektiv ist. Deshalb exis- tiert auch die Funktion F1.

4. AusF◦F = idV =F1◦F folgt durch Multiplikation vonF1von rechts, dassF=F1. Daraus folgtidV =F◦F1=F◦F= (F)◦F, also istF1=F unitär.

Bemerkung 4.2.6. In einer orthogonalen(n×n)-Matrix sind nach dem letzten Punkt des Beweises von Satz 4.2 auch die Zeilen orthogonal.

Definition 4.2.7. Die unitäre GruppeU(Cn)desCn wird mit Un (unitäre Gruppe der Ordnung n), jeneU(Rn)desRnwird mitOn (orthogonale Gruppe der Ordnungn) bezeichnet. Diespezielle unitäre bzw.orthogonale Gruppe der Ordnungnsind

SUn:={F ∈Un: detF = 1}, SOn:={F ∈On: detF = 1} Was sind orthogonale Matrizen imR2? SeiA∈R2×2 orthogonal.

A= a c

b d

, somit kommt man zu folgendem Ansatz:

a2+b2= 1, c2+d2= 1, ac+bd= 0,

(24)

a= cos(φ), c= cos(ψ),

b= sin(φ), d= sin(ψ),

cos(φ)·cos(ψ) + sin(φ)·sin(ψ) = 0, cos(φ−ψ) = 0.

Somit muss geltenφ−ψ=2k+12 π, und schließlichψ=φ−2k+12 πfür eink∈Z. cos(ψ) = cos(φ)·0 + sin(φ)·sin

2k+ 1 2 π

| {z }

=:s∈{±1}

cos(ψ) =s·sin(φ) sin(ψ) = sin(φ)·cos

2k+ 1 2 π

−cos(φ)·sin

2k+ 1 2 π

| {z }

s

sin(ψ) =−s·cos(φ) Somit ergibt sich für die MatrixA:

A=

cos(φ) s·sin(φ) sin(φ) −s·cos(φ)

=

cos(φ) −sin(φ) sin(φ) cos(φ)

· 1 0

0 −s

1. Fall: (s=−1)

A=

cos(φ) −sin(φ) sin(φ) cos(φ)

2. Fall: (s= 1)

A=

cos(φ) −sin(φ) sin(φ) cos(φ)

1 0 0 −1

Die vordere Matrix entspricht hierbei einer Drehmatrix um den Winkelφ(im mathematisch posi- tiven Sinn). Sie ist Element derSO2. Die hintere Matrix hingegen entspricht einer Spiegelung an derx-Achse.

Satz 4.3. Orthogonale Abbildungen desR2 sind Zusammensetzungen von Drehungen und Spiege- lungen.

Proposition 4.2.8. Sei A∈Km×n, U ∈Km×m,V ∈Kn×n, wobei U undV unitär sind. Dann gilt

1. kU Ak2=kAk2. 2. kU AkF=kAkF 3. kAVk2=kAk2 4. kAVkF =kAkF Beweis. als Übung.

4.3 Projektionen

In diesem Abschnitt ist V ein IPR mit positiv definitem IP undW ein Teilraum vonV. Definition 4.3.1. Seienx, x∈V.xheißt Projektion vonxaufW, falls:

• x∈W,

• x−x∈W. x¯

x

·

W

(25)

Proposition 4.3.2. Sei x∈V. Dann gibt es höchstens eine Projektion von xauf W. Beweis. Seieny, zProjektionen vonxaufW.

x−y=y ∈W x−z=z ∈W y+y=x=z+z

y−z

| {z }

W

=z−y∈W

daraus folgt wegen Proposition 3.4.5y−z= 0und schließlichy=z.

Satz 4.4. Seix∈V und xeine Projektion von xaufW. Dann gilt:

kx−xk= min{kx−wk : w∈W}. Beweis.

kx−wk2=kx−x

| {z }

W

k2+kx−w

| {z }

W

k2 (Pythagoras), somit istkx−wk ≥ kx−xk, also istkx−xk der kürzeste Abstand.

Gibt es immer eine Projektion?

Seix∈V,undPW(x)die gesuchte Projektion mitPW :V →W hx−PW(x), wi= 0 ∀w∈W,∀x∈V

hx, wiV =hPW(x), wiW ∀x∈V,∀w∈W hx,i(w)iV =hPW(x), wiW

miti :W →V undw7→w

Also istPW :V →W adjungierte Abbildung zu i. Diese existiert auf jeden Fall, fallsW endlich- dimensional ist, da wenn{w1, . . . , wd} eine Basis vonW ist, gilt nach Satz 4.1

PW(x) = Xd j=1

cjwjfür

 c1

... cd

= (hwi, wji)11i,jd

 hw1, xi

... hwd, xi

.

Satz 4.5. Sei W endlich-dimensional. Dann gibt es genau eine Abbildung PW :V →V, sodass PW(x)die Projektion von xaufW ist (∀x∈V). Wenn{w1, . . . , wd} eine Basis von W ist, so ist

PW(x) = Xd j=1

cjwjfür

 c1

... cd

= (hwi, wji)11i,jd

 hw1, xi

... hwd, xi

.

Beweis. Siehe vorhergehende Überlegungen.

Korollar 4.3.3. SeiV =Knund{w1, . . . , wd}eine Basis vonW und seiA:= (w1. . . wd). Dann gilt

PW(x) =A·(AA)1Ax.

Beweis.

PW(x) =Ac, wobei c= (AA)1Ax.

(26)

Korollar 4.3.4. Sei{w1, . . . , wd} eine Orthonormalbasis vonW. Dann gilt PW(x) =

Xd j=1

hwj, xi ·wj.

Beweis. Durch Einsetzen von (hwi, wji)1i,jd = I und cj = hwj, xi erhält man direkt obiges Ergebnis.

Beispiel 4.3.5. V =C[−π, π], WN = span{1einx : −N ≤n≤N}. Seif ∈ C[−π, π]. Suche die Projektion vonf auf WN, also den kürzesten Abstand zwischenf undWN, beziehungsweise die beste Approximation vonf durch Funktionen inWN.

PW(f) = XN n=N

cneinx wobei

cn = 1

√2πdn= 1

√2π· h 1

√2πeinx, fi= 1 2π

Zπ

π

einxf(x)dx Diecn heißen Fourierkoeffizienten vonf.

Korollar 4.3.6. FallsW endlich-dimensional ist, so giltV =W⊕W,PW existiert und es gilt PW+PW = idV. Falls zusätzlich dimV <∞, dann gilt

dimW= dimV −dimW.

Beweis. Seix∈V. Dann gilt:

x=PW(x)

| {z }

W

+ (x−PW(x))

| {z }

W

.

Korollar 4.3.7. Seienx, y∈V mitkyk= 1. Dann gilt:

Pspan{y}(x) =hy, xi ·y, insbesondere

kPspan{y}(x)k=|hy, xi|. Beweis. Siehe Korollar 4.3.4.

Wie bekommt man eine Orthonormalbasis? Gibt es so etwas immer?

Korollar 4.3.8 (Gram-Schmidt-Verfahren). Sei {v1, . . . , vd}eine Basis von W, dann definiere:

wk :=vk

k1

X

j=1

hwj, vki

hwj, wjiwj k= 1, . . . , d.

Die Vektoren w1, . . . , wd bilden eine Orthogonalbasis vonW.

Beweis. Behauptung:{w1, . . . , wk} ist Orthogonalbasis vonspan{v1, . . . , vk}. k= 1 :

w1=v1. (k−1)→k:

zk:= 1 kwkkwk,

(27)

wk =vk

k1

X

j=1

hzj, vkizj,

=vk−Pspan{w1,...,wk−1}(vk),

daraus folgt:wk∈span{w1, . . . , wk1}. Somit folgt wiederum, dassw1, . . . , wk ein Orthogonal- system ist. Außerdem gilt

span{w1, . . . , wk}= span{w1, . . . , wk1, vk}= span{v1, . . . , vk1, vk}.

Bemerkung4.3.9.Das Gram-Schmidt-Verfahren ist numerisch besonders empfindlich. Auslöschung kann auftreten, wennvk+1 „fast“ ausspan{v1, . . . , vk} ist. (bsp_2_1.m,alg_2_1.m)

Satz 4.6 (Satz über Projektionsabbildungen). SeiP :V →V linear mit Im(P) =W. Dann ist P genau dann gleich der Projektionsabbildung PW, wenn:

• P2=P P ist idempotent“,

• P=P P ist selbstadjungiert“.

Beweis. 1. Für allex∈V undy∈W gilt

hPW(x), yi=hx, yi, (4.1)

hPW2(x), yi=hPW(PW(x)), yi

=hPW(x), yi,

somit folgt PW2(x) =PW(x)für allex∈V und es gilt:PW2=PW. 2. Für allex, y∈V gilt:

hPW(x), yi = hx, PW(y)

| {z }

W

i

=hPW(x), PW(y)i(4.1)= hPW(x), yi somit folgt: PW(x) =PW(x)für allex∈V und somitPW=PW.

3. Sei P eine Abbildung mit den angegebenen Eigenschaften. Für allex∈V gilt:P(x)∈W. Nun ist zu zeigen

x−P(x)∈W⇔ hx−P(x), yi= 0∀y∈W ⇔ hP(x), yi=hx, yi∀y∈W.

Für alle x∈V undy∈W gilt

hP(x), yi=hx, P(y)i=hx, P(y)i. Schreibe nun y=P(z)für passendesz∈V, und erhalte

hx, P2(z)i=hx, P(z)i=hx, yi.

(28)

4.4 Spiegelungen

V sei ein IPR mit positiv definitem IP undW sei ein endlich-dimensionaler Teilraum.

Definition 4.4.1. Die AbbildungSW :V →V mit SW(x) = 2PW(x)−x, heißt Spiegelung anW.

PW(x) x

SW(x)

·

W

Satz 4.7. SeiF :V →V linear. Dann ist F genau dann die Spiegelung SW, wenn

• F ist unitär,

• F2= id (F ist involutorisch),

• W ={x∈V : F(x) =x} (W ist der invariante Unterraum vonF).

Beweis. 1. Es gilt

hSW(x), SW(y)i=h2PW(x)−x,2PW(y)−yi

= 4hPW(x), PW(y)i −2hx, PW(y)i −2hPW(x), yi+hx, yi

= 2hPW(x), yi+ 2hx, PW(y)i −2hx, PW(y)i −2hPW(x), yi+hx, yi

=hx, yi,

da für v∈V undw∈W hv, wi=hPW(v), wi. 2.

SW(SW(x)) =SW(2PW(x)−x) = 2PW(2PW(x)−x)−2PW(x) +x

= 4PW(PW(x))

| {z }

PW(x)

−2PW(x)−2PW(x) +x=x.

Somit istS2W die identische Abbildung.

3. SeiF eine Abbildung mit den angegebenen Eigenschaften. SeiG(x) = F(x)+x2 . Zu zeigen ist nun, dassG=PW gilt. Zeige zunächst, dass G(x)∈W, und dannx−G(x)∈W.

F(G(x)) =F

F(x) +x 2

= 1

2(F2(x) +F(x)) = 1

2(x+F(x)) =G(x), und daraus folgtG(x)∈W.

• Seiw∈W,

hw, x−G(x)i=

w, x−F(x) +x 2

=

w,x−F(x) 2

=

=D w,x

2 E−D

F(w), Fx 2

E

=D w,x

2 E−D

w,x 2 E

= 0, und daraus folgtG(x) =PW(x)für allex.

Wir möchten nun für gegebenexundy eine Hyperebene W ={x:hx, wi= 0}= span{w} finden, sodassy=SW(x). Dabei sollwnormiert sein, d.h. kwk= 1.

SW(x) = 2PW(x)−x= 2(x−Pspan{w}(x))−x

= 2x−2(hw, xiw)−x=x−2hw, xiw.

(29)

Proposition 4.4.2. Sei V endlich-dimensional, w∈V mitkwk= 1. Dann gilt Sspan{w} =x−2hw, xiw.

Wir suchen nun einw, sodass

Sspan{w}(x) =y.

Brauchekxk=kyk, daS längentreu ist.y−xmuss auf Hyperebene normal stehen, somit muss w=α(y−x)für passendesα∈Kgelten und somit

1 =kwk=|α| · ky−xk ⇒ |α|= 1 ky−xk.

Da die Multiplikation von w mit einem Skalar die Hyperebene nicht ändert, kann es nur mit w= kyyxxk funktioneren.

Probe:

y−

x−2

y−x ky−xk, x

y−x ky−xk

= (y−x) + 2

hy−x, y−xihy−x, xi(y−x) =

=

1 + 2 hy−x, xi hy−x, y−xi

(y−x).

Hoffnung:hy−x, y−xi=−2hy−x, xi, dies ist äquivalent zu 0 =hy−x,2x+ (y−x)i

=hy−x, x+yi=hy−x, y+xi

=hy, yi − hx, yi+hy, xi − hx, xi

= 2 Imhy, xi. Somit ergibt sich die weitere Forderunghx, yi ∈R.

Proposition 4.4.3. Seien x, y∈V,kxk=kyk,hx, yi ∈R. Setze:w= kyyxxk. Dann gilt Sspan{w}(x) =y.

Beweis. Siehe vorhergehende Überlegungen.

4.5 Dualraum

Definition 4.5.1. SeiV einK-Vektorraum, dann heißt V :={f :V →K, f linear} der Dual- raum vonV. Seine Elemente heißen „lineare Funktionale“.

Bemerkung 4.5.2. V ist einK-Vektorraum.

Proposition 4.5.3. Ist V endlich-dimensional, dann ist auch V endlich-dimensional und es gilt dimV = dimV. Wenn {v1, . . . , vd} eine Basis von V ist, so ist eine Basis von V durch {f1, . . . , fd} gegeben, wobei

fi(vj) =

(1 i=j 0 i6=j , die „duale Basis“ ist.

Beweis.

V∼={f :Kd→K linear} ∼=K1×d∼=Kd,

und somit giltdimV=d= dimV. Die Basis(ei)t, i= 1, . . . , d, desK1×dentspricht dabei genau den Abbildungenfi aus der Proposition.

(30)

4.5.1 Zusammenhang zwischen Dualraum und inneren Produkten

Sei V ein endlich-dimensionaler IPR mit p.d. IP. Für ein w ∈ V ist hw,·i : V → K, v 7→ hw, vi lineare Abbildung.

Φ :V →V, w7→ hw,·i.

Sei zunächstK=R. Für alle v, w, w∈V undα, β∈Kgilt

Φ(αw+βw)(v) =hαw+βw, vi=αhw, vi+βhw, vi

= (αΦ(w) +βΦ(w))(v),

und daraus folgt, dass Φeine lineare Abbildung: V →V ist. Behaupte nun Φsei injektiv, dies ist aber dasselbe wieKer Φ ={0}.

Beweis. Seiw∈V mitΦ(w) = 0. Daraus folgthw, vi= 0für allevund somit istw= 0. Aufgrund der Dimensionsformel ergibt sich nun, dass Φ surjektiv ist, und somit ist Φ natürlich auch ein Vektorraumisomorphismus.

Satz 4.8. SeiV ein endlich-dimensionaler Euklidischer Raum (mit p.d. IP). Dann ist die Abbil- dungΦ :V →V, w7→ hw,·iein Vektorraumisomorphismus.

WennK=Cgilt, dann istΦbijektiv und antilinear.

Abbildung

Abbildung 6.1: Hyperbel y = 2x 1 Hauptformen von Kegelschnitten:
Abbildung 6.2: Hyperbel u 2 − v 2 = 1 in erster Hauptlage

Referenzen

ÄHNLICHE DOKUMENTE

[r]

[r]

Die Spirale ist eine logarithmische Spirale mit folgender Drehstreck- symmetrie: Drehung um 45° mit gleichzeitiger Streckung mit 2 ist eine Deckabbil- dung

Die gleichseitige Hyperbel gilt als die speziellste Hyperbel, analog zum Kreis als speziellster Ellipse.. Da der Umkreis und die Eulergerade zwei Schnittpunkte haben, gibt

Für die Teilnehmer der Analysis T1 (also nicht T1a!): bitte im tugonline zur Prüfung am 24.11. auch eine Prüfung, brauchen sich für die Klausur am 24.11. aber nicht anmelden, weil

Dann muss aber ganz (y n ) n∈ N zu Null konvergieren, denn ansonsten es existiert eine Teilfolge die nicht zu Null geht, und dies widerspricht die Voraussetzung.. Nun zur

[r]

[r]