• Keine Ergebnisse gefunden

11 Euklidische und unitäre Vektorräume

N/A
N/A
Protected

Academic year: 2022

Aktie "11 Euklidische und unitäre Vektorräume"

Copied!
15
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

11 Euklidische und unitäre Vektorräume

11.1 Norm und Skalarprodukt

Für den Rn lässt sich die Länge eines Vektors x durch die Normkxkmessen und durch Skalarprodukte sogar der Winkel cos](x,y) = kxk·kykhx,yi zwischen zwei Vektoren x,y er- mitteln. Diese Eigenschaften möchte man gerne auf allgemeine Vektorräume übertragen und dazu werden die charakterisierenden Eigenschaften dieser geometrischen Begriffe benötigt. Ist ein Vektorraum über R oder C gegeben, so lassen sich die wesentlichen Eigenschaften der Länge eines Vektors wie folgt zusammenfassen.

Definition 11.1 (Norm)

Für einem K-Vektorraum V mit K=Roder C ist eine Abbildung k·k:V !R+, v 7! kvk

eine Norm auf V, falls für alle v,w2V und 2K die folgenden Eigenschaften gelten:

(N1) kvk= 0,v=0, (Positive Definitheit)

(N2) k vk=| | ·kvk, (Absolute Homogenität)

(N3) kv+wk  kvk+kwk. (Sublinearität)

Gibt es auf einem Vektorraum V eine Norm k·k, so nennt man das Paar (V,k·k) einen normierten Raum.

Erfüllt eine Norm nicht die Eigenschaft (N1), so nennt man sie eine Semi- oder Halbnorm.

Die Halbnorm (und Norm) des Nullvektors ist stets Null und jede Halbnorm (und Norm) stets nicht-negativ, denn

0 = |0| ·kvk(N2)= k0·vk=k0k=kv+ ( v)k(N3) kvk+k vk(N2)= kvk+kvk= 2·kvk. Beispiel 11.2 (i) Für V =Rn sind die folgenden Abbildungen eine Norm auf Rn:

(a) Die kanonische Norm (oder euklidische Norm bzw. 2-Norm)

kxk2 :=

q

x21+x22+. . .+x2n= Xn

i=1

x2i

!12

für x2Rn.

(2)

(b) Die Summennorm (oder 1-Norm)

kxk1 :=|x1|+|x2|+. . .+|xn|= Xn

i=1

|xi| für x2Rn. (c) Für alle p 1 die p-Norm

kxkp := pp

|x1|p+|x2|p+. . .+|xn|p = Xn

i=1

|xi|p

!1p

fürx2Rn.

(d) Die Maximumsnorm (mit kxk1 := lim

p!1kxkp) kxk1:= max

1in{|xi|} für x2Rn. (ii) Für V =Cn ist die kanonische Norm k·k:Cn !Rgegeben durch

kzk:=p

z1z1+. . .+znzn = Xn

i=1

zizi

!12

= Xn

i=1

|zi|2

!12

für z2Cn.

(iii) Für den Raum der stetigen Funktionen V = C([a, b];R) auf dem abgeschlossenen Intervall [a, b] sind die folgenden Abbildungen k·k:C([a, b];R)!R eine Norm (a) Die 2-Norm

kfk2 :=

✓Z b

a |f(x)|2 dx

12 .

(b) Die Supremumsnorm

kfk1:= sup{|f(x)| |axb}.

Die Beispiele zeigen, dass es zu einem Vektorraum viele verschiedene Normen geben kann. Üblicherweise ist aus dem Kontext ersichtlich, welche Norm verwendet wird, und man lässt daher den Subskript an der Norm weg. Oftmals ist sogar die Angabe nicht notwendig, denn viele Normen sind in folgendem Sinne äquivalent.

Definition 11.3 (Äquivalente Normen)

Zwei Normen k·kV,1 und k·kV,2 heißen äquivalent, falls es Konstanten c1, c2 >0 gibt, so dass gilt

c1kvkV,2  kvkV,1 c2kvkV,2 für alle v2V. (11.1)

(3)

11.1 Norm und Skalarprodukt Sind zwei Normen äquivalent, so lassen sich Abschätzungen in der einen Norm direkt auf die andere Norm übertragen. Ist der Raum V endlichdimensional, so sind alle Normen äquivalent.

Beispiel 11.4 Für alle x2Rn gilt:

p1

n kxk2  kxk1 kxk1 p

nkxk2. Definition 11.5 (Normierter Vektor)

Ein Vektor v2V mit der Eigenschaftkvk= 1 heißt normiert.

Jeden Vektor v6=0 kann man normieren, denn e

v:= 1

kvk ·v ) kevk= 1

kvk ·v = 1

kvk ·kvk= 1.

Um die Möglichkeit der Winkelmessung zu verallgemeinern, werden die wesentlichen Eigenschaften eines Skalarprodukts durch die folgende Definition beschrieben.

Definition 11.6 (Skalarprodukt)

Für einem K-Vektorraum V mit K=Roder C ist eine Abbildung

h·,·i:V ⇥V !K, (v,w)7! hv,wi (11.2) ein Skalarprodukt (oder inneres Produkt), falls für alle u,v,w 2 V und 2 K die folgenden Eigenschaften erfüllt sind:

(S1) hu,ui 0 und hu,ui= 0 ,u =0, (Positive Definitheit) (S2)(i) hu+v,wi=hu,wi+hv,wi, h u,vi= hu,vi, (Linear im 1. Argument)

(S3) hu,vi=hv,ui. (Symmetrie / Hermitesch)

Gibt es auf einem VektorraumV ein Skalarprodukth·,·i, so nennt man das Paar(V,h·,·i) einen Skalarproduktraum (oder Prä-Hilbertraum).

Für eine reelle Zahl gilt stets = . Verwendet man zudem die Eigenschaft (S3), so findet man für die beiden Fälle erweiterte Eigenschaften.

Für K=R:

(S2)(ii) hu,v+wi=hu,vi+hu,wi, hu, vi= hu,vi, (Linear im 2. Argument)

(S3) hu,vi=hv,ui, (Symmetrie)

Für K=C:

(S2)(ii) hu,v+wi=hu,vi+hu,wi, hu, vi= hu,vi, (Semilinear im 2. Argument)

(S3) hu,vi=hv,ui. (Hermitesch)

Man bezeichnet dabei eine lineare Funktion, die zwar additiv ist, jedoch die Homogenität nur halb erfüllt, f( x) = f(x), als semilinear. Dementsprechend wird die Eigenschaft

(4)

(S2)(i)-(S2)(ii) im komplexen Fall auch Sesquilinearität (112-fach linear) und im reellen FallBilinearität (2-fach linear) genannt.

Ein Skalarprodukt für einen reellen Vektorraum ist somit eine positiv definite, symmetri- sche Bilinearform und für einen komplexen Vektorraum eine positiv definite, hermitesche Sesquilinearform.

Definition 11.7 (Euklidische und unitäre Vektorräume)

Einen K-Vektorraum mit Skalarprodukt nennt man im Falle K =R einen euklidischen Vektorraum und im Falle K=C einen unitären Vektorraum.

Beispiel 11.8 (i) Für V = Rn ist das kanonische Skalarprodukt h·,·i : Rn⇥Rn ! R definiert durch

hx,yi:=x1y1+x2y2+. . .+xnyn= Xn

i=1

xiyi für x,y2Rn.

(ii) Für V =Cn ist das kanonische Skalarprodukt h·,·i:Cn⇥Cn!R definiert durch hz,wi:=z1w1+. . .+znwn=

Xn

i=1

ziwi für z,w2Cn.

(iii) Für den Raum der stetigen FunktionenV =C([a, b];R)ist ein Skalarprodukth·,·i: C([a, b];R)⇥C([a, b];R)!Rgegeben durch

hf, gi:=

Z b a

f(x)g(x) dx.

Besitzt ein Vektorraum ein Skalarprodukt, dann auch automatisch eine Norm.

Satz 11.9 (Induzierte Norm)

Auf jedem Skalarproduktraum gibt es die durch das Skalarprodukt induzierte Norm kvk:=p

hv,vi, für alle v2V.

Beweis. Durch die definierenden Eigenschaften des Skalarprodukts lassen sich direkt

die Norm-Eigenschaften der induzierten Norm folgern. ⇤

Für den Rn wird die Norm k·kp nur fürp= 2 von einem Skalarprodukt induziert.

Satz 11.10 (Cauchy-Schwarzsche Ungleichung)

In einem Skalarproduktraum (V,h·,·i) gilt für beliebige Vektoren v,w2V und mit der induzierten Norm k·k=p

h·,·i die Cauchy-Schwarzsche Ungleichung

|hv,wi| kvk·kwk.

(5)

11.2 Orthogonale Vektoren und Abbildungen

Beweis. Für w=0 gilt die Gleichung direkt. Für w6=0 und jedes 2C gilt 0 hv w,v wi=hv,vi hw,vi hv,wi+ hw,wi. Für die Wahl = hv,wi

kwk2 folgt damit

0 kvk2 hw,vi hv,wi+ kwk2

=kvk2 hv,wi

kwk2 hw,vi hv,wi

kwk2 hv,wi+ hv,wihv,wi kwk2kwk2 kwk2

=kvk2 |hv,wi|2 kwk2 und somit

|hv,wi|2  kvk2kwk2.

Wurzelziehen liefert die Behauptung. ⇤

Aufgrund der Cauchy-Schwarzschen-Ungleichung gilt damit stets 1 hv,wi

kvk·kwk 1 und somit macht die folgende Definition Sinn.

Definition 11.11 (Winkel)

In einem Skalarproduktraum (V,h·,·i) ist der Winkel ](v,w) zwischen zwei Vektoren v,w2V definiert durch

cos](v,w) := hv,wi kvk·kwk.

Damit lässt sich auch zwischen zwei Funktionen eines Funktionenraums formal ein Win- kel zuordnen.

11.2 Orthogonale Vektoren und Abbildungen

Definition 11.12 (Orthogonale Vektoren) Sei (V,h·,·i) ein Skalarproduktraum.

(i) Zwei Vektoren v,w2V heißen orthogonal oder senkrecht, falls gilt hv,wi= 0 (:,v?w).

(6)

(ii) Zwei Untervektorräume U, W ⇢V heißen orthogonal, falls gilt U ?W :, u?w für alle u2U,w2W.

(iii) Zu einem Untervektorraum U ⇢V ist das orthogonale Komplement definiert als U? :={v2V | v?u für alle u2U}.

(iv) Eine Familie(v1, . . . ,vk) in V heißtorthogonal, fallsvi ?vj für alle i6=j. Die Familie heißt orthonormal, falls zusätzlich kvik= 1 für alle i= 1, . . . , k gilt.

(v) Ist eine Basis vonV eine orthonormale Familie, so heißt sie Orthonormalbasis.

U

U?

Eine Orthonormalbasis ist sehr wünschenswert, denn die Darstellung eines Vektors lässt sich dann mit Hilfe des Skalarprodukts ermitteln.

Satz 11.13 (Entwicklung in der Orthonormalbasis)

Sei (v1, . . . ,vn) eine Orthonormalbasis von V. Dann gilt für jeden Vektor v 2 V die Darstellung

v= Xn

i=1

hv,viivi.

Beweis. Die Koeffizienten der Linearkombination v = ↵1v1 +. . .+↵ivi+. . .+↵nvn

durch die Basis sind eindeutig bestimmt und man findet durch Skalarproduktbildung mit vi den Koeffizienten

hv,vii=↵1h| {z }v1,vii

=0

+. . .+↵ih| {z }vi,vii

=1

+. . .+↵nh| {z }vn,vii

=0

=↵i.

⇤ Daher möchte man zu einem Vektorraum gerne eine Orthonormalbasis besitzen. Diese kann man wie folgt bestimmen.

(7)

11.2 Orthogonale Vektoren und Abbildungen Satz 11.14 (Gram-Schmidt Orthonormalisierung)

Sei (V,h·,·i) ein Skalarproduktraum mit n := dimV < 1 und (v1, . . . ,vn) eine Basis von V. Dann erhält man durch die rekursive Berechnung von

e

vk :=vk

k 1

X

i=1

hvk,wiiwi, (Orthogonalisierung) wk := 1

kevkkvek (Normierung)

eine Orthonormalbasis (w1, . . . ,wn)von V und somit besitzt jeder endlichdimensionale Skalarproduktraum eine Orthonormalbasis.

Beweis. Induktion nach k: Seien die (w, . . . ,wk 1) orthonormal. Dann ist der Vektor e

vk orthogonal zu allen wj mit j = 1, . . . , k 1, denn es gilt

hevk,wji=hvk,wji

k 1

X

i=1

hvk,wii hwi,wji=hvk,wji hvk,wji= 0.

Die Normalisierung liefert dann die Behauptung. ⇤

Beispiel 11.15

Gegeben sei die Basis des R3 durch

v1 = 0

@1 1 1

1 A,v2 =

0

@0 1 1

1 A,v3 =

0

@0 0 1

1 A.

(8)

Dann findet man die Orthonormalbasis

e

v1 =v1 = 0

@1 1 1

1 A,

kev1k=p

3 ) w1 = 1

p3 0

@1 1 1

1 A,

e

v2 =v2 hv2,w1iw1

= 0

@0 1 1

1 A h

0

@0 1 1

1 A, 1

p3 0

@1 1 1

1 Ai· 1

p3 0

@1 1 1

1 A

= 0

@0 1 1

1 A 2

3 0

@1 1 1

1 A= 1

3 0

@ 2 1 1

1 A,

kev2k= p6

3 ) w2 = 1

p6 0

@ 2 1 1

1 A,

e

v3 =v3 hv3,w1iw1 hv3,w2iw2

= 0

@0 0 1

1 A h

0

@0 0 1

1 A, 1

p3 0

@1 1 1

1 Ai· 1

p3 0

@1 1 1

1 A h

0

@0 0 1

1 A, 1

p6 0

@ 2 1 1

1 Ai· 1

p6 0

@ 2 1 1

1 A

= 0

@0 0 1

1 A 1

3 0

@1 1 1

1 A 1

6 0

@ 2 1 1

1 A= 1

2 0

@ 0 1 1

1 A,

kev3k= p2

2 ) w3 = 1

p2 0

@ 0 1 1

1 A.

Durch diese Darstellungsmöglichkeiten mittels des Skalarprodukts kann man auch eine eindeutige Projektion definieren.

Definition 11.16 (Orthogonale Projektion)

Sei V ein Skalarproduktraum und U ⇢ V ein Untervektorraum. Eine orthogonale Pro- jektion auf U ist eine Abbildung, die jedem Vektorv 2V einen Vektor PU(v)2U des Unterraums zuordnet, der den geringsten Abstand zu v besitzt.

(9)

11.2 Orthogonale Vektoren und Abbildungen

u1

u2

u3

U = span(u1,u2) v

PU(v)

Satz 11.17

Zu jedem Unterraum U ⇢ V eines Skalarproduktraums ist die orthogonale Projektion mittels einer Orthonormalbasis (u1, . . . ,ur) von U gegeben durch

PU :V !U, v7!PU(v) :=

Xr

i=1

hv,uiiui.

Diese Abbildung ist eindeutig und erfüllt PU|U = idU und Kern(PU) = U? und man findet eine orthogonale Darstellung v=u+u? mit u2U und u?2U?.

Beweis. Die Orthonormalbasis(u1, . . . ,ur)von U lässt sich zu einer Orthonormalbasis (u1, . . . ,ur,ur+1, . . . ,un) von V mit dem Verfahren von Gram-Schmidt ergänzen. Stellt man v durch diese Basis dar, so findet man eine Zerlegung

v= Xr

i=1

hv,uiiui

| {z }

:=u2U

+ Xn

i=r+1

hv,uiiui

| {z }

:=u?2V\U

=u+u?

und da es sich um eine Basis handelt, ist diese Darstellung eindeutig. Der so definierte Vektor u ist auch der Vektor mit kürzestem Abstand zu v, denn man findet für einen beliebigen Vektor in U den Abstand

v Xr

i=1 iui

2

=hv Xr

i=1

iui,v Xr

j=1 juji

=hv,vi Xr

i=1

ihui,vi Xr

j=1

jhv,uji+ Xr

i,j=1

i jhui,uji

| {z }

=ij

=hv,vi+ Xr

i=1

i i ihui,vi ihv,uii

=hv,vi+ Xr

i=1

( i hv,uii)( i hui,vi) |hv,uii|2

=kvk2 Xr

i=1

|hv,uii|2+ Xr

i=1

| i hv,uii|2,

und dieser wird für die Wahl i =hv,uii minimal. ⇤

(10)

Definition 11.18 (Orthogonale Abbildungen)

Seien V, W zwei Skalarprodukträume überK. Eine lineare Abbildung f :V !W heißt orthogonal (K=R) bzw. unitär (K=C), falls gilt

hf(v1), f(v2)iW =hv1,v2iV für alle v1,v2 2V.

Eine orthogonale Abbildung besitzt bemerkenswerte Eigenschaften.

Satz 11.19 (Eigenschaften von orthogonalen Abbildungen) Für eine orthogonale Abbildung f :V !W gilt:

(i) kf(v)k=kvk (Längen bleiben erhalten), (ii) kfhf(v(v11)k·kf(v),f(v2)2i)k = kvhv1,v2i

1k·kv2k (Winkel bleiben erhalten), (iii) f ist injektiv und falls V =W somit ein Isomorphismus, (iv) für einen Eigenwert vonf gilt stets | |= 1.

Beweis. (i)-(ii) folgen direkt aus der Definition. Durch (i) und der Positivität der Norm sieht man, dass nur der Nullvektor auf Null abgebildet werden kann. Für eine Eigenwert findet man zudem kvk=kf(v)k=k vk=| | kvk und damit | |= 1. ⇤

Orthogonale Abbildung erhalten somit Längen und Winkel. Anschaulich gesprochen sind dies die Drehungen und Spiegelungen im Raum.

Satz 11.20 (Orthogonale Abbildungen erhalten Orthonormalbasen)

Sei f : V !W und (v1, . . . ,vn) eine Orthonormalbasis von V. Eine lineare Abbildung f :V ! W ist genau dann orthogonal, wenn (f(v1), . . . , f(vn))eine Orthonormalbasis von W ist.

Beweis. Ist f orthogonal, dann gilt hf(vi), f(vj)i = hvi,vji = ij und man hat die gewünschte Orthonormalbasis in W. Sind umgekehrt mit hf(vi), f(vj)i = ij eine Or- thonormalbasis gegeben, so findet man für beliebige Vektoren v =Pn

i=1 ivi und w = Pn

i=1µivi auch

hf(v), f(w)i=hf( Xn

i=1

ivi), f( Xn

j=1

µjvj)i=h Xn

i=1

if(vi), Xn

j=1

µjf(vj)i

= Xn

i=1

Xn

j=1

iµjhf(vi), f(vj)i= Xn

i=1

Xn

j=1

iµj ij = Xn

i=1

Xn

j=1

iµjhvi,vji

=hv,wi.

(11)

11.3 Adjungierte Abbildungen In der Sprache der Matrizen bedeutet dies, dass die Spalten der Matrixdarstellung (dies sind die Bilder der kanonischen Einheitsvektoren) ein Orthonormalsystem bilden müs- sen. Bildet man daher das Skalarprodukt von jeder Spalte mit den anderen, so ergeben alle Null und nur das Produkt mit sich selbst ergibt Eins. Eine elegante Art alle diese Produkte zu notieren besteht darin, das Produkt AT ·A zu bilden, da dieses genau alle diese Skalarprodukte durchführt. Dafür gilt dann aber AT ·A=1n.

Definition 11.21 (Orthogonale Matrix)

Eine Matrix A2Rnn heißt orthogonal, falls giltA 1 =AT. Eine Matrix A2Cnn heißt unitär, falls giltA 1 =AT. Satz 11.22 (Eigenschaften orthogonaler Matrizen) Für eine orthogonale Matrix A 2Rnn gilt:

(i) ATA=AAT =1n,

(ii) Die Spalten und Zeilen vonA bilden eine Orthonormalbasis, (iii) detA=±1.

Beweis. (i)-(ii) folgen aus obiger Diskussion. Für (iii) folgt aus AT · A = 1n auch det (AT ·A) = detAT ·detA= (detA)2 = det1n = 1. ⇤

11.3 Adjungierte Abbildungen

Definition 11.23 (Adjungierte Abbildungen)

Sei (V,h·,·i) und (W,h·,·i) zwei Skalarprodukträume und f : V ! W eine lineare Abbildung. Dann heißt eine lineare Abbildung f : W !V die adjungierte Abbildung zu f, falls gilt:

hf(v),wiW =hv, f(w)iV für alle v2V, w2W.

Definition 11.24 (Selbstadjungierte Endomorphismen)

Sei (V,h·,·i) ein Skalarproduktraum. Ein Endomorphismus f : V ! V heißt selbstad- jungiert, falls gilt:

hf(v),wi=hv, f(w)i für alle v,w2V.

Beispiel 11.25

Sei V =C01([a, b];R)der Raum der reellwertigen, beliebig oft differenzierbaren Funktio- nen auf dem Intervall [a, b], die in den Randpunkten den Wert Null annehmen, d.h. für f 2C01([a, b];R)gilt stets f(a) = f(b) = 0. Dann ist die zweite Ableitung

:V !V, f 7!f00

(12)

ein selbstadjungierter Endomorphismus bzgl. des Skalarprodukts h·,·i:V ⇥V !R, hf, gi:=

Z b a

f(x)g(x) dx.

Dies sieht man durch die zweifache Anwendung der partiellen Integration Z b

a

f(x)g0(x) dx= [f(x)g(x)]ba Z b

a

f0(x)g(x) dx.

Damit gilt nämlich für zwei beliebige Funktionen f, g2C01([a, b];R) die Gleichung hf, (g)i=

Z b a

f(x)g00(x)dx= [f(x)g0(x)]ba

| {z }

=0,daf(a)=f(b)=0

Z b a

f0(x)g0(x) dx

= [f0(x)g(x)]ba

| {z }

=0,dag(a)=g(b)=0

+ Z b

a

f00(x)g(x) dx=h (f), gi.

Diese Endomorphismen hängen eng mit symmetrischen bzw. hermiteschen Matrizen zu- sammen.

Definition 11.26 (Symmetrische und hermitesche Matrizen) Eine Matrix A2Rnn heißtsymmetrisch, fallsAT =A.

Eine MatrixA2Cn⇥nheißt hermitesch, fallsAT =A(dabei bezeichnet Adie komplex konjugierte Matrix zu A, in der jedes Element komplex konjugiert ist).

Satz 11.27 (Darstellung selbstadjungierte Endomorphismen)

Sei f :V !V ein Endomorphismus undB eine Orthonormalbasis vonV. Dann gilt f selbstadjungiert , MB,B(f)ist symmetrisch bzw. hermitesch.

Beweis. SeiB= (v1, . . . ,vn)die Orthonormalbasis und zwei Vektorenv,w2V in den Koordinatenx= B1(v),y= B1(w) dieser Basis entwickelt. Dann findet man

hv,wi=h Xn

i=1

xivi, Xn

j=1

yjvji= Xn

i,j=1

xiyjhvi,vji= Xn

i,j=1

xiyj ij = Xn

i=1

xiyi =xTy=hx,yi.

Ist der Endomorphismus durch die Matrix A := MB,B(f) dargestellt, so findet man daher

hf(v),wi= (Ax)Ty=xTATy bzw. hf(v),wi= (Ax)Ty=xTATy und hv, f(w)i=xT(Ay) =xTAy bzw. hv, f(w)i=xT(Ay) =xTAy

und daher AT =A bzw. AT =A. ⇤

(13)

11.3 Adjungierte Abbildungen Selbstadjungierte Endomorphismen sind dahingehend besonders (und damit einfacher), dass sie nur reelle Eigenwerte besitzen können.

Satz 11.28 (Eigenwerte selbstadjungierter Endomorphismen sind reell) Ist f : V ! V ein selbstadjungierter Endomorphismus eines K-Skalarproduktraums V mit K = R oder C, dann sind alle Eigenwerte reell - d.h. eine hermitesche Matrix hat nur reelle Eigenwerte.

Beweis. Für einen Eigenwert mit Eigenvektor v findet man

hv,vi=h v,vi=hf(v),vi=hv, f(v)i=hv, vi= hv,vi

und da v6= 0 und somit hv,vi 6= 0 folgt = . ⇤

Zudem sind Eigenvektoren zu verschiedenen Eigenwerte nicht nur linear unabhängig, sondern sogar orthogonal.

Satz 11.29 (Eigenvektoren selbstadjungierter Endomorphismen sind ortho- gonal)

Sei f :V !V ein selbstadjungierter Endomorphismus eines K-Skalarproduktraums V. Dann sind die Eigenvektoren zu verschiedenen Eigenwerten von f orthogonal.

Beweis. Für f(vi) = ivi und f(vj) = jvj findet man

hf(vi),vji=hvi, f(vj)i ) h ivi,vji=hvi, jvji )( i j)hvi,vji= 0

und somit hvi,vji= 0 für i 6= j. ⇤

Wählt man zusätzlich in jedem Eigenraum eine Orthonormalbasis, dann erhält man somit eine Familie von Eigenvektoren die orthonormal sind. Diese bilden dann aber sogar eine Basis vom Raum.

Satz 11.30 (Für selbstadjungierte Endomorphismen gibt es eine Orthonor- malbasis aus Eigenvektoren)

Ist f : V ! V ein selbstadjungierter Endomorphismus eines Skalarproduktraums V, dann gibt es eine Orthonormalbasis von V aus Eigenvektoren von f.

Beweis. Das charakteristische Polynom zerfällt in Linearfaktoren: Für den Fall K=C gilt dies wegen des Fundamentalsatzes der Algebra. Für den Fall K =R fasst man das (reelle) Polynom zunächst auch als ein Polynom in C auf. Dies zerfällt zu nächst in Linearfaktoren mit Koeffizienten in C. Da alle Eigenwerte des selbstadjungierten Endo- morphismus reell sein müssen, sind die Koeffizienten sogar aus R und man erhält nur reelle Linearfaktoren

Pf( ) =±( 1)·. . .·( n) mit 1, . . . , n2R.

(14)

Die zugehörigen Eigenvektoren lassen sich nun als Orthonormalbasis wählen: Dies sieht man als Induktion über n := dimV. Für n = 0hat man die leere (und somit orthonor- male) Basis. Für n 1 gibt es eine Eigenvektor v1 zu 1 und diesen kann man sogar normiert wählenkv1k= 1. Zu diesem Eigenvektor betrachtet man das orthogonale Kom- plementV? :={v2V |hv1,vi= 0}. Dafür stellt man fest, dassf von V? wieder nach V? abbildet, denn für irgendeinen Vektorv2V? findet man, dass auchf(v)2V?gilt, wie man schnell nachrechnet:

hv1, f(v)i=hf(v1),vi=h 1v1,vi= 1hv1,vi= 0.

Damit ist f : V? ! V? eine Endomorphismus und die Dimension von V? ist n 1.

Nach Induktionsvoraussetzung gibt es dafür eine Basis aus Eigenvektoren für V? und zusammen mitv1 erhält man daraus eine Orthonormalbasis aus Eigenvektoren fürV.⇤ Satz 11.31 (Hauptachsentransformation)

Sei der selbstadjungierte Endomorphismus f : V ! V bzgl. der Orthonormalbasis B durch die symmetrische (bzw. hermitesche) Matrix A := MB,B(f) dargestellt. Dann gibt es eine Basistransformation auf eine BasisBemit einer orthogonalen Transformation TBe,B, so dass die Matrixdarstellung Diagonalgestalt besitzt, d.h. es gilt

Ae =MBe,Be(f) =TBe,B ·MB,B(f)·⇣

TBe,BT

= 0 BB B@

1 . . . 0

... 2 ...

... ...

0 . . . n

1 CC CA

und die 1, . . . , n sind die Eigenwerte von f. Speziell gibt es zu jeder symmetrischen reellen Matrix A eine orthogonale Matrix S, so dass

Ae =SAST

Diagonalgestalt besitzt.

Die praktische Berechnung zur Diagonalisierung eines selbstadjungierten Endomorphis- musf :V !V geht wie folgt:

(1) Man stellt f : V ! V bzgl. einer beliebigen Basis B als Matrix A = MB,B(f) dar und berechnet das charakteristische Polynom Pf.

(2) Man bestimmt die Zerlegung Pf( ) = ±( 1)µ(Pf; 1) ·. . .·( k)µ(Pf; k) und damit die Eigenwerte 1, . . . , k von Pf.

(3) Man berechnet für jeden Eigenwert i, i = 1, . . . , k, eine Basis vom Eigenraum Eig(f; i) und wendet darauf das Verfahren von Gram-Schmidt an. Dadurch erhält man eine Orthonormalbasis (v(i)1 , . . . ,vn(i)i)für jeden Eigenraum.

(4) Die Aneinanderreihung der Basisvektoren ergibt die gesuchte Orthonormalbasis Be= (v1(1), . . . ,v(1)n1, . . . ,v(k)1 , . . . ,v(k)nk)

(15)

11.3 Adjungierte Abbildungen bezüglich derer die Matrixdarstellung die Gestalt

Ae =MBe,Be(f) = 0 BB BB BB BB BB

@

1 ... 0

1 ...

k

0 ...

k

1 CC CC CC CC CC A

9=

;dimEig(f; 1) mal 9...

=

;dimEig(f; k) mal

besitzt und so hat man mit S :=TBe,B und ST =S 1 := TB,Be die gesuchte Trans- formation

Ae =SAST bzw. MBe,Be(f) =TBe,B ·MB,B(f)·(TBe,B)T.

Da man zu einem selbstadjungierten Endomorphismus stets eine Orthonormalbasis fin- den kann, lässt sich auch eine wichtige Darstellung des Endomorphismus konstruieren.

Satz 11.32 (Spektraldarstellung selbstadjungierter Endomorphismen)

Ist f : V ! V ein selbstadjungierter Endomorphismus eines endlich-dimensionalen Skalarproduktraums V, dann gilt die Spektraldarstellung

f = Xr k=1

kPk,

wobei die 1, . . . , r 2 R die Eigenwerte des Endomorphismus sind und Pk : V ! Eig(f; k) die orthogonale Projektion auf den Eigenraum Eig(f; k) bezeichnet.

Beweis. Es gibt eine Orthonormalbasis(v1, . . . ,vn)aus Eigenvektoren vonf. Damit ge- nügt es zu zeigen, dass für jeden Basisvektor die beiden Darstellungen dieselbe Wirkung haben. Für einen Eigenvektor v zum Eigenwert j liefert die orthogonale Projektion jedoch

Pk(v) =

(v, für k =j,

0, für k 6=j, und somit

Xr k=1

kPk(v) = Xr

k=1

k kjv= jv=f(v).

Referenzen

ÄHNLICHE DOKUMENTE

Die Grenzabmaße von Verbundglas dürfen die Summe der Abmaße der einzelnen Glasscheiben, die in den Normen für die Basis-Glaserzeugnisse (EN 572 Teil 2 bis Teil 6, EN 1748-1 und

8, betref- fend «Bestimmungen über die Gewässer» im Bereich Gewässerschutz wird er- klärt, dass die Niederschlagsgewässer vom Dach welche in den Sickerschacht eingeleitet werden

Die CEN-Mitglieder sind gehalten, die CEN/CENELEC-Geschäftsordnung zu erfüllen, in der die Bedingungen festgelegt sind, unter denen dieser Europäischen Norm ohne jede Änderung

Diese Europäische Norm wurde primär für stationäre Maschinenarbeitsplätze erarbeitet, für mobile Maschinen können sich zusätzliche Anforderungen ergeben. Maße für

Diese Europäische Norm legt Verfahren zur Einrichtung von Qualitätssicherungsstufen (QAL) für automatische Messeinrichtungen, die an industriellen Anlagen zur Ermittlung

Produits dérivés de la pyrolyse du charbon - Liants à base de goudron et de brais issus de la houille et produits connexes: goudrons routiers - Caractéristiques et méthodes

Durch Anheben (Ziehen) des Griffes wird die Kerbverzahnung frei und der Klemmhebel kann in die günstigste Spannposition geschwenkt werden. Beim „Loslassen“ rastet der Griff

Die CEN-Mitglieder sind gehalten, die CEN/CENELEC-Geschäftsordnung zu erfüllen, in der die Bedingungen festgelegt sind, unter denen dieser Europäischen Norm ohne jede Änderung