• Keine Ergebnisse gefunden

Eine Orthonormalbasis ist tats¨achlich eine Basis

N/A
N/A
Protected

Academic year: 2022

Aktie "Eine Orthonormalbasis ist tats¨achlich eine Basis"

Copied!
7
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

6. Normale Abbildungen

6.1. Erinnerung. SeiV einn-dimensionaler pr¨a-Hilbertraum, also einn-dimensionaler Vektorraum

¨

uberK(=RoderC) versehen auch mit einerSkalarprodukt h·,·ra→K. Dieeuklidische Normist definiert durchkxk=p

hx, xi. Zwei Vektorenx, y∈V heißenorthogonal, falls hx, yi= 0 (x⊥y). Man sagt, dass die Vektorene1, . . . , en eineOrthonormalbasisinV bilden falls

hei, eji=

(1 fallsi=j

0 sonst , also falls keik= 1, ei⊥ej f¨uri6=j.

DasStandardskalarprodukt in Cn (oderRn) ist definiert durch:

hx, yi=

n

X

i=1

xiyi.

Eine Orthonormalbasis ist tats¨achlich eine Basis. Die Koordinaten bzgl. einer Orthonormalbasis sind leicht zu bestimmen! Den folgenden Satz haben wir auch schon mal gesehen, jetzt aber nochmal als Wiederholung:

Satz 6.1.1. Seie1, . . . , en eine Orthonormalbasis vonV. a) Istx∈V mitx=Pn

j=1xjej, dann gilt

xi=hx, eii also x=

n

X

j=1

hx, ejiej.

b) Zwei Vektoren x, y∈V sind genau dann gleich, wenn f¨ur allez ∈V die Gleichheit hx, zi=hy, zi gilt. Dies ist weiter ¨aquivalent zuhx, eii=hy, eiif¨uri= 1, . . . , n.

c) IstL:V →Keine Linearform, dann existiert genau einz∈V mit L(x) =hx, zi f¨ur allez∈V. Beweis. a) Es gilt:

hx, eii=

n

X

j=1

hxjej, eii=xi.

b) Seien x, y∈V. Es reicht x=y zu zeigen, fallshx, eii=hy, eiigilt f¨ur allei= 1, . . . , n. Dies folgt aber aus a): Schreibe

x=

n

X

j=1

xjej und y=

n

X

j=1

yjej.

Wegen a) giltxj=hx, ejiundyj =hy, eji, also nach der Voraussetzung folgtx=y auch.

c) Setze yi:=L(ei). Dann gilt

L(x) =

n

X

i=1

xiL(ei) =

n

X

i=1

xiyi=DXn

i=1

xiei,

n

X

j=1

yjejE

=hx, yi.

Satz 6.1.2. SeiT :U →V eine lineare Abbildung und L={e1, . . . , en}, L ={f1, . . . , fm} Ortho- normalbasen inU bzw. inV.

a) IstA=MTL,L,A= (αij), dann gilt

αij =hT ej, fii.

b) F¨urS:U →V linear giltS=T genau dann, wenn

hSx, yi=hT x, yi f¨ur allex, y∈V .

(2)

Beweis. a) Folgt einfach aus den Definitionen: in der j-te Spalte vonMTL,L steht der Koordinaten- vektor von T ej. Diese Koordinaten sind eben

αij =hT ei, fji.

b) Folgt aus dem obigen Satz b).

6.2. Adjungierte einer linearen Abbildung. Der Vektorraum aller linearen Abbildungen von U nach V wird mitL(U, V) bezeichnet.

Satz 6.2.1. SeiT ∈L(U, V). Es gibt dann genau eine lineare AbbildungT:V →U mit hT x, yi=hx, Tyi f¨ur allex∈U,y∈V .

IstA=MTL,L, so gilt

MTL,L=A=:A.

Die AbbildungTheißt dieadjungierte AbbildungvonT, und die MatrixAist dieadjungierte der MatrixA.

Beweis. Definiere die Linearform Ly :V →K,Ly(x) :=hT x, yi. Wegen Satz 6.1.1 c) existiert einen eindeutigen Vektor z∈V mit

Ly(x) =hx, zi.

SetzeTy=z. Aus der Eindeutigkeit bekommt man, dassTlinear sein muss. N¨amlich: sindy1, y2∈V undλ∈K, so ist

Ly1+λy2(x) =hT x, y1+λy2i=hT x, y1i+λhT x, y2i=Ly1(x) +λLy2(x) =hx, Ty1i+hx, λTy2i.

Beispiel. 1. Sei

A= 0 1

1 0

. So gilt A= 0 1

1 0

=A.

2. Sei

A= 0 1

0 0

. So gilt A= 0 0

1 0

. 3. Sei

A=

cosϕ −sinϕ sinϕ cosϕ

. So gilt A=

cosϕ −sin(−ϕ) sin(−ϕ) cosϕ

=A−1. 4. SeiT gegeben durch der Diagonalmatrix

A=

λ1 0 . . . 0 0 . .. ... ... . .. 0 0 . . . 0 λn

(bzgl. einer Orthonormalbasis). Dann die Matrix vonT ist

A=

λ1 0 . . . 0 0 . .. ... ... . .. 0 0 . . . 0 λn

 .

6.3. Eigenschaften der adjungierten Abbildung und der adjungierten Matrix. Im Folgenden werden wir Satz 6.1.2 b) ganz oft benutzen.

0. F¨ur die Identit¨atI:U →U gilt

I=I.

F¨ur die Nullabbildung 0 :U →V gilt

0:V →U die Nullabbildung.

(3)

Beweis. Es gelten:

hx, Iyi=hIx, yi=hx, yi,hx, oyi=h0x, yi= 0 =hx,0yi.

und

Daraus folgt die Behauptung.

1. F¨urT :V →V giltT∗∗=T.

Beweis. Seienu, v∈V. Dann gilt:

hT u, vi=hu, Tvi=hTv, ui=hv, T∗∗ui=hT∗∗u, vi.

2. F¨urS, T ∈L(U, V),λ∈Kgilt

(S+λT)=S+λT. Beweis. Seienu, v∈V. Dann gilt:

h(S+λT)u, vi=hSu+λT u, vi=hu, Svi+λhu, Tvi=hu,(S+λT)vi.

3. F¨urS∈L(U, V),T ∈L(V, W) gilt

(T S)=ST. Beweis. Seienu∈U,w∈W. Dann gilt:

hT Su, wi=hSu, Twi=hu, STwi.

4. F¨urT ∈L(U, V) gilt

KernT = (BildT). Beweis. Seiu∈KernT, und seiv∈BildT. Dann gilt

hT u, vi=hu, Tvi= 0, alsou∈(BildT). Ist umgekehrtu∈(BildT), so gilt

0 =hu, Tvi und somithT u, vi= 0 f¨ur allev∈V . Daraus folgtT u= 0, d.h. u∈KernT.

5. Es gilt

Rang(T) = Rang(T).

Beweis. Sei A eine Matrix von T. So ist A eine Matrix von T. Daraus folgt die Behauptung, denn:

Rang(T) = Rang(A) = Rang(A) = Rang(A) = Rang(T).

6. F¨urT :V →V gilt

det(T) = det(T)

Beweis. Bemerke zun¨achst, dass f¨ur eine beliebige quadratische Matrix gilt det(B) = det(B).

Diese folgt aus der Definition der Determinante (siehe 4.13). Sei alsoAeine Matrix vonTbzgl. einer Orthonormalbasis. Dann gilt

det(T) = det(A) = det(A) = det(A) = det(A) = det(T).

7. F¨urT :V →V undλ∈Kgilt de ¨Aquivalenz:

λ∈σ(T) ⇐⇒ λ∈σ(T).

(4)

Beweis. Die Behauptung folgt aus den folgenden ¨Aquivalenzen:

λ∈σ(T) ⇐⇒ det(T−λI) = 0 ⇐⇒ det(T−λI) = 0 ⇐⇒ λ∈σ(T).

6.4. Normale Abbildungen.

Definition. Eine AbbildungT :V →V heißt normal, falls TT =TT gilt.

Beispiel. 1. Die AbbildungT gegeben durch die Matrix A=

0 1 0 0

istnicht normal.

2. Die AbbildungT gegeben durch die Matrix A=

0 1

−1 0

istnormal.

3. IstT=T, oderT=−T, oderT=T−1 so istT normal.

Bemerkung. SeiA=MTL,L die Matrix von T bzgl. einer Orthonormalbasis. Dann istMTL,L =A, und somit istT genau dann normal, falls

AA=AA gilt. Matrizen mit dieser Eigenschaft heißen auch normal.

Satz 6.4.1. SeiT :V →V eine lineare Abbildung, so dass eine Orthonormalbasis aus Eigenvektoren von T in V existiert. Dann istT normal.

Beweis. SeiL eine Orthonormalbasis inV aus Eigenvektoren von T, dann

A:=MTL,L =

λ1 0 . . . 0 0 . .. ... ... . .. 0 0 . . . 0 λn

, und MTL,L=

λ1 0 . . . 0 0 . .. ... ... . .. 0 0 . . . 0 λn

=A.

Daraus folgt

AA=AA und somit TT =T T. Satz 6.4.2. IstT normal undx∈V, so gilt

kT xk=kTxk.

Beweis. Es gilt

kT xk2=hT x, T xi=hx, TT xi=hx, T Txi=hTx, Txi=kTxk2. Satz 6.4.3. SeiT normal. Iste∈V undλ∈Kmit

T e=λe so gilt

Te=λe, d.h.

Kern(T−λI) = Kern(T−λI).

(5)

Beweis. Bemerke zun¨achts das Folgende. Ist T normal, so ist f¨ur jedes λ ∈ K auch die Abbildung T−λI normal. Denn es gilt

(T−λI)(T−λI) = (T−λI)(T−λI) =TT−(λ+λ)T+λ·λI = (T−λI)(T−λI) = (T−λI)(T−λI). Nun f¨ureundλwie in der Behauptung gilt wegen Satz 6.4.2:

0 =k(T−λI)ek=k(T−λI)ek, alsoTe=λe.

Satz 6.4.4. SeiT normal, und seiene∈V,λ∈Kmit T e=λe.

Setze

W :={e}=

x∈V :hx, ei= 0 . Dann ist W invariant unterT undT, d.h. es gelten:

T(W)⊆W und T(W)⊆W.

Beweis. Seiw∈W, alsohw, ei= 0. Es gilt

he, T wi=hTe, wi=λhe, wi= 0, d.h.T w∈W.

he, Twi=hTe, wi=λhe, wi= 0, d.h.Tw∈W, wir haben hier Satz 6.4.3 benutzt.

Hauptsatz 6.4.5. Sei V ein komplexer, endlichdimensionaler (pr¨a-)Hilbertraum. F¨ur T : V → V linear sind die folgenden Aussagen ¨aquivalent:

(i) Es gibt eine Basis inV die aus Eigenvektoren von T besteht.

(ii) Die AbbildungT ist normal, d.h.TT =TT.

Beweis. Die Implikation (i)⇒(ii) haben wir im Satz 6.4.1 gesehen.

Nun zur Implikation (ii) ⇒ (i): Wir beweisen mit vollst¨andiger Induktion nach n = dim(V). Der Fall n = 1 is klar: jede Abbildung ist normal und (i) ist auch trivialerweise erf¨ullt. Sei also die Aussage f¨ur n≥1 richtig f¨ur jede normale Abbildung aufW mit Dimension dim(W)≤n. Seien+1 ein Eigenvektor f¨ur T : V → V, welcher wegenK =C existiert (siehe Korollar 5.4.2). Wir k¨onnen nat¨urlichen+1 umnormieren und somit ken+1k= 1 erreichen. SeiW ={en+1} und setzeS :=T|W (T eingeschr¨ank aufW). So ist, wegen Satz 6.4.4, auch die Abbildung

S:W →W

normal. Da dim(W)≤existiert also nach Induktionsvoraussetzung eine Orthonormalbasise1, . . . , en

in W aus Eigenvektoren von S (also von T). Diese zusammen mit en+1 haben die gew¨unschten Eigenschaften.

6.5. Unit¨are und orthogonale lineare Abbildungen.

Definition. SeiT :V →V linear, das das Skalarprodukt erh¨alt, also mit hT v, T ui=hu, vi f¨ur alleu, v∈V . So heißtT

a) im Falle K=Cunit¨ar;

b) im Falle K=Rorthogonal.

Entscheidend wird das folgende Trick, genanntPolarisierung, das das Skalarprodukt mithilfe der Norm(-Quadrat) bestimmt:

hx, yi= 1

4 kx+yk2− kx−yk2 F¨urK=Rgilt:

hx, yi= 1

4 kx+yk2− kx−yk2−ikx−iyk2+ikx+iyk2 F¨urK=Cgilt:

(Dies haben wir schon gesehen, siehe 2.10).

(6)

Hauptsatz. Sei V komplexer (n-dimensionaler) Hilbertraum. F¨ur T : V → V sind die folgenden Aussagen ¨aquivalent:

(i) T ist unit¨ar.

(ii) Tistisometrisch, d.h. erh¨alt die L¨angen von Vektoren, genauer :kT vk=kvkgilt f¨ur allev∈V. (iii) T is invertierbar mitT−1=T.

(iv) T ist normal mit

σ(T)⊆

λ:|λ|= 1 . (v) T transformiert Orthonormalbasen in Orthonormalbasen.

(vi) F¨ur jede OrthonormalbasisL inV, bilden die Spalten der MatrixMTL,L eine Orthonormalbasis inCn.

(vii) Es gibtein OrthonormalbasisLinV, so dass die Spalten der MatrixMTL,Leine Orthonormalbasis inCn bilden.

Beweis. (i)⇒(ii): FallsT das Skalarprodukt erh¨alt, ist es auch isometrisch:

kT xk=hT x, T x,i=hx, xi=kxk2.

(ii)⇒ (iii): IstT isometrisch, so istT injektiv, dennT x= 0 impliziert kxk=kT xk= 0, alsox= 0.

Wegen der Dimensionsformel istT auch surjektiv, alsoT ist invertierbar. Wegen Polarisierung gilt hx, yi=hT x, T yi=hx, TT yi.

Aus Satz 6.1.2 b) folgtx=TT x f¨ur jedesx∈V, alsoT=T−1.

(iii) ⇒ (iv): Es gilt T T = T T−1 =I =T−1T =TT, also T ist normal. Nach Satz 6.4.5 gibt es eine Orthonormalbasis L, so dass MTL,L=Adiagonal wird; auf der Diagonale stehen die Eigenwerte λ1, . . . , λn. Die AbbildungT hat einerseits die Matrix

MTL,L=A=A=A, anderseits

MTL,L=MTL−1,L =A−1. Daraus folgtλi−1i , also die Behauptung.

(iv)⇒ (i): SeiL={e1, . . . , en} eine Orthonormalbasis aus Eigenvektoren vonT. So ist, wegen Satz 6.4.3,

hT x, T yi=

n

X

i=1

hT x, eiihT y, eii=

n

X

i=1

hx, Teiihy, Teii=

n

X

i=1

λihx, eii·λihy, eii=

n

X

i=1

hx, eiihy, eii=hx, yi.

(i)⇒(v): SeiL={e1, . . . , en} eine Orthonormalbasis inV. Dann gilt

hT ei, T eji=hei, eji=

(1 fallsi=j 0 fallsi6=j, alsoT e1, . . . , T en ist eine Orthonormalbasis inV.

(v)⇒(vi): SeiL={e1, . . . , en}eine Orthonormalbasis inV. Nach Voraussetzung bildenT e1, . . . , T en eine Orthonormalbasis inV, deren Koordinatenvektoren in den Spalten vonMTL,L stehen.

(vi)⇒(vii) ist klar.

(vii)⇒(iii): SeiL eine Orthonormalbasis inV, so dass die Spalten vonMTL,Leine Orthonormalbasis f1, . . . , fn inCn bilden. In Spaltenvektornotation ist also

MTL,L= (f1, f2, . . . , fn).

Somit gilt in Zeilenvektornotation:

MTL,L=

 f1

... fn

 .

(7)

Daraus bekommen wir

MTL,LMTL,L=

 f1

... fn

(f1, f2, . . . , fn) =

hf1, f1i hf1, f2i . . . hf1, fni

... ...

hfn, f1i hfn, f2i . . . hfn, fni

=In×n.

D.h.TT =I, also (iii) folgt.

Bemerkung. Im FalleK=Rbetrachte die DrehungTϕ um WinkelϕinR2 mit matrix Aϕ=

cosϕ −sinϕ sinϕ cosϕ

. Betrachte die folgende Aussage:

(iv) Es gibt eine Orthonormalbasis Lin inV, so dass die Matrix vonT hat die Block-Form:

MTL,L=

1 . . . 0 0

... . .. ...

0 . . . 1

−1 . . . 0 ... . .. ... 0 . . . −1

Tϕ1 . . . 0 ... . .. ...

0 0 . . . Tϕk

 ,

Dann gilt:

T orthogonal ⇔ (i) ⇔ (ii) ⇔ (iii) ⇔ (iv) ⇔ (v) ⇔ (vi) ⇔ (vii), wobei ϕi 6=mπf¨urm∈Z, und wobei in (vi) und in (vii)Cn durchRn ersetzt werden muss.

Referenzen

ÄHNLICHE DOKUMENTE

Universit¨ at T¨ ubingen T¨ ubingen, den 17.05.2010 Mathematisches

Die Katze spielt im Garten. Ich gehe in den Hof. Im Schwimmbecken sind viele Kinder. Das Mädchen hat ein neues Kleid gekauft.. Martina Meister-Wolf 9/2005

In anderen Worten: Urspr¨ unglich, unmittelbar ist uB(WN(Hund)) (unmittelbares Bewusstsein des Wahrnehmungseindrucks eines Hunds), dar¨ uber kommen wir zum WN(Hund) (Wahrnehmung

Beweis: “⇒” Sei G ein eulerscher Graph und P ein geschlossener Kantenzug von G, so ist offensichtlich, dass jede Ecke geraden Grad hat, denn für jede Kante die in einer Ecke endet

Zur Berechnung von Abständen von einer Geraden benötigen wir den Normaleinheitsvektor dieser Geraden (Prinzip der H ESSE schen 2 Normalform). Verschieben wir einen Punkt

Wir sind hier von der Ordnung auf N , die durch die nat¨urliche Ordnung von Mengen definiert wird, aus- gegangen, und haben diese dann auf Z und Q erweitert!. Man kann auch Q

Erkläre in eigenen Worten, wieso diese Figur den Satz des Pythagoras

Wenn man die horizontale Strecke, die das kleine Kathetenquadrat unterteilt, verlän- gert, dann sieht man ein, dass auch die Längen der ganz kleinen Teilstücke jeweils