• Keine Ergebnisse gefunden

Lineare Algebra 2 7. Übungsblatt

N/A
N/A
Protected

Academic year: 2022

Aktie "Lineare Algebra 2 7. Übungsblatt"

Copied!
3
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Lineare Algebra 2 7. Übungsblatt

Fachbereich Mathematik Sommersemester 2010

Prof. Dr. A. Kollross 25.–27. Mai 2010

K. Schwieger, T. Felber

Gruppenübung

Aufgabe G1 (Minitest)

(a) Welche der folgenden Matrizen sind orthogonale Matrizen?

(1),

p2 2

1 −1

1 1

,

p2 2

−1 1

1 −1

,

1 −5

5 1

,

‚ 5

13 12

−12 13 13

5 13

Π,

1 0

0 1

0 0

,

p2 2

1 0 0 1

0 1 1 0

0 1 −1 0

1 0 0 −1

(b) Bestimmen Sie alle reellen, oberenn×n-Dreiecksmatrizen, die orthogonal sind.

Aufgabe G2

SeienV,Wzwei euklidische Vektorräume mit Skalarprodukt〈 ·,· 〉Vbzw.〈 ·,· 〉W. Zeigen Sie, dass auf dem direkten Produkt V×W ein Skalarprodukt gegeben ist durch

(v1,w1),(v2,w2):=v

1,v2

V+w1,w2

W.

Aufgabe G3

Betrachten SieR5mit dem Standardskalarprodukt. Bestimmen Sie einen Basis des OrthogonalraumesUzu dem linearen TeilraumU, der von den folgenden Vektoren aufgespannt wird:

(1, 2, 3, 0, 0)T, (0, 0, 0, 0, 1)T, (1, 0, 2, 0, 1)T, (0, 4, 2, 0, 0)T. Lösung: Bezeichne mitv1, . . . ,v4die Vektoren in der Aufgabenstellung. Dann gilt

U={v1, . . . ,v4}={v1}∩ · · · ∩ {v4}. Wir müssen also das GleichungsssystemAx=0mit der Matrix

A=

v1T v2T v3T v4T

=

1 2 3 0 0

0 0 0 0 1

1 0 2 0 1

0 4 1 0 0

lösen. Die Lösungsmenge U besteht aus allen Linearkombinationen der Vektoren x1 := (4, 1,−2, 0, 0)T und x2 :=

(0, 0, 0, 1, 0)T. Aufgabe G4

Betrachten SieRnmit dem Standardskalarprodukt. Zeigen Sie:

(a) Jedes Orthonormalsystem inRnlässt sich zu einer Orthonormalbasis vonRnergänzen.

1

(2)

(b) SeiU⊆Rnein linearer Teilraum undπ:VV die orthogonale Projektion aufU. Dann gibt es eine Orthonormal- basisBvonRn, so dass die Matrix vonπbzgl.Bdie folgende Gestalt hat:

[π]BB=

 1

...

1 0

...

0

 .

(c) Zu je zwei Einheitsvektorenv,w∈Rngibt es eine orthogonale MatrixQOn(R)mitQv =w.1 Hinweis: Betrachten Sie zuerst den Spezialfallv =e1.

Lösung:

(a) Jedes Orthonormalsystem besteht aus linear unabhängigen Vektoren. Diese lassen sich zu einer Basis ergänzen.

Mittels des Gram-Schmidtschen Orthogonalisierungsverfahren lässt sich diese Basis dann in eine Orthonormal- basis überführen. Da beim Gram-Schmidt-Verfahren bereits orthogonale Vektoren unverändert bleiben, ist die so erhaltene Orthonormalbasis eine Erweiterung des Orthonormalsystems.

(b) Wir wählen eine eine ONBv1, . . . ,vkvonUund eine ONBw1, . . . ,w`vonU. WegenV =UUund weil Vektoren ausU undUstets orthogonal zueinander stehen, ist dannB:= (v1, . . . ,vk,w1, . . . ,w`)eine ONB vonV. Für die orthogonale ProjektionπaufU giltπ(vi) =vi undπ(wj) =0für jedesi,j. Somit hat die Matrix vonπbzgl. der BasisBdie gewünschte Gestalt.

(c) Seiw∈Rn. Dann können wirwzu einer ONBw1:=w,w2, . . . ,wnergänzen. Die MatrixQ:= (w1|. . .|wn)ist dann orthogonal mitQe1= w. Wir haben also gezeigt, dass es für jeden Vektorw ∈Rn eine orthogonale Matrix mit Qe1=wgibt.

Seien nunv,w∈Rn. Dann gibt es nach dem Gezeigten orthogonale MatrizenQv,QwOn(R)mitQve1=v und Qwe1=w. Die MatrixQ:=QwQ−1v ist dann auch orthogonal mit

Qv=QwQ−1v v=Qwe1=w.

Hausübung

Aufgabe H20

Es seiV ein euklidischer Raumϕ:VV ein Endomorphismus. Zeigen Sie: Istϕlängentreu, so istϕwinkeltreu, d.h.

für je zwei Vektoren0 6= v,wV ist der Winkel zwischen diesen Vektoren gleich dem zwischen ihren Bildvektoren ϕ(v),ϕ(w). Gilt auch die Umkehrung dieser Aussage?

Lösung: Aus der Polarisationsformel folgt, dass jede längenerhaltende Abbildung auch das Skalarprodukt und damit die Winkel erhällt. Die Umkehrung gilt jedoch nicht. Z.B. ist jedes Vielfache der Identitätϕ=λidV auf einem euklidischen RaumV zwar winkeltreu, jedoch für|λ| 6=1nicht längentreu.

Aufgabe H21 (Spiegelung an einer Hyperebene)

SeiV ein endlich-dimensionaler, euklidischer Vektorraum undvV ein Einheitsvektor. Betrachten Sie die lineare Abbil- dung

σv:VV, x7→x−2〈x,vv.

Zeigen Sie:

(a) Die Abbildungσv ist eine orthogonale Abbildung.

(b) Der vonv aufgespannte TeilraumRv ist der Eigenraum vonσv zum Eigenwert−1und sein Orthogonalraum der Eigenraum zum Eigenwert1.

Seien nunv,wV zwei Einheitsvektoren. BezeichneU den vonv undwaufgespannten linearen Teilraum. Betrachten Sie die linearen Abbildungenσv undσw. Zeigen Sie:

(c) Der TeilraumU istσv-invariant undσw-invariant, d.h. es giltσv(U)⊆Uundσw(U)⊆U.

1 D.h. die GruppeOn(R)wirkt transitiv auf der EinheitssphäreS:={vRn:kvk=1}.

2

(3)

(d) Für allexUgiltσv(x) =x=σw(x).

(e) Die folgenden Aussagen sind äquivalent:

i. Die Vektorenv undwsind linear abhängig oder orthogonal zueinander.

ii. Die Abbildungenσv undσwkommutieren, d.h.σvσw=σwσv.

Lösung:

(a) Die Abbildung ist bijektiv mitσvσv=idV (nachrechnen!). Ausserdem ist sie isometrisch, denn für allex1,x2V gilt

σv(x1,σv(x2)=x1−2x1,v

v,x2−2x2,v v

= x1,x2

−2 x1,v

x2,v

−2 x1,v

v,x2 +4

x1,v x2,v

v,v

=x1,x2 .

(b) Es giltσv(v) =v−2〈v,vv =−v, d.h.U =Rv ist kleiner gleich dem Eigenraum zum Eigenwert−1. Für jeden Vektor xUgiltσv(x) =x−2〈x,vv =x, d.h.Uist kleiner gleich dem Eigenraum zum Eigenwert1. Wegen V =UUmüssenU undUmit dem entspr. Eigenräumen übereinstimmen.

(c) Es genügt die Behauptung fürσv zu zeigen. Fürσwergibt sich die Behauptung durch Vertauschen der Rollen von v undw. Weiter genügt esσv(v)∈U undσv(w)∈U zu zeigen, dennσv ist linear und jeder andere Vektor inU ist eine Linearkombination vonv undw.

Für den Vektorv giltσv(v) =−vU (s.o.), für den Vektorwgiltσv(w) =w−2〈w,vvU.

(d) Auch hier genügt es die Aussage fürσv zu zeigen: Sei xU, also insbesondere〈x,v〉=0=〈x,w〉. Dann gilt σv(x) =x− 〈x,vv =x.

(e) Seien zuerstv,wlinear abhängig oder orthogonal zueinander. Zum einen lässt sich direkt zeigen, dass die Abbil- dungen vertauschen. Man kann die Behauptung jedoch auch aus bereits gezeigtem Herleiten: WegenV =UU genügt es die Gleichungσvσw =σwσv aufU und aufUeinzeln zu zeigen. AufUhaben wir direkt zuvor gezeigt, dassσv undσw beide die Identität sind, insbesondere also vertauschen. AufU müssen wir die Gleichheit auf den zwei Vektorenv,wnachweisen.

Sindv und wlinear abhängig, so haben wir zuvor gezeigt, dassU fürσv,σw der Eigenraum zum Eigenwert−1 ist. Die Abbildungen sind beide also ein Vielfaches der Identität auf diesem Teilraum. Insbesondere vertauschen sie.

Stehenv undworthogonal zueinander, so liegt nach (b) der Vektorwim Fixraum vonσv (und umgekehrt für den v undσw), d.h. es gilt

σv σw(w)=σv(−w) =−w=σv(−w) =σw σv(w)

und analog für den Vektorv. Zusammengefasst haben wir damit die erste Implikation gezeigt.

Wir nehmen nun an, die Abbildungenσv,σwkommutieren. Für allexV gilt

vσw)(x) =x−2〈x,ww−2〈x,vv+4〈x,w〉〈w,vv, (σwσv)(x) =x−2〈x,vv−2〈x,ww+4〈x,v〉〈v,ww.

Speziell fürx=v folgt dann〈v,ww=〈v,w2v. Die Vektorenv,wsind also entweder orthogonal, d.h.〈v,w〉= 0, oder linear abhängig.

Aufgabe H22

Sei V ein euklidischer Vektorraum mit einer abzählbar unendlichen Basis(bn)n∈N. Zeigen Sie, dass es eine abzählbar unendliche Orthonormalbasis vonV gibt, d.h. es gibt eine Basis(vn)n∈NvonV mit¬

vi,vj

=δi,jfür allei,j∈N. Lösung: Wir wenden das Gram-Schmidtsche Orthogonalisierungsverfahren auf die Basis(bn)nan und erhalten induktiv Vektoren

wn:=bn

n−1X

k=1

bn,wk wk,wkwk

Nach dem für das Gram-Schmidt-Verfahren Gezeigtem sind die Vektorenv1, . . . ,vnmitvk:=wk/ wk

für jedesn∈N eine Orthonormalbasis des von den Vektoren b1, . . . ,bn aufgespannten linearen Teilraums. Die Familie aller Vektoren (vn)n∈Nist somit ein System normierter, orthogonales Vektoren, die den gleichen Teilraum aufspannen, wie die Vektoren (bn)n∈N, also ganzV. D.h. die Vektoren(vn)n∈Nbilden eine Orthonormalbasis vonV.

3

Referenzen

ÄHNLICHE DOKUMENTE

Dann sind die Vektoren aus X genau dann linear unabhängig, wenn sich keiner der Vektoren aus X als Linearkombination der anderen schreiben lässt.. Dies ist wiederum äquivalent

Dann sind die Vektoren aus X genau dann linear unabhängig, wenn sich keiner der Vektoren aus X als Linearkombination der anderen schreiben lässt.. Dies ist wiederum äquivalent

Nach dem Hauptsatz f¨ ur symmetrische Matrizen zerf¨ allt R n in einen orthogonale Summe der Eigenr¨ aume, d. P ist eine

Die Diedergruppe D n ist die Menge aller (längenerhaltenden) bijektive Transformationen, die das n-Eck wieder in sich überführen (z.B.. Zeigen Sie, dass diese Untergruppe

Zusammen ergibt sich, dass jedes Element aus V eine eindeutige Darstellung als Summe von einem Element aus U 1 und einem Element aus U 2 hat... die Vektoren sind

Die Diedergruppe D n ist die Menge aller (längenerhaltenden) bijektive Transformationen, die das n-Eck wieder in sich überführen (z.B.. Zeigen Sie, dass diese Untergruppe

(b) A ist genau dann diagonalisierbar, wenn es eine Basis aus Eigenvektoren von A zum Eigenwert

jede Menge aus 4 linear unabhängigen Vektoren kann zu einer Basis aus 4 Vektoren ergänzt werden, ist also bereits selbst ein Basis des R 4.. man muss nur die lineare Unabhängigkeit