• Keine Ergebnisse gefunden

Lineare Algebra II 8. Übungsblatt

N/A
N/A
Protected

Academic year: 2022

Aktie "Lineare Algebra II 8. Übungsblatt"

Copied!
6
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Lineare Algebra II 8. Übungsblatt

Fachbereich Mathematik SS 2011

Prof. Dr. Kollross 01./09. Juni 2011

Susanne Kürsten Tristan Alex

Gruppenübung

Aufgabe G1 (Minitest)

SeiV ein euklidischer oder unitärer Vektorraum. Sei weiterhinπ:VV die orthogonale Projektion auf den endlichdi- mensionalen UnterraumU(V. Welche der folgenden Aussagen gelten für alleuUundv,v1,v2V?

ƒ πist injektiv.

ƒ πist ein Isomorphismus.

ƒ Wennv1senkrecht aufv2steht, dann stehen auchπ(v1)undπ(v2)senkrecht aufeinander.

ƒ kπ(v)k=kvk.

ƒ π2(v) =v.

ƒ Es existiert einn∈N, so dassπn=idgilt.

ƒ πist nilpotent.

ƒ πist invertierbar.

ƒ πkann negative Eigenwerte haben.

ƒ π(v)steht senkrecht aufv.

ƒ π(u)steht senkrecht aufu.

ƒ π(v)steht senkrecht aufu.

ƒ π(u)steht senkrecht aufv.

ƒ kerπ∪imπ=V.

ƒ kerπ∩imπ=;.

ƒ dim kerπ≤dimimπ.

ƒ dim kerπ≥dimimπ.

ƒ dim kerπ=dimimπ.

Lösung: Alle Aussagen sind falsch.

Aufgabe G2 (Isometrien)

Eine Abbildungϕ:VWzwischen euklidischen oder unitären Vektorräumen heißtIsometrie, falls für allex,yV die Gleichung

ϕ(x),ϕ(y)= x,y

erfüllt ist.

Zeigen Sie, dass für eine lineare Abbildungϕ:VWäquivalent sind:

(a) ϕist eine Isometrie.

(2)

(b) kϕ(x)k=kxkfür allexV.

(c) kϕ(x)−ϕ(y)k=kxykfür alle x,yV. Tipp:Polarisierungsgleichung.

Lösung:

(a)=⇒(b) Folgt sofort fürx=y.

(b)=⇒(c) Wir setzen inkϕ(z)k=kzkeinfachz:=xyein und benutzen die Linearität vonϕ.

(c)=⇒(a) Wir setzen die Polarisierungsgleichung ein und erhalten

4ϕ(x),ϕ(y)Pol.= kϕ(x)−ϕ(−y)k2− kϕ(x)−ϕ(y)k2+ikϕ(x)−ϕ(−i y)k2ikϕ(x)−ϕ(i y)k2

(c)=kx+yk2− kxyk2+ikx+i yk2ikxi yk2

Pol.= 4 x,y

.

Aufgabe G3 (Diagonalisierung von orthogonalen Projektionen)

SeiV ein endlichdimensionaler euklidischer oder unitärer Vektorraum und seiπ:VV die orthogonale Projektion auf UV.

(a) Zeigen Sie, dassπnur die Eigenwerte0und1hat.

(b) Beweisen oder widerlegen Sie:

• Es gibt orthogonale Projektionen, die nur1als Eigenwert haben.

• Es gibt orthogonale Projektionen, die nur0als Eigenwert haben.

(c) Zeigen Sie, dass es eine BasisBvonV gibt, bezüglich derπdie Matrixdarstellung [π]B=

Ek 0

0 0

hat. Dabei seik=dimimπundEkdiek×k-Einheitsmatrix.

(d) Zeigen Sie, dass jede orthogonale Projektion diagonalisierbar ist.

Lösung:

(a) Seiλein Eigenwert vonπmit zugehörigem Eigenvektorx. Dann giltπ(x) =λx. Auf diese Gleichung wenden wir wiederumπan und erhaltenλ2x=π2(x) =π(x) =λx. Da x6=0ist, mussλ2=λgelten. Die einzigen Lösungen dieser Gleichung sind0und1.

(b) Beide Aussagen sind wahr. Sind alle Eigenwerte1, erhält man die orthogonale ProjektionidV. Sind alle Eigenwerte 0, erhält man die Nullabbildung, die natürlich auch eine orthogonale Projektion ist.

(c) Es istV=kerπ⊕imπund imπ=Usteht senkrecht aufU=kerπ. Wir wählen uns eine Basis(v1, . . . ,vk)vonU. Diese ergänzen wir mit Vektorenvk+1, . . . ,vnU. Dann giltπ(vi) =vifür1≤ikundπ(vj) =0fürk< jn.

Daher hatπbezüglich dieser Basis genau die geforderte Matrixdarstellung.

(d) Das folgt trivialerweise aus (c).

Aufgabe G4 (Skalarprodukte)

(a) Seiena1, . . . ,an∈Rpositive Zahlen. Zeigen Sie, dass

n

X

i=1

a2i

! 

n

X

j=1

a−2j

≥n2

gilt.

(b) SeiV ein Vektorraum,B= (b1, . . . ,bn)eine Basis vonV und f:V×V →Reine Bilinearform. Weiter sei

A:=

a11 · · · a1n ... ... an1 · · · ann

 :=

f(b1,b1) · · · f(b1,bn)

... ...

f(bn,b1) · · · f(bn,bn)

 .

Zeigen Sie, dassAdie Strukturmatrix der Bilinearform f ist, das heißt, für beliebige Vektoren x,yV bezüglich der BasisBgilt

f(x,y) =xTAy.

Bestimmen Sie die Strukturmatrix des Standardskalarproduktes bezüglich der Standardbasis.

(3)

(c) SeiKder Körper der reellen oder der komplexen Zahlen. SeiV ein endlichdimensionaler euklidischer oder unitärer Vektorraum überK. Zeigen Sie, dass zu jeder linearen Abbildung f:V →Kein VektoraV existiert mitf(x) =

x,a〉für alle xV. Lösung:

(a) Setzen wirx= (a1, . . . ,an)T∈Rnundy= (a−11 , . . . ,a−1n )T∈Rn, dann folgt die Behauptung sofort aus der Cauchy- Schwarz-Ungleichung.

(b) Seix,yV beliebig. Es gelte x=Pn

i=1xibiund y=Pn

j=1yjbj. Daraus folgt mit Hilfe der Bilinearität

f(x,y) =f

n

X

i=1

xibi,

n

X

j=1

yjbj

=

n

X

i=1

xi

n

X

j=1

yjf(bi,bj) =

n

X

i=1

xi

n

X

j=1

ai jyj=xTAy.

Für das Standardskalarprodukt gilt¬ ei,ej

=δi j und folglich ist die Einheitsmatrix die Strukturmatrix des Stan- dardskalarproduktes bezüglich der Standardbasis.

(c) Der RaumV besitzt eine Orthonormalbasis B:= (b1, . . . ,bn). Für einen Vektor xV gilt x=Pn

j=1x,bjbj. Wir erhalten

f(x) = f

n

X

j=1

x,bjbj

=

n

X

j=1

x,bjf(bj) =

n

X

j=1

f(bj)〈x,bj〉=

* x,

n

X

j=1

f(bj)bj +

,

woraus zu ersehen ist, dassa:=Pn

j=1f(bj)bjder gesuchte Vektor ist.

(4)

Hausübung

Aufgabe H1 (Orthogonale Zerlegung)

Betrachte den euklidischen VektorraumMn(R)allern×n-Matrizen mit Spur-SkalarproduktA,B〉:=tr(BTA). Bezeichne mit

U+:={AMn(R)|AT=A} ⊂Mn(R) und U:={BMn(R)|BT=−B} die Teilmengen der symmetrischen beziehungsweise schiefsymmetrischen Matrizen.

(a) Zeigen Sie, dassU+undUlineare Teilräume sind und(U+)=Uerfüllen.

(b) Welche Dimension haben die RäumeU+undU?

(c) Zeigen Sie, dass sich jede MatrixAMn(R)eindeutig als Summe einer symmetrischen und einer schiefsymmetri- schen Matrix schreiben lässt.

(d) Bestimmen Sie die orthogonalen Projektionenπ+aufU+undπaufU. Tipp:Induktiv lässt sich leichtPn

k=1k=12n(n+1)zeigen.

Lösung: Es gilt

A,B〉=tr(BTA) =tr((BTA)T) =tr(ATB) =tr(BAT) =¬ AT,BT

.

(a) Die Nullmatrix ist sowohl symmetrisch als auch schiefsymmetrisch. Es ist einfach zu zeigen, dass Summen und Vielfache von symmetrischen (schiefsymmetrischen) Matrizen wieder symmetrisch (schiefsymmetrisch) sind.

Für die Orthogonalitätsbedingung seiAU+undBU. Dann ist

A,B〉=¬ AT,BT

=− 〈A,B〉,

also〈A,B〉=0und es istB∈(U+). Wir folgernU⊆(U+). Für die andere Inklusion seiA∈(U+), also〈A,B〉=0 für alleBU+. Dann folgt für alle MatrizenXMn(R)

¬A+AT,X

=〈A,X〉+¬ AT,X

=〈A,X〉+¬ A,XT

A,X+XT

=0,

denn die Matrix X +XT ist symmetrisch. Da das Skalarprodukt positiv definit ist, muss A+AT =0gelten, also AU. Wir folgern(U+)U, insgesamt gilt damit(U+)=U.

(b) SeiAU+. AusAT =Aerkennen wirai j =aji für alle1≤i,jn. Alle Einträge der Matrix sind also durch die Wahl der Einträge im oberen rechten Dreieck der Matrix einschließlich der Diagonalen bestimmt:

A=

a11 a12 · · · a1n a12 a22 · · · a2n ... ... ... ... a1n a2n · · · ann

Wir können also in der ersten ZeilenEinträge wählen, in der zweiten Zeilen−1Einträge und so weiter. Daher ist dimU+=n+ (n−1) +. . .+1= 1

2n(n+1).

FürUgehen wir genauso vor. Hier ist allerdingsaii =−aii, alsoaii=0für alle1≤in. Wir können also in der ersten Zeilen−1Einträge wählen, in der zweiten Zeilen−2Einträge und so weiter. Es folgt

dimU= (n−1) + (n−2) +. . .+1=1

2n(n+1)−n.

Insbesondere giltdimMn(R) =n2=12n(n+1) +12n(n+1)−n=dimU++dimU.

(c) Da die beiden Räume orthogonal zueinander sind, gilt Mn(R) = U+U. Es existiert also zu jeder Matrix die geforderte Zerlegung.

(d) Um die ZerlegungA=A++AmitA±U±zu erhalten, lösen wir die Gleichungen A=A++A und AT= (A++A)T=A+A

nachA±auf und erhaltenA=12(A+AT) +12(A−AT). Daraus lesen wirπ+(A) =12(A+AT)undπ(A) =12(A−AT) ab.

(5)

Aufgabe H2 (Numerische Approximation)

SeiV :=C([0, 1])der Raum der stetigen Funktionen f:[0, 1]→RundU :=span{1,x}der Unterraum der Polynome vom Grad höchstens1. Wir stattenV mit dem Skalarprodukt

f(x),g(x) :=

Z1

0

f(x)g(x)dx

aus. In dieser Aufgabe finden wir eine gute Näherung für die Funktionx7→ex. (a) Welche Dimension haben die RäumeUundV?

(b) Berechnen Sie eine Orthonormalbasis vonU.

(c) Benutzen Sie die Approximationseigenschaft der Orthogonalprojektion, um die optimale Näherungg(x)fürexzu berechnen.

(d) Skizzieren oder plotten Sie die Funktionenexundg(x)in einem Koordinatensystem.

Beachten Sie, dass wir für die Bestimmung vong(x)keine Differentialrechnung verwendet haben.

Tipp:Es istR1

0 x exdx=1.

Lösung: Wir werden in dieser Aufgabe oft Skalarprodukte berechnen. Wegen der Linearität reicht uns die Berechnung von

〈1, 1〉= Z1

0

1 dx=1 〈1,x〉=

Z1

0

xdx=1 2

x,x〉= Z1

0

x2dx=1

3 〈1,ex〉=

Z1

0

ex dx=e−1

ex,ex〉= Z1

0

e2xdx=1 2e2−1

2 〈x,ex〉=

Z1

0

x exdx=1

aus, um alle auftretenden Produkte zu bestimmen.

(a) U hat natürlich Dimension2, da1undx linear unabhängig sind. Die Dimension vonV ist unendlich, denn es ist insbesonderexkV für allek∈N, und diese Vektoren sind auch alle linear unabhängig.

(b) Das Gram-Schmidt-Verfahren liefert uns v1=1

v2= x− 〈x, 1〉1 kx− 〈x, 1〉1k=

x−1

2

·

x,x〉 − 〈x, 1〉+1 4〈1, 1〉

12

=p

3(2x−1).

(c) Wir bestimmen die Darstellungg(x) =λ11+λ2(p

3(2x−1)), wobeiλi= ex,vi

. Es ist

λ1=〈ex, 1〉=e−1 und λ2=¬p

3(2x−1),ex

=2p

3〈x,ex〉 −p

3〈ex, 1〉=2p

3−(e−1)p 3=p

3(3−e).

Die beste Näherung ist also

g(x) = (e−1) +3(3−e)(2x−1) = (18−6e)x+4e−10.

(d) Die Skizze der beiden Funktionen sieht so aus:

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

0.8 1 1.2 1.4 1.6 1.8 2 2.2 2.4 2.6 2.8

ex g(x)

(6)

Aufgabe H3 (Spiegelung an einer Hyperebene)

SeiV ein endlich-dimensionaler, euklidischer Vektorraum undvV ein Einheitsvektor. Betrachten Sie die lineare Abbil- dung

σv:VV, x7→x−2〈x,vv. Zeigen Sie:

(a) Die Abbildungσv ist eine bijektive Isometrie.

(b) Der vonv aufgespannte TeilraumRv ist der Eigenraum vonσv zum Eigenwert−1und sein Orthogonalraum der Eigenraum zum Eigenwert1.

Seien nunv,wV zwei Einheitsvektoren. BezeichneUden vonvundwaufgespannten linearen Teilraum. Betrachten Sie die linearen Abbildungenσv undσw. Zeigen Sie:

(c) Der TeilraumU istσv-invariant undσw-invariant, d.h. es giltσv(U)⊆Uundσw(U)⊆U. (d) Für allexUgiltσv(x) =x=σw(x).

(e) Die folgenden Aussagen sind äquivalent:

i. Die Vektorenv undwsind linear abhängig oder orthogonal zueinander.

ii. Die Abbildungenσv undσwkommutieren, d.h.σvσw=σwσv. Lösung:

(a) Die Abbildung ist bijektiv, denn es ist

vσv)(x) =σv(x−2〈x,vv) =x−2〈x,vv−2〈x,v〉(v−2〈v,vv) =x.

Sie ist isometrisch, denn für allex1,x2V gilt σv(x1),σv(x2)=x1−2x1,vv

,x2−2x2,vv

= x1,x2

−2

x1,v x2,v

−2

x1,v v,x2+4

x1,v x2,v

v,v

= x1,x2

.

(b) Es giltσv(v) =v−2〈v,vv =−v, d.h.U=Rv ist enthalten im Eigenraum zum Eigenwert−1. Für jeden Vektor xUgiltσv(x) =x−2〈x,vv =x, d.h.Uist enthalten im Eigenraum zum Eigenwert1. WegenV =UU müssenUundUmit dem entspr. Eigenräumen übereinstimmen.

(c) Es genügt die Behauptung fürσv zu zeigen. Fürσwergibt sich die Behauptung durch Vertauschen der Rollen von v undw. Weiter genügt esσv(v)∈U undσv(w)∈U zu zeigen, dennσv ist linear und jeder andere Vektor inU ist eine Linearkombination vonv undw.

Für den Vektorv giltσv(v) =−vU (s.o.), für den Vektorwgiltσv(w) =w−2〈w,vvU.

(d) Auch hier genügt es die Aussage fürσv zu zeigen: Sei xU, also insbesondere 〈x,v〉=0=〈x,w〉. Dann gilt σv(x) =x− 〈x,vv=x.

(e) Seien zuerstv,wlinear abhängig oder orthogonal zueinander. Zum einen lässt sich direkt zeigen, dass die Abbil- dungen vertauschen. Man kann die Behauptung jedoch auch aus bereits Gezeigtem herleiten: WegenV =UU genügt es die Gleichungσvσw =σwσv aufU und aufUeinzeln zu zeigen. AufUhaben wir direkt zuvor gezeigt, dassσv undσw beide die Identität sind, insbesondere also vertauschen. AufU müssen wir die Gleichheit auf den zwei Vektorenv,wnachweisen.

Sindv und wlinear abhängig, so haben wir zuvor gezeigt, dassU fürσv,σw der Eigenraum zum Eigenwert−1 ist. Die Abbildungen sind beide also ein Vielfaches der Identität auf diesem Teilraum. Insbesondere vertauschen sie.

Stehenv undw orthogonal zueinander, so gilt nach (b) die Identitätσv(w) =w(und umgekehrt fürv undσw), d.h. es gilt

σv σw(w)=σv(−w) =−w=σv(−w) =σw σv(w)

und analog für den Vektorv. Zusammengefasst haben wir damit die erste Implikation gezeigt.

Wir nehmen nun an, die Abbildungenσv,σwkommutieren. Für allexV gilt

vσw)(x) =x−2〈x,ww−2〈x,vv+4〈x,w〉 〈w,vv, (σwσv)(x) =x−2〈x,vv−2〈x,ww+4〈x,v〉 〈v,ww.

Speziell fürx=vfolgt dann〈v,ww=〈v,w2v. Die Vektorenv,wsind also entweder orthogonal, d.h.〈v,w〉=0, oder linear abhängig.

Referenzen

ÄHNLICHE DOKUMENTE

Die Weihnachtszeit steht vor der Tür und wie jedes Jahr verwandelt sich der Mathebau zu die- ser Zeit in einen Adventskalender, der Süßigkeiten und Überraschungen für euch bereit

Zeigen Sie die Äquivalenz der folgenden Aussagen. (i) f ist eine

Sie dürfen in dieser Aufgabe davon ausgegehen, dass das Minimalpolynom von Endomorphismen dieselben Eigenschaften hat, wie das von

Susanne Kürsten Tristan

(b) Da die Berechnung der Determinante unabhängig davon ist, ob man die Matrix als reelle oder komplexe Matrix betrachtet, stimmen die charakteristischen Polynome von A und B

In dieser Aufgabe finden wir eine gute Näherung für die Funktion x 7→ e x. Die Vektoren v und w sind linear abhängig oder

Aufgabe G1 (Affine Unterräume) Es sei V

Jedes Element aus V lässt sich also auf eindeutige Weise als so eine Summe