• Keine Ergebnisse gefunden

6. Vektoren, Matrizen und Determinanten 6.1 Vektoren

N/A
N/A
Protected

Academic year: 2021

Aktie "6. Vektoren, Matrizen und Determinanten 6.1 Vektoren"

Copied!
22
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

6. Vektoren, Matrizen und Determinanten

6.1 Vektoren

Historisch waren „Vektoren a“ Strecken mit Pfeilen, mit deren Hilfe wir kompakt die Stärke und Aktionsrichtung einer Naturgröße angeben können: Die Streckenlänge |a| („Absolut- betrag |a|“) entspricht dabei der Stärke und der Pfeil gibt die Richtung an. Solche „Vektoren a“ können gut das Verhalten der Geschwindigkeit v, des Impulses p, des Impulsmomentes (Drehimpuls) w ... wiedergeben. Der Absolutbetrag der Geschwindigkeit ist die auch auf dem Tachometer ablesbare Schnelligkeit v = |v|, und jener des Impulsmomentes W die in der Quantenmechanik so bedeutsame Wirkung(sgröße) W =|W|.

6.1-1 Grundlagen. Da wir mit unseren Messinstrumenten einzig und alleine nur reelle Zah- lenwerte direkt ermitteln können, müssen wir für die Angabe der Aktionsrichtung dieser rich- tungsabhängigen Naturgrößen in unserer Lebenswelt zu konstruktiven Hilfsmassnahmen greifen. Das Baugerüst dazu heißt „mathematischer Raum“. Von diesem mathematischen Fachbegriff ist der Anschauungsraum unserer Lebenswelt zu unterscheiden. Alles Ausge- dehnte hat für uns ja Längen x, Breiten y und Höhen z - also Ausdehnung in drei unter- schiedliche Raumrichtungen, die nicht in einer Ebene liegen. Eine vereinfachte, systemati- sierte Schreibweise erhalten wir, wenn wir die Namen der drei Ausdehnungsrichtungen ein- fach durchnummerieren: x = x1, y = x2, z = x3.

Der mathematische „Raum“ macht erst Sinn, wenn wir uns in ihm ebenso orientieren können wie in unserem Lebensraum. Er benötigt also eine Struktur, die „Koordinatensystem“

genannt wird, samt Verhaltensregeln wie wir es zu benützen haben. Das Ganze heißt „Ge- ometrie“ (oder: „Raumgeometrie“). Das Koordinatensystem besteht aus einer Zahlenachse („Koordinatenachse“) in jeder Raumdimension, wobei der Abstand zwischen den Marken „0“

und „1“ „Einheit“ genannt wird.

Der euklidische Raum etwa hat drei aufeinander senkrecht stehende gerade Koor- dinatenachsen (x-, y- z-Achse oder eben einfach k-Achsen (k=1, 2, 3)), von denen immer zwei in einer Ebene liegen. Er ist daher ein 3-dimensionaler, „ebener“ und „senkrechter“

Raum. Sein Koordinatensystem heißt auch „kartesisch“ (nach seinem Erfinder René Descar- tes (1596-1650), der latinisiert Cartesius hieß). Spannen die Koordinatenachsen schiefe Winkel auf, dann erhalten wir einen ebenen, aber schiefwinkeligen Raum. Es können daher 3 beliebige Koordinatenachsen, die nicht in einer Ebene liegen, als Koordinatensystem be- nutzt werden.

(2)

6.1-2 Koordinaten. Mit Hilfe eines solchen Koordinatensystems können wir unschwer die Lage eines jeden Raumpunktes P angeben: Wir legen dazu durch den Punkt P drei Ebenen, die parallel zu den drei Ebenen sind, die von jeweils zweien der drei Koordinatenachsen auf- gespannt werden. Die Entfernungen des Nullpunktes von den Schnittpunkten dieser drei Pa- rallelebenen mit den jeweils freien Koordinatenachsen heißen „Koordinaten des Punktes P“:

Die x1-Koordinate ist also die Entfernung des Nullpunkts vom Schnittpunkt der x1-Achse mit der Ebene, die parallel zur x2-x3-Ebene ist. Die x2- und x3-Koordinaten erhalten wir entspre- chend als Entfernungen des Nullpunkts von den Schnittpunkten der x2-Achse (x3-Achse) mit der zur x3-x1-Ebene (x1-x2-Ebene) parallel ist.

Haben wir nur zwei Raumrichtungen, so reduziert sich unser Koordinatensystem auf 2 Achsen (x1, und x2) und die Ebenen zu Geraden. Dieser vereinfachte Fall ist im Bild für zwei Koordinatensysteme (blau und rot) eingezeichnet: Die Entfernungen der Schnittpunkte der gestrichelten Linien mit den Koordinatenachsen liefern die jeweiligen Punktkoordinaten (blau und rot). Damit die Zuordnung auch ohne Farbverwendung eindeutig ist, wurden die Indizes des blauen Systems nicht unten sondern oben geschrieben. Jeder Punkt A wird also - wie ersichtlich - mit Hilfe eines Zahlenpaares (a1,a2) bzw. (a1,a2) charakterisiert.

6.1-3 Punkte und Vektoren. Wie unser Bild zeigt, kann jede Raumrichtung mit Hilfe der Verbindungslinie zweier Punkte fixiert werden, von denen der eine Ausgangspunkt (An- fangspunkt) und der andere Endpunkt genannt wird. Wird der Nullpunkt als Ausgangspunkt

(3)

benützt, dann charakterisieren die Koordinaten des Endpunktes gleichzeitig auch die Raum- richtung. D.h., sowohl Raumpunkte als auch Vektoren werden in der Ebene durch ein Zah- lenpaar (vgl. mit Bild) und im R3 durch ein Zahlentripel angegeben. Bei Punkten spricht man dabei von „Koordinaten“ und bei Vektoren von „Komponenten“. In der moderneren Mathe- matik werden demnach die Vektoren der Ebene (R2) als Zahlenpaare und die des 3- dimensionalen Raumes R3 als Zahlentripel definiert.

6.1-4 Vektoren im n-dimensionalen Raum Rn. Die durchnummerierte Schreibweise ist besonders geeignet zur Charakterisierung der Koordinatenachsen von Räumen Rn mit belie- big vielen Dimensionen n (n = 1,2,3,...). Da jede Koordinatenachse eine eigenständige Di- mension repräsentiert, darf keine einzige Koordinatenachse eines n-dimensionalen Raums durch irgendeine Kombination der anderen Achsen entstehen können. Daher sprechen wir davon, dass alle diese n „Raumdimensionen“ voneinander „linear unabhängig“ sein müssen.

Im n-dimensionalen Raum müssen Punkte A durch n Koordinaten, also durch n- Tupel von Zahlen fixiert werden (A = (a1,a2,...,an)). Dementsprechend werden auch die Vek- toren a in den n-dimensionalen Räumen Rn durch n-Tupel von Zahlen (Komponenten) defi- niert (a = (a1,a2,...,an)). Vorstellbar sind für uns allerdings nur Gebilde mit maximal 3 Raum- dimensionen, wie schon bei Kant nachzulesen ist (Zeit und Raum sind für uns Menschen Anschauungsformen a priori, also uns vor jeglicher Erfahrung eingeprägte Denkkorsette).

Höher dimensionale (n>3) Gebilde können wir zwar durch formale Erweiterungen un- serer gewohnten geometrischen Objekte definieren, sie sind aber bloß rechnerisch zu erfas- sen und haben nichts mehr mit unseren vertrauten geometrischen Objekten zu tun - außer, dass sich Letztere aus den n-dimensionalen Gebilden durch Reduktion auf die 3 Raumdi- mensionen unseres Lebensraumes ergeben.

6.1-5 „Norm ||a||“ und „reziproke Koordinatensysteme“.

Die „Absolutbeträge“ der Vektoren firmieren in unserer Denkwelt gerne als Streckenlänge zwischen Ausgangs- und Endpunkt des Vektors. So bestimmen wir denn auch im euklidi- schen den Absolutbetrag (die „Länge“) der Vektoren a aus den Vektorkomponenten (a1, a2, a3) mit Hilfe des pythagoreischen Lehrsatzes (|a|² = a1² + a2² + a3²).

Diese Zuordnung hat allerdings Schönheitsfehler: (1) Die Skalen unserer Koordina- tenachsen sind willkürlich gewählt: Wir fixieren uns mit Hilfe der zwei Marken „0“ und „1“ un- sere Abstandseinheit („Einheit“) und markieren uns mit ihrer Hilfe die verschiedenen Vielfa- chen dieser „Einheit“. Die Koordinaten oder Komponenten sind also Maßzahlen, die uns sa- gen, wie viele „Einheiten“ wir benötigen, um an die markierte Stelle zu gelangen. Die so ge- wonnenen „Absolutbeträge“ sind in ihren Zahlenwerten von den willkürlich gewählten „Ein-

(4)

heiten“ der einzelnen Koordinatenachsen abhängig. (2) Diese Zuordnungstechnik kann bei schiefwinkeligen Koordinatensystemen nicht angewendet werden. (3) Es gibt in höherdi- mensionalen Räumen selbstverständlich keine „Strecken“.

In der moderneren Mathematik wird daher der „Absolutbetrag“ durch den neutralen Begriff „Norm“ ersetzt, die überdies so definiert wird, dass ihr Wert unabhängig von den will- kürlichen Achsen-„Einheiten“ und in allen Koordinatensystemen völlig gleich berechnet wird.

Die beiden Koordinatensysteme des Bildes wurden mit Bedacht so ausgewählt: Bei genauerer Betrachtung bemerken wir, dass die (rote) x2-Achse senkrecht auf die (blaue) x1- Achse steht und entsprechend die (rote) x1-Achse senkrecht auf die (blaue) x2-Achse. Sol- che zwei Koordinatensysteme heißen zueinander „reziprok“. Im 3-dimensionalen Raum gilt die entsprechende Erweiterung: die (rote) x1-Achse steht senkrecht auf die Ebene, die von den (blauen) x2- und x³-Achsen aufgespannt wird, ...

Charakterisieren wir unseren Vektor a mit Hilfe der Komponenten mit den hoch ste- henden (blauen) Indizes (ak), dann heißt er „kontravariant“, bei Verwendung der Komponen- ten mit den unten stehenden (roten) Indizes (ak) hingegen „kovariant“. Um es noch deutli- cher zu machen, schreiben wir die Komponenten häufig auch unterschiedlich auf:

(i) als Kontravarianter Vektor (auch: „Spaltenvektor“) a = ak =

³

²

1

a a a

(ii) als Kovarianter Vektor (auch: „Zeilenvektor“) a = ak = (a1,a2,...,an).

Merksatz: „Spaltenvektoren haben daher „viele Zeilen“ und Zeilenvektoren „viele Spalten““.

Die „Norm ||a||“ der Vektoren a wird nun einfach definiert als Quadratwurzel aus der Summe der Produkte seiner kontravarianten Komponenten ak mit den entsprechenden kovarianten Komponenten ak:

||a||2 = ak.ak = (a1, a2,..., an).

³

²

1

a a a

= a1.a1 + a2.a2 + ... + an.an.

Aus dem Bild erkennen wir unschwer, dass die roten Einheiten umso größer werden, je kleiner die blauen sind und umgekehrt. Dieses Wechselspiel sorgt dafür, dass die Norm

||a|| eines Vektors a in allen Koordinatensystemen denselben Zahlenwert hat. Da im euklidi-

(5)

schen Raum die ko- und kontravarianten Komponenten eines Vektors identisch werden, wird dort das Quadrat der Norm zur Summe der Komponentenquadrate - aber nur im euklidi- schen Raum!

6.1-6 Vektoralgebra.

(1) Identität zweier Vektoren: a = b, falls ak = bk für alle k(1,2,...,n)

(2) Addition zweier Vektoren: a ± b = c = (a1±b1,..., an±bn) = (c1,..., cn) Kommutativgesetz: a + b = b + a

Assoziativgesetz: (a + b) + c = a + (b + c)

(3) Nullvektor 0 = (0,...,0): a + 0 = a

(4) Multiplikation eines Vektors a mit einem Skalar λ:

Kommutativgesetz: λ.a = a.λ = (λa1, ..., λan) Assoziativgesetz: λ.(μ.a) = (λ.μ).a

Distributivgesetz I: (λ+ μ).a = λ.a + μ.a Distributivgesetz II: λ.(a + b) = λ.a + λ.b

(5) Normierter Vektor aE (auch: „Einheitsvektor“): Jeder Vektor mit der Norm ||aE||= 1; al- so jeder durch seine Norm ||a|| dividierte Vektor a: aE = a /||a||.

(6) Skalarprodukt (inneres Produkt, Punktprodukt) im Rn.

Das Skalarprodukt zweier Vektoren a und b ergibt einen Skalar s (daher der Name) und ist analog zur Norm ||a|| der Vektoren a definiert. Wir ersetzen bloß die kontrava- rianten Komponenten des Vektors a durch die entsprechenden des Vektors b (Merk- satz: „Summe der Komponentenprodukte des Zeilen- mit dem Spaltenvektors“).

s = ak.bk = (a1, a2,..., an).

³ b

² b

b1

= a1.b1 + a2.b2 + ... + an.bn.

(6)

(7) Vektorprodukt (äußeres Produkt, Kreuzprodukt) im R3.

c = a x b =

³

²

1

c c c

= (a1,a2,...,an) x (b1,b2,...,bn) =

1 2 2 1

3 1 1 3

2 3 3 2

b a b a

b a b a

b a b a

;

c = a x b = (c1,c2,...,cn) =

³

²

1

a a a

x

³

²

1

b b b

= (a2.b3 - a3.b2, a3.b1 - a1.b3, a1.b2 - a2.b1).

Das Vektorprodukt zweier Zeilenvektoren ergibt einen Spaltenvektor und dasjenige zweier Spaltenvektoren einen Zeilenvektor. Der Produktvektor c steht senkrecht auf die a-b-Ebene; es gilt die „rechte Hand Regel“.

Merksatz: „Immer „1,2,3,1,2,3,...“ und jede Vertauschung der Reihenfolge („Permu- tation“) erzeugt ein (-1)“.

(i) „Orthogonal“ stehen zwei Vektoren zueinander, wenn ihr Skalarprodukt verschwin- det.

(ii) Lineare Unabhängigkeit: Zwei oder mehrere Vektoren sind linear unabhängig (l.u.), wenn keiner von ihnen durch Linearkombination der anderen hervorgeht.

(iii) Kroneckersymbol δ: δik = δik = 1 für alle i = k und δik = δik = 0 für alle i  k.

(iv) „Basis“ im Rn: n linear unabhängige Vektoren vi.

- Normierte Basis: Alle n Basisvektoren vi haben die Norm 1 (||vi || = 1).

- Orthogonale Basis: Alle n Basisvektoren vi stehen zueinander orthogonal.

- Orthonormierte Basis: Eine normierte, orthogonale Basis (vi . vk = δik (= 0 falls i  j und = 1 falls i = j).

6.1-7 Vektorielle Charakterisierung von geometrischen Gebilden.

(1) Punkt: p = (p1,p2,p3) = (p1,p2,p3).

(2) Gerade: x = (p + λ.rE)

rE (Einheits-)Vektor in der Geradenrichtung (auch: Richtungsvektor).

(3) Ebene: x = (p + λ1.rE1 + λ2.rE2)

rE1, rE2 zwei l.u. (Einheits-)Vektoren der Ebene.

(7)

(4) Gerade oder Ebene: Mit Hilfe des Skalarproduktes n.(x - p) = 0.

n (Einheits-)Vektor, der normal auf die Gerade bzw. Ebene steht (auch: „Normalvek- tor“). Ist n der Einheitsvektor, dann heißt diese Gl. „Hesse’sche Normalform“.

In Ebene: Geradengleichung: n1.(x1 -p1) + n2.(x2 - p2) = 0;

=> n1.x1 + n2.x2 = c;

Im R3: Ebenengleichung: n1.(x1 -p1) + n2.(x2 - p2) + n3.(x3 - p3) = 0;

=> n1.x1 + n2.x2 + n3.x3 = c.

(5) Abstand s eines Punktes x von einer Geraden (Ebenen): Den Punkt x einsetzen in die Hesse’sche Normalform: n.(x - p) = s.

(6) Winkel φ: Der Winkel φ den zwei Vektoren a und b einschließen ist gegeben durch:

cos φ = (a.b) /(||a||.||b||).

(7) Das Skalarprodukt zweier Vektoren a und b kann als Projektion des Vektors b auf den Vektor a interpretiert werden.

(8) Flächeninhalt eines Parallelogramms: Die Norm des Vektorproduktes ||a x b|| der beiden das Parallelogramm aufspannenden Vektoren a und b.

(9) Zusammenhang zwischen den kartesischen Koordinaten ak eines Vektors a und seinen Polarkoordinaten:

(i) In der Ebene (Polarkoordinaten: r = ||a||;  = 0...2π):

a1 = r. cos  a2 = r. sin .

(ii) Im R3 (Polarkoordinaten: r, , φ = -π/2...π/2):

a1 = r. cos  . sin φ a2 = r. sin  . sin φ a3 = r. cos φ.

(8)

6.2 Matrizen und Determinanten 6.2-1 Matrizen.

Unter einer Matrix A verstehen wir die Anordnung von m*n Zahlen(„Elementen“) in m Zeilen und n Spalten (Zwecks leichteren Merkens der späteren Multiplikationsregeln nennen wir schon jetzt immer die Zeilen vor den Spalten)

A =





m n m

m m

i k

n n

a a

a a

a a a

a a

a a

a a

...

...

...

...

...

...

...

3 2 1

2 2

3 2 2 2 1

1 1

3 1 2 1 1

= aik = (aik) = {aik},

(i = 1,2,...,m; k = 1,2,...,n). Wir erkennen, dass die oberen Indizes die i-te Zeile charakterisie- ren und die unteren die k-te Spalte.

Diese Nomenklatur findet erst zaghaft Eingang in die Literatur, obwohl sie in der Theoretischen Physik seit Jahrzehnten in Gebrauch ist. Vielfach werden die Matrixelemente mit zwei unteren Indizes versehen (aik), wobei der erste unbedingt die Zeile charakterisieren sollte, ansonsten vielfach Verwirrung entstehen kann.

Eine Matrix mit nur einer Zeile(Spalte) heißt Zeilen-(Spalten-)Vektor. Wir können da- her die Matrizen auch mit Hilfe von m Zeilenvektoren ai = ai

= (ai1, ai2,..., ain) oder von n Spaltenvektoren ak = a

k (haben m Zeilen mit den Komponenten a1k, a2k,... , amk):

A =

m n m

3 m 2 m 1

i k

2 n 2

3 2 2 2 1

1 n 1

3 1 2 1 1

a ...

a a a

...

a ...

...

...

a ...

a a a

a ...

a a a

=





am

a a

...

2 1

= (a

1, a

2,...,a

n).

o Quadratische Matrix: Gleich viele Zeilen m wie Spalten n (m = n).

o Reelle (Komplexe) Matrix: Die Elemente aik sind reelle (komplexe) Zahlen.

o Konjugierte Matrix A* (auch: A): Alle Elemente aik werden durch ihre konjugiert komplexen a*ik ersetzt. Es gilt stets: (A*)*= A.

o Transponierte Matrix AT: Die Zeilen werden mit den Spalten vertauscht: AT = aki. Bei quadratischen Matrizen entspricht dies der Spiegelung an der rechts nach unten wei- senden Diagonale. Es gilt stets: (AT)T = A.

o Transjungierte Matrix AH: Transponiert und konjugiert (auch: hermitesch adjun- giert). Die Zeilen werden mit den Spalten vertauscht und durch ihre konjugiert kom- plexen Elemente ersetzt:

AH = AT* = (AT)*= (A*)T = a*ki.

(9)

6.2-2 Determinanten.

Eine Determinante ist eine in einem quadratischen Schema (gleich viele Zeilen wie Spalten) notierte Summe. Sie stellt daher einen konkreten Zahlenwert dar - reell oder komplex. In ih- rer Darstellung - aber nur in dieser - ist die Determinante einer quadratischen Matrix ähnlich.

Der einzige Unterschied in ihren Schaubildern ist der, dass die Determinante mit senkrech- ten Begrenzungsstrichen gekennzeichnet ist: |aik|. Alternativ dazu kann sie auch durch das Schreiben von „det“ vor dem Zahlenschema angegeben werden: |aik| = det (aik).

A = det A = det

3 3 3 2 3 1

2 3 2 2 2 1

1 3 1 2 1 1

a a a

a a a

a a a

= |aik| =

3 3 3 2 3 1

2 3 2 2 2 1

1 3 1 2 1 1

a a a

a a a

a a a

.

o Berechnung der Determinanten

(1) n = 2: A = det A = a11 a22 - a21 a12.

Merksatz: „Produkt der Hauptdiagonale - Produkt der Nebendiagonale”.

(2) n > 2: Zwei Möglichkeiten:

Hilfreich: Wir schreiben die Determinante rechts nochmals an, dann können wir die Terme leichter erstellen:

3 3 3 2 3 1

2 3 2 2 2 1

1 3 1 2 1 1

a a a

a a a

a a a

3 3 3 2 3 1

2 3 2 2 2 1

1 3 1 2 1 1

a a a

a a a

a a a

(2-1) Entwicklung nach Unterdeterminanten („Minoren“):

A = det A =

3 3 3 2 3 1

2 3 2 2 2 1

1 3 1 2 1 1

a a a

a a a

a a a

= a11.

3 3 3 2

2 3 2 2

a a

a

a + a12.

3 1 3 3

2 1 2 3

a a

a

a + a13.

3 2 3 1

2 2 2 1

a a

a a

(2-2) Verallgemeinerung von (1):

Regel von Sarrus: Summe über alle Produkte der Hauptdiagonalen - Summe über al- le Produkte der Nebendiagonalen.

(10)

3 3 3 2 3 1

2 3 2 2 2 1

1 3 1 2 1 1

a a a

a a a

a a a

= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 - a31 a22 a13 - a32 a23 a11 - a33 a21 a12.

o Eigenschaften der Determinanten

(1) Für das Rechnen mit Determinanten gelten die entsprechenden Regeln der Matri- zenalgebra (vgl. 6.2-3).

(2) Die Determinante einer transponierten reellen Matrix AT hat denselben Wert wie die der ursprünglichen reellen Matrix A: det AT = det A.

(3) Ersetzt man die Elemente einer Determinante A = det A durch die konjugiert komple- xen Elemente, so wird ihr Wert ebenfalls konjugiert komplex.

(4) Addition des Vielfachen einer Zeile (Spalte) zu einer anderen Zeile (Spalte) ändert nichts am Wert der Determinante.

(5) Det A = 0, wenn einer der folgenden Fälle erfüllt ist:

(5-a) Zwei Zeilen (Spalten) proportional;

(5-b) Nicht alle Zeilenvektoren (Spaltenvektoren) voneinander linear abhängig sind;

(5-c) Alle Elemente einer Zeile (Spalte) verschwinden;

(5-d) Durch elementare Zeilen-/Spaltenoperationen zwei gleiche Zeilen oder Spalten entstehen.

6.2-3 Matrizenalgebra.

(1) Identität zweier Matrizen: A = B, falls aik = bik für alle i(1,2,...,m) und k(1,2,...,n).

(2) Addition zweier Matrizen: A ± B = C = (aik ± bik)= (cik)

für alle i(1,2,...,m) und k(1,2,...,n).

Kommutativgesetz: A + B = B + A;

Assoziativgesetz: (A + B) + C = A + (B + C);

(3) Nullmatrix 0 = (oik=0) für alle i,k: A + 0 = A.

(4) Multiplikation Matrix A mit einem Skalar λ:

Kommutativgesetz: λ.A = A.λ = (λ aik) für alle i,k.

Assoziativgesetz: λ.(μ.A) = (λ.μ).A.

Distributivgesetz I: (λ+ μ).A = λ.A + μ.A.

Distributivgesetz II: λ.(A + B) = λ.A + λ.B.

(11)

(5) Produkt zweier Matrizen A und B:

Zwei Matrizen können nur dann miteinander multipliziert werden, wenn die Spalten- zahl der linken Matrix (A) mit der Zeilenzahl der rechten Matrix (B) übereinstimmt;

Ergebnis: Matrix C mit mA Zeilen und nB Spalten.

A . B = C = (cil) = (aik bkl) =

B A m n

1 k

k l i k.b

a = (ai1 b1l + ai2 b2l + ... + ainA bnAl).

Merksatz: „Summe der Komponentenprodukte der i-ten Zeile von A (hat nA Spal- ten) mit der l-ten Spalte von B (hat mB Zeilen)“. Geht also nur, wenn nA = mB!

o Das Produkt zweier Matrizen ist nicht vertauschbar: A . B  B . A.

o Transponierte Produktmatrix CT = (A.B)T = BT.AT. o Assoziatives Gesetz: (A . B1) . B2 = A (B1 . B2) = C.

Beispiel: ____________________________________________________

a) (a11, a12,..., a1n).

3 1 2 1 1 1

b b b

= a1k.bk1= a1.b11 + a2.b21 + a3.b31 = c11 = c.

b)

3 1 2 1 1 1

b b b

.(a11, a12,..., a1n) =

3 3 3 2 3 1

2 3 2 2 2 1

1 3 1 2 1 1

c c c

c c c

c c c

mit cin = bik.akn.

____________________________________________________________

(6) Produkt einer Matrix mit der Summe zweier Matrizen:

o Linksmultiplikation: A . (B1 + B2) = A . B1 + A . B2 = CL. o Rechtsmultiplikation: (A + B1) . B2 = A . B2 + B1 . B2 = CR.

(7) Rang der Matrix A:

Eine (m,n) Matrix A (m Zeilen, n Spalten) ist vom Rang r, wenn r die höchste Ord- nung einer nicht verschwindenden Unterdeterminante ist, die aus Elementen der Mat- rix gebildet werden kann.

(12)

6.2-4 Quadratische Matrizen

Eine quadratische Matrix A heißt „regulär“, falls ihre Determinante A = det A 0 ist.

(1) Einheitsmatrix E = (δik ) =





1 0 ...

0

...

...

0 ...

1 0

0 ...

0 1

.

(2) Die Multiplikation der Einheitsmatrix E mit jeder gleichrangigen Matrix A ist ver- tauschbar: E . A = A . E.

(3) Inverse Matrix A-1: A . A-1 = A-1 . A = E.

Berechnung aus obiger Gleichung oder kompliziert: A-1 = (aik)-1 := Aki /(det A), „Algeb- raisches Komplement“: Aki = (-1)i+k . ki; ki erhalten wir durch Streichung der k-ten Zeile und i-ten Spalte der Matrix A.

(4) Diagonalmatrix D = (ciik) =





n 2

1

c 0 ...

0

...

...

0 ...

c 0

0 ...

0 c

.

(5) “Dreiecksmatrix”: Unter- oder oberhalb der Diagonalelemente stehen lauter Nullen.

(6) Symmetrieeigenschaften:

Reelle Matrizen Komplexe Matrizen

Symmetrisch: A = AT, (aik) = (aki) Hermitesch: A = A*T := AH (aik) = (aki)*

Orthogonal: A-1 = AT (aik)-1 = (aki) Unitär: A-1 = AH (aik)-1 = (aki)*

Anti- oder

schiefsymmetrisch: A = -AT (aik) = -(aki)

Anti- oder

schief-hermitesch: A = -A*T (aik) = -(aki)*

(7) Jede quadratische Matrix A kann als Summe einer symmetrischen Matrix Asym und einer antisymmetrischen Matrix Aanti dargestellt werden:

A = Asym + Aanti, mit: Asym = (aik + aki) /2; Aanti = (aik - aki) /2.

(13)

6.3 Anwendungen

6.3-1 Lineare Gleichungssysteme

Lineares Gleichungssystem von m Gleichungen mit n Unbekannten (Variablen) xi als Matri- zengleichung:

A . X = B.

A (m.n)-Koeffizientenmatrix, X n-dimensionaler Variablenvektor, B m-dimensionaler Lö- sungsvektor. Lösungsgleichung (i) in Matrizenform (wegen A-1.A.X = E.X = A-1.B):

X = A-1.B;

(ii) In Komponentenform: a11.x1 + a12.x2 +...+ a1n.xn = b1 a21.x1 + a22.x2 +...+ a2n.xn = b2

. . .

am1.x1 + am2.x2 +...+ amn.xn = bm

Die Lösung eines linearen Gleichungssystems ändert sich nicht, wenn (i) Gleichungen ver- tauscht werden oder (ii) ein Vielfaches einer Gleichung zu einer anderen addiert wird.

o Eindeutigkeit (r = n). Ein Gleichungssystem ist genau dann eindeutig lösbar, wenn der Rang der Koeffizientenmatrix, r, gleich der Variablenzahl n ist. In diesem Fall stellt jede Gleichungszeile eine von allen anderen völlig unabhängige Bestimmungs- gleichung dar. Es handelt sich also um n = m linear unabhängige Gleichungen für die n Variablen xi.

o „Überbestimmtheit“ (r > n). Ist der Rang der Koeffizientenmatrix, r, größer als die Variablenzahl n, dann gibt es mehr linear unabhängige Gleichungen als Variable xi. Das Gleichungssystem ist daher „überbestimmt“, da widersprüchlich. Es gibt keine Lösung für ein solches Gleichungssystem. Wir können für die n Variablen nur noch Werte suchen, die mit der Überzahl an Forderungen „möglichst gut verträglich“ sind.

Die Suche solcher Werte ist Aufgabe der „Ausgleichsrechnung“ (auch: „Regressions- rechnung“). In unserem Messalltag haben wir zumeist solche Regressionsprobleme zu lösen.

(14)

o „Unterbestimmtheit“ (r < n). Ist hingegen der Rang der Koeffizientenmatrix, r, klei- ner als die Variablenzahl n, dann gibt es zu wenige linear unabhängige Gleichungen, um sämtlichen Variable xi eindeutige Zahlenwerte zuordnen zu können. Das Glei- chungssystem ist daher „unterbestimmt“, da (n - r) Variable xk unbestimmt bleiben.

Jede unbestimmte Variable xk kann jeden beliebigen Wert annehmen, es gibt für sie also unendlich viele Lösungen. Unser Gleichungssystem hat also (n - r) unendlich viele Lösungen.

Lösungsweg: Wir schieben einfach alle (n-r) Variablen auf die rechte Seite und erhalten damit ein Gleichungssystem von r Gleichungen für die verbleibenden r Variablen xi (i = 1, ..., r):

a11.x1 +...+ a1r.xr = b1 - a1r+1.xr+1 -...- a1n.xn = b’1 a21.x1 +...+ a2r.xr = b2 - a2r+1.xr+1 -...- a2n.xn = b’2 ...

ar1.x1 +...+ arr.xr = br - arr+1.xr+1 -...- arn.xn = b’2

mit dem neuen Lösungsvektor b’. Der weitere Lösungsweg erfolgt genauso wie bei einem eindeutig bestimmten Gleichungssystem. Der einzige Unterschied ist der, dass hier der Lösungsvektor b’ nicht eindeutig bestimmt ist, sondern von den (n-r) Variab- len xk (k = r+1, ..., n) abhängig ist. Diese unbestimmt verbleibenden Variablen xk wer- den daher oft „Parameter“ genannt und gerne auch mit griechischen Buchstaben ge- schrieben (xr+1 = λ; xr+2 = μ; ...).

o Lösungstechniken für eindeutig bestimmte Gleichungssysteme (r = n):

(1) Intuitiv durch geschickte Umformungen.

(2) Cramer’sche Regel.

Lösungen sind die Quotienten aus zwei Determinanten: Der Nenner ist stets die Ko- effizientendeterminante, die Zählerdeteminante Ai der Variablen xi erhalten wir, indem wir die i-te Spalte der Koeffizientendeterminante A durch den Lösungsvektor b erset- zen: xi = Ai / A.

o Bei 3 Variablen:

a11.x1 + a12.x2 + a13.x3 = b1 a21.x1 + a22.x2 + a23.x3 = b2 a31.x1 + a32.x2 + a33.x3 = b3

(15)

A = det A =

3 3 3 2 3 1

2 3 2 2 2 1

1 3 1 2 1 1

a a a

a a a

a a a

x1 = A1/A =

3 3 3 2 3

2 3 2 2 2

1 3 1 2 1

a a b

a a b

a a b

/ det A;

x2 = A2/A =

3 3 3 3 1

2 3 2 2 1

1 3 1 1 1

a b a

a b a

a b a

/ det A; x3 = A3/A =

3 3 2 3 1

2 2 2 2 1

1 1 2 1 1

b a a

b a a

b a a

/ det A.

Beispiel: __________________________________________________________

Gleichungssystem: I 2x1 + 3x2 = 7 II 3x1 - x2 = 4

(i) Intuitiv: I + II.3: 11x1 = 19  x1 = 19/11;

in II eingesetzt: x2 = 3.19/11 - 4 = (57 -44)/11 = 13/11.

(ii) Cramer’sche Regel: A = det A =

1 3

3 2

= -11 x1 = A1/A =

1 4

3 7

/(-11) = -19/(-11) = 19/11; x2 = A2/A = 4 3

7

2 /(-11) = -13/(-11) =

13/11;

________________________________________________________________________

(3) Gauss’sches Eliminationsverfahren.

Wir formen die Koeffizientenmatrix A sukzessive in eine Dreiecksmatrix U um:

A.X = B U. X = B.

In Komponentenform: a11.x1 + a12.x2 +... + a1n.xn = b1 u22.x2 +... + u2n.xn = b’2

...

unn.xn = b’n  xn = b’n / unn.

Die Werte der anderen xi erhalten wir durch sukzessives Einsetzen von unten her.

Referenzen

ÄHNLICHE DOKUMENTE

OB , dessen Fußpunkt im Ursprung O des Ko- ordinatensystems liegt, wird Ortsvektor (oder auch Ortspfeil) genannt.. Der durch den

die Multiplikation von Matrizen ist nicht

[r]

Jetzt versehen wir V mit einer Orientierung. Das ergibt die Gleichung.. Benutzen wir das euklidische Skalarprodukt, die positiv orientierte Standard- basis {e 1 ,. × a n−1

Zeigen Sie rechnerisch mit Matrizen, dass sich eine Dre- hung um + 40 ◦ ergibt und dass hier die Reihenfolge der beiden Drehungen

werden für Auswahl benötigt Die Dauer aller &#34;E&#34; Vokale. Die Segmente, für die F1 über 700

Die  hier  abgebildeten  Fraktale  sind  exakt  selbstähnlich.. Auf  dem  beigefügten  Arbeitsblatt  finden  Sie  verschiedene  Figuren.  Zeichnen  Sie  

Testen Sie ihr Verfahren anhand der folgenden zwei Beispiele, indem Sie die Itera- tionsanzahl sowie einen Konvergenzplot der Iterierten des Verfahrens im semilogarith- mischen