• Keine Ergebnisse gefunden

Probe: Umrechnung in kartesische Koordinaten

Im Dokument B Lineare Algebra 40 (Seite 58-71)

u[v]=

7 Orthogonalisierungsverfahren nach Gram-Schmidt

7.1 Ausgangspunkt

Gegeben sei eine Basis{v1, . . . ,vn}={vi}i=1...n des linearen VektorraumesV.

7.2 Ziel

Mittels des Gram-Schmidtschen - Orthogonalisierungsverfahrens soll eine neue orthonormale Basis{b1, . . . ,bn}={bi}i=1...ndes VektorraumesV erzeugt werden.

7.3 Verfahren

Gegeben:{v1, . . . ,vn}={vi}i=1...n Basis vonV

Gesucht:{b1, . . . ,bn}={bi}i=1...northonormale BasisvonV so dass span(b1, . . . ,bn) =span(v1, . . . ,vn) i= 1, . . . , n sowie

kbik= 1 ∧ bi⊥bj 1≤ {i, j} ≤n, j6=i

Ansatz: Wegen der Forderung

bi∈span(v1, . . . ,vi) =span(b1, . . . ,bi1,vi) w¨ahlt man den Ansatz

i=vi+

i1

X

j=1

αijbj = kb˜ikbi i= 1, . . . , n .

Da bi durch Normalisierung aus ˜bi gebildet wird, ist auch ˜bi orthogonal zu allen Vektorenbj, j= 1. . . i−1.

Damit gilt (f¨ur festes i)

0 =bj·viij j = 1. . . i−1 und somit

αij =−bj·vi j= 1. . . i−1. Dann wird ˜bi entsprechend dem Ansatz

i =vi+

i1

X

j=1

αijbj

berechnet. Schließlich erh¨alt man deni-ten neuen Basisvektor aus bi= b˜i

kb˜ik .

Die letzten drei Gleichungen sind f¨uri= 1. . . nzu l¨osen, danach ist die neue Basis berechnet.

7.4 Beispiel

Die somit berechnete neue Basis ist b1= (1

8 Matrizen und ihre Algebra

Definition B.1 (Matrix). Ein Zahlenschema

A = (αij)j=1...ni=1...m =

heißt einereelle (m×n) Matrix, die ausmZeilen undnSpalten besteht. Man sagt auchAist vom Typ oder Format (m, n) und schreibtA∈Rm×n (siehe Definition B.8).

Die Elemente in der i-ten Zeile vonAbilden den sogenannten Zeilenvektor (αi j)j=1...n∈Rn und die Elemente in der j-ten Spalte den Spaltenvektor (αi j)i=1...m∈Rm.

Der Zusammenhang zwischen Matrizen und linearen Abbildungen ergibt sich nun wie folgt.

Sind (vj)j=1...n und (wi)i=1...m Basen von V und W, so gibt es genau eine lineare Abbildung Dann gilt f¨ur beliebige Vektorenv=P

νjvj

Definition B.2 (Matrix-Vektor-Produkt). Die durch die letzte Gleichung implizierte Rechen-vorschrift nennt man einMatrix–Vektor–Produktund schreibt einfach

Diese Matrix-Vektor-Gleichung ist eine Abk¨urzung f¨ur die komponentenweise Identit¨at ωi =

Xn

j=1

αi jνj f¨ur i = 1, . . . , m (1)

Beispiel B.3. Bez¨uglich der monomialen Basis hat die schon im Beispiel B.4 erw¨ahnte Abbildung durchDifferentiationin Pn f¨urn= 5 die Matrix-Darstellung

A =

Diese Matrix ergibt sich f¨uri = 1, . . . ,5 aus der Grundbeziehung F(vi) =v0i= (i−1)vi1 da vi=xi1, wobei hierW=V und deshalbwi=vi.

Definition B.4 (Hintereinanderausf¨uhrung linearer Abbildungen). Betrachtet man zwei lineare Abbildungen

G:U 7→ V und F :V 7→ W, so ist derenKompositionoderHintereinanderausf¨uhrung

F◦G:U 7→ W mit (F◦G)(u) = F(G(u)) eine lineare Abbildung vonU nach W.

Bez¨uglich geeigneter Basen{uk}k=1...pvonU,{vj}j=1...n vonV und{wi}i=1...m vonW entspre-chen den AbbildungenF undGMatrizen

A= (αi j)j=1...ni=1...m und B= (βj k)k=1...pj=1...n.

Hierbei entspricht die Spaltenzahl vonAder Zeilenzahl vonB, da diese beide gleich der Dimension ndes ZwischenbereichesV sind.

Definition B.5 (Matrixmultiplikation). Unter diesen Bedingungen kann man nun durch wie-derholte Anwendung von (1) die Koeffizientenωi eines Bildesw=F(G(u)) direkt aus den Koef-fizientenµk vonuberechnen. Und zwar gilt f¨ur jedes i= 1. . . m

Mittels der (m×p) Matrix (γi k)k=1,...pi=1,...merh¨alt man also das neue Matrix–Vektor–Produkt

Definition B.6 (Matrix-Matrix Schreibweise). Den Zusammenhang zwischen denαi jj k

und den resultierendenγi knennt man einMatrix–Matrix–Produkt(kurz Matrix-Produkt) und schreibt

Dabei ist das Elementγik in deri-ten Zeile undk-ten Spalte des ProduktesC gerade das innere Produkt deri-ten Zeile des linken FaktorsAund derk-ten Spalte des rechten FaktorsB.

Faustregel Matrix-Multiplikation

Zeile ·Spalte

Beispiel B.7. Man betrachte die beiden (3×3) Matrizen

Bez¨uglich der kartesischen Basis des dreidimensionalen Anschauungsraumes

beschreibtAdieSpiegelungaller Vektorenv=xe1+ye2+ze3 an der diagonalen Fl¨ache y=z.

B beschreibt bez¨uglich der kartesischen Basis eine Achtel-Drehung entgegen dem Uhrzei-gersinnum diez-Achse e3 (Achtung: Rechtssystem!!).

Fortsetzung Beispiel

Wird nunzuerst rotiert und dann reflektiert, so ergibt sich die Matrix

Hier ergab sich zum Beispiel das Element in der dritten Zeile und zweiten Spalte des Produktes als (0,1,0)·(σ, σ,0)T = 0·σ+ 1·σ+ 0·0 = σ.

Tauscht man jedoch die Reihenfolge der Faktoren aus, so erh¨alt man die Matrix

Diese Matrix beschreibt dieHintereinanderausf¨uhrung der Spiegelung und dann der Drehung, was zu unterschiedlichen Ergebnissen f¨uhrt.

Bemerkung:

Wie das Beispiel zeigt, ist die Matrixmultiplikationnicht kommutativ.

Sie ist allerdings assoziativ in dem Sinne, daß

(A B)C = A(B C)

f¨ur beliebige MatrizenA, B undC ist, vorausgesetzt die Spaltenzahl vonA gleicht der Zeilenzahl von B und die Spaltenzahl von B gleicht der Zeilenzahl von C, da die Produkte sonst gar nicht definiert w¨aren.

Diese Identit¨at kann man durch Ausmultiplizieren ¨uberpr¨ufen oder aus der Tatsache ableiten, daß die Hintereinander ausf¨uhrung von Abbildungen auch assoziativ ist, d.h. es gilt (F◦G)◦H = F ◦(G◦H), vorausgesetzt der Bildbereich von H geh¨ort zum Definitionsbereich der Abbildung Gund der Bildbereich vonG geh¨ort zum Definitionsbereich von F. In jedem Falle wird hier ein gegebenes Elementu∈Dom(H) nachF(G(H(u)) abgebildet.

Diese Eindeutigkeit der Komposition von Abbildungen ¨ubertr¨agt sich auch auf die Multiplikation von Matrizen.

Definition B.8 (VektorraumRm×n). Allereellen Matrizen eines gegebenen Typs(m, n) bilden eine Menge, die man mitRm×nbezeichnet. Diese Menge ist sogar ein reellerVektorraum bez¨uglich komponentenweiser Addition und Multiplikation, d.h.

A+B= (αi ji j)j=1...ni=1...m und λ A= (λ αi j)j=1...ni=1...m f¨ur beliebige Matrizen

A= (αi j)∈Rm×n, B= (βi j)∈Rm×n undλ∈R.

Vorausgesetzt die Typen vonA,B undC sind kompatibel, so daß die folgenden Ausdr¨ucke ¨ uber-haupt definiert sind, gelten dieDistributivgesetze:

A(B+C) = A B+A C (A+B)C = A C+B C .

Definition B.9 (Identit¨atsmatrix). Bez¨uglich der Multiplikation von Matrizen gibt es ein neutrales Element, n¨amlich dieEinheits-oderIdentit¨atsmatrix

I = In =





1 0 · · · 0 0 1 · · · 0 ... ... . .. ...

0 0 · · · 1



 .

Der die Gr¨oße der Matrix angebende Indexnkann wegfallen, wenn er sich aus dem Zusammenhang ergibt. Es gilt nun insbesondere

ImA = A = A In f¨ur A∈Rm×n.

Definition B.10 (Transposition). Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m×n) Matrix Aeine (n×m) MatrixB =AT macht. Hierbei gilt βi jj i, so daß in Matrixschreibweise

AT =



α1 1 α2 1 · · · αm1

α1 2 α2 2 · · · αm2

. . . . α1n α2n · · · αm n



 = (βi j)j=1...mi=1...n .

Bemerkung:

Nur die Diagonalelemente (αi i)i=1...min(m,n)bleiben bei der Transposition unver¨andert, die ande-ren Elemente tauschen den Platz mit ihrem Gegen¨uber auf der anderen Seite der Diagonalen.

Lemma B.11 (Transpositionsregeln). Man kann sich leicht davon ¨uberzeugen, daß die fol-genden Regeln f¨ur das Transponieren gelten:

(AT)T = A (A+B)T = AT +BT

(λA)T = λAT (A B)T = BTAT . Bemerkung:

Die Transposition ist also eine lineare Abbildung vonRm×n nachRn×m und als solche sogar ihre eigene Inverse. Die letzte Gleichung bedeutet, daß die Transponierte eines Produktes gleich dem Produkt der transponierten Faktoren in umgekehrter Reihenfolge ist. Hierbei m¨ussen wir nat¨urlich wieder davon ausgehen, daß die Formate der Faktoren bez¨uglich der Produktbildung vertr¨aglich sind, was dann entsprechend f¨ur die Transponierten folgt.

8.1 Spezielle Matrixformen

Je nach ihrem Format, der Verteilung nicht verschwindender Elemente und gewissen algebraischen Eigenschaften unterscheidet man die folgenden h¨aufig auftretenden Matrix Typen.

Zeilenvektor

A∈R1×n⇒A= (α11, α12, . . . , α1n) In diesem Falle nennt manAeinenZeilenvektor.

Spaltenvektor

A∈Rm×1⇒A=

 α11

... αm1



In diesem Falle nennt man A einen Spaltenvektor. Er kann von links mit einer m-spaltigen Matrix multipliziert werden, in diesem Fall stimmt das Matrix–Vektor–Produkt und das ¨ubliche Matrix–Matrix–Produkt ¨uberein.

Ausseres oder dyadisches Produkt¨

Das Produkt eines Zeilenvektors aT = [(αi)i=1...n]T ∈ R1×n mit einem Spaltenvektor b = (βi)i=1...m ∈Rm×1 der gleichen L¨angem=nergibt

aTb= (a∗b) =bTa= Xn

i=1

αiβi∈R1×1.

Diese 1×1 Matrix kann man also als Skalar mit dem inneren Produkt zwischena undb identi-fizieren. Wechselt man jedoch die Reihenfolge der Faktoren, so ergibt sich auch fuer n 6=m die wohldefinierte Matrix

baT = (biaj)i=1...mj=1...n ∈Rm×n

Diese nennt man auch das¨aussereoderdyadische Produktvona undb.

Verbilligte Produkte

Normalerweise kostet f¨urA∈Rm×n die Berechnung des ProduktesAvmit einem Vektorv∈Rn genaum·nskalare Multiplikationen. Ist jedochA=baT ein ¨ausseres Produkt so berechnet man viel billiger

Av = (baT)v = b(aTv).

Beachte, dassb(aTv) durch Bildung des Inneren ProduktesaTv=a·vund seine anschliessende Multiplikation mit b nurn+m skalare Multiplikationen verlangt. Demgegen¨uber kostet alleine die explizite Berechnung des ¨ausseren ProduktesbaT genau m·nMultiplikationen.

Entsprechend berechnet man das Produkt mit einer MatrixV ∈Rn×p als (baT)V = b(aTV) =b(VTa)T

Die Produktbildungb(VTa)T kostet nur (m+n)·pskalare Multiplikationen w¨ahrend die Berech-nung in der Form (baT)V mehr alsm·n·psolche Operationen verlangt. Allgemeiner bezeichnet man die Fragestellung, in welcher Reihenfolge ein Produkt mehrerer Matrizen am billigsten be-rechnet werden kann, alsMatrixketten-Problem. Es kann sehr effizient mittels der sogenannten Dynamischen Programmierunggeloest werden.

Quadratische Matrix

A∈Rn×n⇒AT ∈Rn×n

Eine Matrix, deren Zeilenzahl gleich ihrer Spaltenzahl ist, heißtquadratisch. Alle linearen Ab-bildungen eines Raumes in sich selbst werden durch quadratische Matrizen beschrieben.

Symmetrische Matrix

AT = A∈Rn×n

Quadratische Matrizen, die bez¨uglich der Transposition invariant sind, heißensymmetrisch. Die-se bilden einen Unterraum vonRn×n. Dieser Unterraum hat die Dimensionn(n+ 1)/2, da man lediglich dienElemente in der Diagonale und entweder dien(n−1)/2 Elemente dar¨uber oder die gleiche Zahl darunter frei w¨ahlen kann.

Schief symmetrische Matrix

AT =−A∈Rn×n

Quadratische Matrizen mit dieser Eigenschaft heißenschief symmetrisch. Wie wir sp¨ater sehen werden, sind alle ihre Eigenwerte rein imagin¨ar.

F¨ur jede quadratische Matrix gilt

A = 12(A+AT)

| {z }

symmetrisch

+ 12(A−AT)

| {z }

schief symmetrisch

.

Diese additive Zerlegung ist allerdings nicht sehr n¨utzlich in Bezug auf die Eigenwerte, da diese in stark nichtlinearer Weise von der Matrix abh¨angen.

Dreiecksmatrix

Falls f¨urA = (αi j)∈Rn×n

i > j⇒αi j= 0 gilt, so daß

A =



α1 1 · · · α1n

0 α2 2 · · · α2n

. . . . 0 · · · αn n



 ,

dann nennt manA eineobere Dreiecksmatrix.

Analog definiert man auch die untere Dreiecksmatrix, deren oberhalb der Hauptdiagonale stehenden Elemente Null sind.

Diagonale Matrizen

A∈Rn×n heißtdiagonal, wenni6=j⇒αi j= 0 gilt, also

A =



α1 1 0 · · · 0 0 α2 2 · · · 0

. . . . 0 0 · · · αn n



 .

Man schreibt dann kurz A=diag(αi i)i=1...n. Insbesondere gilt

I = diag(1)i=1...n.

Summen und Produkte von diagonalen Matrizen sind wiederum diagonal:

A=diag(αi)i=1...n

B =diag(βi)i=1...n

=⇒ A+B =diag(αii)i=1...n

A B=diag(αiβi)i=1...n

.

Orthogonale Matrizen

A∈Rn×n heißtorthogonal, falls

ATA = I = A AT

wobei sich zeigen l¨aßt, daß die zweite Identit¨at aus der ersten folgt.

Bezeichnet man mitaj= (αi j)i=1...ndenj-ten Spaltenvektor vonA, so ist die BedingungATA=I

¨aquivalent zu

ai·aj=

(0 falls i6=j 1 falls i=j

Das heißt: Die MatrixAist genau dann orthogonal, wenn ihre Spaltenvektoren eine orthonormale Basis vonRn bilden.

Da mit Aauch AT orthogonal ist, gilt dasselbe f¨ur die Zeilen von A, die ja die Spalten von AT sind.

Produkt orthogonaler Matrizen

F¨ur zwei orthogonale MatrizenA undB ist jeweils auch deren Produkt orthogonal, da (AB)T(AB) = (BTAT)(AB) =BT(ATA)B=BTB=I .

Die Summe von orthogonalen Matrizen hat im allgemeinen nicht diese Eigenschaft. So ist zum Beispiel mit A auch −A orthogonal, aber deren Summe, die Nullmatrix A−A = 0, sicherlich nicht.

Beispiel B.12(Drehungen in der Ebene).

A =

cos(ϕ) −sin(ϕ) sin(ϕ) cos(ϕ)

⇒ AT =

cos(ϕ) sin(ϕ)

−sin(ϕ) cos(ϕ)

ATA =

cos(ϕ)2+ sin(ϕ)2 cos(ϕ) sin(ϕ)·(1−1) sin(ϕ) cos(ϕ)·(1−1) cos(ϕ)2+ sin(ϕ)2

= I

9 L¨ osung linearer Gleichungssysteme

Lineare Systeme

F¨ur eine lineare Abbildung

F :V =Span{vj}j=1...n → W=Span{wi}i=1...m und eine vorgegebene ”Rechte Seite” w = Pm

i=1biwi mit bi ∈ R findet man ein v = P

j=1...nxjvj mitF(v) = w durch L¨osen des Gleichungssystems

α1 1x1 + α1 2x2 + . . . +α1jxj. . . +α1nxn = b1

α2 1x1 + α2 2x2 + . . . +α2jxj. . . +α2nxn = b2

. . . .

αi1x1 + αi2x2 + . . . + αi j. . . +αi nxn = bi

. . . .

αm1x1 + αm2x2 + . . . +αm j. . . +αm nxn = bm

Matrix–Vektor–Schreibweise

Aquivalenterweise ergibt sich in Matrix–Vektor–Schreibweise¨

Ax =



α1 1 . . . α1j . . . α1n

α2 1 . . . α2j . . . α2n

. . . . αm1 . . . αm j . . . αm n



x = b

wobeix= (x1, . . . , xj, . . . , xn)T undb= (b1, . . . , bi, . . . , bm)T sind (unter Verletzung der Konven-tion, daß alle Skalare mit griechischen Buchstaben benannt sein sollten).

Man bezeichnet das lineare System vonmGleichungen in nUnbekannten als unterbestimmt wennm < n

quadratisch wennm=n uberbestimmt¨ wennm > n

Definition B.1 (Regularit¨at). Eine Abbildung F :Rn →Rn und entsprechende Matrizen A heißen regul¨ar, falls

Ax=F(x) = 0 g.d.w. x= 0, andernfalls heißen sie singul¨ar.

Lemma B.2. FallsAregul¨ar ist, dann hat Ax=bgenau eine eindeutige L¨osung f¨ur jedes b.

Ein Kriterium, ob eine Matrix regul¨ar oder singul¨ar ist, liefert die im AbschnittB-9eingef¨uhrte Determinantedet(A).

W¨unschenswerte L¨osungsalgorithmen pr¨ufen die Regularit¨at und liefern entweder die eindeutige L¨osung oder Singularit¨atsbeschreibungen.

9.1 L¨ osung Linearer Gleichungssysteme in Spezialf¨ allen

Ist A eine Orthogonal-, Diagonal- oder Dreiecksmatrix (das sind diejenigen, deren Struktur sich auf das Produkt ¨ubertr¨agt), so lassen sich die entsprechenden linearen Systeme Ax = brelativ leicht l¨osen.

Lemma B.3 (L¨osung orthogonaler Systeme). FallsA orthogonal ist, gilt:

Ax = b ⇔ ATAx = x = ATb

In diesem Falle kann das Gleichungssystem also einfach durch die Multiplikation der rechten Seite bmit der TransponiertenAT gel¨ost werden.

Lemma B.4 (L¨osung diagonaler Systeme). Falls A = diag(αi)i=1...n eine Diagonalmatrix ist, so reduziert sich das lineare System auf die Gleichungenαixi=bi. Diese werden f¨ur beliebige bi durchxi=bii genau dann erf¨ullt, wenn keines der Diagonalelemente αi gleich Null ist.

Falls diese Regularit¨atsbedingung verletzt ist, mußbdie Konsistenzbedingung αi= 0 ⇒ bi= 0

erf¨ullen. Die entsprechenden L¨osungskomponenten xi sind dann beliebig, so daß das Gleichungs-systemAx = bmehrdeutig l¨osbar ist.

Lemma B.5 (L¨osung von Dreieckssystemen). Ist A eine untere Dreiecksmatrix, hat das entsprechende Gleichungssystem Ax = bdie folgende ”gestaffelte” Form:

α1 1x1 = b1

α2 1x12 2x2 = b2

... ...

αi1x1i2x2+· · ·+αi ixi = bi

... ...

αn1x1n2x2+ · · ·+αn, n1xn1n nxn = bn

Vorw¨artssubstitution

Nun kann man zun¨achst aus der ersten Gleichungx1bestimmen, dann diesen Wert in die Zweite einsetzten, um x2 zu erhalten, und so weiter. Unter der Regularit¨atsbedingung aus Lemma B.4, daß wiederum keines der diagonalen Elementeαi i verschwindet, hat man also

x1 = b11 1

x2 = (b2−α2 1x1)/α2 2

x3 = (b3−α3 1x1−α3 2x2)/α3 3

...

xi = (bi−αi1x1− · · · −αi i1xi1)/αi i

...

xn = (bn−αn1x1− · · · −αn jxj− · · · −αn n1xn1)/αn n

Man brauchtn(n−1)/2 Multiplikationen und Additionen sowienDivisionen.

R¨uckw¨artssubstitution

Bei einer oberen Dreiecksmatrix A ergibt sich entsprechend das Verfahren derR¨uckw¨ artssub-stitution, wobei jetzt diexi f¨uri=n, n−1, . . . ,1 durch die Formel

xi= 1 αi i

bi− Xn

j=i+1

αi jxj

 i=n, n−1, . . . ,1

bestimmt sind. Regularit¨atsbedingung ist wiederum, daß keines der Diagonalelemente verschwin-det und der Rechenaufwand ist auch hier von der Ordnungn2/2 arithmetische Operationen.

Zur L¨osung allgemeiner linearer Systeme kann man die MatrixAso modifizieren, daß sie eine der oben genannten speziellen Formen annimmt oder das Produkt solcher spezieller Matrizen wird. Das klassische Verfahren f¨ur eine solche Transformation ist dieElimination nach Carl Friedrich Gauß(1777 – 1855).

10 Gauß - Elimination (1850)

Die Grundlage dieses Verfahrens ist die Beobachtung, daß f¨ur zwei Funktionenf(x) undg(x) eines Vektorsxund jeden beliebigen Skalarλgilt:

f(x) = 0

g(x) = 0 ⇐⇒ f(x) = 0

g(x)−λf(x)= 0

| {z }

=:g(x)˜

Mit anderen Worten: Die Menge {x|f(x) = g(x) = 0} der L¨osungen x des Gleichungspaares f(x) = 0 und g(x) = 0 ist genau dieselbe wie die L¨osungsmenge des Gleichungspaaresf(x) = 0 und ˜g(x) = 0. Hierbei wurde die neue zweite Gleichung ˜g(x) = 0 durch Subtraktion eines Vielfachen der ersten von der alten zweiten Gleichungerhalten.

Selbst wenn f(x) und g(x) nichtlinear sind, kann man gelegentlich durch solche Umformungen ein System von zwei oder mehreren Gleichungen sukzessive vereinfachen, bis eine explizite L¨osung gelingt.

10.1 Lineare Systeme in zwei Variablen

Zun¨achst betrachten wir hier den Fall von zwei linearen Gleichungen in zwei Unbekannten.α1 1x11 2x2=b1

α2 1x12 2x2=b2

Ausnahmefall: α1 1= 0

Tauschtman die beiden Gleichungenaus, so ergibt sich das gestaffelte Gleichungssystem α2 1x12 2x2=b2

wobei die Komponenten der rechten Seite auch vertauscht wurden. Damit hat die Matrix ˜A nun Dreiecksform. Vorausgesetzt die beiden neuen Diagonalelemente ˜α1 1 und ˜α2 2 sind beide nicht Null, ergibt somit sich durch R¨uckw¨artssubstitution

x2= ˜b2/α˜2 2 und x1= (˜b1−α˜1 2x2)/α˜1 1.

Normalfall: α1 16= 0

In diesem Fall l¨aßt sich durch Abziehen des λ2 1≡α2 11 1 - fachen der ersten von der zweiten Gleichungdie Variablex1aus Letzterereliminieren.

Man erh¨alt also

Daλ2 1gerade so gew¨ahlt wurde, daß ˜α2 1verschwindet, hat das System nun wieder eine gestaffelte Form und die L¨osungskomponentenx2undx1k¨onnen durch R¨uckw¨artssubstitutionberechnet werden.

Pivotierung

Das im Nenner vonλ2 1 auftretende Diagonalelementα1 1 nennt man auch dasPivotelement.

Ist es urspr¨unglich gleich Null, so versucht man durch Zeilenaustausch (d.h. Umordnen der Gleichungen) ein nichtverschwindendes Pivotelement zu erhalten. Ist dies nicht m¨oglich, so ist das Gleichungssystem singul¨ar, d.h. nicht regul¨ar. (Dieser Fall wird sp¨ater betrachtet.)

Sind alle Diagonalelemente von A von Null verschieden, dann l¨aßt sich A direkt durch n−1 sukzessive EliminationsschritteohneZeilenaustausch auf Dreiecksform bringen.

Im Dokument B Lineare Algebra 40 (Seite 58-71)