• Keine Ergebnisse gefunden

Grundlagen • Normaxiome, Skalarproduktaxiome • Definition symmetrische, positiv-definite Matrix • Eigenwerte und Eigenvektoren symmetrischer, positiv-definiter Matrizen • (vertr¨agliche, nat¨urliche) Matrizennormen

N/A
N/A
Protected

Academic year: 2021

Aktie "Grundlagen • Normaxiome, Skalarproduktaxiome • Definition symmetrische, positiv-definite Matrix • Eigenwerte und Eigenvektoren symmetrischer, positiv-definiter Matrizen • (vertr¨agliche, nat¨urliche) Matrizennormen"

Copied!
2
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Universit¨at Heidelberg

Interdisziplin¨ares Zentrum f¨ur Wissenschaftliches Rechnen

Dr. Andreas Potschka

Ubungsblatt 11¨

Einf¨uhrung in die Numerik, Sommersemester 2017

Klausurrelevante Themen

Allgemeine Hinweise:

• Aussagen von S¨atzen, die unten erw¨ahnt werden, k¨onnten in voller mathematischer Pr¨azision abgefragt werden.

• Beweise und Beweisideen werden nicht abgefragt.

• Verfahren, die unten mit einem Sternchen ? gekennzeichnet sind, sollten sie in Python-Code erkennen k¨onnen.

1. Grundlagen

• Normaxiome, Skalarproduktaxiome

• Definition symmetrische, positiv-definite Matrix

• Eigenwerte und Eigenvektoren symmetrischer, positiv-definiter Matrizen

• (vertr¨agliche, nat¨urliche) Matrizennormen; Zeilensummen-, Spaltensummen-, Spektralnorm

• Spektralradius, Konditionszahl einer Matrix

• Ahnlichkeitstransformationen, Invarianz der Eigenwerte¨ 2. Fehleranalyse

• Gleitkommazahlen, GleitkommagitterA(b, r, s), Maschinengenauigkeit eps, Rundungsfeh- ler

• Konditionierung einer numerischen Aufgabe, Konditionszahlen kij

• Stabilit¨at eines numerischen Algorithmus

• Ausl¨oschung

• Horner-Schema?

3. Interpolation und Approximation

• Lagrangesche Interpolationsaufgabe, Existenz und Eindeutigkeit von L¨osungen

• Lagrange-Polynome, Eigenschaften

• Newtonsche Basispolynome, dividierte Differenzen?

• Darstellungen des Interpolationsfehlers

• Hermitesche Interpolationsaufgabe

• Extrapolation zum Limes, Extrapolationsfehler

• Spline-Interpolation, Bedingungen, Approximationsfehler

• Gauß-Approximation, Satz ¨uber Existenz und Eindeutigkeit einer Best-Approximation

• Gram–Schmidt-Algorithmus? 4. Numerische Integration

• Interpolatorische Quadraturformeln

• Ordnung einer Quadraturformel, Ordnung interpolatorischer Quadraturformeln

• Aquidistante St¨¨ utzstellen: Newton–Cotes-Formeln?(Mittelpunkt-, Trapez-, Simpson-Regel, keine Konvergenz f¨urn→ ∞)

• Summierte Quadraturformeln?

(2)

• Gauß-Quadratur? (Wahl der St¨utzstellen, Legendre-Polynome, Ordnung, Positivit¨at der Gewichte, Konvergenz f¨urn→ ∞)

5. Lineare Gleichungssysteme: Direkte Verfahren

• St¨orungssatz, Rolle der Konditionszahl der Systemmatrix (Genauigkeitsverlust)

• L¨osung von Dreieckssystemen? (Vorw¨arts-, R¨uckw¨artseinsetzen), Aufwand

• Gauß-Elimination, LR-Zerlegung?, Spaltenpivotierung, Aufwand

• Symmetrische, positiv-definite Systeme: Cholesky-Zerlegung?, keine Pivotierung, Aufwand

• Least-Squares-L¨osungen, Existenz und Bedingung f¨ur Eindeutigkeit, Normalengleichung (Konditionszahl)

• QR-Zerlegung, L¨osung von Least-Squares-Problemen mit Vollrang?

• Householder-Transformationen, Rolle im Householder-Verfahren, Ergebnis des Householder- Verfahrens

6. Nichtlineare Gleichungen

• n= 1: Intervallschachtelung/Bisektionsverfahren

• Lineare, superlineare, quadratische Konvergenz

• Newton-Verfahren? im Rn

• Satz von Newton–Kantorovich (lokale, quadratische Konvergenz)

• Sukzessive Approximation?, Konvergenzgeschwindigkeit

• Spezialfall: Newton-Verfahren f¨ur affin-linearesf(x) =Ax−b (Einschrittkonvergenz) 7. Lineare Gleichungssysteme: Iterative Verfahren

• Fixpunktiteration?, Konvergenzaussage

• Jacobi-Verfahren?, Gauß–Seidel-Verfahren?, SOR-Verfahren?

• Starkes Zeilensummenkriterium

• Konvergenz von Gauß–Seidel- und SOR-Verfahren f¨ur symmetrische, positiv-definite Ma- trizen

• Allgemeines Abstiegsverfahren?, exakte Liniensuche

• Gradientenverfahren, Konvergenzgeschwindigkeit

• CG-Verfahren, Konvergenzgeschwindigkeit

• Vorkonditionierung 8. Matrizeneigenwertaufgaben

• Satz von Gerschgorin

• Stabilit¨atssatz

• Potenzmethode?, inverse Iteration?

• Hessenberg-Normalform mit Householder-Transformationen

• QR-Verfahren

Viel Erfolg beim Lernen f¨ur die Klausur.

Webseite:

http://typo.iwr.uni-heidelberg.de/groups/mobocon/teaching/numerik-0-ss17

Referenzen

ÄHNLICHE DOKUMENTE

[r]

(iii) Sind λ, µ zwei verschiedene Eigenwerte einer symmetrischen Matrix, so sind die zugeh¨ origen Eigenvektoren zueinander senkrecht... Damit kann man Matrizen in Polynome und

Berechnen Sie alle Eigenwerte der folgenden Matrizen sowie alle

Zeigen Sie, dass das Produkt zweier orthogonaler Matrizen wieder eine orthogonale Matrix ist?. Gehen Sie dabei von der Charakterisierung U −1 = U

In diesem Fall gehört zu jedem der n Eigenwerte eine andere Eigenrichtung, so dass man insgesamt n Eigenrichtungen hat und sich jeder Vektor in vollständig in Eigenvektoren

• Insbesondere kann gezeigt werden, daß alle normalen Matrizen ein sol- ches Eigenvektor-System haben; dar¨uber hinaus sind die Eigenvektoren solcher Matrizen auch noch

Sei A ∈ C n×n und ~ x 6 = ~ 0 ein Eigenvektor zum Eigenwert λ von A, d.. einer k -fachen Nullstelle des charakteristischen Polynoms) k linear unabh¨angige Eigenvektoren existieren

[r]