• Keine Ergebnisse gefunden

13 Differentiation im R

N/A
N/A
Protected

Academic year: 2022

Aktie "13 Differentiation im R"

Copied!
12
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

13 Differentiation im R n

Beim Studium von eindimensionalen, reellen Funktionen f : R ! R ist die Ableitung ein bedeutendes Mittel, um die lokale Änderung einer Funktion zu bestimmen. Existiert die Ableitung in einem Punkt, dann lässt sich durch sie eine lineare Approximation der Funktion in einer Umgebung des Punkts angeben. Durch Hinzunahme höherer Ableitun- gen lässt sich diese Approximation verbessern und dies führt auf die Darstellungsformel von Taylor, die zur Bestimmung der Extrema einer Funktion genutzt werden kann. Alle diese Betrachtungen lassen sich auf mehrdimensionale Funktionen verallgemeinern. Ein wesentlicher Unterschied zwischen ein- und mehrdimensionalen Funktionen liegt jedoch darin, dass man in einer Dimension nur eine Richtung zur Verfügung hat bzgl. derer man die Änderungsrate betrachten muss und kann. In mehreren Dimensionen kann man ausgehend von einem Punkt die Änderung in alle Richtungen betrachten.

13.1 Partielle Ableitung

Da die Ableitung eine punktweise Eigenschaft ist, sei ein Punkta= (a1, a2, . . . , an)2Rn betrachtet, an dem man die Ableitung einer mehrdimensionalen Funktion

f :Rn !R, x7!f(x) = f(x1, x2, . . . , xn),

bestimmen möchte. Betrachtet man Ebenen durch den Punkt a, die parallel zu den Koordinatenachsen liegen, so kann man die Funktion auf diese Ebenen einschränken.

Dies erreicht man dadurch, dass man alle Argument bis auf eines fest hält und dies als eine Funktion von einer Variablen auffasst, d.h. man betrachtet für jedes k,1  k  n die Funktion

k:R!R, x7!f˜k(x) := f(a1, . . . , ak 1, x, ak+1, . . . , an),

die eine reellwertige Abbildung f˜k mit einer einzigen Variablenxist. Zu dieser lässt sich die gewöhnliche eindimensionale Ableitung im Punkt ak bestimmen durch

k0(ak) = lim

h!0

k(ak+h) f˜k(ak)

h .

(2)

a1

a2 a

x1

x2

%

&

a1

x

˜f1(x)=f(x,a2)

a2

x

˜f2(x)=f(a1,x)

Man findet somit eine direkte Verallgemeinerung des Differenzenquotienten für mehrdi- mensionale Funktionen.

Definition 13.1 (Partielle Ableitung) Sei D⇢Rn eine offene Teilmenge.

(i) Eine Abbildung f : D ! R heißt in einem Punkt x0 2 D partiell differenzierbar bzgl. der i-ten Koordinatenrichtung, falls der Limes

@if(x0) := @f

@xi(x0) := lim

h!0

f(x0+hei) f(x0) h

existiert und dieser heißt die partielle Ableitung bzgl. xi von f in x0.

(ii) Existieren alle partiellen Ableitungen @if(x0) (i = 1, . . . , n) in allen Punkten x0 2D, so heißt f partiell differenzierbar. Sind zusätzlich alle partiellen Ablei- tungen stetig auf D, so heißt f stetig partiell differenzierbar.

(iii) Eine vektorwertige Abbilung f : D ! Rm heißt (stetig) partiell differenzierbar, wenn alle Komponenten fj (j = 1, . . . , m)(stetig) partiell differenzierbar sind.

Da die partielle Ableitung der gewöhnlichen Ableitung entspricht, bei der man sich auf eine Ebene parallel zu den Achsen einschränkt, lässt sie sich auch analog zur eindi- mensionalen Ableitung interpretieren: Betrachtet man eine Tangente parallel zur i-ten Koordinatenachse durch den Punkt f(x0), so ist die Steigung dieser Geraden durch die partielle Ableitung @if(x0) gegeben und die Funktion lässt sich lokal in der Richtungxi als eine lineare Funktion

f(x0+hei) = f(x0) +@if(x0)·h+o(h2)

(3)

13.1 Partielle Ableitung approximieren. Die Rechenregeln für eindimensionale Funktionen übertragen sich direkt auf die partiellen Ableitungen.

x0

x1

x2

Beispiel 13.2 (i) Seif :R2 !R gegeben durch

f(x) =f(x1, x2) = x21+x32+x1x2.

Betrachtet man eine Variable als konstant und leitet nach der anderen Variablen wie im eindimensionalen Fall ab, so findet man die partiellen Ableitungen

@1f(x) = @f

@x1

(x) = 2x1+x2,

@2f(x) = @f

@x2

(x) = 3x22+x1.

(ii) Seif :Rn!R gegeben durch f(x) =kxk2 =

q

x21+. . .+x2i +. . .+x2n.

Dann kann man für x6=0 alle Variablen außer xi als Konstanten betrachten und die gewöhnlichen Ableitungsregeln anwenden. Damit erhält man für alle1in:

@if(x) = @i

(x21+. . .+x2i +. . .+x2n)12

= 1

2(x21+. . .+x2i +. . .+x2n) 12 ·@i(x21+. . .+x2i +. . .+x2n)

= 1

2kxk2

·2xi = xi

kxk2

.

Definition 13.3 (Mehrfache partielle Ableitung)

Sei D ⇢ Rn eine offene Teilmenge. Sind für eine partiell differenzierbare Abbildung f : D! R die partiellen Ableitungen @if :D !R ebenfalls partiell differenzierbar, so heißt f zweimal partiell differenzierbar mit den partiellen Ableitungen zweiter Ordnung

@ijf(x) := @i@jf(x) := @2f

@i@j(x) := @

@xi

✓@f

@xj(x)

◆ .

(4)

Die k-te partielle Ableitung ist induktiv definiert als

@i1. . .@ikf(x) = @

@xi1

. . . @

@xik

f(x).

Die Abbildung heißtk-mal stetig partiell differenzierbar, wenn alle partiellen Ableitungen bis zu k-ter Ordnung existieren und stetig sind.

Im Allgemeinen ist die Reihenfolge bei Mehrfachableitungen wichtig. Zum Beispiel ist

f(x1, x2) =

(x1x2x21 x22

x21+x22, für(x1, x2)6= (0,0), 0, für(x1, x2) = (0,0), zweimal partiell differenzierbar. Jedoch gilt

@1@2f(0,0)6=@2@1f(0,0).

Hinreichend für Vertauschbarkeit ist die Stetigkeit der Ableitung.

Bemerkung 13.4 (Vertauschbarkeit von partiellen Ableitungen)

Sei D⇢ Rn eine offene Teilmenge und f : D !R eine zweimal stetig partiell differen- zierbare Abbildung. Dann gilt für alle x2D:

@j@if(x) =@i@jf(x), i, j = 1, . . . , n.

13.2 Gradient, Jacobi-Matrix, Laplace-Operator

Für skalar- und vektorwertige Funktionen fasst man die partielle Ableitung für häufig genutzte Operatoren zusammen und führt die folgende Notation ein.

Definition 13.5 (Gradient)

Sei D ⇢ Rn offen und f : D ! R eine partiell differenzierbare Abbildung. Der Vektor der ersten partiellen Ableitungen

gradf(x) := rf(x) :=

0 BB B@

@1f(x)

@2f(x) ...

@nf(x) 1 CC CA2Rn

heißt Gradient von f im Punkt x 2 D (lat. gradiens: Anstieg, Gefälle, Steigung). Der Operator

r= 0 BB B@

@1

@2

...

@n

1 CC CA heißt Nabla-Operator.

(5)

13.2 Gradient, Jacobi-Matrix, Laplace-Operator Beispiel 13.6

Für f(x) = kxk2 und x6=0 findet man

rf(x) = 0 BB B@

@1f(x)

@2f(x) ...

@nf(x) 1 CC CA=

0 BB BB

@

x1

kxk2

x2

kxk2

...

xn

kxk2

1 CC CC A= 1

kxk2

0 BB B@

x1

x2 ...

xn

1 CC CA= x

kxk2

.

Definition 13.7 (Hesse-Matrix)

Sei D ⇢Rn offen und f :D !R eine zweimal partiell differenzierbare Abbildung. Die Matrix der zweiten partiellen Ableitungen

Hf(x) := (@i@jf(x))ni,j=1= 0 BB B@

@1@1f(x) @1@2f(x) . . . @1@nf(x)

@2@1f(x) @2@2f(x) . . . @2@nf(x)

... ... ...

@n@1f(x) @n@2f(x) . . . @n@nf(x) 1 CC

CA2Rnn

heißt Hesse-Matrix von f im Punkt x2D. Definition 13.8 (Jacobi-Matrix)

Sei D⇢ Rn offen und f :D !Rm eine partiell differenzierbare Abbildung. Die Matrix der ersten partiellen Ableitungen

Jf(x) := (@jfi(x))m,ni,j=1 = 0 BB B@

@1f1(x) @2f1(x) . . . @nf1(x)

@1f2(x) @2f2(x) . . . @nf2(x)

... ... ...

@1fm(x) @2fm(x) . . . @nfm(x) 1 CC

CA2Rmn

heißt Jacobi-Matrix (oder Funktionalmatrix) von f im Punktx2D. Bemerkung 13.9

Für eine skalarwertige Funktion (m = 1) gilt daher

Jf(x) = @1f(x) @2f(x) . . . @nf(x) = (rf(x))T 2R1n. Definition 13.10 (Divergenz)

Sei D ⇢ Rn offen und f : D !Rn ein partiell differenzierbares Vektorfeld. Die skalare Funktion

div f(x) := r·f :=@1f1(x) +. . .+@nfn(x) heißt Divergenz von f im Punkt x2D.

Definition 13.11 (Laplace-Operator)

Sei D⇢Rn offen undf :D!R zweimal stetig partiell differenzierbar. Dann definiert f(x) :=div gradf(x) :=r·(rf(x)) =@1@1f(x) +. . .+@n@nf(x)

den Laplace-Operator

:=r·r.

(6)

13.3 Differenzierbarkeit

Ist eine eindimensionale Funktion differenzierbar, so lässt sie sich lokal durch eine lineare Funktion approximieren. Die partiellen Abbildungen übertragen dieses Konzept auf aus- gezeichnete Richtungen von mehrdimensionalen Räumen. Analog zum eindimensionalen Fall kann man jedoch für eine Funktionf :Rn!Rm auch die Approximierbarkeit durch eine lineare FunktionDf :Rn!Rm fordern.

Definition 13.12 (Differenzierbarkeit)

Sei D ⇢Rn eine offene Teilmenge. Eine Abbildungf : D!Rm heißt in x0 2D (total) differenzierbar (oder schlicht differenzierbar), wenn sie im Punkt x0 linear approximier- bar ist, d.h. wenn eine lineare Abbildung L:Rn! Rm existiert, so dass für alle x2D gilt:

f(x) =f(x0) +L(x x0) +!(x x0) mit einer Funktion !:D!Rm und

xlim2D kx x0k!0

!(x x0)

kx x0k =0, d.h. !(x x0) =o(kx x0k).

In dem Fall wird die Abbildung Df(x0) :Rn !Rm definiert durch (Df)(x0) :=L

die (totale) Ableitung (oder das Differential) von f inx0 2D genannt.

Bemerkung 13.13 (Verallgemeinerung auf beliebige Vektorräume)

In dieser Definition wird lediglich benötigt, dass es sich beim Rn um einen Vektorraum handelt. Daher lässt sich diese Definition direkt auf Abbildungen zwischen beliebigen Vektorräumen erweitern, indem man eine lineare, stetige Abbildung sucht, die eine lokale Approximation darstellt.

Beispiele 13.14 (i) Sei f : Rn ! Rm eine lineare Abbildung, d.h. mit einer Matrix A2Rmn gilt f(x) = A·x. Dann findet man wegen

f(x) = f(x0) +f(x x0) +0

=f(x0) +A·(x x0) +0 die Ableitung Df(x0) :Rn!Rm als

Df(x0) = f, d.h. (Df)(x0)(x) =A·x.

(ii) Für das Skalarprodukt f :Rn !R,x7! hx,xi findet man f(x) = hx,xi=hx0+x x0,x0+x x0i

=hx0,x0i+ 2hx0,x x0i+hx x0,x x0i

=f(x0) + 2|hx0,x{z x0}i

Df(x0)(x x0)

+k|x {zx0k}2

o(kx x0k)

.

(7)

13.3 Differenzierbarkeit

die Ableitung Df(x0) :Rn!R als

Df(x0) = 2hx0,·i, d.h. (Df)(x0)(x) = 2hx0,xi. Satz 13.15 (Stetig partiell differenzierbar ) differenzierbar) Sei D⇢Rn offen undf :D!Rm.

(i) Ist f inx0 2D (total) differenzierbar, dann ist f inx0 partiell differenzierbar und die (totale) Ableitung ist die Jacobi-Matrix

Df(x0) = Jf(x0).

Die (totale) Ableitung ist somit eindeutig bestimmt.

(ii) Istf inx0 2Dpartiell differenzierbar und sind zusätzlich die partiellen Ableitungen stetig, dann ist f (total) differenzierbar in x0.

Beweis. (i) Ist f in x0 (total) differenzierbar, dann gilt die Approximation

f(x) =f(x0) +Df(x0)(x x0) +!(x x0) mit !(x x0) =o(k(x x0)k) und damit durch die Wahl x=x0+hei und der Linearität der Ableitung auch

@if(x0) = lim

h!0

f(x0+hei) f(x0)

h = lim

h!0

1

h(f(x0) +Df(x0)(hei) +!(hei) f(x0))

=Df(x0)(ei) + lim

h!0

!(hei)

h =Df(x0)(ei).

Damit istf in jeder Komponente partiell differenzierbar und es gilt@ifj(x0) = (Df(x0))ji. (ii) (Skizze) Sukzessives Anwenden des Mittelwertsatzes für eindimensionale Ableitun-

gen. ⇤

Bemerkung 13.16

Die lineare Approximationf(x) =f(x0)+f0(x0)(x x0)einer eindimensionalen Funktion f :R!Rlässt sich als Tangente an den Graphen vonf durch den Punkt(x0, f(x0))T 2 R2 mit Steigung f0(x0)2R auffassen.

Für den Fall f : R2 ! R überträgt sich diese Anschauung analog und die (totale) Ableitung ist eine Tangentialebene an den Graphen von f. Diese Ebene ist gegeben durch die Gleichung

f(x) =f(x0) +Jf(x0)(x x0)

=f(x0) +@1f(x0)(x1 x01) +@2f(x0)(x2 x02).

Durch Setzen vonx=x0 zeigt sich, dass die Ebene durch den Punkt(x01, x02, f(x0))T 2 R3 verläuft. Schränkt man sich auf den Schnittx2 =x02 ein, so besitzt die resultierende

(8)

Gerade die Steigung @1f(x0) der partiellen Ableitung und analog für die andere Basis- richtung. Beachtet man, dass die x3 Komponente der Ebene in der Graphdarstellung durch f(x) gegeben ist, so findet man die Normalenform der Ebenengleichung durch

@1f(x0)(x1 x01) +@2f(x0)(x2 x02) (x3 f(x0)) = 0 ,

0

@ x1 x01

x2 x02

x3 f(x0) 1 A·

0

@@1f(x0)

@2f(x0) 1

1 A= 0, , mit p := (x0, f(x0))T,n:= (rf(x0), 1)T, (x p)·n = 0.

x0

x1

x2

Wie schon im eindimensionalen Fall gibt es die Kettenregel.

Bemerkung 13.17 (Kettenregel)

SeienDf ⇢Rr undDg ⇢Rn offen und g:Dg !Df sowief :Df !Rm differenzierbare Abbildungen und h = f g die Verkettung dieser Abbildungen. Dann ist auch h : Dg ! Rm differenzierbar, die Ableitungsmatrizen haben die Dimension Dh 2 Rmn, Df 2Rm⇥r, Dg2Rr⇥n, und es gilt die Kettenregel gemäß dem Matrixprodukt

Dh(x) = D(f g)(x) =Df(g(x))·Dg(x).

Es gilt also

stetig partiell differenzierbar)(total) differenzierbar) partiell differenzierbar.

Die Umkehrung davon gilt im Allgemeinen jedoch nicht. Selbst dann nicht, wenn die Funktion in alle Richtungen des Raums (nicht nur in Richtung der Einheitsvektoren) differenzierbar ist.

Satz 13.18 (Richtungsableitung)

Sei D ⇢Rn offen und f : D ! R im Punkt x0 2 D differenzierbar. Dann existiert für jeden Vektorv2Rn mitkvk= 1dieRichtungsableitung, d.h. die Ableitung in Richtung v gegeben durch

@vf(x0) := @f

@v(x0) := lim

h!0

f(x0+hv) f(x0)

h =hrf(x0),vi.

(9)

13.3 Differenzierbarkeit Beweis. Man definiert g(h) :=x0+hv und damit q(h) :=f(g(h)). Damit folgt

@vf(x0) = lim

h!0

f(x0+hv) f(x0)

h = lim

h!0

f(g(h)) f(g(0))

h = dq

dh(0) =q0(0).

Mit der Kettenregel findet man jedoch direkt q0(h) =

Xn

i=1

@if(g(h))·gi0(h)

und damit wegen g(0) =x0 und g0(0) =v

@vf(x0) =q0(0) = Xn

i=1

@if(x0)·vi.

⇤ Beispiel 13.19

Die Funktion f :R2 !Rgegeben durch

f(x1, x2) = (x2

1

x2, für x2 6= 0, 0 für x2 = 0,

0.2 0

0.2 0.2 0 5 0.2

0 5

x1 x2

ist inx0 =0nicht stetig (z.B.limh!0f(h, h) = 0, aberlimh!0f(h, h3) =1) und damit auch nicht (total) differenzierbar, d.h. man kann keine lokale Approximation durch eine Ebene finden. Alle Richtungsableitungen (und damit auch die partiellen Ableitungen) existieren jedoch gemäß

@vf(0,0) = lim

h!0

f(0+hv) f(0)

h =

(lim

h!0 (hx1)2

hx2 = xx212 ·lim

h!0h= 0, fürx2 6= 0,

0 fürx2 = 0.

Bemerkung 13.20 (Der Gradient ist die Richtung des stärksten Anstiegs) Für rf(x)6= 0 ist der Winkel ↵ zum Vektor v gegeben durch

cos(↵) = hrf(x),vi krf(x)k kvk.

(10)

Für kvk= 1 folgt daher

@f

@v(x) = hrf(x),vi=krf(x)kcos(↵).

Daran liest man ab: Der Gradient zeigt in die Richtung des stärksten Anstiegs, denn die Richtungsableitung ist maximal, wenn vund rf dieselbe Richtung haben.

Analog zeigt rf in die Richtung des stärksten Abstiegs.

rf(x) x1

x2

f(x1, x2)

13.4 Taylorentwicklung und Extrema

Definition 13.21 (Multiindex)

EinMultiindex ist einn-Tupel↵= (↵1, . . . ,↵n)2Nn. DieOrdnung |↵|und dieFakultät

↵! eines Multiindex ist gegeben durch

|↵|:=↵1+. . .+↵n, ↵! :=↵1!·. . .·↵n!.

Für einen Vektor x2Rn gilt die Schreibweise

x :=x11·. . .·xnn

und für eine |↵|-mal stetig differenzierbare Funktion schreibt man

@f :=@11·. . .·@nnf := @||

@x11 ·. . .·@xnn. Satz 13.22 (Taylor-Formel im Rn)

Sei D ⇢ Rn offen und f : D ! R k-mal stetig differenzierbar. Dann lässt sich die Funktion um jeden Punkt x0 2D durch die Taylor-Formel entwickeln:

f(x) = X

||k

@f(x0)

↵! (x x0)+o(kx x0kk) für x!x0,x2D.

(11)

13.4 Taylorentwicklung und Extrema Bemerkung 13.23 (Approximation zweiter Ordnung)

Unter Vernachlässigung Terme höherer Ordnung findet man somit für eine zweimal stetig differenzierbare Funktion:

f(x) = X

||2

@f(x0)

↵! (x x0)+o(kx x0k2)

= X

||=0

@f(x0)

↵! (x x0)+ X

||=1

@f(x0)

↵! (x x0)+ X

||=2

@f(x0)

↵! (x x0)+o(kx x0k2)

=f(x0) + Xn

i=1

@if(x0)(x x0)i+1 2

Xn

i,j=1

@i@jf(x0)(x x0)i(x x0)j+o(kx x0k2)

=f(x0) + (rf(x0))T ·(x x0) + (x x0)T ·Hf(x0)·(x x0) +o(kx x0k2) mit dem Gradenten rf(x0) und der Hesse-Matrix Hf(x0)am Punkt x0 2D. Damit lassen sich erneut lokale Maxima und Minima untersuchen.

Definition 13.24 (Maximum / Minimum)

Sei D ⇢ Rn offen. Eine Funktion f : D ! R hat in einem Punkt x0 2 D ein lokales Minimum (bzw. Maximum), falls in einer Umgebung U ⇢D von x0 gilt

f(x0)f(x) ( bzw. f(x0) f(x) ) für alle x2U.

Die Bedingungen für Extrema ergeben sich analog zum eindimensionalen Fall.

Satz 13.25 (Notwendige Bedingung für Extrema)

Sei D ⇢ Rn offen und f : D ! R partiell differenzierbar. Hat f in x0 2 D ein lokales Extremum, so gilt

rf(x0) =0.

Definition 13.26 (Definitheit)

Eine symmetrische Matrix A2Rnn heißt

positiv definit, falls xTAx>0, positiv semidefinit, falls xTAx 0, negativ definit, falls xTAx<0, negativ semidefinit, falls xTAx0,

jeweils für alle x 2 Rn,x 6= 0 gilt. Trifft keiner dieser Fälle zu, so heißt die Matrix indefinit.

Bemerkung 13.27

Die symmetrische Matrix besitzt eine Orthonormalbasis aus Eigenvektoren und lässt sich daher diagonalisieren und hat n Eigenwerte. Die Definitheit lässt direkt an den Eigenwerten ablesen: Sind alle Eigenwerte von Apositiv (bzw. negativ), so istApositiv (bzw. negativ) definit. Sind einige Eigenwerte Null, dann ist die Matrix A noch positiv (bzw. negativ) semidefinit. Gibt es jedoch Eigenwerte mit entgegengesetztem Vorzeichen, dann ist A indefinit.

(12)

Satz 13.28 (Notwendige Bedingung für Extrema)

Sei D ⇢ Rn offen und f :D !R zweimal stetig differenzierbar und x0 2D ein Punkt mit rf(x0) = 0. Dann gilt:

(i) Ist Hf(x0)positiv definit, so hat f inx0 ein striktes lokales Minimum, (ii) ist Hf(x0) negativ definit, so hat f inx0 ein striktes lokales Maximum, (iii) ist Hf(x0) indefinit, so hat f in x0 weder Minimum noch Maximum.

13.5 Newton-Verfahren

Sei D ⇢ Rn offen und eine Abbildung f : D ! Rm gegeben. Sucht man nach den Nullstellen

f(x) = 0

dieser Funktion, so kann man das Verfahren von Newton auf den mehrdimensionalen Fall verallgemeinern.

Sei dazu f differenzierbar und daher lokal durch eine lineare Abbildung approximierbar als

f(x) =f(x0) +Jf(x0) (x x0) +o(kx x0k)

mit der Jacobi-Matrix Jf(x0). Vernachlässigt man die Terme höherer Ordnung und de- finiert die nächste Iterierte als f(x1)⇡0, so findet man

0⇡f(x1)⇡f(x0) +Jf(x0) (x1 x0) ) x1 =x0 (Jf(x0)) 1f(x0).

Damit lässt sich das Newton-Verfahren für den mehrdimensionalen Fall formulieren.

Definition 13.29 (Newton-Verfahren)

Sei D⇢ Rn offen und die Abbildung f :D!Rm differenzierbar. Die Newton-Iteration zur Approximation einer Nullstelle f(x) =0 lautet mit einem Startwert x0 2Rn:

xk =xk 1 (Jf(xk 1)) 1f(xk 1), k= 1,2, . . . .

In jedem Schritt des Newton-Verfahrens muss folglich die Jacobi-Matrix an der aktuellen Iterierten berechnet werden und danach die Matrix invertiert werden. Genauer: Man sucht eine Korrektur c durch die Lösung des folgenden Gleichungssystems und addiert diese zur aktuellen Iterierten xk 1:

Jf(xk 1)c= f(xk 1), xk=xk 1 +c, k = 1,2, . . . .

Referenzen

ÄHNLICHE DOKUMENTE

Wenn für die DGL (5.16) die Lösung der zugehörigen homogenen DGL der Form (5.20) bekannt ist, reicht es eine partikuläre Lösung von (5.16) zu kennen.. Es gibt kein all-

Die δ-Funktion ist eigentlich gar keine Funktion, sondern eine spezielle irreguläre Distribution mit kompaktem Träger, die in der Mathematik und Physik von grundle- gender

Jeder direkt proportionaler Zusammenhang zwischen zwei Größen y und x kann durch eine spezielle lineare Funktion mit der Gleichung y = f(x) = mx beschrieben werden... Zeichne

' haben wir wegen einer rein mathematischen Fragestellung un- tersucht: Wievielmal so stark wie 't ändert sich 's? In diesem Beispiel hat dieses Verhältnis eine konkrete

des Punktes (0, 0) macht; was in grösserer Entfernung passiert, ist nicht festgelegt. Wie vorhin überlegen wir uns: Eine besonders einfache Funktion, welche diese Bedingung

Bestimmen Sie die Gleichung der Tangente und der Normalen für die in Parameterform gegebenen Funktion im Punkt

Lineare

Der Graph muss als Gerade erkennbar sein, durch den Ursprung gehen und monoton