17.3 Stetige Differenzierbarkeit

Wie wir in (17.1.3) gesehen haben, ist das Verschwinden der Ableitung \bgroup\color{demo}$ f'(x_0)$\egroup eine notwendige Bedingung dafür, daß \bgroup\color{demo}$ x_0\in U$\egroup ein Stelle ist, wo \bgroup\color{demo}$ f:E\supseteq U\to\mathbb{R}$\egroup ein Minimum oder Maximum hat. Um allerdings entscheiden zu können, ob ein solches nun wirklich vorliegt wurde in der Schule die zweite Ableitung benutzt. Wir wollen nun den Weg ebnen höhere Ableitungen zu definieren. Gleichzeitig werden wir Bedingungen finden, die uns erlauben aus der Existenz der Richtungs- oder der partiellen Ableitungen auf die Differenzierbarkeit schließen zu können.

Falls \bgroup\color{demo}$ f:E\supseteq U\to F$\egroup differenzierbar ist, so existiert für jeden Punkte \bgroup\color{demo}$ x\in U$\egroup die Ableitung \bgroup\color{demo}$ f'(x)\in L(E,F)$\egroup von \bgroup\color{demo}$ f$\egroup bei \bgroup\color{demo}$ x$\egroup. Wir erhalten somit eine Abbildung

\bgroup\color{demo}$\displaystyle f':E\supseteq U\to L(E,F).
$\egroup

Unter der zweiten Ableitung werden wir in (19.1.1) (im wesentlichen) die Ableitung dieser Abbildung verstehen.

Wir müssen also von Differenzierbarkeit oder zumindest Stetigkeit von Abbildungen \bgroup\color{demo}$ g:E\supseteq U\to
L(E,F)$\egroup sprechen können. Da \bgroup\color{demo}$ E$\egroup und \bgroup\color{demo}$ F$\egroup als endlich dimensionale Vektorräume vorausgesetzt sind, ist auch die Menge \bgroup\color{demo}$ L(E,F)$\egroup aller linearen Abbildungen von \bgroup\color{demo}$ E$\egroup nach \bgroup\color{demo}$ F$\egroup ebenfalls ein endlich dimensionaler Vektorraum nach (10.18) und mittels Basen von \bgroup\color{demo}$ E$\egroup und \bgroup\color{demo}$ F$\egroup können wir die Elemente von \bgroup\color{demo}$ L(E,F)$\egroup mit \bgroup\color{demo}$ n\times m$\egroup-Matrizen identifizieren, wobei wir \bgroup\color{demo}$ n:=\dim(F)$\egroup und \bgroup\color{demo}$ m:=\dim(E)$\egroup gesetzt haben. Es ist also \bgroup\color{demo}$ L(E,F)$\egroup isomorph zu \bgroup\color{demo}$ \mathbb{R}^{n\cdot m}$\egroup und \bgroup\color{demo}$ g:E\supseteq U\to
L(E,F)$\egroup ist genau dann stetig, wenn alle Eintragungen \bgroup\color{demo}$ g_{i,j}(x)$\egroup der Matrix \bgroup\color{demo}$ g(x)$\egroup stetige Abbildungen \bgroup\color{demo}$ E\supseteq U\to\mathbb{R}$\egroup liefern.

Üblicherweise verwenden wir auf \bgroup\color{demo}$ \mathbb{R}^{nm}$\egroup die euklidische Metrik aus (15.2.2), d.h. die Distanz zweier linearer Abbildungen \bgroup\color{demo}$ A,B\in L(E,F)$\egroup wäre durch

\bgroup\color{demo}$\displaystyle d(A,B):= \sqrt{\sum_{i=1}^n\sum_{j=1}^m (a_{i,j}-b_{i,j})^2}
$\egroup

gegeben, wobei \bgroup\color{demo}$ a_{i,j}$\egroup und \bgroup\color{demo}$ b_{i,j}$\egroup die Koeffizienten der Matrix \bgroup\color{demo}$ [A]$\egroup und \bgroup\color{demo}$ [B]$\egroup seien.

Besser mit der Wirkung von linearen Abbildungen auf Vektoren ist jedoch folgende Metrik auf \bgroup\color{demo}$ L(E,F)$\egroup geeignet:


17.3.1 Definition. Stetig differenzierbar.
Es ist \bgroup\color{demo}$ d(A_0,A_1):=\Vert A_1-A_0\Vert$\egroup mit \bgroup\color{demo}$ \Vert A\Vert:=\sup\{\vert A\cdot v\vert:\vert v\vert\leq 1\}$\egroup gegeben. Dabei heißt \bgroup\color{demo}$ \Vert A\Vert$\egroup die Operatornorm von $ A$.

Beachte, daß für \bgroup\color{demo}$ A\in L(E,F)$\egroup und \bgroup\color{demo}$ v\in V$\egroup folgendes gilt:

\bgroup\color{demo}$\displaystyle \vert A\cdot v\vert \leq \vert A\vert\cdot \vert v\vert.
$\egroup

In der Tat ist \bgroup\color{demo}$ v=\vert v\vert\cdot v_1$\egroup wobei \bgroup\color{demo}$ v_1:=\frac1{\vert v\vert} v$\egroup Länge \bgroup\color{demo}$ 1$\egroup hat, also ist

\bgroup\color{demo}$\displaystyle \vert A\cdot v\vert=\vert A(\vert v\vert\cdot ...
...\vert v\vert\cdot \vert A(v_1)\vert\leq \vert v\vert\cdot \vert A\vert.
$\egroup

Es heißt \bgroup\color{demo}$ f:E\supseteq U\to F$\egroup stetig differenzierbar (kurz \bgroup\color{demo}$ C^1$\egroup), falls \bgroup\color{demo}$ f'(x)$\egroup für alle \bgroup\color{demo}$ x\in U$\egroup existiert und \bgroup\color{demo}$ f':E\supseteq U\to L(E,F)$\egroup stetig ist.

Da \bgroup\color{demo}$ \operatorname{ev}:L(E,F)\times E\to F$\egroup bilinear und somit stetig ist ( \bgroup\color{demo}$ \Vert\operatorname{ev}(a,x)\Vert=\Vert a(x)\Vert\leq \Vert a\Vert\cdot\Vert x\Vert$\egroup) folgt aus der Stetigkeit von \bgroup\color{demo}$ f':U\to L(E,F)$\egroup jene von \bgroup\color{demo}$ \widehat{f'}:U\times E\to L(E,F)\times
E\to F$\egroup.

Für endlich dimensionales \bgroup\color{demo}$ E\cong \mathbb{R}^m$\egroup gilt auch die Umkehrung, denn dann ist \bgroup\color{demo}$ L(E,F)\cong L(\mathbb{R}^m,F)\cong \mathbb{R}^m$\egroup und aus der Stetigkeit von \bgroup\color{demo}$ \widehat{f'}:U\times E\to F$\egroup folgt jene von \bgroup\color{demo}$ \operatorname{ev_{e_i}}\o f':U\to L(E,F)\to F$\egroup und somit auch von \bgroup\color{demo}$ f':U\to F$\egroup (punktweise Konvergenz).




17.3.2 Proposition. Differenzierbarkeit via Richtungsableitungen.
Eine Abbildung \bgroup\color{demo}$ f:E\supseteq U\to F$\egroup ist genau dann \bgroup\color{demo}$ C^1$\egroup, wenn die Richtungsableitungen eine wohldefinierte und stetige Abbildung \bgroup\color{demo}$ E\supseteq U\to L(E,F)$\egroup, \bgroup\color{demo}$ x\mapsto (v\mapsto d_vf(x))$\egroup liefern.

Beweis. \bgroup\color{demo}$ (\Rightarrow)$\egroup Nach (17.1.9) existieren die Richtungsableitungen und \bgroup\color{demo}$ d_vf(x)=f'(x)$\egroup, also definieren sie gerade die Abbleitung \bgroup\color{demo}$ f':E\supseteq U\to L(E,F)$\egroup.

\bgroup\color{demo}$ (\Leftarrow)$\egroup Wegen Proposition (17.1.9) müssen wir nur zeigen, daß

\bgroup\color{demo}$\displaystyle \frac{f(x+tv)-f(x)}{t} - f'(x)(v)\to 0$\egroup for \bgroup\color{demo}$\displaystyle t\to 0+$\egroup glm. für \bgroup\color{demo}$\displaystyle \Vert v\Vert=1.
$\egroup

Nach dem Mittelwertsatz (17.1.4) angewendet auf \bgroup\color{demo}$ c:s\mapsto f(x+sv)$\egroup mit Ableitung \bgroup\color{demo}$ c'(s)= d_{v} f(x+sv)$\egroup ist für eine \bgroup\color{demo}$ 0<\vartheta<1$\egroup

$\displaystyle \frac{f(x+tv)-f(x)}{t}$ $\displaystyle = \frac1t(c(t)-c(0)) = c'(\vartheta t) = d_vf(x+\vartheta t v).$    

Wegen der vorausgesetzen Stetigkeit existiert für jedes \bgroup\color{demo}$ \varepsilon >0$\egroup ein \bgroup\color{demo}$ \delta >0$\egroup, so daß für alle \bgroup\color{demo}$ \Vert w\Vert<\delta $\egroup folgendes gilt: \bgroup\color{demo}$ \Vert d_vf(x+w)-d_vf(x)\Vert\leq \varepsilon \Vert v\Vert$\egroup. Für \bgroup\color{demo}$ \Vert v\Vert=1$\egroup und \bgroup\color{demo}$ 0<t<\delta $\egroup erhalten wir also

\begin{multline*}
\Bigl\Vert\frac{f(x+tv)-f(x)}{t} - f'(x)(v) \Bigr\Vert \leq \\...
...t v)-d_vf(x)\Vert:0<\vartheta<1\} \leq \varepsilon .{\rm\quad[]}
\end{multline*}




17.3.3 Proposition. Differenzierbarkeit via partielle Ableitungen.
Ein Abbildung \bgroup\color{demo}$ f:E_1\times \dots\times E_m\supseteq U\to F$\egroup ist genau dann stetig differenzierbar auf \bgroup\color{demo}$ U$\egroup, wenn sämtliche partielle Ableitungen \bgroup\color{demo}$ \d _jf:U\to L(E_j,F)$\egroup für \bgroup\color{demo}$ j\in\{1,\dots,m\}$\egroup existieren und stetig sind.

Beweis. \bgroup\color{demo}$ (\Rightarrow)$\egroup Dies folgt aus (17.2.10), denn \bgroup\color{demo}$ \d _j f(x) =
(f\o\operatorname{ins}_j^x)'(x^j)=f'(x)\o\ope...
...eratorname{ins}_j^*(f'(x))
=(\operatorname{ins}_j^*\o f')(x)\in L(E_j,F)$\egroup, und \bgroup\color{demo}$ (\operatorname{ins}_j^*):L(E_1\times \dots\times E_m,F)\to L(E_j,F)$\egroup ist eine stetige Kontraktion.

\bgroup\color{demo}$ (\Leftarrow)$\egroup Die wesentliche Beweis-Idee sieht man bereits im Fall \bgroup\color{demo}$ m=2$\egroup und \bgroup\color{demo}$ E_1=E_2=F=\mathbb{R}$\egroup. Wir führen den Beweis also nur in dieser Situation. Beachte, daß dann \bgroup\color{demo}$ L(E_i,F)=L(\mathbb{R},\mathbb{R})\cong\mathbb{R}$\egroup ist. Es genügt wegen (17.1.9) zu zeigen, daß \bgroup\color{demo}$ d_vf(x):=\lim_{t\to 0+}\frac{f(x+tv)-f(x)}{t}$\egroup glm. für \bgroup\color{demo}$ \vert v\vert\leq 1$\egroup existiert und \bgroup\color{demo}$ v\mapsto d_vf(x)$\egroup für jedes \bgroup\color{demo}$ x\in U$\egroup linear ist. O.B.d.A. sei \bgroup\color{demo}$ x=(0,0)$\egroup und \bgroup\color{demo}$ v=(v_1,v_2)$\egroup. Dann ist

\bgroup\color{demo}$\displaystyle \frac{f(t v_1,t v_2) - f(0,0)}{t}
= \frac{f(t...
..._2) - f(t v_1,0)}{t v_2} v_2
+ \frac{f(t v_1,0)-f(0,0)}{t v_1}  v_1.
$\egroup

Wegen dem Mittelwertsatz (17.1.4) angewendet auf \bgroup\color{demo}$ s\mapsto f(s,0)$\egroup existiert zu \bgroup\color{demo}$ t$\egroup und \bgroup\color{demo}$ v_1$\egroup ein \bgroup\color{demo}$ \vartheta_1$\egroup mit \bgroup\color{demo}$ 0<\vartheta_1<1$\egroup und

\bgroup\color{demo}$\displaystyle \frac{f(t v_1,0)-f(0,0)}{t v_1}=\d _1 f(\vartheta_1 tv_1,0).
$\egroup

Ebenso existiert wegen dem Mittelwertsatz angewendet auf \bgroup\color{demo}$ s\mapsto f(tv_1,s)$\egroup zu \bgroup\color{demo}$ t$\egroup und \bgroup\color{demo}$ v=(v_1,v_2)$\egroup ein \bgroup\color{demo}$ \vartheta_2$\egroup mit \bgroup\color{demo}$ 0<\vartheta_2<1$\egroup und

\bgroup\color{demo}$\displaystyle \frac{f(t v_1,t v_2)-f(t v_1,0)}{t v_2}=\d _2 f(t v_1,\vartheta_2 tv_2).
$\egroup

Image ..//pic-3-09.gif

Insgesamt erhalten wir also

$\displaystyle \frac{f(t v_1,t v_2) - f(0,0)}{t}$ $\displaystyle =\d _2 f(t v_1,\vartheta_2 tv_2)\cdot v_2 + \d _1 f(\vartheta_1 tv_1,0)\cdot v_1$    

und wegen der Stetigkeit von \bgroup\color{demo}$ \d _1 f$\egroup und \bgroup\color{demo}$ \d _2 f$\egroup konvergiert dieser Ausdruck gleichmäßig für \bgroup\color{demo}$ \vert v\vert=\sqrt{\vert v_1\vert^2+\vert v_2\vert^2}\leq 1$\egroup gegen

\bgroup\color{demo}$\displaystyle \d _1 f(0,0)\cdot v_1 + \d _2 f(0,0)\cdot v_2.
$\egroup

Da dieser Ausdruck offensichtlich linear in \bgroup\color{demo}$ v=(v_1,v_2)$\egroup ist, ist \bgroup\color{demo}$ f$\egroup differenzierbar nach (17.1.9) und \bgroup\color{demo}$ f'(x)(v)=\sum_i \d _i f(x) v_i$\egroup. Da \bgroup\color{demo}$ \d _i f$\egroup stetig ist, ist es auch \bgroup\color{demo}$ f'$\egroup, also ist \bgroup\color{demo}$ f$\egroup stetig differenzierbar.     []

17.3.4. Inverse Funktionen Wir wollen nun Gleichungen der Form \bgroup\color{demo}$ f(x)=y$\egroup nach \bgroup\color{demo}$ x$\egroup auflösen. Sei also \bgroup\color{demo}$ g(y):=x$\egroup eine Lösung. Falls nicht nur \bgroup\color{demo}$ f$\egroup sondern auch \bgroup\color{demo}$ g$\egroup differenzierbar ist, so gilt wegen \bgroup\color{demo}$ f(g(y))=y$\egroup nach der Kettenregel (17.2.3) \bgroup\color{demo}$ f'(g(y))\cdot g'(y)=\operatorname{id}$\egroup. Wenn die Lösungen eindeutig sind, d.h. \bgroup\color{demo}$ f$\egroup injektiv ist, dann ist wegen \bgroup\color{demo}$ f(g(f(x)))=f(x)$\egroup auch \bgroup\color{demo}$ g(f(x))=x$\egroup also \bgroup\color{demo}$ g'(f(x))\cdot f'(x)=\operatorname{id}$\egroup und speziell für \bgroup\color{demo}$ x=g(y)$\egroup ist \bgroup\color{demo}$ g'(y)\cdot f'(g(y))=\operatorname{id}$\egroup, d.h. \bgroup\color{demo}$ g'(y)$\egroup ist die inverse (lineare Abbildung) zu \bgroup\color{demo}$ f'(g(y))$\egroup.

Im endlich dimensionalen können wir die Invertierbarkeit linearer Abbildungen mit der Determinante testen, siehe (12.20).

Die Idee des folgenden Satzes ist, daß, wenn die Gleichung \bgroup\color{demo}$ f'(x_0)(x)=y$\egroup die durch die lineare Approximation \bgroup\color{demo}$ f'(x_0)$\egroup gegeben ist, eindeutig für alle \bgroup\color{demo}$ y$\egroup lösbar ist, dann sollte auch die nicht-lineare Gleichung \bgroup\color{demo}$ f(x)=y$\egroup zumindest für \bgroup\color{demo}$ y$\egroup nahe \bgroup\color{demo}$ f(x_0)$\egroup eindeutig mit \bgroup\color{demo}$ x$\egroup nahe \bgroup\color{demo}$ x_0$\egroup lösbar sein.




Satz über inverse Funktionen.
Es sei \bgroup\color{demo}$ f:E\supseteq U\to F$\egroup \bgroup\color{demo}$ C^1$\egroup, \bgroup\color{demo}$ x_0\in U$\egroup und \bgroup\color{demo}$ f'(x_0):E\to F$\egroup ein Isomorphismus. Dann ist \bgroup\color{demo}$ f$\egroup ein lokaler Diffeomorphismus, d.h. es gibt offene Umgebungen \bgroup\color{demo}$ V\subseteq U$\egroup von \bgroup\color{demo}$ x_0$\egroup und \bgroup\color{demo}$ W$\egroup von \bgroup\color{demo}$ f(x_0)$\egroup so daß \bgroup\color{demo}$ f:V\to W$\egroup bijektiv ist und die Inverse \bgroup\color{demo}$ f^{-1}:W\to V$\egroup \bgroup\color{demo}$ C^1$\egroup ist mit Ableitung \bgroup\color{demo}$ (f^{-1})'(y)=f'(f^{-1}(y))^{-1}$\egroup.

Eine Menge \bgroup\color{demo}$ U\subseteq E$\egroup heißt offene Umgebung von \bgroup\color{demo}$ x_0\in E$\egroup, wenn \bgroup\color{demo}$ U$\egroup offen ist und \bgroup\color{demo}$ x_0\in U$\egroup liegt.

Beweis. Zuerst vereinfachen wir das Problem. Durch eine Translation (wir ersetzen \bgroup\color{demo}$ f$\egroup durch \bgroup\color{demo}$ x\mapsto f(x_0+x)-f(x_0)$\egroup) erreichen wir \bgroup\color{demo}$ x_0=0$\egroup und \bgroup\color{demo}$ f(x_0)=0$\egroup. Durch Zusammensetzen mit \bgroup\color{demo}$ f'(x_0)^{-1}$\egroup erreichen wir \bgroup\color{demo}$ f'(x_0)=\operatorname{id}$\egroup. Da die lineare Approximation \bgroup\color{demo}$ \operatorname{id}$\egroup von \bgroup\color{demo}$ f$\egroup invertierbar ist, sollten wir das Restglied

\bgroup\color{demo}$\displaystyle r(x) := f(x_0+x) - f(x_0) - f'(x_0)(x) = f(x) - x
$\egroup

betrachten. Es ist \bgroup\color{demo}$ r(0)=0$\egroup und \bgroup\color{demo}$ r'(0)=f'(0)-\operatorname{id}=0$\egroup, also existiert ein \bgroup\color{demo}$ \delta >0$\egroup mit \bgroup\color{demo}$ \Vert x\Vert\leq \delta \Rightarrow x\in U$\egroup und \bgroup\color{demo}$ \Vert f'(x)-\operatorname{id}\Vert=\Vert r'(x)\Vert\leq 1/2$\egroup. Somit ist nach dem Mittelwertsatz (17.1.4)

\bgroup\color{demo}$\displaystyle \Vert r(x_1)-r(x_2)\Vert \leq \max\bigl\{\Vert r'(x_2+t(x_1-x_2))(x_2-x_1)\Vert\bigr\}
\leq \frac12\Vert x_1-x_2\Vert
$\egroup

für \bgroup\color{demo}$ \Vert x_j\Vert\leq \delta $\egroup. Speziell für \bgroup\color{demo}$ x_0:=0$\egroup erhalten wir \bgroup\color{demo}$ \Vert r(x)\Vert\leq \Vert x\Vert/2$\egroup für \bgroup\color{demo}$ \Vert x\Vert\leq \delta $\egroup. Wir behaupten nun, daß für alle \bgroup\color{demo}$ \Vert y\Vert< \delta /2$\egroup ein eindeutiges \bgroup\color{demo}$ \Vert x\Vert<\delta $\egroup mit \bgroup\color{demo}$ f(x)=y$\egroup existiert. Dazu wandeln wir diese Gleichung in die Fixpunktgleichung \bgroup\color{demo}$ x=g_y(x):=y+x-f(x)=y-r(x)$\egroup um. Für \bgroup\color{demo}$ \Vert y\Vert< \delta /2$\egroup und \bgroup\color{demo}$ \Vert x\Vert\leq \delta $\egroup ist \bgroup\color{demo}$ \Vert g_y(x)\Vert\leq \Vert y\Vert+\Vert r(x)\Vert< \delta /2 + \Vert x\Vert/2\leq \delta $\egroup und weiters ist \bgroup\color{demo}$ \Vert g_y(x_1)-g_y(x_2)\Vert= \Vert r(x_1)-r(x_2)\Vert\leq \Vert x_1-x_2\Vert/2$\egroup. Also folgt aus dem Banach'schen Fixpunktsatz (16.4.6) die Existenz eines eindeutig bestimmten Fixpunktes \bgroup\color{demo}$ \Vert x\Vert\leq \delta $\egroup und wegen \bgroup\color{demo}$ \Vert x\Vert=\Vert g_y(x)\Vert<\delta $\egroup liegt dieser im Inneren.

Es sei nun \bgroup\color{demo}$ W:=\{y:\Vert y\Vert<\delta /2\}$\egroup und \bgroup\color{demo}$ V:=f^{-1}(W)\cap\{x:\Vert x\Vert<\delta \}$\egroup. Dann existiert für jedes \bgroup\color{demo}$ y\in W$\egroup ein eindeutiges \bgroup\color{demo}$ \Vert x\Vert<\delta $\egroup mit \bgroup\color{demo}$ f(x)=y$\egroup, also liegt \bgroup\color{demo}$ x\in V$\egroup und \bgroup\color{demo}$ f:V\to W$\egroup ist bijektiv.

Es ist \bgroup\color{demo}$ f^{-1}$\egroup (Lipschitz-)stetig, denn für \bgroup\color{demo}$ y_j\in W$\egroup und \bgroup\color{demo}$ x_j\in V$\egroup mit \bgroup\color{demo}$ f(x_j)=y_j$\egroup gilt: \bgroup\color{demo}$ \Vert x_1-x_2\Vert \leq \Vert f(x_1)-f(x_2)\Vert + \Vert r(x_1)-r(x_2)\Vert
\leq \Vert y_1-y_2 \Vert + \frac12\Vert x_1-x_2\Vert$\egroup, also \bgroup\color{demo}$ \Vert x_1-x_2\Vert \leq 2 \Vert y_1-y_2\Vert$\egroup.
Und schließlich ist \bgroup\color{demo}$ f^{-1}$\egroup differenzierbar, denn

$\displaystyle \bigl\Vert f^{-1}(y_1) - f^{-1}(y_2)$ $\displaystyle - f'(x_2)^{-1}(y_1-y_2)\bigr\Vert = \bigl\Vert x_1-x_2-f'(x_2)^{-1}(f(x_1)-f(x_2)) \bigr\Vert$    
  $\displaystyle \leq \Vert f'(x_2)^{-1}\Vert\cdot \undersetbrace {\to 0}\to {\fra...
...2\Vert}} \cdot \undersetbrace{\leq 2\Vert y_1-y_2\Vert}\to{\Vert x_1-x_2\Vert}.$    

Beachte dabei, daß \bgroup\color{demo}$ f'(x_2)^{-1}$\egroup existiert und mittels geometrischer Reihe berechnet werden kann, da \bgroup\color{demo}$ \Vert f'(x_2)-\operatorname{id}\Vert<1$\egroup.

Daß \bgroup\color{demo}$ f^{-1}$\egroup \bgroup\color{demo}$ C^1$\egroup ist folgt, da \bgroup\color{demo}$ (f^{-1})' = \operatorname{inv}\o f'\o f^{-1}$\egroup und alle Komponenten stetig sind.     []


17.3.5 Beispiele inverser Abbildungen.

  1. Es ist $ \sin:[-\pi/2,\pi/2]\to [-1,1]$ streng monoton wachsend mit Ableitung $ \sin'(x)=\cos(x)>0$ für $ -\pi/2<x<\pi/2$. Also existiert für $ \vert y\vert<1$ nach dem inversen Funktionensatz die Ableitung der Umkehrfunktion $ \arcsin:[-1,1]\to[-\pi/2,\pi/2]$ bei $ y$ und zwar ist

    $\displaystyle \arcsin'(y)$ $\displaystyle = \frac1{\sin'(\arcsin(y))}=\frac1{\cos(\arcsin(y))}$    
      $\displaystyle =\frac1{\sqrt{1-\sin(\arcsin(y))^2}} =\frac1{\sqrt{1-y^2}}.$    

    Image ..//pic-3-07a.gif

    Beachte, daß $ \arcsin$ nur auf dem Bild $ \sin(\mathbb{R})=[-1,1]$ definierbar ist, und $ x=\arcsin(y)$ nur eine (die absolut kleinste) Lösung von $ \sin(x)=y$ liefert.

    Analog zeigt man für $ \cos:[0,\pi]\to[-1,1]$, daß $ \arccos'(y)=-\frac1{\sqrt{1-y^2}}$ ist. Wieder ist $ \arccos$ nur auf dem Bild $ \cos(\mathbb{R})=[-1,1]$ definiert und $ x=\arccos(y)$ ist die kleinste positive Lösung von $ \cos(x)=y$.

    Image ..//pic-3-07b.gif

  2. Es ist $ \tan:(-\pi/4,\pi/4)\to \mathbb{R}$ streng monoton wachsend mit Ableitung

    $\displaystyle \tan'(x)$ $\displaystyle =\frac{\cos(x)\sin'(x)-\sin(x)\cos'(x)}{\cos(x)^2} =\frac{\cos(x)^2+\sin(x)^2}{\cos(x)^2}$    
      $\displaystyle =1+\tan(x)^2=\frac1{\cos(x)^2}\geq 1$    

    für alle $ x$. Also existiert nach dem inversen Funktionensatz die Ableitung der Umkehrfunktion $ \arctan$ und zwar ist

    $\displaystyle \arctan'(y) = \frac1{\tan'(\arctan(y))}=\frac1{1+\tan(\arctan(y))^2}
=\frac1{1+y^2}.
$

    Im Unterschied zu den vorigen Beispiel ist diese Umkehrfunktion nun auf $ \mathbb{R}=\operatorname{Bild}(\tan)$ definiert und $ x=\arctan(y)$ ist wieder nur eine Lösung diesmal von $ \tan(x)=y$.

    Image ..//pic-3-07c.gif

  3. Nachtrag zu (16.2.1): Wir haben in (3.11) $ a^n$ für $ n\in\mathbb{N}$ und $ a^{-1}=1/a$ für $ a\ne 0$ definiert. Wegen (3.12) setzt man $ a^{-n}:=1/a^n$ für $ n\in\mathbb{N}$ und $ a\ne 0$. Nach (6.7) existiert für $ a>0$ und $ 0<m\in\mathbb{N}$ die m-te Wurzel $ \root{m}\of{a}$ und wieder wegen (3.12) setzt man $ a^{1/m}:=\root{m}\of{a}$ und schließlich

    $\displaystyle a^x:= a^{\frac{p}q}=\root{q}\of{a^p}=\root{q}\of{a}^p$    für $\displaystyle x=\frac{p}{q}\in\mathbb{Q}$ und $\displaystyle a>0.
$

    Man kann zeigen, daß die Funktion $ x\mapsto a^x$, $ \mathbb{Q}\to\mathbb{R}$ eine stetige Fortsetzung zu eine Funktion $ \mathbb{R}\to\mathbb{R}$ besitzt. Insbesonders für $ a:=e$ heißt diese stetige und streng monoton wachsende Funktion Exponentialfunktion $ \exp:x\mapsto x=e^x$.

    Wegen $ \lim_{n\to{\infty}}e^n=+{\infty}$ und somit $ \lim_{n\to{\infty}}e^{-n}=0$ ist $ \exp:\mathbb{R}\to (0,+{\infty})$ bijektiv und folglich existiert nach (16.4.4) die Umkehrfunktion $ \exp^{-1}:(0,+{\infty})\to\mathbb{R}$. Diese heißt natürlicher Logarithmus, wird mit $ \operatorname{ln}$ oder $ \log$ (in MATHEMATICA mit Log) bezeichnet und ist ebenfalls stetig und streng monoton wachsend. Wegen $ \exp(x_1+x_2)=e^{x_1+x_2}=e^{x_1}\cdot e^{x_1}=\exp(x_1)\cdot \exp(x_2)$ ist $ \operatorname{ln}(y_1\cdot y_2)=\operatorname{ln}(y_1)+\operatorname{ln}(y_2)$. Als nächstes wollen wir die Differenzierbarkeit von $ \operatorname{ln}$ beweisen. Aus $ e=\lim_{n\to{\infty}}(1+\frac1n)^n$ folgt durch Logarithmieren (d.h. Anwenden von $ \operatorname{ln}$) $ 1=\operatorname{ln}(\exp(1))=\operatorname{ln}(e)=\operatorname{ln}(\lim_{n\to{\infty}}(1+\frac1n)^n)=\lim_{n\to
{\infty}} n\operatorname{ln}(1+\frac1n)$. Und man kann dies verallgemeinern zu

    $\displaystyle \operatorname{ln}'(1)=\lim_{t\to 0}\frac{\operatorname{ln}(1+t)-\operatorname{ln}(1)}{t}
= \lim_{n\to{\infty}} n\operatorname{ln}(1+\frac1n)=1.
$

    Damit ist aber auch $ \exp$ differenzierbar bei 0 mit Ableitung

    $\displaystyle \exp'(0)=\lim_{s\to 0}\frac{\exp(s)-\exp(0)}{s}=\lim_{s\to 0}\frac{e^s-1}{s}
$

    und wenn wir $ t=e^s-1$ setzten, dann ist $ s\to 0$ äquivalent mit $ t\to 0$, denn $ s=\operatorname{ln}(t+1)$, und somit ist

    $\displaystyle \exp'(0)=\lim_{s\to 0}\frac{e^s-1}{s}=\lim_{t\to 0}\frac{t}{\operatorname{ln}(1+t)}=1.
$

    Wegen $ \exp(t+x)\exp(t)\exp(x)$ folgt schließlich

    $\displaystyle \exp'(x)$ $\displaystyle =\lim_{t\to 0}\frac{\exp(t+x)-\exp(x)}{t} =\lim_{t\to 0}\frac{e^t-1}{t} e^x$    
      $\displaystyle =\exp'(1)\cdot \exp(x)=\exp(x).$    

    Nach dem inversen Funktionensatz existiert somit die Ableitung der Umkehrfunktion $ \operatorname{ln}$ und zwar ist

    $\displaystyle \operatorname{ln}'(y) = \frac1{\exp'(\operatorname{ln}(y))}=\frac1{\exp(\operatorname{ln}(y))}
=\frac1y.
$

    Image ..//pic-3-07d.gif

  4. Quadrieren: Es sei $ f:\mathbb{C}\to\mathbb{C}$ geben durch $ f(z):=z^2$. Also ist $ f$ als Abbildung von $ \mathbb{R}^2\cong\mathbb{C}$ gegeben durch $ f(x,y)=(x^2-y^2,2xy)$. Die Jacobimatrix von $ f$ ist somit

    $\displaystyle [f'(x,y)]=\begin{pmatrix}2x & -2y  2y & 2x \end{pmatrix}$

    mit Determinante $ \det(f'(x,y))=4(x^2+y^2)\ne 0$ für $ (x,y)\ne(0,0)$. Nach den inversen Funktionensatz existiert somit lokal um Punkte $ \ne 0$ die (eindeutig bestimmte) Umkehrfunktion $ \sqrt{\quad}$. Global ist jedoch zu jeder Lösung $ z$ von $ z^2=w$ auch $ -z$ eine weitere Lösung.

    Image ..//pic-3-07e.gif

  5. Polarkoordinaten:
    Es sei $ f:\mathbb{R}^2\supseteq \mathbb{R}_+\times \mathbb{R}\to \mathbb{R}^2$, $ (r,\varphi )\mapsto (r \cos(\varphi ),r \sin(\varphi ))$. Dann ist $ f$ $ C^1$ und

    $\displaystyle f'(r,\varphi ) = \left(\begin{matrix}\cos(\varphi ) & -r \sin(\varphi )  \sin(\varphi ) & r \cos(\varphi ) \end{matrix}\right)
$

    invertierbar, da $ \det(f'(r,\varphi ))=r>0$, aber

    $\displaystyle f(r,\varphi +2 k \pi) = f(r,\varphi )$ für alle $\displaystyle k\in\mathbb{Z}.
$

    Also ist $ f$ nicht global injektiv, vergleiche das mit dem 1-dimensionalen Inversen-Funktionenen Satz (17.1.8).

    Image ..//pic-3-07f.gif

    Betrachten wir die modifizierte Abbildung

    $\displaystyle f:\mathbb{R}^2\to\mathbb{R}^2,\qquad
(s,\varphi )\mapsto (e^s \cos(\varphi ),e^s \sin(\varphi )),
$

    so ist

    $\displaystyle f'(s,\varphi ) =
\left(\begin{matrix}\cos(\varphi ) & -e^s \sin...
...{matrix}\right)
\cdot
\left(\begin{matrix}e^s & 0  0 & 1 \end{matrix}\right)
$

    und somit $ \det(f'(s,\varphi ))=e^s\cdot e^s=e^{2s}>0$ für alle $ s$. Dennoch ist $ f$ nicht injektiv.
  6. Ähnliches gilt auch für Kugelkoordinaten

    $\displaystyle f:(r,\varphi ,\theta)\mapsto r(\cos(\theta) \cos(\varphi ),\cos(\theta) \sin(\varphi ),\sin(\theta))
$

    mit Jacobimatrix

    $\displaystyle \begin{pmatrix}
\cos(\theta) \cos(\varphi ) & -r \cos(\theta) ...
...theta) \sin(\varphi ) \\
\sin(\theta) & 0 & r \cos(\theta) \\
\end{pmatrix}$

    und Determinante

    $\displaystyle \det(f'(r,\varphi ,\theta))$ $\displaystyle = \sin(\theta) r^2 \sin(\theta) \cos(\theta) (\sin(\varphi )^2+\cos(\varphi )^2) +$    
      $\displaystyle \quad + r \cos(\theta) r \cos(\theta)^2 (\sin(\varphi )^2+\cos(\varphi )^2)$    
      $\displaystyle = r^2 \cos(\theta)\ne 0,$    

    falls $ -\pi/2<\theta<\pi/2$ und $ r\ne 0$. Folglich existiert eine stetig differenzierbare Umkehrfunktion.
  7. Es sei $ f:\mathbb{R}^2\to\mathbb{R}^2$ gegeben durch

    $\displaystyle f(x,y)=(\sin(x) - \cos(y),\sin(y) - \cos(x))
$

    mit Jacobimatrix

    $\displaystyle \begin{pmatrix}
\cos(x) & \sin(y) \\
\sin(x) & \cos(y)
\end{pmatrix}$

    und Determinante $ \cos(x) \cos(y)-\sin(x) \sin(y)=\cos(x-y)$. Dies ist $ \ne 0$ falls $ x$ nahe $ y$ liegt. Folglich gibt es lokale $ C^1$-Lösungen.

    Image ..//pic-3-07h.gif

17.3.6. Nun geht es uns darum soetwas wie die Niveau-Linien

\bgroup\color{demo}$\displaystyle \{(x,y):f(x,y)=z\}
$\egroup

eines Gebirges \bgroup\color{demo}$ f:\mathbb{R}^2\to\mathbb{R}$\egroup zu diskutieren, oder wenn wir \bgroup\color{demo}$ f$\egroup als Luftdruck interpretieren die Isobaren oder als Temperatur die Isothermen. Wir versuchen dazu bei vorgegebenen \bgroup\color{demo}$ z$\egroup die Lösungen \bgroup\color{demo}$ (x,y)$\egroup von \bgroup\color{demo}$ f(x,y)=z$\egroup mittels Funktionen \bgroup\color{demo}$ x\mapsto y$\egroup zu beschreiben.

Image ..//pic-3-10.gif




Satz über implizite Funktionen.
Es sei \bgroup\color{demo}$ f:E\times F\to F$\egroup lokal um \bgroup\color{demo}$ (x_0,y_0)$\egroup \bgroup\color{demo}$ C^1$\egroup und \bgroup\color{demo}$ \d _2 f(x_0,y_0):F\to F$\egroup ein Isomorphismus. Dann existieren offene Umgebungen \bgroup\color{demo}$ U$\egroup von \bgroup\color{demo}$ x_0$\egroup, \bgroup\color{demo}$ V$\egroup von \bgroup\color{demo}$ y_0$\egroup und \bgroup\color{demo}$ W$\egroup von \bgroup\color{demo}$ f(x_0,y_0)$\egroup, so daß für jedes \bgroup\color{demo}$ z\in W$\egroup und \bgroup\color{demo}$ x\in U$\egroup ein eindeutiges \bgroup\color{demo}$ y\in V$\egroup existiert mit \bgroup\color{demo}$ f(x,y)=z$\egroup. Weiters ist die Abbildung \bgroup\color{demo}$ (x,z)\mapsto y$\egroup, \bgroup\color{demo}$ U\times W\to V$\egroup \bgroup\color{demo}$ C^1$\egroup.

Beachte, daß wir die Ableitungen von \bgroup\color{demo}$ h:(x,z)\mapsto y$\egroup durch Differenzieren der Gleichung \bgroup\color{demo}$ f(x,y)=z$\egroup unter Anwendung der Kettenregel errechnet werden können, denn \bgroup\color{demo}$ \frac{\d }{\d x}$\egroup liefert \bgroup\color{demo}$ \d _1 f(x,h(x,z))+\d _2f(x,h(x,z)) \d _1 h(x,z)=0$\egroup und \bgroup\color{demo}$ \frac{\d }{\d z}$\egroup liefert \bgroup\color{demo}$ \d _1 f(x,h(x,z))\cdot 0 +\d _2f(x,h(x,z)) \d _2 h(x,z)=\operatorname{id}$\egroup.

Beweis. Es sei \bgroup\color{demo}$ g:E\times F\to E\times F$\egroup gegeben durch \bgroup\color{demo}$ (x,y)\mapsto (x,f(x,y))$\egroup. Dann ist

\bgroup\color{demo}$\displaystyle g'(x,y) = \left(\begin{matrix}1 & 0  \d _1f(x,y) & \d _2f(x,y) \end{matrix}\right)
$\egroup

invertierbar mit Inverser

\bgroup\color{demo}$\displaystyle \left(\begin{matrix}
1 & 0 \\
-\d _2f(x,y)^{-1}\cdot \d _1f(x,y) & \d _2f(x,y)^{-1}
\end{matrix}\right),
$\egroup

(Man erhält dies durch einen allgemeinen Ansatz), also existieren nach dem Inversen-Funktionen Satz Umgebungen \bgroup\color{demo}$ U$\egroup, \bgroup\color{demo}$ V$\egroup und \bgroup\color{demo}$ O$\egroup von \bgroup\color{demo}$ x_0$\egroup, \bgroup\color{demo}$ y_0$\egroup und \bgroup\color{demo}$ g(x_0,y_0)$\egroup, so daß \bgroup\color{demo}$ g:U\times V\to O$\egroup ein Diffeomorphismus ist.

Nun wähle Umgebungen \bgroup\color{demo}$ U_1$\egroup von \bgroup\color{demo}$ x_0$\egroup und \bgroup\color{demo}$ W$\egroup von \bgroup\color{demo}$ f(x_0,y_0)$\egroup mit \bgroup\color{demo}$ U_1\times W\subseteq O$\egroup. Dann ist für jedes \bgroup\color{demo}$ x\in U_1$\egroup und \bgroup\color{demo}$ z\in W$\egroup der Punkt \bgroup\color{demo}$ (x,z)\in O$\egroup, also existiert ein eindeutiger Punkt \bgroup\color{demo}$ (u,y)\in U\times V$\egroup mit \bgroup\color{demo}$ (x,z)=g(u,y)=(u,f(u,y))$\egroup, d.h. \bgroup\color{demo}$ u=x\in U_1$\egroup und \bgroup\color{demo}$ f(x,y)=z$\egroup, also ein eindeutiger Punkt \bgroup\color{demo}$ y\in V$\egroup mit \bgroup\color{demo}$ f(x,y)=z$\egroup. Weiters ist \bgroup\color{demo}$ (x,z)\mapsto y$\egroup durch \bgroup\color{demo}$ (u,y)=g^{-1}(x,z)=:(h^1(x,z),h^2(x,z))$\egroup gegeben, wobei \bgroup\color{demo}$ h^j$\egroup die Komponenten von \bgroup\color{demo}$ g^{-1}$\egroup bezeichnet. Folglich ist diese Zuordnung \bgroup\color{demo}$ C^1$\egroup.     []


17.3.7 Beispiele implizit gegebener Funktionen.

  1. Kreisgleichung: $ x^2+y^2=1$, d.h. die Lösungsmenge der impliziten Gleichung $ f(x,y):=x^2+y^2=1$. Die Ableitung von $ f$ ist $ f'(x,y)=(2x,2y)$ d.h. für $ y_0\ne 0$ ist $ y$ lokal um $ y_0$ nach $ x$ auflösbar und für $ x_0\ne 0$ ist $ x$ lokal um $ x_0$ nach $ y$ auflösbar. Wir können dies sogar explizit machen: $ y=\pm\sqrt{1-x^2}$ bzw. $ x=\pm\sqrt{1-y^2}$.

    Image ..//pic-3-08a.gif

  2. Das kartesische Blatt ist durch $ x^3+y^3=3xy$ gegeben, d.h. als Lösung der impliziten Gleichung $ f(x,y):=x^3+y^3-3xy=0$. Die Ableitung von $ f$ ist $ f'(x,y)=(3(x^2-y),3(y^2-x))$, also ist nach dem impliziten Funktionensatz $ y$ lokal um $ y_0$ nach $ x$ auflösbar falls $ y_0^2\ne x_0$ oder $ x_0^2\ne y_0$. Falls ein Punkt $ (x_0,y_0)$ mit $ y_0^2=x_0$ und $ x_0^2=y_0$ die implizite Gleichung erfült, so gilt $ x_0^4=x_0$, d.h. $ x_0=0=y_0$ (oder $ x_0=1=y_0$, aber das erfüllt nicht die Gleichung $ 0=f(x_0,y_0)=1^3+1^3-3=-1$.

    Image ..//pic-3-05.gif

    Ohne die Lösungskurve $ x\mapsto y(x)$ explizit zu kennen, können wir durch Differenzieren der impliziten Gleichung $ 0=f(x,y(x))$ dennoch deren Ableitung berechnen:

    0 $\displaystyle =\d _1 f(x,y(x)) + \d _2 f(x,y(x)) y'(x)$    
      $\displaystyle =3x^2 -3y(x) + (3y(x)^2-3x) y'(x) \Rightarrow$    
    $\displaystyle y'(x)$ $\displaystyle =\frac{y(x)-x^2}{y(x)^2-x}.$    

  3. Es sei ein Polynom $ p(t,x):=x^n+a_{n-1}(t) x^{n-1}+\dots+a_1(t) x+a_0(t)$ mit variable Koeffizienten $ a_{n-1}(t)$,...,$ a_0(t)$ gegeben. Angenommen wir kennen für $ t=0$ eine Nullstelle $ x_0$ von $ p$, d.h. $ p(0,x_0)=0$. Wir wüßten gerne, daß für alle kleinen $ t$ auch Nullstellen $ x_t$ die nahe $ x_0$ liegen existieren, d.h. wir wollen in $ p(t,x)=0$ die Variable $ x$ nach $ t$ auflösen. Falls $ \d _2 p(0,x_0)\ne 0$ ist so geht dies auf stetig differenzierbare Weise wegen dem impliziten Funktionensatz. Es bedeutet $ 0=\d _2 p(0,x_0)$ gerade, daß $ x_0$ keine Mehrfachnullstelle ist.

    Image ..//pic-3-08c.gif

  4. Es ist die Menge der Lösungen der impliziten Gleichung $ f(x,y,z):=z^2+(\sqrt{x^2+y^2}-5)^2=4^2$ gesucht, ein sogenannter Torus. Die Ableitung ist

    $\displaystyle f'(x,y,z)= \Bigl( 2(\sqrt{x^2+y^2}-5)\frac{x}{\sqrt{x^2+y^2}},
2(\sqrt{x^2+y^2}-5)\frac{y}{\sqrt{x^2+y^2}},2z\Bigr)
$

    Für $ z_0\ne 0$ ist also $ z$ nahe $ z_0$ eindeutig aus $ (x,y)$ berechenbar, beschreibt also eine Fläche im $ \mathbb{R}^3$. Ist andererseits $ z_0=0$ und $ f(x_0,y_0,z_0)=0$, so ist $ \sqrt{x_0^2+y_0^2}=5\pm2\ne 0$ und somit $ f'(x,y,z)\ne (0,0,0)$ also sicher eine der 3 Variablen aus den anderen beiden auf $ C^1$-Weise berechenbar.

    Image ..//pic-3-08d.gif

  5. Es ist die Schnittmenge 2 normal aufeinander stehende Zylinder, deren Achsen sich nicht treffen, zu bestimmen.

    Image ..//pic-3-06.gif

    Der 1. Zylinder ist z.B. durch $ (x+1)^2+y^2=4$ gegeben und der 2. Zylinder durch $ (x-1)^2+z^2=4$. Gesucht sind also die Lösungen der impliziten Gleichung $ f(x,y,z):=((x+1)^2+y^2,(x-1)^2+z^2)=(4,4)$. Die Ableitung von $ f$ ist

    $\displaystyle f'(x,y,z) = \begin{pmatrix}2x+2 & 2y & 0  2x-2 & 0 & 2z \end{pmatrix}.
$

    Wir fassen $ f$ als Abbildung $ f:\mathbb{R}\times \mathbb{R}^2\to\mathbb{R}^2$ auf. Dann ist $ \d _2 f(x,y,z)=\begin{pmatrix}2y & 0  0 & 2z \end{pmatrix}$ genau dann invertierbar, wenn $ yz\ne 0$ ist. Andererseits folgt aus $ y=0$, daß $ (x+1)^2=4$, d.h. $ x=-1\pm 2$ und somit ist wegen $ (x-1)^2+z^2=4$ im $ +$-Fall $ z=\pm 2$ und sonst existiert kein passendes $ z$. Aus $ z=0$ folgt hingegen, daß $ (x-1)^2=4$, d.h. $ x=1\pm 2$ ist und somit ist wegen $ (x+1)^2+y^2=4$ im $ -$-Fall $ y=\pm 2$ und sonst existiert kein passendes $ y$. D.h. abgesehen von den 4 Punkten $ (1,0,\pm 2)$ und $ (-1,\pm 2,0)$ ist also $ y$ und $ z$ lokal eindeutig aus $ x$ ausrechenbar.

  6. Wir wollen nun die Differenzierbarkeit der Abbildung $ \iota :A\mapsto A^{-1}$ von $ GL(E):=\{A\in L(E,E):A$ ist invertierbar $ \}$ nach $ GL(E)$ beweisen. Es ist $ A^{-1}$ durch die Gleichung $ A\o A^{-1}=\operatorname{id}_E$ gegeben, also $ \iota $ durch die implizite Gleichung $ \mu(A,\iota (A))=\operatorname{id}_E$ wobei $ \mu:L(E,E)\times L(E,E)\to L(E,E)$ die Komposition ist. Da $ \mu$ bilinear ist, ist $ \d _2\mu (A,B)(C)=\mu(A,C)$ und somit ist $ \d _2\mu(A,B)$ invertierbar mit inverser $ C\mapsto \mu(A^{-1},C)$. Nach dem impliziten Funktionensatz ist also $ \iota :GL(E)\to GL(E)$ differenzierbar mit Ableitung

    $\displaystyle \iota '(A)(B)=-\Bigl(\bigl(\d _2\mu(A,\iota (A))\bigr)^{-1}\o\bigl(\d _1\mu(A,\iota (A))\bigr)\Bigr)(B)
=-A^{-1}\o B\o A^{-1}.
$

    Vergleiche dies mit der Ableitung von $ x\mapsto x^{-1}$, $ \mathbb{R}\to\mathbb{R}$.

17.3.8. Newtonverfahren Um eine Nullstelle der (nicht-linearen) Gleichung \bgroup\color{demo}$ f(x)=0$\egroup zu erhalten beginnen wir mit irgend einem Näherungswert \bgroup\color{demo}$ x_0$\egroup, betrachten die affine Funktion \bgroup\color{demo}$ x\mapsto f'(x_0)(x-x_0)+f(x_0)$\egroup die \bgroup\color{demo}$ f$\egroup am besten approximiert, bestimmen ihre Nullstelle \bgroup\color{demo}$ x_1$\egroup, d.h. lösen \bgroup\color{demo}$ f'(x_0)(x_1-x_0)+f(x_0)=0$\egroup und erhalten als neue Näherungsnullstelle von \bgroup\color{demo}$ f$\egroup den Punkt \bgroup\color{demo}$ x_1:=x_0-f'(x_0)^{-1} f(x_0)$\egroup. Das Newtonverfahren besteht nun darin auf rekursive Weise \bgroup\color{demo}$ x_{n+1}:=g(x_n):=x_n-f'(x_n)^{-1} f(x_n)$\egroup zu definieren und zu hoffen, daß \bgroup\color{demo}$ x_{\infty}:=\lim_{n\to{\infty}}x_n$\egroup existiert, weil dann \bgroup\color{demo}$ x_{\infty}=g(x_{\infty})$\egroup, also \bgroup\color{demo}$ f(x_{\infty})=0$\egroup ist (Verwende die stetige Differenzierbarkeit von \bgroup\color{demo}$ f$\egroup und damit die Stetigkeit von \bgroup\color{demo}$ g$\egroup). Da aber die Bestimmung der Inversen \bgroup\color{demo}$ f'(x_0)^{-1}$\egroup einer Matrix \bgroup\color{demo}$ f'(x_0)$\egroup sehr aufwendig ist, modifizieren wir dieses Verfahren derart, daß wir Anstelle von \bgroup\color{demo}$ f'(x_n)$\egroup immer das fixe \bgroup\color{demo}$ f'(x_0)$\egroup verwenden und erhalten:




Vereinfachtes Newtonverfahren.
Es sei \bgroup\color{demo}$ f:E\to F$\egroup stetig differenzierbar und \bgroup\color{demo}$ x_0\in E$\egroup. Es sei \bgroup\color{demo}$ f'(x_0)$\egroup invertierbar und es existiere ein \bgroup\color{demo}$ q<1$\egroup mit \bgroup\color{demo}$ \vert f'(x_0)^{-1}\vert\cdot\vert f'(x_0)-f'(x)\vert\leq q$\egroup für alle \bgroup\color{demo}$ x$\egroup in einer offenen Menge \bgroup\color{demo}$ U$\egroup. Weiters sei

\bgroup\color{demo}$\displaystyle B:=\Bigl\{x:\vert x-x_0\vert\leq\frac{\vert f'(x_0)^{-1}\cdot f(x_0)\vert}{1-q}\Bigr\}\subseteq U.
$\egroup

Dann konvergiert die vereinfachte Newtonfolge \bgroup\color{demo}$ x_{n+1}:=x_n-f'(x_0)^{-1}\cdot f(x_n)$\egroup gegen eine Nullstelle \bgroup\color{demo}$ \xi \in B$\egroup.

Beweis. Wir betrachten \bgroup\color{demo}$ g(x):=x-f'(x_0)^{-1}\cdot f(x)$\egroup. Für \bgroup\color{demo}$ x,y\in B$\egroup ist nach dem Mittelwertsatz \bgroup\color{demo}$ \vert g(x)-g(y)\vert\leq \sup\{\vert g'(\xi )\vert \vert x-y\vert:\xi \in B\}$\egroup. Es ist

\bgroup\color{demo}$\displaystyle g'(z)=\operatorname{id}- f'(x_0)^{-1}  f'(z) = f'(x_0)^{-1} (f'(x_0)-f'(z))
$\egroup

und somit

\bgroup\color{demo}$\displaystyle \vert g'(z)\vert\leq \vert f'(x_0)^{-1}\vert \vert f'(x_0)-f'(z)\Vert\leq q<1.
$\egroup

Nach Aufgabe (105) ist \bgroup\color{demo}$ g(B)\subseteq B$\egroup, da \bgroup\color{demo}$ B=\{x:d(x,x_0)\leq \frac{d(g(x_0),x_0)}{1-q}\}$\egroup. Nach dem Banach'schen Fixpunktsatz (16.4.6) existiert somit \bgroup\color{demo}$ x_{\infty}:=\lim_{n\to{\infty}} x_n\in B$\egroup und somit ist \bgroup\color{demo}$ x_{\infty}=g(x_{\infty})=x_{\infty}-f'(x_0)^{-1}\cdot f(x_{\infty})$\egroup, also ist \bgroup\color{demo}$ f(x_{\infty})=0$\egroup.     []


17.3.9 Beispiel. Julia-Menge.
Die Menge der Startwerte, für welche die Newtonfolge gegen eine fixe Nullstelle konvergiert, ist im allgemeinen schwer beschreibbar. Betrachten wir z.B. das Polynom \bgroup\color{demo}$ p(z):=z^3-1$\egroup als Abbildung \bgroup\color{demo}$ p:\mathbb{C}\to\mathbb{C}$\egroup. Dieses hat 3 komplexe Nullstellen \bgroup\color{demo}$ 1$\egroup, \bgroup\color{demo}$ -\frac12\pm i \frac{\sqrt{3}}2$\egroup. Wir können es auch als Abbildung \bgroup\color{demo}$ p:\mathbb{R}^2\to\mathbb{R}^2$\egroup auffassen. Die Ableitung von \bgroup\color{demo}$ p$\egroup ist gegeben durch (Multiplikation mit) \bgroup\color{demo}$ 3z^2$\egroup und die Newtonrekursion somit durch \bgroup\color{demo}$ g:z\mapsto z-\frac{p(z)}{p'(z)}=z-\frac{z^3-1}{3z^2}=\frac{2z^3+1}{3z^2}$\egroup. Färben wir die Punkte der Ebene in 3 Farben entsprechend den 3 Nullstellen gegen welche die Newtonfolge mit diesen Startwerten konvergiert so erhalten wir folgendes fraktales Bild, eine Juliamenge:

Image ..//Julia.gif

animation animation

Wir werden später sehen, daß für die Konvergenz der allgemeinen Newtonfolge die Bedingungen \bgroup\color{demo}$ \vert f'(z)^{-1}\vert^2 \vert f''(z)\vert \vert f(z)\vert\leq q<1$\egroup und \bgroup\color{demo}$ \vert f'(z)^{-1}  f(z)\vert\leq (1-q) r$\egroup für alle \bgroup\color{demo}$ \vert z-z_0\vert\leq r$\egroup genügen. In diesen Beispiel sind diese Bedingungen für \bgroup\color{demo}$ q:=1/2$\egroup und \bgroup\color{demo}$ r:=1/2$\egroup erfüllt.

Andreas Kriegl 2002-07-01