5.2 Potenzreihen




5.2.1 Taylor's Formel.
Es sei \bgroup\color{demo}$ f:E\supseteq U\to F$\egroup \bgroup\color{demo}$ C^p$\egroup und \bgroup\color{demo}$ \overline{x(x+h)}\subseteq U$\egroup. Dann ist

\bgroup\color{demo}$\displaystyle f(x+h) = \sum_{0\leq j < p} \frac{f^{(j)}(x)(h...
...}
+ \int_0^1 \frac{(1-t)^{p-1}}{(p-1)!}\, f^{(p)}(x+th)(h,\dots,h)\,dt.
$\egroup

Beweis. Indem wir \bgroup\color{demo}$ c(t):=f(x+t\,h)$\egroup setzen dürfen wir o.B.d.A. annehmen, daß \bgroup\color{demo}$ E=\mathbb{R}$\egroup und \bgroup\color{demo}$ U$\egroup ein offenes Intervall ist, welches \bgroup\color{demo}$ x=0$\egroup und \bgroup\color{demo}$ h=1$\egroup enthält. Dann erhalten wir mittels Kettenregel

\bgroup\color{demo}$\displaystyle c^{(p)}(t) = f^{(p)}(x+t\,h)(h,\dots,h)
$\egroup

und durch partielle Integration

$\displaystyle c(1)$ $\displaystyle = c(0) + \int_0^1 1\,c'(t)\, dt$    
  $\displaystyle = c(0) + \Bigl[(t-1)\,c'(t)\Bigr]_{t=0}^1 -\int_0^1 (t-1)\,c''(t)\,dt$    
  $\displaystyle = c(0) + c'(0) - \Bigl[\frac{(t-1)^2}{2}\,c''(t)\Bigr]_{t=0}^1 +\int_0^1 \frac{(t-1)^2}{2} \,c'''(t)\,dt$    
  $\displaystyle =\dots$    
  $\displaystyle = c(0) + c'(0) + \dots + \frac1{(p-1)!}\,c^{(p-1)}(0) + \int_0^1 \frac{(1-t)^{p-1}}{(p-1)!}\,c^{(p)}(t)\,dt{\rm\quad[]}$    


5.2.2 Bemerkung.
Es sei \bgroup\color{demo}$ f:E\supseteq U\to F$\egroup \bgroup\color{demo}$ C^{\infty}$\egroup. Falls das Restglied

\bgroup\color{demo}$\displaystyle \int_0^1 \frac{(1-t)^{p-1}}{(p-1)!}\, f^{(p)}(x+th)(h,\dots,h)\,dt
$\egroup

für \bgroup\color{demo}$ p\to{\infty}$\egroup gegen 0 konvergiert, so konvergiert die Taylor-Reihe

\bgroup\color{demo}$\displaystyle \sum_{j} \frac{f^{(j)}(x)(h,\dots,h)}{j!}\to f(x+h).
$\egroup

Falls \bgroup\color{demo}$ E=\mathbb{R}$\egroup ist, so ist \bgroup\color{demo}$ f^{(j)}(x)(h,\dots,h)=f^{(j)}(x)\,h^j$\egroup und darum schreibt man auch allgemein bisweilen \bgroup\color{demo}$ h^j$\egroup anstelle von \bgroup\color{demo}$ (h,\dots,h)$\egroup.

Z.B. ist dies für \bgroup\color{demo}$ \exp$\egroup, \bgroup\color{demo}$ \sin$\egroup und \bgroup\color{demo}$ \cos$\egroup der Fall da \bgroup\color{demo}$ \exp^{(p)}=\exp$\egroup, \bgroup\color{demo}$ \vert\sin^{(p)}\vert\leq 1$\egroup und \bgroup\color{demo}$ \vert\cos^{(p)}\vert\leq 1$\egroup.

Wir sollten also sogenannte Potenzreihen, d.h. Reihen der Form \bgroup\color{demo}$ \sum_i a_i\,h^i$\egroup näher untersuchen,




5.2.3 Proposition.
Eine Potenzreihe \bgroup\color{demo}$ \sum_{i} a_i x^i$\egroup konvergiert für \bgroup\color{demo}$ x$\egroup falls \bgroup\color{demo}$ \vert x\vert<r$\egroup und divergiert falls \bgroup\color{demo}$ \vert x\vert>r$\egroup, wobei \bgroup\color{demo}$ r:=1/{\limsup_n \root n\of{\vert a_n\vert}}$\egroup Konvergenzradius der Reihe heißt. Entsprechend heißt \bgroup\color{demo}$ \{x:\vert x\vert=r\}$\egroup Konvergenzkreis der Reihe.

Dabei dürfen sowohl die Koeffizienten \bgroup\color{demo}$ a_n$\egroup als auch \bgroup\color{demo}$ x$\egroup komplexe Zahlen sein.

Beweis. Nach dem Wurzelkriterium genügt es den Ausdruck

\bgroup\color{demo}$\displaystyle \limsup_n \root n\of{\vert a_nx\vert^n} = \vert x\vert\,\limsup_{n} \root n\of{\vert a_n\vert}
$\egroup

zu betrachten.     []


5.2.4 Definition. Konvergenz von Funktionen.
Es sei \bgroup\color{demo}$ X$\egroup eine Menge, \bgroup\color{demo}$ F$\egroup ein endlich dimensionaler Euklidischer Raum und \bgroup\color{demo}$ f_{\infty},f_n:X\to F$\egroup Funktionen. Man sagt \bgroup\color{demo}$ f_n$\egroup konvergiert gegen \bgroup\color{demo}$ f_{\infty}$\egroup punktweise, wenn

  $\displaystyle \forall x\in X: \lim_{n\to{\infty}} f_n(x)=f_{\infty}(x), d.h.~$    
  $\displaystyle \forall x\in X\forall\varepsilon >0\exists N\in\mathbb{N}\forall n\geq N: \vert f_{\infty}(x)-f_n(x)\vert<\varepsilon .$    

Die Grenzfunktion \bgroup\color{demo}$ f_{\infty}$\egroup einer punktweisen konvergenten Folge stetiger Funktionen \bgroup\color{demo}$ f_n$\egroup muß jedoch nicht stetig sein, wie das Beispiel \bgroup\color{demo}$ f_1(x):=\frac1{1+x^2}$\egroup, \bgroup\color{demo}$ f_n(x):=f_1(nx)=\frac1{1+(nx)^2}\to 0=:f_{\infty}(x)$\egroup zeigt. Deshalb brauchen wir folgende stärkerer die sogenannte gleichmäßige Konvergenz: Man sagt \bgroup\color{demo}$ f_n$\egroup konvergiert gegen \bgroup\color{demo}$ f_{\infty}$\egroup gleichmäßig auf \bgroup\color{demo}$ X$\egroup, wenn

\bgroup\color{demo}$\displaystyle \forall\varepsilon >0\exists N\in\mathbb{N}\forall n\geq N\forall x\in X: \vert f_{\infty}(x)-f_n(x)\vert<\varepsilon .
$\egroup

Offensichtlich ist jede gleichmäßig konvergente Folge auch punktweise konvergent. Nicht aber umgekehrt, wie die Abbildungen \bgroup\color{demo}$ f_n:x\mapsto \frac{nx}{1+(nx)^2}$\egroup zeigen.

Wenn wir die Abstandsfunktion \bgroup\color{demo}$ d_{\infty}(f,g):=\sup_{x\in X}\vert f(x)-g(x)\vert$\egroup auf der Menge der beschränkten Funktionen \bgroup\color{demo}$ f,g:X\to F$\egroup betrachten, so ist die gleichmäßige Konvergenz gerade die Konvergenz bezüglich dieser Metrik. Für die punktweise Konvergenz existiert nur für endliches \bgroup\color{demo}$ X$\egroup eine sie beschreibende Metrik. Wenn man \bgroup\color{demo}$ \Vert f\Vert_{\infty}:=\sup\{\vert f(x)\vert x\in X\}$\egroup setzt, so ist \bgroup\color{demo}$ d_{\infty}(f,g)=\Vert f-g\Vert_{\infty}$\egroup.




5.2.5 Proposition.
Es konvergiere \bgroup\color{demo}$ f_n\to f_{\infty}$\egroup gleichmäßig auf \bgroup\color{demo}$ X$\egroup und alle \bgroup\color{demo}$ f_n:X\to F$\egroup seien stetig. Dann ist auch \bgroup\color{demo}$ f_{\infty}$\egroup stetig. In dieser Situation gilt also

\bgroup\color{demo}$\displaystyle \lim_{x\to x_0}\lim_{n\to{\infty}} f_n(x)=\lim_{n\to{\infty}}\lim_{x\to x_0} f_n(x).
$\egroup

Beweis. Es sei \bgroup\color{demo}$ x_0\in X$\egroup und \bgroup\color{demo}$ \varepsilon >0$\egroup. Dann existiert wegen der glm. Konvergenz ein \bgroup\color{demo}$ N\in\mathbb{N}$\egroup s.d. \bgroup\color{demo}$ d_{\infty}(f_n,f_{\infty}><\frac{\varepsilon }3$\egroup für alle \bgroup\color{demo}$ n\geq N$\egroup und wegen der Stetigkeit von \bgroup\color{demo}$ f_N$\egroup ein \bgroup\color{demo}$ \delta >0$\egroup s.d. \bgroup\color{demo}$ d(f_N(x),f_N(x_0))<\frac{\varepsilon }3$\egroup für alle \bgroup\color{demo}$ x\in X$\egroup mit \bgroup\color{demo}$ d(x,x_0)<\delta $\egroup. Somit ist

$\displaystyle d(f_{\infty}(x),f_{\infty}(x_0))$ $\displaystyle \leq d(f_{\infty}(x),f_N(x)) + d(f_N(x),f_N(x_0)) + d(f_N(x_0),f_{\infty}(x_0))$    
  $\displaystyle \leq d_{\infty}(f_{\infty},f_N) + d(f_N(x),f_N(x_0)) + d_{\infty}(f_N,f_{\infty})$    
  $\displaystyle \leq 3\frac{\varepsilon }3=\varepsilon .{\rm\quad[]}$    




5.2.6 Cauchy'sches Konvergenzkriterium für Funktionen.
Es konvergiert \bgroup\color{demo}$ f_n$\egroup genau dann punktweise, wenn für alle \bgroup\color{demo}$ x\in X$\egroup die Folge \bgroup\color{demo}$ f_n(x)$\egroup eine Cauchy-Folge ist.
Weiters konvergiert \bgroup\color{demo}$ f_n$\egroup genau dann gleichmäßig, wenn

\bgroup\color{demo}$\displaystyle \forall \varepsilon >0\exists N\forall n,m\geq N: d_{\infty}(f_n,f_m)\leq\varepsilon .{\rm\quad[]}
$\egroup




5.2.7 Kriterium von Weierstrass für gleichmäßige Konvergenz.
Es konvergiere \bgroup\color{proclaim}$ \sum_k \Vert f_k\Vert_{\infty}$\egroup. Dann konvergiert \bgroup\color{proclaim}$ \sum_k f_k$\egroup gleichmäßig.

Beweis. Es ist \bgroup\color{demo}$ \Vert\sum_{k=n}^{n+p}f_k\Vert _{\infty}\leq \sum_{k=n}^{n+p}\Vert f_k\Vert_{\infty}\to 0$\egroup für \bgroup\color{demo}$ n\to{\infty}$\egroup.     []




5.2.8 Proposition. Stetigkeit des Integrals.
Es sei \bgroup\color{demo}$ f_n:[a,b]\to\mathbb{R}$\egroup Riemann-integrierbar und \bgroup\color{demo}$ f_n$\egroup konvergiere gegen \bgroup\color{demo}$ f_{\infty}$\egroup gleichmäßig. Dann ist auch \bgroup\color{demo}$ f_{\infty}$\egroup Riemann-integrierbar und es gilt

\bgroup\color{demo}$\displaystyle \int_a^b \lim_{n\to {\infty}}f_n = \lim_{n\to{\infty}} \int_a^b f_n.
$\egroup

Beweis. Nach dem Lebesgue'schen Integrabilitätskriterium 4.1.4 ist \bgroup\color{demo}$ f_{\infty}$\egroup Riemann-integrierbar, denn \bgroup\color{demo}$ f_{\infty}$\egroup ist nach 5.2.5 zumindestens dort stetig, wo es alle \bgroup\color{demo}$ f_n$\egroup sind. Wegen \bgroup\color{demo}$ \vert\int_a^b (f-g) \vert\leq \vert b-a\vert\,d_{\infty}(f,g)$\egroup konvergiert \bgroup\color{demo}$ \int_a^b f_n$\egroup gegen \bgroup\color{demo}$ \int_a^b f_{\infty}$\egroup.     []




5.2.9 Proposition.
Es sei \bgroup\color{demo}$ f_n:[a,b]\to\mathbb{R}$\egroup differenzierbar, \bgroup\color{demo}$ f_n$\egroup konvergiere gegen \bgroup\color{demo}$ f_{\infty}$\egroup punktweise und \bgroup\color{demo}$ f_n'$\egroup konvergiere gleichmäßig gegen gegen eine Funktion \bgroup\color{demo}$ f_{\infty}^1$\egroup. Dann ist \bgroup\color{demo}$ f_{\infty}$\egroup differenzierbar und die Ableitung ist \bgroup\color{demo}$ (f_{\infty})'=f_{\infty}^1$\egroup, d.h. es gilt

\bgroup\color{demo}$\displaystyle \frac{d}{dx}\lim_{n\to{\infty}} f_n(x)=\lim_{n\to{\infty}}\frac{d}{dx} f_n(x).
$\egroup

Beweis. Es ist

\bgroup\color{demo}$\displaystyle g_n:x\mapsto \left\{\begin{array}{ll} \frac{f_...
...\
f_n'(x_0)=\int_0^1 f_n'(x_0)\,dx&\text{für }x=x_0 \end{array}\right.
$\egroup

stetig in \bgroup\color{demo}$ x$\egroup und konvergiert gleichmäßig in \bgroup\color{demo}$ x$\egroup gegen \bgroup\color{demo}$ g_{\infty}(x):=\int_0^1 f_{\infty}^1(x_0+t(x-x_0))\,dt$\egroup. Also ist \bgroup\color{demo}$ g_{\infty}$\egroup stetig und somit ist

$\displaystyle f_{\infty}^1(x_0)$ $\displaystyle =\int_0^1 f_{\infty}'(x_0)\,dt =g_{\infty}(x_0) =\lim_{x\to x_0} g_{\infty}(x)$    
  $\displaystyle =\lim_{x\to x_0}\frac{f_{\infty}(x)-f_{\infty}(x_0)}{x-x_0} =(f_{\infty})'(x_0).{\rm\quad[]}$    




5.2.10 Theorem.
Potenzreihen konvergieren auf jedem im Inneren des Konvergenzkreises enthaltenen Kreisschreibe gleichmäßig. Sie stellen dort unendlich oft differenzierbare Abbildungen dar. Die Ableitungen und auch das unbestimmte Integral können gliedweise berechnet werden, d.h.

\bgroup\color{demo}$\displaystyle \frac{d}{dx}\biggl(\sum_{i=0}^{\infty}a_i x^i\biggr)
= \sum_{i=1}^{\infty}a_i\,i\,x^{i-1}$\egroup und \bgroup\color{demo}$\displaystyle \int\biggl(\sum_{i=0}^{\infty}a_i x^i\biggr)\,dx
= C+\sum_{i=0}^{\infty}\frac{a_i}{(i+1)!}\, x^{i+1}.
$\egroup

Weiters können konvergente Potenreihen addiert werden, im Inneren des Konvergenzkreises können sie multipliziert und auf einer möglicherweise kleineren Kreisscheibe auch dividiert werden falls der Nenner bei 0 nicht verschwindet und ebenso zusammengesetzt werden falls die innere Reihe bei 0 verschwindet. Die Inverse einer konvergenten Potenzreihe mit \bgroup\color{demo}$ a_0=0$\egroup und \bgroup\color{demo}$ a_1\ne 0$\egroup läßt sich ebenfalls in eine konvergente Potenzreihe entwickeln.

Beweis. Es sei \bgroup\color{demo}$ r$\egroup der Konvergenzradius und \bgroup\color{demo}$ 0\leq \rho <r$\egroup. Dann konvergiert die Reihe für \bgroup\color{demo}$ \vert x\vert\leq\rho $\egroup gleichmäßig, denn wenn \bgroup\color{demo}$ \Vert f\Vert_{\infty}:=\sup\{\vert f(x)\vert:\vert x\vert\leq \rho \}$\egroup bezeichnet, so ist \bgroup\color{demo}$ \sum_j \Vert a_j p_j \Vert_{\infty}=\sum_j \vert a_j\vert\,rh^j<{\infty}$\egroup, wobei \bgroup\color{demo}$ p_j$\egroup das Monom \bgroup\color{demo}$ p_j(x):=x^j$\egroup bezeichnet, und somit folgt das Resultat aus 5.2.7.

Man zeigt nun nacheinander, daß \bgroup\color{demo}$ p:x\mapsto \sum_{j=0}^{\infty}a_j x^j$\egroup stetig ist bei 0, daß für \bgroup\color{demo}$ \vert x_0\vert<r$\egroup auch

$\displaystyle x\mapsto p(x_0+x)$ $\displaystyle =\sum_{j=0}^{\infty}a_j(x_0+x)^j= \sum_{j=0}^{\infty}a_j\sum_k \binom{j}{k} x_0^{j-k}\,x^k$    
  $\displaystyle =\sum_{k=0}^{\infty}\Biggl( \sum_{j\geq k} a_j\binom{j}{k} x_0^{j-k}\Biggr)x^k$    

eine konvergente Potenzreihe für \bgroup\color{demo}$ \vert x\vert<r-\vert x_0\vert$\egroup mit Koeffizienten

\bgroup\color{demo}$\displaystyle b_k:=\sum_{j\geq k} a_j\binom{j}{k} x_0^{j-k}
$\egroup

darstellt, und somit \bgroup\color{demo}$ p$\egroup auch bei \bgroup\color{demo}$ x_0$\egroup stetig ist. Für den Differenzenquotient von \bgroup\color{demo}$ p$\egroup bei \bgroup\color{demo}$ x_0$\egroup erhalten wir

\bgroup\color{demo}$\displaystyle \frac{p(x_0+h)-p(x_0)}{h}=\sum_{k=1}^{\infty}b_k\,h^{k-1}
\to b_1= \sum_{j\geq 1} a_j\,j\,x_0^{j-1}.
$\egroup

Offensichtlich konvergiert mit \bgroup\color{demo}$ \sum_k a_k x^k$\egroup auch \bgroup\color{demo}$ \sum_k \frac{a_k}{k+1}x^{k+1}$\egroup und stellt nach dem zuvorgesagten eine differenzierbare Funktion mit Ableitung \bgroup\color{demo}$ p$\egroup dar, ist also ein unbestimmtes Integral nach dem Hauptsatz 4.2.2.

Nach 1.3.6 sind Summen konvergenter Reihen konvergent und nach 1.5.17 Produkte absolut konvergenter Reihen.

Sei nun \bgroup\color{demo}$ f(x):=\sum_{k=0}^{\infty}f_k x^k$\egroup mit \bgroup\color{demo}$ 0=f(0)=f_0$\egroup und \bgroup\color{demo}$ g(y):=\sum_{k=0}^{\infty}g_k y^k$\egroup. Man kann zeigen, daß \bgroup\color{demo}$ g\o f$\egroup in eine Potenzreihe entwickeln läßt, die für \bgroup\color{demo}$ x$\egroup mit \bgroup\color{demo}$ \vert x\vert$\egroup kleiner als der Konvergenzradius von \bgroup\color{demo}$ f$\egroup und \bgroup\color{demo}$ \vert f(x)\vert$\egroup kleiner als der Konvergenzradius von \bgroup\color{demo}$ g$\egroup auch konvergiert,

$\displaystyle g(f(x))$ $\displaystyle =\sum_{k=0}^{\infty}g_k (\sum_{j=0}^{\infty}f_j x^j)^k$    
  $\displaystyle =g_0 + g_1\,(f_0 + f_1\, x+ f_2\, x^2+\dots) +$    
  $\displaystyle \quad+ g_2\,(f_0^2 + 2\,f_0\,f_1\,x+ (f_1^2+f_0\,f_0)\,x^2+\dots) +\dots.$    

Da \bgroup\color{demo}$ \frac1{f(x)}=\frac1{f(x)-f(0)+f(0)}=g(f(x)-f_0)$\egroup, wobei

\bgroup\color{demo}$\displaystyle g(y):=\frac1{y+f_0}=\frac1{f_0}\frac1{1+\frac{...
...infty}(-\frac{y}{f_0})^k=
\sum_{k=0}^{\infty}\frac{(-1)^k f_0^{k+1}}y^k
$\egroup

für \bgroup\color{demo}$ \vert y\vert<f_0$\egroup ist, folgt die Aussage über Kehrwerte und damit über Quotienten aus jener für die Komposition.

Wegen dem inversen Funktionensatz ist die Summenfunktion \bgroup\color{demo}$ f$\egroup einer konvergenten Potenzreihe lokal invertierbar, falls \bgroup\color{demo}$ 0\ne f'(0)=f_1$\egroup ist. Wegen \bgroup\color{demo}$ f(0)=f_0=0$\egroup kann man \bgroup\color{demo}$ f^{-1}$\egroup ebenfalls in eine Reihe entwickeln.     []


Beispiele.
Es sei \bgroup\color{demo}$ f(x):=\ln(1+x)$\egroup. Dann ist \bgroup\color{demo}$ f'(x)=\frac1{1+x}=\sum_{k=0}^{\infty}(-1)^k x^k$\egroup und somit nach (gliedweiser) Integration \bgroup\color{demo}$ f(x)=C+\sum_{k=0}^{\infty}\frac{(-1)^k}{k+1}\,x^{k+1}$\egroup. Wegen \bgroup\color{demo}$ \ln(1)=0$\egroup ist \bgroup\color{demo}$ C=0$\egroup, d.h.

\bgroup\color{demo}$\displaystyle \ln(1+x) = \sum_{j=1}^{\infty}\frac{(-1)^{j-1}}{j}\,x^j$\egroup für \bgroup\color{demo}$\displaystyle \vert x\vert<1.
$\egroup

Mit Hilfe des Abel'schen Grenzwertsatzes kann man zeigen, daß diese Formel auch für \bgroup\color{demo}$ x=1$\egroup gilt, also

\bgroup\color{demo}$\displaystyle \ln(2)=\sum_{j=0}^{\infty}\frac{(-1)^{j}}{j+1}=1-\frac12+\frac13-\frac14+\frac15-+\dots
$\egroup

ist.




Lemma.
Es sei \bgroup\color{demo}$ f(x)=\sum_{k=0}^{\infty}f_k x^k$\egroup eine Potenzreihe mit Konvergenzradius \bgroup\color{demo}$ r>0$\egroup. Falls eine Folge \bgroup\color{demo}$ x_n\in f^{-1}(0)$\egroup existiert mit \bgroup\color{demo}$ x_n\to 0$\egroup, dann ist \bgroup\color{demo}$ f=0$\egroup.

Beweis. Wir zeigen mittels Induktion, daß \bgroup\color{demo}$ f_n=0$\egroup ist. Aus der Stetigkeit von \bgroup\color{demo}$ f$\egroup folgt \bgroup\color{demo}$ 0=f(x_n)\to f(0)=f_0$\egroup, also ist \bgroup\color{demo}$ f_0=0$\egroup. Sei nun bereits \bgroup\color{demo}$ f_0=\dots=f_n=0$\egroup und \bgroup\color{demo}$ g(x):=\frac{f(x)}{x^{n+1}}=\sum_{k=0}^{\infty}
f_{n+1+k}\,x^k$\egroup, also ebenfalls eine konvergente Potenzreihe, die bei allen \bgroup\color{demo}$ x_j$\egroup verschwindet. Somit ist auch \bgroup\color{demo}$ f_{n+1+0}=0$\egroup.     []


5.2.11 Beispiel.
Es ist \bgroup\color{demo}$ \tan(x)=\frac{\sin(x)}{\cos(x)}$\egroup. Und

$\displaystyle \sin(x)$ $\displaystyle =\sum_{k=0}^{\infty}\frac{(-1)^k}{2k+1}x^{2k+1} = x -\frac{x^3}{3!}+\frac{x^5}{5!}-+\dots$    
$\displaystyle \cos(x)$ $\displaystyle =\sum_{k=0}^{\infty}\frac{(-1)^k}{2k}x^{2k} = 1 - \frac{x^2}{2!}+\frac{x^4}{3!}-+\dots$    

Da nach obigen Theorem auch der Quotient \bgroup\color{demo}$ \tan=\frac{\sin}{\cos}$\egroup ein konvergente Potenzreihe \bgroup\color{demo}$ \sum_k c_k x^k$\egroup ist, können wir nach dem letzten Lemma Koeffizientenvergleich machen und erhalten aus

\begin{multline*}
(c_0+c_1x+c_2x^2+c_3x^3+c_4x^4+c_5x^5+\dots)\cdot (1 -\frac12 ...
...1{24}x^4-+\dots) = \\
= (x -\frac16x^3 + \frac1{120}x^5-+\dots)
\end{multline*}

die Koeffizienten

\bgroup\color{demo}$\displaystyle c_0=0,\; c_1=1,\; c_2=0,\; c_3=\frac13,\; c_4=0,\; c_5=\frac{2}{15},\dots.
$\egroup


5.2.12 Beispiel.
Es sei \bgroup\color{demo}$ f:x\mapsto (1+x)^\alpha $\egroup. Dann ist \bgroup\color{demo}$ f^{(p)}(x)=\alpha \cdot(\alpha -1)\cdot\dots\cdot (\alpha -p+1)\,(1+x)^{\alpha -p}$\egroup, also ist die Taylorreihe

\bgroup\color{demo}$\displaystyle \sum_{i} \frac{(\alpha )_i}{i!} x^i = \sum_i \binom{\alpha }{i}\,x^i
$\egroup

und diese konvergiert für \bgroup\color{demo}$ 0<x<1$\egroup gegen \bgroup\color{demo}$ f(x)=(1+x)^\alpha $\egroup, denn das Restglied ist

\bgroup\color{demo}$\displaystyle \int_0^1 \frac{(1-t)^{p-1}}{(p-1)!}\, (\alpha )_p(1+tx)^{\alpha -p} x^p\,dt\to 0.
$\egroup

Man kan mit etwas Aufwand (siehe [Heuser]) zeigen, daß die Formel für alle \bgroup\color{demo}$ \vert x\vert<1$\egroup gilt.


5.2.13 Bemerkung. Komplexe Differenzierbarkeit.
Für Abbildungen \bgroup\color{demo}$ f:\mathbb{C}\supseteq U\to\mathbb{C}$\egroup haben wir auch die Möglichkeit eine Ableitung \bgroup\color{demo}$ f'(z)\in\mathbb{C}$\egroup analog zum 1-dimensionalen reellen Fall zu definieren:

\bgroup\color{demo}$\displaystyle f'(z):=\lim_{\mathbb{C}\ni w\to 0}\frac{f(z+w)-f(z)}{w}.
$\egroup

Falls dieser Limes für alle \bgroup\color{demo}$ z\in U$\egroup existiert nennt man \bgroup\color{demo}$ f$\egroup komplex-differenzierbar oder kurz holomorph.

Was ist nun der Zusammenhang zu der linearen Approximation

\bgroup\color{demo}$\displaystyle \begin{pmatrix}\d _1 f_1 & \d _2 f_1 \\ \d _1 f_2 & \d _2 f_2 \end{pmatrix},
$\egroup

wenn wir \bgroup\color{demo}$ f$\egroup als Abbildung \bgroup\color{demo}$ \mathbb{R}^2\supseteq U\to\mathbb{R}^2$\egroup auffassen mit \bgroup\color{demo}$ f_1(x,y):=\Re\frak e(f(x+i\,y))$\egroup, \bgroup\color{demo}$ f_2(x,y):=\Im\frak m f(x+i\,y)$\egroup. Komplexe Zahlen \bgroup\color{demo}$ a+i\,b$\egroup wirken auf \bgroup\color{demo}$ \binom{x}{y}\in \mathbb{R}^2$\egroup durch Multiplikation \bgroup\color{demo}$ x+i\,y\mapsto (a+i\,b)\cdot (x+i\,y)=(ax-by)+i(ay+bx)$\egroup. Diese Wirkung ist (sogar \bgroup\color{demo}$ \mathbb{C}$\egroup-)linear und wird durch die Matrix

\bgroup\color{demo}$\displaystyle \begin{pmatrix}
a & -b \\
b & a
\end{pmatrix}$\egroup

beschrieben. In der Tat ist nun die zur komplexen Zahl \bgroup\color{demo}$ f'(z)\in\mathbb{C}$\egroup gehörende Matrix gerade

\bgroup\color{demo}$\displaystyle \begin{pmatrix}
\d _1 f_1(z) & \d _2f_1(z) \\
\d _1 f_2(z) & \d _2f_2(z) \\
\end{pmatrix}$\egroup

und es gelten die Cauchy-Riemann'schen Differentialgleichungen \bgroup\color{demo}$ \d _1 f=\d _2 f_2$\egroup sowie \bgroup\color{demo}$ \d _1 f_2=-\d _2 f_1$\egroup, denn

$\displaystyle \d _1 f_1(x,y)$ $\displaystyle =\lim_{h\to 0}\frac{f_1(x+h,y)-f_1(x,y)}{h}=\Re\frak e(f'(z))$    
$\displaystyle \d _1 f_2(x,y)$ $\displaystyle =\lim_{h\to 0}\frac{f_2(x+h,y)-f_2(x,y)}{h}=\Im\frak m(f'(z))$    
$\displaystyle \d _2 f_1(x,y)$ $\displaystyle =\lim_{h\to 0}\frac{f_1(x,y+h)-f_1(x,y)}{h}$    
  $\displaystyle =\lim_{h\to 0}i\frac{(\Re\frak e\o f)(x+iy+ih)-(\Re\frak e\o f)(x+iy+ih)}{ih} =-\Im\frak m f'(z)$    
$\displaystyle \d _2 f_2(x,y)$ $\displaystyle =\lim_{h\to 0}\frac{f_2(x,y+h)-f_2(x,y)}{h}=\Re(f'(z)).$    

Man kann umgekehrt zeigen, daß jedes reell-differenzierbare \bgroup\color{demo}$ f$\egroup welches die Cauchy-Riemann'schen Differentialgleichungen erfüllt komplex differenzierbar ist.

Weiters läßt sich jede komplex differenzierbare Abbildung \bgroup\color{demo}$ f:\mathbb{C}\supseteq U\to\mathbb{C}$\egroup auf jeder Kreisscheibe in \bgroup\color{demo}$ U$\egroup in eine konvergente Potenzreihe entwickeln und ist somit insbesonders unendlich oft (komplex) differenzierbar.




5.2.14 Theorem. Glatte Lösungen von Gleichungen.
Folgende Sätze gelten auch für \bgroup\color{demo}$ n$\egroup-mal stetig differenzierbare und auch für glatte Abbildungen:

(1)
Inverse Funktionen Satz; Genauer ist die Glg. $ C^n$ so auch die $ C^1$-Lösung.
(2)
Implizite Funktionen Satz; Genauer ist die Glg. $ C^n$ so auch die $ C^1$-Lösung.
(3)
Die Inversion $ \operatorname{inv}:\operatorname{Inv}(A)\to A$ von $ A:=GL(E)$ ist $ C^n$.
(4)
Aus $ f:E\supseteq U\to F$ $ C^n$ folgt $ f_*:C(I,E)\supseteq C(I,U)\to C(I,F)$ $ C^n$.
(5)
Existenz und Eindeutigkeitssatz für Differentialgleichungen; Genauer ist die Glg. $ C^n$ so auch die $ C^1$-Lösung.

Beweis. Wir zeigen dies mittels Induktion nach \bgroup\color{demo}$ n$\egroup. Der Induktionsanfang ( \bgroup\color{demo}$ n=1$\egroup) haben wir bereits in 3.3.4, 3.3.6, erledigt. Nun der Induktionsschritt auf \bgroup\color{demo}$ (n+1)$\egroup:
(1)
Für die Inverse $ g:=f^{-1}$ von $ f$ gilt $ g'(y)=\operatorname{inv}(f'(g(y)))$, d.h.

$\displaystyle g'=\operatorname{inv}\o f'\o g
$

nach 3.3.4 und nach (3) ist $ \operatorname{inv}$ $ C^n$, nach Voraussetzung ist $ f'$ $ C^n$ und nach (2) ist $ g$ $ C^n$, also ist $ g'$ $ C^n$ nach der Kettenregel, d.h. $ g$ ist $ C^{n+1}$.
(2)
Die Lösung $ g$ der impliziten Gleichung $ f(x,g(x,z))=z$ ist nach Induktionsanfang $ C^1$ mit

$\displaystyle \d _1 g(x,z)$ $\displaystyle = - \d _2 f(x,g(x,z))^{-1}\cdot \d _1 f(x,g(x,z))$    
$\displaystyle \d _2 g(x,z)$ $\displaystyle = - \d _2 f(x,g(x,z))^{-1}.$    

Die rechte Seite ist $ C^n$ nach Induktionsvoraussetzung für (3) und (2) also ist $ g$ $ C^{n+1}$ nach 3.3.3.
(3)
D ies ist ein spezial-Fall von (2).

(4) Beachte, daß wir für \bgroup\color{demo}$ n=1$\egroup erhalten haben, daß \bgroup\color{demo}$ (f_*)'=\beta \o (f')_*$\egroup. Wobei \bgroup\color{demo}$ \beta $\egroup stetig und linear ist. Also folgt mittels Induktion, daß \bgroup\color{demo}$ (f')_*$\egroup \bgroup\color{demo}$ C^n$\egroup ist und damit auch \bgroup\color{demo}$ (f_*)'$\egroup, also \bgroup\color{demo}$ f_*$\egroup \bgroup\color{demo}$ C^{n+1}$\egroup ist.

(5) Im Beweis für \bgroup\color{demo}$ C^1$\egroup, haben wir ein implizite Lösung \bgroup\color{demo}$ \bar x:\mathbb{R}\times P\to C^1_0$\egroup erhalten. Diese ist nun nach (4) und (2) auch \bgroup\color{demo}$ C^{n+1}$\egroup, also ist \bgroup\color{demo}$ x_p(t):=\bar x_{\varepsilon t/t_0,p}(t_0/\varepsilon )$\egroup in \bgroup\color{demo}$ (t,p)$\egroup \bgroup\color{demo}$ C^{n+1}$\egroup und der Definitionsbereich hat sich nicht verkleinert.

Für zeitabhängige Differentialgleichungen mit einer allgemeinen Anfangsbedingung folgt das nun ebenso wie im \bgroup\color{demo}$ C^1$\egroup-Fall.     []

Andreas Kriegl 2001-07-01