19.2 Potenzreihen




19.2.1 Taylor's Formel.
Es sei \bgroup\color{demo}$ f:E\supseteq U\to F$\egroup \bgroup\color{demo}$ C^p$\egroup und \bgroup\color{demo}$ \overline{x(x+h)}:=\{x+th:0\leq t\leq1\}
\subseteq U$\egroup. Dann ist

\bgroup\color{demo}$\displaystyle f(x+h) = \sum_{0\leq j < p} \frac{f^{(j)}(x)(h...
...}
+ \int_0^1 \frac{(1-t)^{p-1}}{(p-1)!}  f^{(p)}(x+th)(h,\dots,h) dt.
$\egroup

Beweis. Indem wir \bgroup\color{demo}$ c(t):=f(x+t h)$\egroup setzen erhalten wir wegen der Kettenregel eine \bgroup\color{demo}$ C^p$\egroup Abbildung \bgroup\color{demo}$ c:\mathbb{R}\supseteq I\to F$\egroup, wobei \bgroup\color{demo}$ I:=\{t:x+th\in U\}\supseteq [0,1]$\egroup offen ist, und es gilt für \bgroup\color{demo}$ t\in I$\egroup

\bgroup\color{demo}$\displaystyle c^{(p)}(t) = f^{(p)}(x+t h)(h,\dots,h).
$\egroup

Durch mehrfache partielle Integration erhalten wir

$\displaystyle c(1)$ $\displaystyle = c(0) + \int_0^1 1 c'(t)  dt$    
  $\displaystyle = c(0) + \Bigl[(t-1) c'(t)\Bigr]_{t=0}^1 -\int_0^1 (t-1) c''(t) dt$    
  $\displaystyle = c(0) + c'(0) - \Bigl[\frac{(t-1)^2}{2} c''(t)\Bigr]_{t=0}^1 +\int_0^1 \frac{(t-1)^2}{2}  c'''(t) dt$    
  $\displaystyle =\dots$    
  $\displaystyle = c(0) + c'(0) + \dots + \frac1{(p-1)!} c^{(p-1)}(0) + \int_0^1 \frac{(1-t)^{p-1}}{(p-1)!} c^{(p)}(t) dt.$    

Rückübersetzt in Ausdrücke von \bgroup\color{demo}$ f$\egroup liefert das die gewünschte Formel.


19.2.2 Bemerkung. Taylor-Reihe.
Es sei \bgroup\color{demo}$ f:E\supseteq U\to F$\egroup \bgroup\color{demo}$ C^{\infty}$\egroup. Falls das Restglied

\bgroup\color{demo}$\displaystyle \int_0^1 \frac{(1-t)^{p-1}}{(p-1)!}  f^{(p)}(x+th)(h,\dots,h) dt
$\egroup

für \bgroup\color{demo}$ p\to{\infty}$\egroup gegen 0 konvergiert, so konvergiert die Taylor-Reihe

\bgroup\color{demo}$\displaystyle \sum_{j} \frac{f^{(j)}(x)(h,\dots,h)}{j!}\to f(x+h).
$\egroup

Falls \bgroup\color{demo}$ E=\mathbb{R}$\egroup ist, so ist \bgroup\color{demo}$ f^{(j)}(x)(h,\dots,h)=f^{(j)}(x) h^j$\egroup und darum schreibt man auch allgemein bisweilen \bgroup\color{demo}$ h^j$\egroup anstelle von \bgroup\color{demo}$ (h,\dots,h)$\egroup.


19.2.12 Beispiele von Taylor-Reihen.

  1. Die Funktion $ \exp:x\mapsto e^x$ ist unendlich oft differenzierbar mit $ \exp^{(n)}=\exp$ und für das Restglied gilt:

    $\displaystyle \Biggl\vert\int_0^1 \frac{(1-t)^{p-1}}{(p-1)!} \exp^{(p)}(0+th)(h,\dots,h) dt\Bigr\vert$ $\displaystyle = \int_0^1 \frac{(1-t)^{p-1}}{(p-1)!}  e^{0+th} h^p dt\Bigr\vert$    
      $\displaystyle \leq \max\{1,e^h\}\frac1{p!}$    
      $\displaystyle \to 0$ für $\displaystyle p\to{\infty}.$    

    Somit ist

    $\displaystyle e^x=\sum_{k=0}^{\infty}\frac{x^k}{k!}.
$

  2. Analog erhalten wir für die beiden Winkelfunktionen $ \sin$ und $ \cos$ die Darstellungen

    $\displaystyle \sin(x)$ $\displaystyle =\sum_{k=0}^{\infty}(-1)^k\frac{x^{2k+1}}{(2k+1)!}$    
    $\displaystyle \cos(x)$ $\displaystyle =\sum_{k=0}^{\infty}(-1)^k\frac{x^{2k}}{(2k)!}$    

  3. Die Funktion $ f:x\mapsto 1/x$ ist unendlich oft differenzierbar auf $ \mathbb{R}\setminus\{0\}$. Wir können sie jedoch nicht um $ x=0$ entwickeln, aber sehr wohl um $ x=1$, d.h. wir suchen eine Darstellung der Form

    $\displaystyle \frac1{1+h}=\sum_{k=0}^{\infty}\frac{f^{(k)}(1)}{k!}h^k.
$

    Nach der Summenformel für die geometrische Reihe gilt

    $\displaystyle \sum_{k=0}^{\infty}(-h)^k=\frac1{1-(-h)}=\frac1{1+h}$ für $\displaystyle \vert h\vert<1.
$

    Nachrechnen zeigt, daß dies genau die Taylorreihe von $ f$ an der Stelle 1 ist, d.h. $ f^{(k)}(1)=(-1)^k k!$ ist. Allerdings wird $ f(1+h)$ nur für $ \vert h\vert<1$ durch ihre Taylorreihe dargestellt.

  4. Allgemeiner sei $ f(x):=x^\alpha $ mit $ \alpha \in\mathbb{R}$ für $ x>0$. Dann ist $ f^{(p)}(x)=\alpha \cdot(\alpha -1)\cdot\dots\cdot (\alpha -p+1) x^{\alpha -p}$, also ist die Taylorreihe von $ f$ bei $ 1$

    $\displaystyle \sum_{i} \frac{(\alpha )_i}{i!} x^i = \sum_i \binom{\alpha }{i} x^i
$

    und diese konvergiert für $ 0\leq x<1$ gegen $ f(1+x)=(1+x)^\alpha $, denn das Restglied ist

    $\displaystyle \int_0^1 \frac{(1-t)^{p-1}}{(p-1)!}  (\alpha )_p(1+tx)^{\alpha -p} x^p dt\to 0.
$

    Man kann mit etwas Aufwand (siehe [Heuser]) zeigen, daß die Formel für alle $ \vert x\vert<1$ gilt.
All diese Reihendarstellungen erlauben uns erstmals transzendente Funktionen wie \bgroup\color{demo}$ \exp$\egroup, \bgroup\color{demo}$ \sin$\egroup, \bgroup\color{demo}$ \cos$\egroup, \bgroup\color{demo}$ x\mapsto x^{\alpha }$\egroup beliebig genau zu berechnen. Wir sollten also solche Reihen der Form \bgroup\color{demo}$ \sum_i a_i x^i$\egroup, sogenannte Potenzreihen, näher untersuchen.




19.2.3 Proposition. Konvergenzkreis.
Eine Potenzreihe \bgroup\color{demo}$ \sum_{i} a_i x^i$\egroup konvergiert für alle \bgroup\color{demo}$ x$\egroup mit \bgroup\color{demo}$ \vert x\vert<r$\egroup und divergiert falls \bgroup\color{demo}$ \vert x\vert>r$\egroup, wobei \bgroup\color{demo}$ r:=1/{\varlimsup_n \root n\of{\vert a_n\vert}}$\egroup Konvergenzradius der Reihe heißt. Entsprechend heißt \bgroup\color{demo}$ \{x\in\mathbb{C}:\vert x\vert=r\}$\egroup Konvergenzkreis der Reihe.

Dabei dürfen sowohl die Koeffizienten \bgroup\color{demo}$ a_n$\egroup als auch \bgroup\color{demo}$ x$\egroup komplexe Zahlen sein.

Beweis. Nach dem Wurzelkriterium genügt es den Ausdruck

\bgroup\color{demo}$\displaystyle \varlimsup_n \root n\of{\vert a_nx\vert^n} = \vert x\vert \varlimsup_{n} \root n\of{\vert a_n\vert}
$\egroup

zu betrachten.     []


19.2.15 Bemerkung. Komplexe Winkelfunktionen.
Wir dürfen also in die Taylorreihen von \bgroup\color{demo}$ \exp$\egroup, \bgroup\color{demo}$ \sin$\egroup und \bgroup\color{demo}$ \cos$\egroup beliebige komplexe Zahlen \bgroup\color{demo}$ x$\egroup einsetzen und definieren für diese

$\displaystyle e^x$ $\displaystyle :=\sum_{k=0}^{\infty}\frac{x^k}{k!},$    
$\displaystyle \sin(x)$ $\displaystyle :=\sum_{k=0}^{\infty}(-1)^k\frac{x^{2k+1}}{(2k+1)!},$    
$\displaystyle \cos(x)$ $\displaystyle :=\sum_{k=0}^{\infty}(-1)^k\frac{x^{2k}}{(2k)!}.$    

Insbesonders erhalten wir

$\displaystyle e^{it}$ $\displaystyle = \sum_{k=0}^{\infty}\frac{(it)^k}{k!} = \sum_{k=0}^{\infty}\frac{(it)^{2k}}{(2k)!} + \sum_{k=0}^{\infty}\frac{(it)^{2k+1}}{(2k+1)!}$    
  $\displaystyle = \sum_{k=0}^{\infty}(-1)^k\frac{t^{2k}}{(2k)!} + \sum_{k=0}^{\infty}i(-1)^k\frac{t^{2k+1}}{(2k+1)!}$    
  $\displaystyle = \cos(t) + i \sin(t).$    

und daraus folgt indem wir auch \bgroup\color{demo}$ -t$\egroup einsetzen

\bgroup\color{demo}$\displaystyle \cos(t)= \frac{e^{it}+e^{-it}}2$\egroup und \bgroup\color{demo}$\displaystyle \sin(t)=\frac{e^{it}-e^{-it}}{2i}.
$\egroup

Vergleiche dies mit den hyperbolischen Winkelfunktionen.


19.2.4 Definition. Konvergenz von Funktionen.
Es sei \bgroup\color{demo}$ X$\egroup eine Menge, \bgroup\color{demo}$ F$\egroup ein endlich dimensionaler Euklidischer Raum und \bgroup\color{demo}$ f_{\infty},f_n:X\to F$\egroup Funktionen. Man sagt \bgroup\color{demo}$ f_n$\egroup konvergiert gegen \bgroup\color{demo}$ f_{\infty}$\egroup punktweise, wenn

  $\displaystyle \forall x\in X: \lim_{n\to{\infty}} f_n(x)=f_{\infty}(x), d.h. $    
  $\displaystyle \forall x\in X\forall\varepsilon >0\exists N\in\mathbb{N}\forall n\geq N: \vert f_{\infty}(x)-f_n(x)\vert<\varepsilon .$    

Die Grenzfunktion \bgroup\color{demo}$ f_{\infty}$\egroup einer punktweisen konvergenten Folge stetiger Funktionen \bgroup\color{demo}$ f_n$\egroup muß jedoch nicht stetig sein, wie das Beispiel \bgroup\color{demo}$ f_1(x):=\frac1{1+x^2}$\egroup, \bgroup\color{demo}$ f_n(x):=f_1(nx)=\frac1{1+(nx)^2}\to 0=:f_{\infty}(x)$\egroup zeigt.

animation animation

Deshalb brauchen wir folgende stärkere Konvergenz, die sogenannte gleichmäßige Konvergenz: Man sagt \bgroup\color{demo}$ f_n$\egroup konvergiert gegen \bgroup\color{demo}$ f_{\infty}$\egroup gleichmäßig auf \bgroup\color{demo}$ X$\egroup, wenn

\bgroup\color{demo}$\displaystyle \forall\varepsilon >0\exists N\in\mathbb{N}\forall n\geq N\forall x\in X: \vert f_{\infty}(x)-f_n(x)\vert<\varepsilon .
$\egroup

Offensichtlich ist jede gleichmäßig konvergente Folge auch punktweise konvergent. Nicht aber umgekehrt, wie die Abbildungen \bgroup\color{demo}$ f_n:x\mapsto \frac{nx}{1+(nx)^2}$\egroup zeigen.

animation animation

Wenn wir die Abstandsfunktion \bgroup\color{demo}$ d_{\infty}(f,g):=\sup_{x\in X}\vert f(x)-g(x)\vert$\egroup auf der Menge der beschränkten Funktionen \bgroup\color{demo}$ f,g:X\to F$\egroup betrachten, so ist die gleichmäßige Konvergenz gerade die Konvergenz bezüglich dieser Metrik. Für die punktweise Konvergenz existiert nur für endliches \bgroup\color{demo}$ X$\egroup eine sie beschreibende Metrik. Wenn man \bgroup\color{demo}$ \Vert f\Vert_{\infty}:=\sup\{\vert f(x)\vert x\in X\}$\egroup setzt, so ist \bgroup\color{demo}$ d_{\infty}(f,g)=\Vert f-g\Vert_{\infty}$\egroup.




19.2.5 Proposition. Gleichmäßige Grenzwerte stetiger Funktionen.
Es konvergiere \bgroup\color{demo}$ f_n\to f_{\infty}$\egroup gleichmäßig auf \bgroup\color{demo}$ X$\egroup und alle \bgroup\color{demo}$ f_n:X\to F$\egroup seien stetig. Dann ist auch \bgroup\color{demo}$ f_{\infty}$\egroup stetig. In dieser Situation gilt also

\bgroup\color{demo}$\displaystyle \lim_{x\to x_0}\lim_{n\to{\infty}} f_n(x)=\lim_{n\to{\infty}}\lim_{x\to x_0} f_n(x).
$\egroup

Beweis. Es sei \bgroup\color{demo}$ x_0\in X$\egroup und \bgroup\color{demo}$ \varepsilon >0$\egroup. Dann existiert wegen der glm. Konvergenz ein \bgroup\color{demo}$ N\in\mathbb{N}$\egroup s.d. \bgroup\color{demo}$ d_{\infty}(f_n,f_{\infty}><\frac{\varepsilon }3$\egroup für alle \bgroup\color{demo}$ n\geq N$\egroup und wegen der Stetigkeit von \bgroup\color{demo}$ f_N$\egroup ein \bgroup\color{demo}$ \delta >0$\egroup s.d. \bgroup\color{demo}$ d(f_N(x),f_N(x_0))<\frac{\varepsilon }3$\egroup für alle \bgroup\color{demo}$ x\in X$\egroup mit \bgroup\color{demo}$ d(x,x_0)<\delta $\egroup. Somit ist

$\displaystyle d(f_{\infty}(x),f_{\infty}(x_0))$ $\displaystyle \leq d(f_{\infty}(x),f_N(x)) + d(f_N(x),f_N(x_0)) + d(f_N(x_0),f_{\infty}(x_0))$    
  $\displaystyle \leq d_{\infty}(f_{\infty},f_N) + d(f_N(x),f_N(x_0)) + d_{\infty}(f_N,f_{\infty})$    
  $\displaystyle \leq 3\frac{\varepsilon }3=\varepsilon .{\rm\quad[]}$    

Image ..//pic-4-23.gif




19.2.6 Cauchy'sches Konvergenzkriterium für Funktionen.
Es konvergiert \bgroup\color{demo}$ f_n$\egroup genau dann punktweise, wenn für alle \bgroup\color{demo}$ x\in X$\egroup die Folge \bgroup\color{demo}$ f_n(x)$\egroup eine Cauchy-Folge ist.
Weiters konvergiert \bgroup\color{demo}$ f_n$\egroup genau dann gleichmäßig, wenn

\bgroup\color{demo}$\displaystyle \forall \varepsilon >0\exists N\forall n,m\geq N: d_{\infty}(f_n,f_m)\leq\varepsilon .{\rm\quad[]}
$\egroup




19.2.7 Kriterium von Weierstrass für gleichmäßige Konvergenz.
Es konvergiere \bgroup\color{proclaim}$ \sum_k \Vert f_k\Vert_{\infty}$\egroup. Dann konvergiert \bgroup\color{proclaim}$ \sum_k f_k$\egroup gleichmäßig.

Beweis. Es ist \bgroup\color{demo}$ \Vert\sum_{k=n}^{n+p}f_k\Vert_{\infty}\leq \sum_{k=n}^{n+p}\Vert f_k\Vert_{\infty}\to 0$\egroup für \bgroup\color{demo}$ n\to{\infty}$\egroup.     []




19.2.8 Proposition. Stetigkeit des Integrals.
Es sei \bgroup\color{demo}$ f_n:[a,b]\to\mathbb{R}$\egroup Riemann-integrierbar und \bgroup\color{demo}$ f_n$\egroup konvergiere gegen \bgroup\color{demo}$ f_{\infty}$\egroup gleichmäßig. Dann ist auch \bgroup\color{demo}$ f_{\infty}$\egroup Riemann-integrierbar und es gilt

\bgroup\color{demo}$\displaystyle \int_a^b \lim_{n\to {\infty}}f_n = \lim_{n\to{\infty}} \int_a^b f_n.
$\egroup

Beweis. Nach dem Lebesgue'schen Integrabilitätskriterium (18.1.4) ist \bgroup\color{demo}$ f_{\infty}$\egroup Riemann-integrierbar, denn \bgroup\color{demo}$ f_{\infty}$\egroup ist nach (19.2.5) zumindestens dort stetig, wo es alle \bgroup\color{demo}$ f_n$\egroup sind. Wegen \bgroup\color{demo}$ \vert\int_a^b (f-g) \vert\leq \vert b-a\vert d_{\infty}(f,g)$\egroup konvergiert \bgroup\color{demo}$ \int_a^b f_n$\egroup gegen \bgroup\color{demo}$ \int_a^b f_{\infty}$\egroup.     []




19.2.9 Proposition. Grenzwerte differenzierbarer Funktionen.
Es sei \bgroup\color{demo}$ f_n:[a,b]\to\mathbb{R}$\egroup differenzierbar, \bgroup\color{demo}$ f_n$\egroup konvergiere gegen \bgroup\color{demo}$ f_{\infty}$\egroup punktweise und \bgroup\color{demo}$ f_n'$\egroup konvergiere gleichmäßig gegen eine Funktion \bgroup\color{demo}$ f_{\infty}^1$\egroup. Dann ist \bgroup\color{demo}$ f_{\infty}$\egroup differenzierbar und die Ableitung ist \bgroup\color{demo}$ (f_{\infty})'=f_{\infty}^1$\egroup, d.h. es gilt

\bgroup\color{demo}$\displaystyle \frac{d}{dx}\lim_{n\to{\infty}} f_n(x)=\lim_{n\to{\infty}}\frac{d}{dx} f_n(x).
$\egroup

Beweis. Es ist

\bgroup\color{demo}$\displaystyle g_n:x\mapsto \left\{\begin{array}{ll} \frac{f_...
...\
f_n'(x_0)=\int_0^1 f_n'(x_0) dx&\text{für }x=x_0 \end{array}\right.
$\egroup

stetig in \bgroup\color{demo}$ x$\egroup und konvergiert gleichmäßig in \bgroup\color{demo}$ x$\egroup gegen \bgroup\color{demo}$ g_{\infty}(x):=\int_0^1 f_{\infty}^1(x_0+t(x-x_0)) dt$\egroup. Also ist \bgroup\color{demo}$ g_{\infty}$\egroup stetig und somit ist

$\displaystyle f_{\infty}^1(x_0)$ $\displaystyle =\int_0^1 f_{\infty}'(x_0) dt =g_{\infty}(x_0) =\lim_{x\to x_0} g_{\infty}(x)$    
  $\displaystyle =\lim_{x\to x_0}\frac{f_{\infty}(x)-f_{\infty}(x_0)}{x-x_0} =(f_{\infty})'(x_0).{\rm\quad[]}$    




19.2.10 Theorem. Operationen für Potenzreihen.
Potenzreihen konvergieren auf jedem im Inneren des Konvergenzkreises enthaltenen abgeschlossenen Kreisschreibe gleichmäßig. Sie stellen dort unendlich oft differenzierbare Abbildungen dar. Die Ableitungen und auch das unbestimmte Integral können gliedweise berechnet werden, d.h.

\bgroup\color{demo}$\displaystyle \frac{d}{dx}\biggl(\sum_{i=0}^{\infty}a_i x^i\biggr)
= \sum_{i=1}^{\infty}a_i i x^{i-1}$\egroup und \bgroup\color{demo}$\displaystyle \int\biggl(\sum_{i=0}^{\infty}a_i x^i\biggr) dx
= C+\sum_{i=0}^{\infty}\frac{a_i}{(i+1)!}  x^{i+1}.
$\egroup

Weiters können konvergente Potenreihen im Inneren des Konvergenzkreises addiert und multipliziert werden, auf einer möglicherweise kleineren Kreisscheibe auch dividiert werden falls der Nenner bei 0 nicht verschwindet und ebenso zusammengesetzt werden falls die innere Reihe bei 0 verschwindet. Die Inverse einer konvergenten Potenzreihe mit \bgroup\color{demo}$ a_0=0$\egroup und \bgroup\color{demo}$ a_1\ne 0$\egroup läßt sich ebenfalls in eine konvergente Potenzreihe entwickeln.

Beweis. Es sei \bgroup\color{demo}$ r$\egroup der Konvergenzradius und \bgroup\color{demo}$ 0\leq \rho <r$\egroup. Dann konvergiert die Reihe für \bgroup\color{demo}$ \vert x\vert\leq\rho $\egroup gleichmäßig, denn wenn \bgroup\color{demo}$ \Vert f\Vert_{\infty}:=\sup\{\vert f(x)\vert:\vert x\vert\leq \rho \}$\egroup bezeichnet, so ist \bgroup\color{demo}$ \sum_j \Vert a_j p_j \Vert_{\infty}=\sum_j \vert a_j\vert rh^j<{\infty}$\egroup, wobei \bgroup\color{demo}$ p_j$\egroup das Monom \bgroup\color{demo}$ p_j(x):=x^j$\egroup bezeichnet, und somit folgt das Resultat aus (19.2.7).

Man zeigt nun nacheinander, daß \bgroup\color{demo}$ p:x\mapsto \sum_{j=0}^{\infty}a_j x^j$\egroup stetig ist bei 0, daß für \bgroup\color{demo}$ \vert x_0\vert<r$\egroup auch

$\displaystyle x\mapsto p(x_0+x)$ $\displaystyle =\sum_{j=0}^{\infty}a_j(x_0+x)^j= \sum_{j=0}^{\infty}a_j\sum_k \binom{j}{k} x_0^{j-k} x^k$    
  $\displaystyle =\sum_{k=0}^{\infty}\Biggl( \sum_{j\geq k} a_j\binom{j}{k} x_0^{j-k}\Biggr)x^k$    

eine konvergente Potenzreihe für \bgroup\color{demo}$ \vert x\vert<r-\vert x_0\vert$\egroup mit Koeffizienten

\bgroup\color{demo}$\displaystyle b_k:=\sum_{j\geq k} a_j\binom{j}{k} x_0^{j-k}
$\egroup

darstellt, und somit \bgroup\color{demo}$ p$\egroup auch bei \bgroup\color{demo}$ x_0$\egroup stetig ist. Für den Differenzenquotient von \bgroup\color{demo}$ p$\egroup bei \bgroup\color{demo}$ x_0$\egroup erhalten wir

\bgroup\color{demo}$\displaystyle \frac{p(x_0+h)-p(x_0)}{h}=\sum_{k=1}^{\infty}b_k h^{k-1}
\to b_1= \sum_{j\geq 1} a_j j x_0^{j-1}.
$\egroup

Offensichtlich konvergiert mit \bgroup\color{demo}$ \sum_k a_k x^k$\egroup auch \bgroup\color{demo}$ \sum_k \frac{a_k}{k+1}x^{k+1}$\egroup absolut und stellt nach dem zuvor Gesagten eine differenzierbare Funktion mit Ableitung \bgroup\color{demo}$ p$\egroup dar, ist also ein unbestimmtes Integral nach dem Hauptsatz (18.2.2).

Nach (15.3.6) sind Summen konvergenter Reihen konvergent und nach (15.5.17) Produkte absolut konvergenter Reihen.

Sei nun \bgroup\color{demo}$ f(x):=\sum_{k=0}^{\infty}f_k x^k$\egroup mit \bgroup\color{demo}$ 0=f(0)=f_0$\egroup und \bgroup\color{demo}$ g(y):=\sum_{k=0}^{\infty}g_k y^k$\egroup. Man kann zeigen, daß sich \bgroup\color{demo}$ g\o f$\egroup in eine Potenzreihe entwickeln läßt, die für \bgroup\color{demo}$ x$\egroup mit \bgroup\color{demo}$ \vert x\vert$\egroup kleiner als der Konvergenzradius von \bgroup\color{demo}$ f$\egroup und \bgroup\color{demo}$ \vert f(x)\vert$\egroup kleiner als der Konvergenzradius von \bgroup\color{demo}$ g$\egroup auch konvergiert,

$\displaystyle g(f(x))$ $\displaystyle =\sum_{k=0}^{\infty}g_k \biggl(\sum_{j=0}^{\infty}f_j x^j\biggr)^k$    
  $\displaystyle =g_0 + g_1 (f_0 + f_1  x+ f_2  x^2+\dots) +$    
  $\displaystyle \quad+ g_2 (f_0^2 + 2 f_0 f_1 x+ (f_1^2+f_0 f_0) x^2+\dots) +\dots$    
  $\displaystyle = (g_0+g_1 f_0+g_2 f_0^2+\dots)$    
  $\displaystyle \quad +(g_1 f_1+ 2 g_2 f_0 f_1+\dots) x$    
  $\displaystyle \quad +(g_1 f_2+g_2 (f_1^2+f_0 f_0)+\dots) x^2+\dots.$    

Da \bgroup\color{demo}$ \frac1{f(x)}=\frac1{f(x)-f(0)+f(0)}=g(f(x)-f_0)$\egroup, wobei

\bgroup\color{demo}$\displaystyle g(y):=\frac1{y+f_0}=\frac1{f_0}\frac1{1+\frac{...
...}\left(-\frac{y}{f_0}\right)^k=
\sum_{k=0}^{\infty}(-1)^k f_0^{k+1} y^k
$\egroup

für \bgroup\color{demo}$ \vert y\vert<f_0$\egroup ist, folgt die Aussage über Kehrwerte und damit über Quotienten aus jener für die Komposition.

Wegen dem inversen Funktionensatz ist die Summenfunktion \bgroup\color{demo}$ f$\egroup einer konvergenten Potenzreihe lokal invertierbar, falls \bgroup\color{demo}$ 0\ne f'(0)=f_1$\egroup ist. Wegen \bgroup\color{demo}$ f(0)=f_0=0$\egroup kann man \bgroup\color{demo}$ f^{-1}$\egroup ebenfalls in eine Reihe entwickeln.     []


Beispiele.
Es sei \bgroup\color{demo}$ f(x):=\frac1{x^2-3x+2}$\egroup. Partialbruchzerlegung liefert

\bgroup\color{demo}$\displaystyle \frac1{x^2-3x+2}=\frac{-1}{x-1}+\frac{1}{x-2}
=\frac1{1-x}-\frac1{2-x}
$\egroup

Die Taylorreihen der beiden Summanden ist

$\displaystyle \frac1{1-x}$ $\displaystyle = \sum_{k=0}^{\infty}x^k$ für $\displaystyle \vert x\vert<1$    
$\displaystyle \frac1{2-x}$ $\displaystyle =\frac12 \frac1{1-\frac{x}{2}} =\frac12\sum_{k=0}^{\infty}\left(\frac{x}2\right)^k = \sum_{k=0}^{\infty}\frac1{2^{k+1}} x^k$ für $\displaystyle \vert x\vert<2$    

Subtraktion liefert somit für \bgroup\color{demo}$ \vert x\vert<\min\{1,2\}=1$\egroup

$\displaystyle \frac1{x^2-3x+2}$ $\displaystyle = \frac1{1-x}-\frac1{2-x} = \sum_{k=0}^{\infty}x^k - \sum_{k=0}^{\infty}\frac1{2^{k+1}} x^k = \sum_{k=0}^{\infty}(1-\frac1{2^{k+1}}) x^k.$    

Es sei \bgroup\color{demo}$ f(x):=\operatorname{ln}(1+x)$\egroup. Dann ist \bgroup\color{demo}$ f'(x)=\frac1{1+x}=\sum_{k=0}^{\infty}(-1)^k x^k$\egroup und somit nach (gliedweiser) Integration \bgroup\color{demo}$ f(x)=C+\sum_{k=0}^{\infty}\frac{(-1)^k}{k+1} x^{k+1}$\egroup. Wegen \bgroup\color{demo}$ \operatorname{ln}(1)=0$\egroup ist \bgroup\color{demo}$ C=0$\egroup, d.h.

\bgroup\color{demo}$\displaystyle \operatorname{ln}(1+x) = \sum_{j=1}^{\infty}\frac{(-1)^{j-1}}{j} x^j$\egroup für \bgroup\color{demo}$\displaystyle \vert x\vert<1.
$\egroup

Mit Hilfe des Abel'schen Grenzwertsatzes (siehe [Heuser]) kann man zeigen, daß diese Formel auch für \bgroup\color{demo}$ x=1$\egroup gilt, also

\bgroup\color{demo}$\displaystyle \operatorname{ln}(2)=\sum_{j=0}^{\infty}\frac{(-1)^{j}}{j+1}=1-\frac12+\frac13-\frac14+\frac15-+\dots
$\egroup

ist.

Auf ganz ähnliche Weise erhalten wir aus der Binomialreihe durch Integration folgende Taylorreihen

$\displaystyle \operatorname{Artanh}(x)+C$ $\displaystyle =\int \frac1{1-x^2} dx =\int (1-x^2)^{-1} dx =\int \sum_{k=0}^{\infty}(x^2)^k dx$    
  $\displaystyle =\sum_{k=0}^{\infty}\frac{x^{2k+1}}{2k+1}$    
$\displaystyle \arctan(x)+C$ $\displaystyle =\int \frac1{1+x^2} dx =\int (1+x^2)^{-1} dx =\int \sum_{k=0}^{\infty}(-x^2)^k dx$    
  $\displaystyle =\sum_{k=0}^{\infty}(-1)^k\frac{x^{2k+1}}{2k+1}$    
$\displaystyle \operatorname{Arsinh}(x)+C$ $\displaystyle =\int \frac1{\sqrt{1+x^2}} dx =\int (1+x^2)^{-1/2} =\int \sum_{k=0}^{\infty}\binom{-1/2}{k}(x^2)^k dx$    
  $\displaystyle =\sum_{k=0}^{\infty}\binom{-1/2}{k}\frac{x^{2k+1}}{2k+1}$    
$\displaystyle \arcsin(x)+C$ $\displaystyle =\int \frac1{\sqrt{1-x^2}} dx =\int (1-x^2)^{-1/2} =\int \sum_{k=0}^{\infty}\binom{-1/2}{k}(-x^2)^k dx$    
  $\displaystyle =\sum_{k=0}^{\infty}(-1)^k\binom{-1/2}{k}\frac{x^{2k+1}}{2k+1}$    

wobei die Integrationskonstante \bgroup\color{demo}$ C$\egroup wegen \bgroup\color{demo}$ f(0)=0$\egroup in allen 4 Fällen 0 ist.

Wieder kann man mit Hilfe des Abel'schen Grenzwertsatzes zeigen, daß die Formel für \bgroup\color{demo}$ \arctan(x)$\egroup auch für \bgroup\color{demo}$ x=1$\egroup gilt, also ist

\bgroup\color{demo}$\displaystyle \frac{\pi}4=\arctan(1)=1-\frac13+\frac15-\frac17+\frac19-+\dots.
$\egroup




Lemma. Prinzip des Koeffizientenvergleichs.
Es sei \bgroup\color{demo}$ f(x)=\sum_{k=0}^{\infty}f_k x^k$\egroup eine Potenzreihe mit Konvergenzradius \bgroup\color{demo}$ r>0$\egroup. Falls eine Folge \bgroup\color{demo}$ x_n\in f^{-1}(0)$\egroup existiert mit \bgroup\color{demo}$ x_n\to 0$\egroup, dann ist \bgroup\color{demo}$ f=0$\egroup.

Beweis. Wir zeigen mittels Induktion, daß \bgroup\color{demo}$ f_n=0$\egroup ist. Aus der Stetigkeit von \bgroup\color{demo}$ f$\egroup folgt \bgroup\color{demo}$ 0=f(x_n)\to f(0)=f_0$\egroup, also ist \bgroup\color{demo}$ f_0=0$\egroup. Sei nun bereits \bgroup\color{demo}$ f_0=\dots=f_n=0$\egroup und \bgroup\color{demo}$ g(x):=\frac{f(x)}{x^{n+1}}=\sum_{k=0}^{\infty}
f_{n+1+k} x^k$\egroup, also ebenfalls eine konvergente Potenzreihe, die bei allen \bgroup\color{demo}$ x_j$\egroup verschwindet. Somit ist auch \bgroup\color{demo}$ f_{n+1+0}=0$\egroup.     []


19.2.11 Beispiel. Taylor-Reihe für Tangens.
Es ist

$\displaystyle \sin(x)$ $\displaystyle =\sum_{k=0}^{\infty}(-1)^k\frac{x^{2k+1} }{(2k+1)!} = x -\frac{x^3}{3!}+\frac{x^5}{5!}-+\dots$    
$\displaystyle \cos(x)$ $\displaystyle =\sum_{k=0}^{\infty}(-1)^k\frac{x^{2k}}{(2k)!} = 1 - \frac{x^2}{2!}+\frac{x^4}{4!}-+\dots$    

Da nach obigen Theorem auch der Quotient \bgroup\color{demo}$ \tan=\frac{\sin}{\cos}$\egroup sich in eine konvergente Potenzreihe \bgroup\color{demo}$ \sum_k c_k x^k$\egroup entwickeln läßt, können wir nach dem letzten Lemma Koeffizientenvergleich machen und erhalten aus

\begin{multline*}
(c_0+c_1x+c_2x^2+c_3x^3+c_4x^4+c_5x^5+\dots)\cdot (1 -\frac12 ...
...1{24}x^4-+\dots) = \\
= (x -\frac16x^3 + \frac1{120}x^5-+\dots)
\end{multline*}

die Koeffizienten

\bgroup\color{demo}$\displaystyle c_0=0,\; c_1=1,\; c_2=0,\; c_3=\frac13,\; c_4=0,\; c_5=\frac{2}{15},\dots.
$\egroup

Also ist für \bgroup\color{demo}$ x$\egroup nahe 0:

\bgroup\color{demo}$\displaystyle \tan(x)=x-\frac{x^3}{3}+\frac{2x^5}{15}-+\dots
$\egroup


19.2.13 Bemerkung. Komplexe Differenzierbarkeit.
Für Abbildungen \bgroup\color{demo}$ f:\mathbb{C}\supseteq U\to\mathbb{C}$\egroup haben wir auch die Möglichkeit eine Ableitung \bgroup\color{demo}$ f'(z)\in\mathbb{C}$\egroup analog zum 1-dimensionalen reellen Fall zu definieren:

\bgroup\color{demo}$\displaystyle f'(z):=\lim_{\mathbb{C}\ni w\to 0}\frac{f(z+w)-f(z)}{w}.
$\egroup

Falls dieser Limes für alle \bgroup\color{demo}$ z\in U$\egroup existiert nennt man \bgroup\color{demo}$ f$\egroup komplex-differenzierbar oder kurz holomorph.

Was ist nun der Zusammenhang zu der linearen Approximation

\bgroup\color{demo}$\displaystyle \begin{pmatrix}\d _1 f_1 & \d _2 f_1  \d _1 f_2 & \d _2 f_2 \end{pmatrix},
$\egroup

wenn wir \bgroup\color{demo}$ f$\egroup als Abbildung \bgroup\color{demo}$ \mathbb{R}^2\supseteq U\to\mathbb{R}^2$\egroup auffassen mit \bgroup\color{demo}$ f_1(x,y):=\mathfrak{R}e(f(x+i y))$\egroup, \bgroup\color{demo}$ f_2(x,y):=\mathfrak{I}m(f(x+i y))$\egroup. Komplexe Zahlen \bgroup\color{demo}$ a+i b$\egroup wirken auf \bgroup\color{demo}$ \binom{x}{y}\in \mathbb{R}^2$\egroup durch Multiplikation \bgroup\color{demo}$ x+i y\mapsto (a+i b)\cdot (x+i y)=(ax-by)+i(ay+bx)$\egroup. Diese Wirkung ist (sogar \bgroup\color{demo}$ \mathbb{C}$\egroup-)linear und wird durch die Matrix

\bgroup\color{demo}$\displaystyle \begin{pmatrix}
a & -b \\
b & a
\end{pmatrix}$\egroup

beschrieben. In der Tat ist nun die zur komplexen Zahl \bgroup\color{demo}$ f'(z)\in\mathbb{C}$\egroup gehörende Matrix gerade

\bgroup\color{demo}$\displaystyle \begin{pmatrix}
\d _1 f_1(z) & \d _2f_1(z) \\
\d _1 f_2(z) & \d _2f_2(z) \\
\end{pmatrix}$\egroup

und es gelten die Cauchy-Riemann'schen Differentialgleichungen \bgroup\color{demo}$ \d _1 f=\d _2 f_2$\egroup sowie \bgroup\color{demo}$ \d _1 f_2=-\d _2 f_1$\egroup, denn

$\displaystyle \d _1 f_1(x,y)$ $\displaystyle =\lim_{h\to 0}\frac{f_1(x+h,y)-f_1(x,y)}{h}=\mathfrak{R}e(f'(z))$    
$\displaystyle \d _1 f_2(x,y)$ $\displaystyle =\lim_{h\to 0}\frac{f_2(x+h,y)-f_2(x,y)}{h}=\mathfrak{I}m(f'(z))$    
$\displaystyle \d _2 f_1(x,y)$ $\displaystyle =\lim_{h\to 0}\frac{f_1(x,y+h)-f_1(x,y)}{h}$    
  $\displaystyle =\lim_{h\to 0}i\frac{(\mathfrak{R}e\o f)(x+iy+ih)-(\mathfrak{R}e\o f)(x+iy+ih)}{ih} =-\mathfrak{I}m(f'(z))$    
$\displaystyle \d _2 f_2(x,y)$ $\displaystyle =\lim_{h\to 0}\frac{f_2(x,y+h)-f_2(x,y)}{h}=\mathfrak{R}e(f'(z)).$    

Man kann umgekehrt zeigen, daß jedes reell-differenzierbare \bgroup\color{demo}$ f$\egroup welches die Cauchy-Riemann'schen Differentialgleichungen erfüllt komplex differenzierbar ist.

Weiters läßt sich jede komplex differenzierbare Abbildung \bgroup\color{demo}$ f:\mathbb{C}\supseteq U\to\mathbb{C}$\egroup auf jeder Kreisscheibe in \bgroup\color{demo}$ U$\egroup in eine konvergente Potenzreihe entwickeln und ist somit insbesonders unendlich oft (komplex) differenzierbar.




19.2.14 Theorem. Glatte Lösungen von Gleichungen.
Folgende Sätze gelten auch für \bgroup\color{demo}$ n$\egroup-mal stetig differenzierbare und auch für glatte Abbildungen:

(1)
Inverse Funktionen Satz;
Genauer: Ist die Gleichung $ C^n$ so auch die $ C^1$-Lösung.
(2)
Implizite Funktionen Satz;
Genauer: Ist die Gleichung $ C^n$ so auch die $ C^1$-Lösung.
(3)
Die Inversion $ \operatorname{inv}:\operatorname{Inv}(A)\to A$ von $ A:=GL(E)$ ist $ C^n$.
(4)
Aus $ f:E\supseteq U\to F$ $ C^n$ folgt $ f_*:C(I,E)\supseteq C(I,U)\to C(I,F)$ $ C^n$.
(5)
Existenz und Eindeutigkeitssatz für Differentialgleichungen;
Genauer: Ist die Gleichung $ C^n$ so auch die $ C^1$-Lösung.

Beweis. Wir zeigen dies mittels Induktion nach \bgroup\color{demo}$ n$\egroup. Der Induktionsanfang ( \bgroup\color{demo}$ n=1$\egroup) haben wir bereits in (17.3.4), (17.3.6), erledigt. Nun der Induktionsschritt auf \bgroup\color{demo}$ (n+1)$\egroup:
(1)
Für die Inverse $ g:=f^{-1}$ von $ f$ gilt $ g'(y)=\operatorname{inv}(f'(g(y)))$, d.h.

$\displaystyle g'=\operatorname{inv}\o f'\o g
$

nach (17.3.4) und nach (3) ist $ \operatorname{inv}$ $ C^n$, nach Voraussetzung ist $ f'$ $ C^n$ und nach (2) ist $ g$ $ C^n$, also ist $ g'$ $ C^n$ nach der Kettenregel, d.h. $ g$ ist $ C^{n+1}$.
(2)
Die Lösung $ g$ der impliziten Gleichung $ f(x,g(x,z))=z$ ist nach Induktionsanfang $ C^1$ mit

$\displaystyle \d _1 g(x,z)$ $\displaystyle = - \d _2 f(x,g(x,z))^{-1}\cdot \d _1 f(x,g(x,z))$    
$\displaystyle \d _2 g(x,z)$ $\displaystyle = - \d _2 f(x,g(x,z))^{-1}.$    

Die rechte Seite ist $ C^n$ nach Induktionsvoraussetzung für (3) und (2) also ist $ g$ $ C^{n+1}$ nach (17.3.3).
(3)
Dies ist ein spezial-Fall von (2).

(4)
Beachte, daß wir für $ n=1$ erhalten haben, daß $ (f_*)'=\beta \o (f')_*$. Wobei $ \beta $ stetig und linear ist. Also folgt mittels Induktion, daß $ (f')_*$ $ C^n$ ist und damit auch $ (f_*)'$, also $ f_*$ $ C^{n+1}$ ist.

(5)
Im Beweis für $ C^1$, haben wir ein implizite Lösung $ \bar x:\mathbb{R}\times P\to C^1_0$ erhalten. Diese ist nun nach (4) und (2) auch $ C^{n+1}$, also ist $ x_p(t):=\bar x_{\varepsilon t/t_0,p}(t_0/\varepsilon )$ in $ (t,p)$ $ C^{n+1}$ und der Definitionsbereich hat sich nicht verkleinert.

Für zeitabhängige Differentialgleichungen mit einer allgemeinen Anfangsbedingung folgt das nun ebenso wie im $ C^1$-Fall.    []

Andreas Kriegl 2002-07-01