14 Eigenwerte und Eigenvektoren

Wir wollen nun ein geometrischeres Verständnis von linearen Abbildungen \bgroup\color{demo}$ A:V\to V$\egroup entwickeln.


14.1 Bemerkung.
Es sei \bgroup\color{demo}$ A\in L(V)$\egroup. Wir wollen eruieren, wo \bgroup\color{demo}$ A$\egroup einfach als Streckung wirkt, d.h. jene \bgroup\color{demo}$ x$\egroup bestimmen, für welche \bgroup\color{demo}$ A(v)=\lambda \,v$\egroup für ein \bgroup\color{demo}$ \lambda \in\mathbb{K}$\egroup ist. Das homogene Gleichungssystem \bgroup\color{demo}$ (A-\lambda \,\operatorname{id})(v)=0$\egroup hat genau dann eine nichttriviale Lösung \bgroup\color{demo}$ v$\egroup, wenn \bgroup\color{demo}$ p(\lambda ):=\det(\lambda \operatorname{id}-A)=0$\egroup ist. Beachte, daß \bgroup\color{demo}$ p$\egroup ein Polynom vom Grad \bgroup\color{demo}$ \dim(A)$\egroup ist. Es heißt das charakteristische Polynom von \bgroup\color{demo}$ A$\egroup. Seine Nullstellen heißen Eigenwerte von \bgroup\color{demo}$ A$\egroup, die Menge \bgroup\color{demo}$ \operatorname{Ker}(\lambda \,\operatorname{id}-A)$\egroup der Lösungen \bgroup\color{demo}$ v$\egroup von \bgroup\color{demo}$ (A-\lambda \,\operatorname{id})v=0$\egroup heißt Eigenraum zum Eigenwert \bgroup\color{demo}$ \lambda $\egroup, und dessen Elemente \bgroup\color{demo}$ v\ne 0$\egroup heißen Eigenvektoren von \bgroup\color{demo}$ A$\egroup zum Eigenwert \bgroup\color{demo}$ \lambda $\egroup.


14.1a Beispiel.
Wir betrachten die lineare Abbildung \bgroup\color{demo}$ A$\egroup \bgroup\color{demo}$ \mathbb{R}^2\to\mathbb{R}^2$\egroup mit Matrizendarstellung

\bgroup\color{demo}$\displaystyle \begin{pmatrix}
-1 & 2 \\
-3 & 4
\end{pmatrix}.
$\egroup

Um ihre Eigenwerte \bgroup\color{demo}$ \lambda \in\mathbb{R}$\egroup und Eigenvektoren \bgroup\color{demo}$ v=(x,y)\in\mathbb{R}^2$\egroup zu bestimmen, müssen das Gleichungssystem

\bgroup\color{demo}$\displaystyle \begin{pmatrix}
-1 & 2 \\
-3 & 4
\end{pmatrix...
...
x \\ y
\end{pmatrix}=
\lambda \,
\begin{pmatrix}
x \\ y
\end{pmatrix}$\egroup

oder äquivalent

\bgroup\color{demo}$\displaystyle \begin{pmatrix}
-1-\lambda & 2 \\
-3 & 4-\lam...
...in{pmatrix}
x \\ y
\end{pmatrix}=
\begin{pmatrix}
0 \\ 0
\end{pmatrix}$\egroup

lösen. Und zwar ist \bgroup\color{demo}$ \lambda $\egroup genau dann ein Eigenwert, wenn eine Lösung \bgroup\color{demo}$ (x,y)\ne 0$\egroup existiert, d.h. die Matrix

\bgroup\color{demo}$\displaystyle \begin{pmatrix}
-1-\lambda & 2 \\
-3 & 4-\lambda
\end{pmatrix}$\egroup

nicht invertierbar ist, also ihre Determinante (das charakteristische Polynom von \bgroup\color{demo}$ A$\egroup) verschwindet:

\bgroup\color{demo}$\displaystyle 0=\det\begin{pmatrix}
-1-\lambda & 2 \\
-3 & ...
...da
\end{pmatrix}=\lambda ^2-3\lambda +2=(\lambda -1)\cdot(\lambda -2).
$\egroup

Somit sind die einzigen beiden Eigenwerte \bgroup\color{demo}$ \lambda =1$\egroup und \bgroup\color{demo}$ \lambda =2$\egroup. Zugehörige Eigenvektoren \bgroup\color{demo}$ v=(x,y)$\egroup erhalten wir durch Lösen der Gleichung \bgroup\color{demo}$ A\cdot v=\lambda \,v$\egroup, also mittels Gauß durch Umformen von

$\displaystyle \begin{pmatrix}-1-\lambda & 2 & 0 \\ -3 & 4-\lambda & 0 \end{pmatrix}.$    

Für \bgroup\color{demo}$ \lambda =1$\egroup gibt das

$\displaystyle \begin{pmatrix}-2 & 2 & 0 \\ -3 & 3 & 0 \end{pmatrix} \mapsto \begin{pmatrix}1 & -1 & 0 \\ 0 & 0 & 0 \end{pmatrix}$    

und für \bgroup\color{demo}$ \lambda =2$\egroup

$\displaystyle \begin{pmatrix}-3 & 2 & 0 \\ -3 & 2 & 0 \end{pmatrix} \mapsto \begin{pmatrix}1 & -\frac{2}{3} & 0 \\ 0 & 0 & 0 \end{pmatrix}$    

Also bilden \bgroup\color{demo}$ b_1:=(1,1)$\egroup und \bgroup\color{demo}$ b_2:=(2,3)$\egroup eine Basis von Eigenvektoren zu den Eigenwerten \bgroup\color{demo}$ 1$\egroup und \bgroup\color{demo}$ 2$\egroup. Die Matrixdarstellung von \bgroup\color{demo}$ A$\egroup bzgl. der Basis \bgroup\color{demo}$ B=\{b_1,b_2\}$\egroup ist somit die Diagonalmatrix

\bgroup\color{demo}$\displaystyle \begin{pmatrix}
1 & 0 \\ 0 & 2
\end{pmatrix}=
...
...\ -3 & 4
\end{pmatrix}\cdot
\begin{pmatrix}
1 & 2 \\ 1 & 3
\end{pmatrix}$\egroup




14.2 Proposition.
Der höchste Koeffizient des charakteristischen Polynoms \bgroup\color{demo}$ p$\egroup jeder Matrix \bgroup\color{demo}$ A$\egroup ist 1, der konstante Koeffizient ist \bgroup\color{demo}$ (-1)^{\dim V}\det(A)$\egroup und der zweithöchste Koeffizient heißt \bgroup\color{demo}$ -\operatorname{Spur}(A)$\egroup. Falls \bgroup\color{demo}$ [A]$\egroup eine Matrizendarstellung von \bgroup\color{demo}$ A$\egroup ist, so ist \bgroup\color{demo}$ \operatorname{Spur}(A)=\operatorname{Spur}([A])=\sum_i a_{i,i}$\egroup.

Beweis. Um den Koeffizienten von \bgroup\color{demo}$ \lambda ^{n-1}$\egroup in \bgroup\color{demo}$ \det(\lambda \,\operatorname{id}-A)$\egroup zu bestimmen müssen wir nur jene Permutationen \bgroup\color{demo}$ \pi$\egroup betrachten, die \bgroup\color{demo}$ \pi(i)=i$\egroup mindestens \bgroup\color{demo}$ n-1$\egroup mal lieferen, d.h. \bgroup\color{demo}$ \pi=\operatorname{id}$\egroup. Der Koeffient von \bgroup\color{demo}$ \lambda ^{n-1}$\egroup in \bgroup\color{demo}$ \prod_{i=1}^n (\lambda -a_{i,i})$\egroup ist nun aber \bgroup\color{demo}$ \sum_i a_{i,i}$\egroup.     []




14.3 Proposition.
Die Eigenwerte \bgroup\color{demo}$ \lambda \in\mathbb{C}$\egroup einer Isometrie erfüllen \bgroup\color{demo}$ \vert\lambda \vert=1$\egroup.
Die Eigenwerte einer Spiegelung sind \bgroup\color{demo}$ \pm 1$\egroup, die Eigenvektoren zu \bgroup\color{demo}$ +1$\egroup bilden die Fixpunktmenge und der Eigenraum zu \bgroup\color{demo}$ -1$\egroup wird von \bgroup\color{demo}$ v$\egroup erzeugt.

Beweis. \bgroup\color{demo}$ U$\egroup eine Isometrie und \bgroup\color{demo}$ \lambda $\egroup ein Eigenwert mit Eigenvektor \bgroup\color{demo}$ v\ne 0$\egroup. Dann ist \bgroup\color{demo}$ \Vert x\Vert=\Vert U(x)\Vert=\Vert\lambda \,x\Vert=\vert\lambda \vert\,\Vert x\Vert$\egroup und somit \bgroup\color{demo}$ \vert\lambda \vert=1$\egroup.

Sei eine Spiegelung \bgroup\color{demo}$ x\mapsto x-2\langle x\vert v\rangle v$\egroup an \bgroup\color{demo}$ \{v\}^\perp$\egroup gegeben. Für \bgroup\color{demo}$ \lambda =1$\egroup sind die Eigenwerte genau jene \bgroup\color{demo}$ x$\egroup mit \bgroup\color{demo}$ x-2\langle x\vert v\rangle v=x$\egroup, d.h. \bgroup\color{demo}$ x\perp v$\egroup. Für \bgroup\color{demo}$ \lambda \ne 1$\egroup sind die Eigenwerte genau jene \bgroup\color{demo}$ x$\egroup mit \bgroup\color{demo}$ x-2\langle x\vert v\rangle v=\lambda \,x$\egroup, d.h. \bgroup\color{demo}$ (1-\lambda )\,x=2\langle x\vert v\rangle\,v$\egroup also o.B.d.A. \bgroup\color{demo}$ x=v$\egroup und \bgroup\color{demo}$ (1-\lambda )=2$\egroup, d.h. \bgroup\color{demo}$ \lambda =-1$\egroup.     []


14.4 Beispiel.
Die Eigenwerte einer Drehung um den Winkel \bgroup\color{demo}$ \varphi $\egroup sind gegeben durch

$\displaystyle p(\lambda )$ $\displaystyle = \lambda ^2 -\lambda \operatorname{Spur A} + \det(A) = \lambda ^2 - 2 \lambda \, \cos\varphi + 1,$    

also \bgroup\color{demo}$ \lambda _{\pm}=\cos\varphi \pm\sqrt{\cos^2\varphi -1}=\cos\varphi \pm i\sin\varphi $\egroup. Es gibt also nur dann reelle Eigenvektoren, wenn \bgroup\color{demo}$ \varphi \in \mathbb{Z}\,\pi$\egroup liegt, d.h. die Punktspiegelung um 0 beschreibt. Dennoch sind die Vektoren \bgroup\color{demo}$ \binom{\pm i}{1}$\egroup komplexe Eigenvektoren zu den komplexen Eigenwerten \bgroup\color{demo}$ \cos\varphi \pm i\,\sin\varphi $\egroup und \bgroup\color{demo}$ U^{-1}\cdot A\cdot U=\begin{pmatrix}\lambda _+ & 0 \\ 0 & \lambda _- \end{pmatrix}$\egroup bezüglich der invertierbaren Matrix \bgroup\color{demo}$ U=\begin{pmatrix}i & -1 \\ 1 & 1 \end{pmatrix}$\egroup.




14.6 Lemma.
Alle Eigenwerte symmetrischer Matrizen \bgroup\color{demo}$ A\in L_\mathbb{R}(n,n)$\egroup sind reell.

Beweis. Es sei \bgroup\color{demo}$ 0\ne x\in\mathbb{C}^n$\egroup ein Eigenvektor zum Eigenwert \bgroup\color{demo}$ \lambda $\egroup, d.h. \bgroup\color{demo}$ A\cdot x=\lambda \,x$\egroup. Dann ist \bgroup\color{demo}$ 0=x^t\cdot (A^t-A)\cdot \overline{x}=x^t\cdot A^t\cdot \ove...
...\overline{\lambda \,x}
= (\lambda -\overline{\lambda })\,\vert x\vert^2
$\egroup und somit \bgroup\color{demo}$ \overline{\lambda }=\lambda $\egroup, d.h. \bgroup\color{demo}$ \lambda $\egroup ist reell.     []




14.7 Lemma.
Eigenvektoren zu verschiedenen Eigenwerten \bgroup\color{demo}$ \lambda \ne\mu$\egroup einer symmetrischen Matrix \bgroup\color{demo}$ A\in L_\mathbb{R}(n,n)$\egroup stehen zueinander orthogonal.

Beweis. Es sei \bgroup\color{demo}$ A\,x=\lambda \,x$\egroup und \bgroup\color{demo}$ A\,y=\mu\,y$\egroup. Dann ist \bgroup\color{demo}$ \lambda ,\mu\in\mathbb{R}$\egroup und somit

$\displaystyle (\lambda -\mu)\,\langle x\vert y\rangle$ $\displaystyle = \langle \lambda x\vert y\rangle - \langle x\vert\mu y\rangle = \langle A x\vert y\rangle - \langle x\vert A y\rangle = 0$    

Aus \bgroup\color{demo}$ \lambda \ne\mu$\egroup folgt somit \bgroup\color{demo}$ \langle x\vert y\rangle=0$\egroup.     []




14.8 Proposition.
Jede symmetrische \bgroup\color{demo}$ A\in L_\mathbb{R}(n,n)$\egroup besitzt eine orthonormal-Basis von Eigenvektoren \bgroup\color{demo}$ u_1,\dots,u_n$\egroup. Es ist somit

\bgroup\color{demo}$\displaystyle U^{-1}\cdot A\cdot U=\begin{pmatrix}\lambda _1 & & 0 \\ & \ddots & \\ 0 & & \lambda _n\end{pmatrix}$\egroup

eine Diagonalmatrix, wobei \bgroup\color{demo}$ U$\egroup die Matrix mit Spalten \bgroup\color{demo}$ u_1,\dots,u_n$\egroup ist.

Beweis. Sei \bgroup\color{demo}$ V$\egroup der von allen Eigenvektoren von \bgroup\color{demo}$ A$\egroup erzeugte Teilraum von \bgroup\color{demo}$ \mathbb{R}^n$\egroup. Offensichtlich ist \bgroup\color{demo}$ A(V)\subseteq V$\egroup. Sei \bgroup\color{demo}$ V^\perp$\egroup sein orthogonales Komplement \bgroup\color{demo}$ V^\perp:=\{w\in\mathbb{R}^n:w\perp v\forall v\in V\}$\egroup. Dann gilt auch \bgroup\color{demo}$ A(V^\perp)\subseteq V^\perp$\egroup, denn

\bgroup\color{demo}$\displaystyle \langle Aw\vert v\rangle = \langle w\vert A^tv\rangle = \langle w\vert Av\rangle =0
$\egroup

Falls \bgroup\color{demo}$ V\ne \mathbb{R}^n$\egroup, d.h. \bgroup\color{demo}$ V^\perp\ne\{0\}$\egroup, dann ist \bgroup\color{demo}$ A\vert _{V^\perp}$\egroup eine symmetrische Abbildung auf \bgroup\color{demo}$ V^\perp$\egroup besitzt also nach dem oben Gesagten einen Eigenvektor \bgroup\color{demo}$ w\in V^\perp$\egroup zu einen nach (14.6) reellen Eigenwert, ein Widerspruch dazu, daß alle Eigenvektoren von \bgroup\color{demo}$ A$\egroup in \bgroup\color{demo}$ V$\egroup enthalten sind. Wir wählen nun eine Basis von Eigenvektoren. Jene in verschiedenen Eigenräumen stehen nach dem oben gesagten orthogonal aufeinander. Auf die im gleichen Eigenraum liegenden Eigenvektoren wenden wir das Gram-Schmidt'sche Orthonormalisierungsverfahren an und erhalten eine Orthonormalbasis von Eigenvektoren \bgroup\color{demo}$ u_i$\egroup zu den Eigenwerten \bgroup\color{demo}$ \lambda _i$\egroup. Beachte, daß die \bgroup\color{demo}$ \lambda _i$\egroup nicht paarweise verschieden sein müssen. Die Abbildung \bgroup\color{demo}$ U$\egroup, welche \bgroup\color{demo}$ e_i$\egroup auf \bgroup\color{demo}$ u_i$\egroup abbildet, ist somit orthogonal. Nun betrachten wir \bgroup\color{demo}$ U^{-1}\o A\o U$\egroup mit \bgroup\color{demo}$ e_i\mapsto u_i\mapsto \lambda _i\,u_i\mapsto \lambda _i\,e_i$\egroup, also eine Diagonalmatrix mit Eintragungen \bgroup\color{demo}$ \lambda _i$\egroup.     []




14.8a Folgerung.
Es sei \bgroup\color{demo}$ A\in L_\mathbb{R}(n,n)$\egroup invertierbar, dann ist das Bild der Sphäre \bgroup\color{demo}$ S:=\{x\in\mathbb{R}^n:\vert x\vert=1\}$\egroup ein Ellipsoid, genau gesagt gibt es eine orthonormal-Basis von Eigenvektoren \bgroup\color{demo}$ v_j$\egroup von \bgroup\color{demo}$ AA^t$\egroup mit zugehörigen Eigenwerten \bgroup\color{demo}$ \lambda _j>0$\egroup, s.d.

\bgroup\color{demo}$\displaystyle A(S)=\Bigl\{\sum_j y_j\,v_j\in\mathbb{R}^n: \sum_j \frac{(y_j)^2}{\lambda _j}=1\Bigr\}
$\egroup

ist.

Beweis. Es ist \bgroup\color{demo}$ A(S):=\{y:A^{-1}(y)\in S\}=\{y:\vert A^{-1}(y)\vert=1\}$\egroup. Sei \bgroup\color{demo}$ B:=A^{-1}$\egroup, dann ist

\bgroup\color{demo}$\displaystyle \vert A^{-1}(y)\vert^2=\langle B(y)\vert B(y)\rangle =\langle y\vert B^t\,B\,y \rangle
$\egroup

Da \bgroup\color{demo}$ B^tB$\egroup symmetrisch ist, existiert nach (14.8) eine orthonormal-Basis von Eigenvektoren \bgroup\color{demo}$ v_j$\egroup von \bgroup\color{demo}$ B^tB$\egroup zu Eigenwerten \bgroup\color{demo}$ \mu_j$\egroup. Diese sind dann auch Eigenvektoren von \bgroup\color{demo}$ (B^tB)^{-1}=B^{-1}(B^{-1})^t=A\,A^t$\egroup zu den Eigenvektoren \bgroup\color{demo}$ \lambda _j:=\mu_j^{-1}=1/\mu_j$\egroup. Somit ist \bgroup\color{demo}$ S(A)$\egroup gegeben durch jene \bgroup\color{demo}$ y=\sum_j y_j\,v_j$\egroup mit

\bgroup\color{demo}$\displaystyle 1=\Bigl\langle \sum_i y_i\,v_i\Bigm\vert B^t B...
..._j\rangle
= \sum_{j} \mu_j\,(y_j)^2=\sum_j \frac{(y_j)^2}{\lambda _j}.
$\egroup

Insbesonders ist \bgroup\color{demo}$ 0<\vert B(y_j)\vert^2=\langle y_j\vert B(y_j)\rangle =\mu_j\,\vert y_j\vert^2=\mu_j$\egroup und somit auch \bgroup\color{demo}$ \lambda _j>0$\egroup.     []

\includegraphics[scale=1.2]{pic-1050}


14.9 Bemerkung. Jordan'sche Normalform.
Allgemeine Matrizen \bgroup\color{demo}$ A\in L_\mathbb{C}(n,n)$\egroup lassen sich aber nicht immer durch Konjugation mit einer invertierbaren Matrix auf Diagonalgestalt bringen, wie obige Beispiele zeigen. Dennoch läßt sich zeigen, daß folgendes erreicht werden kann: Es sei \bgroup\color{demo}$ A\in L_\mathbb{C}(n,n)$\egroup und \bgroup\color{demo}$ \lambda _1,\dots,\lambda _n$\egroup die Eigenwerte in ihrer Vielfachheit angeschrieben. Dann existiert ein linearer Isomorphismus \bgroup\color{demo}$ U$\egroup für welchen

\bgroup\color{demo}$\displaystyle U^{-1} \cdot A\cdot U =
\begin{pmatrix}
\lamb...
...\ddots & b_{n-1,n} \\
0 & \hdots &\hdots & 0 & \lambda _n
\end{pmatrix}$\egroup

gilt und die \bgroup\color{demo}$ b_{i,i+1}\in \{0,1\}$\egroup liegen.

Ein erster Schritt um dies zu zeigen ist der




14.10 Satz von Cayley-Hamilton.
Es sei \bgroup\color{demo}$ p:t\mapsto \sum_{k\leq n}p_k t^k$\egroup das charakteristische Polynom von \bgroup\color{demo}$ A$\egroup. Dann ist \bgroup\color{demo}$ p(A):=\sum_{k=0}^n p_k A^k=0$\egroup.

Beweis. Es sei \bgroup\color{demo}$ C_\lambda :=\lambda \operatorname{id}-A$\egroup. Dann ist

\bgroup\color{demo}$\displaystyle p(\lambda )\,\operatorname{id}= \det(C_\lambda )\,\operatorname{id}=\operatorname{Adj}(C_\lambda )\,C_\lambda
$\egroup

Die Adjungierte \bgroup\color{demo}$ \operatorname{Adj}(C_\lambda )$\egroup ist selbst ein Polynom \bgroup\color{demo}$ \sum_{k<n} C_k\,\lambda ^k$\egroup in \bgroup\color{demo}$ \lambda $\egroup vom Grad \bgroup\color{demo}$ \leq m-1$\egroup mit Koeffizienten \bgroup\color{demo}$ C_k$\egroup im Ring \bgroup\color{demo}$ L_\mathbb{K}(m,m)$\egroup. Somit ist

\bgroup\color{demo}$\displaystyle \sum_{k\leq m}\lambda ^k\,p_k\,\operatorname{id}
= \sum_{k<m} C_k\,\lambda ^k (\lambda \,\operatorname{id}-A)
$\egroup

Koeffizientenvergleich liefert:

$\displaystyle p_m\,\operatorname{id}$ $\displaystyle = C_{m-1}\,\operatorname{id}$    
$\displaystyle p_{m-1}\,\operatorname{id}$ $\displaystyle = C_{m-2}\,\operatorname{id}- C_{m-1}\,A$    
  $\displaystyle \vdots$    
$\displaystyle p_1\,\operatorname{id}$ $\displaystyle = C_{0}\,\operatorname{id}- C_{1}\,A$    
$\displaystyle p_0\,\operatorname{id}$ $\displaystyle = \phantom{C_{0}\,\operatorname{id}}- C_{0}\,A$    

Nun multiplizieren wir die entsprechenden Gleichungen mit \bgroup\color{demo}$ A^k$\egroup, summieren sie auf und erhalten:

\bgroup\color{demo}$\displaystyle p(A):=\sum_{k=0}^m p_k\,A^k = \sum_k (C_{k-1}\,\operatorname{id}-C_k\,A)\,A^k=0
$\egroup

    []


14.11 Bemerkung.
Falls \bgroup\color{demo}$ A$\egroup regulär ist, so ist \bgroup\color{demo}$ \det(A)\ne 0$\egroup und somit \bgroup\color{demo}$ A^{-1}$\egroup aus \bgroup\color{demo}$ 0=p(A)=A^n-\operatorname{Spur}(A)\,A^{n-1}+\dots\pm\det(A)$\egroup berechenbar.

Andreas Kriegl 2002-02-01