10 Lineare Abbildungen und Matrizen

Um nun lineare Vektorräume mit einander in Beziehung setzen zu können, benötigen derartige Abbildungen zwischen diesen, die uns erlauben die Rechnungen die wir für die Vektoren eines Vektorraums durchgeführt haben entsprechend auf die Bilder dieser Vektoren in einen anderen Vektorraum zu übertragen.


10.1 Definition.
Unter einer linearen Abbildung (man sagt auch Homomorphismus oder kurz Morphismus dafür) zwischen Vektorräumen \bgroup\color{demo}$ V$\egroup und \bgroup\color{demo}$ W$\egroup versteht man eine Abbildung \bgroup\color{demo}$ A:V\to W$\egroup die folgendes erfüllt

\bgroup\color{demo}\includegraphics[scale=0.5]{pic-1013}\egroup         \bgroup\color{demo}\includegraphics[scale=0.5]{pic-1014}\egroup

Es ist also egal ob man zuerst addiert bzw. skalarmultipliziert und dann die Abbildung \bgroup\color{demo}$ A$\egroup anwendet oder umgekehrt vorgeht.


10.2 Beispiele.


10.3 Definition.
Wie bei allgemeinen Abbildungen spielt natürlich auch bei linearen Abbildungen die Injektivität, die Surjektivität und vor allem die Bijektivität ein große Rolle. Man nennt eine Abbildung \bgroup\color{demo}$ A:V\to W$\egroup zwischen Vektorräumen

Falls \bgroup\color{demo}$ A$\egroup ein Isomorphismus ist, so ist auch die Umkehrabbildung \bgroup\color{demo}$ A^{-1}$\egroup linear, denn sei \bgroup\color{demo}$ w,w'\in W$\egroup und \bgroup\color{demo}$ \lambda \in\mathbb{K}$\egroup. Es sei \bgroup\color{demo}$ v:=A^{-1}(w)$\egroup und \bgroup\color{demo}$ v'=A^{-1}(w')$\egroup. Dann ist \bgroup\color{demo}$ A(v+\lambda \,v')=A(v)+\lambda \,A(v')=w+\lambda \, w'$\egroup und somit \bgroup\color{demo}$ A^{-1}(w)+\lambda \, A^{-1}(w')=v+\lambda \,v'=A^{-1}(A(v+\lambda \,v'))=A^{-1}(w+\lambda \,w')$\egroup.




10.4 Lemma.
Es sei \bgroup\color{demo}$ A:V\to W$\egroup linear. Dann ist der Kern \bgroup\color{demo}$ \operatorname{Ker}(A):=\{x\in V:A(x)=0\}$\egroup von \bgroup\color{demo}$ A$\egroup ein Teilvektorraum von \bgroup\color{demo}$ V$\egroup.

Dies zeigt wegen (10.2) nochmals 8.7 und 8.9.

Beweis. Seien \bgroup\color{demo}$ v,v'\in\operatorname{Ker}(A)$\egroup und \bgroup\color{demo}$ \lambda \in\mathbb{K}$\egroup. Dann ist \bgroup\color{demo}$ A(v+\lambda \,v')=A(v)+\lambda \,A(v')=0$\egroup, also auch \bgroup\color{demo}$ v+\lambda \,v'\in \operatorname{Ker}(A)$\egroup.     []




10.5 Lemma.
Eine lineare Abbildung \bgroup\color{demo}$ A:V\to W$\egroup ist genau dann injektiv, wenn \bgroup\color{demo}$ \operatorname{Ker}(A)=\{0\}$\egroup ist.

Beweis. ( \bgroup\color{demo}$ \Rightarrow$\egroup) Es sei \bgroup\color{demo}$ v\in\operatorname{Ker}(A)$\egroup, also \bgroup\color{demo}$ A(v)=0=A(0)$\egroup. Falls \bgroup\color{demo}$ A$\egroup injektiv ist, so folgt daraus \bgroup\color{demo}$ v=0$\egroup, also \bgroup\color{demo}$ \operatorname{Ker}(A)\subseteq \{0\}$\egroup. Die andere Inklusion ist trivial.

( \bgroup\color{demo}$ \Leftarrow$\egroup) Es sei \bgroup\color{demo}$ \operatorname{Ker}(A)=\{0\}$\egroup und \bgroup\color{demo}$ A(v)=A(v')$\egroup. Dann ist \bgroup\color{demo}$ A(v-v')=A(v)-A(v')=0$\egroup und somit \bgroup\color{demo}$ v-v'\in\operatorname{Ker}(A)=\{0\}$\egroup, also \bgroup\color{demo}$ v=v'$\egroup. D.h. \bgroup\color{demo}$ A$\egroup ist injektiv.     []




10.6 Lemma.
Es sei \bgroup\color{demo}$ A:V\to W$\egroup linear. Dann ist das Bild \bgroup\color{demo}$ \operatorname{Bild}(A):=\{A(x):x\in V\}$\egroup von \bgroup\color{demo}$ A$\egroup ein Teilvektorraum von \bgroup\color{demo}$ W$\egroup.

Beweis. Es sei \bgroup\color{demo}$ w,w'\in \operatorname{Bild}(A)$\egroup und \bgroup\color{demo}$ \lambda \in\mathbb{K}$\egroup. D.h. es existieren \bgroup\color{demo}$ v,v'\in V$\egroup mit \bgroup\color{demo}$ A(v)=w$\egroup und \bgroup\color{demo}$ A(v')=w'$\egroup. Dann gilt \bgroup\color{demo}$ \operatorname{Bild}(A)\ni A(v+\lambda \,v')=A(v)+\lambda \,A(v')=w+\lambda \,w'$\egroup, also ist \bgroup\color{demo}$ \operatorname{Bild}(A)$\egroup ein Teilvektorraum.     []

Die folgende Proposition zeigt, daß es genügt eine lineare Abbildung \bgroup\color{demo}$ f:V\to W$\egroup an nur sehr wenigen Stellen \bgroup\color{demo}$ b\in V$\egroup zu kennen, um sie an allen Vektoren \bgroup\color{demo}$ v\in
V$\egroup berechnen zu können.



10.7 Proposition.
Es sei \bgroup\color{demo}$ B$\egroup eine Basis des Vektorraums \bgroup\color{demo}$ V$\egroup und \bgroup\color{demo}$ f:B\to W$\egroup eine Abbildung in einen Vektorraum \bgroup\color{demo}$ W$\egroup. Dann existiert eine eindeutig bestimmte lineare Abbildung \bgroup\color{demo}$ \tilde f:V\to W$\egroup mit den vorgegebenen Werten \bgroup\color{demo}$ f(b)$\egroup auf den Basis-Vektoren \bgroup\color{demo}$ b\in B$\egroup, d.h. mit \bgroup\color{demo}$ \tilde f\vert _B=f$\egroup.

Beweis. Da \bgroup\color{demo}$ B$\egroup eine Basis ist, besitzt jedes \bgroup\color{demo}$ v\in
V$\egroup eine eindeutig bestimmte Darstellung \bgroup\color{demo}$ v=\sum_{b\in B}\lambda _b\, b$\egroup mit Koeffizienten \bgroup\color{demo}$ \lambda _b\in\mathbb{K}$\egroup. Es sei \bgroup\color{demo}$ \tilde f:V\to W$\egroup wie gefordert, dann ist

\bgroup\color{demo}$\displaystyle \tilde f(v)
=\tilde f\Bigl(\sum_{b\in B}\lambd...
...
=\sum_{b\in B}\lambda _b\, \tilde f(b)
=\sum_{b\in B}\lambda _b\, f(b)
$\egroup

und somit eindeutig durch \bgroup\color{demo}$ f$\egroup bestimmt. Umgekehrt definiert diese Formel eine lineare Abbildung \bgroup\color{demo}$ \tilde f:V\to W$\egroup, denn für \bgroup\color{demo}$ v=\sum_{b\in B}\lambda _b\, b$\egroup und \bgroup\color{demo}$ w=\sum_{b\in B}\mu_b\, b$\egroup und \bgroup\color{demo}$ \rho \in\mathbb{K}$\egroup ist \bgroup\color{demo}$ v+\rho \,w=\sum_{b\in B}(\lambda _b+\rho \,\mu_b)\, b$\egroup und somit

$\displaystyle \tilde f(v+\rho \, w)$ $\displaystyle =\sum_{b\in B} (\lambda _b+\rho \,\mu_b)\,f(b)$    
  $\displaystyle =\sum_{b\in B}\lambda _b\,f(b)+\rho \,\sum_{b\in B}\mu_b\, f(b) =\tilde f(v)+\rho \,\tilde f(w)$    

    []




10.16 Proposition.
Es sei eine lineare Abbildung \bgroup\color{demo}$ I:\mathbb{K}^n\to V$\egroup gegeben und \bgroup\color{demo}$ B=(v_1,\dots,v_n)$\egroup die Bilder \bgroup\color{demo}$ v_i:=I(e_i)$\egroup der Standard-Basis. Dann gilt:

Im letzteren Fall bezeichnen wir die Inverse zu \bgroup\color{demo}$ I$\egroup mit \bgroup\color{demo}$ x\mapsto [x]_{B}:=(x_1,\dots,x_n)$\egroup, und nennen \bgroup\color{demo}$ [x]_B$\egroup die Koordinaten(darstellung) von \bgroup\color{demo}$ x\in V$\egroup bzgl. der Basis \bgroup\color{demo}$ B$\egroup.

Beweis. Die Abbildung \bgroup\color{demo}$ I$\egroup ist nach (10.7) durch \bgroup\color{demo}$ (x_1,\dots,x_n)\mapsto\sum_{k=1}^n x_kv_k$\egroup gegeben. Ist ist offensichtlich genau dann surjektiv, wenn \bgroup\color{demo}$ B=\{v_1,\dots,v_n\}$\egroup ein Erzeugenden-System ist. Sie ist injektiv, genau dann wenn ihr Kern \bgroup\color{demo}$ \{0\}$\egroup ist, d.h. \bgroup\color{demo}$ \sum_k x_kv_k=0$\egroup die Aussage \bgroup\color{demo}$ x_k=0\forall k$\egroup zur Folge hat, also wenn \bgroup\color{demo}$ B$\egroup linear unabhängig ist. Somit ist die Abbildung genau dann ein Isomorphismus, wenn \bgroup\color{demo}$ B$\egroup eine Basis ist.     []

Etwas allgemeiner gilt folgendes:




10.8 Proposition.
Es sei \bgroup\color{demo}$ f:V\to W$\egroup eine lineare Abbildung zwischen Vektorräumen.

1.
$ f$ ist surjektiv $ \Leftrightarrow$ für ein/jedes Erzeugenden-System $ B$ von $ V$ ist $ f(B)$ eines von $ W$.
2.
$ f$ ist injektiv $ \Leftrightarrow$ für jede linear unabhängige Menge $ B$ von $ V$ ist $ f(B)$ linear unabhängig in $ W$.
3.
$ f$ ist bijektiv $ \Leftrightarrow$ für jede Basis $ B$ von $ V$ ist $ f(B)$ eine Basis von $ W$.

Beweis. (1) ist klar, da \bgroup\color{demo}$ \langle f(B)\rangle=f(\langle B\rangle)=f(V)$\egroup.

(2) Es sei \bgroup\color{demo}$ f$\egroup injektiv und \bgroup\color{demo}$ B\subseteq V$\egroup linear unabhängig mit \bgroup\color{demo}$ 0=\sum_{y\in f(B)}\lambda _y\,y$\egroup. Da \bgroup\color{demo}$ f$\egroup injektiv ist existiert zu jedem \bgroup\color{demo}$ y\in f(B)$\egroup ein eindeutiges \bgroup\color{demo}$ x\in B$\egroup mit \bgroup\color{demo}$ f(x)=y$\egroup. Somit ist \bgroup\color{demo}$ 0=\sum_{x\in B}\lambda _{f(x)}\,f(x)=f(\sum_{x\in B}\lambda _{f(x)}\,x)$\egroup. Da \bgroup\color{demo}$ f$\egroup injektiv ist, ist also \bgroup\color{demo}$ \sum_{x\in B}\lambda _{f(x)}\,x=0$\egroup und, da \bgroup\color{demo}$ B$\egroup linear unabhängig ist, ist \bgroup\color{demo}$ \lambda _{f(x)}=0$\egroup für alle \bgroup\color{demo}$ x\in X$\egroup, also \bgroup\color{demo}$ \lambda _y=0$\egroup für alle \bgroup\color{demo}$ y\in f(X)$\egroup, d.h. \bgroup\color{demo}$ f(B)$\egroup ist linear unabhängig.

Falls \bgroup\color{demo}$ f$\egroup nicht injektiv ist, so existiert ein \bgroup\color{demo}$ v\ne 0$\egroup mit \bgroup\color{demo}$ f(v)=0$\egroup, also ist \bgroup\color{demo}$ \{v\}$\egroup linear unabhängig aber \bgroup\color{demo}$ \{f(v)\}=\{0\}$\egroup linear abhängig.

(3) Ist \bgroup\color{demo}$ f$\egroup bijektiv und \bgroup\color{demo}$ B$\egroup eine Basis, dann ist \bgroup\color{demo}$ f(B)$\egroup eine Basis nach (1) und (2). Umgekehrt sei das Bild jeder Basis eine Basis. Dann ist \bgroup\color{demo}$ f$\egroup surjektiv nach (1) aber auch injektiv nach (2), denn sei \bgroup\color{demo}$ A\subseteq V$\egroup linear unabhängig. Dann existiert nach (9.13.2) eine Basis \bgroup\color{demo}$ B\supseteq A$\egroup. Somit ist nach Voraussetzung auch \bgroup\color{demo}$ f(B)$\egroup eine Basis, also linear unabhängig und ebenso die Teilmenge \bgroup\color{demo}$ f(A)\subseteq f(B)$\egroup.     []

Beachte, daß es in (2) und (3) nicht genügt für ein \bgroup\color{demo}$ B$\egroup die Aussage zu haben. Denn es ist \bgroup\color{demo}$ \sum:\mathbb{R}^2\to\mathbb{R}$\egroup, \bgroup\color{demo}$ (x,y)\mapsto x+y$\egroup nicht injektiv, dennoch ist \bgroup\color{demo}$ B:=\{e_1,e_2\}$\egroup eine Basis in \bgroup\color{demo}$ \mathbb{R}^2$\egroup und \bgroup\color{demo}$ f(B)=\{1\}$\egroup eine solche von \bgroup\color{demo}$ \mathbb{R}$\egroup.




10.9 Folgerung.
Es seien \bgroup\color{demo}$ V$\egroup und \bgroup\color{demo}$ V'$\egroup Vektorräume. Dann gilt:

  1. $ \exists f:V\to V'$ injektiv und linear $ \Leftrightarrow$ $ \dim(V)\leq \dim(V')$.
  2. $ \exists f:V\to V'$ surjektiv und linear $ \Leftrightarrow$ $ \dim(V)\geq \dim(V')$.
  3. $ \exists f:V\to V'$ bijektiv und linear $ \Leftrightarrow$ $ \dim(V)=\dim(V')$.
Insbesonders ist jeder Vektorraum über \bgroup\color{demo}$ \mathbb{K}$\egroup isomorph zum Raum \bgroup\color{demo}$ \mathbb{K}^{(\dim V)}:=\{x\in\mathbb{K}^{\dim V}:x(i)=0$\egroup für fast alle \bgroup\color{demo}$ i\}$\egroup.

Beweis. Sei \bgroup\color{demo}$ B$\egroup eine Basis von \bgroup\color{demo}$ V$\egroup.

(1) Falls \bgroup\color{demo}$ f$\egroup injektiv ist, so ist \bgroup\color{demo}$ f(B)$\egroup linear unabhängig, also \bgroup\color{demo}$ \dim(V)=\vert B\vert=\vert f(B)\vert\leq \dim(V')$\egroup nach (9.13.4). Umgekehrt sei \bgroup\color{demo}$ B'$\egroup eine Basis von \bgroup\color{demo}$ V'$\egroup mit \bgroup\color{demo}$ \vert B'\vert=\dim(V')\geq \dim(V)\geq \vert B\vert$\egroup, d.h. es existiert eine injektive Abbildung \bgroup\color{demo}$ f: B\to B'$\egroup. Wir erweitern diese nach (10.7) zu einer linearen Abbildung \bgroup\color{demo}$ \tilde f:V\to V'$\egroup. Diese ist injektiv, denn aus \bgroup\color{demo}$ 0=\tilde f(\sum_{b\in B}\lambda _b\, b)=\sum_{b\in B}\lambda _b f(b)=
\sum_{b'\in B'}\mu_{b'}\,b'$\egroup, wobei \bgroup\color{demo}$ \mu_{f(b)}=\lambda _b$\egroup und \bgroup\color{demo}$ \mu_{b'}=0$\egroup falls \bgroup\color{demo}$ b'\in B'\setminus f(B)$\egroup ist. Da \bgroup\color{demo}$ B'$\egroup eine Basis ist sind alle \bgroup\color{demo}$ \mu$\egroup und damit alle \bgroup\color{demo}$ \lambda $\egroup gleich 0.

(2) Falls \bgroup\color{demo}$ f$\egroup surjektiv ist, so ist \bgroup\color{demo}$ f(B)$\egroup ein Erzeugenden-System, also \bgroup\color{demo}$ \dim(V)=\vert B\vert\geq \dim(V')$\egroup nach (9.13.5). Umgekehrt sei \bgroup\color{demo}$ B'$\egroup eine Basis von \bgroup\color{demo}$ V'$\egroup mit \bgroup\color{demo}$ \vert B'\vert=\dim(V')\leq \dim(V)= \vert B\vert$\egroup, d.h. es existiert eine surjektive Abbildung \bgroup\color{demo}$ f: B\to B'$\egroup (eine Inverse zur injektiven Abbildung \bgroup\color{demo}$ B\hookrightarrow B'$\egroup). Wir erweitern diese nach (10.7) zu einer linearen Abbildung \bgroup\color{demo}$ \tilde f:V\to V'$\egroup. Diese ist surjektiv, denn jeder Erzeuger \bgroup\color{demo}$ b'\in B'$\egroup wird von \bgroup\color{demo}$ f$\egroup und damit auch von \bgroup\color{demo}$ \tilde f$\egroup getroffen.

(3) folgt nun aus (1) und (2). Falls \bgroup\color{demo}$ B$\egroup und \bgroup\color{demo}$ B'$\egroup gleichmächtig sind, so existiert eine bijektive Abbildung \bgroup\color{demo}$ f: B\to B'$\egroup und diese induziert wie in (1) und (2) einen linearen Isomorphismus.

Beachte, daß die Funktionen \bgroup\color{demo}$ e^x:=\chi _{\{x\}}\in\mathbb{K}^{(X)}$\egroup eine Basis bilden: Erzeugenden-System ist klar und aus \bgroup\color{demo}$ 0=\sum_{x\in X}\lambda _x\,e^x$\egroup folgt \bgroup\color{demo}$ 0=0(y)=(\sum_{x\in X}\lambda _x\,e^x)(y)=\sum_{x\in X}\lambda _x\,\de_{x,y}=\lambda _y$\egroup für alle \bgroup\color{demo}$ y\in X$\egroup.     []




10.15 Folgerung.
Isomorphe (endlich dimensionale) Vektorräume haben die selbe Dimension und umgekehrt.

Beweis. \bgroup\color{demo}$ (\Rightarrow)$\egroup Isomorphismen bewahren nach (10.8) Basen.

\bgroup\color{demo}$ (\Leftarrow)$\egroup Nach (10.16) ist \bgroup\color{demo}$ V\cong \mathbb{K}^{\dim(V)}=\mathbb{K}^{\dim(V')}\cong V'$\egroup.     []




10.10 Lemma.
Es sei \bgroup\color{demo}$ W\subseteq V$\egroup ein linearer Teilraum eines Vektorraums \bgroup\color{demo}$ V$\egroup. Wir betrachten die Äquivalenzrelation die durch \bgroup\color{demo}$ v\sim v':\Leftrightarrow
v-v'\in W$\egroup gegeben ist. Die von \bgroup\color{demo}$ v\in
V$\egroup erzeugte Äquivalenzklasse ist \bgroup\color{demo}$ [v]_{\sim}=v+W=\{v+w:w\in
W\}$\egroup. Die Menge der Äquivalenzklassen wird mit \bgroup\color{demo}$ V/W:=V/{\sim}$\egroup bezeichnet. Schließlich sei \bgroup\color{demo}$ \pi:V\to V/W$\egroup die Abbildung \bgroup\color{demo}$ v\mapsto v+W$\egroup. Dann existieren eindeutig bestimmte Operationen \bgroup\color{demo}$ +:V/W\times V/W\to V/W$\egroup und \bgroup\color{demo}$ \cdot :\mathbb{K}\times V/W\to V/W$\egroup die \bgroup\color{demo}$ V/W$\egroup zu einem Vektorraum und \bgroup\color{demo}$ \pi:V\to V/W$\egroup zu einer linearen Abbildung machen.

Beweis. Damit \bgroup\color{demo}$ \pi$\egroup eine lineare Abbildung ist, müssen wir die Operationen wie folgt definieren:

$\displaystyle [v]_{\sim} + [v']_{\sim}$ $\displaystyle := [v+v']_{\sim}$    
$\displaystyle \lambda \cdot [v]_{\sim}$ $\displaystyle := [\lambda \cdot v]_{\sim}$    

Es ist nun eine einfache Rechnung, daß \bgroup\color{demo}$ V/W$\egroup damit zu einen Vektorraum über \bgroup\color{demo}$ \mathbb{K}$\egroup und \bgroup\color{demo}$ \pi$\egroup linear wird.     []




10.11 Proposition.
Es sei \bgroup\color{demo}$ W\subseteq V$\egroup ein linearer Teilraum eines Vektorraums. Dann gilt:

  1. $ \dim(W)\leq\dim(V)$
  2. $ \dim(W)=\dim(V)<{\infty}$ $ \Leftrightarrow$ $ W=V$
  3. $ \dim(V)=\dim(V/W)+\dim(W)$

Beweis. (1) Die Inklusion ist eine injektive lineare Abbildung \bgroup\color{demo}$ W\to V$\egroup, also \bgroup\color{demo}$ \dim(W)\leq \dim(V)$\egroup nach (10.9).

(2) Sei \bgroup\color{demo}$ B$\egroup eine Basis von \bgroup\color{demo}$ W$\egroup, also linear unabhängig in \bgroup\color{demo}$ V$\egroup und wegen \bgroup\color{demo}$ \vert B\vert=\dim(W)=\dim(V)$\egroup auch eine Basis von \bgroup\color{demo}$ V$\egroup nach (9.13.2) und damit \bgroup\color{demo}$ V=\langle B\rangle =W$\egroup.

(3) Sei \bgroup\color{demo}$ B$\egroup eine Basis von \bgroup\color{demo}$ W$\egroup, also linear unabhängig in \bgroup\color{demo}$ V$\egroup und somit nach (9.13.2) zu einer Basis \bgroup\color{demo}$ B'$\egroup von \bgroup\color{demo}$ V$\egroup erweiterbar. Dann ist \bgroup\color{demo}$ \pi(B'\setminus B)$\egroup eine Basis von \bgroup\color{demo}$ V/W$\egroup, denn da die kanonische Abbildung \bgroup\color{demo}$ \pi:V\to V/W$\egroup, \bgroup\color{demo}$ v\mapsto [v]:=v+W$\egroup, surjektiv ist, ist \bgroup\color{demo}$ \pi( B')=\pi( B)\cup \pi( B'\setminus B)=
\{0\}\cup \pi( B'\setminus B)$\egroup ein Erzeugenden-System nach (10.8.1), also auch \bgroup\color{demo}$ \pi(B'\setminus B)$\egroup eines. Es ist \bgroup\color{demo}$ \pi(B'\setminus B)$\egroup auch linear unabhängig, denn aus \bgroup\color{demo}$ 0=\sum_{b'\in B'\setminus B}\lambda _{b'}\,\pi(b')
=\pi(\sum_{b'\in B'\setminus B}\lambda _{b'}\,b')$\egroup folgt \bgroup\color{demo}$ \sum_{b'\in B'\setminus B}\lambda _{b'}\,b'\in\operatorname{Ker}(\pi)=W=\langle B\rangle$\egroup, also existieren \bgroup\color{demo}$ \lambda _b$\egroup für alle \bgroup\color{demo}$ b\in B$\egroup mit \bgroup\color{demo}$ \sum_{b'\in B'\setminus B}\lambda _{b'}\,b'=\sum_{b\in B}\lambda _{b}\,b$\egroup und da \bgroup\color{demo}$ B'$\egroup linear unabhängig ist, sind alle \bgroup\color{demo}$ \lambda $\egroup gleich 0. Aso ist \bgroup\color{demo}$ \dim(W)=\vert B\vert$\egroup, \bgroup\color{demo}$ \dim(V)=\vert B'\vert=\vert B'\vert+\vert B'\setminus B\vert$\egroup und \bgroup\color{demo}$ \dim(V/W)=\vert\pi(B'\setminus B)\vert=\vert B'\setminus B\vert$\egroup.     []




10.12 Proposition.
Es seien \bgroup\color{demo}$ W_1$\egroup und \bgroup\color{demo}$ W_2$\egroup zwei lineare Teilräume von \bgroup\color{demo}$ V$\egroup. Dann induziert die Inklusion \bgroup\color{demo}$ W\hookrightarrow W+W'$\egroup einen Isomorphismus \bgroup\color{demo}$ W/(W\cap W')\cong (W+W')/W'$\egroup. Insbesonders ist \bgroup\color{demo}$ \dim(W+W')+\dim(W\cap W')=\dim(W)+\dim(W')$\egroup

Beweis. Betrachte das Diagramm

\bgroup\color{demo}$\displaystyle \xymatrix{
W'\ar@{->}[0,1] &W+W'\ar@{->}[0,1] ...
...[0,1] &W\ar@{->}[0,1] \ar@{->}[-1,0] &
W/(W\cap W')\ar@{.>}[-1,0] \\
} $\egroup

Die induzierte Abbildung existiert, da \bgroup\color{demo}$ W'\supseteq W\cap W'$\egroup. Sie ist surjektiv, denn sei \bgroup\color{demo}$ v\in W+W'$\egroup, d.h. \bgroup\color{demo}$ v=w+w'$\egroup und somit ist \bgroup\color{demo}$ v+W'=w+W'$\egroup das Bild von \bgroup\color{demo}$ w+(W\cap W')$\egroup. Sie ist auch injektiv, denn aus \bgroup\color{demo}$ w+W'=W'$\egroup mit \bgroup\color{demo}$ w\in W$\egroup folgt \bgroup\color{demo}$ w\in W'\cap W$\egroup, also \bgroup\color{demo}$ w+(W'\cap W)=W'\cap W$\egroup.     []




10.13 Proposition.
Es seien \bgroup\color{demo}$ W$\egroup und \bgroup\color{demo}$ W'$\egroup Teilräume von \bgroup\color{demo}$ V$\egroup. Dann sind äquivalent:

  1. $ V=W\oplus W'$, d.h. $ V=W+W'$ und $ W\cap W'=\{0\}$;
  2. $ \forall v\in V\exists! w\in W,w'\in W':v=w+w'$;
  3. $ \pi\vert _{W'}:W'\to V/W$ ist ein Isomorphismus.
Ist \bgroup\color{demo}$ V$\egroup endlich dimensional, so ist dies weiter äquivalent zu
4.
$ W\cap W'=\{0\}$ und $ \dim(V)=\dim(W)+\dim(W')$.

Beweis. (1 \bgroup\color{demo}$ \Rightarrow$\egroup3) Da \bgroup\color{demo}$ W\cap W'=\{0\}$\egroup ist, ist \bgroup\color{demo}$ \pi:W'\to W'/W\cap W'$\egroup ein Isomorphismus und nach (10.12) ist \bgroup\color{demo}$ W'/W\cap W'\to (W+W')/W=V/W$\egroup ebenfalls einer, also auch die Zusammensetzung \bgroup\color{demo}$ W'\to V/W$\egroup.

(3 \bgroup\color{demo}$ \Rightarrow$\egroup2) Sei \bgroup\color{demo}$ v\in
V$\egroup. Wegen der Surjektivität von \bgroup\color{demo}$ W'\to V/W$\egroup existiert ein \bgroup\color{demo}$ w'\in W'$\egroup mit \bgroup\color{demo}$ w'+W=v+W$\egroup, also ist \bgroup\color{demo}$ w:=v-w'\in W$\egroup und somit \bgroup\color{demo}$ v=w+w'$\egroup. Angenommen \bgroup\color{demo}$ v=u+u'$\egroup ist eine zweite Darstellung. Dann ist \bgroup\color{demo}$ w'+W=u'+W$\egroup und somit \bgroup\color{demo}$ w'=u'$\egroup wegen der Injektivität von \bgroup\color{demo}$ W'\to V/W$\egroup und damit auch \bgroup\color{demo}$ w=u$\egroup.

(2 \bgroup\color{demo}$ \Rightarrow$\egroup1) Offensichtlich ist \bgroup\color{demo}$ W+W'=V$\egroup wegen \bgroup\color{demo}$ v=w+w'$\egroup. Sei \bgroup\color{demo}$ v\in W\cap W'$\egroup, dann sind \bgroup\color{demo}$ v=v+0$\egroup und \bgroup\color{demo}$ v=0+v$\egroup zwei Darstellungen, also \bgroup\color{demo}$ v=0$\egroup.

(1,3 \bgroup\color{demo}$ \Rightarrow$\egroup4) Aus \bgroup\color{demo}$ W'\cong V/W$\egroup folgt \bgroup\color{demo}$ \dim(V)=\dim(W)+\dim(V/W)=\dim(W)+\dim(W')$\egroup und \bgroup\color{demo}$ W\cap W'=\{0\}$\egroup nach (1).

(4 \bgroup\color{demo}$ \Rightarrow$\egroup3) Aus \bgroup\color{demo}$ W\cap W'=\{0\}$\egroup folgt die Injektivität von \bgroup\color{demo}$ \pi\vert _{W'}$\egroup. Wegen \bgroup\color{demo}$ \dim(W')=\dim(V)-\dim(W)=\dim(V/W)$\egroup folgt auch die Surjektivität.     []




10.14 Proposition.
Es sei \bgroup\color{demo}$ A:V\to W$\egroup linear. Dann induziert \bgroup\color{demo}$ A$\egroup einen Isomorphismus \bgroup\color{demo}$ V/\operatorname{Ker}(A)\to\operatorname{Bild}(A)$\egroup.

Folglich ist \bgroup\color{demo}$ \dim(V)=\dim(\operatorname{Ker}(A))+\dim(\operatorname{Bild(A)})$\egroup.

Beweis. Offensichtlich ist \bgroup\color{demo}$ A(x)=A(x')$\egroup \bgroup\color{demo}$ \Leftrightarrow$\egroup \bgroup\color{demo}$ x-x'\in\operatorname{Ker}$\egroup. Die dadurch induzierte Äquivalenzrelation \bgroup\color{demo}$ \sim$\egroup (vermöge \bgroup\color{demo}$ x\sim
x'\Leftrightarrow A(x)=A(x')$\egroup) hat also gerade \bgroup\color{demo}$ V/\operatorname{Ker}(A)$\egroup als Äquivalenzklassen, d.h. \bgroup\color{demo}$ V/\operatorname{Ker}(A)=V/{\sim}$\egroup. Andererseits induziert jede Abbildung \bgroup\color{demo}$ A:V\to W$\egroup eine Bijektion \bgroup\color{demo}$ \tilde A:V/{\sim}\to A(V)$\egroup vermöge \bgroup\color{demo}$ \tilde A([x]_{\sim}):=A(x)$\egroup: Wohldefiniertheit und Surjektivität ist offensichtlich. Injektivität folgt, da \bgroup\color{demo}$ \tilde A([x])=\tilde A([x'])$\egroup \bgroup\color{demo}$ \Leftrightarrow$\egroup \bgroup\color{demo}$ A(x)=A(x')$\egroup \bgroup\color{demo}$ \Leftrightarrow$\egroup \bgroup\color{demo}$ x\sim x'$\egroup \bgroup\color{demo}$ \Leftrightarrow$\egroup \bgroup\color{demo}$ [x]=[x']$\egroup gilt.

Die Linearität von \bgroup\color{demo}$ V/\operatorname{Ker}(A)\cong V/{\sim}\overset{\tilde{A}}{\to} A(V)$\egroup ergibt sich aus der Definition der Vektorraum-Operationen auf \bgroup\color{demo}$ V/{\operatorname{Ker}(A)}$\egroup.

Die Dimensionsformel ergibt sich vermöge (10.11.3) aus \bgroup\color{demo}$ \dim(V)=\dim(\operatorname{Ker}A)+\dim(V/\operatorname{Ker}A)
=\dim(\operatorname{Ker}A)+\dim(\operatorname{Bild}A)$\egroup.     []


10.17 Definition.
Der Rang einer linearen Abbildung \bgroup\color{demo}$ A:V\to W$\egroup ist definiert als

\bgroup\color{demo}$\displaystyle \operatorname{rang}(A):=\dim(A(V))=\dim(V)-\dim(\operatorname{Ker}(A)).
$\egroup


10.19 Matrizen versus linearer Abbildungen.
Die Abbildung \bgroup\color{demo}$ L_{\mathbb{K}}(q,p)\mapsto L_{\mathbb{K}}(\mathbb{K}^q,\mathbb{K}^p)$\egroup gegeben durch \bgroup\color{demo}$ (a_{i,j})\mapsto A$\egroup mit

\bgroup\color{demo}$\displaystyle A(x) := \begin{pmatrix}a_{1,1} & \hdots & a_{1...
...=1}^p a_{1,j}\,x_j \\ \vdots \\
\sum_{j=1}^p a_{p,j}\,x_j \end{pmatrix}$\egroup

ist eine Bijektion. Insbesonders ist

\bgroup\color{demo}$\displaystyle A(e_j)= \begin{pmatrix}a_{1,j} \\ \vdots \\ a_{p,j} \end{pmatrix}$\egroup

gerade die \bgroup\color{demo}$ j$\egroup-te Spalte von \bgroup\color{demo}$ A$\egroup. Die Inverse dazu bildet \bgroup\color{demo}$ A\in L$\egroup ab auf die Matrix \bgroup\color{demo}$ [A]:=(a_{i,j})_{i,j}$\egroup deren Spaltenvektoren \bgroup\color{demo}$ (a_{i,j})_{i=1,\dots,p}$\egroup gerade die Bilder \bgroup\color{demo}$ A(e_j)$\egroup sind, d.h.

\bgroup\color{demo}$\displaystyle A(e_j)=\sum_{i=1}^p a_{i,j}\,e_i
$\egroup

und somit ist

\bgroup\color{demo}$\displaystyle A(x)=A\biggl(\sum_j x_j e_j\biggr)
= \sum_j x_...
..._j \sum_i a_{i,j}\,e_i
= \sum_i \biggl(\sum_j a_{i,j}\,x_j\biggr)\,e_i.
$\egroup

Man nennt \bgroup\color{demo}$ [A]$\egroup die Matrixdarstellung oder auch Koordinatendarstellung der linearen Abbildung \bgroup\color{demo}$ A$\egroup.


10.20 Matrixdarstellung linearer Abbildungen.
Es sei \bgroup\color{demo}$ V$\egroup ein Vektorraum über \bgroup\color{demo}$ \mathbb{K}$\egroup mit endlicher Basis \bgroup\color{demo}$ B=\{b_1,\dots,b_p\}\subseteq V$\egroup. Dann ist die Abbildung \bgroup\color{demo}$ (x_1,\dots,x_p)\mapsto \sum_{k=1}^p x_k\,b_k$\egroup ein Isomorphismus \bgroup\color{demo}$ \mathbb{K}^{\dim V}\to V$\egroup nach (10.16). Seine Inverse bezeichnen wir mit \bgroup\color{demo}$ I_{ B}:x\mapsto [x]_{ B}:=(x_1,\dots,x_p)$\egroup.

Sei nun \bgroup\color{demo}$ f:V\to V'$\egroup eine lineare Abbildung zwischen Vektorräumen über \bgroup\color{demo}$ \mathbb{K}$\egroup und seien \bgroup\color{demo}$ B$\egroup und \bgroup\color{demo}$ B'$\egroup Basen von \bgroup\color{demo}$ V$\egroup und \bgroup\color{demo}$ V'$\egroup. Dann können wir statt \bgroup\color{demo}$ f$\egroup die lineare Abbildung \bgroup\color{demo}$ \tilde f:= I_{ B'}\o f\o I_{ B}^{-1}:\mathbb{K}^{\dim V}\to\mathbb{K}^{\dim V'}$\egroup betrachten:

\bgroup\color{demo}$\displaystyle \xymatrix{
b_j\ar@{->}[0,3]_{f} \ar@{->}[3,0]^...
...m V'} & \\
e_j\ar@{.>}[0,3]^{\tilde f} & & &\sum_i f_{i,j}\,e_j' \\
} $\egroup

Die Matrixdarstellung \bgroup\color{demo}$ [\tilde f]$\egroup von \bgroup\color{demo}$ \tilde f$\egroup heißt dann Matrixdarstellung von \bgroup\color{demo}$ f$\egroup bzgl. \bgroup\color{demo}$ B$\egroup und \bgroup\color{demo}$ B'$\egroup und wird als

\bgroup\color{demo}$\displaystyle [f]_{ B, B'}:=[\tilde f]=[I_{ B'}\o f\o I_{ B}^{-1}]
$\egroup

bezeichnet. Der Eintrag \bgroup\color{demo}$ f_{i,j}$\egroup in der \bgroup\color{demo}$ i$\egroup-ten Zeile und \bgroup\color{demo}$ j$\egroup-ten Spalte von \bgroup\color{demo}$ [f]_{ B, B'}$\egroup ist gerade der \bgroup\color{demo}$ i$\egroup-te Koeffizient von \bgroup\color{demo}$ \tilde f(e_j)$\egroup bzgl. der Basis \bgroup\color{demo}$ \{\dots,e_i,\dots\}$\egroup oder äquivalent von \bgroup\color{demo}$ f(b_j)$\egroup bzgl. der Basis \bgroup\color{demo}$ \{\dots,b_i',\dots\}= B'$\egroup.




10.18 Satz.
Die Menge \bgroup\color{demo}$ L(V,W)=L_{\mathbb{K}}(V,W)$\egroup der linearen Abbildungen zwischen Vektorräumen \bgroup\color{demo}$ V$\egroup und \bgroup\color{demo}$ W$\egroup über \bgroup\color{demo}$ \mathbb{K}$\egroup ist selbst ein Vektorraum.
Ebenso ist die Menge \bgroup\color{demo}$ L_\mathbb{K}(q,p)$\egroup der $ p\times q$-Matrizen ein solcher.
Für je eine Basis \bgroup\color{demo}$ B$\egroup von \bgroup\color{demo}$ V$\egroup und \bgroup\color{demo}$ C$\egroup von \bgroup\color{demo}$ W$\egroup haben wir einen Isomorphismus von Vektorräumen

\bgroup\color{demo}$\displaystyle L(V,W)\cong L_{\mathbb{K}}(\dim(V),\dim(W))
$\egroup

gegeben durch \bgroup\color{demo}$ A\mapsto [A]_{B,B'}$\egroup.

Beweis. Falls \bgroup\color{demo}$ W$\egroup ein Vektorraum ist, so auch die Menge \bgroup\color{demo}$ W^X$\egroup aller Abbildungen \bgroup\color{demo}$ f:X\to W$\egroup bzgl. \bgroup\color{demo}$ (f+g)(x):=f(x)+g(x)$\egroup und \bgroup\color{demo}$ (\lambda \,f)(x):=\lambda \,f(x)$\egroup ein solcher.
Der Raum \bgroup\color{demo}$ L(V,W)$\egroup ist ein Teilvektorraum von \bgroup\color{demo}$ W^V$\egroup, denn die Summe und das skalare Vielfache linearer Abbildungen ist wieder linear.
Die Menge aller \bgroup\color{demo}$ p\times q$\egroup-Matrizen mit Eintragungen aus \bgroup\color{demo}$ \mathbb{K}$\egroup bezeichnen wir mit \bgroup\color{demo}$ L_{\mathbb{K}}(q,p)\cong \mathbb{K}^{p\cdot q}$\egroup und ist ebenfalls ein Vektorraum bzgl. der komponentenweisen Operationen.
Die Matrix \bgroup\color{demo}$ [A]_{B,B'}$\egroup hat die Koordinatendarstellung \bgroup\color{demo}$ [A(b_j)]_{B'}$\egroup von \bgroup\color{demo}$ A(b_j)$\egroup als \bgroup\color{demo}$ j$\egroup-te Spalte. Da sowohl \bgroup\color{demo}$ A\mapsto A(b_j)$\egroup als auch \bgroup\color{demo}$ x'\mapsto [x']_{B'}$\egroup linear ist, ist die in (10.20) beschriebene Bijektion \bgroup\color{demo}$ A\mapsto [A]_{B,B'}$\egroup ein Isomorphismus.
    []

Dieser Isomorphismus zwischen linearen Abbildungen und Matrizen erlaubt uns zwischen diesen Konzepten hin- und herzuwechseln. Insbesonders können wir Begriffe (wie z.B. Injektivität, Surjektivität, Kern, Rang, etc. ) die wir für lineare Abbildungen eingeführt haben auch für Matrizen verwenden.




10.21 Folgerung.
Der Rang einer linearen Abbildung \bgroup\color{demo}$ A$\egroup ist maximale Anzahl linear unabhängiger Spaltenvektoren einer/jeder Matrixdarstellung von \bgroup\color{demo}$ A$\egroup.

Beweis. Es sei \bgroup\color{demo}$ B=(v_1,\dots,v_n)$\egroup eine Basis von \bgroup\color{demo}$ V$\egroup und \bgroup\color{demo}$ A:V\to W$\egroup linear. Dann ist \bgroup\color{demo}$ A(B)=(A(v_1),\dots, A(v_n))$\egroup ein Erzeugenden-System von \bgroup\color{demo}$ A(V)$\egroup. Die Dimension von \bgroup\color{demo}$ A(V)$\egroup ist also die Anzahl einer minimale erzeugende Teilmenge von \bgroup\color{demo}$ A(B)$\egroup, oder äquivalent die maximale Anzahl einer linear unabhängigen Teilmenge von \bgroup\color{demo}$ A(B)$\egroup der Spaltenvektoren von \bgroup\color{demo}$ [A]$\egroup.     []


10.22 Beispiel einer Matrixdarstellung.
Es sei \bgroup\color{demo}$ V:=\{(x,y,z)\in\mathbb{R}^3:x+y+z=0\}$\egroup und \bgroup\color{demo}$ A:V\to V$\egroup die Abbildung die jeden Vektor \bgroup\color{demo}$ v=(x,y,z)$\egroup in \bgroup\color{demo}$ V$\egroup den normal-Vektor \bgroup\color{demo}$ v\times
(1,1,1):=(y-z,z-x,x-y)$\egroup (siehe (14.12)) zuordnet. Als Basis \bgroup\color{demo}$ B=\{b_1,b_2\}$\egroup von \bgroup\color{demo}$ V$\egroup verwenden wir z.B. \bgroup\color{demo}$ b_1:=(1,-1,0)$\egroup und \bgroup\color{demo}$ b_2:=(1,0,-1)$\egroup. Dann ist \bgroup\color{demo}$ A(b_1)=(-1,-1,2)=b_1-2b_2$\egroup und \bgroup\color{demo}$ A(b_2)=(1,-2,1)=2b_1-b_2$\egroup und somit

\bgroup\color{demo}$\displaystyle [A]_{B,B}=\begin{pmatrix}1 & -2 \\ 2 & -1 \end{pmatrix}.
$\egroup

Als Abbildung \bgroup\color{demo}$ \mathbb{K}^2\to\mathbb{K}^2$\egroup ist dies nicht die übliche Zuordnung der Normalvektors \bgroup\color{demo}$ (x_1,x_2)\mapsto (-x_2,x_1)$\egroup - worum nicht? - Siehe (10.28a).


10.23 Matrizen-Multiplikation.
Die Komposition von linearen Abbildungen läßt sich in eine Multiplikation der entsprechenden Matrizen übersetzen. Dabei wird eine \bgroup\color{demo}$ p\times q$\egroup-Matrix \bgroup\color{demo}$ (a_{i,j})$\egroup mit einer \bgroup\color{demo}$ q\times r$\egroup-Matrix \bgroup\color{demo}$ (b_{j,k})$\egroup zur \bgroup\color{demo}$ p\times r$\egroup-Matrix \bgroup\color{demo}$ (c_{i,k})$\egroup mit \bgroup\color{demo}$ c_{i,k}:=\sum_j a_{i,j}\cdot b_{j,k}$\egroup aufmultipliziert. Also erhält man den Koeffizienten von \bgroup\color{demo}$ C$\egroup in der \bgroup\color{demo}$ i$\egroup-ten Zeile und \bgroup\color{demo}$ k$\egroup-ten Spalte durch komponentenweise Multiplikation der \bgroup\color{demo}$ i$\egroup-ten Zeile der 1.ten Matrix mit der \bgroup\color{demo}$ k$\egroup-ten Spalte der 2.ten Matrix und Aufsummieren dieser \bgroup\color{demo}$ q$\egroup vielen Produkte.

\begin{multline*}
\begin{pmatrix}
a_{1,1} & \dots & \dots & \dots & a_{1,q} \\
...
...,j}\, b_{j,k}
& \dots & \sum_j a_{p,j}\, b_{j,r}
\end{pmatrix}\end{multline*}

Es seien \bgroup\color{demo}$ A:V\to W$\egroup und \bgroup\color{demo}$ B:U\to V$\egroup linear und Basen \bgroup\color{demo}$ \mathcal{U}$\egroup, \bgroup\color{demo}$ \mathcal{V}$\egroup und \bgroup\color{demo}$ \mathcal{W}$\egroup auf \bgroup\color{demo}$ U$\egroup, \bgroup\color{demo}$ V$\egroup und \bgroup\color{demo}$ W$\egroup gegeben. Dann ist \bgroup\color{demo}$ [A\o B]_{\mathcal{U},\mathcal{W}}=[A]_{\mathcal{V},\mathcal{W}}\cdot [B]_{\mathcal{U},\mathcal{V}}$\egroup.

Beweis. Es sei \bgroup\color{demo}$ A:V\to W$\egroup und \bgroup\color{demo}$ B:U\to V$\egroup linear mit zugehörigen Matrizen \bgroup\color{demo}$ (a_{j,k})_{j,k}$\egroup und \bgroup\color{demo}$ (b_{i,j})_{i,j}$\egroup bzgl. Basen \bgroup\color{demo}$ (u_i)_i$\egroup von \bgroup\color{demo}$ U$\egroup, \bgroup\color{demo}$ (v_j)_j$\egroup von \bgroup\color{demo}$ V$\egroup und \bgroup\color{demo}$ (w_k)_k$\egroup von \bgroup\color{demo}$ W$\egroup. Wir wollen die zu \bgroup\color{demo}$ C:=A\o B$\egroup gehörige Matrix \bgroup\color{demo}$ (c_{i,k})_{i,k}$\egroup bestimmen. Also die Entwicklung von \bgroup\color{demo}$ C(u_i)=\sum_k c_{k,i}\,w_k$\egroup. Es ist \bgroup\color{demo}$ C(u_i)=A(B(u_i))=A(\sum_j b_{j,i}v_j)=\sum_j b_{j,i} A(v_j)...
..._j b_{j,i}\sum_k a_{k,j} w_k=\sum_k\Bigl(\sum_j a_{k,j} b_{j,i}\Bigr)w_k$\egroup, d.h. \bgroup\color{demo}$ c_{k,i}=\sum_j a_{k,j} b_{j,i}$\egroup.     []


Bemerkung.
Die in (10.24) definierte Matrizenmultplikation verallgemeinert die Wirkung von Matrizen \bgroup\color{demo}$ (a_{i,j})\in L_\mathbb{K}(n,m)$\egroup auf Vektoren \bgroup\color{demo}$ (x_1,\dots,x_n)\in \mathbb{K}^n$\egroup aus (10.2.3). Denn sei \bgroup\color{demo}$ A\in L(\mathbb{K}^n,\mathbb{K}^m)$\egroup die zugehörige lineare Abbildung also \bgroup\color{demo}$ [A]=(a_{i,j})_{i,j}$\egroup dann ist \bgroup\color{demo}$ [Ax]=[A]\cdot [x]$\egroup. Allgemeiner gilt somit für \bgroup\color{demo}$ A\in L(V,W)$\egroup bzgl. Basen \bgroup\color{demo}$ B$\egroup von \bgroup\color{demo}$ V$\egroup und \bgroup\color{demo}$ C$\egroup von \bgroup\color{demo}$ W$\egroup die Beziehung

\bgroup\color{demo}$\displaystyle [A(x)]_C = [A]_{B,C}\cdot [x]_B.
$\egroup




10.24 Proposition.
Es ist sowohl \bgroup\color{demo}$ L(V):=L(V,V)$\egroup also auch \bgroup\color{demo}$ L_\mathbb{K}(p,p)$\egroup ein Ring bezüglich Addition und Komposition, der sogenannte Endomorphismenring. Der lineare Isomorphismus \bgroup\color{demo}$ L(V)\cong L_\mathbb{K}(\dim(V),\dim(V))$\egroup ist ein Ring-Homomorphismus, d.h. auch mit der Multiplikation verträglich.

Beweis. Die Distributivität der Komposition bzgl. der 1. Variable gilt allgemein, jene bzgl. der 2. Variable hängt an der Linearität des 1. Arguments.

Die Ring-Homomorphie folgt aus (10.23).     []


10.25 Beispiel.
Wir betrachten Drehungen \bgroup\color{demo}$ f_\varphi $\egroup in der Ebene \bgroup\color{demo}$ E=\mathbb{R}^2$\egroup um den 0-Punkt und den Winkel \bgroup\color{demo}$ \varphi $\egroup. Es ist \bgroup\color{demo}$ f_\varphi :E\to E$\egroup homogen, denn Geraden \bgroup\color{demo}$ \{\lambda \,x:\lambda \in \mathbb{R}\}$\egroup werden auf Geraden abgebildet und Längen der Vektoren werden unter Drehungen erhalten, also ist \bgroup\color{demo}$ f_\varphi (\lambda \,x)\in \{\mu\,f_\varphi (x):\mu\in\mathbb{R}\}$\egroup, d.h. \bgroup\color{demo}$ \exists\mu:f_\varphi (\lambda \,x)=\mu\,f_\varphi (x)$\egroup, und somit \bgroup\color{demo}$ \vert\mu\vert\,\vert x\vert=\vert\mu\vert\,\vert f_\varphi ...
...\lambda \,x)\vert=\vert\lambda \,x\vert=\vert\lambda \vert\,\vert x\vert$\egroup, also \bgroup\color{demo}$ \lambda =\mu$\egroup, da die Reihenfolge von 0, \bgroup\color{demo}$ x$\egroup und \bgroup\color{demo}$ \lambda \,x$\egroup auf der von ihnen erzeugten Geraden unter \bgroup\color{demo}$ f$\egroup erhalten bleibt. Weiters ist \bgroup\color{demo}$ f_\varphi :E\to E$\egroup additiv, da Parallelogramme (mit den Ecken 0, \bgroup\color{demo}$ x_1$\egroup, \bgroup\color{demo}$ x_2$\egroup, \bgroup\color{demo}$ x_1+x_2$\egroup) auf ebensolche abgebildet werden, also \bgroup\color{demo}$ f_\varphi (x_1)+f_\varphi (x_2)=f_\varphi (x_1+x_2)$\egroup.

\includegraphics[scale=0.5]{pic-1047} \includegraphics[scale=0.5]{pic-1046}

Wir versuchen nun die Matrixdarstellung dieser linearen Abbildung zu bestimmen. Das Bild des 1. Einheitsvektors \bgroup\color{demo}$ e_1=(1,0)$\egroup ist \bgroup\color{demo}$ (\cos\varphi ,\sin\varphi )$\egroup und jenes des 2. Einheitsvektors \bgroup\color{demo}$ e_2=(0,1)$\egroup ist \bgroup\color{demo}$ (-\sin\varphi ,\cos\varphi )$\egroup. Die Matrix von \bgroup\color{demo}$ f_\varphi $\egroup ist folglich durch

\bgroup\color{demo}$\displaystyle \begin{pmatrix}
\cos\varphi & -\sin\varphi \\
\sin\varphi & \cos\varphi
\end{pmatrix}$\egroup

gegeben.

\includegraphics[scale=0.7]{pic-1018}

Beachte jedoch, daß die Matrixdarstellung \bgroup\color{demo}$ [f_\varphi ]_{B,B}$\egroup bezüglich anderer Basen keine so schöne Form mehr haben muß: Sei z.B. \bgroup\color{demo}$ B=\{b_1,b_2\}$\egroup mit \bgroup\color{demo}$ b_1=e_1$\egroup und \bgroup\color{demo}$ b_2=e_1+e+2$\egroup und somit \bgroup\color{demo}$ e_2=b_2-b_1$\egroup Dann ist

$\displaystyle f_\varphi (b_1)$ $\displaystyle = f_\varphi (e_1)=\cos\varphi \,e_1+\sin\varphi \,e_2$    
  $\displaystyle = \cos\varphi \,b_1+\sin\varphi \,(b_2-b_1) = (\cos\varphi -\sin\varphi )\,b_1+\sin\varphi \,b_2$    
$\displaystyle f_\varphi (b_2)$ $\displaystyle = f_\varphi (e_1+e_2) = f_\varphi (e_1)+f_\varphi (e_2)$    
  $\displaystyle = (\cos\varphi -\sin\varphi )\, e_1 + (\sin\varphi +\cos\varphi )\,e_2$    
  $\displaystyle = (\cos\varphi -\sin\varphi )\, b_1 + (\sin\varphi +\cos\varphi )\,(b_2-b_1)$    
  $\displaystyle = -2\sin\varphi \, b_1 + (\sin\varphi +\cos\varphi )\,b_2.$    

und somit ist

\bgroup\color{demo}$\displaystyle [f_\varphi ]_{B,B}=\Bigl([f(b_1)]_B,[f(b_2)]_B...
... -2\sin\varphi \\
\sin\varphi & \sin\varphi +\cos\varphi
\end{pmatrix}$\egroup


10.26 Additionstheoreme.
Die Zusammensetzung zweier Drehungen \bgroup\color{demo}$ f_\varphi $\egroup und \bgroup\color{demo}$ f_\psi $\egroup ist ebenfalls eine Drehung und zwar jene um den Winkel \bgroup\color{demo}$ \varphi +\psi $\egroup, d.h. \bgroup\color{demo}$ f_{\psi +\varphi }=f_\psi \o f_\varphi $\egroup. Die entsprechende Gleichung der zugehörigen Matrizen lautet wegen (10.23)

  $\displaystyle \begin{pmatrix}\cos(\psi +\varphi ) & -\sin(\psi +\varphi ) \\ \s...
...& -\sin(\varphi ) \\ \sin(\varphi ) & \phantom{-}\cos(\varphi ) \end{pmatrix} =$    
  $\displaystyle \quad= \begin{pmatrix}\cos(\psi )\cos(\varphi )-\sin(\psi )\sin(\...
... & \phantom{-}\cos(\psi )\cos(\varphi )-\sin(\psi )\sin(\varphi ) \end{pmatrix}$    

Ein Vergleich der Eintragungen liefert die Additionstheoreme für Sinus und Cosinus.


10.27 Beispiel.
Wir bestimmen nun alle invertierbaren \bgroup\color{demo}$ 2\times 2$\egroup-Matrizen

\bgroup\color{demo}$\displaystyle A=
\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}$\egroup

Wir suchen also Koeffizienten \bgroup\color{demo}$ x$\egroup, \bgroup\color{demo}$ y$\egroup, \bgroup\color{demo}$ z$\egroup und \bgroup\color{demo}$ t$\egroup mit

\bgroup\color{demo}$\displaystyle \begin{pmatrix}
x & y \\
z & t
\end{pmatrix}\...
...
c & d
\end{pmatrix}\cdot
\begin{pmatrix}
x & y \\
z & t
\end{pmatrix}$\egroup

Ausmultiplizieren und Vergleich der Koeffizienten liefert folgendes lineares Gleichungssystem in den Variablen \bgroup\color{demo}$ x$\egroup, \bgroup\color{demo}$ y$\egroup, \bgroup\color{demo}$ z$\egroup und \bgroup\color{demo}$ t$\egroup:

$\displaystyle x\,a+y\,c$ $\displaystyle = 1 = a\,x+b\,z$    
$\displaystyle x\,b+y\,d$ $\displaystyle = 0 = a\,y+b\,t$    
$\displaystyle z\,a+t\,c$ $\displaystyle = 0 = c\,x+d\,z$    
$\displaystyle z\,b+t\,d$ $\displaystyle = 1 = c\,y+d\,t$    

Daraus erhalten wir insbesonders die Gleichungen

$\displaystyle x\,(a\,d-b\,c)$ $\displaystyle = d$    
$\displaystyle y\,(a\,d-b\,c)$ $\displaystyle = -b$    
$\displaystyle z\,(a\,d-b\,c)$ $\displaystyle = -c$    
$\displaystyle t\,(a\,d-b\,c)$ $\displaystyle = a$    

Da ein invertierbares \bgroup\color{demo}$ A$\egroup nicht die 0-Matrix sein kann, muß \bgroup\color{demo}$ \Delta :=a\,d-b\, c$\egroup ungleich 0 sein und die Inverse somit durch

$\displaystyle A^{-1} = \frac1{a\,d-b\,c}\,\begin{pmatrix}d & -b \\ -c & a \end{pmatrix}$    

gegeben sein. Daß dies wirklich die Inverse ist, sieht man nun sofort durch Ausmultiplizieren.


10.28 Beispiel.
Wir betrachten den Vektorraum \bgroup\color{demo}$ \mathbb{R}[x]$\egroup der Polynome mit reellen Koeffizienten. Die Polynome \bgroup\color{demo}$ x\mapsto \sum_{k=0}^n p_k\,x^k$\egroup vom Grad \bgroup\color{demo}$ \leq n$\egroup bilden einen Teilraum \bgroup\color{demo}$ V_n:=\mathbb{R}[x]_{\leq n}$\egroup von \bgroup\color{demo}$ \mathbb{R}[x]$\egroup.

Das Differenzieren \bgroup\color{demo}$ D:V\to V$\egroup ist gegeben durch \bgroup\color{demo}$ D(p):x\mapsto \sum_{k} p_k\,k\,x^{k-1}$\egroup, d.h. die Basis-Vektoren \bgroup\color{demo}$ e_k:x\mapsto x^k$\egroup werden auf \bgroup\color{demo}$ D(e_k):x\mapsto k\,x^{k-1}$\egroup abgebildet, d.h.

\bgroup\color{demo}$\displaystyle D(e_k) = \begin{cases}0 & \text{für }k=0 \\
k\,e_{k-1} & \text{andernfalls.} \end{cases}$\egroup

Die Abbildung \bgroup\color{demo}$ I_{ B}\o D\o I_{ B}^{-1}$\egroup bildet somit \bgroup\color{demo}$ e_k$\egroup auf \bgroup\color{demo}$ k\,e_{k-1}$\egroup ab und ihre Matrixdarstellung \bgroup\color{demo}$ [D]_{ B, B}$\egroup ist

\bgroup\color{demo}$\displaystyle \begin{pmatrix}
0 & 1 & 0 & \hdots & 0\\
\vdo...
... & & & \ddots & n \\
0 & \hdots & \hdots & \hdots & 0 \\
\end{pmatrix}$\egroup


Ein weiteres Beispiel ist Multiplikation \bgroup\color{demo}$ M$\egroup mit einem Polynom \bgroup\color{demo}$ q$\egroup. Sei z.B. \bgroup\color{demo}$ q(x):=x+1$\egroup und \bgroup\color{demo}$ M(p):=p\cdot q$\egroup. Dann bildet \bgroup\color{demo}$ M:V_n\to V_{n+1}$\egroup das Basispolynom \bgroup\color{demo}$ e_k$\egroup auf \bgroup\color{demo}$ e_k+e_{k+1}$\egroup ab. Die Matrixdarstellung von \bgroup\color{demo}$ M$\egroup ist somit

\bgroup\color{demo}$\displaystyle \begin{pmatrix}
1 & 0 & \hdots & 0 \\
1 & 1 &...
... 0 \\
\vdots & \ddots & \ddots & 1 \\
0 & \hdots & 0 & 1
\end{pmatrix}$\egroup


Wir betrachten das Verschieben \bgroup\color{demo}$ T:V_n\to V_n$\egroup um den Wert \bgroup\color{demo}$ 1\in\mathbb{R}$\egroup gegeben durch \bgroup\color{demo}$ p\mapsto T(p):x\mapsto p(x-1)$\egroup. Wie sieht nun eine Matrixdarstellung von \bgroup\color{demo}$ T$\egroup aus. Die Bilder der standard-Basis sind \bgroup\color{demo}$ T(e_i):x\mapsto (x-1)^i=\sum_{k=0}^i \binom{i}{k}(-1)^{i-k}\,x^k$\egroup, also ist die Matrixdarstellung gegeben durch

\bgroup\color{demo}$\displaystyle \begin{pmatrix}
1 & -1 & 1 & \hdots & (-1)^n \...
...\ddots & \ddots & \vdots \\
0 & \hdots &\hdots &0 & 1 \\
\end{pmatrix}$\egroup


Ein anderes Beispiel ist die Zusammensetzung von rechts \bgroup\color{demo}$ Q:\mathbb{R}[x]_{\leq n}\to\mathbb{R}[x]_{\leq 2n}$\egroup, \bgroup\color{demo}$ p\mapsto Q(p):x\mapsto p(x^2+x)$\egroup, also \bgroup\color{demo}$ Q=q^*$\egroup, wobei \bgroup\color{demo}$ q:x\mapsto x^2+x$\egroup ist. Es ist

\bgroup\color{demo}$\displaystyle Q(e_i):x\mapsto (x^2+x)^i
=\sum_{k\leq i} \binom{i}{k}x^{2k}\,x^{i-k}
=\sum_{k\leq i} \binom{i}{k} x^{i+k},
$\egroup

also ist die zugehörige \bgroup\color{demo}$ (k+1)\times (2k+1)$\egroup-Matrix gegeben durch

\bgroup\color{demo}$\displaystyle \begin{pmatrix}
1 & 0 & \hdots & \hdots & \hdo...
...nom{n}{n-1} \\
0 & \hdots&\hdots&\hdots&\hdots & 0 & 1\\
\end{pmatrix}$\egroup


10.20a Basiswechsel.
Wir haben in (10.20) die Matrixdarstellung \bgroup\color{demo}$ [f]_{ B, B'}$\egroup einer linearen Abbildung \bgroup\color{demo}$ f:V\to V'$\egroup bzgl. Basen \bgroup\color{demo}$ B$\egroup auf \bgroup\color{demo}$ V$\egroup und \bgroup\color{demo}$ B'$\egroup auf \bgroup\color{demo}$ V'$\egroup als \bgroup\color{demo}$ [I_{B'}\o f \o I_B]$\egroup definiert. Sei nun eine zweite Basis \bgroup\color{demo}$ C$\egroup von \bgroup\color{demo}$ V$\egroup sowie und \bgroup\color{demo}$ C'$\egroup von \bgroup\color{demo}$ V'$\egroup gegeben. Der Zusammenhang zwischen \bgroup\color{demo}$ [f]_{ B, B'}$\egroup und \bgroup\color{demo}$ [f]_{C,C'}$\egroup ist durch folgendes Diagramm gegeben:

\bgroup\color{demo}$\displaystyle \xymatrix{
\mathbb{K}^{\dim V}\ar@{->}[0,3]_{ ...
...\ar@{.>}[
-2,0]^{ I_{ C}\o I_{ B}^{-1}} & & &\mathbb{K}^{\dim V'} \\
} $\egroup

Die Basiswechselabbildung \bgroup\color{demo}$ I_{ C}\o I_{ B}^{-1}$\egroup bildet die Basis-Vektoren \bgroup\color{demo}$ e_j$\egroup auf \bgroup\color{demo}$ b_j$\egroup und dann weiter auf \bgroup\color{demo}$ I_{ C}(b_j)$\egroup ab. Da wir nur \bgroup\color{demo}$ I_{ C}(c_i):=e_i$\egroup kennen drücken wir die \bgroup\color{demo}$ b_i$\egroup in der Basis \bgroup\color{demo}$ C=\{c_1,\dots,c_p\}$\egroup mit gewissen Koeffizienten \bgroup\color{demo}$ s_{i,j}$\egroup aus, d.h.

\bgroup\color{demo}$\displaystyle b_j=\sum_i s_{i,j}\, c_i
$\egroup

und erhalten \bgroup\color{demo}$ I_{ C}(b_j)=\sum_i s_{i,j}\,e_i$\egroup, d.h.

\bgroup\color{demo}$\displaystyle [\operatorname{id}]_{B,C}
=[ I_{ C}\o I_{ B}^{-1}]=(s_{i,j})_{i,j=1,\dots,p}.
$\egroup

Die obige Transformationsformel erhalten wir auch kürzer aus (10.23), denn danach ist

\bgroup\color{demo}$\displaystyle [f]_{B,B'}=[\operatorname{id}]_{C',B'}\cdot [f]_{C,C'}\cdot [\operatorname{id}]_{B,C}.
$\egroup

Betrachten wir nun die Abbildung \bgroup\color{demo}$ I$\egroup welche die \bgroup\color{demo}$ c_j$\egroup auf \bgroup\color{demo}$ b_j$\egroup abbildet. Bezüglich der Basis \bgroup\color{demo}$ C$\egroup auf Ziel- und Start-Raum sieht deren Matrixdarstellung wie folgt aus:

\bgroup\color{demo}$\displaystyle [I]_{ C, C}=[ I_{ C}\o I\o I_{ C}^{-1}]:
e_j\mapsto c_j\mapsto b_j=\sum_i s_{i,j}\,c_i \mapsto \sum_i s_{i,j}\,e_i,
$\egroup

ist also die Matrix \bgroup\color{demo}$ (s_{i,j})_{i,j=1,\dots,p}=[\operatorname{id}]_{ B, C}$\egroup. Schließlich ist

$\displaystyle [I]_{ B, B}$ $\displaystyle =[\operatorname{id}]_{ C, B}\cdot [I]_{ C, C}\cdot [\operatorname...
...peratorname{id}]_{ B, C}^{-1}\cdot [I]_{ C, C}\cdot [\operatorname{id}]_{ B, C}$    
  $\displaystyle =[I]_{ C, C}^{-1}\cdot [I]_{ C, C}\cdot [I]_{ C, C} =[I]_{ C, C}$    

Zusammengefaßt ist die Matrixdarstellung des Basiswechsel also

\bgroup\color{demo}$\displaystyle [I]_{C,C}=[I]_{B,B}=[\operatorname{id}]_{B,C}.
$\egroup

Insbesonders ist \bgroup\color{demo}$ [\operatorname{id}]_{C,B}=[I^{-1}]_{B,B}=[I]_{B,B}^{-1}=[\operatorname{id}]_{B,C}^{-1}$\egroup.


10.28a Beispiel zweier Matrixdarstellungen.
Sei \bgroup\color{demo}$ R_\varphi $\egroup die Drehung um einen Winkel \bgroup\color{demo}$ \varphi $\egroup in der Ebene \bgroup\color{demo}$ V:=\{(x,y,z)\in\mathbb{R}^3:x+y+z=1\}$\egroup um den Nullpunkt. Dies ist noch nicht wohldefiniert, da die Drehrichtung davon abhängt von welcher Seite aus man die Ebene \bgroup\color{demo}$ V$\egroup betrachtet. Wir wählen die Seite auf welcher der Vektor \bgroup\color{demo}$ (1,1,1)$\egroup liegt.

\includegraphics[scale=0.7]{pic-1048}

Eine Basis von \bgroup\color{demo}$ V$\egroup errät man leicht, z.b. \bgroup\color{demo}$ B=\{b_1,b_2\}$\egroup mit \bgroup\color{demo}$ b_1=(1,-1,0)$\egroup und \bgroup\color{demo}$ b_2=(1,0,-1)$\egroup. Bezüglich dieser Basis ist aber eine Drehung schwer zu beschreiben. Wir haben dies bislang nur in \bgroup\color{demo}$ \mathbb{R}^2$\egroup bzgl. der standard-Basis \bgroup\color{demo}$ \{e_1,e_2\}$\egroup gemacht. Um dies zu übertragen benötigen wir ein Basis \bgroup\color{demo}$ C=\{c_1,c_2\}$\egroup, wobei \bgroup\color{demo}$ c_1$\egroup ein Einheitsvektor ist, also z.B. \bgroup\color{demo}$ c_1:=\frac1{\sqrt{2}}(1,-1,0)$\egroup und \bgroup\color{demo}$ c_2$\egroup der um \bgroup\color{demo}$ 90^o$\egroup gedrehte Vektor ist. Ein Vektor \bgroup\color{demo}$ (x,y,z)\in V$\egroup ist genau dann normal auf \bgroup\color{demo}$ c_1$\egroup, wenn das innere Produkt (siehe (13.1))

\bgroup\color{demo}$\displaystyle \Biggl\langle
\begin{pmatrix}x \\ y \\ z \end...
... -1\\ 0 \end{pmatrix}
\Biggr\rangle
:= x\cdot 1 + y\cdot (-1)+z\cdot 0
$\egroup

gleich 0 ist, d.h. \bgroup\color{demo}$ x-y=0$\egroup und \bgroup\color{demo}$ x+y+z=0$\egroup, also ist \bgroup\color{demo}$ y=x$\egroup und \bgroup\color{demo}$ z=-2x$\egroup, d.h. der Vektor ist von der Form \bgroup\color{demo}$ (x,x,-2x)$\egroup und damit seine Länge 1 ist, muß \bgroup\color{demo}$ 1=x^2+x^2+(2x)^2=6x^2$\egroup, d.h. \bgroup\color{demo}$ x=\pm\frac1{\sqrt{6}}$\egroup sein. Der von \bgroup\color{demo}$ (1,1,1)$\egroup aus betrachtet um \bgroup\color{demo}$ +90^o$\egroup gedrehte Vektor ist also \bgroup\color{demo}$ c_2:=\frac1{\sqrt{6}}(1,1,-2)$\egroup.

Eine allgemeinere Methode die neue Basis \bgroup\color{demo}$ \{c_1,c_2\}$\egroup aus \bgroup\color{demo}$ \{b_1,b_2\}$\egroup zu erhalten ist das Gram-Schmidt'sche Orthonormalisierungsverfahren (siehe (13.9)). Wie zuvor setzt man \bgroup\color{demo}$ c_1:=\frac1{\vert b_1\vert}b_1$\egroup, wobei \bgroup\color{demo}$ \vert b_1\vert=\sqrt{2}$\egroup die Länge des Vektors \bgroup\color{demo}$ b_1$\egroup bezeichnet. Um nun \bgroup\color{demo}$ c_2$\egroup zu erhalten bestimmt man zuerst die Normalprojektion von \bgroup\color{demo}$ b_2$\egroup auf \bgroup\color{demo}$ c_1$\egroup. Diese hat Richtung \bgroup\color{demo}$ c_1$\egroup und als Länge das innere Produkt \bgroup\color{demo}$ \langle b_2\vert c_1\rangle$\egroup und ist somit durch \bgroup\color{demo}$ \langle b_2\vert c_1\rangle c_1$\egroup gegeben. Der Vektor

$\displaystyle b_2'$ $\displaystyle :=b_2-\langle b_2\vert c_1\rangle c_1$    
  $\displaystyle = \begin{pmatrix}1\\ 0\\ -1 \end{pmatrix} - \Biggl\langle \begin{...
...}1\\ -1\\ 0 \end{pmatrix} = \begin{pmatrix}\frac12\\ \frac12\\ -1 \end{pmatrix}$    

steht dann bereits normal auf \bgroup\color{demo}$ c_1$\egroup und \bgroup\color{demo}$ c_2:=\frac1{\vert b_2'\vert}b_2'=\frac{\sqrt{2}}{\sqrt{3}}(\frac{1}{2},\frac{1}{2},-1)$\egroup ist der gesuchte Normalvektor der Länge 1.

\includegraphics[scale=0.7]{pic-1045}

Bezüglich dieser Basis sieht also \bgroup\color{demo}$ R_\varphi $\egroup wie in (10.25) aus, d.h.

$\displaystyle R_\varphi (c_1)$ $\displaystyle =\cos(\varphi )\,c_1+\sin(\varphi )\,c_2$    
$\displaystyle R_\varphi (c_2)$ $\displaystyle =-\sin(\varphi )\,c_1+\cos(\varphi )\,c_2$    

Die Matrixdarstellung von \bgroup\color{demo}$ R_\varphi $\egroup bezüglich der Basis \bgroup\color{demo}$ C$\egroup ist somit

\bgroup\color{demo}$\displaystyle [R_\varphi ]_{ C, C}
= \begin{pmatrix}
\cos(\varphi ) & -\sin(\varphi ) \\
\sin(\varphi ) & \cos(\varphi )
\end{pmatrix}$\egroup

Um die Darstellung bezüglich der ursprünglich gewählten Basis \bgroup\color{demo}$ B$\egroup von \bgroup\color{demo}$ R_\varphi $\egroup zu bestimmen benötigen wir die Matrizen \bgroup\color{demo}$ [\operatorname{id}]_{B,C}$\egroup und \bgroup\color{demo}$ [\operatorname{id}]_{C,B}$\egroup der Basiswechsel bestimmen, denn es ist

\bgroup\color{demo}$\displaystyle [R_\varphi ]_{B,B}=[\operatorname{id}]_{C,B}\,[R_\varphi ]_{C,C}\,[\operatorname{id}]_{B,C}.
$\egroup

Die Matrix \bgroup\color{demo}$ [\operatorname{id}]_{B,C}$\egroup ist durch die Koeffizienten der \bgroup\color{demo}$ b_j$\egroup in der Basis \bgroup\color{demo}$ C$\egroup gegeben, also wegen

$\displaystyle b_1$ $\displaystyle = \vert b_1\vert\,c_1 = \sqrt{2}\,c_1+0\,c_2$    
$\displaystyle b_2$ $\displaystyle = \langle b_2\vert c_1\rangle\,c_1 + \vert b_2'\vert\,c_2= \frac1{\sqrt{2}}\,c_1+\frac{\sqrt{3}}{\sqrt{2}}\,c_2$    

ist

\bgroup\color{demo}$\displaystyle [\operatorname{id}]_{B,C}
=\begin{pmatrix}
\sqrt{2} & \frac1{\sqrt{2}} \\
0 & \frac{\sqrt{3}}{\sqrt{2}}
\end{pmatrix}.
$\egroup

Die Matrix \bgroup\color{demo}$ [\operatorname{id}]_{C,B}$\egroup erhalten wir entweder auf analoge Weise oder als Inverse von \bgroup\color{demo}$ [\operatorname{id}]_{C,B}$\egroup, d.h.

\bgroup\color{demo}$\displaystyle [\operatorname{id}]_{C,B}=[\operatorname{id}]_...
...{2}} & -\frac1{\sqrt{6}} \\
0 & \frac{\sqrt{2}}{\sqrt{3}}
\end{pmatrix}$\egroup

Damit erhalten wir schließlich die Matrixdarstellung von \bgroup\color{demo}$ R_\varphi $\egroup bzgl. \bgroup\color{demo}$ B$\egroup als

$\displaystyle [R_\varphi ]_{B,B}$ $\displaystyle = [\operatorname{id}]_{C,B} \cdot [R_\varphi ]_{C,C}\cdot [\operatorname{id}]_{B,C}$    
  $\displaystyle = \begin{pmatrix}\frac{1}{\sqrt{2}} & -\frac1{\sqrt{6}}\\ 0 & \fr...
...atrix}\sqrt{2} & \frac1{\sqrt{2}}\\ 0 & \frac{\sqrt{3}}{\sqrt{2}} \end{pmatrix}$    
  $\displaystyle = \begin{pmatrix}\cos(\varphi )-\frac{1}{\sqrt{3}}\sin(\varphi )&...
...sin(\varphi ) &\cos(\varphi )+\frac{1}{\sqrt{3}}\sin(\varphi ) \\ \end{pmatrix}$    

Wir können \bgroup\color{demo}$ R_\varphi $\egroup aber auch allgemeiner auffassen als Abbildung \bgroup\color{demo}$ \mathbb{R}^3\to\mathbb{R}^3$\egroup des Raums, die Punkte um die von \bgroup\color{demo}$ b_3:=(1,1,1)$\egroup erzeugte Achse um den Winkel \bgroup\color{demo}$ \varphi $\egroup beschreibt. Indem wir \bgroup\color{demo}$ b_3$\egroup normieren um \bgroup\color{demo}$ c_3:=\frac1{\sqrt{3}}(1,1,1)$\egroup zu bilden, erhalten wir eine Basis \bgroup\color{demo}$ C$\egroup bestehend aus den 3 gleich langen und aufeinander paarweise orthogonal stehenden Vektoren \bgroup\color{demo}$ c_1$\egroup, \bgroup\color{demo}$ c_2$\egroup und \bgroup\color{demo}$ c_3$\egroup. Die Matrixdarstellung von \bgroup\color{demo}$ R_\varphi $\egroup bezüglich dieser Basis sieht dann natürlich wie folgt aus, denn die 3.te Koordinate die den Normalabstand zur Ebene \bgroup\color{demo}$ V$\egroup beschreibt wird bei der Drehung nicht geändert:

\bgroup\color{demo}$\displaystyle [R_\varphi ]_{C,C}
=\begin{pmatrix}
\cos\varph...
...varphi & 0 \\
\sin\varphi & \cos\varphi & 0 \\
0 & 0 & 1
\end{pmatrix}$\egroup

Die Matrixdarstellung der Abbildung \bgroup\color{demo}$ I:e_i\mapsto c_i$\egroup ist

\bgroup\color{demo}$\displaystyle [I]=(c_1,c_2,c_3) =
\begin{pmatrix}
\frac1{\s...
...3}} \\
0 & -\frac{\sqrt{2}}{\sqrt{3}} & \frac1{\sqrt{3}}
\end{pmatrix}$\egroup

Man kann zeigen, daß jene von \bgroup\color{demo}$ I^{-1}$\egroup gerade durch Vertauschen der Zeilen und Spalten aus \bgroup\color{demo}$ I$\egroup hervorgeht, also durch

\bgroup\color{demo}$\displaystyle [I]^{-1}=I^t=
\begin{pmatrix}
\frac1{\sqrt{2}}...
...\
\frac1{\sqrt{3}} & \frac1{\sqrt{3}} & \frac1{\sqrt{3}}
\end{pmatrix}$\egroup

gegeben ist. Die Matrixdarstellung von \bgroup\color{demo}$ R_\varphi $\egroup bzgl. der Standardbasis ist somit gegeben durch

$\displaystyle [R_\varphi ]$ $\displaystyle = [I]\cdot [R_\varphi ]_{C,C}\cdot [I]^{-1}$    
  $\displaystyle = \begin{pmatrix}\phantom{-}\frac1{\sqrt{2}} & \phantom{-}\frac1{...
...\phantom{-}0 & -\frac{\sqrt{2}}{\sqrt{3}} & \frac1{\sqrt{3}} \end{pmatrix}^{-1}$    
  $\displaystyle = \begin{pmatrix}\phantom{-}\frac1{\sqrt{2}} & \phantom{-}\frac1{...
...t{3}} & \phantom{-}\frac1{\sqrt{3}} & \phantom{-}\frac1{\sqrt{3}} \end{pmatrix}$    
  $\displaystyle = 1/3\cdot \begin{pmatrix}1+2\cos\varphi & 1-\cos\varphi -\sqrt{3...
...\sin\varphi & 1-\cos\varphi +\sqrt{3}\sin\varphi & 1+2\cos\varphi \end{pmatrix}$    

Eine andere lineare Abbildung ist die Normalprojektion \bgroup\color{demo}$ P$\egroup auf die Ebene \bgroup\color{demo}$ V$\egroup. Bezüglich der Basis \bgroup\color{demo}$ C=\{c_1,c_2,c_3\}$\egroup ist ihre Matrizendarstellung offensichtlich durch

\bgroup\color{demo}$\displaystyle [P]_{C,C} =
\begin{pmatrix}
1 & 0 & 0 \\
0 & 1 & 0 \\
0 & 0 & 0
\end{pmatrix}$\egroup

gegeben. In der Standardbasis sieht sie also wie folgt aus

$\displaystyle [P]$ $\displaystyle = [I]\cdot [P]_{C,C}\cdot [I]^{-1}$    
  $\displaystyle = \begin{pmatrix}\phantom{-}\frac1{\sqrt{2}} & \phantom{-}\frac1{...
...t{3}} & \phantom{-}\frac1{\sqrt{3}} & \phantom{-}\frac1{\sqrt{3}} \end{pmatrix}$    
  $\displaystyle = \begin{pmatrix}\phantom{-}\frac2{3} & -\frac1{3} & -\frac1{3} \...
...3} & -\frac1{3} \\ -\frac1{3} & -\frac1{3} & \phantom{-}\frac2{3} \end{pmatrix}$    

Eine weitere lineare Abbildung ist Spiegelung \bgroup\color{demo}$ S$\egroup an der Ebene \bgroup\color{demo}$ V$\egroup. Bezüglich der Basis \bgroup\color{demo}$ C=\{c_1,c_2,c_3\}$\egroup ist ihre Matrizendarstellung offensichtlich durch

\bgroup\color{demo}$\displaystyle [S]_{C,C} =
\begin{pmatrix}
1 & 0 & 0 \\
0 & 1 & 0 \\
0 & 0 & -1
\end{pmatrix}$\egroup

gegeben. In der Standardbasis sieht sie also wie folgt aus

$\displaystyle [S]$ $\displaystyle = [I]\cdot [P]_{C,C}\cdot [I]^{-1}$    
  $\displaystyle = \begin{pmatrix}\phantom{-}\frac1{\sqrt{2}} & \phantom{-}\frac1{...
...t{3}} & \phantom{-}\frac1{\sqrt{3}} & \phantom{-}\frac1{\sqrt{3}} \end{pmatrix}$    
  $\displaystyle = \begin{pmatrix}\phantom{-}\frac1{3} & -\frac2{3} & -\frac2{3} \...
...3} & -\frac2{3} \\ -\frac2{3} & -\frac2{3} & \phantom{-}\frac1{3} \end{pmatrix}$    

Andreas Kriegl 2002-02-01