13 Euklid'ische Geometrie

Bislang haben wir nur die Addition und Skalarmultiplikation verwendet. In der Ebene und im Raum können wir aber auch Abstände und Winkel messen. Diese Operationen sehen wir uns nun näher an.


13.1 Definition.
Die Länge eines Vektors \bgroup\color{demo}$ x=(x_1,\dots,x_n)\in\mathbb{R}^n$\egroup ist nach dem pythagoräischen Lehrsatz und Induktion

\bgroup\color{demo}$\displaystyle \Vert x\Vert:=\sqrt{\sum_{i=1}^n (x_i)^2}.
$\egroup

Will man auch Winkel \bgroup\color{demo}$ \varphi $\egroup zwischen Vektoren \bgroup\color{demo}$ x$\egroup und \bgroup\color{demo}$ y$\egroup messen, so benötigt man ein Hypothemuse und Ankathete in einem entsprechenden rechtwinkeligen Dreieck, also die in (Bezug auf \bgroup\color{demo}$ y$\egroup orientierte) Länge der Normalprojektion \bgroup\color{demo}$ x_y$\egroup eines Vektors \bgroup\color{demo}$ x$\egroup auf einen anderen Vektor \bgroup\color{demo}$ y$\egroup um \bgroup\color{demo}$ \varphi $\egroup aus \bgroup\color{demo}$ \cos(\varphi )=\frac{x_y}{\vert x\vert}$\egroup zu berechnen. Diese Abbildung \bgroup\color{demo}$ x\mapsto x_y$\egroup muß in \bgroup\color{demo}$ x$\egroup offensichtlich linear sein und für \bgroup\color{demo}$ x:=y$\egroup den Wert \bgroup\color{demo}$ \vert y\vert$\egroup liefern.

\includegraphics[scale=0.7]{pic-1019}

Multipliziert man \bgroup\color{demo}$ x_y$\egroup mit \bgroup\color{demo}$ \vert y\vert$\egroup so gilt dies für das Ergebnis \bgroup\color{demo}$ \langle x\vert y\rangle=x_y\,\vert y\vert=\cos(\varphi )\,\vert x\vert\,\vert y\vert$\egroup noch immer und zusätzlich ist dieser Ausdruck nun symmetrisch in \bgroup\color{demo}$ x$\egroup und \bgroup\color{demo}$ y$\egroup und damit auch linear in der zweiten Variable \bgroup\color{demo}$ y$\egroup. Es muß also \bgroup\color{demo}$ \langle\_\vert\_\rangle$\egroup eine symmetrische bilineare Abbildung sein, die \bgroup\color{demo}$ \langle y\vert y\rangle=\vert y\vert^2\geq 0$\egroup liefert und auf orthogonalen \bgroup\color{demo}$ x$\egroup und \bgroup\color{demo}$ y$\egroup verschwindet.

Auf einen Vektorraum nennt man eine symmetrische bilineare Abbildung \bgroup\color{demo}$ \langle\_\vert\_\rangle$\egroup die positiv definit ist, d.h.  \bgroup\color{demo}$ \langle a\vert a\rangle>0$\egroup für alle \bgroup\color{demo}$ a\ne 0$\egroup erfüllt, ein skalares Produkt (im Unterschied zur skalar-Multiplikation \bgroup\color{demo}$ (\lambda ,x)\mapsto \lambda \cdot x$\egroup).


13.2 Bemerkung.
Jede bilineare Abbildung \bgroup\color{demo}$ G:V\times W\to \mathbb{K}$\egroup ist wie folgt duch eine Matrix \bgroup\color{demo}$ (g_{i,j})_{i,j}$\egroup (die Gram'sche Matrix) bezüglich Basen \bgroup\color{demo}$ B=(v_1,\dots,v_p)$\egroup von \bgroup\color{demo}$ V$\egroup und \bgroup\color{demo}$ C=(w_1,\dots,w_q)$\egroup von W gegeben

$\displaystyle G(x,y)$ $\displaystyle = G(\sum_i x_i v_i,\sum_j y_j w_j) = \sum_{i,j} x_i y_j \undersetbrace{=:g_{i,j}}\to{G(v_i,w_j)},$    

d.h. \bgroup\color{demo}$ G(x,y)=[x]^t\cdot [G]\cdot [y]$\egroup. Am \bgroup\color{demo}$ \mathbb{R}^n$\egroup ist \bgroup\color{demo}$ \langle\_\vert\_\rangle$\egroup somit durch

$\displaystyle \langle x\vert y\rangle$ $\displaystyle = \sum_{i,j} x_i\,y_j\,\langle e_i\vert e_j\rangle =\sum_i x_i\,y_i=x^t\cdot y$    

gegeben. Beachte, daß \bgroup\color{demo}$ \langle Ax\vert y\rangle =(A\cdot x)^t\cdot y=x^t\cdot A^t\cdot y=\langle x\vert A^ty \rangle$\egroup gilt.


13.3 Bemerkung.
Die Gram'sche Matrix \bgroup\color{demo}$ (g_{i,j})_{i,j}$\egroup einer bilinearen Abbildung \bgroup\color{demo}$ G:V\times V\to \mathbb{K}$\egroup ist genau dann symmetrisch, d.h. stimmt mir der Transponierten überein, wenn \bgroup\color{demo}$ G$\egroup symmetrisch ist, d.h. \bgroup\color{demo}$ G(x,y)=G(y,x)$\egroup für alle \bgroup\color{demo}$ x,y\in V$\egroup gilt.

Man kann zeigen, daß folgendes gilt:



13.4 Proposition.
Eine symmetrische Bilinearform \bgroup\color{demo}$ G:\mathbb{K}^n\times \mathbb{K}^n\to\mathbb{K}$\egroup ist genau dann positiv definit, wenn für alle \bgroup\color{demo}$ 1\leq k\leq n$\egroup die Hauptminore \bgroup\color{demo}$ \det((g_{i,j})_{i,j\leq k})$\egroup positiv ist.


13.5 Definition.
Ist \bgroup\color{demo}$ \langle\_\vert\_\rangle$\egroup ein skalares Produkt auf \bgroup\color{demo}$ V$\egroup, so können wir die Länge eines Vektors als

\bgroup\color{demo}$\displaystyle \vert v\vert:=\sqrt{\langle v\vert v\rangle}
$\egroup

definieren und den Winkel \bgroup\color{demo}$ \varphi $\egroup zweier Vektoren \bgroup\color{demo}$ x\ne 0$\egroup und \bgroup\color{demo}$ y\ne 0$\egroup durch die Formel

\bgroup\color{demo}$\displaystyle \cos(\varphi ):=\frac{\langle x\vert y\rangle}{\vert x\vert\,\vert y\vert}.
$\egroup

Dazu benötigen wir folgendes:




13.6 Ungleichung von Cauchy-Schwarz.
Für jedes skalare Produkt \bgroup\color{proclaim}$ \langle\_\vert\_\rangle:V\times V\to\mathbb{K}$\egroup gilt die Ungleichung \bgroup\color{proclaim}$ \vert\langle x\vert y\rangle\vert\leq \vert x\vert\,\vert y\vert$\egroup für alle \bgroup\color{proclaim}$ x,y\in V$\egroup. Gleichheit gilt genau dann, wenn \bgroup\color{proclaim}$ \{x,y\}$\egroup linear abhängig ist.

Beweis. Es ist \bgroup\color{demo}$ 0\leq \vert x-\lambda \,y\vert^2
=\langle x-\lambda y\vert ...
...t x\vert^2-2\,\lambda \,\langle x\vert y\rangle+\lambda ^2\vert y\vert^2$\egroup und somit existiert höchstens eine reelle (Doppel-)Nullstelle dieses Polynoms in \bgroup\color{demo}$ \lambda $\egroup, also ist die Diskriminante \bgroup\color{demo}$ \langle x\vert y\rangle^2 - \vert x\vert^2\,\vert y\vert^2 \leq 0$\egroup der quadratischen Gleichung.     []




13.7 Lemma.
Es sei \bgroup\color{demo}$ \langle\_\vert\_\rangle:V\times v\to\mathbb{K}$\egroup ein skalares Produkt und \bgroup\color{demo}$ \Vert x\Vert:=\sqrt{\langle x,x\rangle}$\egroup. Dann gilt, die Norm \bgroup\color{demo}$ \vert\_\vert$\egroup erfüllt die positive Homogenität \bgroup\color{demo}$ \vert\lambda \,x\vert=\vert\lambda \vert\,\vert x\vert$\egroup, die Dreiecksungleichung \bgroup\color{demo}$ \vert x+y\vert\leq\vert x\vert+\vert y\vert$\egroup sowie die Parallelogramformel \bgroup\color{demo}$ \vert x+y\vert^2+\vert x-y\vert^2=2(\vert x\vert^2+\vert y\vert^2)$\egroup.

Beweis.

$\displaystyle \vert x+y\vert^2$ $\displaystyle = \langle x+y\vert x+y\rangle = \vert x\vert^2+\vert y\vert^2+2\langle x\vert y\rangle$    
  $\displaystyle \leq \vert x\vert^2 + \vert y\vert^2 + 2\vert x\vert\,\vert y\vert = (\vert x\vert+\vert y\vert)^2$    

$\displaystyle \vert x+y\vert^2+\vert x-y\vert^2$ $\displaystyle = \langle x+y\vert x+y\rangle + \langle x-y\vert x-y\rangle$    
  $\displaystyle = \langle x\vert x \rangle + \langle x\vert y \rangle + \langle y\vert x \rangle+ \langle y\vert y \rangle$    
  $\displaystyle + \langle x\vert x \rangle - \langle x\vert y \rangle - \langle y\vert x \rangle + \langle y\vert y \rangle$    
  $\displaystyle = 2(\vert x\vert^2+\vert y\vert^2)$    

    []


13.8 Definition.
Man sagt zwei Vektoren \bgroup\color{demo}$ x$\egroup und \bgroup\color{demo}$ y$\egroup stehen rechtwinkelig (oder orthogonal) aufeinander und man schreibt \bgroup\color{demo}$ x\perp y$\egroup genau dann, wenn \bgroup\color{demo}$ \langle x\vert y\rangle=0$\egroup ist.

Für \bgroup\color{demo}$ W\subseteq V$\egroup bezeichnet \bgroup\color{demo}$ W^\perp:=\{x\in V:x\perp w\forall w\in W\}$\egroup das orthogonale Komplement von \bgroup\color{demo}$ W$\egroup. Falls \bgroup\color{demo}$ W$\egroup ein Teilraum ist, dann ist offensichtlich \bgroup\color{demo}$ W^\perp$\egroup ein Komplementärraum zum \bgroup\color{demo}$ W$\egroup im Sinne von (8.19).

Eine Familie \bgroup\color{demo}$ (u_1,\dots,u_k)$\egroup heißt orthogonal-System, falls die Vektoren paarweise orthogonal stehen, d.h. \bgroup\color{demo}$ \langle u_i\vert u_j\rangle=0$\egroup für alle \bgroup\color{demo}$ i\ne j$\egroup.

Eine Familie \bgroup\color{demo}$ (u_1,\dots,u_k)$\egroup heißt orthonormal-System, falls diese Vektoren paarweise orthogonal stehen und Länge 1 besitzen, d.h. \bgroup\color{demo}$ \langle u_i\vert u_j\rangle=\de_{i,j}$\egroup für alle \bgroup\color{demo}$ i,j$\egroup.

Eine Basis, die ein orthonormal-System ist, heißt orthonormal-Basis.

Der folgende Satz ermöglicht uns aus eine beliebigen Basis eine orthonormal-Basis zu gewinnen.


13.9 Gram-Schmidt'sches Orthonormalisierungsverfahren.
Es seien \bgroup\color{demo}$ (a_1,\dots,a_n)$\egroup linear unabhängig. Wir konstruieren rekursiv ein orthonormal-System \bgroup\color{demo}$ (u_1,\dots,u_n)$\egroup, welches den selben Teilraum erzeugt. Es sei \bgroup\color{demo}$ u_1:=\frac1{\vert a_1\vert}\,a_1$\egroup ( \bgroup\color{demo}$ a_1\ne 0$\egroup, da linear unabhängig). Es sei \bgroup\color{demo}$ v_k:=a_k-\sum_{j\leq k}\langle a_j\vert u_j\rangle u_j$\egroup und \bgroup\color{demo}$ u_k:=\frac1{\vert v_k\vert}v_k$\egroup. Offensichtlich erzeugt \bgroup\color{demo}$ \{a_1,\dots,a_k\}$\egroup den selben Teilraum wie \bgroup\color{demo}$ \{u_1,\dots,u_k\}$\egroup. Weiters ist \bgroup\color{demo}$ \vert v_k\vert\ne 0$\egroup, denn sonst wäre \bgroup\color{demo}$ a_k$\egroup eine Linearkombination von \bgroup\color{demo}$ \{u_1,\dots,u_{k-1}\}$\egroup und damit auch von \bgroup\color{demo}$ \{a_1,\dots,a_{k-1}\}$\egroup, also \bgroup\color{demo}$ \{a_1,\dots,a_k\}$\egroup linear abhängig.


13.10 Definition.
Eine (lineare) Abbildung \bgroup\color{demo}$ A$\egroup heißt Isometrie (oder Längenbewahrend), wenn \bgroup\color{demo}$ \vert A(x)\vert=\vert x\vert$\egroup für alle \bgroup\color{demo}$ x$\egroup gilt. Wegen der Polarisierungsgleichung \bgroup\color{demo}$ 2\langle x\vert y\rangle =\vert x+y\vert^2-\vert x\vert^2-\vert y\vert^2$\egroup ist dann auch \bgroup\color{demo}$ \langle Ax\vert Ay\rangle=\langle x\vert y\rangle$\egroup und die Abbildung somit auch Winkelbewahrend und weiters ist somit \bgroup\color{demo}$ A^t\,A=\operatorname{id}$\egroup, d.h.  \bgroup\color{demo}$ A$\egroup ist regulär mit inverser \bgroup\color{demo}$ A^t$\egroup. Insbesonders ist \bgroup\color{demo}$ 1=\det(\operatorname{id})=\det(A^t)\,\det(A)=\det(A)^2$\egroup, d.h. \bgroup\color{demo}$ \det(A)\in\{\pm 1\}$\egroup, also bis auf ein mögliches Vorzeichen \bgroup\color{demo}$ A$\egroup auch Volumsbewahrend.

Eine reelle Matrix \bgroup\color{demo}$ A\in L_\mathbb{R}(n,n)$\egroup heißt symmetrisch, wenn \bgroup\color{demo}$ A^t=A$\egroup ist, d.h. \bgroup\color{demo}$ \langle x\vert Ay\rangle=\langle A^t x\vert y\rangle=\langle Ax\vert y\rangle$\egroup für alle \bgroup\color{demo}$ x,y\in\mathbb{R}^n$\egroup gilt.




13.11 Proposition.
Eine lineare Abbildung \bgroup\color{demo}$ A$\egroup ist genau dann eine Isometrie, wenn sie orthogonal ist, d.h. die Spalten einer Matrixdarstellung bzgl. orthonormal-Basen eine orthonormal-Basis bilden.

Beweis. Es ist \bgroup\color{demo}$ A^t\cdot A=\operatorname{id}$\egroup genau dann, wenn \bgroup\color{demo}$ \de_{i,k}=\sum_j a_{j,i}\cdot a_{i,k}=
\langle a_i,a_k\rangle$\egroup ist.     []


13.12 Definition.
Ein orthogonale Abbildung mit \bgroup\color{demo}$ \det(A)=-1$\egroup heißt uneigentlich orthogonal. Insbesonders gilt dies für die Spiegelung an der normalen Hyperebene \bgroup\color{demo}$ v^\perp$\egroup zu einem Einheitsvektor \bgroup\color{demo}$ v$\egroup gegeben durch \bgroup\color{demo}$ x\mapsto x-2\langle x\vert v\rangle v$\egroup.

\includegraphics[scale=0.7]{pic-1020}




13.13 Bemerkung.
Man kann zeigen, daß jede orthogonale Matrix eine Zusammensetzung von Spiegelungen ist.


13.14 Definition.
Falls eine orthogonale Matrix positive Determinante hat, so heißt sie eigentlich orthogonal. Insbesonders gilt dies für die Zusammensetzung zweier Spiegelungen, d.h. eine Drehung um \bgroup\color{demo}$ v^\perp\cap w^\perp$\egroup mit Winkel \bgroup\color{demo}$ \varphi :=\angle(v,w)/2$\egroup.




13.15 Proposition.
Es sei \bgroup\color{proclaim}$ A\in L(\mathbb{K}^n,\mathbb{K}^m)$\egroup. Dann ist das orthogonale Komplement des Bildes \bgroup\color{proclaim}$ \operatorname{Bild}(A)$\egroup von \bgroup\color{proclaim}$ A$\egroup gerade der Kern \bgroup\color{proclaim}$ \operatorname{Ker}(A^t)$\egroup der transponierten Abbildung \bgroup\color{proclaim}$ A^t\in L(\mathbb{K}^m,\mathbb{K}^2)$\egroup, d.h.

\bgroup\color{proclaim}$\displaystyle \operatorname{Bild}(A)^\perp = \operatorname{Ker}(A^t).
$\egroup

Beweis. Für \bgroup\color{demo}$ w\in\mathbb{K}^m$\egroup gilt nach (13.2):

$\displaystyle w\in \operatorname{Bild}(A)^\perp$ $\displaystyle \Leftrightarrow 0=\langle A(v)\vert w\rangle =\langle v\vert A^t w\rangle$ für alle $\displaystyle v\in\mathbb{K}^n$    
  $\displaystyle \Leftrightarrow A^t(v)$ steht auf alle Vektoren $ v$ normal    
  $\displaystyle \Leftrightarrow A^t(v)=0$    
  $\displaystyle \Leftrightarrow v\in \operatorname{Ker}(A^t).{\rm\quad[]}$    


13.16 Volumen des Parallelipipeds.
Die Fläche des von zwei Vektoren \bgroup\color{demo}$ a$\egroup und \bgroup\color{demo}$ b$\egroup aufgespannten Parallelogramms ist \bgroup\color{demo}$ F=\vert a\vert\,\vert h\vert=\langle a\vert h\rangle$\egroup, wobei die Höhe \bgroup\color{demo}$ h=b-\langle \frac{a}{\vert a\vert}\vert b\rangle \frac{a}{\vert a\vert}$\egroup ist. Also

$\displaystyle F^2$ $\displaystyle =\vert a\vert^2\,\Bigl(\vert b\vert^2 -2\frac{\langle a\vert b\ra...
...\rangle\,\langle b\vert b\rangle-\langle a\vert b\rangle\langle b\vert a\rangle$    
  $\displaystyle = \det\begin{pmatrix}\langle a\vert a\rangle & \langle a\vert b\rangle \\ \langle b\vert a\rangle & \langle b\vert b\rangle \end{pmatrix} .$    

Entsprechend läßt sich zeigen, daß das \bgroup\color{demo}$ k$\egroup-dimensionale Volumen des von \bgroup\color{demo}$ k$\egroup Vektoren \bgroup\color{demo}$ a_1,\dots,a_k$\egroup im \bgroup\color{demo}$ \mathbb{R}^n$\egroup aufgespannten Parallelipipeds

\bgroup\color{demo}$\displaystyle \sqrt{\det(\langle a_i\vert a_j\rangle)_{i,j})_{i,j\leq k}}
=\sqrt{\det(A^t\,A)}=\sqrt{\det(A)^2}=\vert\det(A)\vert
$\egroup

ist.


13.17 Vektorprodukt.
Für Vektoren \bgroup\color{demo}$ x,y\in\mathbb{R}^3$\egroup ist das Kreuzprodukt \bgroup\color{demo}$ x\times y:=(x_2y_3-y_2x_3,x_3y_1-x_1y_3,x_1y_2-x_2y_1)$\egroup. Die Abbildung \bgroup\color{demo}$ \times $\egroup ist bilinear, \bgroup\color{demo}$ \langle x\times y\vert x\rangle=0=\langle x\times y\vert y\rangle$\egroup, \bgroup\color{demo}$ \Vert x\times y\Vert^2=\vert x\vert^2\,\vert y\vert^2-\langle x\vert y\rangle^2$\egroup und \bgroup\color{demo}$ \det(x,y,z)=\langle x\vert y\times z\rangle$\egroup.


14.5 Definition. Metrik komplexer Vektorräume.
Für \bgroup\color{demo}$ \mathbb{K}=\mathbb{C}$\egroup definiert man die Länge eines Vektors \bgroup\color{demo}$ z=(z_1,\dots,z_n)\in\mathbb{C}^n$\egroup als Länge des zugehörigen reellen Vektors \bgroup\color{demo}$ (x_1,y_1,\dots,x_n,y_n)\in\mathbb{R}^{2n}$\egroup, wobei \bgroup\color{demo}$ z_j=x_j+i\,y_j$\egroup die Zerlegung der komplexen Koordinaten in Real- und Imaginärteil ist, d.h. \bgroup\color{demo}$ \vert z\vert:=\sqrt{x_1^2+y_1^2+\dots+x_n^2+y_n^2}=\sqrt{\sum_j \vert z_j\vert^2}=
\sqrt{\sum_j z_j\cdot \overline{z_j}}$\egroup. Wie im reellen Fall suchen wir nun ebenfalls eine Abbildung \bgroup\color{demo}$ \langle\_\vert\_\rangle_\mathbb{C}:V\times V\to\mathbb{C}$\egroup, welche \bgroup\color{demo}$ \langle x\vert x\rangle_\mathbb{C}=\vert x\vert^2$\egroup erfüllt. Dazu konjugiert man den zweiten Vektor in der Formel \bgroup\color{demo}$ \langle x\vert y\rangle_\mathbb{C}=x^t\cdot \overline{y}$\egroup. Es ist \bgroup\color{demo}$ \langle x\vert y\rangle_\mathbb{C}=\overline{\langle y\vert x\rangle_\mathbb{C}}$\egroup und somit \bgroup\color{demo}$ \mathbb{C}$\egroup-linear in der ersten Variable und konjugiert linear (d.h. \bgroup\color{demo}$ f(x+\lambda \,y)=f(x)+\overline{\lambda }\,f(y)$\egroup) in der zweiten.

Andreas Kriegl 2002-02-01