12 Determinante

Wir wollen nun eine Methode behandeln, welche uns erlaubt die Invertierbarkeit einer linearen Abbildung festzustellen und auch Formeln für die Inverse liefert.


12.1 Bemerkung.
Wir haben in (10.27) gezeigt, daß eine Matrix \bgroup\color{demo}$ \begin{pmatrix}a&b\\ c&d\end{pmatrix}$\egroup genau dann invertierbar ist, wenn \bgroup\color{demo}$ a\cdot d-b\cdot c$\egroup es ist und die Inverse ist dann durch

\bgroup\color{demo}$\displaystyle \begin{pmatrix}a&b\\ c&d\end{pmatrix}^{-1}
=(a\cdot d-b\cdot c)^{-1}
\begin{pmatrix}d&-b\\ -c&a\end{pmatrix}$\egroup

gegeben.

Der Ausdruck \bgroup\color{demo}$ a\cdot d-b\cdot c$\egroup heißt Determinante von \bgroup\color{demo}$ A$\egroup und wird mit \bgroup\color{demo}$ \det(A)$\egroup bezeichnet. Die geometrische Bedeutung von \bgroup\color{demo}$ \det(A)$\egroup ist gerade gelbe Fläche des Parallelogramms \bgroup\color{demo}$ 0ACB$\egroup in folgender Zeichnung,

\includegraphics[scale=0.7]{linalg-1001}

den diese ergibt sich aus der Fläche \bgroup\color{demo}$ (a+b)\cdot (c+d)$\egroup des Rechtecks \bgroup\color{demo}$ 0A_0CB_0$\egroup vermindert um die blaue Fläche \bgroup\color{demo}$ 2\cdot b\cdot c$\egroup der beiden Rechtecke \bgroup\color{demo}$ A_0A_2AA_1$\egroup und \bgroup\color{demo}$ B_0B_1BB_2$\egroup sowie die gemeinsame Fläche \bgroup\color{demo}$ a\cdot c$\egroup der beiden roten Dreiecke \bgroup\color{demo}$ 0A_1A$\egroup und \bgroup\color{demo}$ CB_1B$\egroup und die gemeinsame Fläche \bgroup\color{demo}$ b\cdot d$\egroup der beiden grünen Dreiecke \bgroup\color{demo}$ 0B_2B$\egroup und \bgroup\color{demo}$ CA_2A$\egroup. Insgesamt also

\bgroup\color{demo}$\displaystyle (a+b)\cdot (c+d) - 2\cdot b\cdot c - a\cdot c - b\cdot d
= a\cdot d - b\cdot c.
$\egroup

Daß das Nichtverschwinden dieser Fläche gerade die Invertierbarkeit der Matrix zur Folge hat, ist nun klar, denn dazu müssen gerade die Bilder \bgroup\color{demo}$ \binom{a}{c}$\egroup und \bgroup\color{demo}$ \binom{b}{d}$\egroup der standard-Einheitsvektoren linear unabhängig sein, also gerade nicht Vielfache voneinander sein und somit ein nicht-degeneriertes Parallelogramm erzeugen.

Die Determinante von \bgroup\color{demo}$ 2\times 2$\egroup-Matrizen ist bilinear, denn

\begin{multline*}
\det\begin{pmatrix}a+a' & b \\ c+c' & d\end{pmatrix} = (a+a')...
...end{pmatrix} +
\det\begin{pmatrix}a' & b \\ c' & d\end{pmatrix} \end{multline*}

Geometrisch liegt das daran, daß wir im Parallelogrammen eine Seite unter Beibehaltung der Höhe verschieben dürfen. Wir können also o.B.d.A. annehmen, daß zwei Rechtecke vorliegen. Für diese ist diese Additionseigenschaft aber offensichtlich:

\includegraphics[scale=0.7]{pic-1049}

Wir versuchen dies nun auf höher-dimensionale \bgroup\color{demo}$ V=\mathbb{K}^n$\egroup übertragen. Erstes Ziel dabei ist eine Funktion \bgroup\color{demo}$ D:V\times \dots \times V\to\mathbb{K}$\egroup anzugeben die \bgroup\color{demo}$ n$\egroup Vektoren \bgroup\color{demo}$ a_1,\dots,a_n$\egroup das Volumen \bgroup\color{demo}$ D(a_1,\dots,a_n)$\egroup des von Ihnen aufgespannten Parallelipipeds zuordnet. Solch eine Funktion müßte offensichtlich folgende Eigenschaften haben:

Man nennt eine Funktion \bgroup\color{demo}$ D\ne 0$\egroup mit diesen beiden Eigenschaften eine Determinatenfunktion.

Jede Determinantenfunktion hat folgende weitere Eigenschaften:


12.2 Bemerkung.
Determinantenfunktionen sind im wesentlichen eindeutig, d.h. durch ihren Wert auf einer Basis eindeutig bestimmt.

Beweis. Es sei \bgroup\color{demo}$ (b_1,\dots,b_n)$\egroup eine Basis und \bgroup\color{demo}$ a_1,\dots,a_n$\egroup beliebige Vektoren in \bgroup\color{demo}$ V$\egroup, d.h. \bgroup\color{demo}$ a_i=\sum_{k=1}^n a_{k,i}b_k$\egroup. Dann ist

$\displaystyle D(a_1,\dots,a_n)$ $\displaystyle = D\Bigl(\sum_{j_1}a_{j_1,1}b_{j_1},\dots,\sum_{j_k}a_{j_k,k}b_{j_k}\Bigr)$    
  $\displaystyle = \sum_{j_1}\dots\sum_{j_k}a_{j_1,1}\dots a_{j_k,k}D(b_{j_1},\dots,b_{j_k})$    
  $\displaystyle = \sum_{j\in S_n} a_{j_1,1}\dots a_{j_k,k}\,\operatorname{sgn}(j)\,D(b_1,\dots,b_k)$    
  $\displaystyle = D(b_1,\dots,b_n)\, \sum_{j} \operatorname{sgn}(j)\, \prod_{i=1}^n a_{j_i,i},$    

denn falls \bgroup\color{demo}$ j:i\mapsto j_i$\egroup nicht injektiv ist, so ist \bgroup\color{demo}$ D(b_{j_1},\dots,b_{j_k})=0$\egroup, also genügt es Permutationen \bgroup\color{demo}$ j$\egroup zu betrachten. Für diese ist \bgroup\color{demo}$ D(b_{j_1},\dots,b_{j_k})=\operatorname{sgn}{j}\,D(b_1,\dots,b_)$\egroup. Somit ist \bgroup\color{demo}$ D$\egroup durch diese Formel auf einer Basis bereits eindeutig festgelegt.     []


Bemerkung.
Es sei \bgroup\color{demo}$ D$\egroup eine Determinatenfunktion und \bgroup\color{demo}$ \{b_1,\dots,b_n\}$\egroup eine Basis. Wegen \bgroup\color{demo}$ D\ne 0$\egroup existieren Vektoren \bgroup\color{demo}$ a_1,\dots,a_n$\egroup mit \bgroup\color{demo}$ D(a_1,\dots,a_n)\ne 0$\egroup und wegen der Formel im Beweis von (12.2) ist somit auch \bgroup\color{demo}$ D(b_1,\dots,b_n)\ne 0$\egroup.

Mittels Determinantenfunktion können wir lineare Unabhängigkeit erkennen:



12.3 Lemma.
Es sei \bgroup\color{demo}$ D:\mathbb{K}^n\times \dots\times \mathbb{K}^n\to \mathbb{K}$\egroup eine Determinatenfunktion und \bgroup\color{demo}$ a_1,\dots,a_n\in\mathbb{K}^n$\egroup. Dann ist \bgroup\color{demo}$ (a_1,\dots,a_n)$\egroup genau dann linear abhängig, wenn \bgroup\color{demo}$ D(a_1,\dots,a_n)=0$\egroup.

Beweis. ( \bgroup\color{demo}$ \Rightarrow$\egroup) haben wir in (12.1) bereits gezeigt.

( \bgroup\color{demo}$ \Leftarrow$\egroup) Angenommen \bgroup\color{demo}$ (a_1,\dots,a_n)$\egroup ist linear unabhängig, so ist \bgroup\color{demo}$ D(a_1,\dots,a_n)\ne 0$\egroup, denn \bgroup\color{demo}$ 1=D(e_1,\dots,e_n)=D(a_1,\dots,a_n)\,\sum_{\pi}\operatorname{sgn}{\pi}\prod_{i=1}^n a_{\pi(i),i}$\egroup.     []


12.5 Definition.
Für eine Matrix \bgroup\color{demo}$ A=(a_{i,j})_{i,j=1}^n\in L_{\mathbb{K}}(n,n)$\egroup definieren wir die Determinante durch die Leibniz-Formel als

\bgroup\color{demo}$\displaystyle \det(A):= \sum_{\sigma \in\mathcal{S}_n} \operatorname{sgn}(\sigma )\,\prod_{j=1}^n a_{\sigma (i),j}.
$\egroup

Wenn \bgroup\color{demo}$ a_1,\dots,a_n$\egroup die Spalten einer Matrix \bgroup\color{demo}$ A$\egroup sind, so setzen wir

\bgroup\color{demo}$\displaystyle \det(a_1,\dots,a_n):=\det(A).
$\egroup

Wir zeigen nun, daß dadurch eine Determinantenfunktion auf \bgroup\color{demo}$ (\mathbb{K}^n)^n\cong L_{\mathbb{K}}(n,n)$\egroup gegeben ist.




12.4 Proposition.
Die Funktion \bgroup\color{demo}$ \det:(\mathbb{K}^n)^n\to \mathbb{K}$\egroup ist eine Determinantenfunktion.

Beweis. Es ist \bgroup\color{demo}$ \det$\egroup alternierend, denn wenn die Spalten \bgroup\color{demo}$ a_i$\egroup und \bgroup\color{demo}$ a_j$\egroup für \bgroup\color{demo}$ i\ne j$\egroup ident sind, dann ist, da jede Permutation \bgroup\color{demo}$ \sigma $\egroup entweder gerade oder zusammengesetzt mit der Transposition \bgroup\color{demo}$ (i,j)$\egroup gerade:

$\displaystyle \det(\dots,a_i,\dots,a_j,\dots)$ $\displaystyle = \sum_{\sigma \in\mathcal{A}_n}\operatorname{sgn}(\sigma ) \dots\cdot a_{\sigma (i),i}\cdot\dots\cdot a_{\sigma (j),j}\cdot\dots$    
  $\displaystyle + \sum_{\sigma \in\mathcal{A}_n}\operatorname{sgn}(\sigma \o (i,j)) \dots\cdot a_{\sigma (j),i}\cdot\dots\cdot a_{\sigma (i),j}\cdot\dots$    
  $\displaystyle = \sum_{\sigma \in\mathcal{A}_n}\operatorname{sgn}(\sigma ) \dots\cdot a_{\sigma (i),i}\cdot\dots\cdot a_{\sigma (j),j}\cdot\dots$    
  $\displaystyle - \sum_{\sigma \in\mathcal{A}_n}\operatorname{sgn}(\sigma ) \dots\cdot a_{\sigma (j),j}\cdot\dots\cdot a_{\sigma (i),i}\cdot\dots$    
  $\displaystyle =0$    

    []


12.6 Formeln für $ n=2$ und $ n=3$.
Es ist

$\displaystyle \det\begin{pmatrix}a_{1,1} & a_{1,2} \\ a_{2,1} & a_{2,2} \end{pmatrix}$ $\displaystyle = a_{1,1} \cdot a_{2,2} - a_{1,2}\cdot a_{2,1},$    

wobei der 1.te Summand durch die Permutation \bgroup\color{demo}$ \operatorname{id}=(1)(2)$\egroup und der 2.te durch die Transposition \bgroup\color{demo}$ (1,2)$\egroup von \bgroup\color{demo}$ S_2=\{\operatorname{id},(1,2)\}$\egroup beschrieben wird.

$\displaystyle \det\begin{pmatrix}a_{1,1} & a_{1,2} & a_{1,3} \\ a_{2,1} & a_{2,2} & a_{2,3} \\ a_{3,1} & a_{3,2} & a_{3,3} \end{pmatrix}$ $\displaystyle = a_{1,1} \cdot a_{2,2} \cdot a_{3,3} + a_{1,2}\cdot a_{2,3}\cdot a_{3,1} + a_{1,3}\cdot a_{2,1}\cdot a_{3,2}$    
  $\displaystyle - a_{3,1}\cdot a_{2,2}\cdot a_{1,3} - a_{3,2}\cdot a_{2,3}\cdot a_{1,1} - a_{3,3}\cdot a_{2,1}\cdot a_{1,2}$    

Dabei entsprechen die 6 Summanden den Permutationen von

\bgroup\color{demo}$\displaystyle \mathcal{S}_6=\{\operatorname{id},(3,2,1),(1,2,3),(1,3),(2,3),(1,2)\}
$\egroup

Die Merkregel von Sarrus dafür ist, die ersten beiden Zeilen hinten nochmals anzufügen und dann die Produkte aller von links-oben nach rechts-unten verlaufenden Diagonalen aufzusummieren und jene der von links-unten nach rechts-oben laufenden Diagonalen abzuziehen:

\bgroup\color{demo}$\displaystyle \xymatrix{
a_{1,1}\ar@{-{}}[1,1] &a_{1,2}\ar@{...
...&a_{3,2}\ar@{-{}}[-1,1] &a_{3,3}\ar@{-{}}[-1,1] &
a_{3,1} &a_{3,2} \\
}$\egroup

Für \bgroup\color{demo}$ n=4$\egroup gibt es keine so einfache Beschreibung mehr, denn dann sind bereits \bgroup\color{demo}$ 4!=24$\egroup Produkte aufzusummieren.


12.7 Beispiel.
Die Determinante einer Diagonalmatrix (d.h. \bgroup\color{demo}$ a_{i,j}=0$\egroup für alle \bgroup\color{demo}$ i\ne j$\egroup) ist gerade das Produkt der Diagonalelemente, den nur für \bgroup\color{demo}$ \pi=\operatorname{id}$\egroup ist \bgroup\color{demo}$ \prod_i a_{\pi(i),i}\ne 0$\egroup.

Allgemeiner ist die Determinante einer Dreiecksmatrix ist gerade das Produkt der Diagonalelemente, den nur für \bgroup\color{demo}$ \pi=\operatorname{id}$\egroup ist \bgroup\color{demo}$ \prod_j a_{\pi(j),j}\ne 0$\egroup. In der Tat sei \bgroup\color{demo}$ A$\egroup z.B. eine obere Dreiecksmatrix, d.h. \bgroup\color{demo}$ a_{i,j}=0$\egroup für alle \bgroup\color{demo}$ i>j$\egroup. Somit ist \bgroup\color{demo}$ \prod_j a_{\pi(j),j}= 0$\egroup falls \bgroup\color{demo}$ \pi(j)>j$\egroup für mindestens ein \bgroup\color{demo}$ j$\egroup ist. Nur die Permutationen \bgroup\color{demo}$ \pi$\egroup mit \bgroup\color{demo}$ \pi(j)\leq j$\egroup für alle \bgroup\color{demo}$ j$\egroup erfüllen \bgroup\color{demo}$ \prod_j a_{\pi(j),j}\ne 0$\egroup. Die einzige Permutation mit dieser Eigenschaft ist aber \bgroup\color{demo}$ \pi=\operatorname{id}$\egroup.




12.8 Multiplikationssatz.
Für \bgroup\color{demo}$ A,B\in L_\mathbb{K}(n,n)$\egroup gilt \bgroup\color{demo}$ \det(A\cdot B)=\det(A)\cdot \det(B)$\egroup.

Beweis. Es sei \bgroup\color{demo}$ A\in L_{\mathbb{K}}(n,n)$\egroup. Die Abbildung \bgroup\color{demo}$ D_A:L_{\mathbb{K}}(n,n)\to \mathbb{K}$\egroup gegeben durch \bgroup\color{demo}$ D_A(b_1,\dots,b_n):=\det(A(b_1),\dots,A(b_n))$\egroup ist offensichtlich eine Determinantenfunktion. Nach (12.2) ist

$\displaystyle \det(A\cdot B)$ $\displaystyle =D_A(b_1,\dots,b_n)$    
  $\displaystyle = D_A(e_1,\dots,e_n)\cdot \sum_{\sigma \in\mathcal{S}_n}\operatorname{sgn}(\sigma )\,\prod_{j} b_{\sigma (j),j}$    
  $\displaystyle = \det(A)\,\det(B).{\rm\quad[]}$    


Bemerkung.
Nach der einleitenden Motivation (12.2) ist \bgroup\color{demo}$ \det(B)$\egroup gerade das \bgroup\color{demo}$ n$\egroup-dimensionale Volumen des von den Spalten \bgroup\color{demo}$ b_1,\dots,b_n$\egroup von \bgroup\color{demo}$ B$\egroup erzeugten Parallelipipeds \bgroup\color{demo}$ \Delta $\egroup, also vom Bild unter \bgroup\color{demo}$ B$\egroup des Einheitsquaders (den von den Standardbasis \bgroup\color{demo}$ e_1,\dots,e_n$\egroup erzeugten Parallelipipeds). Der Multiplikationssatz besagt nun gerade, daß das Volumen \bgroup\color{demo}$ \det(A\cdot B)$\egroup des Bildes unter \bgroup\color{demo}$ A$\egroup des von \bgroup\color{demo}$ b_1,\dots,b_n$\egroup erzeugten Parallelipipeds \bgroup\color{demo}$ \Delta $\egroup gerade das Volumen \bgroup\color{demo}$ \det(B)$\egroup des Parallelipipeds \bgroup\color{demo}$ \Delta $\egroup multipliziert mit \bgroup\color{demo}$ \det(A)$\egroup ist. Somit mißt \bgroup\color{demo}$ \det(A)$\egroup gerade das Verhältnis des Volumens des Bildes \bgroup\color{demo}$ A(\Delta )$\egroup von Parallelipipeden \bgroup\color{demo}$ \Delta $\egroup unter \bgroup\color{demo}$ A$\egroup zu dem Volumen von \bgroup\color{demo}$ \Delta $\egroup. Dies stimmt nicht nur für Parallelipipede sondern für beliebige Körper \bgroup\color{demo}$ \Delta $\egroup welchen man ein Volumen zuordnen kann.

Wir können nun die Determinante benutzen um Invertierbarkeit zu erkennen:



12.10 Proposition.
Es ist \bgroup\color{demo}$ A\in L_{\mathbb{K}}(n,n)$\egroup genau dann invertierbar, wenn \bgroup\color{demo}$ \det(A)\ne 0$\egroup ist.

Beweis. Nach (10.21) ist \bgroup\color{demo}$ A$\egroup genau dann invertierbar, wenn die Spalten-Vektoren \bgroup\color{demo}$ a_1,\dots,a_n$\egroup von \bgroup\color{demo}$ A$\egroup linear unabhängig sind, dies ist nach (12.3) genau dann der Fall, wenn \bgroup\color{demo}$ \det(a_1,\dots,a_n)\ne 0$\egroup ist.     []




12.11 Lemma.
Für invertierbares \bgroup\color{demo}$ A$\egroup gilt \bgroup\color{demo}$ \det(A^{-1})=1/\det(A)$\egroup.

Beweis. Wegen dem Multiplikationssatz (12.8) ist die Determinante der inversen Matrix gerade der Kehrwert der Determinante, denn \bgroup\color{demo}$ 1=\det(\operatorname{id})=\det(A^{-1}\cdot A)=\det(A^{-1})\cdot \det(A)$\egroup.     []


12.9 Bemerkung.
Für ein \bgroup\color{demo}$ A\in L(V,V)$\egroup ist \bgroup\color{demo}$ \det(A)$\egroup als \bgroup\color{demo}$ \det([A])$\egroup für irgendeine Matrixdarstellung \bgroup\color{demo}$ [A]$\egroup von \bgroup\color{demo}$ A$\egroup definiert, d.h. als \bgroup\color{demo}$ \det([I^{-1}\o A\o I])$\egroup, wobei \bgroup\color{demo}$ I:\mathbb{K}^n\to V$\egroup der durch eine Basis \bgroup\color{demo}$ B$\egroup gegebene Isomorphismus ist aus (10.16). Ist \bgroup\color{demo}$ B'$\egroup eine weitere Basis und \bgroup\color{demo}$ I'$\egroup der entsprechende Isomorphismus, so ist mit \bgroup\color{demo}$ J:=I^{-1}\o I'$\egroup

$\displaystyle \det([(I')^{-1}\o A\o I'])$ $\displaystyle = \det([J^{-1}\o I^{-1}\o A\o I\o J])$    
  $\displaystyle = \det([J^{-1}]\cdot [I^{-1}\o A\o I]\cdot [J])$    
  $\displaystyle = \det([J])^{-1}\cdot \det([I^{-1}]\o A\o I])\cdot \det([J])$    
  $\displaystyle = \det([I^{-1}]\o A\o I].$    

Also hängt diese Definition von \bgroup\color{demo}$ \det(A)$\egroup nicht von der Wahl der Basis.


12.12 Definition.
Die Transponierte einer Matrix \bgroup\color{demo}$ A=(a_{i,j})_{i,j}\in L_{\mathbb{K}}(n,m)$\egroup ist die Matrix \bgroup\color{demo}$ A^t:=(a_{j,i})_{i,j}\in L_{\mathbb{K}}(m,n)$\egroup, die durch Spiegelung von \bgroup\color{demo}$ A$\egroup an der Diagonale entsteht.

Offensichtlich ist \bgroup\color{demo}$ A^{tt}=A$\egroup, \bgroup\color{demo}$ (A+B)^t=A^t+B^t$\egroup sowie \bgroup\color{demo}$ (A\cdot B)^t=B^t\cdot A^t$\egroup.




12.13 Lemma.
Für \bgroup\color{demo}$ A\in L_{\mathbb{K}}(n,n)$\egroup gilt \bgroup\color{demo}$ \det(A^t)=\det(A)$\egroup.

Beweis.

$\displaystyle \det(A)$ $\displaystyle = \sum_\pi \operatorname{sgn}(\pi)\prod_j a_{\pi(j),j} = \sum_\pi \operatorname{sgn}(\pi)\prod_i a_{i,\pi^{-1}(i)}$    
  $\displaystyle = \sum_\sigma \operatorname{sgn}(\sigma ^{-1})\prod_i a_{i,\sigma (i)} = \det(A^t),$    

da \bgroup\color{demo}$ \pi^{-1}$\egroup die Gruppe \bgroup\color{demo}$ \mathcal{S}_n$\egroup durchläuft, wenn \bgroup\color{demo}$ \pi$\egroup sie durchläuft und da \bgroup\color{demo}$ \operatorname{sgn}(\sigma ^{-1})=\operatorname{sgn}(\sigma )$\egroup.     []

Unser nächstes Ziel ist nun eine Formel für die Inverse invertierbarer Matrizen \bgroup\color{demo}$ A$\egroup zu entwickeln.


12.14 Definition.
Es sei \bgroup\color{demo}$ A=(a_{i,j})_{i,j}\in M_{n,n}(R)$\egroup eine quadratische Matrix. Für \bgroup\color{demo}$ 1\leq i,j\leq n$\egroup versteht man unter dem \bgroup\color{demo}$ (i,j)$\egroup-ten algebraischen Komplement \bgroup\color{demo}$ a^{i,j}\in R$\egroup von \bgroup\color{demo}$ A$\egroup die Determinante \bgroup\color{demo}$ \det(a_1,\dots,a_{j-1},e_i,a_{j+1},\dots,a_n)
=\det(a_1-a_{...
...{j-1}-a_{i,j-1}\,e_i,
e_i,a_{j+1}-a_{i,j+1}\,e_i,\dots,a_n-a_{i,n}\,e_i)$\egroup, also die Determinante folgender Matrix

$\displaystyle \begin{pmatrix}a_{1,1} & \dots & a_{1,j-1} & 0 & a_{1,j+1} & \dot...
... a_{n,1} & \dots & a_{n,j-1} & 0 & a_{n,j+1} & \dots & a_{n,n} \\ \end{pmatrix}$    

Tauscht man die \bgroup\color{demo}$ j$\egroup-te Spalte und \bgroup\color{demo}$ i$\egroup-te Zeile an die letzte Stelle, so ändert sich die Determinante um \bgroup\color{demo}$ (-1)^{2n-(i+j)}=(-1)^{i+j}$\egroup und die entstandene Matrix hat die selbe Determinante wie jene Matrix \bgroup\color{demo}$ A_{i,j}$\egroup, die aus \bgroup\color{demo}$ A$\egroup durch Streichung von \bgroup\color{demo}$ i$\egroup-ter Zeile und \bgroup\color{demo}$ j$\egroup-ter Spalte entsteht, denn nur Permutationen \bgroup\color{demo}$ \pi$\egroup mit \bgroup\color{demo}$ \pi(n)=n$\egroup liefern einen Beitrag.

Als Adjungierte \bgroup\color{demo}$ \operatorname{adj}(A)\in M_{n,n}(R)$\egroup einer Matrix \bgroup\color{demo}$ A\in
M_{n,n}(R)$\egroup bezeichnet man nun jene Matrix die an der \bgroup\color{demo}$ i$\egroup-ten Zeile und \bgroup\color{demo}$ j$\egroup-ten Spalte das \bgroup\color{demo}$ (j,i)$\egroup-te algebraische Komplement \bgroup\color{demo}$ a^{j,i}$\egroup von \bgroup\color{demo}$ A$\egroup hat (Beachte die Vertauschung der Indizes).


Beispiel.
Die Adjungierte einer \bgroup\color{demo}$ 2\times 2$\egroup-Matrix ist somit wie folgt gegeben (vergleiche dies mit der Formel aus (10.27))

\bgroup\color{demo}$\displaystyle \operatorname{adj}
\begin{pmatrix}
a & b \\ c ...
...}\det(a)
\end{pmatrix}
=
\begin{pmatrix}
d & -b \\ -c & a
\end{pmatrix}$\egroup

und für eine \bgroup\color{demo}$ 3\times 3$\egroup-Matrix ergibt sich

  $\displaystyle \operatorname{adj} \begin{pmatrix}a & b & c \\ d & e & f \\ g & h & i \end{pmatrix} =$    
  $\displaystyle = \begin{pmatrix}(-1)^{1+1}\det\begin{pmatrix}e & f \\ h & i \end...
...trix} & (-1)^{3+3}\det\begin{pmatrix}a & b \\ d & e \end{pmatrix} \end{pmatrix}$    
  $\displaystyle = \begin{pmatrix}i\,e-f\,h & c\,h-b\,i & b\,f-c\,e \\ f\,g-d\,i & a\,i-c\,g & c\,d-a\,f \\ d\,h-e\,g & b\,g-a\,h & a\,e-b\,d \end{pmatrix}$    


12.15 Bemerkung.
Es seien \bgroup\color{demo}$ \de_{i,j}$\egroup die Eintragungen der Matrix \bgroup\color{demo}$ [\operatorname{id}]$\egroup der Identität \bgroup\color{demo}$ \operatorname{id}:\mathbb{K}^n\to\mathbb{K}^n$\egroup, d.h. \bgroup\color{demo}$ \de_{i,i}:=1$\egroup und \bgroup\color{demo}$ \de_{i,j}:=0$\egroup für \bgroup\color{demo}$ i\ne j$\egroup. Man nennt dies das Kronecker-Delta. Dann ist

$\displaystyle \de_{j,k}\,\det(A)$ $\displaystyle = \det(a_1,\dots, a_{j-1},a_k,a_{j+1},\dots,a_n)$    
  $\displaystyle = \det\Bigl(a_1,\dots, a_{j-1},\sum_i a_{i,k}e_i,a_{j+1},\dots,a_n\Bigr)$    
  $\displaystyle = \sum_i a_{i,k} \det\bigl(a_1,\dots, a_{j-1},e_i,a_{j+1},\dots,a_n\bigr) = \sum_i a_{i,k} \cdot a^{i,j}$    

Insbesonders (für \bgroup\color{demo}$ k=j$\egroup) ist \bgroup\color{demo}$ \det(A)=\sum_i a_{i,j}\,a^{i,j}$\egroup, eine rekursive Formel für die Determinante, die sogenannte Laplace'sche Entwicklung nach der \bgroup\color{demo}$ j$\egroup-ten Spalte, denn \bgroup\color{demo}$ a^{i,j}$\egroup sind Determinanten von \bgroup\color{demo}$ (n-1)\times
(n-1)$\egroup-Matrizen. Wegen (12.13) gilt auch eine entsprechende Formel für die Entwicklung nach der \bgroup\color{demo}$ j$\egroup-ten Zeile.

Damit erhalten wir die erhoffte Formel für die Inverse einer Matrix:




12.16 Folgerung.
Für \bgroup\color{demo}$ A\in
M_{n,n}(R)$\egroup ist

\bgroup\color{demo}$\displaystyle \det(A)\,\operatorname{id}= \operatorname{adj}(A)\cdot A
$\egroup

und die Inverse einer invertierbaren Matrix \bgroup\color{demo}$ A$\egroup ist durch

\bgroup\color{demo}$\displaystyle A^{-1} =\frac1{\det(A)}\operatorname{adj}(A)
$\egroup

gegeben.

Vergleiche dies mit der Formel

\bgroup\color{demo}$\displaystyle \begin{pmatrix}a & b \\ c & d\end{pmatrix}^{-1}
= \frac1{a\,d-b\,c}\, \begin{pmatrix}d & -b\\ -c & a\end{pmatrix}$\egroup

aus (10.27).

Beweis. Die Gleichung \bgroup\color{demo}$ \de_{i,k}\,\det(A)=\sum_i a^{j,i}\cdot a_{j,k}$\egroup aus (12.15) besagt, daß die der \bgroup\color{demo}$ (i,k)$\egroup-te Koeffizient der mit dem Skalar \bgroup\color{demo}$ \det(A)$\egroup multiplizierten Einheitsmatrix gerade jener des Matrizen-Produkts der Adjungierten Matrix \bgroup\color{demo}$ \operatorname{adj}(A)$\egroup mit \bgroup\color{demo}$ A$\egroup ist.

Division durch \bgroup\color{demo}$ \det(A)$\egroup zeigt, daß \bgroup\color{demo}$ \frac1{\det(A)}\operatorname{adj}(A)$\egroup eine links-Inverses ist. Offensichtlich ist \bgroup\color{demo}$ \operatorname{adj}(A^t)=\operatorname{adj}(A)^t$\egroup und somit folgt durch Transponieren von \bgroup\color{demo}$ \operatorname{id}=\frac1{\det(A^t)}\operatorname{adj}(A^t)\,A^t=\frac1{\det(A)}\operatorname{adj}(A)^t\,A^t$\egroup die Identität \bgroup\color{demo}$ \operatorname{id}=A\,\frac1{\det(A)}\operatorname{adj}(A)$\egroup, also ist \bgroup\color{demo}$ \frac1{\det(A)}\operatorname{adj}(A)$\egroup die Inverse von \bgroup\color{demo}$ A$\egroup.     []

Allgemeiner als in (12.3) können wir mittels Determinanten auch die lineare Abhängigkeit beliebig vieler Vektoren feststellen:




12.19 Folgerung.
Vektoren \bgroup\color{demo}$ a_1,\dots,a_k\in\mathbb{K}^n$\egroup sind genau dann linear abhängig, wenn die Determinante jeder der \bgroup\color{demo}$ \binom{n}{k}$\egroup vielen \bgroup\color{demo}$ k\times k$\egroup-Teilmatrizen der \bgroup\color{demo}$ n\times k$\egroup-Matrix \bgroup\color{demo}$ (a_1,\dots,a_k)$\egroup gleich 0 ist.

Beweis. ( \bgroup\color{demo}$ \Rightarrow$\egroup) Wenn \bgroup\color{demo}$ a_1,\dots,a_k$\egroup linear abhängig ist und \bgroup\color{demo}$ 1\leq i_1<\dots<i_k\leq n$\egroup die Indizes von \bgroup\color{demo}$ k$\egroup-Zeilen sind, so ist auch \bgroup\color{demo}$ P(a_1),\dots,P(a_k)$\egroup linear abhängig in \bgroup\color{demo}$ \mathbb{K}^k$\egroup, wobei \bgroup\color{demo}$ P:\mathbb{K}^n\to \mathbb{K}^k$\egroup die Projektion \bgroup\color{demo}$ (x_1,\dots,x_n)\mapsto
(x_{i_1},\dots,x_{i_k})$\egroup bezeichnet. Nach (12.3) bedeutet dies, daß \bgroup\color{demo}$ \det(P(a_1),\dots,P(a_k))=0$\egroup ist. Dies ist aber gerade die Determinante der von den Zeilen \bgroup\color{demo}$ i_1,\dots,i_k$\egroup gebildeten Teilmatrix.

( \bgroup\color{demo}$ \Leftarrow$\egroup) Indirekt. Angenommen \bgroup\color{demo}$ a_1,\dots,a_k$\egroup ist linear unabhängig, obwohl alle Determinanten der \bgroup\color{demo}$ k\times k$\egroup-Teilmatrizen von \bgroup\color{demo}$ (a_1,\dots,a_k)$\egroup gleich 0 sind. Nach (9.13) könne wir \bgroup\color{demo}$ a_1,\dots,a_k$\egroup durch Hinzufügen von Vektoren \bgroup\color{demo}$ a_{k+1},\dots,a_n$\egroup zu einer Basis ergänzen. Nach (12.3) ist damit \bgroup\color{demo}$ \det(a_1,\dots,a_n)\ne 0$\egroup. Laplace-Entwicklung nach den Spalten zeigt jedoch induktiv nach \bgroup\color{demo}$ k\leq j\leq n$\egroup, daß alle \bgroup\color{demo}$ j\times j$\egroup-Teilmatrizen von \bgroup\color{demo}$ a_1,\dots,a_j$\egroup verschwindende Determinante besitzen, ein Widerspruch.     []


Beispiel.
(1) In manchen Fällen führt die Entwicklung nach einer Zeile oder einer Spalte schnell zur Berechnung einer Determinante. Betrachten wir etwa die Matrix

\bgroup\color{demo}$\displaystyle A=\begin{pmatrix}5 & 0 & 3 & 2 \\ 3 & 2 & 4
& 5\\ 4 & 0 & 0 & 1 \\ 6 & 0 & 1 & 3\end{pmatrix}\in L_{\mathbb{Q}}(4,4).
$\egroup

Entwickeln nach der zweiten Spalte liefert

\bgroup\color{demo}$\displaystyle \det(A)=2\det\begin{pmatrix}5 & 3 & 2\\ 4 & 0 & 1\\ 6 & 1 &
3\end{pmatrix}.
$\egroup

Entwickelt man diese Determinante nach der zweiten Zeile, dann erhält man

\bgroup\color{demo}$\displaystyle \det(A)=-8\det\begin{pmatrix}3 & 2\\ 1 &
3\end...
...2\det\begin{pmatrix}5 & 3\\ 6 &
1\end{pmatrix}=-8\cdot 7+2\cdot 13=-30.
$\egroup

(2) In den meisten Fällen ist der beste Weg zur Berechnung einer Determinante die Anwendung von elementaren Zeilen- oder Spaltenoperationen. Betrachten wir als Beispiel die Matrix

\bgroup\color{demo}$\displaystyle A=\begin{pmatrix}\phantom{-}1 & \phantom{-}1 &...
...3 & \phantom{-}1 & \phantom{-}2 & \phantom{-}5\phantom{-}\end{pmatrix}.
$\egroup

Subtrahieren wir von der dritten Zeile das doppelte der ersten, und von der vierten Zeile das dreifache der ersten, dann ändert das die Determinante nicht, also ist \bgroup\color{demo}$ \det(A)$\egroup gleich der Determinante von

\bgroup\color{demo}$\displaystyle \begin{pmatrix}
\phantom{-}1& \phantom{-}1 & -...
...tom{-}\\
\phantom{-}0 & -2 & \phantom{-}8 &-7\phantom{-}\end{pmatrix}.
$\egroup

Addieren wir nun zur dritten Zeile das dreifache der zweiten und zur vierten Zeile das doppelte der zweiten, dann ändert das die Determinante wieder nicht, und wir erhalten die Matrix

\bgroup\color{demo}$\displaystyle \begin{pmatrix}
\phantom{-}1 & \phantom{-}1 & ...
...m{-} \\
\phantom{-}0 & \phantom{-}0 & 10 & -1\phantom{-}\end{pmatrix}.
$\egroup

Subtrahieren wir nun noch von der vierten Zeile \bgroup\color{demo}$ \tfrac{10}{8}$\egroup mal die dritte Zeile, dann wird diese Zeile zu \bgroup\color{demo}$ (0,0,0,-\tfrac{18}{8})$\egroup, und die entstehende Matrix hat immer noch die selbe Determinante wie \bgroup\color{demo}$ A$\egroup. Nun haben wir aber eine obere Dreiecksmatrix vor uns, und nach (12.7) erhalten wir \bgroup\color{demo}$ \det(A)=-18$\egroup.

Auch die Lösungen linearer Gleichungen können wir - sofern diese eindeutig sind - mittels Determinanten berechnen:




12.17 Cramer'sche Regel.
Falls \bgroup\color{demo}$ A$\egroup invertierbar ist, so ist die Lösung von \bgroup\color{demo}$ A(x)=y$\egroup durch

\bgroup\color{demo}$\displaystyle x_k=\frac{\det(a_1,\dots,a_{k-1},y,a_{k+1},\dots,a_n)}{\det A}
$\egroup

gegeben.

Beweis. Die Gleichung \bgroup\color{demo}$ Ax=y$\egroup bedeutet \bgroup\color{demo}$ y=\sum_k x_k\,a_k$\egroup. Somit ist

$\displaystyle \det(a_1,\dots,a_{j-1},y,a_{j+1},\dots,a_n)$ $\displaystyle =\det(a_1,\dots,a_{j-1},\sum_k x_k\,a_k,a_{j+1},\dots,a_n)$    
  $\displaystyle = x_j\,\det(a_1,\dots,a_n).$    

Wenn \bgroup\color{demo}$ \det(A)$\egroup invertierbar ist, dann ist \bgroup\color{demo}$ A$\egroup invertierbar nach (6.22) und somit existiert eine eindeutige Lösung \bgroup\color{demo}$ x$\egroup von \bgroup\color{demo}$ A(x)=y$\egroup. Nach dem ersten Teil erfüllt diese \bgroup\color{demo}$ \det(A)\,x_j = \det(a_1,\dots,a_{j-1},y,a_{j+1},\dots,a_n)$\egroup, also folgt

\bgroup\color{demo}$\displaystyle x_j=\frac{\det(a_1,\dots,a_{j-1},y,a_{j+1},\dots,a_n)}{\det(A)}.
$\egroup

    []


12.18 Bemerkung.
Für die praktische Lösung von linearen Gleichungssystemen ist die Cramer'sche Regel nicht besonders gut geeignet, weil die Berechnung der vielen Determinanten zu aufwendig ist. Daher lösen Computerprogramme lineare Gleichungssysteme nicht mit dieser Methode. Um das zu sehen, bestimmen wir, wie viele Rechenoperationen zur Lösung eines linearen Gleichungssystems mit \bgroup\color{demo}$ n$\egroup Gleichungen in \bgroup\color{demo}$ n$\egroup Unbekannten über einem Körper nötig sind. Wir werden uns dabei auf die Multiplikationen und Divisionen beschränken (die mehr Rechenaufwand benötigen) und Additionen, Subtraktionen und Vertauschungen von Zeilen oder Spalten außer Acht lassen. Die Determinante einer \bgroup\color{demo}$ n\times n$\egroup-Matrix besteht aus \bgroup\color{demo}$ \vert S_n\vert=n!$\egroup vielen Summanden, von denen jeder ein Produkt von \bgroup\color{demo}$ n$\egroup Zahlen ist. Man benötigt also \bgroup\color{demo}$ n!(n-1)$\egroup Multiplikationen. Um ein \bgroup\color{demo}$ n\times n$\egroup-Gleichungssystem nach der Cramer'schen Regel zu berechnen, muß man \bgroup\color{demo}$ n+1$\egroup Determinanten von \bgroup\color{demo}$ n\times n$\egroup-Matrizen berechnen, benötigt als \bgroup\color{demo}$ (n+1)n!(n-1)=(n+1)!(n-1)$\egroup Multiplikationen. Anschließend braucht man noch \bgroup\color{demo}$ n$\egroup Divisionen, was aber kaum mehr ins Gewicht fällt. Berechnet man das explizit, dann braucht man für ein \bgroup\color{demo}$ 3\times 3$\egroup-System \bgroup\color{demo}$ 48$\egroup Multiplikationen, ein \bgroup\color{demo}$ 4\times
4$\egroup-System benötigt \bgroup\color{demo}$ 360$\egroup Multiplikationen, für \bgroup\color{demo}$ 5\times
5$\egroup-Systeme sind \bgroup\color{demo}$ 2880$\egroup Multiplikationen nötig und bei einem \bgroup\color{demo}$ 10\times 10$\egroup-System sind es schon \bgroup\color{demo}$ 359251200$\egroup Multiplikationen.

Versuchen wir auf ähnliche Weise den Gauß'schen Algorithmus zu analysieren, dann müssen wir nur bedenken, daß man nach Satz (4.9) jede invertierbare \bgroup\color{demo}$ n\times n$\egroup-Matrix (der einzige Fall in dem die Cramer'sche Regel funktioniert) durch elementare Zeilenoperationen in die Einheitsmatrix umgewandelt werden kann, was genau äquivalent zur Lösung des Systems ist. Betrachten wir also die erweiterte Matrix \bgroup\color{demo}$ (A,b)$\egroup des Systems. Da wir Vertauschungen von Zeilen ignorieren, dürfen wir annehmen, daß die erste Zeile von \bgroup\color{demo}$ A$\egroup mit einem Element ungleich Null beginnt. Mit \bgroup\color{demo}$ n$\egroup-Divisionen erreichten wir, daß die erste Zeile mit \bgroup\color{demo}$ 1$\egroup beginnt. Um in den weiteren \bgroup\color{demo}$ n-1$\egroup vielen Zeilen das Element in der ersten Spalte zu Null zu machen, benötigen wir pro Zeile \bgroup\color{demo}$ n$\egroup-Multiplikationen. Somit sind wir mit \bgroup\color{demo}$ n$\egroup-Divisionen und \bgroup\color{demo}$ (n-1)n$\egroup Multiplikationen so weit, daß in der ersten Spalte der erweiterten Matrix der erste Einheitsvektor \bgroup\color{demo}$ e_1$\egroup steht. Damit das zweite Element der zweiten Zeile gleich Eins ist, brauchen wir \bgroup\color{demo}$ (n-1)$\egroup Divisionen, und mit \bgroup\color{demo}$ (n-1)(n-1)$\egroup Multiplikationen erreichen wir, daß in der zweiten Spalte der zweite Einheitsvektor \bgroup\color{demo}$ e_2$\egroup steht. Induktiv sehen wir, daß wir \bgroup\color{demo}$ n+(n-1)+\dots+2+1=\tfrac{1}{2}n(n+1)$\egroup Divisionen und \bgroup\color{demo}$ (n-1)(n+(n-1)+\dots+1)=\tfrac{1}{2}n(n+1)(n-1)$\egroup Multiplikationen benötigen, und ein \bgroup\color{demo}$ n\times n$\egroup-Gleichungssystem mit dem Gauß'schen Algorithmus zu lösen. Für ein \bgroup\color{demo}$ 3\times 3$\egroup-System sind das \bgroup\color{demo}$ 6$\egroup Divisionen und \bgroup\color{demo}$ 12$\egroup Multiplikationen, bei einem \bgroup\color{demo}$ 4\times
4$\egroup-System \bgroup\color{demo}$ 10$\egroup Divisionen und \bgroup\color{demo}$ 30$\egroup Multiplikationen und bei einem \bgroup\color{demo}$ 5\times
5$\egroup-System \bgroup\color{demo}$ 15$\egroup Divisionen und \bgroup\color{demo}$ 60$\egroup Multiplikationen. Bei einem \bgroup\color{demo}$ 10\times 10$\egroup-System erhält man die moderate Zahl von \bgroup\color{demo}$ 55$\egroup Divisionen und \bgroup\color{demo}$ 495$\egroup Multiplikationen.

Andreas Kriegl 2002-02-01