Zurück
Stand: 04.01.2016

Rechnen mit Matrizen

In der Mathematik bezeichnet man mit Matrix im Allgemeinen ein rechteckiges Zahlenschema. In der allgemeinen Darstellung haben die Zahlen zwei Indizes, den ersten für die Zeilennummern, den zweiten für die Spaltennummer. $$ A = \left( \begin{array}{rrrr} a_{11 } & a_{12} & .... & a_{1n } \\ a_{21 } & a_{22} & .... & a_{2n } \\ \vdots & \vdots & \vdots & \vdots \\ a_{m1 } & a_{m2} & .... & a_{mn } \end{array} \right) = (a_{ik} )_{i=1...m,\ k=1... n } $$ Die dargestellte Matrix hat $m$ Zeilen (erster Index) und $n$ Spalten (zweiter Index). In der Matrix sind also $n*m$ Zahlen gespeichert, etwa reelle oder komplexe. Dazu unten mehr.

Summe von Matrizen gleichen Formats (mxn ): Elementweise Addition , Produkt mit Skalar auch elementweise.

$$ A+B = (a_{ik} + b_{ik} )_{i=1...m,\ k=1...´n} \qquad rA = (ra_{ik} )_{i=1...m,\ k=1...´n} $$ Mit diesen Operationen bilden Matrizen gleichen Formats einen Vektorraum der Dimension n*m, und zwar $I\!\!R^{mxn} $ für reelle und $\mathbf{C}^{mxn} $ für Matrizen mit komplexen Zahlen als Elementen.

Produkt von Matrizen

$A$ mxn-Matrix, $B$ nxl-Matrix , die Produktmatrix $ C = A\cdot B $ ist dann eine Matrix mit $m$ Zeilen und $l$ Spalten.
$\quad a_{i*} $ bezeichne Zeile Nr. i von $A$, $\quad b_{*k} $ die Spalte Nr. k von $B$. $$ C = A\cdot B \qquad c_{ik} = \sum_{p=1}^n a_{ip}\cdot b_{pk } = a_{i*} \bullet b_{*,k} $$ Das Element der Produktmatrix $C $ in der Zeile i und der Spalte k $ c_{ik}$ ist also das Skalarprodukt der Zeile Nr i von $A$ (kurz $\quad a_{i*} $) und der Spalte Nr k von $B$ ($\quad b_{*k} .$)
Beispiel Zeile i=2, Spalte k=1 (relevante Zahlen fettgedruckt). $$ \mbox{ Beispiel i=2, k=1 fett} \quad \left( \begin{array}{rrrr} 2 & 1& 1& 0\\ \mathbf{1} & \mathbf{1} & \mathbf{1} & \mathbf{2} \\ 1& 2 & 1 & 1 \end{array} \right) \cdot \left( \begin{array}{rr} \mathbf{4} & 7 \\ \mathbf{-1} & -5 \\ \mathbf{3} & 8 \\ \mathbf{1} & 0 \end{array} \right) = \left( \begin{array}{rr} 10 & 17 \\ \mathbf{ 8} & 10 \\ 6& 5 \end{array} \right) $$ Interpretationen: Die Spalten von $B$ bilden Linearkombinationen von Spalten von $A$. Hier nur mit der ersten Spalte vorgeführt. $$ \left( \begin{array}{rrrr} 2 & 1& 1& 0\\ \mathbf{1} & \mathbf{1} & \mathbf{1} & \mathbf{2} \\ 1& 2 & 1 & 1 \end{array} \right) \cdot \left( \begin{array}{r} \mathbf{4} \\ \mathbf{-1} \\ \mathbf{3} \\ \mathbf{1} \end{array} \right) = \mathbf{4} \left( \begin{array}{r } 2 \\ 1 \\ 1 \end{array} \right) + \mathbf{(-1) } \left( \begin{array}{r } 1 \\ 1 \\ 2 \end{array} \right) + \mathbf{3} \left( \begin{array}{r } 1 \\ 1 \\ 1 \end{array} \right) + \mathbf{1} \left( \begin{array}{r } 0 \\ 2 \\ 1 \end{array} \right) = \left( \begin{array}{r } 10 \\ \mathbf{ 8} \\ 6 \end{array} \right) $$ Dies erklärt auch, warum wir ein Gleichungssystem als Matrixgleichung $A\vec{x} = \vec{b} $ umschreiben können. $$ \left( \begin{array}{rrrr} 2 & 1& 1& 0\\ 1 & 1 & 1 & 2 \\ 1& 2 & 1 & 1 \end{array} \right) \cdot \left( \begin{array}{r} x \\ y \\ z \\ w \end{array} \right) = x\left( \begin{array}{r } 2 \\ 1 \\ 1 \end{array} \right) + y \left( \begin{array}{r } 1 \\ 1 \\ 2 \end{array} \right) + z \left( \begin{array}{r } 1 \\ 1 \\ 1 \end{array} \right) + w \left( \begin{array}{r } 0 \\ 2 \\ 1 \end{array} \right) = \left( \begin{array}{r } 2x -y+1z +0w \\ x +y +z + 2w \\ x+2y +z + w \end{array} \right) = \left( \begin{array}{r } b_1 \\ b_2 \\ b_3 \end{array} \right) $$

Koordinaten eines Vektors bestimmen. Wir sehen nun auch, wie wir das häufig auftretende Problem, die Koordinaten eines Vektors bezüglich einer gegebenen Basis eines Vektorraums zu bestimmen, oder festzustellen, ob er in einem Unterraum des VR (etwa einer Ebene im $R^3 $ ) liegt, effizient mit dem Gauß-Algorithmus lösen können.
Gegeben $\vec{v} $ und Basis $ \vec{v_1}, .... \vec{v_n} ,$
Gesucht: $\vec{x} = (x_1, ....x_n) $ Koordinaten, mit $$ \vec{v}= x_1 \vec{v_1} + .... + x_n \vec{v_n} = ( \vec{v_1} , \vec{v_2}, ..... \vec{v_n} ) \cdot \vec{x} = A \cdot \vec{x}$$ Vorgehen: Bilde die nx(n+1) Matrix mit den Spalten $(\vec{v_1}, .... , \vec{v_n} , \vec{v}) $ und wende den Gauss-Algorithmus darauf an. Prüfe ob lösbar? Wenn ja: Nach Rückwärtsauflösen erhält man die gesuchten Koordinaten.

Weitere Interpretation des Produkts Wir können uns das Produkt $AB$ also auch spaltenweise so geschrieben denken: $$ AB = (A\cdot b_{*,1} | A\cdot b_{*,2} |...... | A\cdot b_{*,l} ) $$

Die Zeilen von $A$ bilden Linearkombinationen der Zeilen von $B$. Wieder nur am Beispiel einer Zeile, der ersten von A, gezeigt. $$ \left( \begin{array}{rrrr} 2 & 1& 1& 0 \end{array} \right) \cdot \left( \begin{array}{rr} 4 & 7 \\ -1 & -5 \\ 3 & 8 \\ 1 & 0 \end{array} \right) = 2\cdot \left( \begin{array}{rr} 4 & 7 \end{array} \right) +1 \cdot \left( \begin{array}{rr} -1 & -5 \end{array} \right) + 1 \cdot \left( \begin{array}{rr} 3 & 8 \end{array} \right) + 0 \cdot \left( \begin{array}{rr} 1 & 0 \end{array} \right) = \left( \begin{array}{rr} 10 & 17 \end{array} \right) $$
Besondere Produkte: Zeile mal Spalte = 1x1-Matrix ( entspricht einem Skalarprodukt), Spalte mal Zeile = nxn_Matrix. $$ (a_{11} ......a_{1n} ) \cdot \left( \begin{array}{r } b_{11} \\ \vdots \\ b_{n1} \end{array} \right) = ( a_{11} b_{11} + a_{12} b_{21} + ...... + a_{1n} b_{n1} ) $$ $$ \left( \begin{array}{r } a_{11} \\ \vdots \\ a_{m1} \end{array} \right) \cdot (b_{11} ......b_{1n} ) = \left( \begin{array}{rrrr } a_{11}b_{11} & a_{11} b_{12} & ...... & a_{11} b_{1n} \\ a_{21}b_{11} & a_{21} b_{12} & ...... & a_{21} b_{1n} \\ \vdots & \vdots & \vdots & \vdots \\ a_{m1}b_{11} & a_{m1} b_{12} & ...... & a_{m1} b_{1n} \end{array} \right) $$

Die Transponierte Matrix

$$ \mbox{ für Matrizen mit reellen Zahlen: } A \in R^{mxn} : \quad A^T = (a_{ik} )_{i=1...m,\ k=1...´n}^T = (a_{ki } )_{i=1...m,\ k=1...´n} $$ Aus Zeilen werden also einfach Spalten oder umgekehrt. Beispiel $$ \left( \begin{array}{rr} \mathbf{4} & 7 \\ \mathbf{-1} & -5 \\ \mathbf{3} & 8 \\ \mathbf{1} & 0 \end{array} \right)^T = \left( \begin{array}{rrrr} \mathbf{4} & \mathbf{-1} & \mathbf{3} & \mathbf{1} \\ 7 & -5 & 8 & 0 \end{array} \right) $$ Bei komplexen Matrizen muss man noch zusätzlich die Matrixelemente konjugieren. $$ A \in C^{mxn} : A^H = (a_{ik} )_{i=1...m,\ k=1...´n}^H = (a_{ki}^* )_{i=1...m,\ k=1...´n} $$
$$ (AB)^T = B^T A^T $$

Das Matrixprodukt ist nicht kommutativ! Im allgemeinen ist $ A B \ne BA $

Lediglich bei speziellen Matrizen wie Diagonalmatrizen ist die Reihenfolge im Produkt egal.

Assoziativ- und Distributivgesetz gelten: $(AB)C = A(BC), \quad A(B+C) = AB +AC . $

Spur, Adjunkte, Inverse ,

Die Spur einer Matrix ist die Summe der Diagonalelemente $$ Spur(A) = a_{11} + a_{22} + ...... + a_{nn} $$ Unter einer Diagonalmatrix $D = Diag(t_1, ...,t_n) $ verstehen wir eine Matrix, die außerhalb der Diagonalen nur Nullen als Elemente besitzt. Eine spezielle Diaginalmatrix ist die Einheitsmatrix $ E = Diag(1,...., 1) .$
Multipliziert man eine Diagonalmatrix mit einem Vektor, so wird nur jede Komponente um einen Faktor gestreckt, aber keine Komponenten addiert.

Die Rechtsinverse einer Matrix $A$ ist die Lösung $X$ der folgenden Matrixgleichung (n simultane Gleichungen!) $$ AX = E = Diag(1,...., 1) $$ Entsprechend ist die Linksinverse die Lösung der Gleichung $ XA = E = Diag(1,...., 1) .$ Eine Matrix die zugleich Rechtsinverse und Linksinverse ist, nennen wir die Inverse von $A$ und bezeichnen sie mit $A^{-1} $ . $$ AA^{-1} = A^{-1} A = E , \quad (AB)^{-1} = B^{-1} A^{-1} $$ Berechnung (zum Beispiel) mit dem Gauß-Jordan Algorithmus. Bei kleinen und speziellen Matrizen auch über die Cramersche Regel. $$ AX = E , \quad \mbox{Gauss-Jordan: } (A|E) \to (E|A^{-1}) $$

Beispiel: Bestimme die Inverse von $$ A = \left( \begin{array}{rr } 1 & 0 & 1 \\ -2 & 1 & 4 \\ 1 & 0 & 2 \end{array} \right) $$ Löse die 3 Gleichungsysteme $AX=E $ simultan durch Anwendung von Gauß-Jordan auf $ (A|E) .$ Pivotfolge (1;1) , (2;2) (nichts zu rechnen!), (3;3). $$ (A|E) = \left( \begin{array}{rr } 1 & 0 & 1 \quad & 1 & 0 & 0 \\ -2 & 1 & 4 \quad & 0 & 1 & 0 \\ 1 & 0 & 2\quad & 0 & 0 & 1 \end{array} \right) \to \left( \begin{array}{rr } 1 & 0 & 1 \quad & 1 & 0 & 0 \\ 0 & 1 & 6 \quad & 2 & 1 & 0 \\ 0 & 0 & 1\quad & -1 & 0 & 1 \end{array} \right) \to \left( \begin{array}{rr } 1 & 0 & 0 \quad & 2 & 0 & -1 \\ 0 & 1 & 0 \quad & 8 & 1 & -6 \\ 0 & 0 & 1\quad & -1 & 0 & 1 \end{array} \right) = (E|A^{-1}) $$

Determinante

$A$ sei eine reelle nxn Matrix.
Die Determinante, Notationen $det(A), $ oder auch $ |A| $ ist eine nichtlineare Funktion, die quadratische Matrizen auf eine Zahl abbildet. Wie der Name schon sagt (determinare lat, determine engl) kann man damit etwas entscheiden, zum Beispiel ob die Matrix vollen Rang hat.
Es gelten nämlich folgende Äquivalenzen (Satz). $$ det(A) \ne 0 \Longleftrightarrow \mbox{ Rang(A) = n } \Longleftrightarrow A \mbox{ ist regulär } \Longleftrightarrow A \mbox{ ist invertierbar } \Longleftrightarrow Ax=0 \mbox{ nur für } x=0 $$ Vorbemerkung: Die Determinante erfreut sich merkwürdigerweise großer Beliebtheit, obwohl sie für größere Matrizen sehr aufwendig zu berechnen ist. Genauer gesagt wächst der Rechenaufwand (Zahl der Multiplikationen zur Auswertung), wie man am Laplace'schen Entwicklungssatz (unten) ablesen kann, mit $n!$. Das ist so ziemlich das Unangenehmste an Komplexität, was man sich bei einem Algorithmus vorstellen kann. Zum Vergleich: Der Gauß-Algorithmus verlangt "nur" ca $ n^3 \cdot (4/3) $ Rechenoperationen. Und liefert auch gleich noch den genauen Rang, während die Determinante nur eine Aussage über Rang(A) = n oder Rang(A) $\lt $ n $ macht. Deswegen entscheidet man die Frage nach dem Rang oder Invertierbarkeit in der Regel lieber mit einigen Gaußschritten. Lediglich bei kleinen Matrizen, in denen z.B Funktionen oder Parameter stehen, etwa beider exakten Berechnung von Eigenwerten, oder bei sehr speziellen Matrizen ist die Berechnung einer Determinante sinnvoll. In der Regel dient sie eher theoretischen Zwecken und Begründungen.

Berechnung der Determinante bei einer 2x2 Matrix $$ \left| \begin{array}{rr } a_{11} & a_{12} \\ a_{21} & a_{22} \end{array} \right| = a_{11} \cdot a_{22} - a_{12} \cdot a_{21} $$ Für größere Matrizen arbeitet man mit dem Laplaceschen Entwicklungssatz. Prinzip: Dies ist ein rekursives Verfahren, bei dem die Berechnung einer nxn-Determinante auf die Berechnung von $n$ (n-1)x(n-1) Determinanten zurückgeführt wird. Man nimmt sich dazu eine Zeile (oder Spalte) der Ausgangsmatrix, geht diese Element für Element durch und streicht jeweils Zeile und Spalte, in der dieses Element steht. Von diesen (n-1)x(n-1) Restmatrizen berechnet man dann die Determinanten und setzt diese additiv (und mit dem Element und Vorzeichen gewichtet) zusammen.
Genaue Fomulierung:
$ A_{i,k}$ sei die (n-1)x(n-1)-Matrix, die aus $A$ entsteht, wenn man Zeile Nr. i und Spalte Nr. k aus $A$ streicht. Entwicklung nach einer Zeile Nr $i$: $$ |A| = \sum_{k=1}^n a_{ik} (-1)^{i+k} | A_{i,k} | $$ Wenn die Indexsumme ungerade ist, kommt also ein Minus davor. (Anmerkung: In vielen Formelsammlungen wird mit $ A_{i,k} $ der Term $(-1)^{i+k} | A_{i,k} | $ in obiger Summe bezeichnet, die sog. Adjunkte. ) Analog Entwicklung nach Spalte Nr. $k$ $$ |A| = \sum_{i=1}^n a_{ik} (-1)^{i+k} | A_{i,k} | $$ Beispiel 3x3 Matrix mit allgemeinen Elementen, Entwicklung nach der 3. Zeile (i=3) $$ \left| \begin{array}{rr r } a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \end{array} \right| = a_{31} \left| \begin{array}{rr } a_{12} & a_{13} \\ a_{22} & a_{23} \end{array} \right| - a_{32} \left| \begin{array}{rr } a_{11} & a_{13} \\ a_{21} & a_{23} \end{array} \right| + a_{33} \left| \begin{array}{rr } a_{11} & a_{12} \\ a_{21} & a_{22} \end{array} \right| $$ Die 2x2 Matrizen dann weiter nach obiger Formel berechnet ergibt. $$ |A| = a_{31} ( a_{12} a_{23} - a_{22} a_{13} ) - a_{32}( a_{11} a_{23} - a_{21} a_{13} ) + a_{33} ( a_{11} a_{22} - a_{21} a_{12} ) $$ Dieses Ergebnis hätte man auch mit der Regel von Sarrus erhalten (diese funktioniert nur bis 3x3 Matrizen!).
Sinnvollerweise such man sich Zeilen oder Spalten aus, in denen bereits möglichst viele Nullen stehen. Dann spart man sich sich die Berechnung etlicher Unterdeterminanten. $$ A= \left( \begin{array}{rrrr} 2 & 1& 1& 0\\ 1 & 1 & 1 & 2 \\ 1& 2 & 1 & 1 \\ 2 & 3 &1 & 0 \end{array} \right) $$ Bei dieser Matrix wären bei Entwicklung nach der vierten Spalte nur zwei 3x3 Determinanten zu berechnen, ansonsten immer mindestens 3. $$ |A| = 0 (-1) |A_{14} | + 2 |A_{24} | - 1 |A_{34} | + 0 |A_{44} | = 2 |A_{24} | - 1 |A_{34} | $$ Tricks und Vereinfachungen!
Man kann auch einige Gauß-Schritte ausführen, um die Zahl der Nullen in einer Spalte zu erhöhen. Dabei muss man aber beachten, wie sich die Determinante dabei eventuell ändert. Dies geht aus den unten folgenden Sätzen zu ihren Eigenschaften (Regeln) hervor.
Mit dem Entwicklungssatz sieht man durch passende Entwicklung sofort: Hat man schon eine obere oder untere Dreiecksmatrix (Nullen unterhalb bzw. oberhalb der Diagonale) vorliegen, so ist die Determinante gerade das Produkt der Diagonalelemente. Die Berechnung wird also sehr einfach.
Sieht man schon gleich eine lineare Abhängigkeit von Zeilen oder Spalten, oder stellt eine solche durch einige Gauß-Schritte fest, dann kann man auf weitere Berechnung verzichten, denn die Determinante ist dann Null. Ebenso, wenn die Matrix bereits Nullzeilen oder Spalten enthält.

Regeln für die Determinantenrechnung
Die folgenden Regeln kann man sofort an einer 2x2-Matrix verfizieren, und sieht dann über Laplace'schen Entwicklungssatz, wie sich die Aussagen sofort auf höhere Dimensionen übertragen.

1. Multipliziert man eine Zeile oder Spalte mit einem Skalar, dann multipliziert sich auch die Matrix mit diesem.
2. 1. Multipliziert man die ganze Matrix elementweise mit einem Skalar $t$, dann multipliziert sich die Matrix mit $t^n$.
3. Vertauschen von je zwei Zeilen (oder Spalten) dreht das Vorzeichen um.
4. Addiert man zu einer Zeile (oder Spalte) ein Vielfaches einer anderen, so ändert sich die Determinante nicht. 5. Eine Matrix und ihre Transponierte besitzen dieselbe Determinante. $$ det(A) = det(A^T) $$ 6. Determinante ist multiplikativ (beide Matrizen natürlich quadratisch): $$ det(AB) = det(A)det(B) $$ 7. Daraus folgend die Determinate für die Inverse: $$ E = AA^{-1} \Rightarrow 1 = det(A) det(A^{-1} ) \Rightarrow det(A^{-1} ) = { 1\over det(A) } $$ 8. $ Rang(A) \lt n \Longleftrightarrow det(A) =0 .$

Cramersche Regel

Für reguläre Matrizen (voller Rang, Determinanten nicht Null) kann man auch direkt eine Darstellung der Lösung von $ Ax = \vec{b} $ geben. Dazu bildet man Matrizen $D_k$ aus $A$ indem man die Spalte Nr k durch die rechte Seite $ \vec{b} $ ersetzt. Dann gilt die Darstellung $$ x_k = {det(D_k) \over det(A) } , \quad k=1, ..,n $$ Auch hier gilt wegen des allgemein hohen Rechenaufwands für Determinanten: Nur für Spezialfälle sinnvoll.

Sinnvolles (und typisches) Beispiel zur Anwendung: kleine Matrix mit Parametern/Funktionen Löse folgendes Gleichungssystem;
$$ \left( \begin{array}{rr } \exp(t) & \sin(t) \\ \cos(t) & 1+t^2 \end{array} \right) \left( \begin{array}{r } x_1 \\ x_2 \end{array} \right) = \left( \begin{array}{r } 1 \\ 1 \end{array} \right) $$ $$ det(A) = \exp(t)(1+t^2) - \sin(t)\cos(t) , \quad det(D_1) = \left| \begin{array}{rr } 1 & \sin(t) \\ 1 & 1+t^2 \end{array} \right| = 1+t^2 - \sin(t) , \quad det(D_2) = \left| \begin{array}{rr } \exp(t) & 1 \\ \cos(t) & 1 \end{array} \right| = \exp(t) - \cos(t) $$ $$ x_1 = {det(D_1) \over det(A) } = { 1+t^2 - \sin(t) \over \exp(t)(1+t^2) - \sin(t)\cos(t) } , \quad x_2 = {det(D_2) \over det(A) } = { \exp(t) - \cos(t) \over \exp(t)(1+t^2) - \sin(t)\cos(t) } $$ Man könnte die Matrix $A$ mit der Cramerschen Regel auch einmal invertieren, wenn man die beiden Gleichungssysteme $Ax = \vec{e}_1 $ und $Ax = \vec{e}_2 $ löst. Damit kann dann für verschiedene rechte Seiten die Lösung immer durch eine kleine Matrixmultiplikation berechnet werden $ x = A^{-1} b. $ Dieser Aufwand lohnt sich also, wenn man das Gleichungssystem mit derselben Matrix oft lösen muss. (Vergl. 2. Semester/Thema Differentialgleichungen).

Äquivalenzen

Eigenschaften von Matrizen sind mit Lösbarkeit linearer Gleichungssysteme und anderen Begriffen verknüpft. Wir stellen hier tabellarisch alles bisher dargestellte zusammen.

$A$ sei hier immer eine quadratische nxn Matrix.

Folgende Aussagen sind äquivalent:
1.$det(A) \ne 0 $
2. $A$ ist invertierbar
3. Alle Spalten (und alle Zeilen) von $A$ sind linear unabhängig (bilden Basis des $R^n$)
4. Das Gleichungssystem $Ax=b$ hat für jedes $b$ genau eine Lösung $x$.
5. $Ax = 0$ besitzt nur die Lösung $x=0$
6. A ist regulär
7. Rang(A) = n
Folgende Aussagen sind äquivalent:
1.$det(A) =0 $
2. $A$ ist nicht invertierbar
3. Spalten und Zeilen von $A$ sind jeweils linear abhängig (bilden keine Basis des $R^n$)
4. Das Gleichungssystem $Ax=b$ hat nicht für jedes $b$ eine Lösung $x$.
5. $Ax =0$ besitzt mindestens eine Lösung $x \ne 0.$
6. A ist singulär
7. Rang(A) $\lt n $

Spezielle Matrizen (Diagonalmatrizen, Drehungen, Spiegelungen)