Zurück
Stand 4.01. 2016

Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung

Im Allgemeinen werden Vektoren durch Multiplikation mit einer Matrix gestreckt und um einen bestimmten Winkel gedreht. Es gibt jedoch spezielle Vektoren, die durch Multiplikation mit einer Matrix nur gestreckt werden, die Multiplikation lässt also ihre Richtung invariant. Die sogenannten Eigenvektoren. Der Streckfaktor heißt Eigenwert. Eigenwerte treten auf als Resonanzfrequenzen bei gekoppelten Schwingern in der Mechanik (gekoppelten Schwingkreisen in der Elektrotechnik) wenn $A$ die Koppelungsmatrix ist. Gekoppelte Pendel

Definition Eigenwert/Eigenvektor
$A$ sei eine komplexe (oder reelle) nxn-Matrix. Dann heißt die Zahl $ \lambda \in \mathbf{C} $ Eigenwert zum Eigenvektor $\vec{v} \ne 0 $ wenn die folgende Gleichung erfüllt ist: $$ A \vec{v} = \lambda \vec{v} $$ $E$ bezeichne die Einheitsmatrix $Diag(1,..1)$ $$ \vec{v} \ne 0: \quad A \vec{v} = \lambda \vec{v} \Leftrightarrow (A -\lambda E) \vec{v} = 0, \Leftrightarrow det(A -\lambda E) = 0 $$ $ det(A -\lambda E) $ ist ein Polynom vom Grad n mit reellen Koeffizienten bei reellen Matrizen, komplexen Koeffizienten bei komplexen Matrizen. Nach dem Hauptsatz der Algebra hat dieses Polynom $n$ (möglicherweise komplexe) Nullstellen, die Eigenwerte. Diese können auch mehrfache Nullstellen sein.
Die Menge aller Eigenwerte nennt man Spektrum der Matrix.
Die Eigenvektoren zu einem Eigenwert erfüllen also jeweils ein homogenes Gleichungssytem, $$ (A -\lambda E) \vec{v} = 0 $$ das man zum Beispiel mit dem Gauß-Verfahren lösen kann, wenn die zugehörigen Eigenwerte bekannt sind. Welche Lösungen kann man erwarten?
Nach der Lösungstheorie für lin. Gleichungen ist für einen Eigenwert $\lambda $ somit $$r= Rang(A -\lambda E) \le n-1 $$ Zu jedem Eigenwert gibt es also mindestens einen Eigenvektor (ungleich Null).
Die Zahl der linear unabhängigen Eigenvektoren zu einem Eigenwert $\lambda $ nennt man die geometrische Vielfachheit von $\lambda $, es ist zugleich auch die Dimension des sogenannten Eigenraums zum Eigenwert $\lambda $.


Eigenvektoren sind schon nach der Definitionsgleichung nicht eindeutig. Ist $ \vec{v} $ Eigenvektor, dann auch jedes skalare Vielfache $t \vec{v} , t\ne 0 $ denn t kürzt sich aus der Bestimmungsgleichung.

$$ t \ne 0: \quad A(t\vec{v}) = \lambda ( t \vec{v} ) \Longleftrightarrow A\vec{v} = \lambda \vec{v} $$ Hat eine Matrix nicht den maximalen Rang, dann hat sie mindestens einmal den Eigenwert Null, denn $A\vec{v} =0 $ hat dann mindestens eine nichttriviale Lösung $\vec{v} \ne 0 .$
Die Gleichung $A\vec{v} = 0 $ hat nämlich dann eine nichttriviale Lösung $\vec{v} \ne 0 .$

Berechnung der Eigenwerte
Die Eigenwerte $\lambda $ kann man über die Determinante berechnen. Man bestimmt dazu die Nullstellen des charakteristischen Polynoms : $$ p(\lambda ) = det(A -\lambda E) =0, $$ Die Vielfachheit einer Nullstelle $\lambda $ nennt man die algebraische Vielfachheit des Eigenwerts
Zu einer k-fachen Nullstelle $\lambda $ besitzt die Gleichung $$ (A -\lambda E) \vec{v} = 0 $$ zwar immer mindestens eine, aber nicht zwangsläufig auch $k$ linear unabhängige Lösungen. Daher gilt im allgemeinen nur $$ \mbox{geometrische Vielfachheit } \le \mbox{algebraische Vielfachheit } $$ Gleichheit von geometrischer und algebraischer Vielfachheit bei allen Eigenwerten liegt sicher immer dann (aber nicht nur dann, siehe Beispiele!) vor, wenn alle Eigenwerte paarweise verschieden sind.

Hat eine Matrix mehrfache Eigenwerte, so muss man stets alle Eigenvektoren zu jedem mehrfachen Eigenwert ausrechnen und die geometrischen Vielfachheiten mit den algebraischen vergleichen. Dann erst weiß man, ob ein linear unabhängiges System von $n$ Eigenvektoren vorliegt. Siehe Beispiele unten.

Satz: (a) Sind für jeden Eigenwert einer Matrix algebraische Vielfachheit und geometrische Vielfachheit gleich, dann besitzt Sie Matrix genau n linear unabhängige Eigenvektoren. Diese bilden dann eine Basis des Raumes $\mathbf{C}^n $
(b) Sonderfall und Folgerung aus (a): Sind alle Eigenwerte paarweise verschieden, dann gibt es genau n linear unabhängige Eigenvektoren (nämlich zu jedem Eigenwert genau einen).

Beachte: Auch eine reelle Matrix kann komplexe Eigenwerte und Eigenvektoren besitzen. Komplexe, nichtreelle Eigenwerte treten dann aber immer im "Doppelpack" mit ihrem konjugiert komplexen Pendant auf, weil die Koeffzienten des charakteristischen Polynoms reell sind. Zu jeder nichtreellen Nullstelle ist die konjugiert komplexe Zahl dann ebenfalls eine Nullstelle.

Potenzen von Matrizen - Potenzen der Eigenwerte.
Hat $A$ den Eigenwert $\lambda$ mit Eigenvektor $\vec{v }$ dann hat jede Potenz $A^k $ den Eigenwert $ \lambda^k $ zu demselben Eigenvektor. $$ A\vec{v} = \lambda \vec{v} , \quad A^2\vec{v} = A \cdot A\vec{v} = A\lambda \vec{v} = \lambda A \vec{v} = \lambda^2 \vec{v} , \quad usw. $$ $$ A\vec{v} = \lambda \vec{v} , \quad \vec{v} = E \vec{v} = A^{-1} A\vec{v} = \lambda A^{-1} \vec{v}, \quad A^{-1} \vec{v} = \lambda^{-1} \vec{v}, $$

Beispiele
Beispiel 1(a): $$ A = \left( \begin{array}{rr} 2 & - 4 \\ 1 & 2 \end{array} \right), \quad A -\lambda E = \left( \begin{array}{rr} 2- \lambda & - 4 \\ 1 & 2 - \lambda \end{array} \right), \quad det(A -\lambda E) = (2-\lambda )^2 + 4 = 0 , \quad \lambda_{1,2} = 2 \pm 2 j $$ Zwei konjugiert komplexe Eigenwerte. Eigenvektor zu $ \lambda_{1} = 2 - 2 j $ $$ (A- \lambda_{1} E) \vec{v_1} = 0 \Leftrightarrow \quad \left( \begin{array}{rr} 2j & - 4 \\ 1 & 2j \end{array} \right) \vec{v_1} = 0 \quad \Rightarrow \quad \vec{v_1} = \left( \begin{array}{r} -2j \\ 1 \end{array} \right) $$ Analog Eigenvektor zu $ \lambda_{2} = 2 + 2 j $ als Lösung des homogenen Systems $$ (A- \lambda_{2} E) \vec{v_2} = 0 \quad \Rightarrow \quad \vec{v_2} = \left( \begin{array}{r} 2j \\ 1 \end{array} \right) $$
Beispiel 1(b): $$ A = \left( \begin{array}{rr} 2 & 0 \\ 1 & 2 \end{array} \right), \quad det(A -\lambda E) = (2-\lambda )^2 = 0 , \quad \lambda_{1,2} = 2 $$ Doppelter reeller Eigenwert $2$ , algebraische Vielfachheit des EW zwei. $$ (A- \lambda_{1} E) \vec{v_1} = 0 \Leftrightarrow \quad \left( \begin{array}{rr} 0 & 0 \\ 1 & 0 \end{array} \right) \vec{v_1} = 0 \quad \Rightarrow \quad \vec{v_1} = \left( \begin{array}{r} 0 \\ 1 \end{array} \right) $$ Zum doppelten Eigenwert $2$ gibt es also nur einen linear unabhängigen Eigenvektor, geometrische Vielfachheit von EW $2$ ist also eins. Somit gibt es keine Basis des $R^2$ aus Eigenvektoren von $A$!

Beispiel 1(c): $$ A = \left( \begin{array}{rr} 2 & 4 \\ 1 & 2 \end{array} \right), \quad det(A -\lambda E) = (2-\lambda )^2 - 16 = 0 , \quad \lambda_{1} = -2, \lambda_{1} = 6, $$ Zwei verschiedene Eigenwerte mit algebraischer Vielfachheit 1, ( $n=2$), es muss zu jedem einen Eigenvektor geben. $$ (A- \lambda_{1} E) \vec{v_1} = 0 \quad \Rightarrow \quad \vec{v_1} = \left( \begin{array}{r} 1 \\ -1 \end{array} \right) , \qquad (A- \lambda_{2} E) \vec{v_2} = 0 \quad \Rightarrow \quad \vec{v_2} = \left( \begin{array}{r} 1 \\ 1 \end{array} \right) $$ Zwei linear unabhängige Eigenvektoren. Für jeden EW: algebraische Vielfachtheit =1 = geometrische Vielfachheit.

Beispiel 2(a): $$ A = \left( \begin{array}{rrr} 1 & 4 & 1 \\ 0 & 2 & 1 \\ 0 & 0 &2 \end{array} \right), \quad \quad det(A -\lambda E) = (1-\lambda) \cdot (2-\lambda )^2 = 0 $$ $\lambda_1 = 1 $ einfacher Eigenwert, algebraische Vielfachheit 1.
$\lambda_2 = 2 $ doppelter Eigenwert, algebraische Vielfachheit 2.
Eigenvektoren: $$ (A- \lambda_{1} E) \vec{v_1} = 0 \quad \Leftrightarrow \quad \left( \begin{array}{rrr} 0 & 4 & 1 \\ 0 & 1 & 1 \\ 0 & 0 & 1 \end{array} \right), \vec{v_1} = 0 \quad \Rightarrow \quad \vec{v_1} = \left( \begin{array}{r} 1 \\ 0 \\ 0 \end{array} \right) , $$ $$ (A- \lambda_{2,3} E) \vec{v_2} = 0 \quad \Leftrightarrow \quad -1x + 4 y + 1z =0, \ 1z =0, \quad \Rightarrow \vec{v_2} = \left( \begin{array}{r} 4 \\ 1 \\ 0 \end{array} \right) , $$ zum doppelten EW $ \lambda = 2 $ gibt es nur einen l.u. Eigenvektor : geometrische Vielfachheit von EW $2$ ist also eins.

Beispiel 2(b): $$ A = \left( \begin{array}{rrr} 1 & 4 & 1 \\ 0 & 2 & 0 \\ 0 & 0 &2 \end{array} \right), \quad \quad det(A -\lambda E) = (1-\lambda) \cdot (2-\lambda )^2 = 0 $$ Dieselben Eigenwerte und algebraischen Vielfachheiten wie in 2(a).
Eigenvektoren: Zu $\lambda_1 = 1 $ wie in 2(a), $\vec{v}_1 = \vec{e}_1 $

Zum EW $\lambda_{2,3} = 2 $: $$ (A- \lambda_{2,3} E) \vec{v_{2,3} } = 0 \quad \Leftrightarrow \quad \left( \begin{array}{rrr} -1 & 4 & 1 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{array} \right)\cdot \vec{v}_{2,3} = 0 \quad \Leftrightarrow \quad -1x + 4 y + 1z =0 $$ Lösungen sind damit zum Beispiel: $$ \vec{v_2} = \left( \begin{array}{r} 5 \\ 1 \\ 1 \end{array} \right) , \quad \vec{v_3} = \left( \begin{array}{r} 4 \\ 1 \\ 0 \end{array} \right) , $$ oder zwei andere linear unabhängige Vektoren, welche die Gleichung $ -1x + 4 y + 1z =0 $ erfüllen und damit denselben zweidimensionalen Vektorraum aufspannen wie $ \vec{v_2} , \vec{v_3} . $
Algebraische wie geometrische Vielfachheit von $ \lambda =2$ ist damit $2.$ Die Matrix besitzt ein System von 3 linear unabhängigen Eigenvektoren.


Beispiel 3 $$ A= \left( \begin{array}{rrr} 1 & -1 & 1 \\ -1 & 1 & 1 \\ 1 & 1 & -1 \end{array} \right) , \qquad A - \lambda E = \left( \begin{array}{rrr} 1 - \lambda & -1 & 1 \\ -1 & 1- \lambda & 1 \\ 1 & 1 & -1 - \lambda \end{array} \right) $$ Charakteristische Gleichung: $$ det(A- \lambda E) = -(1- \lambda)^2 (1+ \lambda) - 3(1-\lambda) = -(\; (1- \lambda) (1+ \lambda) + 3 \ ) \cdot (1-\lambda) = 0 $$ (Ausklammern des Faktors $ (1-\lambda) $ ) Nullstellen: $ \lambda_1 = -2, \lambda_2=1, \lambda_3 = 2 $
Berechnung der drei Eigenvektoren zu diesen drei (verschiedenen) Eigenwerten durch Lösen der 3 Gleichungssysteme $$ (A-\lambda_k) \vec{v} =0, \quad k=1,2,3 $$ $$ \mbox{ EV zu } \lambda_1=-2 : \vec{ v}_1 \left( \begin{array}{r} 1 \\ 1 \\ -2 \end{array} \right), \quad \mbox{ EV zu } \lambda_2=1 : \vec{ v}_2 \left( \begin{array}{r} 1 \\ 1 \\ 1 \end{array} \right), \quad \mbox{ EV zu } \lambda_3=2 : \vec{ v}_3 \left( \begin{array}{r} -1 \\ 1 \\ 0 \end{array} \right), $$ Die Eigenvektoren sind wie immer nur bis auf skalare Vielfache eindeutig. Z.B. ist für jede Zahl $ t \ne 0 $ auch $t \vec{ v}_2 = (t;t;t)^T $ ein Eigenvektor zu $ \lambda_2=1 $

Diagonalähnliche Matrizen

Wenn für jeden Eigenwert einer nxn- Matrix algebraische und geometrische Vielfachheit übereinstimmen, dann besitzt die Matrix ein System von n linear unabhängigen Eigenvektoren. Damit kann man sie durch eine Koordinatentransformation auf Diagonalgestalt transformieren. Solche Matrizen nennt man diagonalähnlich, die Transformation eine Ähnlichkeitstransformation. Die Eigenvektoren $ \vec{v}_{k} $ packt man spaltenweise in eine Matrix zusammen $$ U = ( \vec{v}_{1}, ...., \vec{v}_{n} ) $$ genau in der Reihenfolge der Eigenwerte auf der Diagonalen der Diagonalmatrix. Ferner muss man $U^{-1}$ berechnen. $ D = Diag(\lambda_1, ...\lambda_n) $ - mehrfache Eigenwerte werden auch mehrfach aufgeführt. Dann gilt: $$ A = U D U^{-1} \qquad \mbox{ bzw. } U^{-1} AU = D = Diag(\lambda_1, ...\lambda_n) $$ denn für jeden Einheitsvektor $\vec{e}_k $ gilt: $$ U^{-1} AU\vec{e}_k = U^{-1} A \vec{v}_{k} = U^{-1} \lambda_k \vec{v}_{k} = \lambda_k \vec{e}_{k} = Diag(\lambda_1, ...\lambda_n) \vec{e}_{k} $$ Da diese Gleichung für jeden der n linear unabhängigen Eigenvektoren erfüllt ist, sind die beiden Matrizen gleich.

Beispiel 4 : Diagonalisierung einer nichtsymmetrischen Matrix
Betrachte die Matrix aus Beispiel 2(b). Setze die berechneten Eigenvektoren spaltenweise zu einer Matrix $U$ zusammen. Die erste Spalte enthält den EV zum Eigenwert $1$, die zweite und dritte den EV zum EW $2.$ $$ U = \left( \begin{array}{rrr} 1 & 5 & 4 \\ 0 & 1 &1 \\ 0 & 1 & 0 \end{array} \right) \quad U^{-1} = \left( \begin{array}{rrr} 1 & -4 & -1 \\ 0 & 0 &1 \\ 0 & 1 & -1 \end{array} \right) $$ $$ \left( \begin{array}{rrr} 1 & 4 & 1 \\ 0 & 2 & 0 \\ 0 & 0 &2 \end{array} \right) = A = U D U^{-1} = \left( \begin{array}{rrr} 1 & 5 & 4 \\ 0 & 1 &1 \\ 0 & 1 & 0 \end{array} \right) \cdot \left( \begin{array}{rrr} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 2 \end{array} \right) \cdot \left( \begin{array}{rrr} 1 & -4 & -1 \\ 0 & 0 &1 \\ 0 & 1 & -1 \end{array} \right) $$ Der Leser kann diese Zerlegung verifizieren, indem er nacheinander die drei l.u. Eigenvektoren von rechts an die Produktzerlegung von $A$ multipliziert oder die drei Matrizen ausmultipliziert.

Zusammenhang mit Spur und Determinante
Die Spur ist die Summe der Eigenwerte und die Determinante das Produkt der Eigenwerte

Symmetrische Matrizen, ON-System von Eigenvektoren, unitäre Diagonalisierbarkeit.
Bezeichnungen:
Eine reelle nxn-Matrix $U$ heißt orthonormal, wenn $U^T U = E = UU^T $ gilt.
Eine komplexe nxn-Matrix $U$ heißt unitär, wenn $U^H U = E = UU^H $ gilt.

Eine reelle nxn Matrix heißt symmetrisch, wenn $A^T = A$
Eine komplexe nxn-Matrix heißt hermitesch, wenn $A^H = A $
(zur Erinnerung: $A^H $ ist die Transponierte von $A$ mit zusätzlich konjugiert komplexen Elementen.)

Symmetrische (bzw hermitesche) Matrizen haben folgende bemerkenswerte Eigenschaft: Man kann aus den Eigenvektoren eine orthogonale Matrix bilden, somit durch Normierung der Spalten auf Länge 1 auch eine orthonormale buw unitäre. Mit dieser kann man dann die sog. Hauptachsentransformation auf Diagonalgestalt ausgeführt werden.

Satz über ON-Systeme aus Eigenvektoren. A sei eine komplexe hermitesche (oder eine reelle symmetrische) nxn-Matrix.
1. Dann sind alle Eigenwerte $\lambda _k $ reell und es gibt $n$ Eigenwerte, wenn man mehrfache entsprechend ihrer algebraischen Vielfachheit zählt.
2. Es gibt n zueinander orthogonale (und damit lin. unabh.) Eigenvektoren, d.h. $ \vec{v}_k \bullet \vec{v}_l = 0, k\ne l $. Ist $A$ reell, so sind auch die Eigenvektoren reell.
3. Normiert man alle Eigenvektoren $\vec{v}_k $ auf die Länge $1$ (Orthonormalsystem ) $ \vec{ u}_k = \vec{v}_k / \| \vec{v}_k \| $ und packt sie spaltenweise in eine Matrix $U$, so kann man damit $A$ auf Diagonalgestalt transformieren: $$ U^H A U = D = Diag(\lambda_1, .... , \lambda_n) \quad \mbox{ bzw für reelle Matrizen } U^T A U = D = Diag(\lambda_1, .... , \lambda_n)$$ Die Spaltenzuordnung der Eigenvektoren in $U$ muss dabei natürlich zu der Reihenfolge in $D$ passen. Stets gilt dabei $U^H = U^{-1}$ bzw $U^T = U^{-1} $, da die Spalten von $U$ ein ON-System bilden.

$$ k=1, 2, .. : \quad D \vec{e_k} = \lambda_k \vec{e_k} \qquad U^H A U \vec{e_k} = U^H A\vec{u}_k = U^H \lambda_k \vec{u_k} = \lambda_k \vec{e_k} \Rightarrow D = U^H A U $$ $$ A = U D U^H $$

Beispiel 5: ON System von Eigenvektoren: Berechnen Sie für die Matrix $$ A = \left(\begin{array}{rrr} 7 & -2 & 1 \\ -2 & 10 & -2 \\ 1 & -2 & 7 \end{array}\right) $$ Spur, Determinante und alle Eigenwerte und Eigenvektoren der Matrizen $A, A^2, A^3, A^{-1} $. Ist $A$ diagonalähnlich?\\ $$ 0= -det(A-\lambda E) = \lambda^3 - 24 \lambda^2 + 180 \lambda -432 ) = (\lambda -\lambda_1)(\lambda -\lambda_2)(\lambda -\lambda_3) $$ $$ = \lambda^3 - (\lambda_1+\lambda_2 + \lambda_3) \lambda^2 + (\lambda_1\lambda_2 + \lambda_1\lambda_3 + \lambda_2 \lambda_3)\lambda - \lambda_1\lambda_2\lambda_3 .$$ (nochmal zur Bestätigung dass $det(A) $ das Produkt der Eigenwerte darstellt, sieht man mit $\lambda=0$ ) Mit Primfaktorzerlegung der Determinanten erleichtern wir das Raten einer Nullstelle, wir vermuten einmal ganzzahlige :
$$ det(A) = \lambda_1\lambda_2\lambda_3 = 432 = 2^4 \cdot 3^3 $$ $$ Spur A = 24 = \lambda_1 + \lambda_2 + \lambda_3 $$ Dazu passen die Eigenwerte $$ \lambda_1 = \lambda_2 = 6 , \lambda_3 = 12 $$ Bestätigung durch Einsetzen.

Alternative Methoden: 1.Entweder Lösungsformel für Nullstellen eines Polynoms von Grad 3 auf $ det(A-\lambda E) $ anwenden (sog. Cardano'sche Formeln, bis n=4 in CAS implementiert) oder
2. eine Nullstelle $ \lambda = 6 $ raten und dann Polynomdivision mit dem Linearfaktor $(\lambda -6) $ durchführen: $$ ( \lambda^3 - 24 \lambda^2 + 180 \lambda -432 ) : (\lambda -6) = (\lambda -6) (\lambda -12)$$ dann Nullstellen des quadratischen Ergebnisses mit der Lösungsformel für quadratische Gleichungen berechnen (6,12).

Eigenraum zum EW $6$ (2 lin. unabh. Eigenvektoren) durch Lösen des homogenen Gleichungssytems $(A-6E) \vec{v} = 0 $: $$ Kern(A-6E) = span\{ (1,0,-1)^T, \ (1,1,1)^T \}. $$ Eigenraum zum EW $12$ (1 Eigenvektor): $$ Kern(A-12E) = span\{ (1,-2,1)^T, \ \} $$ Die Eigenvektoren von $A^2, A^3 $ sind dieselben wie die von $A$, die Eigenwerte berechnet man aus $ \lambda(A^2) = \lambda(A)^2 .$ usw.
Eigenwerte von $A^2$: 36 (doppelt ) und 144.
Zu $A^{-1}: 1/6, 1/12 $ usw.
Die Eigenvektoren sind bereits orthogonal (Test!), damit aber $ U^T U = E, $ d.h. also $ U^{-1} = U^T $, unitäre Transformation auf Diagonalgestalt erf\"ullt ist, müssen die Eigenvektoren ( = Spalten von $U$) noch auf die Länge 1 normiert werden. Ergebnis: $$ U = \left(\begin{array}{rrr} 1/\sqrt{2} & 1/\sqrt{3} & 1/\sqrt{6} \\ 0 & 1/\sqrt{3} & -2/\sqrt{6} \\ -1/\sqrt{2} & 1/\sqrt{3}& 1/\sqrt{6} \end{array}\right) \quad D = \left(\begin{array}{rrr} 6 & 0 & 0 \\ 0 & 6 & 0 \\ 0 & 0 & 12 \end{array}\right) $$ Es gilt $ U^T A U = D $
(c) A ist positiv definit, da alle Eigenwerte positiv sind.

Vorteil der Diagonalisierung:

Jede Matrix repräsentiert eine lineare Abbildung in einem bestimmten Koordinatensystem. Durch die Transformation geht man von den kartesischen Koordinaten zu einem Koordinatensystem aus orthonormalen Eigenvektoren von $A$ über. Das nennt man Hauptachsentransformation. Symmetrische (hermitesche) Matrizen sind also immer auch diagonalähnlich, die Berechnung der Inversen der Transformationsmatrix entfällt weil es genau die Transponierte ist. Vergleiche auch Kapitel Vektorräume, Vorteil der Orthogonalität.
In diesem neuen Koordinatensystem kann man die lineare Abbildung dann durch eine Diagonalmatrix beschreiben. Führt man die lineare Abbildung mehrfach hintereinander aus, so entspricht dies jeweils einer Matrixmultiplikation, man erhält so Potenzen von $A$. Man kann sich das als eine Box (System) vorstellen, in die man das Ergebnis immer wieder hineinsteckt und ein jeweils neues bekommt. $$ \vec{w}_{k+1} = A \vec{w}_k , k =1, 2, 3, \quad \vec{w}_{k+1} = A^{k}\vec{w}_1 $$ A nennt man dabei die Systemmatrix. Im Allgemeinen wären diese Potenzen also sehr umständlich zu rechnen. In der Diagonalgestalt geht das dagegen einfach, weil man nur die Diagonalelemente potenzieren muss. $$ D^2 = Diag(\lambda_1^2 ....\lambda_n^2) = U^H A U U^H A U = U^H A E A U = U^H A^2 U $$ analog für höhere Potenzen. Die Beschreibung der linearen Abbildung (des Systems) durch eine Diagonalmatrix, somit die Koordinatentransfomation auf die EV Basis lohnt sich also, wenn man die lineare Abbildung mehrfach ausführen muss, wie es z.B. in Regelsystemen mit Feedback oder bei der Analyse von Rekursionsfolgen (z.B. Algorithmen aus Näherungsverfahren) geschieht. Kleines Beispiel dazu unten.

Praktisches
Bei der Berechnung der Eigenvektoren erhält man nur dann direkt ein Orthogonalsystem (das man dann nur noch normieren muss), wenn die Eigenwerte alle paarweise verschieden waren. Hat man jedoch einen Eigenwert mit algebraischer Vielfachheit größer eins, so kann es passieren, dass man zunächst nichtorthogonale Eigenvektoren bei der Rechnung bekommt. Man kann für deren Eigenraum aber dann immer ein ON System als Basis finden/berechnen, etwa mit dem Gram-Schmidt Verfahren. Diese ON-Basis besteht dann ebenfalls aus Eigenvektoren zu dem mehrfachen Eigenwert.




Definite Matrizen

$A$ sei eine symmetrische reelle nxn -Matrix.

$A$ Positiv definite Matrix. Definition: $ \vec{v}^T A \vec{v} \gt 0 $ für alle $ \vec{v} \ne 0, \vec{v} \in V $
Äquivalente Eigenschaft: Alle Eigenwerte positiv ($ \gt 0 $).

$A$ Positiv semidefinite Matrix. Definition: $ \vec{v}^T A \vec{v} \ge 0 $ für alle $ \vec{v} \in V $
Äquivalente Eigenschaft: Alle Eigenwerte nicht negativ ($ \ge 0 $).

$A$ Negativ definite Matrix. Definition: $ \vec{v}^T A \vec{v} \lt 0 $ für alle $ \vec{v} \ne 0, \vec{v} \in V $
Äquivalente Eigenschaft: Alle Eigenwerte negativ ($ \lt 0 $).

$A$ Negativ semidefinite Matrix. Definition: $ \vec{v}^T A \vec{v} \le 0 $ für alle $ \vec{v} \in V $
Äquivalente Eigenschaft: Alle Eigenwerte nicht positiv ($ \le 0 $).

Die Eigenschaften folgen sofort aus der durch die Symmetrie möglichen Transformation auf Diagonalgestalt, durch Übergang zur orthonormalen EV Basis $ \vec{u}_k , k=1, .... , n $ $$ 0 \ne \vec{v} = \sum_k x_k \vec{u}_k , \quad \vec{v}^T A \vec{v} = \vec{v}^T D U^H \vec{v} = \sum_k x^2_k \lambda_k $$ Mit positiv definiten Matrizen kann man ein gewichtetes Skalarprodukt im $R^n $ definieren: $$ \vec{v} \bullet_A \vec{v} = \vec{v}^T A \vec{v} $$ Man rechnet sofort nach, dass dies tatsächlich alle Eigenschaften eines Skalarprodukts besitzt. Man nennt dies auch positiv definite Bilinearform. Benutzt wird das in der Physik/Mechanik und bei numerischen Optimierungsverfahren.