Zurück

Vektoren: Lineare Unabhängigkeit, Basis, Vektorraum, Orthogonalität

Letztes Update: 01.2.2016.
Navigation zu Unterthemen/wichtigen Formeln und Sätzen
Skalarprodukt
Projektion Vektor auf Vektor/Orthogonalzerlegung
Projektion Vektor auf Unterraum
Projektion Vektor auf affinen Teilraum /Hyperebene
Weitere Beispiele von Vektorräumen

Linearkombination, lineare Unabhängigkeit, Basis

Beispiel 1: Linearkombination eines Vektors durch zwei andere Vektoren.
$$ \vec{v} = \left( \begin{array}{r} 7 \\ -2 \\ 3 \end{array} \right) = 1 \vec{v_1} + 3 \vec{v_2} = 1 \left( \begin{array}{r} 7 \\ 1 \\ 0 \end{array} \right) + 3 \left( \begin{array}{r} 0 \\ -1 \\ 1 \end{array} \right), $$ Interpretation im Kontext der analytischen Geometrie: $ \vec{v} $ liegt in der durch $ \vec{v_1}, \vec{v_2} $ aufgepannten Ebene.

Vieles, was Sie aus der analytischen Geometrie des dreidimensionalen Anschauungsraumes $I\!\!R^3$ kennen, lässt sich sofort auf höhere Dimensionen übertragen. Das Vektorprodukt allerdings nicht. Leider sind dazu etliche Begriffe einzuführen, um die aus dem $I\!\!R^3$ bekannten Objekte auf allgemeine Vektoräume zu übertragen. Sie können sich die meisten Strukturen also auch immer im $I\!\! R^3$ veranschaulichen.

Allgemein: Linearkombination eines Vektors $\vec{v} $ durch $n$ Vektoren $\vec{v_1} , \vec{v_2} , ...., \vec{v_n} $:
Es gibt Zahlen $x_1, ...., x_n $ , die Koordinaten von $\vec{v} $ bezüglich des Vektorsystems $\vec{v_1} , \vec{v_2} , ...., \vec{v_n} $ mit: $$ \vec{v} = x_1 \vec{v_1} + x_2 \vec{v_2} + ... + x_n \vec{v_n} $$ Man sagt auch: Der Vektor $ \vec{v} $ ist linear abhängig von den Vektoren $\vec{v_1} , \vec{v_2} , ...., \vec{v_n} $.

Vergleiche Beispiel 1. Linearkombination bedeutet im Kontext der analytischen Geometrie z.B. konkret: Stelle einen Ortsvektor eines Punktes in einer Ebene (die durch den Nullpunkt geht) durch die Richtungsvektoren dieser Ebene dar.

Definition: Lineare Unabhängigkeit
Die Vektoren $\vec{v_1} , \vec{v_2} , ...., \vec{v_n} $ heißen linear unabhängig, wenn gilt: $$ 0 = x_1 \vec{v_1} + x_2\vec{v_2} + .... + x_n \vec{v_n} \Longrightarrow 0= x_1 = x_2 = x_3 = .... = x_n $$ In Worten: Die Linearkombination des Nullvektors durch linear unabhängige Vektoren ist nur möglich, wenn alle Koeffizienten Null sind. Die Lösung dieses (homogenen) Gleichungssystems ist dann auch der Test auf lineare Unabhängigkeit. Der Sinn ist leicht einzusehen: Wäre mindestens ein Koeffizient ungleich Null, so könnte man den zugehörigen Vektor als Linearkombinaton der anderen Vektoren darstellen. In einem Vektorsystem linear unabhängiger Vektoren, kann man keinen dieser Vektoren als Linearkombination der anderen darstellen.

Wieder im bekannten Kontext der analytischen Geometrie: Zwei linear unabhängige Vektoren im $I\!\!R^3$ sind nicht kollinear. Drei linear unabhängige Vektoren im $I\!\!R^3$ sind nicht komplanar. Das überträgt sich also zwanglos auch auf höhere Dimensionen, in denen man sich die Veranschaulichung leider nicht mehr so einfach hinzeichnen kann.

Beispiel 2: (lineare Unabhängigkeit) Sind die Vektoren $\vec{v_1} , \vec{v_2} ,$ in Beispiel 1 sind linear unabhängig? $$ \left( \begin{array}{r} 0 \\ 0 \\ 0 \end{array} \right) = x_1 \left( \begin{array}{r} 7 \\ 1 \\ 0 \end{array} \right) + x_2 \left( \begin{array}{r} 0 \\ -1 \\ 1 \end{array} \right) = \left( \begin{array}{r} 7x_1 \\ x_1 - x_2 \\ x_2 \end{array} \right)$$ Wir vergleichen den Nullvektor links komponentenweise mit dem Vektor rechts und erhalten so die drei Gleichungen: $$ 7x_1 =0, \quad x_1 - x_2 =0, \quad 1x_2 = 0 \Rightarrow x_1 = x_2 =0 $$ Offenbar ist $x_1 =0 $ $x_2 =0$ die einzige Lösung, also sind die beiden Vektoren linear unabhängig. Ihr Spannraum ist eine Ebene im $I\!\!R^3$.
Frage: Wie könnte man die Vektoren $\vec{v_1} , \vec{v_2} ,$ durch einen dritten Vektor zu einer Basis des $I\!\!R^3 $ ergänzen?


Vektorraum

Die Menge aller Linearkombinationen von n linear unabhängigen Vektoren erzeugt einen Vektorraum der Dimension n. Diese Vektoren bilden dann eine Basis des Vektorraums, sie spannen ihn durch ihre Linearkombinationen auf. Sie bilden ein Koordinatensystem. Die Koordinaten, mit denen man einen Vektor darstellt, (Beispiel 1) hängen also vom gewählten Koordinatensystem (der Basis) ab! Wechselt man das Koordinatensystem (Basis) so muss man auch sie umrechnen! Auch das kennen Sie schon aus der analytischen Geometrie, Ebene, Wechsel der Richtungsvektoren. Man schreibt: $$ V = span \{ \vec{v_1} , \vec{v_2} , ...., \vec{v_n} \} = \{ \vec{v} | \vec{v} = x_1 \vec{v_1} + x_2 \vec{v_2} + ... + x_n \vec{v_n};\ x_1,...., x_n \in I\!\!R \}$$ Beispiele: $I\!\! R^1, I\!\! R^2, I\!\! R^3, I\!\! R^4 ... $ , die Dimension steht im Index oben.

Definition Vektorraum: Ein Vektorraum $V$ über einem Zahlkörper $K$ von Skalaren (z.B. reelle oder komplexe Zahlen) ist eine Menge, in der eine Vektoraddition $+$ und eine skalare Multiplikation $\cdot $ erklärt ist, und die bezüglich dieser beiden Operationen auch abgeschlossen ist.
Es muss also immer gelten (Abgeschlossenheit): $$ s\in K, v \in V \Rightarrow s\cdot v \in V \quad \mbox{ und } v,w \in V \Rightarrow v+w \in V $$ Alternativ kann man diese beiden Bedingungen auch als eine schreiben: $$ s\cdot v + t \cdot w \in V \mbox{ für alle } s,t \in K, v,w \in V $$ Beispiele: $I\!\! R^1, I\!\! R^2, I\!\! R^3, I\!\! R^4 ... $ , die Dimension steht im Index oben.

Beispiel 3: Die sogenannten Einheitsvektoren des kartesischen Koordinatensystems sind stets linear unabhängig, wie man sofort sieht, hier am Beispiel $I\!\! R^3$: $$ \vec{e_1} = \left( \begin{array}{r} 1 \\ 0 \\ 0 \end{array} \right) , \quad \vec{e_2} = \left( \begin{array}{r} 0 \\ 1 \\ 0 \end{array} \right) , \quad \vec{e_3} = \left( \begin{array}{r} 0 \\ 0 \\ 1 \end{array} \right) , \quad \quad I\!\!R^3 = span\{ \vec{e_1}, \vec{e_2} , \vec{e_3} \} $$ Lineare Unabhängigkeit: $$ 0 = \left( \begin{array}{r} 0 \\ 0 \\ 0 \end{array} \right) = x_1 \vec{e_1} + x_2 \vec{e_2} + x_3 \vec{e_3} = \left( \begin{array}{r} x_1 \\ x_2 \\ x_3 \end{array} \right) \Rightarrow x_1 = 0, x_2 = 0, x_3 = 0 $$ Diese Basis hat den Vorteil, dass man die Koordinaten zu einem gegebenen Vektor sofort ablesen kann. Zu $ \vec{v} $ aus Beispiel 1 etwa $ x_1 = 7, x_2 = -2, x_3 = 3 $
Man sieht so zugleich, dass diese Vektoren den gesamten Vektorraum $I\!\!R^3 $ erzeugen. Die folgenden Vektoren auch linear unabhängig. $$ \vec{w_1} = \left( \begin{array}{r} 1 \\ 0 \\ 0 \end{array} \right) , \quad \vec{w_2} = \left( \begin{array}{r} 1 \\ 1 \\ 0 \end{array} \right) , \quad \vec{w_3} = \left( \begin{array}{r} 1 \\ 1 \\ 1 \end{array} \right) , \quad $$ Lineare Unabhängigkeit: $$ 0= \left( \begin{array}{r} 0 \\ 0 \\ 0 \end{array} \right) = x_1 \left( \begin{array}{r} 1 \\ 0 \\ 0 \end{array} \right) + x_2 \left( \begin{array}{r} 1 \\ 1 \\ 0 \end{array} \right) +x_3 \left( \begin{array}{r} 1 \\ 1 \\ 1 \end{array} \right) = \left( \begin{array}{r} x_1 + x_2 + x_3 \\ x_2 + x_3 \\ x_3 \end{array} \right) \Rightarrow x_3 = 0 \Rightarrow x_2 = 0 \Rightarrow x_1 =0 $$ $$ I\!\!I\!\!R^3 = span\{ \vec{w_1}, \vec{w_2}, \vec{w_3} \} $$ Ferner: Die drei Vektoren $ \vec{e_1} , \vec{e_2} , \vec{w_2}$ sind linear abhängig, ($ 1\vec{e_1} + 1 \vec{e_2} = \vec{w_2} $). Die drei Vektoren $ \vec{e_1} , \vec{e_2} , \vec{w_3} $ sind linear unabhängig. Aufgabe: Bestimme die Koordinaten des in Beispiel 1 gegebenen Vektors $\vec{v} $ bezüglich der Basis $ \vec{w_1}, \vec{w_2}, \vec{w_3}, $ löse also: $$ \vec{v} = x_1 \vec{w_1} + x_2 \vec{w_2} + x_3 \vec{w_3}. $$ Die Darstellung eines Vektors bezüglich einer gegebenen Basis (=Bestimmung der Koordinaten eines Vektors in einen gegebenen Koordinatensystem) bedeutet also stets die Lösung eines linaren Gleichungssystems. Die gesuchten Koordinaten sind die Unbekannten. Ein Algorithmus dazu im nächsten Abschnitt über lineare Gleichungen.

Erzeugendensystem : Betrachtet man allgemein eine Menge von Vektoren, die einen Vektorraum aufspannen, so spricht man von einem Erzeugendensystem. Dieses kann jedoch auch linear abhängige Vektoren enthalten. Ein Erzeugendensystem, das nur aus linear unabhängigen Vektoren besteht, ist dann eine Basis. Eine Basis ist also immer ein linear unabhängiges Erzeugendensystem.
Beispiel: Betrachte die Vektoren aus Beispiel 3:
Erzeugendensystem des $ I\!\!R^3 $ z.B. $ \vec{e_1} , \vec{e_2} , \vec{e_3} ,\vec{w_3} $, jedoch keine Basis, da linear abhängig!
Basen des $I\!\!R^3$ wären etwa folgende Teilmengen dieses Erzeugendensystems:
$ \vec{e_1} , \vec{e_2} , \vec{e_3} $ oder $ \vec{e_1} , \vec{e_2} , \vec{w_3} $
$ \vec{e_1} , \vec{e_2} , \vec{w_2} $ ist keine Basis, weil es kein Erzeugendensystem ist (dritte Komponente aller drei Vektoren ist Null!).

Untervektorraum
Eine Teilmenge der Basis spannt einen Untervektorraum auf.
Beispiel: Etwa eine Ebene im $I\!\!R^3$, die durch die Nullpunkt verläuft. Mit den Vektoren aus Beispiel 3 z.B. $ E = span(\vec{w_1}, \vec{w_2} ) $.
Aufgabe: Skizziere diese Ebene im kartesischen Koordinatensystem.
Verschiebt man einen solchen Teilraum mit einem festen Vektor, so nennt man dies auch einen affinen Teilraum oder Hyperebene.
Bereits bekanntes Beispiel : Eine Ebene im $I\!\!R^3$ , die nicht durch den Nullpunkt verläuft, mit Aufpunkt/Verschiebungsvektor. $$ E: \vec{a} + span( \vec{v_1} , \vec{v_2} ), \quad z.B. \left( \begin{array}{r} x \\ y \\ z \end{array} \right) = \left( \begin{array}{r} 1 \\ 1 \\ 1 \end{array} \right) + t \left( \begin{array}{r} 7 \\ 1 \\ 0 \end{array} \right) + s \left( \begin{array}{r} 0 \\ -1 \\ 1 \end{array} \right), \ t,s, \in I\!\!R $$ Frage: Welche der beiden folgenden Ebenengleichungen beschreibt eine Ebene, die durch den Nullpunkt verläuft (zweidimensionaler Unterraum des $I\!\!R^2$) und welche eine mit Aufpunkt verschobene Ebene (affiner Teilraum)?
$$ E_1: 2x-y+3z =5 , \qquad E_2: 2x+y+3z + 5 = 5 $$ Stellen Sie auch die Ebenen mit Aufpunkt und Richtungsvektoren dar.

Orthogonalität, Orthogonale (orthonormale) Basis - erleichtert viele Rechnungen!

Definition Skalarprodukt allgemein.
Das Skalarprodukt auf einem reellen Vektorraum ist eine Abbildung $ \bullet : V \times V \to I\!\!R $ , die in beiden Argumenten linear ist (sog. Bilinearform):
$$ (tv) \bullet w = t ( v \bullet w ) = v \bullet (tw ), \qquad v,w \in V, t \in I\!\! R $$ $$ (v+u ) \bullet w = v \bullet w + u \bullet w , \qquad v \bullet (w + u ) = v \bullet w + v \bullet u, \quad u,v,w \in V $$ die Symmetriebedingung $$ v \bullet w = w\bullet v $$ erfüllt und positiv definit ist: $$ v \bullet v \ge 0, \qquad v \bullet v =0 \Leftrightarrow v = 0 $$ Andere Notationen des Skalarprodukts (Physik) $ \langle v, w \rangle , \langle v| w \rangle , (v|w) .$
Das Skalarprodukt definiert ein Längenmaß für Vektoren: $$ \| v \| = \sqrt{ v \bullet v } $$ Es gilt die Ungleichung $$ |v \bullet w | \le \| v\| \|w\| $$ Ferner für das Längenmaß (Norm) $$ | \|v\| - \|w\| | \le \| v \pm w\| \le \|v\| + \|w\| , \quad \|t w\| = |t| \|w\|, \ t\in I\!\! R $$ Bemerkung: Einen Vektorraum, der mit einem Skalarprodukt versehen wird und der bezüglich des vom Skalarprodukts induzierten Längenmaßes (Metrik, Norm) vollständig ist (Cauchyfolgen sind konvergent) nennt man auch Hilbertraum. Orthogonal-Basen in einem solchen Raum werden dementsprechend oft Hilbert-Basen genannt (Physik, Nachrichtentechnik).
Definition: Zwei Vektoren $ \vec{v}, \vec{u} \in V $ heißen orthogonal bezüglich $ \bullet $ wenn $$ \vec{v}\bullet \vec{u} = 0 $$

Länge und orthonormale Vektorsysteme

Durch das Skalarprodukt ist wie schon in den bekannten Vektorräumen $I\!\!R^2, I\!\!R^3$ auch allgemeiner ein Längenmaß für Vektoren gegeben. Man definiert die (sogenannte euklidische ) Länge eines Vektors ganz analog $$ \| \vec{v} \| = \sqrt{ \vec{v} \bullet \vec{v} } $$ Für den Vektorraum $ I\!\!R^n $ erhält man mit dem üblichen Skalarprodukt $$ \vec{v} \bullet \vec{w} = v_1 w_1 + v_2 w_2 + ...... v_n w_n $$ so das Längenmaß $$ \| \vec{v} \| = \sqrt{ \vec{v} \bullet \vec{v} } = \sqrt{ v_1^2 + v_2^2 + ...... v_n^2 }, \quad v \in I\!\!R^n $$ wie für n=2,3 schon aus der Schule bekannt. Ebenso kann man analog einen Winkel zwischen zwei Vektoren $ \vec{v} ; \vec{w} $ berechnen: $$ \vec{v} \bullet \vec{w} = \cos(\phi( \vec{v} ; \vec{w} ) ) \cdot \| \vec{v} \| \| \vec{w} \| \Rightarrow \phi(\vec{v} ; \vec{w} ) = \arccos \left( \vec{v} \bullet \vec{w} \over \| \vec{v} \| \| \vec{w} \| \right) $$ Besteht die Basis eines Vektorraums nur aus paarweise orthogonalen Vektoren mit der Länge 1, so nennen wir sie orthonormal Durch Division durch die Länge eines Vektors können wir jeden auf die Länge 1 normieren. Somit kann man aus einer orthogonalen auch stets einfach eine orthonormale Basis herstellen.

Satz:Orthogonalsysteme sind immer linear unabhängig:
Auch dies kennen Sie bereits aus dem Spezialfall $I\!\!R^3$. Zwei aufeinander senkrecht stehende Vektoren spannen eine Ebene auf. Nimmt man einen dritten orthogonalen z.B. als deren Vektorprodukt dazu, so kann man den ganzen Raum aus deren Linearkombinationen aufspannen.

Definition: Zwei Vektoren $ \vec{v}, \vec{u} \in V $ heißen orthogonal bezüglich $ \bullet $ wenn $$ \vec{v}\bullet \vec{u} = 0 $$
Satz: n paarweise bezüglich dieses Skalarprodukts orthogonale (aufeinander senkrecht stehende) Vektoren sind dann stets linear unabhängig und spannen damit einen Vektorraum der Dimension n auf.
Die lineare Unabhängigkeit ist schnell einzusehen. $ \vec{v_1} , \vec{v_2}, \vec{v_n} , k=1, ..., n$ sei ein Orthogonalsystem. Wir bilden ein Skalarprodukt eines Vektors $ \vec{v_k} $ mit der Gleichung $$ 0 = x_1 \vec{v_1} + x_2\vec{v_2} + .... + x_n \vec{v_n} $$ und nutzen die Orthogonalität aus: $$ 0 = \vec{v_k} \bullet 0 = \vec{v_k} \bullet (x_1 \vec{v_1} + x_2\vec{v_2} + .... + x_n \vec{v_n}) = x_k \vec{v_k} \bullet \vec{v_k} $$ Damit ergibt sich nacheinander für $ k=1, 2, ..n $ dann $ 0= x_1 = x_2 = x_3 = .... = x_n $

(Vgl das analoge Vorgehen bei Ebenengleichungen, Multiplikation mit Normalenvektor, Skalarform/implizite Form der Ebenengleichung).

Man kann die Orthogonalität auch nutzen, um sehr einfach die Koordinaten in einer Linearkombination zu bestimmen, wenn man einen Vektor durch eine Basis darstellen (nach dieser Basis entwickeln) will. Das ist einer der wesentlichen Vorteile orthogonaler Basen.

Beispiel 4(Vorteil der Orthogonalität):
Gesucht sind die Koordinaten $x_1, x_2, x_2 $ von $ \vec{v} $ bezüglich einer Orthogonalen Basis: $$ \vec{v} = \left( \begin{array}{r} 7 \\ -2 \\ 3 \end{array} \right) = x_1 \left( \begin{array}{r} 1 \\ 0 \\ -1 \end{array} \right) + x_2 \left( \begin{array}{r} 1 \\ 2 \\ 1 \end{array} \right) + x_3 \left( \begin{array}{r} 1 \\ -1 \\ 1 \end{array} \right) = x_1 \vec{v_1} + x_2 \vec{v_2} + x_3 \vec{v_3} $$ Da die Vektoren $ \vec{v_k}, k=1,2,3 $ auf der rechten Seite der Gleichung alle orthogonal sind, somit eine orthogonale Basis des $I\!\!R^3$ bilden, kann man die Koordinaten von $\vec{v} $ fast sofort hinschreiben, ohne dafür ein 3x3 Gleichungssystem mit dem Gauß-Algorithmus lösen zu müssen. Man bildet dazu nacheinander das Skalarprodukt links und rechts in der Gleichung mit $ \vec{v_1}, \vec{v_2}, \vec{v_3} $. $$ 4 = \vec{v_1} \bullet \vec{v} = \vec{v_1}\bullet ( x_1 \vec{v_1} + x_2 \vec{v_2} + x_3 \vec{v_3}) = x_1 \vec{v_1} \bullet \vec{v_1} + 0 + 0 = x_1 2 \Rightarrow x_1 = 4/2 = 2 $$ Analog für $ \vec{v_2} , \vec{v_3} $ somit: $$ x_1 = { \vec{v_1} \bullet \vec{v} \over \vec{v_1} \bullet \vec{v_1} } = { 4 \over 2} = 2 , \quad x_2 = { \vec{v_2} \bullet \vec{v} \over \vec{v_2} \bullet \vec{v_2} } = { 6 \over 6 } = 1 , \quad x_3 = { \vec{v_3} \bullet \vec{v} \over \vec{v_3} \bullet \vec{v_3} } = { 12 \over 3} = 4 $$

Allgemeine Koordinatendarstellung in einem Orthogonalsystem

$$\vec{v} = x_1 \vec{v_1} + x_2 \vec{v_2} + ... + x_n \vec{v_n} $$ Gesucht seien die Zahlen $x_1 ,..x_n $. Wenn die Vektoren $ \vec{v_k} $ nicht paarweise orthogonal sind, muss man dazu ein Gleichungssystem lösen (siehe nächstes Kapitel). Sind sie paarweise orthogonal, so kann man die $x_k$ wie im Beispiel 4 sofort hinschreiben: $$ x_k = { \vec{v_k} \bullet \vec{v} \over \vec{v_k} \bullet \vec{v_k} } $$ denn $$ \vec{v_k}\bullet \vec{v} = \vec{v_k}\bullet ( x_1 \vec{v_1} + x_2 \vec{v_2} + ... + x_n \vec{v_n}) = x_k \vec{v_k} \bullet \vec{v_k} $$ Denn $ k\ne l : \ \vec{v_k} \bullet \vec{v_l} = 0 $
Orthogonalsysteme werden wir im Abschnitt zu Eigenwerten/Eigenvektoren näher betrachten.


Projektion eines Vektors auf einen anderen, Orthogonalzerlegung

Auch die Projektion eines Vektors auf einen anderen lässt sich direkt vom $I\!\!R^3$ auf höhere Dimensionen übertragen. Die Formel bleibt dieselbe, die Begründung dazu auch:

Gegeben zwei Vektoren $ \vec{v} , \vec{u}. $
Bestimme eine Linearkombination $ \vec{v}_{\bot u } $ aus beiden Vektoren, die senkrecht (orthogonal) zu $ \vec{u} $ ist $$ \vec{v}_{\bot u } = ( \vec{v} - t\vec{u} ), \qquad \vec{v}_{\bot u } \bot \ \vec{u}, \qquad ( \vec{v} - t \vec{u}) \bullet \vec{u} = 0 \Rightarrow t = { \vec{v} \bullet \vec{u} \over \vec{u} \bullet \vec{u} } $$ Damit ist auch die Gleichung $ t \vec{u} + \vec{v}_{\bot u } = t \vec{u} + (\vec{v} -t \vec{u}) = \vec{v} $ erfüllt (siehe Skizze) und $ \vec{v}_{\| u } = t\vec{u} $ ist dann die Projektion von $ \vec{v} $ auf $ \vec{u}. $ $$ \mbox{Projektion von v auf u } : \ \vec{v}_{\| u }= {\vec{v} \bullet \vec{u} \over \vec{u}\bullet \vec{u} } \cdot \vec{u}, \qquad \vec{v}_{\bot u } = \vec{v}_{ } - \vec{v}_{\| u } , \qquad \vec{v} = \vec{v}_{\| u } + \vec{v}_{\bot u } $$ Damit überträgt sich auch die Darstellung eines Vektors als Summe aus seiner Projektion $ \vec{v}_{\| } $ auf einen anderen Vektor und die Senkrechte $ \vec{v}_{\bot }$ dazu - die Orthogonalzerlegung eines Vektors wie bei Kräften in der Mechanik -auch auf höhere Dimensionen. (Skizze)

Beispiel: $$ \vec{v} = \left( \begin{array}{r} 1 \\ 2 \\ 0 \\ 1 \end{array} \right), \quad \vec{u} = \left( \begin{array}{r} 2 \\ 1 \\ 1 \\ 0 \end{array} \right), $$ $$ t = { \vec{v} \bullet \vec{u} \over \vec{u} \bullet \vec{u} } = {2\over 3 }, \quad \vec{v}_{\| u } = {2\over 3 } \left( \begin{array}{r} 2 \\ 1 \\ 1\\ 0 \end{array} \right), $$ $$ \vec{v}_{\bot u } = \vec{v}_{ } - \vec{v}_{\| u } = {1 \over 3 } \left( \begin{array}{r} -1 \\ 4 \\ -2 \\ 3 \end{array} \right), $$ Probe: $$ \vec{v}_{\bot u } \bullet \vec{u} = 0, \quad \vec{v}_{\bot u } + \vec{v}_{\| u } = \vec{v} $$

Aus zwei gegebenen Vektoren $\vec{v} , \vec{u} $ kann man auf diese Weise also immer zwei orthogonale Vektoren $ \vec{v}_{\bot u }, \vec{u} $ berechnen, die denselben Spannraum haben. Führt man das Ganze rekursiv für einen Vektorsystem von $n$ Vektoren durch, so erhält man das
Gram-Schmidt Verfahren:
Mit diesem rekursiven Algorithmus kann man aus einer beliebigen Basis eines Vektorraums stets eine orthogonale Basis berechnen, indem immer die "Nichtorthogonalanteile" $ \vec{v}_{\| } $ weggenommen werden.
Link zu Gram-Schmidt ON-Verfahren

Projektion auf einen Unterraum, Abstand eines Vektors zu einem Unterraum

Auch hier eine ganz natürliche Verallgemeinerung der aus dem $R^3$ bekannten Darstellungen und Formeln zur Projektion eines Vektors auf eine Ebene, kürzester Abstand Punkt-Ebene (durch den Nullpunkt).
$$ U \mbox{sei ein Unterraum von V }, \quad U = span\{ u_1, ...u_k \} \subset V $$ Projektion auf U: Gegeben ein Vektor $w \in V$.
Finde den Vektor in $ \bar{u} \in U$ der zu $w$ den kürzesten Abstand besitzt. Diesen Vektor nennen wir dann Projektion von $w$ auf $U$.
Eine solche Projektion können wir durch eine notwendige und hinreichende (also äqulvalente) Bedingung charakterisieren, und damit auch berechnen. $$ \bar{u} \in U \quad \mbox{ sei Lösung von } \quad \min_{ u\in U } \| u-w\|^2 $$ ist äquivalent zu $$ (\bar{u} -w) \bullet u = 0, \mbox{ für alle } u\in U \quad \mbox{ oder kurz } (\bar{u} -w) \bot U $$ Der Differenzvektor $ (\bar{u} -w) $ ist also orthogonal zum Unterraum $U$, seine Länge $$ \|\bar{u} -w \| $$ ist der Abstand von $w$ zu $U$. (anschaulich im $R^3 $ klar, siehe Skizze, ein kleiner Beweis für den Allgemeinfall dazu unten).

In einem endlichdimensionalen Raum $U$ setzen wir nacheinander in diese Bedingung die Basisvektoren für $u$ ein und erhalten so ein Gleichungsystem für die Koordinaten der Projektion $\bar{u} $ von $w$ auf $U$. Daraus können wir dann die Projektion und den Abstand des Vektors zum Unterraum berechnen. $$ \bar{u} = x_1 u_1 + ....x_k u_k , \quad \mbox{ bestimmt durch k Gleichungen } (\bar{u} -w) \bullet u_l = 0, l= 1, ..., k $$ Ist die Basis sogar orthogonal so können wir die Koordinaten $x_k$ wieder wie oben direkt über Skalarprodukte angeben, indem wir die Orthogonalität nutzen ( $ u_l \bullet u_k = 0 , l \ne k $ ): $$ (\bar{u} -w) \bullet u_l = 0 \Leftrightarrow \bar{u} \bullet u_l = w \bullet u_l = 0 \Leftrightarrow (x_1 u_1 + ....x_k u_k) \bullet u_l = x_l (u_l \bullet u_l ) = w \bullet u_l $$ somit $$ x_l = { w \bullet u_l \over u_l \bullet u_l }, \ l=1, ..k $$ Beispiel 5(a) : Orthogonale Basis von U $$k=2; \quad U \subset R^4, \ U = span\{ u_1, u_2 \},\quad u_1 = \left( \begin{array}{r} 1 \\ 1 \\ 0\\ 0 \end{array} \right), \ u_2 = \left( \begin{array}{r} 0 \\ 0 \\ 1 \\ 1 \end{array} \right), \quad w = \left( \begin{array}{r} 2 \\ 1 \\ 0\\ 1 \end{array} \right), \ $$ $u_1 \bullet u_2 =0$, bildet also orthogonale Basis von $U$. Die Projektion von $w$ auf den zweidimensionalen Unterraum $U$ berechnen wir dann wie folgt: $$ \bar{u} = x_1 u_1 + x_2 u_2, \quad x_1 = { w \bullet u_1 \over u_1 \bullet u_1 } = { 3 \over 2 } , \quad x_2= { w \bullet u_2 \over u_2 \bullet u_2 }, = { 1 \over 2 } $$ Beispiel 5(b) : Nichtorthogonale Basis von U : $$k=2; \quad U \subset R^4, \ U = span\{ u_1, u_2 \},\quad u_1 = \left( \begin{array}{r} 1 \\ 1 \\ 0\\ 1 \end{array} \right), \ u_2 = \left( \begin{array}{r} 0 \\ 0 \\ 1 \\ 1 \end{array} \right), \quad w = \left( \begin{array}{r} 2 \\ 1 \\ 0\\ 1 \end{array} \right), \ $$ $u_1 \bullet u_2 =1 \ne 0 $, bildet also keine orthogonale Basis von $U$. Somit muss man die Koordinaten $x_k, k=1,2 $ der Projektion $\bar{u} $ von $w$ auf $U$ nun durch Lösen eines kleinen Gleichungssystems (2x2) ermitteln, da die Produkte $u_k\bullet u_j , j\ne k $ hier leider nicht Null werden. $$ \bar{u} = x_1 u_1 + x_2 u_2, \quad (\bar{u} - w) \bullet u_l =0, \ l=1,2 \Leftrightarrow \left( \begin{array}{r} x_1 (u_1 \bullet u_1) + x_2 (u_2 \bullet u_1) = w \bullet u_1 \\ x_1 (u_1 \bullet u_2) + x_2 (u_2 \bullet u_2) = w \bullet u_2 \end{array} \right) $$ Zu Lösen ist also nach den unbekannten Koordinaten $x_1 , x_2 $ $$ \left( \begin{array}{r} 3 x_1 + 1x_2 = 4 \\ 1 x_1 + 2 x_2 = 1 \end{array} \right) \Rightarrow x_2 = -1/5; \ x_1 = 7/5. $$

Beweisskizze zu: Die Orthogonalitätsbedingung $ \bar{u} - w \bot U, $ oder $ (\bar{u} - w) \bullet u = 0,\ u\in U $ charakterisiert äquivalent die Projektion/Minimalabstand von $w$ aauf $U$.
Notwendigkeit: Es sei $\bar{u} $ eine Minimalstelle, hier also die Projektion von $w$ auf $U$, also $$ (*): \ \| \bar{u} -w\|^2 \le \| u-w\|^2 \quad \mbox{ für alle } u\in U $$ Behauptung: Dann gilt die Orthogonalitätsbedingung $$ (\bar {u} - w) \bullet h = 0 \quad \mbox{ für alle } h \in U . $$ Für $h \in U $ und $t \in I\!\! R, t\ge 0 $ definieren wir die reelle Funktion $$ f(t,h) = \| \bar{u} + th -w\|^2 = ( \bar{u} + th -w ) \bullet ( \bar{u} + th -w) $$ Aufgrund der Optimalität (*): $$ f(0,h) = \| \bar{u} -w\|^2 \le \| \bar{u} + th -w\|^2 = f(t,h) $$ Somit für $ t \gt 0$ $$ 0 \le { 1\over t } ( f(t,h) - f(0,h) ) = { 1\over t } \Big( ( \bar{u} + th -w ) \bullet ( \bar{u} + th -w) - ( \bar{u} -w ) \bullet ( \bar{u} -w) \Big) = 2(\bar {u} - w) \bullet h + t ( h \bullet h ) \ $$ Grenzübergang $ t \to 0_+$ lässt den letzten Term verschwinden.
Damit gilt erhält man dann die Optimalitätsbedingung $$ 2(\bar {u} - w) \bullet h = \lim_{ t \to 0_+} { 1\over t } ( f(t,h) - f(0,h) ) \ge 0 $$ Da $U$ ein Untervektoraum ist, gilt diese Ungleichung für jedes $h \in U $ und damit gleichzeitig auch für $-h\in U$ und damit liegt Gleichheit vor. $$ 2(\bar {u} - w) \bullet h \ge 0 \mbox{ und } 2(\bar {u} - w) \bullet (-h) \ge 0 \Rightarrow 2(\bar {u} - w) \bullet h = 0 $$ Wir zeigen nun umgekehrt: Die Bedingung $ (\bar {u} - w) \bullet h = 0 , $ für alle $ h\in U $ ist auch hinreichend für Optimalität:
Wir führen dazu einen Widerspruchsbeweis.
Widerspruchsannahme: Die Bedingung sei erfüllt, $ (\bar {u} - w) \bullet h = 0 , $ es gebe aber dennoch ein $u \in U$ mit $$ \| \bar{u} -w\|^2 \gt \| u-w\|^2 , \quad \mbox{ also } d= \| \bar{u} -w\|^2 - \| u-w\|^2 \gt 0 $$ $\bar{u}$ sei also nicht minimal. Wir definieren $f$ wie oben im Beweis der notwendigen Bedingung und erhalten durch Ausrechnen des ersten Skalarprodukts und aus der vorausgesetzten Bedingung $ 2(\bar {u} - w) \bullet h = 0 , $ für alle $t\ge 0 , h\in U, $ $$(**) \quad f(t,h) - f(0, h) = ( \bar{u} + th -w ) \bullet ( \bar{u} + th -w) - ( \bar{u} -w ) \bullet ( \bar{u} -w) = 2t ( \bar{u} -w ) \bullet h + t^2 \| h \|^2 = t^2 \| h \|^2 \ge 0 $$ Wir setzen nun speziell $ h = u- \bar{u} \ne 0 $ da $ u \ne \bar{u} . $ Dann ist mit $w = t w + (1-t) w $ $$ f(t, u-\bar{u}) = ( \bar{u} + t(u-\bar{u}) -w ) \bullet ( \bar{u} + t(u- \bar{u}) -w) = (1-t)^2 \| \bar{u} - w \| + t^2 \| u - w \|^2 + 2t(1-t) ( \bar{u} - w ) \bullet (u-w) $$ Den letzten Term können wir weiter abschätzen (beachte: aus der binom. Formel folgt $ 2ab \le a^2 + b^2 $) $$ | 2t(1-t) ( \bar{u} - w ) \bullet (u-w) | \le 2t(1-t) \| \bar{u} - w \| \cdot \| u - w \| \le (1-t)^2 \| \bar{u} - w \|^2 + t^2 \| u - w \|^2 $$ Fassen wir die Abschätzungen zusammen so erhalten wir $$ f(t, u-\bar{u}) \le 2 (1-t)^2 \| \bar{u} - w \|^2 + 2 t^2 \| u - w \|^2 = 2 (1-t)^2 f(0, u- \bar{u} ) + 2 t^2 f(1, u- \bar{u} ) $$ Nun setzen wir speziell $ t = 1/2 $ ein und sehen $$ f( 1/2 , u-\bar{u}) - f(0, u- \bar{u} ) \le {1 \over 2 } ( f(1, u- \bar{u} ) - f(0, u- \bar{u} ) ) = {1 \over 2 } ( \| u-w\|^2 - \| \bar{u} -w\|^2 ) = -{1\over 2 } d \lt 0 $$ Dies steht aber im Widerspruch zu $(**)$, wenn wir dort speziell $t= 1/2 $ und $ h = u-\bar{u} $ wählen. Somit ist unsere Widerspruchsannahme falsch und $\bar{u}$ minimal.

Hinweis (für Mathematikstudenten): In der Optimierungstheorie werden solche Optimalitätsbedingungen für konvexe, stetige Funktionale bewiesen. Der Beweis der notwendigen Bedingung verläuft ähnlich wie oben. Die etwas mühsame direkte Abschätzung im hinreichenden Teil wird dann einfach durch die Voraussetzung "Konvexität" ersetzt und man kann die Konvexitätsungleichung ausnutzen, muss dann nicht mit den Quadraten hantieren. Das hier betrachtete Funktional $ F: u \to \| u-w\|^2 $ ist als Verkettung des konvexen Normquadrats mit einer affin linaren Funktion tatsächlich auch konvex, (sogar strikt konvex). Das muss man natürlich auch erst einmal nachweisen. Ist das getan, so reduziert sich die Erzeugung des Widerspruchs in den letzten beiden Zeilen auf $$ F( \bar{u} + t (u-\bar{u} ) ) - F(\bar{u} ) \le t F (u) + (1-t) F(\bar{u} ) - F(\bar{u} ) = t ( F (u) - F(\bar{u} ) ) \lt 0 $$ (Konvexität von $F$ benutzt. ) Ich habe die direkte Abschätzungtechnik hier jedoch absichtlich benutzt und nicht auf allgemeine Sätze verwiesen, weil sie exemplarisch für Hilbertraummethoden ist und in vielen Situationen (z.B. Numerik - Abschätzung von Konvergenzordnungen) immer wieder benötigt wird.



Projektion auf einen affinen Teilraum, Abstand eines Vektors zu einem affinenTeilraum

Auch hier eine ganz natürliche Verallgemeinerung der aus dem $R^3$ bekannten Darstellungen und Formeln zur Projektion eines Vektors auf eine verschobene Ebene, kürzester Abstand Punkt-Ebene, die nicht durch den Nullpunkt geht.
$ \vec{a} $ sei der Verschiebungsvektor,
$ U \mbox{sei ein Unterraum von V }, $ $$ U = span\{ u_1, ...u_k \} \subset V $$ Projektion auf $ E= \vec{a} + U $:
Gegeben ist ein Vektor $\vec{w'} \in V$.
Finde den Vektor in $ \bar{u}' = \vec{a}+ \bar{u} \in \vec{a} + U$, der zu $w'$ den kürzesten Abstand besitzt. Weil wir die Ebene nur um $ \vec{a} $ verschoben haben, können wir die Lösung dieses Problems über die des nichtverschobenen Problems oben ermitteln, siehe Skizze. $$ \mbox{Setze: } \quad \vec{w} := \vec{w'} - \vec{a} $$ Berechne dann $ \bar{u} $ zu $\vec{w} $wie im nichtverschobenen Problem oben
Die gesuchte Projektion von $w'$ auf $E $ ist dann $$ u' = \vec{a} + \bar{u} $$

Zu berechnen ist also die Lösung des Gleichungssystems (beachte $w = w' - \vec{a} $) : $$ \bar{u} = \sum_{l=1}^k x_l \vec{u}_l , \quad (\bar{u} - \vec{w} ) \bot U , \quad (\bar{u} - \vec{w} ) \bullet \vec{u}_l = (\bar{u} - \vec{w'} + \vec{a} ) \bullet \vec{u}_l = 0, \quad l=1,2, .., k $$ Der Vektor $ \vec{a} + \bar{u} $ ist dann die Projektion von $\vec{w'} $ auf $E $. Die Lösung kann man wiederum einfach hinschreiben, wenn die Basis von $U$ orthogonal ist, ansonsten hat man ein eventuell volles Gleichungssystem mit $k$ Unbekannten $x_1, ...x_k $ zu lösen.

Wir betrachten ein Beispiel aus dem $R^3$ das wir natürlich in diesem speziellen Fall auch anders rechnen könnten (z.B. über ein Vektorprodukt) . Unsere allgemeine Methode funktioniert aber in jeder Dimension.

Beispiel 6 : Nichtorthogonale Basis von U , Affiner Teilraum/Ebene in $R^3$, Projektion eines Vektors $\vec{w'} $ auf die Ebene, Abstand. : $$k=2; \quad U \subset R^3, \ U = span\{ \vec{u}_1, \vec{u}_2 \}, \quad E: \vec{a} + U $$ $$ \vec{u}_1 = \left( \begin{array}{r} 1 \\ 0 \\ 1 \end{array} \right), \ \vec{u}_2 = \left( \begin{array}{r} 0 \\ 2 \\ 1 \end{array} \right), \quad \vec{w'} = \left( \begin{array}{r} 2 \\ 1 \\ 1 \end{array} \right), \ \vec{a} = \left( \begin{array}{r} 1 \\ 1 \\ 1 \end{array} \right), \ \vec{w} =\vec{w'} - \vec{a} = \left( \begin{array}{r} 1 \\ 0 \\ 0 \end{array} \right), \ $$ $u_1 \bullet u_2 =1 \ne 0 $, bildet also keine orthogonale Basis von $U$. Somit muss man die Koordinaten $x_k, k=1,2 $ der Projektion $u' = \vec{a} + \bar{u} $ von $\vec{w'} $ auf $ \vec{a} + U $ nun durch Lösen eines kleinen Gleichungssystems (2x2) ermitteln, da die Produkte $u_k\bullet u_j , j\ne k $ hier leider nicht Null werden. $$ \bar{u} = x_1 u_1 + x_2 u_2, \quad (\bar{u} - w) \bullet u_l =0, \ l=1,2 \Leftrightarrow \left( \begin{array}{r} x_1 (u_1 \bullet u_1) + x_2 (u_2 \bullet u_1) = w \bullet u_1 \\ x_1 (u_1 \bullet u_2) + x_2 (u_2 \bullet u_2) = w \bullet u_2 \end{array} \right) $$ Zu Lösen ist also nach den unbekannten Koordinaten $x_1 , x_2 $ $$ \left( \begin{array}{r} 2 x_1 + 1x_2 = 1 \\ 1 x_1 + 5 x_2 = 0 \end{array} \right) \Rightarrow x_2 = - {1 \over 9} ; \ x_1 = {5 \over 9} . \quad \bar{u} = x_1 u_1 + x_2 u_2 = {1 \over 9} \left( \begin{array}{r} 5 \\ -2 \\ 4 \end{array} \right), $$ $$ \mbox{ Abstand } \quad \| \bar{u}' - \vec{w'} \| = \| \bar{u} - \vec{w} \| = { 2 \over 3 } $$ Den Abstand hätten wir in diesem Fall auch über den Normalenvektor berechnen können. ( Das aber nur in der Dimension $n=3$ und wir erhalten so nicht die Projektion, nur den Abstand! ) $$ \vec{n} = \vec{u}_1 \times \vec{u}_2 , \quad \| \bar{u} - \vec{w} \| = { | \vec{n} \bullet ( \vec{w'} - \vec{a} ) | \over \| \vec{n} \| } = { 2 \over 3 } $$


Aufgaben/Beispiele dazu hier
Anwendungen der Projektion zur Parameterschätzung (Regression) hier

Weitere Beispiele für Vektorräume

Die komplexen Zahlen z = x + jy kann man als Vektorraum über dem Skalarkörper $K= I\!\!R $ sehen. Dieser Vektorraum hat dann die Dimension 2, sichtbar an der Gauß'schen Zahlenebene. Die komplexe Multiplikation spielt hier keine Rolle, es geht nur um die Vektorraumstruktur.
Man kann die komplexen Zahlen aber auch als Vektorraum über dem Skalarkörper $\mathbf{C} $ betrachten, dann haben sie die Dimension 1. Man kann jede komplexe Zahl erzeugen, indem man die $1$ skalar mit einer passenden Zahl aus dem Skalarkörper $\mathbf{C} $ multipliziert. $\mathbf{C} = span\{1\} . $
Dasselbe gilt für komplexe Vektoren (und Matrizen später) - man kann sie immer komponentenweise in Real- und Imaginärteil (jeweils reelle Vektoren bzw Matrizen) zerlegen. $$ \vec{v} \in \mathbf{C}^n : \vec{v} = \vec{u} + j \vec{w}, \quad \vec{u}, \vec{w} \in I\!\!R^n \quad \mbox{Beispiel: } \left(\begin{array}{r } 3 + 7j \\ 1-5 j \end{array}\right) = \left(\begin{array}{r } 3 \\ 1 \end{array}\right) + j \left(\begin{array}{r } 7 \\ -5 \end{array}\right) $$
Das entspricht ihrer Interpretation als Vektorraum über den reellen Zahlen. Ihre Dimension verdoppelt sich dann (2n) gegenüber der Interpretation als Vektorraum über dem Skalarkörper $\mathbf{C} . (Dim=n)$. Im Grunde genommen handelt es sich verschiedene Vektorräume, da sich die Skalarkörper unterscheiden.
Das Skalarprodukt in $\mathbf{C}^n $ unterscheidet sich etwas vom dem für reelle Vektoren: $$ \vec{v} \bullet \vec{w} = v^*_1 w_1 + v^*_2 w_2 + ...... v^*_n w_n $$ Würde man die Komponenten von $\vec{v} $ darin nicht konjugieren, dann wäre für manche Vektoren das Produkt $\vec{v}\bullet \vec{v} $ eventuell negativ oder nicht reell. Beides wären für ein Skalarprodukt unerwünschte Eigenschaften.

Anmerkungen zu Koordinatensystemen

In der Physik bemüht man sich, Gesetze koordinatenfrei, also unabhängig von Koordinatensystemen zu formulieren, etwa mit einem universalen Ortsvektor $\vec{r}$ in der Mechanik. Der Grund: Je nach Anwendungsfall auf ein konkretes Problem möchte man sich die Freiheit lassen, ein günstiges Koordinatensystem zu wählen. Günstig bedeutet zum Beispiel: Die Formeln und Rechnungen werden einfacher, und man spart sich u.U. auch Koordinatentransformationen. Deswegen ist es wichtig, mit unterschiedlichen Basen/Koordinatensystemen arbeiten zu können. Nicht immer sind orthogonale dabei die besten. In der Kristallographie z.B. verwendet man oft auch schiefwinklige Koordinatensysteme, die an die Struktur der Kristallgitter angepasst sind.

Kleiner Ausblick auf weitere Vektorräume in Anwendungen, die nicht aus Zahlentupeln bestehen.

Das soll Ihnen zeigen, dass die Betrachtung von Vektorräumen jenseits des dreidimensionalen nicht nur "l'art pour l'lart" von ein paar spinnerten Mathefreaks ist, sondern dass diese Räume ganz handfeste Anwendungen finden. Ohne solche Vektorräume gäbe es kein Handy, keinen DVD player, keine digitalisierte Musik oder Bilder, kein VoIP. Und auch keine elektronischen Motorsteuerungen und keine modernen (chipgesteuerten) Haushaltsgeräte.

Reelle oder komplexe ganzrationale Funktionen bilden Vektorräume. Beispiel: Betrachte die Menge $P_2(R)$ aller ganzrationalen reellen Funktionen vom Grad höchstens 2, also Funktionen des Typs: $$ t \to p(t) = a + b t + c t^2 , \quad a,b, c \in I\!\! R = K $$ Diese bilden einen Vektorraum der Dimension 3 über dem Köper der reellen Zahlen. Aus der Schule bekannt: Addiert man solche Funktionen, so erhält man wieder eine ganzrationale Funktion vom Grad maximal 2, ebenso, wenn man sie mit einer reellen Zahl multipliziert. Die Abgeschlossenheit ist also erfüllt.
Eine Basis ist zum Beispiel $$ p_1 = 1, \quad p_2 = t, \quad p_3 = t^2 $$ eine andere Basis wäre $$ q_1 = 1+t, \quad q_2 = 1-t,\quad q_3 = t^2 $$ Nachweis der linearen Unabhängigkeit über den bereits bekannten Koeffizientenvergleich oder durch Einsetzen einiger $t$-Werte und Lösen des Gleichungssystems.

$$ x_1 p_1(t) + x_2 p_2(t) + x_3 p_3(t) = 0 \Rightarrow x_1 = x_2 = x_3 = 0 $$ n analoger Weise definiert man Räume höherer Dimension $P_3(R) = span(1; t; t^2; t^3) $ usw.
Es gibt zahlreiche weitere Polynombasen für diesen Raum, die teilweise für bestimmte Anwendungen relevant sind, zum Beispiel Interpolations- und Approximationsaufgaben (Lagrangepolynome, Legendrepolynome, Hermitepolynome u.a.)
Statt reeller kann man auch komplexe Polynome betrachten, dann allerdings mit dem Skalarkörper $ K = C$.

Auch trigonometrische Funktionen des Typs $$ t \to u(t)= \sin(w_k t ) , \quad t \to \cos(w_k t ) , w_k = 2k \pi, k=1, 2, ... $$ (oder allgemein $w_k $ paarweise verschiedene Zahlen) sind linear unabhängig und erzeugen Vektoräume. Für ein passend konstruiertes Skalarprodukt, bei dem allerdings Integration erforderlich ist, $$ \vec{u} \bullet \vec{w} = c\int_{-a}^a u(t)w(t) dt, \quad \mbox{a,c passend zur Basis zu wählende Konstanten } $$ sind diese Funktionen orthogonal, damit auch linear unabhängig.
Diese trigonometrischen Basen sind von Bedeutung in nachrichtentechnischen Anwendungen, die sich mit Signalübertragung, -darstellung, Digitalisierung analoger Signale befassen. Siehe z.B. auch "schnelle Fouriertransformation", FFT. Ein Signal wird beim Sampling digitalisiert dargestellt als Linearkombination dieser Basen.

Schon vor 200 Jahren entdeckte übrigens ein gewisser Jean Baptiste Joseph Fourier, damals Chef einer Militärbehörde unter Napoleon, dass sich mit solchen Funktionen auch Lösungen von Wärmeleitungsproblemen in Reihendarstellung berechnen lassen. Soweit mir bekannt, ging es damals um Probleme mit Kanonen, die sich bei schneller Schussfolge überhitzten. Probleme aus der Militärtechnik als Impulsgeber wissenschaftlicher Untersuchungen - eine leider häufig auftretende Konstante der Wissenschaftsgeschichte. Schon der alte Archimedes bastelte gerne effiziente Mordgeräte für die Soldaten seiner Zeit, Wurfmaschinen z.B.
Nun Sinusfunktionen zur Berechnung eines Diffusionsprozesses? Das kommt einem zunächst sehr verwegen vor -was schwingt denn da außer evtl. Atomen in Festkörpern? - aber es funktioniert tatsächlich. Daraus entwickelte sich dann ein fruchtbares Feld der Wissenschaft - die Fourier-Analysis. Fouriers Methode

Auch reelle oder komplexe Matrizen bilden Vektorräume, mit der elementweisen Addition als Vektoraddition und der skalaren Multiplikation elementweise. Mehr dazu im Abschnitt Matrizenrechnung

Für technische Berechnungen, Computergrafik, CAD und vieles andere spielen Vektorräume aus stückweise linearen (oder quadratischen, oder kubischen) Funktionen eine große Rolle, sogenannte Splines. Zum Beispiel in der Methode der Finiten Elemente, dort als sogenannte Ansatzfunktionen, und in anderen Approximations- und Interpolationsaufgaben. Sie haben den Vorteil, dass man sie aus einer einzigen Schablonenfunktion ("Hütchen") generieren kann, die man zu passend gewählten Stützstellen verschiebt und anpasst. Damit sind solche Funktionen sehr schnell mit dem Computer generierbar. Man kann sie in einer oder mehreren Raumvariablen generieren. Damit lassen sich dann auch räumliche Probleme der Mechanik näherungsweise auf dem Rechner als (große) lineare Gleichungssysteme lösen. Finite Element Methode
Ein ähnliches Beispiel für Vektorräume aus Funktionen sind Wavelets, die z.B. in Bildkompressionsverfahren genutzt werden. Wavelets

Hier können Sie sich eine künstlerische Illustration zur Näherung von Flächen mit stückweise linearen Splines in 2 Ortsvariablen ansehen. Auch zum selber basteln.
Papershapes

Etwas augenzwinkernd könnte man sagen, dass ein Großteil der Ingenieurnumerik darin besteht, sich zu einem Modell einen passenden endlichdimensionalen Vektorraum (oder eine Folge solcher) zu konstruieren, mit dem man die (oder wengstens eine) Lösung der Modellgleichungen schnell und robust auf einem Rechner approximieren (annähern) kann. In der Regel müssen dabei große lineare Gleichungssysteme gelöst werden. Auch nichtlineare Gleichungssysteme werden dabei auf eine Folge linearer zurückgeführt, etwa durch das Newtonverfahren. Daher muss man lineare Gleichungssyteme gut "beherrschen" und ihre Eigenschaften kennen. Mehr dazu im nächsten Abschnitt.