Zurück Vektoren: Lineare Unabhängigkeit, Basis, Vektorraum, Orthogonalität Letztes Update: 29.1.2016. Navigation zu Unterthemen/wichtigen Formeln und Sätzen Skalarprodukt Projektion Vektor auf Vektor/Orthogonalzerlegung Projektion Vektor auf Unterraum Projektion Vektor auf affinen Teilraum /Hyperebene Weitere Beispiele von Vektorräumen Linearkombination, lineare Unabhängigkeit, Basis Beispiel 1: Linearkombination eines Vektors durch zwei andere Vektoren. 7 7 0 ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ → → v ⃗ = ⎜ −2 ⎟ = 1 v1 + 3 v2 = 1 ⎜ 1 ⎟ + 3 ⎜ −1 ⎟ , ⎝ 3 ⎠ ⎝ 0 ⎠ ⎝ 1 ⎠ ⃗ Interpretation im Kontext der analytischen Geometrie: v liegt in der → → durch v1 , v2 aufgepannten Ebene. Vieles, was Sie aus der analytischen Geometrie des dreidimensionalen Anschauungsraumes IR3 kennen, lässt sich sofort auf höhere Dimensionen übertragen. Das Vektorprodukt allerdings nicht. Leider sind dazu etliche Begriffe einzuführen, um die aus dem IR3 bekannten Objekte auf allgemeine Vektoräume zu übertragen. Sie können sich die meisten Strukturen also auch immer im IR3 veranschaulichen. → → → ⃗ n Vektoren v1 , v2 , . . . . , vn : Allgemein: Linearkombination eines Vektors v durch → → → ⃗ v1 , v2 , . . . . , vn mit: Es gibt Zahlen x1 , . . . . , xn , die Koordinaten von v bezüglich des Vektorsystems → → → v ⃗ = x1 v1 + x2 v2 +. . . +xn vn → → → ⃗ v1 , v2 , . . . . , vn . Man sagt auch: Der Vektor v ist linear abhängig von den Vektoren Vergleiche Beispiel 1. Linearkombination bedeutet im Kontext der analytischen Geometrie z.B. konkret: Stelle einen Ortsvektor eines Punktes in einer Ebene (die durch den Nullpunkt geht) durch die Richtungsvektoren dieser Ebene dar. Definition: Lineare Unabhängigkeit → → → Die Vektoren v1 , v2 , . . . . , vn heißen linear unabhängig, wenn gilt: → → → 0 = x1 v1 + x2 v2 +. . . . +xn vn ⟹0=x 1 = x2 = x3 =. . . . = xn In Worten: Die Linearkombination des Nullvektors durch linear unabhängige Vektoren ist nur möglich, wenn alle Koeffizienten Null sind. Die Lösung dieses (homogenen) Gleichungssystems ist dann auch der Test auf lineare Unabhängigkeit. Der Sinn ist leicht einzusehen: Wäre mindestens ein Koeffizient ungleich Null, so könnte man den zugehörigen Vektor als Linearkombinaton der anderen Vektoren darstellen. In einem Vektorsystem linear unabhängiger Vektoren, kann man keinen dieser Vektoren als Linearkombination der anderen darstellen. Wieder im bekannten Kontext der analytischen Geometrie: Zwei linear unabhängige Vektoren im IR3 sind nicht kollinear. Drei linear unabhängige Vektoren im IR3 sind nicht komplanar. Das überträgt sich also zwanglos auch auf höhere Dimensionen, in denen man sich die Veranschaulichung leider nicht mehr so einfach hinzeichnen kann. → → Beispiel 2: (lineare Unabhängigkeit) Sind die Vektoren v1 , v2 , in Beispiel 1 sind linear unabhängig? ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ 0 ⎞ ⎛ 7 ⎞ 0 ⎛ ⎞ 7x 1 ⎛ ⎞ ⎜ 0 ⎟ = x1 ⎜ 1 ⎟ + x2 ⎜ −1 ⎟ = ⎜ x1 − x2 ⎟ ⎝ 0 ⎠ ⎝ 0 ⎠ ⎝ 1 ⎠ ⎝ x2 ⎠ Wir vergleichen den Nullvektor links komponentenweise mit dem Vektor rechts und erhalten so die drei Gleichungen: 7x1 = 0, Offenbar ist x1 IR 3 = 0 x2 = 0 x1 − x2 = 0, 1x 2 = 0 ⇒ x 1 = x 2 = 0 die einzige Lösung, also sind die beiden Vektoren linear unabhängig. Ihr Spannraum ist eine Ebene im . → → 3 Frage: Wie könnte man die Vektoren v1 , v2 , durch einen dritten Vektor zu einer Basis des IR ergänzen? Vektorraum Die Menge aller Linearkombinationen von n linear unabhängigen Vektoren erzeugt einen Vektorraum der Dimension n. Diese Vektoren bilden dann eine Basis des Vektorraums, sie spannen ihn durch ihre Linearkombinationen auf. Sie bilden ein Koordinatensystem. Die Koordinaten, mit denen man einen Vektor darstellt, (Beispiel 1) hängen also vom gewählten Koordinatensystem (der Basis) ab! Wechselt man das Koordinatensystem (Basis) so muss man auch sie umrechnen! Auch das kennen Sie schon aus der analytischen Geometrie, Ebene, Wechsel der Richtungsvektoren. Man schreibt: → → → → → → V = span{ v1 , v2 , . . . . , vn } = {v⃗| v⃗ = x1 v1 + x2 v2 +. . . +xn vn ; x1 , . . . . , xn ∈ IR} Beispiele: IR1 , IR2 , IR3 , IR4 . . . , die Dimension steht im Index oben. Definition Vektorraum: Ein Vektorraum V über einem Zahlkörper K von Skalaren (z.B. reelle oder komplexe Zahlen) ist eine Menge, in der eine Vektoraddition + und eine skalare Multiplikation ⋅ erklärt ist, und die bezüglich dieser beiden Operationen auch abgeschlossen ist. Es muss also immer gelten (Abgeschlossenheit): s ∈ K, v ∈ V ⇒ s ⋅ v ∈ V und v, w ∈ V ⇒ v + w ∈ V Alternativ kann man diese beiden Bedingungen auch als eine schreiben: ü s ⋅ v + t ⋅ w ∈ V f r alle s, t ∈ K, v, w ∈ V Beispiele: IR1 , IR2 , IR3 , IR4 . . . , die Dimension steht im Index oben. Beispiel 3: Die sogenannten Einheitsvektoren des kartesischen Koordinatensystems sind stets linear unabhängig, wie man sofort sieht, hier am Beispiel IR3 : 1 ⎛ ⎞ → e1 = ⎜ 0 ⎟ , ⎝ 0 0 ⎛ ⎞ → e2 = ⎜ 1 ⎟ , ⎠ ⎝ 0 0 ⎛ ⎞ → e3 = ⎜ 0 ⎟ , ⎠ ⎝ 1 IR 3 → → → = span{ e1 , e2 , e3 } ⎠ Lineare Unabhängigkeit: x1 ⎛ ⎞ → → → 0 = ⎜ 0 ⎟ = x1 e1 + x2 e2 + x3 e3 = ⎜ x2 ⎟ ⇒ x1 = 0, x2 = 0, x3 = 0 ⎛ ⎝ 0 0 ⎞ ⎠ ⎝ x3 ⎠ ⃗ Diese Basis hat den Vorteil, dass man die Koordinaten zu einem gegebenen Vektor sofort ablesen kann. Zu v aus Beispiel 1 etwa x1 = 7, x2 = −2, x3 = 3 Man sieht so zugleich, dass diese Vektoren den gesamten Vektorraum IR3 erzeugen. Die folgenden Vektoren auch linear unabhängig. 1 ⎛ ⎞ → w1 = ⎜ 0 ⎟ , ⎝ 0 1 ⎛ ⎞ → w2 = ⎜ 1 ⎟ , ⎠ ⎝ 0 ⎠ 1 ⎛ ⎞ → w3 = ⎜ 1 ⎟ , ⎝ 1 Lineare Unabhängigkeit: ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎠ ⎛ 0 ⎞ ⎛ 1 ⎞ ⎛ 1 ⎞ ⎛ 1 ⎞ ⎛ x1 + x2 + x3 0 = ⎜ 0 ⎟ = x1 ⎜ 0 ⎟ + x2 ⎜ 1 ⎟ + x3 ⎜ 1 ⎟ = ⎜ ⎝ 0 ⎠ ⎝ 0 ⎠ ⎝ 0 ⎠ ⎝ IIR 1 3 ⎠ ⎞ x2 + x3 ⎟ ⇒ x3 = 0 ⇒ x2 = 0 ⇒ x1 = 0 ⎝ x3 ⎠ → → → = span{w1 , w2 , w3 } → → → → Ferner: Die drei Vektoren e1 , e2 , w2 sind linear abhängig, (1 e1 → → + 1 e 2 = w2 → → → ). Die drei Vektoren e1 , e2 , w3 sind linear unabhängig. → → → ⃗ w1 , w2 , w3 , löse also: Aufgabe: Bestimme die Koordinaten des in Beispiel 1 gegebenen Vektors v bezüglich der Basis → → → v ⃗ = x1 w1 + x2 w2 + x3 w3 . Die Darstellung eines Vektors bezüglich einer gegebenen Basis (=Bestimmung der Koordinaten eines Vektors in einen gegebenen Koordinatensystem) bedeutet also stets die Lösung eines linaren Gleichungssystems. Die gesuchten Koordinaten sind die Unbekannten. Ein Algorithmus dazu im nächsten Abschnitt über lineare Gleichungen. Erzeugendensystem : Betrachtet man allgemein eine Menge von Vektoren, die einen Vektorraum aufspannen, so spricht man von einem Erzeugendensystem. Dieses kann jedoch auch linear abhängige Vektoren enthalten. Ein Erzeugendensystem, das nur aus linear unabhängigen Vektoren besteht, ist dann eine Basis. Eine Basis ist also immer ein linear unabhängiges Erzeugendensystem. Beispiel: Betrachte die Vektoren aus Beispiel 3: → → → → 3 Erzeugendensystem des IR z.B. e1 , e2 , e3 , w3 , jedoch keine Basis, da linear abhängig! 3 Basen des IR wären etwa folgende Teilmengen dieses Erzeugendensystems: → → → e1 , e2 , e3 → → → e 1 , e 2 , w2 → → → oder e1 , e2 , w3 ist keine Basis, weil es kein Erzeugendensystem ist (dritte Komponente aller drei Vektoren ist Null!). Untervektorraum Eine Teilmenge der Basis spannt einen Untervektorraum auf. → 3 → Beispiel: Etwa eine Ebene im IR , die durch die Nullpunkt verläuft. Mit den Vektoren aus Beispiel 3 z.B. span(w1 , w2 ) . Verschiebt man einen solchen Teilraum mit einem festen Vektor, so nennt man dies auch einen affinen Teilraum oder Hyperebene. 3 Bereits bekanntes Beispiel : Eine Ebene im IR , die nicht durch den Nullpunkt verläuft, mit Aufpunkt/Verschiebungsvektor. → → E : p ⃗ + span( v1 , v2 ), ⎛ x ⎞ ⎛ 1 ⎞ ⎛ 7 ⎞ ⎛ 0 ⎞ z. B. ⎜ y ⎟ = ⎜ 1 ⎟ + t ⎜ 1 ⎟ + s ⎜ −1 ⎟ , t, s, ∈ IR ⎝ z ⎠ ⎝ 1 ⎠ ⎝ 0 ⎠ ⎝ 1 ⎠ Frage: Welche der beiden folgenden Ebenengleichungen beschreibt eine Ebene, die durch den Nullpunkt verläuft (zweidimensionaler 2 Unterraum des IR ) und welche eine mit Aufpunkt verschobene Ebene (affiner Teilraum)? E1 : 2x − y + 3z = 5, E2 : 2x + y + 3z + 5 = 5 Stellen Sie auch die Ebenen mit Aufpunkt und Richtungsvektoren dar. Orthogonalität, Orthogonale (orthonormale) Basis erleichtert viele Rechnungen! Definition Skalarprodukt allgemein. Das Skalarprodukt auf einem reellen Vektorraum ist eine Abbildung ∙ Bilinearform): : V × V → IR (tv) ∙ w = t(v ∙ w) = v ∙ (tw), (v + u) ∙ w = v ∙ w + u ∙ w, v, w ∈ V , t ∈ IR v ∙ (w + u) = v ∙ w + v ∙ u, die Symmetriebedingung v ∙ w = w ∙ v erfüllt und positiv definit ist: v ∙ v ≥ 0, , die in beiden Argumenten linear ist (sog. v ∙ v = 0 ⇔ v = 0 Andere Notationen des Skalarprodukts (Physik) ⟨v, w⟩, ⟨v|w⟩, (v|w). Das Skalarprodukt definiert ein Längenmaß für Vektoren: − − − − ∥v∥ = √v ∙ v u, v, w ∈ V Es gilt die Ungleichung |v ∙ w| ≤ ∥v∥∥w∥ Ferner für das Längenmaß (Norm) |∥v∥ − ∥w∥| ≤ ∥v ± w∥ ≤ ∥v∥ + ∥w∥, ∥tw∥ = |t|∥w∥, t ∈ IR Bemerkung: Einen Vektorraum, der mit einem Skalarprodukt versehen wird und der bezüglich des vom Skalarprodukts induzierten Längenmaßes (Metrik, Norm) vollständig ist (Cauchyfolgen sind konvergent) nennt man auch Hilbertraum. OrthogonalBasen in einem solchen Raum werden dementsprechend oft HilbertBasen genannt (Physik, Nachrichtentechnik). Definition: Zwei Vektoren v,⃗ u⃗ ∈ V heißen orthogonal bezüglich ∙ wenn v ⃗ ∙ u⃗ = 0 Länge und orthonormale Vektorsysteme Durch das Skalarprodukt ist wie schon in den bekannten Vektorräumen IR2 , IR3 auch allgemeiner ein Längenmaß für Vektoren gegeben. Man definiert die (sogenannte euklidische ) Länge eines Vektors ganz analog − − − − = √v ⃗ ∙ v ⃗ ∥v⃗∥ Für den Vektorraum IRn erhält man mit dem üblichen Skalarprodukt v⃗ ∙ w⃗ = v1 w1 + v2 w2 +. . . . . . vn wn so das Längenmaß −−−−− −−−−−−−−− − − − − 2 2 2 = √v ⃗ ∙ v ⃗ = √v + v +. . . . . . vn , ∥v⃗∥ 1 2 v ∈ IR n wie für n=2,3 schon aus der Schule bekannt. Ebenso kann man analog einen Winkel zwischen zwei Vektoren v⃗; w⃗ berechnen: ⃗ ⋅ ∥v∥∥ ⃗ w∥ ⃗ ⇒ ϕ(v;⃗ w) ⃗ = arccos( v ⃗ ∙ w⃗ = cos(ϕ(v;⃗ w)) v ⃗ ∙ w⃗ ⃗ w∥ ⃗ ∥v∥∥ ) Besteht die Basis eines Vektorraums nur aus paarweise orthogonalen Vektoren mit der Länge 1, so nennen wir sie orthonormal Durch Division durch die Länge eines Vektors können wir jeden auf die Länge 1 normieren. Somit kann man aus einer orthogonalen auch stets einfach eine orthonormale Basis herstellen. Satz:Orthogonalsysteme sind immer linear unabhängig: Auch dies kennen Sie bereits aus dem Spezialfall IR3 . Zwei aufeinander senkrecht stehende Vektoren spannen eine Ebene auf. Nimmt man einen dritten orthogonalen z.B. als deren Vektorprodukt dazu, so kann man den ganzen Raum aus deren Linearkombinationen aufspannen. Definition: Zwei Vektoren v⃗, u⃗ ∈ V heißen orthogonal bezüglich ∙ wenn v⃗ ∙ u⃗ = 0 Satz: n paarweise bezüglich dieses Skalarprodukts orthogonale (aufeinander senkrecht stehende) Vektoren sind dann stets linear unabhängig und spannen damit einen Vektorraum der Dimension n auf. → → → Die lineare Unabhängigkeit ist schnell einzusehen. v1 , v2 , vn , k eines Vektors → vk = 1, . . . , n sei ein Orthogonalsystem. Wir bilden ein Skalarprodukt mit der Gleichung → → → 0 = x1 v1 + x2 v2 +. . . . +xn vn und nutzen die Orthogonalität aus: → → → → → → → 0 = vk ∙ 0 = vk ∙ (x1 v1 + x2 v2 +. . . . +xn vn ) = xk vk ∙ vk Damit ergibt sich nacheinander für k = 1, 2, . . n dann 0 = x1 = x2 = x3 =. . . . = xn (Vgl das analoge Vorgehen bei Ebenengleichungen, Multiplikation mit Normalenvektor, Skalarform/implizite Form der Ebenengleichung). Man kann die Orthogonalität auch nutzen, um sehr einfach die Koordinaten in einer Linearkombination zu bestimmen, wenn man einen Vektor durch eine Basis darstellen (nach dieser Basis entwickeln) will. Das ist einer der wesentlichen Vorteile orthogonaler Basen. Beispiel 4(Vorteil der Orthogonalität): ⃗ Gesucht sind die Koordinaten x1 , x2 , x2 von v bezüglich einer Orthogonalen Basis: ⎛ 7 ⎞ 1 ⎛ ⎝ → Da die Vektoren vk , k = 1, 2, 3 3 ⎠ ⎝ −1 ⎛ ⎠ ⎝ 1 1 ⎞ ⎛ ⎠ ⎝ 1 ⎞ → → → 0 ⎟ + x2 ⎜ 2 ⎟ + x3 ⎜ −1 ⎟ = x1 v1 + x2 v2 + x3 v3 v ⃗ = ⎜ −2 ⎟ = x1 ⎜ ⎞ 1 ⎠ auf der rechten Seite der Gleichung alle orthogonal sind, somit eine orthogonale Basis des IR 3 ⃗ bilden, kann man die Koordinaten von v fast sofort hinschreiben, ohne dafür ein 3x3 Gleichungssystem mit dem GaußAlgorithmus → → → lösen zu müssen. Man bildet dazu nacheinander das Skalarprodukt links und rechts in der Gleichung mit v1 , v2 , v3 . → → → → → → → 4 = v1 ∙ v ⃗ = v1 ∙ (x1 v1 + x2 v2 + x3 v3 ) = x1 v1 ∙ v1 + 0 + 0 = x1 2 ⇒ x1 = 4/2 = 2 → → Analog für v2 , v3 somit: x1 = → v1 ∙ v ⃗ → → v1 ∙ v1 4 = 2 = 2, x2 = → v2 ∙ v ⃗ → → v2 ∙ v2 6 = = 1, 6 x3 = → v3 ∙ v ⃗ → → v3 ∙ v3 12 = 3 = 4 Allgemeine Koordinatendarstellung in einem Orthogonalsystem → → → v⃗ = x1 v1 + x2 v2 +. . . +xn vn → Gesucht seien die Zahlen x1 , . . xn . Wenn die Vektoren vk nicht paarweise orthogonal sind, muss man dazu ein Gleichungssystem lösen (siehe nächstes Kapitel). Sind sie paarweise orthogonal, so kann man die xk wie im Beispiel 4 sofort hinschreiben: xk = → vk ∙ v ⃗ → → vk ∙ vk denn → → → → → → → vk ∙ v⃗ = vk ∙ (x1 v1 + x2 v2 +. . . +xn vn ) = xk vk ∙ vk → → Denn k ≠ l : vk ∙ vl = 0 Orthogonalsysteme werden wir im Abschnitt zu Eigenwerten/Eigenvektoren näher betrachten. Projektion eines Vektors auf einen anderen, Orthogonalzerlegung 3 Auch die Projektion eines Vektors auf einen anderen lässt sich direkt vom IR auf höhere Dimensionen übertragen. Die Formel bleibt dieselbe, die Begründung dazu auch: Gegeben zwei Vektoren v,⃗ u.⃗ Bestimme eine Linearkombination v⃗⊥u aus beiden Vektoren, die senkrecht (orthogonal) zu u⃗ ist ⃗ v⊥u ⃗ = (v ⃗ − tu), ⃗ Damit ist auch die Gleichung tu⃗ + v⊥u ⃗ v⊥u ⃗ ⊥ u, ⃗ = v ⃗ = tu⃗ + (v ⃗ − tu) ⃗ ∙ u⃗ = 0 ⇒ t = (v ⃗ − tu) ⃗ erfüllt (siehe Skizze) und v∥u v⃗ ∙ u⃗ u⃗ ∙ u⃗ ⃗ ist dann die Projektion von v auf = tu⃗ ⃗ u. ⃗ Projektion von v auf u : v∥u = v⃗ ∙ u⃗ u⃗ ∙ u⃗ ⃗ ⋅ u, ⃗ ⃗ , v⊥u = v ⃗ − v∥u ⃗ ⃗ v ⃗ = v∥u + v⊥u Damit überträgt sich auch die Darstellung eines Vektors als Summe aus seiner Projektion v⃗∥ auf einen anderen Vektor und die ⃗ dazu die Orthogonalzerlegung eines Vektors wie bei Kräften in der Mechanik auch auf höhere Dimensionen. Senkrechte v⊥ (Skizze) Beispiel: ⎛ 1 ⎞ ⎛ 2 ⎞ ⎜2 ⎟ v ⃗ = ⎜ ⎟ , ⎜0 ⎟ ⎜1 ⎟ u⃗ = ⎜ ⎟ , ⎜1 ⎟ ⎝ ⎝ 1 ⎠ 0 ⎠ ⎛ v ⃗ ∙ u⃗ t = u⃗ ∙ u⃗ 2 = 3 ⃗ v∥u , ⎝ ⎛ ⃗ ⃗ v⊥u = v ⃗ − v∥u 2 ⎞ 2 ⎜1 ⎟ = ⎜ ⎟, 3 ⎜1 ⎟ −1 0 ⎠ ⎞ 1 ⎜ 4⎟ = ⎜ ⎟, 3 ⎜ −2 ⎟ ⎝ 3 ⎠ Probe: v⃗⊥u ∙ u⃗ = 0, v⃗⊥u + v⃗∥u = v ⃗ Aus zwei gegebenen Vektoren v,⃗ u⃗ kann man auf diese Weise also immer zwei orthogonale Vektoren v⃗⊥u , u⃗ berechnen, die denselben Spannraum haben. Führt man das Ganze rekursiv für einen Vektorsystem von n Vektoren durch, so erhält man das GramSchmidt Verfahren: Mit diesem rekursiven Algorithmus kann man aus einer beliebigen Basis eines Vektorraums stets eine orthogonale Basis berechnen, indem immer die "Nichtorthogonalanteile" v∥⃗ weggenommen werden. Link zu GramSchmidt ONVerfahren Projektion auf einen Unterraum, Abstand eines Vektors zu einem Unterraum Auch hier eine ganz natürliche Verallgemeinerung der aus dem R3 bekannten Darstellungen und Formeln zur Projektion eines Vektors auf eine Ebene, kürzester Abstand PunktEbene (durch den Nullpunkt). U sei ein Unterraum von V , U = span{u1 , . . . uk } ⊂ V Projektion auf U: Gegeben ein Vektor w ∈ V . Finde den Vektor in ū ∈ U der zu w den kürzesten Abstand besitzt. Diesen Vektor nennen wir dann Projektion von w auf U . Eine solche Projektion können wir durch eine notwendige und hinreichende (also äqulvalente) Bedingung charakterisieren, und damit auch berechnen. ū ∈ U ö sei L sung von 2 min ∥u − w∥ u∈U ist äquivalent zu ü (ū − w) ∙ u = 0, f r alle u ∈ U oder kurz (ū − w)⊥U Der Differenzvektor (ū − w) ist also orthogonal zum Unterraum U , seine Länge ∥ū − w∥ ist der Abstand von w zu U . (anschaulich im R3 klar, siehe Skizze, ein kleiner Beweis für den Allgemeinfall dazu unten). In einem endlichdimensionalen Raum U setzen wir nacheinander in diese Bedingung die Basisvektoren für u ein und erhalten so ein Gleichungsystem für die Koordinaten der Projektion ū von w auf U . Daraus können wir dann die Projektion und den Abstand des Vektors zum Unterraum berechnen. ū = x1 u1 +. . . . xk uk , bestimmt durch k Gleichungen (ū − w) ∙ ul = 0, l = 1, . . . , k Ist die Basis sogar orthogonal so können wir die Koordinaten xk wieder wie oben direkt über Skalarprodukte angeben, indem wir die Orthogonalität nutzen ( ul ∙ uk = 0, l ≠ k ): (ū − w) ∙ ul = 0 ⇔ ū ∙ ul = w ∙ ul = 0 ⇔ (x1 u1 +. . . . xk uk ) ∙ ul = xl (ul ∙ ul ) = w ∙ ul somit xl = w ∙ ul ul ∙ ul , l = 1, . . k Beispiel 5(a) : Orthogonale Basis von U ⎛ k = 2; 4 U ⊂ R , U = span{u1 , u2 }, u1 1 ⎞ ⎛ 0 ⎞ ⎜1 ⎟ ⎜0 ⎟ = ⎜ ⎟ , u 2 = ⎜ ⎟ , ⎜0 ⎟ ⎜1 ⎟ ⎝ 0 ⎠ ⎝ 1 ⎛ 2 ⎞ ⎜1 ⎟ w = ⎜ ⎟, ⎜0 ⎟ ⎠ ⎝ 1 ⎠ u1 ∙ u2 = 0 , bildet also orthogonale Basis von U . Die Projektion von w auf den zweidimensionalen Unterraum U berechnen wir dann wie folgt: ū = x1 u1 + x2 u2 , x1 = w ∙ u1 u1 ∙ u1 3 = 2 , x2 = w ∙ u2 u2 ∙ u2 1 ,= 2 Beispiel 5(b) : Nichtorthogonale Basis von U : ⎛ k = 2; 4 U ⊂ R , U = span{u1 , u2 }, u1 1 ⎞ ⎛ 0 ⎞ ⎜1 ⎟ ⎜0 ⎟ = ⎜ ⎟ , u 2 = ⎜ ⎟ , ⎜0 ⎟ ⎜1 ⎟ ⎝ 1 ⎠ ⎝ 1 ⎠ ⎛ 2 ⎞ ⎜1 ⎟ w = ⎜ ⎟, ⎜0 ⎟ ⎝ 1 ⎠ u1 ∙ u2 = 1 ≠ 0 , bildet also keine orthogonale Basis von U . Somit muss man die Koordinaten xk , k = 1, 2 der Projektion ū von w auf U nun durch Lösen eines kleinen Gleichungssystems (2x2) ermitteln, da die Produkte uk ∙ uj , j ≠ k hier leider nicht Null werden. x 1 (u 1 ∙ u 1 ) + x 2 (u 2 ∙ u 1 ) = w ∙ u 1 ū = x1 u1 + x2 u2 , (ū − w) ∙ ul = 0, l = 1, 2 ⇔ ( ) x 1 (u 1 ∙ u 2 ) + x 2 (u 2 ∙ u 2 ) = w ∙ u 2 Zu Lösen ist also nach den unbekannten Koordinaten x1 , x2 3x 1 + 1x 2 = 4 ( 1x 1 + 2x 2 = 1 ) ⇒ x2 = −1/5; x1 = 7/5. Beweisskizze zu: Die Orthogonalitätsbedingung ū − w⊥U , oder (ū − w) ∙ u = 0, u ∈ U charakterisiert äquivalent die Projektion/Minimalabstand von w aauf U . Notwendigkeit: Es sei ū eine Minimalstelle, hier also die Projektion von w auf U , also 2 (∗) : ∥ū − w∥ 2 ≤ ∥u − w∥ ü f r alle u ∈ U Behauptung: Dann gilt die Orthogonalitätsbedingung ü (ū − w) ∙ h = 0 Für h ∈ U und t ∈ IR, t ≥ 0 f r alle h ∈ U . definieren wir die reelle Funktion 2 f(t, h) = ∥ū + th − w∥ = (ū + th − w) ∙ (ū + th − w) Aufgrund der Optimalität (*): 2 f(0, h) = ∥ū − w∥ Somit für t 2 ≤ ∥ū + th − w∥ = f(t, h) > 0 1 0 ≤ 1 ((ū + th − w) ∙ (ū + th − w) − (ū − w) ∙ (ū − w)) = 2(ū − w) ∙ h + t(h ∙ h) (f(t, h) − f(0, h)) = t t Grenzübergang t → 0+ lässt den letzten Term verschwinden. Damit gilt erhält man dann die Optimalitätsbedingung 1 2(ū − w) ∙ h = lim t→0+ Da U ein Untervektoraum ist, gilt diese Ungleichung für jedes h t (f(t, h) − f(0, h)) ≥ 0 und damit gleichzeitig auch für −h ∈ U ∈ U und damit liegt Gleichheit vor. 2(ū − w) ∙ h ≥ 0 und 2(ū − w) ∙ (−h) ≥ 0 ⇒ 2(ū − w) ∙ h = 0 Wir zeigen nun umgekehrt: Die Bedingung (ū − w) ∙ h = 0, für alle h ∈ U ist auch hinreichend für Optimalität: Wir führen dazu einen Widerspruchsbeweis. Widerspruchsannahme: Die Bedingung sei erfüllt, (ū − w) ∙ h 2 ∥ū − w∥ 2 = 0, es gebe aber dennoch ein u 2 > ∥u − w∥ , also d = ∥ū − w∥ 2 − ∥u − w∥ ∈ U mit > 0 sei also nicht minimal. Wir definieren f wie oben im Beweis der notwendigen Bedingung und erhalten durch Ausrechnen des ersten Skalarprodukts und aus der vorausgesetzten Bedingung 2(ū − w) ∙ h = 0, für alle t ≥ 0, h ∈ U , ū (∗∗) 2 2 f(t, h) − f(0, h) = (ū + th − w) ∙ (ū + th − w) − (ū − w) ∙ (ū − w) = 2t(ū − w) ∙ h + t ∥h∥ Wir setzen nun speziell h = u − ū ≠ 0 da u ≠ ū. Dann ist mit w 2 2 2 2 Den letzten Term können wir weiter abschätzen (beachte: aus der binom. Formel folgt 2ab 2 ≤ a 2 + 2t(1 − t)(ū − w) ∙ (u − w) + b ) 2 2 |2t(1 − t)(ū − w) ∙ (u − w)| ≤ 2t(1 − t)∥ū − w∥ ⋅ ∥u − w∥ ≤ (1 − t) ∥ū − w∥ 2 2 + t ∥u − w∥ Fassen wir die Abschätzungen zusammen so erhalten wir 2 2 Nun setzen wir speziell t = 1/2 2 2 + 2t ∥u − w∥ 2 2 = 2(1 − t) f(0, u − ū) + 2t f(1, u − ū) ein und sehen 1 f(1/2, u − ū) − f(0, u − ū) ≤ 2 1 (f(1, u − ū) − f(0, u − ū)) = Dies steht aber im Widerspruch zu (∗∗) , wenn wir dort speziell t Widerspruchsannahme falsch und ū minimal. ≥ 0 = tw + (1 − t)w f(t, u − ū) = (ū + t(u − ū) − w) ∙ (ū + t(u − ū) − w) = (1 − t) ∥ū − w∥ + t ∥u − w∥ f(t, u − ū) ≤ 2(1 − t) ∥ū − w∥ 2 = t ∥h∥ = 1/2 und h 2 2 (∥u − w∥ = u − ū 2 − ∥ū − w∥ ) = − 1 2 d < 0 wählen. Somit ist unsere Hinweis (für Mathematikstudenten): In der Optimierungstheorie werden solche Optimalitätsbedingungen für konvexe, stetige Funktionale bewiesen. Der Beweis der notwendigen Bedingung verläuft ähnlich wie oben. Die etwas mühsame direkte Abschätzung im hinreichenden Teil wird dann einfach durch die Voraussetzung "Konvexität" ersetzt und man kann die Konvexitätsungleichung ausnutzen, muss dann nicht mit den Quadraten hantieren. Das hier betrachtete Funktional F 2 : u → ∥u − w∥ ist als Verkettung des konvexen Normquadrats mit einer affin linaren Funktion tatsächlich auch konvex, (sogar strikt konvex). Das muss man natürlich auch erst einmal nachweisen. Ist das getan, so reduziert sich die Erzeugung des Widerspruchs in den letzten beiden Zeilen auf F (ū + t(u − ū)) − F (ū) ≤ tF (u) + (1 − t)F (ū) − F (ū) = t(F (u) − F (ū)) < 0 (Konvexität von F benutzt. ) Ich habe die direkte Abschätzungtechnik hier jedoch absichtlich benutzt und nicht auf allgemeine Sätze verwiesen, weil sie exemplarisch für Hilbertraummethoden ist und in vielen Situationen (z.B. Numerik Abschätzung von Konvergenzordnungen) immer wieder benötigt wird. Projektion auf einen affinen Teilraum, Abstand eines Vektors zu einem affinenTeilraum Auch hier eine ganz natürliche Verallgemeinerung der aus dem R3 bekannten Darstellungen und Formeln zur Projektion eines Vektors auf eine verschobene Ebene, kürzester Abstand PunktEbene, die nicht durch den Nullpunkt geht. sei der Verschiebungsvektor, p ⃗ U = span{u1 , . . . uk } ⊂ V U sei ein Unterraum von V , Projektion auf E = p ⃗ + U : → Gegeben ist ein Vektor w′ Finde den Vektor in ū′ w ′ . ∈ V = p ⃗ + ū ∈ p ⃗ + U , der zu den kürzesten Abstand besitzt. Weil wir die Ebene nur um p ⃗ verschoben haben, können wir die Lösung dieses Problems über die des nichtverschobenen Problems oben ermitteln, siehe Skizze. → Setze: w⃗ := w ′ − p ⃗ Berechne dann ū zu w⃗ wie im nichtverschobenen Problem oben Die gesuchte Projektion von w′ auf E ist dann u ′ = p ⃗ + ū Zu berechnen ist also die Lösung des Gleichungssystems (beachte w k ) : ′ = w − p ⃗ → ū = ∑ xl ul⃗ , (ū − w⃗)⊥U , ∙ ul⃗ = (ū − w (ū − w⃗) ′ ⃗ ∙ ul⃗ = 0, + p) l = 1, 2, . . , k l=1 → Der Vektor p ⃗ + ū ist dann die Projektion von w′ auf E . Die Lösung kann man wiederum einfach hinschreiben, wenn die Basis von U orthogonal ist, ansonsten hat man ein eventuell volles Gleichungssystem mit k Unbekannten x1 , . . . xk zu lösen. Wir betrachten ein Beispiel aus dem R3 das wir natürlich in diesem speziellen Fall auch anders rechnen könnten (z.B. über ein Vektorprodukt) . Unsere allgemeine Methode funktioniert aber in jeder Dimension. → Beispiel 6 : Nichtorthogonale Basis von U , Affiner Teilraum/Ebene in R3 , Projektion eines Vektors w′ auf die Ebene, Abstand. : 3 ⃗ , u2 ⃗ }, U ⊂ R , U = span{u1 k = 2; ⎛ 1 ⎞ ⎛ 0 ⎞ ⃗ = ⎜ 0 ⎟ , u2 ⃗ = ⎜ 2 ⎟ , u1 ⎝ u1 ∙ u2 = 1 ≠ 0 u ′ 1 ⎠ ⎝ 1 ⎠ → w ′ ⎛ 2 ⎞ ⎛ 1 ⎞ E : p ⃗ + U → = ⎜ 1 ⎟ , p ⃗ = ⎜ 1 ⎟ , w⃗ = w ⎝ 1 ⎠ ⎝ 1 ⎠ ′ ⎛ 1 ⎞ − p ⃗ = ⎜ 0 ⎟ , ⎝ , bildet also keine orthogonale Basis von U . Somit muss man die Koordinaten xk , k 0 ⎠ = 1, 2 der Projektion → = p ⃗ + ū von w′ auf p ⃗ + U nun durch Lösen eines kleinen Gleichungssystems (2x2) ermitteln, da die Produkte uk ∙ uj , j ≠ k hier leider nicht Null werden. x 1 (u 1 ∙ u 1 ) + x 2 (u 2 ∙ u 1 ) = w ∙ u 1 ū = x1 u1 + x2 u2 , (ū − w) ∙ ul = 0, l = 1, 2 ⇔ ( ) x 1 (u 1 ∙ u 2 ) + x 2 (u 2 ∙ u 2 ) = w ∙ u 2 Zu Lösen ist also nach den unbekannten Koordinaten x1 , x2 2x 1 + 1x 2 = 1 ( 1x 1 + 5x 2 = 0 1 ) ⇒ x2 = − 9 5 ; x 1 = 9 1 ū = x1 u1 + x2 u2 = . → Abstand ∥ū ′ ′ ⃗ = − w ∥ = ∥ū − w∥ 9 ⎛ 5 ⎞ ⎜ −2 ⎟ , ⎝ 4 ⎠ 2 3 Den Abstand hätten wir in diesem Fall auch über den Normalenvektor berechnen können. ( Das aber nur in der Dimension n = 3 und wir erhalten so nicht die Projektion, nur den Abstand! ) → |n⃗ ∙ (w × u⃗2 , n⃗ = u⃗1 ⃗ = ∥ū − w∥ ′ ⃗ − p )| 2 = ⃗ ∥n∥ 3 Aufgaben/Beispiele dazu hier Anwendungen der Projektion zur Parameterschätzung (Regression) hier Weitere Beispiele für Vektorräume Die komplexen Zahlen z = x + jy kann man als Vektorraum über dem Skalarkörper K = IR sehen. Dieser Vektorraum hat dann die Dimension 2, sichtbar an der Gauß'schen Zahlenebene. Die komplexe Multiplikation spielt hier keine Rolle, es geht nur um die Vektorraumstruktur. Man kann die komplexen Zahlen aber auch als Vektorraum über dem Skalarkörper C betrachten, dann haben sie die Dimension 1. Man kann jede komplexe Zahl erzeugen, indem man die 1 skalar mit einer passenden Zahl aus dem Skalarkörper C multipliziert. C = span{1}. Dasselbe gilt für komplexe Vektoren (und Matrizen später) man kann sie immer komponentenweise in Real und Imaginärteil (jeweils reelle Vektoren bzw Matrizen) zerlegen. n v ⃗ ∈ C ⃗ : v ⃗ = u⃗ + jw, ⃗ w⃗ ∈ IR u, n 3 + 7j Beispiel: ( 3 ) = ( 1 − 5j 7 ) + j( 1 ) −5 Das entspricht ihrer Interpretation als Vektorraum über den reellen Zahlen. Ihre Dimension verdoppelt sich dann (2n) gegenüber der Interpretation als Vektorraum über dem Skalarkörper C. (Dim = n) . Im Grunde genommen handelt es sich verschiedene Vektorräume, da sich die Skalarkörper unterscheiden. n Das Skalarprodukt in C unterscheidet sich etwas vom dem für reelle Vektoren: ∗ ∗ 1 2 ∗ v⃗ ∙ w⃗ = v w1 + v w2 +. . . . . . vn wn ⃗ v⃗ ∙ v⃗ eventuell negativ oder Würde man die Komponenten von v darin nicht konjugieren, dann wäre für manche Vektoren das Produkt nicht reell. Beides wären für ein Skalarprodukt unerwünschte Eigenschaften. Anmerkungen zu Koordinatensystemen In der Physik bemüht man sich, Gesetze koordinatenfrei, also unabhängig von Koordinatensystemen zu formulieren, etwa mit einem ⃗ universalen Ortsvektor r in der Mechanik. Der Grund: Je nach Anwendungsfall auf ein konkretes Problem möchte man sich die Freiheit lassen, ein günstiges Koordinatensystem zu wählen. Günstig bedeutet zum Beispiel: Die Formeln und Rechnungen werden einfacher, und man spart sich u.U. auch Koordinatentransformationen. Deswegen ist es wichtig, mit unterschiedlichen Basen/Koordinatensystemen arbeiten zu können. Nicht immer sind orthogonale dabei die besten. In der Kristallographie z.B. verwendet man oft auch schiefwinklige Koordinatensysteme, die an die Struktur der Kristallgitter angepasst sind. Kleiner Ausblick auf weitere Vektorräume in Anwendungen, die nicht aus Zahlentupeln bestehen. Das soll Ihnen zeigen, dass die Betrachtung von Vektorräumen jenseits des dreidimensionalen nicht nur "l'art pour l'lart" von ein paar spinnerten Mathefreaks ist, sondern dass diese Räume ganz handfeste Anwendungen finden. Ohne solche Vektorräume gäbe es kein Handy, keinen DVD player, keine digitalisierte Musik oder Bilder, kein VoIP. Und auch keine elektronischen Motorsteuerungen und keine modernen (chipgesteuerten) Haushaltsgeräte. Reelle oder komplexe ganzrationale Funktionen bilden Vektorräume. Beispiel: Betrachte die Menge P2 (R) aller ganzrationalen reellen Funktionen vom Grad höchstens 2, also Funktionen des Typs: 2 t → p(t) = a + bt + ct , a, b, c ∈ IR = K Diese bilden einen Vektorraum der Dimension 3 über dem Köper der reellen Zahlen. Aus der Schule bekannt: Addiert man solche Funktionen, so erhält man wieder eine ganzrationale Funktion vom Grad maximal 2, ebenso, wenn man sie mit einer reellen Zahl multipliziert. Die Abgeschlossenheit ist also erfüllt. Eine Basis ist zum Beispiel p1 = 1, p2 = t, p3 = t 2 eine andere Basis wäre q1 = 1 + t, q2 = 1 − t, q3 = t 2 Nachweis der linearen Unabhängigkeit über den bereits bekannten Koeffizientenvergleich oder durch Einsetzen einiger t Werte und Lösen des Gleichungssystems. x1 p1 (t) + x2 p2 (t) + x3 p3 (t) = 0 ⇒ x1 = x2 = x3 = 0 n analoger Weise definiert man Räume höherer Dimension P3 (R) 2 3 = span(1; t; t ; t ) usw. Es gibt zahlreiche weitere Polynombasen für diesen Raum, die teilweise für bestimmte Anwendungen relevant sind, zum Beispiel Interpolations und Approximationsaufgaben (Lagrangepolynome, Legendrepolynome, Hermitepolynome u.a.) Statt reeller kann man auch komplexe Polynome betrachten, dann allerdings mit dem Skalarkörper K = C . Auch trigonometrische Funktionen des Typs t → u(t) = sin(wk t), t → cos(wk t), wk = 2kπ, k = 1, 2, . . . (oder allgemein wk paarweise verschiedene Zahlen) sind linear unabhängig und erzeugen Vektoräume. Für ein passend konstruiertes Skalarprodukt, bei dem allerdings Integration erforderlich ist, a u⃗ ∙ w⃗ = c ∫ u(t)w(t)dt, ä a,c passend zur Basis zu w hlende Konstanten −a sind diese Funktionen orthogonal, damit auch linear unabhängig. Diese trigonometrischen Basen sind von Bedeutung in nachrichtentechnischen Anwendungen, die sich mit Signalübertragung, darstellung, Digitalisierung analoger Signale befassen. Siehe z.B. auch "schnelle Fouriertransformation", FFT. Ein Signal wird beim Sampling digitalisiert dargestellt als Linearkombination dieser Basen. Schon vor 200 Jahren entdeckte übrigens ein gewisser Jean Baptiste Joseph Fourier, damals Chef einer Militärbehörde unter Napoleon, dass sich mit solchen Funktionen auch Lösungen von Wärmeleitungsproblemen in Reihendarstellung berechnen lassen. Soweit mir bekannt, ging es damals um Probleme mit Kanonen, die sich bei schneller Schussfolge überhitzten. Probleme aus der Militärtechnik als Impulsgeber wissenschaftlicher Untersuchungen eine leider häufig auftretende Konstante der Wissenschaftsgeschichte. Schon der alte Archimedes bastelte gerne effiziente Mordgeräte für die Soldaten seiner Zeit, Wurfmaschinen z.B. Nun Sinusfunktionen zur Berechnung eines Diffusionsprozesses? Das kommt einem zunächst sehr verwegen vor was schwingt denn da außer evtl. Atomen in Festkörpern? aber es funktioniert tatsächlich. Daraus entwickelte sich dann ein fruchtbares Feld der Wissenschaft die FourierAnalysis. Fouriers Methode Auch reelle oder komplexe Matrizen bilden Vektorräume, mit der elementweisen Addition als Vektoraddition und der skalaren Multiplikation elementweise. Mehr dazu im Abschnitt Matrizenrechnung Für technische Berechnungen, Computergrafik, CAD und vieles andere spielen Vektorräume aus stückweise linearen (oder quadratischen, oder kubischen) Funktionen eine große Rolle, sogenannte Splines. Zum Beispiel in der Methode der Finiten Elemente, dort als sogenannte Ansatzfunktionen, und in anderen Approximations und Interpolationsaufgaben. Sie haben den Vorteil, dass man sie aus einer einzigen Schablonenfunktion ("Hütchen") generieren kann, die man zu passend gewählten Stützstellen verschiebt und anpasst. Damit sind solche Funktionen sehr schnell mit dem Computer generierbar. Man kann sie in einer oder mehreren Raumvariablen generieren. Damit lassen sich dann auch räumliche Probleme der Mechanik näherungsweise auf dem Rechner als (große) lineare Gleichungssysteme lösen. Finite Element Methode Ein ähnliches Beispiel für Vektorräume aus Funktionen sind Wavelets, die z.B. in Bildkompressionsverfahren genutzt werden. Wavelets Hier können Sie sich eine künstlerische Illustration zur Näherung von Flächen mit stückweise linearen Splines in 2 Ortsvariablen ansehen. Auch zum selber basteln. Papershapes Etwas augenzwinkernd könnte man sagen, dass ein Großteil der Ingenieurnumerik darin besteht, sich zu einem Modell einen passenden endlichdimensionalen Vektorraum (oder eine Folge solcher) zu konstruieren, mit dem man die (oder wengstens eine) Lösung der Modellgleichungen schnell und robust auf einem Rechner approximieren (annähern) kann. In der Regel müssen dabei große lineare Gleichungssysteme gelöst werden. Auch nichtlineare Gleichungssysteme werden dabei auf eine Folge linearer zurückgeführt, etwa durch das Newtonverfahren. Daher muss man lineare Gleichungssyteme gut "beherrschen" und ihre Eigenschaften kennen. Mehr dazu im nächsten Abschnitt.
© Copyright 2024 ExpyDoc