Notizen zur Vorlesung Lineare Algebra II P. Littelmann Sommersemester 2016 (7. Juni 2016) 2 Inhaltsverzeichnis 0.1 Vorbemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Bilinearformen 1.1 Direkte Summe . . . . . . . . . . . . 1.2 Bilinearformen . . . . . . . . . . . . 1.3 Bilinearformen, Basen und Matrizen 1.4 Symmetrische Bilinearform . . . . . . 1.5 Symmetrische Bilinearform über R . 1.6 Positiv definite Formen . . . . . . . . 1.7 Hermitesche Formen . . . . . . . . . 2 Die 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 2.10 2.11 2.12 2.13 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . orthogonale und die unitäre Gruppe Orthogonale und unitäre Endomorphismen . . . Die Gruppen On (R) und Un (C) . . . . . . . . . Die Gruppe O2 (R) . . . . . . . . . . . . . . . . Orthogonales Komplement und direkte Summen Determinante, Eigenwerte und Eigenvektoren . Drehungen und Spiegelungen . . . . . . . . . . . Standardform für orthogonale Endomorphismen Euklidische und unitäre Vektorräume . . . . . . Orthonormalbasen . . . . . . . . . . . . . . . . Dualraum und Bilinearformen . . . . . . . . . . Adjungierter Endomorphismus . . . . . . . . . . Selbstadjungierte und normale Endomorphismen Hermitesche und normale Matrizen . . . . . . . 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 . . . . . . . 5 5 6 7 8 12 13 15 . . . . . . . . . . . . . 19 19 21 22 24 26 28 30 34 35 38 43 45 46 4 0.1 Vorbemerkung Warnung: Es handelt sich um Notizen, dies ist kein ausgearbeitetes Vorlesungsmanuskript. Es wird keine Garantie gegeben für grammatikalische geschweige denn mathematische Korrektheit des Textes. Im Laufe der Vorlesung wird versucht werden, den Text immer wieder “auf dem Laufenden” zu halten, aber auch wenn so etwas ein “edles Unterfangen ist”, es braucht so viel Zeit... Bücher, die den Vorlesungsstoff behandeln, gibt es wie Sand am Meer, stöbern sie bitte in der Bibliothek, in den Buchläden, im Antiquariat, auf dem Web... Kapitel 1 Bilinearformen 1.1 Direkte Summe Zunächst ein bisschen Wiederholung. Seien U, V Vektorräume über dem Körper K. Die Menge U × V mit den beiden Verknüpfungen K × (U × V ) → U × V (λ, (u, v)) 7→ (λu, λv) (U × V ) × (U × V ) → U ×V ((u, v), (u0 , v 0 )) 7→ (u + u0 , v + v 0 ) ist wieder ein Vektorraum. Definition 1.1.1 Der Vektorraum wird die direkte Summe von U und V genannt. Schreibweise: U ⊕ V . Definition 1.1.2 Seien U, V ⊆ W zwei Unterräume eines Vektorraums. Man sagt W ist die direkte Summe der Unterräume: W = U ⊕ V falls die kanonische Abbildung U ⊕ V → W , (u, v) 7→ u + v ein Isomorphismus ist. So sind zum Beispiel U = Ke1 und V = Ke2 Unterräume des K2 , so ist U ⊕V ist isomorph zum K2 . Da U und V isomorph zu K sind schreibt man auch: K2 ist isomorph zu K ⊕ K. Eine wichtige Eigenschaften der direkten Summe sind: Sind A ⊂ U und A ⊂ V Basen, dann ist A ∪ B eine Basis von U ⊕ V . Ein einfaches Kriterium um zu zeigen, daß man einen Vektorraum zerlegen kann in die direkte Summe zweier Unterräume: Lemma 1.1.1 Sind U, V ⊆ W zwei Unterräume, dann gilt: W = U ⊕ V ⇔ W = hU, V iK ∧ U ∩ V = 0. 5 6 Beweis. Ist W = U ⊕ V , so spannen U und V den Raum W . Weiter ist U ∩ V = 0, denn wenn x ∈ U ∩ V , so hat die kanonische Abbildung U ⊕ V → W , (u, v) 7→ u + v ein Element im Kern: (x, −x) 7→ x − x = 0. Da dies nach Annahme ein Isomorphismus ist, kann das nur sein wenn x = 0. Umgekehrt, wenn W = hU, V iK gilt, dann ist die Abbildung φ : U ⊕ V → W , (u, v) 7→ u + v surjektiv. Ist weiter U ∩ V = 0, dann ist die Abbildung auch injektiv da (u, v) ∈ ker φ dann und nur dann wenn u + v = 0, also u = −v, also u ∈ U ∩ V und somit u = v = 0 folgt. • Diese Definitionen werden auf die übliche Art auf mehr als zwei Vektorräume verallgemeinert. 1.2 Bilinearformen Sei V ein Vektorraum über einem Körper K. Eine Bilinearform ist eine Abbildung h, i : V × V → K, (v, v 0 ) 7→ hv, v 0 i mit der Eigenschaft, daß sie bilinear ist, d.h., für alle λ ∈ K und alle v, v1 , v2 und v 0 , v10 , v20 in V gilt: hv1 + v2 , v 0 i = hv1 , v 0 i + hv2 , v 0 i hv, v10 + v20 i = hv, v10 i + hv, v20 i hλv, v 0 i = hv, λv 0 i = λhv, v 0 i Man nennt die Bilinearform symmetrisch falls hv, v 0 i = hv 0 , vi ∀ v, v 0 ∈ V und schiefsymmetrisch falls hv, vi = 0 ∀ v ∈ V Ist h, i schiefsymmetrisch, so gilt wegen der Bilinearität für alle v, v 0 ∈ V : hv, v 0 i = −hv 0 , vi. Beispiel 1.2.1 Sei V = Kn und sei A = (ai,j ) ∈ Mn (K). Wir definieren eine Bilinearform h, iA folgendermaßen: Kn × Kn → K, (v, v 0 ) 7→ hv, v 0 iA = t vAv 0 . Die Bilinearität folgt aus den Produktregeln für Matrizen. Die Form ist symmetrisch dann und nur dann wenn die Matrix symmetrisch ist, d.h., wenn t A = A. 7 1.3 Bilinearformen, Basen und Matrizen Sei V ein n–dimensionaler Vektorraum über K versehen mit einer Bilineraform h, i : V × V → K eine Bilinearform. Ist B = {b1 , . . . , bn } eine Basis, dann kann man der Bilinearform eine quadratische Matrix zuordnen: Ah,i = (ai,j ) mit ai,j = hbi , bj i. genannt die Matrix der Bilinearform bezüglich der Basis B. Damit kann man denP Wert der Bilinearform Pn hv, wi für beliebige Vektoren n v, w berechnen: Sei v = i=1 xi bi und w = i=1 yi bi , dann gilt: hv, wi = h n X i=1 x i bi , n X j=1 y j bj i = n X xi yj hbi , bj i = i,j=1 n X xi yj ai,j = t vB Ah,i wB . i,j=1 Zusammen mit Beispiel 1.2.1 folgt: Lemma 1.3.1 Eine Bilinearform h, i ist bereits eindeutig durch die Werte ai,j = hbi , bj i auf einer Basis B = {b1 , . . . , bn } festgelegt, und in diesem Fall läßt sich der Wert in einem Paar v, w ∈ V berechnen als hv, wi = t vB Ah,i wB mit Ah,i = (ai,j ), und umgekehrt gibt es bei fest gewählter Basis zu der Vorgabe einer beliebigen Matrix A ∈ Mn (K) genau eine Bilinearform h, i mit Ah,i = A. Die Zuordnung h, i → Ah,i ist somit injektiv, und nach Beispiel 1.2.1 surjektiv, liefert also für eine fest gewählte Basis B eine Bijektion zwischen Bilinearformen und quadratischen Matrizen. Was passiert bei Basiswechsel? Sei V ein n–dimensionaler Vektorraum über K und seien A = {a1 , . . . , an } und B = {b1 , . . . , bn } zwei Basen. A Satz 1.3.1 Sei h, i eine Bilinearform auf V , sei Ch,i die Matrix von h, i B bezüglich der Basis A und sei Ch,i die Matrix von h, i bezüglich der Basis B. Dann gilt: t A B (A TB )Ch,i A TB = Ch,i 8 B Beweis. Die Einträge ci,j der Matrix Ch,i = (ci,j ) erhält man als Wert: A hbi , bj i = t (bi )A Ch,i (bj )A Da (bj )A gerade die j–te Spalte der Basiswechselmatrix A TB ist folgt: A B t A • Ch,i = (hbi , bj i) = (bi )A Ch,i (bj )A = t A TB Ch,i A TB . Also, wenn man eine Basis festlegt, dann haben wir eine Bijektion zwischen Matrizen und Bilinearformen. Wenn man allerdings eine Form festlegt, dann ergeben verschiedenen Basen natürlich verschiedene Matrizen zur gleichen Bilinearform. Wir fassen das in dem folgenden Korollar zusammen. Korollar 1.3.1 Sei V ein n–dimensionaler Vektorraum über K. (i) Fixiert man eine Basis, so ergibt die Abbildung h, i 7→ Ah,i eine Bijektion: Bilinearformen auf V ←→ Mn (K). (ii) Wird die Basis nicht fixiert, so repräsentieren zwei Matrizen A, B ∈ Mn (K) die gleiche Bilinearform (bezüglich verschiedener Basen) dann und nur dann wenn es eine invertierbare Matrix g ∈ GLn (K) gibt mit A = t gBg. 1.4 Symmetrische Bilinearform Im Folgenden sei K ein Körper der Charakteristik 0. Zum Beispiel Q, R und C sind Körper der Charakteristik 0. Sei V ein n–dimensionaler Vektorraum über K und sei h, i eine symmetrische Bilinearform. Das Radikal der Bilinearform ist V ⊥ = {v ∈ V | hv, V i = 0} = {v ∈ V | hv, wi = 0 ∀ w ∈ V }. Man nennt die Form nicht ausgeartet wenn V ⊥ = 0. Satz 1.4.1 Sei B = {b1 , . . . , bn } eine Basis von V und sei A die Matrix einer symmetrischen Bilinearform h, i. (i) V ⊥ ist der Unterraum der Lösungen des homogenen Gleichungssystems Ax = 0. 9 (ii) h, i ist nicht ausgeartet dann und nur dann wenn det A 6= 0. Beweis. Ist Ax = 0 so folgt hv, xi = t vAx = 0 fürP alle v ∈ V und somit ist ⊥ ⊥ x ∈ V . Umgekehrt, ist x ∈ V , so sei w = Ax = wi bi . Dann folgt 0 = hei , xi = t ei Ax = t ei · w = wi und somit w = 0. Der Teil (ii) folgt sofort aus (i). • Noch ein paar mehr Namen: Ein Vektor v heißt isotrop (bezüglich h, i) wenn hv, vi = 0, sonst heißt er anisotrop. Ist W ⊂ V ein Unterraum, so nennt man W ⊥ = {v ∈ V | hv, W i = 0} = {v ∈ V | hv, wi = 0 ∀ w ∈ W } den zu W orthogonalen Unterraum in V . Man kann die Untersuchung von symmetrischen Bilinearform auf die nichtausgearteten zurückführen, denn: Satz 1.4.2 Für jede direkte Summenzerlegung V = V ⊥ ⊕ U ist die Einschränkung der Form auf U nicht ausgeartet: h, iU : U × U → K, (u, u0 ) 7→ hu, u0 i Beweis. Sei V = V ⊥ ⊕ U eine beliebige direkte Summenzerlegung von V . Wir wollen zeigen: h, iU ist nicht ausgeartet. Sei also u ∈ U mit hu, U i = 0 und sei v ∈ V beliebig. Man kann dann v zerlegen in v = v1 + u1 mit v1 ∈ V ⊥ und u1 ∈ U . Es folgt hu, vi = hu, v1 + u1 i = hu, v1 i + hu, u1 i = 0 + 0 = 0, also aus hu, U i = 0 folgt sogar u ∈ V ⊥ . Da U ∩ V ⊥ = 0, folgt h, iU ist nicht ausgeartet. • Beachte: Ist V = V ⊥ ⊕ U und sind B1 ⊂ U sowie B2 ⊂ V ⊥ Basen, so ist B = B1 ∪ B2 eine Basis von V , und B1 Ah,i|U 0 B Ah,i = 0 0 Satz 1.4.3 (i) Ist h, i nicht ausgeartet, so gibt es einen anisotropen Vektor. (ii) Sei w ∈ V ein anisotroper Vektor und setze W = Kw. Dann ist V = W ⊕ W ⊥ , und wenn h, i nicht ausgeartet ist auf V , so sind auch die Einschränkungen h, iW und h, iW ⊥ nicht ausgeartet. 10 Beweis. Angenommen alle Vektoren in V sind isotrop. Da h, i nicht ausgeartet ist, gibt es zu einem u ∈ V − {0} ein v ∈ V mit hu, wi = 1. Damit folgt aber: 0=hu + w, u + wi=hu, ui + hu, wi + hw, ui + hw, wi=0 + 1 + 1 + 0=26=0. Es bleibt (ii) zu zeigen. Jedes Element u ∈ V kann man zerlegen in hu, wi hu, wi w + w u= u− hw, wi hw, wi und es gilt: hu − hu, wi hu, wi hu, wi w, wi = hu, wi − hw, wi = 0 ⇒ u − w ∈ W⊥ hw, wi hw, wi hw, wi Folglich gilt Spann(W, W ⊥ ) = V . Ist v ∈ W ∩ W ⊥ , so ist v = λw (da W = Kw), und es gilt 0 = hw, vi = λhw, wi, und damit λ = 0. Es folgt W ∩ W ⊥ = 0 und somit V = W ⊕ W ⊥ . Die Einschränkung von h, i auf W ist nicht ausgeartet. Hat u ∈ W ⊥ die Eigenschaft hW ⊥ , ui = 0, da hw, ui = 0 folgt unmittelbar hV, ui = 0, also u ∈ V ⊥ . Ist h, i nicht ausgeartet, so ist somit auch die Einschränkung h, i|W ⊥ nicht ausgeartet. • Beispiel 1.4.1 Sei h, i gegeben auf K2 durch die Matrix (kanonische Basis) 0 1 a c Ah,i = , also: h , i = ad + bc 1 0 b d Die Form ist nicht ausgeartet da det Ah,i = −1 6= 0. Weiter sind zum Beispiel 1 0 e1 = und e2 = isotrope Vektoren da he1 , e1 i = 0 und he2 , e2 i = 0 1 0. Nun ist he1 , e2 i = 1, und somit ist e1 + e2 ein anisotroper Vektor: he1 + e2 , e1 + e2 i = 2he1 , e2 i = 2. a ⊥ Sei U = K(e1 + e2 ), dann ist U = { ∈ K2 | a + b = 0}, also U ⊥ = b K(e1 − e2 ). Weiter ist he1 − e2 , e1 − e2 i = −2he1 , e2 i = −2 11 (aus dem Satz vorher folgt zumindest, daß es 6= 0!!), und damit ist die Matrix der Form bezüglich der Basis B0 = {(e1 + e2 ), (e1 − e2 )} in Diagonalform: 2 0 0 −2 Satz 1.4.4 Sei V ein n–dimensionaler Vektorraum über K und sei h, i eine symmetrische Bilinearform. V besitzt eine Basis B0 , so daß die Matrix A der Bilinearform bezüglich dieser Basis Ah,i = diag (λ1 , . . . , λr , 0, . . . , 0) eine Diagonalmatrix ist mit λ1 , . . . , λr 6= 0 und n − r = dim V ⊥ . Beweis. Sei die Form h, i zunächst nicht ausgeartet. Sei b1 ∈ V anisotrop, sei U1 = Kv und V = U1 ⊕ W1 mit W1 = U1⊥ wie in Satz 1.4.1(v). Da h, i|W1 nicht ausgeartet ist, gibt es einen anisotropen Vektor b2 ∈ W1 . Sei U2 = Kb2 und sei W2 der zu U2 orthogonale Unterraum in W1 : W2 = {v ∈ W1 | hv, U2 i = 0} Setzt man diesen Prozeß fort, so erhält man eine Zerlegung V = U1 ⊕ U2 ⊕ . . . ⊕ Un mit Ui = Kbi sowie hbi , bj i = 0 ∀ i 6= j. Dann ist B = {b1 , . . . , bn } eine Basis von V und die Matrix Ah,i bezüglich dieser Basis ist eine Diagonalmatrix: hb1 , b1 i 0 ... 0 0 hb2 , b2 i . . . 0 Ah,i = (hbi , bj i) = .. .. . . . 0 . . 0 0 0 hbn , bn i Ist h, i beliebig, so wählt man zuerst eine Zerlegung V = U ⊕ V ⊥ wie in Satz 1.4.1(iii). Die Einschränkung der Form auf U ist nicht ausgeartet. Sei A1 eine Basis von U wie oben und sei A2 ⊂ V ⊥ eine Basis des Radikals. Dann ist A = A1 ∪ A2 eine Basis von V mit den gewünschten Eigenschaften. • Definition 1.4.1 Eine Basis B von V mit der Eigenschaft, das die Matrix Ah,i der Form eine Diagonalmatrix ist nennt man eine Orthogonalbasis der Form. Korollar 1.4.1 Sei A eine symmetrische Matrix. Dann gibt es eine invertierbare Matrix g ∈ GLn (K) mit t gAg ist eine Diagonalmatrix. 12 1.5 Symmetrische Bilinearform über R Im Folgenden sei K = R und sei V ein n–dimensionaler reeller Vektorraum. Sei h, i eine symmetrische Bilinearform. Wir wissen bereits (Satz 1.4.4), daß wir eine Basis wählen können, so daß die Matrix der Form bezüglicher dieser Basis eine Diagonalmatrix ist vom Rang r = n − dim V ⊥ . Über den reellen Zahlen können wir aber noch viel genauer die Matrix festlegen, man ersetzt die Basiselemente bi für 1 ≤ i ≤ r durch √ bi . Bezeichne mit 1Ip eine p×p|hbi ,bi i| Einheitsmatrix und sei Os eine s×s–Nullmatrix. Falls nötig nummeriert man die Elemente noch um, so daß man erhält: Theorem 1.5.1 Es gibt eine Basis B von V , so daß die Matrix Ah,i der Bilinearform bezüglich die Form hat: 1Ip −1Iq Ah,i = Os Die Zahlen p, q, s sind unabhängig von der Wahl der Basis. Definition 1.5.1 Das Paar (p, q) nennt man die Signatur der Form. Beweis. Wähle zunächst eine Basis B0 = {b1 , . . . , bn } wie in Satz 1.4.4. Sei B die Basis die man erhält indem man für alle i mit hbi , bi i = 6 0 das Basiselement 1 √ bi ersetzt durch bi . Diese Basis B hat die gewünschten Eigenschaften. |hbi ,bi i| Es bleibt zu zeigen, daß die Zahlen p, q, s unabhängig sind von der Wahl der Basis. Aus Satz 1.4.1 und Satz 1.4.4 folgt, dass s = dim V ⊥ , und somit ist s unabhängig von der Wahl der Basis. Es bleibt zu zeigen: p und q sind unabhängig von der Wahl der Basis. Sei B2 eine zweite Orthogonalbasis, so daß die Einträge auf der Diagonalen der Matrix der Bilinearform nur 1, −1 und 0 sind. Angenommen, man hat p0 Einsen und q 0 (−1)’sen, und p0 ≤ p. (Ist p0 > p, vertausche einfach die Rolle der Basen B und B1 ). Betrachte die Menge von Vektoren S = {b1 , . . . , bp , b0p0 +1 , . . . , b0n }. Dann ist S eine linear unabhängig Teilmenge, denn wenn man eine lineare Pp Pn Abhängigkeitsrelation hat i=1 xi bi + j=p0 +1 yj b0j = 0 gilt, so folgt für P P v = pi=1 xi bi = − nj=p0 +1 yj b0j P P Pp h i=1 xi bi , pi=1 xi bi i = pi=1 x2i ≥ 0 P P Pp0 +q0 hv, vi = 2 h nj=p0 +1 yj b0j , nj=p0 +1 yj b0j i = j=p 0 +1 −yi ≤ 0 13 Also ist x1 = . . . xp = 0 = yp0 +1 = . . . = yp0 +q0 , und somit v = 0. Die Menge S ist also linear unabhängig und hat p + (n − p0 ) ≥ p + (n − p) = n Elemente, was nur möglich ist wenn p = p0 , was zu beweisen war. • 1.6 Positiv definite Formen Sei wieder K = R und sei V ein n–dimensionaler reeller Vektorraum. Man nennt eine symmetrische Bilinearform h, i positiv definit wenn gilt hv, vi > 0 ∀ v ∈ V − {0}. Entsprechend nennt man eine Matrix A positiv definit wenn für die zugehörige Bilinearform gilt t vAv > 0 ∀ v ∈ Rn − {0}. Offensichtlich gilt: Sei V ein n–dimensionaler reeller Vektorraum, sei B eine Basis und sei h, i eine symmetrische Bilinearform. Dann gilt: h, i ist positiv definit dann und nur dann wenn ABh,i ist positiv definit. Beispiel 1.6.1 Das gewöhnliche Skalarprodukt P auf dem Rn : hx, yi = t xy = Pn n 2 t i=1 xi ≥ 0 und ist gleich i=1 xi yi ist positiv definit da hx, xi = xx = Null dann und nur dann wenn x = 0. Definition 1.6.1 Ein Skalarprodukt auf V ist eine symmetrische, positiv definite Bilinearform. Satz 1.6.1 Sei A eine reelle n × n–Matrix. Dann sind äquivalent: (i) A ist symmetrisch und positiv definit (definiert also ein Skalarprodukt). (ii) ∃ g ∈ GLn (R) mit t gAg = 1I. (iii) Die Signatur von h, iA ist (p, q) = (n, 0). (iv) Es gibt ein g ∈ GLn (R) mit A = t gg. Beweis. Aufgrund von Theorem 1.5.1 sind die Eigenschaften (ii), (iii) und (iv) äquivalent, und (ii)⇒(i) ist offensichtlich. Sei die Matrix A symmetrisch und positiv definit und sei B eine Orthogonalbasis zu A wie in Theorem 1.5.1, also hbi , bj i = 0 für i 6= j und hbi , bi i ∈ {0, 1, −1}. Da die Form aber positiv definit ist, gilt zusätzlich hbi , bi i > 0 für alle i = 1, . . . , n, also gibt es ein g ∈ GLn (R) mit t gAg = 1I. • Eine Basis mit der Eigenschaft hbi , bj i = 0 für i 6= j und hbi , bi i = 1 nennt man eine Orthonormalbasis. Der Beweis oben zeigt: 14 Korollar 1.6.1 Die symmetrische Matrix A (die symmetrische Bilinearform) ist positiv definit dann und nur dann wenn sie eine Orthonormalbasis hat. Im Allgemeinen möchte man gerne ein Verfahren haben um zu untersuchen ob eine Matrix positiv definit ist oder nicht, allerdings ohne etwa ein Orthonormalbasis zu suchen. Hier eine andere Methode: Sei A ∈ Mn (R) und sei Ai die i × i–Matrix die man aus A erhält indem man die Zeilen und Spalten mit Index > i streicht. Die Determinante det Ai nennt man einen Hauptminor von A. Theorem 1.6.1 Eine symmetrische Matrix A ist positiv definit dann und nur dann wenn alle Hauptminoren positiv sind. a b Beispiel 1.6.2 Die Matrix ist positiv definit dann und nur dann b d a > 0 und ad − b2 > 0 gilt. Beweis. Die Matrix Ai ist die Matrix der Einschränkung der symmetrischen Bilinearform h, i auf Ui = he1 , . . . , ei iR . Ist die Form positiv definit, so ist auch die Einschränkung positiv definit, es gibt also ein g ∈ GLi (R) mit t gAi g = 1Ii . Da gilt 1 = det(t gAi g) = (det g)2 det Ai , folgt det Ai > 0. Sei umgekehrt A eine Matrix deren Hauptminoren alle positiv sind. Wir beweisen per Induktion die Behauptung. Ist n = 1, so ist die Behauptung offensichtlich wahr. Sei n > 1, per Induktion kann man also annehmen: An−1 ist positiv t 0 definit. Es gibt also eine Matrix g ∈ GLn−1 (R) mit gAn−1 g = 1I, für g = g 0 gilt dann: 0 1 ∗ t 0 g Ag 0 = 1In−1 ... ∗··· ∗ Durch multiplizieren mit Elementarmatrizen von rechts (addieren des Vielfachen einer Spalte zur letzten Spalte) kann man die Einträge in der letzten Spalte alle löschen (bis auf den in der letzten Zeile). Beachte, man muß gleichzeitig mit der transponierten der jeweilgen Matrix auch von links multiplizieren, wegen der Symmetrie löscht man so auch gleichzeitig die Einträge 15 in der letzten Zeile und erhält eine Diagonalmatrix: 1I 0 0 t t 0 0 A = L1 · · · Ls g Ag Ls · · · L1 = . 0 c Da c = det A0 = det2 (L1 ) · · · det2 (Ls ) det2 (g 0 ) det A > 0, kann man die entsprechende Basis so renormieren und erhält das standard Skalarprodukt. Insbesondere ist A somit positiv definit. • 1.7 Hermitesche Formen Sei V ein n–dimensionaler Vektorraum mit Basis B = {b1 , . . . , bn }. Über den komplexen Zahlen betrachtet man oft sogenannte hermitesche Formen, bei denen die Bilinearität und die Symmetrie verquickt werden mit der komplexen Konjugation: : C → C, z = a + biı 7→ z = a − biı. Übung 1.7.1 Zeige: z1 + z2 = z1 + z2 , und z1 · z2 = z1 · z2 Bemerkung 1.7.1 Beachte: Sei z = a + iıb, dann ist zz = zz = a2 + b2 ≥ 0 eine nicht negative reelle Zahl, wobei zz = zz = 0 dann und nur dann möglich ist wenn z = 0. Weiter gilt z = z dann und nur dann wenn b = 0, also z ∈ R. Definition 1.7.1 Eine hermitesche Form auf einem komplexen Vektorraum V ist eine Funktion V × V −→ C (v, w) 7→ hv, w, i mit den Eigenschaften: (i) Linearität in dem zweiten Argument: hv, w + w0 i = hv, wi + hv, w0 i, hv, λw, i = λhv, w, i (ii) Konjugierte Linearität (sesquilinear, semilinear) in dem ersten Argument: hv + v 0 , wi = hv, wi + hv 0 , wi, hλv, w, i = λhv, w, i 16 (iii) Hermitesche Symmetrie: hv, wi = hw, vi. Es folgt insbesondere: hv, vi ∈ R, und wir nennen eine hermitesche Form positiv definit wenn hv, vi > 0 für alle v ∈ V − {0}. Beispiel 1.7.1 Die standard hermitesche Form auf dem Cn ist definiert als n n C × C → C, t (x, y) 7→ xy = n X xi yi . i=1 Beispiel 1.7.2 Sei A ∈ Mn (C) eine hermitesche Matrix, d.h., A = t A, die Matrix gleich seiner transponierten komplex konjugierten Matrix. Die Matrix definiert natürlich eine Bilinearform: Cn × Cn → C, (x, y) 7→ t xAy Da wir aber an hermiteschen Formen interessiert sind, bauen wir noch eine kleine Änderung ein, genauso wie beim Übergang von dem Standardskalarprodukt auf dem Rn zur standard hermiteschen Form oben. Sei h, iA die Form Cn × Cn → C, (x, y) 7→ hx, yiA := t xAy Wie man leicht nachrechnet, gilt hx, λyiA = λhx, yiA und hλx, yiA = λhx, yiA , sowie hx, yiA = t xAy = t (t xAy) = t y t Ax = t y t Ax = t y Ax = hy, xiA man erhält somit also eine hermitesche Form. Wie im Fall der Bilinearformen, zu einer Basis B sei Ah,i = (hbi , bj i) die Matrix der Form bezüglich B. Beachte, man erhält die Form zurück durch: hv, wi = t v B Ah,i wB , wobei vB wie vorher den Koordinatenvektor von v bezeichnet, und v B sei der entsprechende Vektor mit konjugiert komplexen Einträgen. Allerdings liefert nicht jede komplexe Matrix eine hermitesche Form denn die hermitesche Symmetrie hat zur Folge: ai,j = hbi , bj i = hbj , bi i = aj,i . Man rechnet wie vorher nach: 17 Lemma 1.7.1 Für eine festgewählte Basis B liefert die Abbildung h, i 7→ Ah,i eine Bijektion zwischen den hermiteschen Formen auf V und den hermiteschen Matrizen, d.h. den Matrizen A ∈ Mn (C) mit t A = A. Eine Matrix mit reellen Einträgen ist hermitesch genau dann wenn sie symmetrisch ist. Der Zusammenhang mit der Basistranformation ist, bis auf die offensichtlichen Veränderungen, genauso wie im Fall der Bilinearformen. Lemma 1.7.2 Sei A die Matrix einer hermiteschen Form bezüglich der Basis A und sei TAB die Basistransformationsmatrix von der Basis B = {b1 , . . . , bn } in die Basis A = {a1 , . . . , an }. Dann ist A0 = t TAB ATAB die Matrix der Form bezüglich der Basis B. Beweis. Sei A00 = (a00i,j ) = t TAB ATAB und sei A0 = (a0i,j ) die Matrix der hermiteschen Form bezüglich der Basis B. Wir haben a0i,j = hbi , bj i = t (bi )A A(bj )A = t (bi )B t TAB ATAB (bj )B • Das Radikal der Form sei wie vorher V ⊥ = {v ∈ V | hv, wi = 0 ∀w ∈ V }, und wir nennen die Form nicht ausgeartet wenn V ⊥ = 0. Man kann immer eine Zerlegung V = V ⊥ ⊕ U finden, so daß die Einschränkung auf U nicht ausgeartet ist. Zum Beispiel: Ergänze eine Basis von V ⊥ zu einer Basis von V und definiere U als den Spann der zusätzlichen Basisvektoren. Dann ist die Einschränkung der Form auf U nicht ausgeartet, denn ein Vektor u, der senkrecht steht auf U , d.h. hu, U i = 0, der steht senkrecht auf ganz V und liegt somit in V ⊥ . Einen Vektor v ∈ V nennt man isotrop wenn hv, vi = 0, sonst nennt man den Vektor anisotrop. Man nennt eine Basis B = {b1 , . . . , bn } von V eine Orthogonalbasis wenn hbi , bj i = 0 für all i 6= j. Mit den gleichen Argumenten wie vorher zeigt man: Lemma 1.7.3 Jede hermitesche Form besitzt eine Orthogonalbasis. Genauer, es existiert eine Basis, so daßdie Matrix der hermiteschen Form von der 1Ip 0 0 0 ist, und p, q, s sind unabhängig von der Gestalt Ah,i = 0 −1Iq 0 0 On−p Wahl der Basis. Wie im reellen Fall nennt man das Paar (p, q) die Signatur. Beweis. Wir geben nur eine kurze Andeutung des Beweises. Zunächst zerlegt man V in V ⊥ ⊕U , so daß die Einschränkung der Form auf U nicht ausgeartet 18 ist. Ist U 6= 0, so besitzt U einen anisotropen Vektor u1 (gleiches Argument wie vorher), man kann sogar u1 so wählen, daß hu1 , u1 i = ±1. Man zerlegt dann U = Cu1 ⊕ U1 mit U1 = (Cu1 )⊥ = {v ∈ U | hu, vi = 0}. Man wiederholt den Prozess und erhält, zusammen mit einer Basis von V ⊥ , sukzessive eine Basis von V mit den gewünschten Eigenschaften. Wie im Fall der reellen symmetrischen Bilinearformen zeigt man dann die Unabhängigkeit der Zahlen p, q, s von der Wahl der Basis. • Theorem 1.7.1 Sei h, i eine hermitesche Form auf einem komplexen Vektorraum V der Dimension n. Sei B eine Basis von V und sei A die Matrix der Form bezüglich B. Dann sind äquivalent: (i) Die Form (beziehungsweise A) ist positiv definit. (ii) A repräsentiert das standard–hermitesche Produkt auf dem Cn bezüglich einer geeigneten Basis. (iii) Es gibt ein g ∈ GLn (C) mit A = t gg. (iv) Alle Hauptminoren sind positiv. (v) h, i hat eine Orthonormalbasis A = {v1 , . . . , vn }, d.h., hvi , vj i = δi,j . Beweis. Die Äquivalenz von (ii) und (iii) folgt aus dem Verhalten der Matrizen bei Basistransformationen. Das standard–hermitesche Produkt auf dem Cn hat eine Orthonormalbasis. Andererseits, wenn die Form eine Orthonormalbasis A hat, dann gilt t vi Avj = δi,j , und somit folgt für die Matrix g, die als Spaltenvektoren genau die [v1 ]B , . . . , [vn ]B hat: t gAg = 1I. Das standard–hermitesche Produkt auf dem Cn ist positiv definit. Andererseits, ist die Form positiv definit, so ist die im Beweis von Lemma 1.7.3 konstruierte Basis eine Orthonormalbasis, womit die Äquivalenzen alle gezeigt wären außer der zum Punkt (iv), aber hier verläuft der Beweis auch wieder parallel zum reellen Fall und wird deswegen weggelassen. • Kapitel 2 Die orthogonale und die unitäre Gruppe 2.1 Orthogonale und unitäre Endomorphismen Sei V = Cn versehen mit der standard hermiteschen Form h, i. Eine komplexe Matrix g ∈ Mn (C) nennt man unitär wenn t gg = 1I, also t g = g −1 . Die unitären Matrizen lassen die hermitesche Form invariant, d.h., es gilt für alle v, w ∈ Cn : hgv, gwi = (t (gv))gw = t v(t gg)w = t vw = hv, wi. Die eigentliche Definition der unitären Matrizen lautet: Es sind genau die Elemente in der GLn (C), die die hermitesche Form invariant lassen: Lemma 2.1.1 g ist unitär dann und nur dann wenn hgv, gwi = hv, wi für alle v, w ∈ Cn . Beweis. Die eine Richtung haben wir bereits gezeigt. Angenommen hgv, gwi = hv, wi für all v, w ∈ Cn . Sei A die Matrix A = t gg = (ai,j ), dann ist ai,j = t ei Aej = t ei t ggej = t (gei )(gej ) = hgei , gej i = hei , ej i = δi,j , • also A = 1I und somit ist g unitär. Basisunabhängig definiert man daher: 19 20 Definition 2.1.1 Sei V ein endlichdimensionaler komplexer Vektorraum mit einer positiv definiten hermiteschen Form h, i. Ein Endomorphismus g ∈ End(V ) heißt unitär falls g die Form invariant läßt, also hgw, gw0 i = hw, w0 i für alle w, w0 ∈ V . Ein unitärer Endomorphismus g ist offensicht injektiv, denn für v ∈ V mit gv = 0 gilt 0 = hgv, gvi = hv, vi ⇐⇒ v = 0. Da wir V endlichdimensional voraussetzen, folgt somit sofort: unitäre Endomorphismen sind invertierbar, also: g unitär ⇒ g ∈ GL(V ). Wir wissen also: Unitäre Matrizen sind invertierbar, die Spaltenvektoren bilden damit eine Basis. Sind vi , vj zwei solche Spaltenvektoren, dann ist hvi , vj i der (i, j)-te Eintrag der Matrix t gg, also t vi vj = δi,j . Die Spaltenvektoren bilden also eine Orthonormalbasis für die Form h, i. Es gilt auch die Umkehrung: Lemma 2.1.2 Eine komplexe n × n-Matrix ist unitär dann und nur dann wenn die Spaltenvektoren eine Orthonormalbasis für die standard hermitesche Form bilden. Beweis. Die eine Richtung haben wir bereits gesehen. Andererseits, ist g = (v1 | . . . |vn ) die Matrix mit den Spaltenvektoren v1 , . . . , vn , wobei diese eine Orthonormalbasis bezüglich des standard hermiteschen Produktes bilden (also hvi , vj i = t vi vj = δi,j , dann ist t gg = t v1 | . . . |vn v1 | . . . |vn ) = hvi , vj i = 1I, also g = (v1 | . . . |vn ) ist unitär. • Sei V = Rn versehen mit dem standard Skalarprodukt h, i. Eine reelle Matrix nennt man orthogonal wenn t gg = 1I , also t g = g −1 . Eine solche Matrix ist offensichtlich invertierbar, die Spaltenvektoren bilden also eine Basis. Sind vi , vj zwei solcher Spaltenvektoren, dann gilt t vi vj = δi,j , die Spaltenvektoren bilden also eine Orthonormalbasis für die Form h, i. Ebenso wie für unitäre Matrizen zeigt man: 21 Lemma 2.1.3 (i) Eine n × n–Matrix g ∈ Mn (R) ist orthogonal dann und nur dann wenn sie das standard Skalarprodukt h, i invariant läßt, d.h., für alle v, w ∈ Rn gilt: hgv, gwi = hv, wi. (ii) Eine n × n–Matrix g ∈ Mn (R) ist orthogonal dann und nur dann wenn die Spaltenvektoren eine Orthonormalbasis bilden. Basisunabhängig definiert man daher: Definition 2.1.2 Sei V ein endlichdimensionaler reeller Vektorraum mit einem Skalarprodukt, d.h. mit einer positiv definiten symmetrischen Bilinearform h, i. Ein Endomorphismus g ∈ End(V ) heißt orthogonal falls g die Form invariant läßt, also hw, w0 i = hw, w0 i für alle w, w0 ∈ V . Ein orthogonaler Endomorphismus g ist offensicht injektiv, denn für v ∈ V mit gv = 0 gilt 0 = hgv, gvi = hv, vi ⇐⇒ v = 0. Da wir V endlichdimensional voraussetzen, folgt somit sofort: orthogonale Endomorphismen sind invertierbar, also: g orthogonal ⇒ g ∈ GL(V ). 2.2 Die Gruppen On(R) und Un(C) Bezeichne mit Un die unitäre Gruppe, also (zunächst einmal) die Menge aller unitären Matrizen: Un = {g ∈ GLn (C) | t gg = 1I}, und bezeichne mit On die orthogonale Gruppe On = {g ∈ GLn (R) | t gg = 1I}. Wie der Name bereits vermuten läßt, handelt es sich um Untergruppen der GLn (C) respektive GLn (R). Lemma 2.2.1 (i) On ist eine Untergruppe der GLn (R). (ii) Un ist eine Untergruppe der GLn (C). 22 Beweis. Man hat 1I ∈ Un , und sind g, h ∈ Un , so folgt t (gh)gh = t h(t gg)h = t hh = 1I, also gh ∈ Un . Ist nun g ∈ Un , so gilt g −1 = t g. Da t t ( g)(t g) = g t g = 1I folgt t g = g −1 ∈ Un , was zu beweisen war. Der Beweis für On ist analog und wird dem Leser überlassen. • Der Cn respektive Rn ist automatisch mit einer Orthonormalbasis versehen, der kanonischen Basis B = {e1 , . . . , en }. Wir haben gesehen, daß die Basistransformationsmatrizen TAB zu einer anderen Basis genau die Matrizen in Gruppe GLn (C) beziehungsweise GLn (R) sind. Wenn man alllerdings einen Raum hat mit einer positiv definiten Form hat, so macht es Sinn als neue Basen nur wieder Orthonormalbasen zuzulassen. Dann kann man die obigen Lemmata 2.1.3 und 2.1.2 auch wie folgt lesen: Korollar 2.2.1 Sei B = {e1 , . . . , en } die kanonische Basis des Cn und sei h, i die standard hermitesche Form. Eine Basis A des Cn ist eine Orthonormalbasis dann und nur dann wenn TAB ∈ Un . Sei B = {e1 , . . . , en } die kanonische Basis des Rn und sei h, i das Standardskalarprodukt. Eine Basis A des Rn ist eine Orthonormalbasis dann und nur dann wenn TAB ∈ On . 2.3 Die Gruppe O2(R) Untersuchen wir als Beispiel genauer, wie die Elemente der Gruppe O2 (R) aussehen. Sei a b g= ∈ GL2 (R) mit t gg = 1I, c d also a2 + c2 = 1, b2 + d2 = 1 sowie ab + cd = 0. Aus den ersten beiden Bedingungen folgt, daß es Winkel α1 , α2 ∈ [0, 2π] gibt mit a = cos α1 b = sin α2 c = sin α1 d = cos α2 Die dritte Bedingung ab + cd = 0 liefert dann zusammen mit dem Additionstheorem für trigonometrische Funktionen: 0 = cos α1 sin α2 + sin α1 cos α2 = sin(α1 + α2 ) 23 Also ist α1 + α2 = mπ für ein m ∈ Z. Ist m = 2k, so gilt cos α1 = cos α2 sowie sin α1 = − sin α2 , und damit cos α − sin α g= . sin α cos α Dies ist die Matrix einer Drehung des R2 um den Ursprung um den Winkel α. Das charakteristische Polynom ist pg (t) = t2 −2t cos α+1, die Eigenwerte sind √ cos α ± cos2 α − 1. Diese sind reell dann und nur dann wenn α = 0, π, 2π, also entweder ist dann g = 1I oder −1I. Ist m = 2k + 1, so gilt cos α1 = − cos α2 sowie sin α1 = sin α2 , und damit cos α sin α g= sin α − cos α Das charakteristische Polynom ist pg (t) = t2 − 1 = (t − 1)(t + 1). Die Matrix ist also diagonalisierbar. Sei v1 ein Eigenvektor zum Eigenwert 1 und sei v−1 ein Eigenvektor zum Eigenwert −1. Dann gilt: hv1 , v−1 i = hgv1 , gv−1 i = hv1 , −v−1 i = −hv1 , v−1 i, also hv1 , v−1 i = 0. Wir können zusäztlich noch v1 , v−1 so nromieren, daß hv1 , v1 i = 1 und hv−1 , v−1 i = 1, die Matrix h = (v1 |v−1 ) ist also auch ein Element in O2 (R), und auch die Matrix −1 t h gh = hgh = 1 0 0 −1 In der diagonalisierten Form stellt die Matrix genau die Spiegelung an der x-Achse dar, die Matrix g stellt also eine Spiegelung dar an der Geraden, die aufgespannt wird vom Eigenvektor zum Eigenwert 1. Eine kleine Rechnung ergibt, es die Gerade aufgespannt von dem Vektor v= cos α2 sin α2 also die x-Achse gedreht um den Winkel α 2 gegen den Uhrzeigersinn. 24 2.4 Orthogonales Komplement und direkte Summen Sei V ein reeller endlichdimensionaler Vektorraum mit einer positiv definiten symmetrischen Bilinearform h, i und sei U ⊂ V ein Untervektorraum. Lemma 2.4.1 a) Sei U ⊥ = {v ∈ V | hU, vi = 0}, dann ist V = U ⊕ U ⊥ . b) Sei φ ∈ O(V ) ein orthogonaler Automorphismus. Gilt φ(U ) ⊆ U , dann gilt auch φ(U ⊥ ) ⊆ U ⊥ . c) Sei φ ∈ O(V ) ein orthogonaler Automorphismus mit φ(U ) ⊆ U . Sei B1 ⊂ U eine Orthonormalbasis und sei B2 ⊂ U ⊥ eine Orthonormalbasis. Setze B = B1 ∪ B2 . Dann ist MB1 (φ) 0 MB (φ) = . 0 MB2 (φ) mit MB1 (φ) ∈ Odim U (R) und MB2 (φ) ∈ Odim U ⊥ (R). Bemerkung 2.4.1 Wie vorher nennt man U ⊥ das orthogonale Komplement von U . Beweis. Zunächst einmal zur Erinnerung: U ⊥ ist ein Unterraum: Sei λ ∈ R und seien w, w1 , w2 ∈ U ⊥ , dann gilt hU, λwi = λhU, wi = 0 =⇒ λw ∈ U ⊥ sowie für alle u ∈ U : hu, w1 + w2 i = hu, w1 i + hu, w2 i = 0 + 0 = 0 =⇒ w1 + w2 ∈ U ⊥ . Ist nun u ∈ U ∩ U ⊥ , so folgt aus der Definition hu, ui = 0 und damit u = 0, da h, i positiv definit ist. Um zu zeigen, daß U und U ⊥ den ganzen Raum aufspannen, benutzt man ähnliche Argument wie in Satz 1.4.1. Sei B1 = {b1 , . . . , br } ⊂ U eine Orthonormalbasis und sei v ∈ V . Bezeichne mit u1 den Vektor u1 = hb1 , vib1 + hb2 , vib2 + · · · + hbr , vibr ∈ U 25 und sei u2 = v−u1 . Um zu zeigen, daß u2 ∈ U ⊥ reicht es zu zeigen hbi , u2 i = 0 für alle Basiselemente b1 , . . . , br . Nun gilt hbi , u2 i = = = = hbi , v − (hb1 , vib1 + · · · + hbr , vibr )i hbi , vi − hb1 , vihbi , b1 i − · · · − hbi , vihbi , bi i − · · · − hbr , vihbi , br i , hbi , vi − hbi , vihbi , bi i 0 was zu beweisen war, also u2 ∈ U ⊥ . Aber damit haben wir gezeigt: v = u1 +u2 mit u1 ∈ U und u2 ∈ U ⊥ , und somit V = U ⊕ U ⊥ . Um b) zu zeigen, betrachte ein Element w ∈ U ⊥ . Dann gilt für alle u ∈ U : hu, φ(w)i = hφ−1 (u), φ−1 (φ(w))i = hφ−1 (u), wi = 0 da mit φ auch φ−1 orthogonal ist und aus φ(U ) = U auch φ−1 (U ) = U folgt. Somit erhält man: φ(w) ∈ U ⊥ . Teil c) folgt unmittelbar aus Teil b) da die Einschränkungen φ|U und φ|U ⊥ wieder orthogonale Automorphismen sind. • Sei V ein komplexer endlichdimensionaler Vektorraum mit einer positiv definiten hermiteschen Form h, i und sei W ⊂ V ein Untervektorraum. Wie im reellen Fall zeigt man auf die gleiche Weise (mit den entsprechenden Modifikationen, !Übung!): Lemma 2.4.2 W ⊥. a) Sei W ⊥ = {v ∈ V | hW, vi = 0}, dann ist V = W ⊕ b) Sei φ ∈ U (V ) ein unitärer Automorphismus. Gilt φ(W ) ⊆ W , dann gilt auch φ(W ⊥ ) ⊆ W ⊥ . c) Sei φ ∈ U (V ) ein unitärer Automorphismus mit φ(W ) ⊆ W . Sei B1 ⊂ W eine Orthonormalbasis und sei B2 ⊂ W ⊥ eine Orthonormalbasis. Setze B = B1 ∪ B2 . Dann ist MB (φ) = MB1 (φ) 0 . 0 MB2 (φ) mit MB1 (φ) ∈ Udim W (C) und MB2 (φ) ∈ Udim W ⊥ (C). 26 2.5 Determinante, Eigenwerte und Eigenvektoren Wir haben bereits im Fall der Gruppe O2 (R) gesehen, daß die Determinante immer 1 oder −1 ist. Dies gilt (im komplexen Fall entsprechend angepaßt) allgemein. Für eine komplexe Zahl z = a + ib bezeichnet man mit dem Absolutbetrag: √ √ |z| = zz = a2 + b2 Identifiziert man C mit dem R2 (x–Koordinate = reeller Anteil, y–Koordinate = imaginärer Anteil), dann ist |z| die Länge des Vektors z. Lemma 2.5.1 Der Absolutbetrag der Determinante det g einer orthogonalen oder unitären Matrix ist 1. Beweis. Im orthogonalen Fall haben wir 1 = det 1I = det(t gg) = det2 g, also | det g| = 1, und im unitären Fall haben wir 1 = det 1I = det(t gg) = det g det g, also | det g| = 1. • Definition 2.5.1 Unter der speziellen orthogonalen Untergruppe SOn (R) versteht man die Untergruppe SOn (R) = {g ∈ On (R) | det g = 1}. Unter der speziellen unitären Untergruppe SUn (R) versteht man die Untergruppe SUn (C) = {g ∈ Un (C) | det g = 1}. Ist φ ein Endomorphismus und sind B1 und B2 Basen, so gilt det MB1 = det MB2 , es macht also Sinn von det φ zu sprechen. Im Folgenden sei V ein reeller / komplexer Vektorraum mit einer positiv definiten symmetrischen Bilinearform / positiv definiten hermiteschen Form. Definition 2.5.2 Im reellen Fall versteht man unter der speziellen orthogonalen Untergruppe SOn (V ) die Untergruppe SOn (V ) = {g ∈ On (V ) | det g = 1}. Im komplexen Fall versteht man unter der speziellen unitären Untergruppe SUn (V ) die Untergruppe SUn (V ) = {g ∈ Un (V ) | det g = 1}. 27 Beispiel 2.5.1 Zeige: SOn (R) ist eine Untergruppe der On (R) und SUn (C) ist eine Untergruppe der Un (C). Lemma 2.5.2 Sei λ ein Eigenwert einer orthogonalen bzw. unitären Abbildung g, dann ist |λ| = 1. Beweis. Sei v ∈ V − {0} ein Eigenvektor. Dann gilt: hv, vi = hgv, gvi = hλv, λvi = λλhv, vi. Da hv, vi = 6 0 folgt λλ = 1, was zu beweisen war. • Lemma 2.5.3 Seien λ1 , λ2 zwei verschiedene Eigenwerte einer orthogonalen bzw. unitären Abbildung g, und seien v1 , v2 zwei Eigenvektoren, wobei vi Eigenvektor ist zum Eigenwert λi , i = 1, 2. Dann ist v1 orthogonal zu v2 , d.h., hv1 , v2 i = 0. Beweis. Es gilt hv1 , v2 i = hgv1 , gv2 i = hλ1 v1 , λ2 v2 i = λ1 λ2 hv1 , v2 i. Da λ1 6= λ2 aber |λ1 | = |λ2 | = 1 folgt λ1 λ2 6= 1. Damit ist die obige Gleichung nur möglich wenn hv1 , v2 i = 0. • Satz 2.5.1 a) Jede unitäre Matrix ist diagonalisierbar durch Konjugation mit einer Matrix aus Un (C). b) Zu jedem unitären Automorphismus φ gibt es eine Orthonormalbasis so daß die Matrix von φ bezüglich dieser Basis eine Diagonalmatrix ist Bevor wir zum Beweis kommen zeigen wir folgendes Lemma: Lemma 2.5.4 Sei v ein Eigenvektor eines unitären oder orthogonalen Automorphismus φ zum Eigenwert λ, wir nehmen weiter an hv, vi = 1. Sei U = v ⊥ = {w ∈ V |hw, vi = 0}, also V = Kv ⊕ U ( K = R im orthogonalen Fall, K = C im unitären Fall). Dann gilt φ(U ) ⊆ U , φ|U ist ein unitärer bzw. orthogonaler Automorphismus von U . Weiter sei B1 eine Orthonormalbasis von U und sei B = {v} ∪ B1 , dann ist die Matrix von φ bezüglich B von der Form λ 0 MB (φ) = . 0 MB1 (φ|U ) 28 Beweis. Ist u ∈ U , so folgt hu, vi = 0, aber damit auch 0 = hu, vi = hφ(u), φ(v)i = λhφ(u), vi, und somit 0 = hφ(u), vi da λ 6= 0. Also: φ(U ) ⊆ U . Natürlich ist φ|U wieder orthogonal bzw. unitär bezüglich der Form h, i|U . • Beweis des Satzes. Jeder komplexe Automorphismus hat mindestens einen Eigenvektor. Durch wiederholtes Anwendenden von Lemma 2.5.4 bringt man die Matrix (den Automorphismus) auf die gewünschte Diagonalform. • Das Beispiel der Drehungen in Abschnitt 2.3 zeigt, daß orthogonale Matrizen im Allgemeinen nicht diagonalisierbar sind. Um eine diesem Fall angepaßte Version des Satzes 2.5.1 zu formulieren, schauen wir uns noch genauer einige spezielle Abbildungen an. 2.6 Drehungen und Spiegelungen Sei V ein komplexer oder reeller Vektorraum der Dimension n. Sei h, i im komplexen Fall eine positiv definite hermitesche Form auf V , und im reellen Fall sei h, i eine symmetrische positiv definite Form auf V . Betrachten wir zunächst Spiegelungen. Für v ∈ V − {0} sei sv die lineare Abbildung: sv : V −→ V v w 7→ w − 2 hv,wi hv,vi Die Abbildung ist linear da h, i linear ist im zweiten Argument, also 0 i sv (w + w0 ) = w + w0 − 2 hv,w+w v hv,vi 0 i = w − 2 hv,wi v + w0 − 2 hv,w v hv,vi hv,vi 0 = sv (w) + sv (w ) und sv (λw) = λsv (w). Aus der Definition folgt: sv (w) = w ∀w ∈ v ⊥ = {w ∈ V | hv, wi = 0} und sv (v) = −v. Sei K = C falls V ein komplexer Raum ist und sei K = R falls V ein reeller Raum ist. Da V = Kv ⊕ v ⊥ , kann man also sv auch charakterisieren als die eindeutig bestimmte lineare Abbildung, die v auf −v schickt und den Orthogonalraum v ⊥ punktweise invariant läßt. 29 Definition 2.6.1 Man nennt sv die (orthogonale) Spiegelung von V an v. Beachte, sv läßt die Form h, i invariant, sv ist also eine orthogonale Abbildung im reellen Fall und eine unitäre Abbildung im komplexen Fall. Lemma 2.6.1 ∀w, w0 ∈: hw, w0 i = hsv (w), sv (w0 )i Beweis. 0 i v, w0 − 2 hv,w vi hsv (w), sv (w0 )i = hw − 2 hv,wi hv,vi hv,vi 0 i v, w0 i − hw, 2 hv,w vi = hw, w0 i − h2 hv,wi hv,vi hv,vi 0 i +h2 hv,wi v, 2 hv,w vi hv,vi hv,vi 0 i = hw, w0 i − 2 hv,wi hv, w0 i − 2 hv,w hw, vi hv,vi hv,vi 0 0 0 ihv,wi +4 hv,w hv, vi hv,vi2 0 i ihw,vi ihw,vi = hw, w0 i − 2 hw,vihv,w − 2 hv,whv,vi + 4 hv,whv,vi hv,vi = hw, w0 i • Im Folgenden sei V ein reeller Vektorraum mit einer symmetrischen positiv definiten Bilinearform h, i. Unter einer ebenen Drehung von V versteht man eine orthogonale Abbildung φ : V → V für die es eine Ebene (d.h. einen 2-dimensionalen Unterraum) U ⊆ V gibt mit der Eigenschaft φ(U ) ⊆ U und φ|U ∈ SO(U ) sowie φ|U ⊥ = 1I, wobei U ⊥ = {v ∈ V | hU, vi = 0}. Lemma 2.6.2 Eine ebene Drehung φ ist eine spezielle orthogonale Abbildung. Beweis. Betrachte die Zerlegung V = U ⊕ U ⊥ , dann sind U und U ⊥ selbst wieder Räume mit einer positiv definiten Bilinearform. Da φ die Unterräume in sich selbst abbildet und die Einschränkung der Form auf den Unterräumen invariant läßt, ist φ selbst eine orthogonale Abbildung: Seien v1 , v2 ∈ V mit v1 = u1 + w1 , v2 = u2 + w2 , u1 , u2 ∈ U und w1 , w2 ∈ U ⊥ . Dann gilt hv1 , v2 i = = = = = hu1 + w1 , u2 + w2 i hu1 , u2 i + hw1 , w2 i hφ(u1 ), φ(u2 )i + hφ(w1 ), φ(w2 )i hφ(u1 ) + φ(w1 ), φ(u2 ) + φ(w2 )i hφ(v1 ), φ(v2 )i 30 Da φ die Unterräume U und U ⊥ in sich abbildet, hat die Matrix von φ bei entsprechender Wahl der Basen B1 ⊂ U , B2 ⊂ U ⊥ , B = B1 ∪B2 die Blockform MB1 (φ) 0 MB (φ) = 0 MB2 (φ) und somit det φ = (det φ|U ) · (det φ|U ⊥ ) = 1. 2.7 • Standardform für orthogonale Endomorphismen Orthogale Abbildungen kann man über den reellen Zahlen im Allgemeinen nicht diagonalisieren, wie wir am Beispiel der Drehungen des R2 gesehen haben. Aber im gewissen Sinn ist das das einzige Beispiel, wie der folgende Satz zeigt. Sei also wieder V ein reeller endlichdimensionaler Vektorraum mit einer positiv definiten symmetrischen Bilinearform. Satz 2.7.1 a) Zu jedem orthogonalen Automorphismus φ gibt es eine Orthonormalbasis, so daß die Matrix von φ die folgende Gestalt hat: 1 ... 1 −1 .. . −1 cos α1 − sin α1 sin α1 cos α1 .. . cos αr sin αr − sin αr cos αr b) Jede orthogonale Matrix g läßt sich durch Konjugation mit einer Element aus der On (R) auf die obige Gestalt bringen. 31 Bevor wir zum Beweis kommen, beachte: Die Matrix oben läßt sich offenbar schreiben als Produkt von Matrizen der Form: 1 ... 1 −1 g= , 1 . .. 1 wobei dies die Matrix einer Spiegelung ist, und 1 ... 1 cos α − sin α g0 = sin α cos α 1 ... , 1 die Matrix einer ebenen Drehung. Es folgt somit: Korollar 2.7.1 Jede orthogonale lineare Abbildung läßt sich schreiben als ein Produkt von Spiegelungen und ebenen Drehungen. Beweis des Satzes. Der Beweis ist per Induktion über n = dim V . Für n = 1 gibt es nichts zu zeigen (Übung: Zeige O1 (R) = {1, −1}), für n = 2 haben wir bereits den Satz bewiesen. Sei also n ≥ 3, und wir nehmen an der Satz ist für alle reellen Vektorräume der Dimension < n bewiesen. Wenn es einen Unterraum U ⊂ V gibt mit U 6= 0, V und φ(U ) = U , dann können wir Lemma 2.4.1 anwenden: Man wählt Orthonormalbasen B1 ⊂ U , B2 ⊂ U ⊥ und erhält für B = B1 ∪ B2 : MB1 (φ) 0 MB (φ) = . 0 MB2 (φ) Wir können nun die Induktionsannahme auf die Abbildungen φ|U und φ|U ⊥ anwenden. 32 Es bleibt also der Fall zu betrachten, in dem V keinen echten Unterraum U = 6 0, V hat mit φ(U ) = U . Das charakteritsiche Polynom pφ (t) von φ hat mindestens eine komplexe Nullstelle λ. Da pφ (t) ein Polynom mit reellen Koeffizienten ist ist λ auch eine Nullstelle. Sei B ⊂ V eine Orthonormalbasis und sei A = MB (φ) ∈ Mn (R) die zughörige Matrix. Betrachtet man A als eine Matrix in Mn (C), so gilt det(λ1I − A) = 0 und det(λ1I − A) = 0 und damit ist auch det(λ1I − A)(λ1I − A) = det(1I − λA − λA + A2 ) = det(1I − 2Re(λ)A + A2 ) = 0 Hier bezeichnet Re(λ) den Realteil der komplexen Zahl λ, ist also λ = λ1 +iλ2 mit λ1 , λ2 ∈ R, so ist Re(λ) = λ1 . Damit ist also 1I − 2Re(λ)A + A2 ∈ Mn (R) die Matrix von 1I−2Re(λ)φ+φ2 . Da die Determinate verschwindet, hat diese lineare Abbildung einen Kern U = Ker 1I − 2Re(λ)φ + φ2 , der verschieden ist von 0. Nun gilt allerdings φ(U ) = U , denn ist u ∈ U , so gilt für w = φ(u): (1I − 2Re(λ)φ + φ2 )(w) = (1I − 2Re(λ)φ + φ2 )(φ(u)) 2 3 = φ(u) − 2Re(λ)φ (u) + φ (u) 2 = φ u − 2Re(λ)φ(u) + φ (u) = φ(0) = 0 und somit folgt φ(u) ∈ U . Da wir vorausgesetzt hatten, daß V außer V und 0 keine Unterräume hat die von φ auf sich selbst abgebildet werden folgt: U = V , und somit: 1I − 2Re(λ)φ + φ2 = 0. Diese Aussage hat zur Folge dim V ≤ 2, denn sei v ∈ V mit v 6= 0 und sei W = hv, φ(v)iR der Unterraum aufgespannt von v und φ(v). Dann ist φ(W ) = W , denn für w = µ1 v + µ2 φ(v), µ1 , µ2 ∈ R hat man: φ(w) = φ(µ1 v + µ2 φ(v)) 2 = µ1 φ(v) + µ2 φ (v) = µ1 φ(v) + µ2 2Re(λ)φ − 1I (v) = −µ2 v + (µ1 + 2Re(λ))φ(v) ∈ W. 33 Also folgt φ(W ) = W , und somit W = V . Da V von zwei Vektoren erzeugt wird ist dim V ≤ 2. Dies widerspricht aber der Annahme dim V ≥ 3, somit ist die Annahme, daß V keinen Unterraum außer V und 0 hat, der von φ auf sich selbst abgebildet wird, zum Widerspruch geführt. • Bemerkung 2.7.1 Für eine unitäre Matrix g wissen wir, wie man die Matrix auf Diagonalgestalt bringt: Man bestimmt eine Orthogonormalbasis bestehend aus Eigenvektoren {v1 , . . . , vn }, setzt h = (v1 | · · · |vn ), dann ist h−1 gh eine Diagonalmatrix. Der Beweis oben gibt auch einen Algorithmus, wie man die geeignete Basis findet um eine orthogonale Matrix g auf die obige Form zu bringen. Zunächst sucht man Orthonormalbasen der Eigenräume zu den Eigenwerten 1 und −1, und dann sucht man für die komplexen Eigenwerte λ1 , . . . , λr passende Orthonormalbasen für die Kerne Vi = ker(1I − 2Re(λi )g + g 2 ). Mit passend ist gemeint, daß man für jedes Vi , i = 1, . . . , r, startet mit einem Vektor v1 ∈ Vi , so daß hv1 , v1 i = 1. Man setzt Vi,1 = Spann von v1 und φ(v1 ) und wählt u1 ∈ Vi,1 mit hv1 , u1 i = 0 und hu1 , u1 i = 1. Dann wählt man v2 ∈ Vi mit hVi,1 , v2 i = 0 und hv2 , v2 i = 1 und setzt Vi,2 = Spann von v2 und φ(v2 ) und wählt u2 ∈ Vi,2 mit hv2 , u2 i = 0 und hu2 , u2 i = 1. Dann wählt man v3 ∈ Vi mit hVi,1 ⊕ Vi,2 , v3 i = 0 und hv3 , v3 i = 1 . . .. Übung 2.7.1 Sei V ein reeller endlichdimensionaler Vektorraum mit einer positiv definiten symmetrischen Bilinearform. Sei φ ∈ O(V ) eine orthogonale lineare Abbildung. Für einen Eigenwert λ (komplex oder nicht) bezeichne mit ker(λ1I − φ) falls λ = ±1 VRe(λ) = 2 ker(1I − 2Re(λ)φ + φ ) falls λ keine reelle Zahl ist. Also sind V1 und V−1 genau die Eigenräume von φ zu den Eigenwerten 1 und −1. Zeige: V zerfällt in die direkte Summe V = M alle Eigenwerte und hVRe(λ) , VRe(λ0 ) i = 0 für Re(λ) 6= Re(λ0 ). VReλ 34 2.8 Euklidische und unitäre Vektorräume Wir formalisieren jetzt einige der bereits vielfach benutzten Eigenschaften. Im Folgenden sei V ein komplexer oder reeller Vektorraum der Dimension n versehen mit einem Skalarprodukt h, i, d.h., h, i ist im komplexen Fall eine positiv definite hermitesche Form auf V , und im reellen Fall ist h, i eine symmetrische positiv definite Bilinearform auf V . Im komplexen Fall nennt einen solchen Raum oft einen hermiteschen Raum und im reellen Fall redet man von einem euklidischen Raum. Wir haben die unitären beziehungsweise orthogonalen Abbildungen charakterisiert als die linearen Abbildungen φ : V → V , die das Skalarprodukt invariant lassen. Das linear hätte man übrigends hier weglassen können. Genauer: Satz 2.8.1 Seien V, W zwei euklidische beziehungsweise zwei unitäre Vektorräume mit den entsprechenden Formen h, iV und h, iW und sei φ : V → W eine (nicht notwendigerweise lineare) Abbildung, die die Formen invariant läßt, d.h.: ∀ v, v 0 ∈ V : hv, v 0 iV = hφ(v), φ(v 0 )iW . Dann ist φ eine lineare Abbildung. Insbesondere, ist V = W , so ist φ ∈ O(V ) im reellen Fall und φ ∈ U (V ) im komplexen Fall. Zum Beweis benützen wir das folgende Lemma: Lemma 2.8.1 Sei V ein euklidischer oder hermitescher Vektorraum. Gilt hx, xi = hx, yi = hy, yi, dann folgt x = y. Beweis. hx − y, x − yi = hx, xi − hx, yi − hx, yi + hy, yi = 0 da hx, yi = hx, xi eine reelle Zahl ist. Somit folgt x − y = 0, also x = y. • Beweis des Satzes. Es bleibt die Linearität der Abbildung zu beweisen. Es gilt hφ(v + v 0 ), φ(v + v 0 )iW = hv + v 0 , v + v 0 iV = hv, viV + hv, v 0 iV + hv 0 , viV + hv, viV , aber auch hφ(v) + φ(v 0 ), φ(v) + φ(v 0 )iW = hφ(v), φ(v)iW + hφ(v), φ(v 0 )iW +hφ(v 0 ), φ(v)iW + hφ(v), φ(v)iW = hv, viV + hv, v 0 iV + hv 0 , viV + hv, viV , 35 sowie hφ(v + v 0 ), φ(v) + φ(v 0 )iW = hφ(v + v 0 ), φ(v)iW + hφ(v + v 0 ), φ(v 0 )iW = hv + v 0 , viV + hv + v 0 , viV = hv, viV + hv, v 0 iV + hv 0 , viV + hv, viV , Aus Lemma 2.8.1 folgt somit: φ(v + v 0 ) = φ(v) + φ(v 0 ). Mit den gleichen Argumenten zeigt man φ(λv) = λφ(v). Es gilt hφ(λv), φ(λv)iW = hλv, λviV = |λ|2 hv, viV sowie hφ(λv), λφ(v)iW = λhφ(λv), φ(v)iW = λhλv, viV = |λ|2 hv, viV und hλφ(v), λφ(v)iW = |λ|2 hφ(v), φ(v)iW . = |λ|2 hv, viV Aus Lemma 2.8.1 folgt φ(λv) = λφ(v), was zu beweisen war. 2.9 • Orthonormalbasen Sei A = {v1 , v2 , . . . , vn } p ⊂ V eine Basis. Da hv, vi eine positive reelle Zahl ist für v ∈ V − {0}, ist hv, vi eine wohldefinierte preelle Zahl, genannt die Norm von v. Wir schreiben im Folgenden kvk für hv, vi. Sei P hbj , vn ibj vn − n−1 v1 v2 − hb1 , v2 ib1 b1 = , b2 = , . . . , bn = Pi=1 n−1 kv1 k kv2 − hb1 , v2 ib1 k kvn − i=1 hbj , vn ibj k (2.1) Lemma 2.9.1 Die Menge B = {b1 , . . . , bn } ist eine Orthonormalbasis. Bemerkung 2.9.1 Das Verfahren in (2.1) wird das Schmidtsche Orthonormalisierungsverfahren genannt (nach Erhard Schmidt (1876–1959)). Beweis. Aus der oberen Dreicksform der Abhängigkeiten folgt sofort, daß B wieder eine Basis ist, und nach Konstruktion gilt offensichtlich hbi , bi i = 1 36 für alle i = 1, . . . , n. Es bleibt zu zeigen: hbi , bj i = 0 für i 6= j. Der Beweis ist durch Induktion. Nun ist hb1 , b2 i = hb1 , v2 − hb1 , v2 ib1 1 i= (hb1 , v2 i − hb1 , v2 i) = 0. kv2 − hb1 , v2 ib1 k kv2 − hb1 , v2 ib1 k Sei nun 2 < k < n und wir nehmen an, daßs gilt hbi , bj i = 0 für alle 1 ≤ i, j ≤ k, i 6= j. Dann folgt für 1 ≤ i ≤ k: P − k v hb ,v ib hbi , bk+1 i = hbi , kvk+1 −Pk`=1 hb` ,vk+1 ib` k i k+1 = = `=1 ` k+1 ` 1 P (hbi , vk+1 i kvk+1 − k`=1 hb` ,vk+1 ib` k 1 P (hbi , vk+1 i kvk+1 − k`=1 hb` ,vk+1 ib` k − Pk `=1 hb` , vk+1 ihbi , b` i) − hbi , vk+1 ihbi , bi i) = 0, • was zu beweisen war. Aus dem Basisergänzungssatz fogt mit dieser Methode unmittelbar: Korollar 2.9.1 Sei V ein endlichdimensionaler euklidscher (respektive unitärer) Raum und sei A = {v1 , . . . , vk } eine Teilmenge linear unabhängiger Vektoren mit der Eigenschaft ∀1 ≤ i ≤ k : hvi , vi i = 1 und ∀1 ≤ i < j ≤ k : hvi , vj i = 0. Dann läßt sich A zu einer Orthonormalbasis A0 = {v1 , . . . , vn } von V vervollständigen. Im Folgenden sei V ein komplexer oder reeller Vektorraum der Dimension n versehen mit einem Skalarprodukt. In beiden Fällen gibt es eine Orthonormalbasis B = {b1 , . . . , bn } von V , d.h. hbi , bj i = δi,j , und mit Hilfe der Abbildung p:V → Cn p:V v= Pn i=1 x i bi → Rn x1 x1 Pn .. resp. .. 7→ vB = . v = i=1 xi bi 7→ vB = . xn xn kann man kann sich V als den Cn (beziehungsweise Rn im reellen Fall) vorstellen versehen mit der standard–hermiteschen Form (dem standard Skalarprodukt). Damit meinen wir genauer, daß für die Auswertung der Form 37 gilt: hv, wi = = = = = P P h xi ai , nj=1 yj aj i Pn x y ha , a i Pni,j=1 i j i j i=1 xi yi t vB wB hvB , wB i Man beachte: In der ersten Zeile wertet man die Form auf V aus, in der letzten Zeile die Form auf dem Cn (respektive Rn ). Anders formuliert: Lemma 2.9.2 Die Abbildung p : V → Cn (oder, im reellen Fall, p : V → Rn ) respektiert die Formen auf V und auf dem Bildraum, d.h., hv, wi = hp(v), p(w)i. Es ist oft sinnvoll, nicht beliebige Basen sondern nur Orthonormalbasen zu betrachten. Lemma 2.9.3 Sei B = {b1 , . . . , bn } ⊂ V eine Orthonormalbasis und sei A = {a1 , . . . , an } eine weitere Basis. Dann ist A auch eine Orthonormalbasis dann und nur dann wenn die Basistransformationsmatrix TBA eine unitäre (orthogonale) Matrix ist, also wenn TBA ∈ Un (respektive TBA ∈ On ). Beweis. Sei K = C oder K = R, und bezeichne mit BK die kanonische Basis des Kn . p V ⊃B BK ⊂ Kn x −→ p(B) = x T A T p(A) B BK p V ⊃ A −→ p(A) ⊂ Kn p(A) Da TBA = TBK , folgt das Lemma unmittelbar aus dem Korollar 2.2.1, dem Lemma 2.9.2 und dem Diagramm. • Für eine Orthonormalbasis B = {b1 , . . . , bn } eines euklidischen oder unitären Vektorraums V gibt es eine “einfache” Vorschrift um einen Vektor v als Linearkombination zu schreiben: Lemma 2.9.4 v = hb1 , vib1 + hb2 , vib2 + . . . + hbn , vibn . 38 Beweis. Bezeichne mit u = hb1 , vib1 + . . . + hbn , vibn den obigen Vektor. Dann gilt für alle i = 1, . . . , n: hv − u, bi i = hv, bi i − hb1 , vihb1 , bi i − . . . − hbn , vihbn , bi i = hv, bi i − hbi , vihbi , bi i = 0, Da B eine Basis bildet ist dies ist nur möglich wenn v − u = 0, also v = u, was zu beweisen war. • 2.10 Dualraum und Bilinearformen Sei V ein endlichdimensionaler Vektorraum über einem beliebigen Körper K. Unter dem Dualraum V ∗ von V versteht man den Vektorraum Hom(V, K), also die Menge aller linearen Abbildungen von V nach K mit den Operationen ∀f1 , f2 ∈ Hom(V, K), ∀ v ∈ V : (f1 + f2 )(v) = f1 (v) + f2 (v), sowie ∀λ ∈ K, ∀ f ∈ Hom(V, K), ∀ v ∈ V : (λf )(v) = λ(f (v)). Fixieren wir eine Basis B = {v1 , . . . , vn } von V , so können wir V ∗ = Hom(V, K) identifizieren mit den M1,n (K), den Matrizen mit nur einer Zeile der Länge n. Ist f ∈ V ∗ , und gilt f (v1 ) = a1 , f (v2 ) = a2 , . . . , f (vn ) = an , x1 so ist die Matrix MB (f ) = (a1 , . . . , an ), und für v ∈ V , vB = ... gilt xn x1 n .. X f (v) = MB (f )vB = (a1 , . . . , an ) . = ai x i . i=1 xn Erinnere: Eine lineare Abbildung ist eindeutig bestimmt durch die Vorgabe der Bilder der Basiselemente. Zu jedem Basisvektor vi ∈ B gibt es also genau eine lineare Abbildung vi∗ ∈ V ∗ mit der Eigenschaft: 1 falls i = j ∗ ∗ vi (vj ) = δi,j , d.h. vi (vj ) = 0 falls i 6= j 39 Lemma 2.10.1 B∗ = {v1∗ , . . . , vn∗ } ist eine Basis von V ∗ . Beweis. Die Dimension von V ∗ = Hom(V, K) ist n, also ist schon mal die Anzahl richtig, es bleibt die lineare Unabhängigkeit zu zeigen. Angenommen, a1 v1∗ + . . . + an vn∗ = 0, dann gilt für alle i = 1, . . . , n 0 = (a1 v1∗ + . . . + an vn∗ )(vi ) = a1 v1∗ (vi ) + . . . + an vn∗ (vi ) = ai , • was zu beweisen war. Definition 2.10.1 Man nennt B∗ die duale Basis in V ∗ zur Basis B in V . Übung 2.10.1 Sei V ein endlichdimensionaler Vektorraum, sei V ∗ sein Dualraum und sei (V ∗ )∗ der Dualraum des Dualraums. Für v ∈ V sei `v : V ∗ → K definiert durch f 7→ `v (f ) = f (v). a) Zeige: `v ist linear, also `v ∈ HomK (V ∗ , K) = (V ∗ )∗ . b) Zeige: Die Abbildung πV : V → (V ∗ )∗ , v 7→ `v , ist ein Isomorphismus. c) Zeige: Identifiziert man V mit (V ∗ )∗ gemäß a), dann ist (B∗ )∗ = B. Seien V, W zwei endlichdimensionale Vektorräume und sei φ : V → W ein Homomorphismus. Man bekommt eine assoziierte Abbildung φ∗ : W ∗ → V ∗ , definiert durch (f : W → K) 7→ (f ◦ φ : V → K) Definition 2.10.2 Man nennt φ∗ die transponierte Abbildung. Übung 2.10.2 Identifiziert man (V ∗ )∗ mit V und (W ∗ )∗ mit W gemäß Übung 2.10.1, dann ist (φ∗ )∗ = φ. Lemma 2.10.2 Seien V, W zwei endlichdimensionale Vektorräume und sei φ : V → W ein Homomorphismus. Seien BV = {v1 , . . . , vn } ⊂ V und BW = {w1 , . . . wm } ⊂ W zwei Basen und seien B∗V ⊂ V ∗ und B∗W ⊂ W ∗ die dualen Basen. Dann gilt: B∗ MB∗W (φ∗ ) = t MBBWV (φ). V 40 B∗ Beweis. Sei A = (ai,j ) = MBBWV (φ) und sei B = (bi,j ) = MB∗W (φ∗ ). InsbesonV dere ist also φ∗ (wj∗ ) = b1,j v1∗ + . . . + bn,j vn∗ . Daher gilt: bi,j = φ∗ (wj∗ )(vi ) = wj∗ (φ(vi )) = wj∗ (a1,i w1 + . . . + am,i wm ) = aj,i , • was zu beweisen war. Sei V ein endlichdimensionaler Vektorraum und sei φ : V → V ∗ ein Homomorphismus. Dann definiert h, iφ : V × V → K, (v, v 0 ) 7→ φ(v)(v 0 ). eine Bilinearform auf V . Übung 2.10.3 Zeige, daß die Form wirklich bilinear ist. Umgekehrt sei h, i : V × V → K eine Bilinearform. Dann definiert: V −→ K ∗ φh,i : V → V , v 7→ φh,i (v) : v 0 7→ hv 0 , vi eine lineare Abbildung. Übung 2.10.4 Zeige, daß die Abbildung linear ist. Lemma 2.10.3 Die Abbildungen HomK (V, V ∗ ) −→ Bilinearformen φ 7→ h, iφ und Bilinearformen −→ HomK (V, V ∗ ) h, i 7→ φh,i sind bijektiv und invers zueinander. Beweis. Sei φ ∈ HomK (V, V ∗ ), sei h, iφ die Form und sei Ψh,iφ ∈ HomK (V, V ∗ ) die zugehörige Abbildung. Dann gilt: Ψh,iφ (v) (v 0 ) = hv 0 , viφ = φ(v)(v 0 ) 41 für alle v 0 ∈ V , und somit (Ψh,iφ (v) = φ(v), also Ψh,iφ = φ. Umgekehrt, sei h, i eine Bilinearform auf V und sei φh,i : V → V ∗ die entsprechende Abbildung, und sei wieder h, iφh,i die Form. Dann gilt für v, v 0 ∈ V : hv 0 , viφh,i = φh,i (v) (v 0 ) = hv 0 , vi, also h, iφh,i = h, i, was zu beweisen war. • Sei V ein endlichdimensionaler Vektorraum, sei B = {v1 , . . . , vn } eine Basis und V und sei B∗ ⊂ V ∗ die duale Basis. Sei h, i eine Bilinearform und sei φh,i : V → V ∗ die zugehörige lineare Abbildung, wir haben gerade erst bewiesen, daß die Form und die lineare Abbildung eigentlich dasselbe sind. Wir können somit h, i zwei Matrizen zuordnen: die Matrix der Form: MB (h, i) = (hvi , vj i) und die Matrix von φh,i : MBB∗ (φh,i ). Lemma 2.10.4 MBB∗ (φh,i ) = MB (h, i). Beweis. Sei A = (ai,j ) = MBB∗ (φh,i ) und sei B = (bi,j ) = MB (h, i). Dann gilt φh,i (vj ) = a1,j v1∗ + . . . + an,j vn∗ , und somit ai,j = φh,i (vj )(vi ) = hvi , vj i = bi,j , was zu beweisen war • Korollar 2.10.1 h, i ist nicht ausgeartet dann und nur dann wenn φh,i ein Isomorphismus ist. Als unmittelbare Folgerung erhalten wir, daß euklidische Räume isomorph zu ihrem Dualraum sind. Da das Sklaraprodukt symmetrisch ist, kann man es auch wie folgt formulieren: Korollar 2.10.2 Sei V ein euklidischer Vektorraum mit Skalarprodukt h, i. Dann definiert V −→ R ∗ h|: V → V , v 7→ hv| : v 0 7→ hv, v 0 i einen Isomorphismus. 42 Im komplexen Fall kann man einen ähnlichen Zusammenhang aufzuzeigen, man muß nur allgemeiner semilineare statt lineare Abbildungen zulassen. Für weitere Einzelheiten siehe zum Beispiel Klingenberg/Klein, Lineare Algebra und analytische Geometrie, oder eines der vielen anderen Bücher über Lineare Algebra, in denen Sesquilinearformen betrachtet werden. Im Folgenden werden wir spezieller nur den Fall eines hermiteschen Raumes betrachten. Satz 2.10.1 Sei V ein hermitescher Vektorraum mit Skalarprodukt h, i. Dann definiert V −→ C ∗ h|: V → V , v 7→ hv| : v 0 7→ hv, v 0 i einen semilinearen Isomorphismus, d.h., h| ist bijektiv und hv + v 0 | = hv| + hv 0 |, hλv| = λhv|. Beweis. Wegen der Linearität im zweiten Argument gilt für alle λ, µ ∈ C, w, w0 ∈ V : hv|(λw + µw0 ) = hv, λw + µw0 i = λhv, wi + µhv, w0 i = λhv|(w) + µhv|(w0 ), und somit ist hv| ∈ V ∗ . Weiter gilt für alle w, v, v 0 ∈ V und λ, µ ∈ C: hλv + µv 0 |(w) = hλv + µv 0 , wi = λhv, wi + µhv 0 , wi = λhv|(w) + µhv 0 |(w), also hλv + µv 0 | = λhv| + µhv 0 |. Die Abbildung ist also semilinear. Übung 2.10.5 Zeige: Sei φ : U → U 0 eine semilineare Abbildung zwischen zwei endlichdimensionalen komplexen Vektorräumen, und seien Ker φ = {u ∈ U | hv| = 0} Im φ = {u0 ∈ U 0 | ∃u ∈ U mit u0 = φ(u)}. Zeige: a) Ker φ und Im φ sind Unterräume. b) φ ist injektive dann und nur dann wenn Ker φ = 0. c) Ist dim U = dim U 0 , dann gilt: φ bijektiv ⇐⇒ Ker φ = 0. Fortsetzung des Beweises: Da die Form nicht ausgeartet ist folgt hv| = 0 dann und nur dann wenn v = 0, aus der Übung folgt also, daß h| bijektiv ist. • 43 2.11 Adjungierter Endomorphismus Sei V ein endlichdimensionaler euklidischer oder hermitescher Vektorraum, und sei Ψ : V → V ein Endomorphismus. Durch die zur Form h, i gehörende Abbildung h|: V → V ∗ erhält man einen neuen Endomorphismus Ψa als Komposition: h| h|−1 Ψ∗ Ψa : V −→V ∗ −→V ∗ −→V. (2.2) Das sieht etwas kompliziert aus, beachte zunächst einmal: h|−1 ist wieder semilinear (Übung), und da die Abbildung Ψa eine Komposition ist, in der zwei semilinearen Abbildungen vorkommen, ist Ψa wieder eine lineare Abbildung: Ψa (λv + µw) = h|−1 ◦Ψ ◦ h| (λv + µw) −1 = h| Ψ(λhv| + µhw|) = h|−1 λ(Ψ ◦ h|)(v) + µ(Ψ ◦ h|)(w) = λ(h|−1 ◦Ψ ◦ h|)(v) + µ(h|−1 ◦Ψ ◦ h|)(w) Man nennt Ψa die durch h, i zu Ψ adjungierte Abbildung. Die wichtigste Eigenschaft der adjungierten Abbildung liefert auch gleichzeitig eine einfache und sehr dierekte Charakterisierung von Ψa : Satz 2.11.1 Ψa ist der eindeutig bestimmete Endomorphismus von V mit der Eigenschaft ∀v, v 0 ∈ V : hΨ(v), v 0 i = hv, Ψa (v 0 )i. (2.3) Übung 2.11.1 Zeige: Der adjungierte Endomorphismus zum adjungierten Endomorphismus ist der ursprüngliche Endomorphismus, oder, etwas kürzer formuliert: (Ψa )a = Ψ. Beweis. Wir haben hΨ(v), v 0 i = hv 0 , Ψ(v)i = Ψ∗ (hv 0 |) (v) = h h|−1 (Ψ∗ (hv 0 |) , vi = h h|−1 ◦Ψ∗ ◦ h| (v 0 ), vi = hΨa (v 0 ), vi = hv, Ψa (v 0 )i 44 die Abbildung Ψa hat also die in Gleichung (2.3) gewünschte Eigenschaft. Ist nun φ ∈ End(V ) ein weiterer Endomorphismus mit der Eigenschaft (2.3), also: ∀v, v 0 ∈ V : hΨ(v), v 0 i = hv, Ψa (v 0 )i = hv, φ(v 0 )i, dann gilt für alle v, v 0 ∈ V : 0 = hv, Ψ (v )i − hv, φ(v )i = hv, Ψ (v ) − φ(v )i = hv, Ψ − φ (v 0 )i a 0 0 0 a 0 a Da h, i nicht ausgeartet ist folgt Ψa (v 0 ) = φ(v 0 ) für alle v 0 ∈ V und somit Ψa = φ. • Um zu rechnen braucht man Basen und Matrizen. Sei also wieder: V ein endlichdimensionaler euklidischer oder hermitescher Vektorraum, sei B eine Orthonormalbasis und sei Ψ : V → V . Wie berechnet man die Matrix von Ψa aus der zu Ψ? Satz 2.11.2 MB (Ψa ) = t MB (Ψ) Beweis. Für v, v 0 seien wie üblich vB , vB0 die Koordinatenvektoren von v, v 0 bezüglich der Orthonormalbasis B. Dann gilt (siehe Lemma 2.9.2): hv, v 0 i = t vB vB0 . Sei A = MB (Ψ), dann haben wir für alle v, v 0 ∈ V : hΨ(v), v 0 i = t AvB vB0 = (t vB )(t A)vB0 = (t vB ) t AvB0 = hv, Ψa (v 0 )i Da h, i nicht ausgeartet ist folgt Ψa (v 0 ) = t AvB0 für alle v 0 ∈ V und somit B MB (Ψa ) = t A = t MB (Ψ). was zu beweisen war. • 45 2.12 Selbstadjungierte und normale Endomorphismen Sei V ein endlichdimensionaler euklidischer oder hermitescher Vektorraum und sei Ψ : V → V ein Endomorphismus. Definition 2.12.1 Man nennt den Endomorphismus Ψ selbstadjungiert falls Ψa = Ψ. Eine etwas schwächere Eigenschaft ist die folgende: Definition 2.12.2 Man nennt den Endomorphismus Ψ normal falls er mit seinem adjungierten kommutiert, d.h., Ψ ◦ Ψa = Ψa ◦ Ψ. Offensichtlich haben wir: Korollar 2.12.1 Ein selbstadjungierter Endomorphismus ist normal. Hier eine Charakterisierung von normalen Endomorphismen: Lemma 2.12.1 Ψ ist normal dann und nur dann wenn für all v, w ∈ V gilt: hΨ(v), Ψ(w)i = hΨa (v), Ψa (w)i Beweis. Es gilt für alle v, w ∈ V : hΨ(v), Ψ(w)i = hΨa (v), Ψa (w)i ⇔ hv, Ψa ◦ Ψ(w)i = hv, Ψ ◦ Ψa (w)i, und diese Bedingung ist (da h, i nicht ausgeartet ist) äquivalent zu Ψa ◦ Ψ = Ψ ◦ Ψa , also zur Bedingung Ψ ist normal. • Sei V ein endlichdimensionaler euklidischer oder hermitescher Vektorraum, sei B eine Orthonormalbasis und sei Ψ : V → V ein Endomorphismus. Sei A = MB (Ψ) die Matrix von Ψ bezüglich der Orthonormalbasis B. Aus Satz 2.11.2 folgt sofort für die Matrizen: Satz 2.12.1 a) Ψ ist selbstadjungiert ⇔ A ist symmetrisch/hermitesch. b) Ψ ist normal ⇔ At A = t AA. Definition 2.12.3 Man nennt eine reelle oder komplexe Matrix A normal wenn At A = t AA. Offensichtlich gilt: Korollar 2.12.2 Ist A symmetrisch/hermitesch, dann ist A normal. 46 2.13 Hermitesche und normale Matrizen Die wichtige Rolle, die hermitesche und, allgemeiner, normale Matrizen, spielen, folgt unmittelbar aus den folgenden Sätzen. Sei V zunächst ein endlichdimensionaler hermitescher Vektorraum, wir sind also im Fall K = C. Satz 2.13.1 Ein Endomorphismus Ψ ∈ End(V ) ist normal dann und nur dann, wenn es eine Orthonormalbasis B gibt, so daß die Matrix MB (Ψ) eine Diagonalmatrix ist. Korollar 2.13.1 Eine Matrix A ∈ Mn (C)) ist normal dann und nur dann wenn es eine unitäre Matrix u ∈ Un (C) gibt mit D = uAu−1 ist eine Diagonalmatrix. Für hermitesche Matrizen folgt sofort: Korollar 2.13.2 Hermitesche Matrizen sind diagonalisierbar, und alle Eigenwerte sind reelle Zahlen. Sei (p, q) die Signatur einer hermitesche Matrix A, dann hat A genau p positive Eigenwerte und q negative Eigenwerte. Beweis. Der Beweis des Satzes wird in mehreren Schritten geführt. Wenn es eine Orthonormalbasis B gibt, so daß die Matrix MB (Ψ) eine Diagonalmatrix ist, so gilt MB (Ψ)MB (Ψa ) = MB (Ψ)t MB (Ψ) = t MB (Ψ)MB (Ψ) = MB (Ψa )MB (Ψ), da Diagonalmatrizen miteinander kommutieren. Es folgt daher unmittelbar: Ψ ◦ Ψa = Ψa ◦ Ψ, die Abbildung Ψ ist also normal. Um die Umkehrung zu zeigen, beweisen wir zunächst das folgende Lemma 2.13.1 Für eine komplexe Zahl λ sei VΨλ der Eigenraum von Ψ zum Eigenwert λ, d.h., VΨλ = {v ∈ V | Ψ(v) = λv}. Ist Ψ normal, dann gilt a) VΨλ = VΨλa . b) hV λ , V µ i = 0 für λ 6= µ. Beweis des Lemmas. Sei v 6= 0, wir haben v ∈ VΨλ ⇔ ⇔ ⇔ ⇔ ⇔ v ∈ Ker (Ψ − λ1I) h(Ψ − λ1I)(v), (Ψ − λ1I)(v)i = 0 h(Ψ − λ1I)a (v), (Ψ − λ1I)a (v)i = 0 h(Ψa − λ1I)a (v), (Ψa − λ1I)a (v)i = 0 v ∈ Ker (Ψa − λ1I) 47 oder, anders gesagt, v ∈ VΨλa . Weiter seien v ∈ VΨλ und w ∈ VΨµ , dann gilt µhv, wi = hv, µwi = hv, Ψ(w)i = hΨa (v), wi = hλv, wi = λhv, wi. Das ist nur möglich für λ 6= µ wenn hv, wi = 0. Lemma 2.13.2 V = L λ∈C • VΨλ L ⊥ Beweis. Sei U = λ∈C VΨλ die direkte Summe der PEigenräume und sei λU das orthogonaleP Komplement. Ist u ∈ U mit u = λ∈C uλ und uλ ∈ VΨ , dann ist Ψ(u) = λ∈C λuλ ∈ U . Wir P erhalten also: Ψ(U ) ⊆ U . Sei nun w ∈ U ⊥ , dann gilt für ein beliebiges u = λ∈C uλ ∈ U : X X λuλ , wi = 0, Ψa (uλ ), wi = h hu, Ψ(w)i = hΨa (u), wi = h λ∈C λ∈C also haben wir auch Ψ(U ⊥ ) ⊆ U ⊥ . Damit besitzt aber Ψ|U ⊥ mindestens einen Eigenvektor w, sagen wir zum Eigenwert µ. Da w ∈ U ⊥ ⊆ V ist aber w ∈ VΨµ ⊆ U , also w ∈ U ∩ U ⊥ = 0 und somit w = 0. Es folgt U ⊥ = 0, also U =V. • Fortsetzung des Beweises von Satz 2.13.1. Wähle für jeden Eigenwert λ eine λ Orthonormalbasis Bλ von VS Ψ . Aus Lemma 2.13.2 und Lemma 2.13.1 folgt, daß die Vereinigung B = λ∈C Bλ eine Orthonormalbasis von V ist, die, nach Konstruktion, aus Eigenvektoren von Ψ besteht. Die Matrix MB (Ψ) hat daher Diagonalgestalt. • Index U ⊕V, 5 anisotrop, 17 bilinear, 6 Bilinearform Matrix der, 7 nicht ausgeartet, 8 Radikal, 8 symmetrisch, 6 direkte Summe, 5 euklidischer Raum, 34 hermitesche Form, 15 hermitescher Raum, 34 isotrop, 9, 17 Matrix hermitesche, 17 orthogonal, 20 Orthogonalbasis, 11 orthogonale Gruppe, 21 orthogonale Raum, 9 Orthonormalbasis, 13 positiv definit, 13, 16 Signatur, 12 unitar, 19 unitare Gruppe, 21 48
© Copyright 2024 ExpyDoc