Notizen zur Vorlesung Lineare Algebra II P. Littelmann

Notizen zur Vorlesung
Lineare Algebra II
P. Littelmann
Sommersemester 2016
(7. Juni 2016)
2
Inhaltsverzeichnis
0.1
Vorbemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . .
1 Bilinearformen
1.1 Direkte Summe . . . . . . . . . . . .
1.2 Bilinearformen . . . . . . . . . . . .
1.3 Bilinearformen, Basen und Matrizen
1.4 Symmetrische Bilinearform . . . . . .
1.5 Symmetrische Bilinearform über R .
1.6 Positiv definite Formen . . . . . . . .
1.7 Hermitesche Formen . . . . . . . . .
2 Die
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
2.10
2.11
2.12
2.13
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
orthogonale und die unitäre Gruppe
Orthogonale und unitäre Endomorphismen . . .
Die Gruppen On (R) und Un (C) . . . . . . . . .
Die Gruppe O2 (R) . . . . . . . . . . . . . . . .
Orthogonales Komplement und direkte Summen
Determinante, Eigenwerte und Eigenvektoren .
Drehungen und Spiegelungen . . . . . . . . . . .
Standardform für orthogonale Endomorphismen
Euklidische und unitäre Vektorräume . . . . . .
Orthonormalbasen . . . . . . . . . . . . . . . .
Dualraum und Bilinearformen . . . . . . . . . .
Adjungierter Endomorphismus . . . . . . . . . .
Selbstadjungierte und normale Endomorphismen
Hermitesche und normale Matrizen . . . . . . .
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
.
.
.
.
.
.
.
5
5
6
7
8
12
13
15
.
.
.
.
.
.
.
.
.
.
.
.
.
19
19
21
22
24
26
28
30
34
35
38
43
45
46
4
0.1
Vorbemerkung
Warnung: Es handelt sich um Notizen, dies ist kein ausgearbeitetes Vorlesungsmanuskript. Es wird keine Garantie gegeben für grammatikalische geschweige denn mathematische Korrektheit des Textes. Im Laufe der Vorlesung wird versucht werden, den Text immer wieder “auf dem Laufenden” zu
halten, aber auch wenn so etwas ein “edles Unterfangen ist”, es braucht so
viel Zeit...
Bücher, die den Vorlesungsstoff behandeln, gibt es wie Sand am Meer,
stöbern sie bitte in der Bibliothek, in den Buchläden, im Antiquariat, auf
dem Web...
Kapitel 1
Bilinearformen
1.1
Direkte Summe
Zunächst ein bisschen Wiederholung. Seien U, V Vektorräume über dem
Körper K. Die Menge U × V mit den beiden Verknüpfungen
K × (U × V ) → U × V
(λ, (u, v))
7→ (λu, λv)
(U × V ) × (U × V ) →
U ×V
((u, v), (u0 , v 0 ))
7→ (u + u0 , v + v 0 )
ist wieder ein Vektorraum.
Definition 1.1.1 Der Vektorraum wird die direkte Summe von U und V
genannt. Schreibweise: U ⊕ V .
Definition 1.1.2 Seien U, V ⊆ W zwei Unterräume eines Vektorraums.
Man sagt W ist die direkte Summe der Unterräume: W = U ⊕ V falls die
kanonische Abbildung U ⊕ V → W , (u, v) 7→ u + v ein Isomorphismus ist.
So sind zum Beispiel U = Ke1 und V = Ke2 Unterräume des K2 , so ist U ⊕V
ist isomorph zum K2 . Da U und V isomorph zu K sind schreibt man auch:
K2 ist isomorph zu K ⊕ K.
Eine wichtige Eigenschaften der direkten Summe sind: Sind A ⊂ U und
A ⊂ V Basen, dann ist A ∪ B eine Basis von U ⊕ V .
Ein einfaches Kriterium um zu zeigen, daß man einen Vektorraum zerlegen
kann in die direkte Summe zweier Unterräume:
Lemma 1.1.1 Sind U, V ⊆ W zwei Unterräume, dann gilt:
W = U ⊕ V ⇔ W = hU, V iK ∧ U ∩ V = 0.
5
6
Beweis. Ist W = U ⊕ V , so spannen U und V den Raum W . Weiter ist
U ∩ V = 0, denn wenn x ∈ U ∩ V , so hat die kanonische Abbildung U ⊕ V →
W , (u, v) 7→ u + v ein Element im Kern: (x, −x) 7→ x − x = 0. Da dies nach
Annahme ein Isomorphismus ist, kann das nur sein wenn x = 0.
Umgekehrt, wenn W = hU, V iK gilt, dann ist die Abbildung φ : U ⊕ V →
W , (u, v) 7→ u + v surjektiv. Ist weiter U ∩ V = 0, dann ist die Abbildung
auch injektiv da (u, v) ∈ ker φ dann und nur dann wenn u + v = 0, also
u = −v, also u ∈ U ∩ V und somit u = v = 0 folgt.
•
Diese Definitionen werden auf die übliche Art auf mehr als zwei Vektorräume verallgemeinert.
1.2
Bilinearformen
Sei V ein Vektorraum über einem Körper K. Eine Bilinearform ist eine Abbildung
h, i : V × V → K, (v, v 0 ) 7→ hv, v 0 i
mit der Eigenschaft, daß sie bilinear ist, d.h., für alle λ ∈ K und alle v, v1 , v2
und v 0 , v10 , v20 in V gilt:
hv1 + v2 , v 0 i = hv1 , v 0 i + hv2 , v 0 i
hv, v10 + v20 i = hv, v10 i + hv, v20 i
hλv, v 0 i = hv, λv 0 i = λhv, v 0 i
Man nennt die Bilinearform symmetrisch falls
hv, v 0 i = hv 0 , vi ∀ v, v 0 ∈ V
und schiefsymmetrisch falls
hv, vi = 0 ∀ v ∈ V
Ist h, i schiefsymmetrisch, so gilt wegen der Bilinearität für alle v, v 0 ∈ V :
hv, v 0 i = −hv 0 , vi.
Beispiel 1.2.1 Sei V = Kn und sei A = (ai,j ) ∈ Mn (K). Wir definieren eine
Bilinearform h, iA folgendermaßen:
Kn × Kn → K,
(v, v 0 ) 7→ hv, v 0 iA = t vAv 0 .
Die Bilinearität folgt aus den Produktregeln für Matrizen. Die Form ist symmetrisch dann und nur dann wenn die Matrix symmetrisch ist, d.h., wenn
t
A = A.
7
1.3
Bilinearformen, Basen und Matrizen
Sei V ein n–dimensionaler Vektorraum über K versehen mit einer Bilineraform h, i : V × V → K eine Bilinearform.
Ist B = {b1 , . . . , bn } eine Basis, dann kann man der Bilinearform eine
quadratische Matrix zuordnen:
Ah,i = (ai,j ) mit ai,j = hbi , bj i.
genannt die Matrix der Bilinearform bezüglich der Basis B.
Damit kann man denP
Wert der Bilinearform
Pn hv, wi für beliebige Vektoren
n
v, w berechnen: Sei v = i=1 xi bi und w = i=1 yi bi , dann gilt:
hv, wi = h
n
X
i=1
x i bi ,
n
X
j=1
y j bj i =
n
X
xi yj hbi , bj i =
i,j=1
n
X
xi yj ai,j = t vB Ah,i wB .
i,j=1
Zusammen mit Beispiel 1.2.1 folgt:
Lemma 1.3.1 Eine Bilinearform h, i ist bereits eindeutig durch die Werte
ai,j = hbi , bj i auf einer Basis B = {b1 , . . . , bn } festgelegt, und in diesem Fall
läßt sich der Wert in einem Paar v, w ∈ V berechnen als
hv, wi = t vB Ah,i wB
mit Ah,i = (ai,j ),
und umgekehrt gibt es bei fest gewählter Basis zu der Vorgabe einer beliebigen
Matrix A ∈ Mn (K) genau eine Bilinearform h, i mit Ah,i = A.
Die Zuordnung h, i → Ah,i ist somit injektiv, und nach Beispiel 1.2.1
surjektiv, liefert also für eine fest gewählte Basis B eine Bijektion zwischen
Bilinearformen und quadratischen Matrizen.
Was passiert bei Basiswechsel? Sei V ein n–dimensionaler Vektorraum
über K und seien A = {a1 , . . . , an } und B = {b1 , . . . , bn } zwei Basen.
A
Satz 1.3.1 Sei h, i eine Bilinearform auf V , sei Ch,i
die Matrix von h, i
B
bezüglich der Basis A und sei Ch,i die Matrix von h, i bezüglich der Basis
B. Dann gilt:
t
A
B
(A TB )Ch,i
A TB = Ch,i
8
B
Beweis. Die Einträge ci,j der Matrix Ch,i
= (ci,j ) erhält man als Wert:
A
hbi , bj i = t (bi )A Ch,i
(bj )A
Da (bj )A gerade die j–te Spalte der Basiswechselmatrix A TB ist folgt:
A
B
t
A
•
Ch,i = (hbi , bj i) = (bi )A Ch,i (bj )A = t A TB Ch,i
A TB .
Also, wenn man eine Basis festlegt, dann haben wir eine Bijektion zwischen Matrizen und Bilinearformen. Wenn man allerdings eine Form festlegt,
dann ergeben verschiedenen Basen natürlich verschiedene Matrizen zur gleichen Bilinearform. Wir fassen das in dem folgenden Korollar zusammen.
Korollar 1.3.1 Sei V ein n–dimensionaler Vektorraum über K.
(i) Fixiert man eine Basis, so ergibt die Abbildung h, i 7→ Ah,i eine Bijektion:
Bilinearformen auf V ←→ Mn (K).
(ii) Wird die Basis nicht fixiert, so repräsentieren zwei Matrizen A, B ∈
Mn (K) die gleiche Bilinearform (bezüglich verschiedener Basen) dann
und nur dann wenn es eine invertierbare Matrix g ∈ GLn (K) gibt mit
A = t gBg.
1.4
Symmetrische Bilinearform
Im Folgenden sei K ein Körper der Charakteristik 0. Zum Beispiel Q, R und
C sind Körper der Charakteristik 0.
Sei V ein n–dimensionaler Vektorraum über K und sei h, i eine symmetrische Bilinearform. Das Radikal der Bilinearform ist
V ⊥ = {v ∈ V | hv, V i = 0} = {v ∈ V | hv, wi = 0 ∀ w ∈ V }.
Man nennt die Form nicht ausgeartet wenn V ⊥ = 0.
Satz 1.4.1 Sei B = {b1 , . . . , bn } eine Basis von V und sei A die Matrix einer
symmetrischen Bilinearform h, i.
(i) V ⊥ ist der Unterraum der Lösungen des homogenen Gleichungssystems
Ax = 0.
9
(ii) h, i ist nicht ausgeartet dann und nur dann wenn det A 6= 0.
Beweis. Ist Ax = 0 so folgt hv, xi = t vAx = 0 fürP
alle v ∈ V und somit ist
⊥
⊥
x ∈ V . Umgekehrt, ist x ∈ V , so sei w = Ax = wi bi . Dann folgt
0 = hei , xi = t ei Ax = t ei · w = wi
und somit w = 0. Der Teil (ii) folgt sofort aus (i).
•
Noch ein paar mehr Namen: Ein Vektor v heißt isotrop (bezüglich h, i)
wenn hv, vi = 0, sonst heißt er anisotrop. Ist W ⊂ V ein Unterraum, so nennt
man
W ⊥ = {v ∈ V | hv, W i = 0} = {v ∈ V | hv, wi = 0 ∀ w ∈ W }
den zu W orthogonalen Unterraum in V . Man kann die Untersuchung von
symmetrischen Bilinearform auf die nichtausgearteten zurückführen, denn:
Satz 1.4.2 Für jede direkte Summenzerlegung V = V ⊥ ⊕ U ist die Einschränkung der Form auf U nicht ausgeartet:
h, iU : U × U → K,
(u, u0 ) 7→ hu, u0 i
Beweis. Sei V = V ⊥ ⊕ U eine beliebige direkte Summenzerlegung von V . Wir
wollen zeigen: h, iU ist nicht ausgeartet. Sei also u ∈ U mit hu, U i = 0 und
sei v ∈ V beliebig. Man kann dann v zerlegen in v = v1 + u1 mit v1 ∈ V ⊥
und u1 ∈ U . Es folgt
hu, vi = hu, v1 + u1 i = hu, v1 i + hu, u1 i = 0 + 0 = 0,
also aus hu, U i = 0 folgt sogar u ∈ V ⊥ . Da U ∩ V ⊥ = 0, folgt h, iU ist nicht
ausgeartet.
•
Beachte: Ist V = V ⊥ ⊕ U und sind B1 ⊂ U sowie B2 ⊂ V ⊥ Basen, so ist
B = B1 ∪ B2 eine Basis von V , und
B1
Ah,i|U 0
B
Ah,i =
0
0
Satz 1.4.3 (i) Ist h, i nicht ausgeartet, so gibt es einen anisotropen Vektor.
(ii) Sei w ∈ V ein anisotroper Vektor und setze W = Kw. Dann ist V =
W ⊕ W ⊥ , und wenn h, i nicht ausgeartet ist auf V , so sind auch die
Einschränkungen h, iW und h, iW ⊥ nicht ausgeartet.
10
Beweis. Angenommen alle Vektoren in V sind isotrop. Da h, i nicht ausgeartet
ist, gibt es zu einem u ∈ V − {0} ein v ∈ V mit hu, wi = 1. Damit folgt aber:
0=hu + w, u + wi=hu, ui + hu, wi + hw, ui + hw, wi=0 + 1 + 1 + 0=26=0.
Es bleibt (ii) zu zeigen. Jedes Element u ∈ V kann man zerlegen in
hu, wi
hu, wi
w +
w
u= u−
hw, wi
hw, wi
und es gilt:
hu −
hu, wi
hu, wi
hu, wi
w, wi = hu, wi −
hw, wi = 0 ⇒ u −
w ∈ W⊥
hw, wi
hw, wi
hw, wi
Folglich gilt Spann(W, W ⊥ ) = V . Ist v ∈ W ∩ W ⊥ , so ist v = λw (da
W = Kw), und es gilt 0 = hw, vi = λhw, wi, und damit λ = 0. Es folgt
W ∩ W ⊥ = 0 und somit V = W ⊕ W ⊥ .
Die Einschränkung von h, i auf W ist nicht ausgeartet. Hat u ∈ W ⊥ die
Eigenschaft hW ⊥ , ui = 0, da hw, ui = 0 folgt unmittelbar hV, ui = 0, also
u ∈ V ⊥ . Ist h, i nicht ausgeartet, so ist somit auch die Einschränkung h, i|W ⊥
nicht ausgeartet.
•
Beispiel 1.4.1 Sei h, i gegeben auf K2 durch die Matrix (kanonische Basis)
0 1
a
c
Ah,i =
, also: h
,
i = ad + bc
1 0
b
d
Die Form
ist nicht ausgeartet
da det Ah,i = −1 6= 0. Weiter sind zum Beispiel
1
0
e1 =
und e2 =
isotrope Vektoren da he1 , e1 i = 0 und he2 , e2 i =
0
1
0. Nun ist he1 , e2 i = 1, und somit ist e1 + e2 ein anisotroper Vektor:
he1 + e2 , e1 + e2 i = 2he1 , e2 i = 2.
a
⊥
Sei U = K(e1 + e2 ), dann ist U = {
∈ K2 | a + b = 0}, also U ⊥ =
b
K(e1 − e2 ). Weiter ist
he1 − e2 , e1 − e2 i = −2he1 , e2 i = −2
11
(aus dem Satz vorher folgt zumindest, daß es 6= 0!!), und damit ist die Matrix
der Form bezüglich der Basis B0 = {(e1 + e2 ), (e1 − e2 )} in Diagonalform:
2 0
0 −2
Satz 1.4.4 Sei V ein n–dimensionaler Vektorraum über K und sei h, i eine
symmetrische Bilinearform. V besitzt eine Basis B0 , so daß die Matrix A
der Bilinearform bezüglich dieser Basis Ah,i = diag (λ1 , . . . , λr , 0, . . . , 0) eine
Diagonalmatrix ist mit λ1 , . . . , λr 6= 0 und n − r = dim V ⊥ .
Beweis. Sei die Form h, i zunächst nicht ausgeartet. Sei b1 ∈ V anisotrop, sei
U1 = Kv und V = U1 ⊕ W1 mit W1 = U1⊥ wie in Satz 1.4.1(v). Da h, i|W1
nicht ausgeartet ist, gibt es einen anisotropen Vektor b2 ∈ W1 . Sei U2 = Kb2
und sei W2 der zu U2 orthogonale Unterraum in W1 :
W2 = {v ∈ W1 | hv, U2 i = 0}
Setzt man diesen Prozeß fort, so erhält man eine Zerlegung
V = U1 ⊕ U2 ⊕ . . . ⊕ Un mit Ui = Kbi sowie hbi , bj i = 0 ∀ i 6= j.
Dann ist B = {b1 , . . . , bn } eine Basis von V und die Matrix Ah,i bezüglich
dieser Basis ist eine Diagonalmatrix:


hb1 , b1 i
0
...
0


0
hb2 , b2 i . . .
0


Ah,i = (hbi , bj i) = 

..
..
.
.


.
0
.
.
0
0
0 hbn , bn i
Ist h, i beliebig, so wählt man zuerst eine Zerlegung V = U ⊕ V ⊥ wie in
Satz 1.4.1(iii). Die Einschränkung der Form auf U ist nicht ausgeartet. Sei
A1 eine Basis von U wie oben und sei A2 ⊂ V ⊥ eine Basis des Radikals. Dann
ist A = A1 ∪ A2 eine Basis von V mit den gewünschten Eigenschaften.
•
Definition 1.4.1 Eine Basis B von V mit der Eigenschaft, das die Matrix
Ah,i der Form eine Diagonalmatrix ist nennt man eine Orthogonalbasis der
Form.
Korollar 1.4.1 Sei A eine symmetrische Matrix. Dann gibt es eine invertierbare Matrix g ∈ GLn (K) mit t gAg ist eine Diagonalmatrix.
12
1.5
Symmetrische Bilinearform über R
Im Folgenden sei K = R und sei V ein n–dimensionaler reeller Vektorraum.
Sei h, i eine symmetrische Bilinearform. Wir wissen bereits (Satz 1.4.4), daß
wir eine Basis wählen können, so daß die Matrix der Form bezüglicher dieser
Basis eine Diagonalmatrix ist vom Rang r = n − dim V ⊥ . Über den reellen
Zahlen können wir aber noch viel genauer die Matrix festlegen, man ersetzt
die Basiselemente bi für 1 ≤ i ≤ r durch √ bi . Bezeichne mit 1Ip eine p×p|hbi ,bi i|
Einheitsmatrix und sei Os eine s×s–Nullmatrix. Falls nötig nummeriert man
die Elemente noch um, so daß man erhält:
Theorem 1.5.1 Es gibt eine Basis B von V , so daß die Matrix Ah,i der
Bilinearform bezüglich die Form hat:


1Ip

−1Iq
Ah,i = 
Os
Die Zahlen p, q, s sind unabhängig von der Wahl der Basis.
Definition 1.5.1 Das Paar (p, q) nennt man die Signatur der Form.
Beweis. Wähle zunächst eine Basis B0 = {b1 , . . . , bn } wie in Satz 1.4.4. Sei B
die Basis die man erhält indem man für alle i mit hbi , bi i =
6 0 das Basiselement
1
√
bi ersetzt durch
bi . Diese Basis B hat die gewünschten Eigenschaften.
|hbi ,bi i|
Es bleibt zu zeigen, daß die Zahlen p, q, s unabhängig sind von der Wahl
der Basis. Aus Satz 1.4.1 und Satz 1.4.4 folgt, dass s = dim V ⊥ , und somit
ist s unabhängig von der Wahl der Basis. Es bleibt zu zeigen: p und q sind
unabhängig von der Wahl der Basis.
Sei B2 eine zweite Orthogonalbasis, so daß die Einträge auf der Diagonalen
der Matrix der Bilinearform nur 1, −1 und 0 sind. Angenommen, man hat p0
Einsen und q 0 (−1)’sen, und p0 ≤ p. (Ist p0 > p, vertausche einfach die Rolle
der Basen B und B1 ). Betrachte die Menge von Vektoren
S = {b1 , . . . , bp , b0p0 +1 , . . . , b0n }.
Dann ist S eine linear unabhängig
Teilmenge,
denn wenn man eine lineare
Pp
Pn
Abhängigkeitsrelation hat i=1 xi bi + j=p0 +1 yj b0j = 0 gilt, so folgt für
P
P
v = pi=1 xi bi = − nj=p0 +1 yj b0j
P
P
Pp
h i=1 xi bi , pi=1 xi bi i = pi=1 x2i ≥ 0
P
P
Pp0 +q0
hv, vi =
2
h nj=p0 +1 yj b0j , nj=p0 +1 yj b0j i = j=p
0 +1 −yi ≤ 0
13
Also ist x1 = . . . xp = 0 = yp0 +1 = . . . = yp0 +q0 , und somit v = 0. Die Menge
S ist also linear unabhängig und hat p + (n − p0 ) ≥ p + (n − p) = n Elemente,
was nur möglich ist wenn p = p0 , was zu beweisen war.
•
1.6
Positiv definite Formen
Sei wieder K = R und sei V ein n–dimensionaler reeller Vektorraum. Man
nennt eine symmetrische Bilinearform h, i positiv definit wenn gilt
hv, vi > 0 ∀ v ∈ V − {0}.
Entsprechend nennt man eine Matrix A positiv definit wenn für die zugehörige Bilinearform gilt
t
vAv > 0 ∀ v ∈ Rn − {0}.
Offensichtlich gilt: Sei V ein n–dimensionaler reeller Vektorraum, sei B eine
Basis und sei h, i eine symmetrische Bilinearform. Dann gilt: h, i ist positiv
definit dann und nur dann wenn ABh,i ist positiv definit.
Beispiel
1.6.1 Das gewöhnliche Skalarprodukt P
auf dem Rn : hx, yi = t xy =
Pn
n
2
t
i=1 xi ≥ 0 und ist gleich
i=1 xi yi ist positiv definit da hx, xi = xx =
Null dann und nur dann wenn x = 0.
Definition 1.6.1 Ein Skalarprodukt auf V ist eine symmetrische, positiv
definite Bilinearform.
Satz 1.6.1 Sei A eine reelle n × n–Matrix. Dann sind äquivalent:
(i) A ist symmetrisch und positiv definit (definiert also ein Skalarprodukt).
(ii) ∃ g ∈ GLn (R) mit t gAg = 1I.
(iii) Die Signatur von h, iA ist (p, q) = (n, 0).
(iv) Es gibt ein g ∈ GLn (R) mit A = t gg.
Beweis. Aufgrund von Theorem 1.5.1 sind die Eigenschaften (ii), (iii) und
(iv) äquivalent, und (ii)⇒(i) ist offensichtlich.
Sei die Matrix A symmetrisch und positiv definit und sei B eine Orthogonalbasis zu A wie in Theorem 1.5.1, also hbi , bj i = 0 für i 6= j und
hbi , bi i ∈ {0, 1, −1}. Da die Form aber positiv definit ist, gilt zusätzlich
hbi , bi i > 0 für alle i = 1, . . . , n, also gibt es ein g ∈ GLn (R) mit t gAg = 1I. •
Eine Basis mit der Eigenschaft hbi , bj i = 0 für i 6= j und hbi , bi i = 1 nennt
man eine Orthonormalbasis. Der Beweis oben zeigt:
14
Korollar 1.6.1 Die symmetrische Matrix A (die symmetrische Bilinearform) ist positiv definit dann und nur dann wenn sie eine Orthonormalbasis
hat.
Im Allgemeinen möchte man gerne ein Verfahren haben um zu untersuchen
ob eine Matrix positiv definit ist oder nicht, allerdings ohne etwa ein Orthonormalbasis zu suchen. Hier eine andere Methode: Sei A ∈ Mn (R) und sei Ai
die i × i–Matrix die man aus A erhält indem man die Zeilen und Spalten mit
Index > i streicht. Die Determinante det Ai nennt man einen Hauptminor
von A.
Theorem 1.6.1 Eine symmetrische Matrix A ist positiv definit dann und
nur dann wenn alle Hauptminoren positiv sind.
a b
Beispiel 1.6.2 Die Matrix
ist positiv definit dann und nur dann
b d
a > 0 und ad − b2 > 0 gilt.
Beweis. Die Matrix Ai ist die Matrix der Einschränkung der symmetrischen
Bilinearform h, i auf Ui = he1 , . . . , ei iR . Ist die Form positiv definit, so ist auch
die Einschränkung positiv definit, es gibt also ein g ∈ GLi (R) mit t gAi g = 1Ii .
Da gilt 1 = det(t gAi g) = (det g)2 det Ai , folgt det Ai > 0.
Sei umgekehrt A eine Matrix deren Hauptminoren alle positiv sind. Wir
beweisen per Induktion die Behauptung. Ist n = 1, so ist die Behauptung
offensichtlich wahr.
Sei n > 1, per Induktion kann man also annehmen: An−1 ist positiv
t
0
definit.
Es gibt also eine Matrix g ∈ GLn−1 (R) mit gAn−1 g = 1I, für g =
g 0
gilt dann:
0 1


∗


t 0
g Ag 0 = 1In−1 ... 
∗··· ∗
Durch multiplizieren mit Elementarmatrizen von rechts (addieren des Vielfachen einer Spalte zur letzten Spalte) kann man die Einträge in der letzten
Spalte alle löschen (bis auf den in der letzten Zeile). Beachte, man muß
gleichzeitig mit der transponierten der jeweilgen Matrix auch von links multiplizieren, wegen der Symmetrie löscht man so auch gleichzeitig die Einträge
15
in der letzten Zeile und erhält eine Diagonalmatrix:
1I 0
0
t
t 0
0
A = L1 · · · Ls g Ag Ls · · · L1 =
.
0 c
Da c = det A0 = det2 (L1 ) · · · det2 (Ls ) det2 (g 0 ) det A > 0, kann man die entsprechende Basis so renormieren und erhält das standard Skalarprodukt. Insbesondere ist A somit positiv definit.
•
1.7
Hermitesche Formen
Sei V ein n–dimensionaler Vektorraum mit Basis B = {b1 , . . . , bn }. Über den
komplexen Zahlen betrachtet man oft sogenannte hermitesche Formen, bei
denen die Bilinearität und die Symmetrie verquickt werden mit der komplexen Konjugation:
: C → C,
z = a + biı 7→ z = a − biı.
Übung 1.7.1 Zeige: z1 + z2 = z1 + z2 , und z1 · z2 = z1 · z2
Bemerkung 1.7.1 Beachte: Sei z = a + iıb, dann ist zz = zz = a2 + b2 ≥ 0
eine nicht negative reelle Zahl, wobei zz = zz = 0 dann und nur dann möglich
ist wenn z = 0. Weiter gilt z = z dann und nur dann wenn b = 0, also z ∈ R.
Definition 1.7.1 Eine hermitesche Form auf einem komplexen Vektorraum
V ist eine Funktion
V × V −→ C
(v, w) 7→ hv, w, i
mit den Eigenschaften:
(i) Linearität in dem zweiten Argument:
hv, w + w0 i = hv, wi + hv, w0 i,
hv, λw, i = λhv, w, i
(ii) Konjugierte Linearität (sesquilinear, semilinear) in dem ersten Argument:
hv + v 0 , wi = hv, wi + hv 0 , wi,
hλv, w, i = λhv, w, i
16
(iii) Hermitesche Symmetrie:
hv, wi = hw, vi.
Es folgt insbesondere: hv, vi ∈ R, und wir nennen eine hermitesche Form
positiv definit wenn hv, vi > 0 für alle v ∈ V − {0}.
Beispiel 1.7.1 Die standard hermitesche Form auf dem Cn ist definiert als
n
n
C × C → C,
t
(x, y) 7→ xy =
n
X
xi yi .
i=1
Beispiel 1.7.2 Sei A ∈ Mn (C) eine hermitesche Matrix, d.h., A = t A, die
Matrix gleich seiner transponierten komplex konjugierten Matrix. Die Matrix
definiert natürlich eine Bilinearform:
Cn × Cn → C,
(x, y) 7→ t xAy
Da wir aber an hermiteschen Formen interessiert sind, bauen wir noch eine
kleine Änderung ein, genauso wie beim Übergang von dem Standardskalarprodukt auf dem Rn zur standard hermiteschen Form oben. Sei h, iA die
Form
Cn × Cn → C, (x, y) 7→ hx, yiA := t xAy
Wie man leicht nachrechnet, gilt hx, λyiA = λhx, yiA und hλx, yiA = λhx, yiA ,
sowie
hx, yiA = t xAy = t (t xAy) = t y t Ax = t y t Ax = t y Ax = hy, xiA
man erhält somit also eine hermitesche Form.
Wie im Fall der Bilinearformen, zu einer Basis B sei Ah,i = (hbi , bj i) die
Matrix der Form bezüglich B. Beachte, man erhält die Form zurück durch:
hv, wi = t v B Ah,i wB ,
wobei vB wie vorher den Koordinatenvektor von v bezeichnet, und v B sei der
entsprechende Vektor mit konjugiert komplexen Einträgen. Allerdings liefert
nicht jede komplexe Matrix eine hermitesche Form denn die hermitesche
Symmetrie hat zur Folge:
ai,j = hbi , bj i = hbj , bi i = aj,i .
Man rechnet wie vorher nach:
17
Lemma 1.7.1 Für eine festgewählte Basis B liefert die Abbildung h, i 7→ Ah,i
eine Bijektion zwischen den hermiteschen Formen auf V und den hermiteschen Matrizen, d.h. den Matrizen A ∈ Mn (C) mit t A = A.
Eine Matrix mit reellen Einträgen ist hermitesch genau dann wenn sie symmetrisch ist. Der Zusammenhang mit der Basistranformation ist, bis auf die
offensichtlichen Veränderungen, genauso wie im Fall der Bilinearformen.
Lemma 1.7.2 Sei A die Matrix einer hermiteschen Form bezüglich der Basis A und sei TAB die Basistransformationsmatrix von der Basis B = {b1 , . . . , bn }
in die Basis A = {a1 , . . . , an }. Dann ist A0 = t TAB ATAB die Matrix der Form
bezüglich der Basis B.
Beweis. Sei A00 = (a00i,j ) = t TAB ATAB und sei A0 = (a0i,j ) die Matrix der hermiteschen Form bezüglich der Basis B. Wir haben
a0i,j = hbi , bj i = t (bi )A A(bj )A = t (bi )B t TAB ATAB (bj )B
•
Das Radikal der Form sei wie vorher V ⊥ = {v ∈ V | hv, wi = 0 ∀w ∈ V },
und wir nennen die Form nicht ausgeartet wenn V ⊥ = 0. Man kann immer
eine Zerlegung V = V ⊥ ⊕ U finden, so daß die Einschränkung auf U nicht
ausgeartet ist. Zum Beispiel:
Ergänze eine Basis von V ⊥ zu einer Basis von V und definiere U als den
Spann der zusätzlichen Basisvektoren. Dann ist die Einschränkung der Form
auf U nicht ausgeartet, denn ein Vektor u, der senkrecht steht auf U , d.h.
hu, U i = 0, der steht senkrecht auf ganz V und liegt somit in V ⊥ .
Einen Vektor v ∈ V nennt man isotrop wenn hv, vi = 0, sonst nennt man
den Vektor anisotrop. Man nennt eine Basis B = {b1 , . . . , bn } von V eine
Orthogonalbasis wenn hbi , bj i = 0 für all i 6= j.
Mit den gleichen Argumenten wie vorher zeigt man:
Lemma 1.7.3 Jede hermitesche Form besitzt eine Orthogonalbasis. Genauer, es existiert eine
 Basis, so daßdie Matrix der hermiteschen Form von der
1Ip
0
0
0  ist, und p, q, s sind unabhängig von der
Gestalt Ah,i =  0 −1Iq
0
0 On−p
Wahl der Basis.
Wie im reellen Fall nennt man das Paar (p, q) die Signatur.
Beweis. Wir geben nur eine kurze Andeutung des Beweises. Zunächst zerlegt
man V in V ⊥ ⊕U , so daß die Einschränkung der Form auf U nicht ausgeartet
18
ist. Ist U 6= 0, so besitzt U einen anisotropen Vektor u1 (gleiches Argument
wie vorher), man kann sogar u1 so wählen, daß hu1 , u1 i = ±1. Man zerlegt
dann U = Cu1 ⊕ U1 mit U1 = (Cu1 )⊥ = {v ∈ U | hu, vi = 0}. Man wiederholt den Prozess und erhält, zusammen mit einer Basis von V ⊥ , sukzessive
eine Basis von V mit den gewünschten Eigenschaften. Wie im Fall der reellen symmetrischen Bilinearformen zeigt man dann die Unabhängigkeit der
Zahlen p, q, s von der Wahl der Basis.
•
Theorem 1.7.1 Sei h, i eine hermitesche Form auf einem komplexen Vektorraum V der Dimension n. Sei B eine Basis von V und sei A die Matrix
der Form bezüglich B. Dann sind äquivalent:
(i) Die Form (beziehungsweise A) ist positiv definit.
(ii) A repräsentiert das standard–hermitesche Produkt auf dem Cn bezüglich
einer geeigneten Basis.
(iii) Es gibt ein g ∈ GLn (C) mit A = t gg.
(iv) Alle Hauptminoren sind positiv.
(v) h, i hat eine Orthonormalbasis A = {v1 , . . . , vn }, d.h., hvi , vj i = δi,j .
Beweis. Die Äquivalenz von (ii) und (iii) folgt aus dem Verhalten der Matrizen bei Basistransformationen. Das standard–hermitesche Produkt auf dem
Cn hat eine Orthonormalbasis. Andererseits, wenn die Form eine Orthonormalbasis A hat, dann gilt t vi Avj = δi,j , und somit folgt für die Matrix g, die
als Spaltenvektoren genau die [v1 ]B , . . . , [vn ]B hat: t gAg = 1I.
Das standard–hermitesche Produkt auf dem Cn ist positiv definit. Andererseits, ist die Form positiv definit, so ist die im Beweis von Lemma 1.7.3
konstruierte Basis eine Orthonormalbasis, womit die Äquivalenzen alle gezeigt wären außer der zum Punkt (iv), aber hier verläuft der Beweis auch
wieder parallel zum reellen Fall und wird deswegen weggelassen.
•
Kapitel 2
Die orthogonale und die
unitäre Gruppe
2.1
Orthogonale und unitäre Endomorphismen
Sei V = Cn versehen mit der standard hermiteschen Form h, i. Eine komplexe
Matrix g ∈ Mn (C) nennt man unitär wenn
t
gg = 1I,
also
t
g = g −1 .
Die unitären Matrizen lassen die hermitesche Form invariant, d.h., es gilt für
alle v, w ∈ Cn :
hgv, gwi = (t (gv))gw = t v(t gg)w = t vw = hv, wi.
Die eigentliche Definition der unitären Matrizen lautet: Es sind genau die
Elemente in der GLn (C), die die hermitesche Form invariant lassen:
Lemma 2.1.1 g ist unitär dann und nur dann wenn hgv, gwi = hv, wi für
alle v, w ∈ Cn .
Beweis. Die eine Richtung haben wir bereits gezeigt. Angenommen hgv, gwi =
hv, wi für all v, w ∈ Cn . Sei A die Matrix A = t gg = (ai,j ), dann ist
ai,j = t ei Aej = t ei t ggej = t (gei )(gej ) = hgei , gej i = hei , ej i = δi,j ,
•
also A = 1I und somit ist g unitär.
Basisunabhängig definiert man daher:
19
20
Definition 2.1.1 Sei V ein endlichdimensionaler komplexer Vektorraum mit
einer positiv definiten hermiteschen Form h, i. Ein Endomorphismus g ∈
End(V ) heißt unitär falls g die Form invariant läßt, also hgw, gw0 i = hw, w0 i
für alle w, w0 ∈ V .
Ein unitärer Endomorphismus g ist offensicht injektiv, denn für v ∈ V mit
gv = 0 gilt
0 = hgv, gvi = hv, vi ⇐⇒ v = 0.
Da wir V endlichdimensional voraussetzen, folgt somit sofort: unitäre Endomorphismen sind invertierbar, also: g unitär ⇒ g ∈ GL(V ).
Wir wissen also: Unitäre Matrizen sind invertierbar, die Spaltenvektoren
bilden damit eine Basis. Sind vi , vj zwei solche Spaltenvektoren, dann ist
hvi , vj i der (i, j)-te Eintrag der Matrix t gg, also t vi vj = δi,j . Die Spaltenvektoren bilden also eine Orthonormalbasis für die Form h, i. Es gilt auch die
Umkehrung:
Lemma 2.1.2 Eine komplexe n × n-Matrix ist unitär dann und nur dann
wenn die Spaltenvektoren eine Orthonormalbasis für die standard hermitesche
Form bilden.
Beweis. Die eine Richtung haben wir bereits gesehen. Andererseits, ist g =
(v1 | . . . |vn ) die Matrix mit den Spaltenvektoren v1 , . . . , vn , wobei diese eine Orthonormalbasis bezüglich des standard hermiteschen Produktes bilden
(also hvi , vj i = t vi vj = δi,j , dann ist
t
gg = t v1 | . . . |vn v1 | . . . |vn ) = hvi , vj i = 1I,
also g = (v1 | . . . |vn ) ist unitär.
•
Sei V = Rn versehen mit dem standard Skalarprodukt h, i. Eine reelle
Matrix nennt man orthogonal wenn
t
gg = 1I , also
t
g = g −1 .
Eine solche Matrix ist offensichtlich invertierbar, die Spaltenvektoren bilden
also eine Basis. Sind vi , vj zwei solcher Spaltenvektoren, dann gilt t vi vj =
δi,j , die Spaltenvektoren bilden also eine Orthonormalbasis für die Form h, i.
Ebenso wie für unitäre Matrizen zeigt man:
21
Lemma 2.1.3 (i) Eine n × n–Matrix g ∈ Mn (R) ist orthogonal dann und
nur dann wenn sie das standard Skalarprodukt h, i invariant läßt, d.h.,
für alle v, w ∈ Rn gilt:
hgv, gwi = hv, wi.
(ii) Eine n × n–Matrix g ∈ Mn (R) ist orthogonal dann und nur dann wenn
die Spaltenvektoren eine Orthonormalbasis bilden.
Basisunabhängig definiert man daher:
Definition 2.1.2 Sei V ein endlichdimensionaler reeller Vektorraum mit einem Skalarprodukt, d.h. mit einer positiv definiten symmetrischen Bilinearform h, i. Ein Endomorphismus g ∈ End(V ) heißt orthogonal falls g die Form
invariant läßt, also hw, w0 i = hw, w0 i für alle w, w0 ∈ V .
Ein orthogonaler Endomorphismus g ist offensicht injektiv, denn für v ∈ V
mit gv = 0 gilt
0 = hgv, gvi = hv, vi ⇐⇒ v = 0.
Da wir V endlichdimensional voraussetzen, folgt somit sofort: orthogonale
Endomorphismen sind invertierbar, also: g orthogonal ⇒ g ∈ GL(V ).
2.2
Die Gruppen On(R) und Un(C)
Bezeichne mit Un die unitäre Gruppe, also (zunächst einmal) die Menge aller
unitären Matrizen:
Un = {g ∈ GLn (C) | t gg = 1I},
und bezeichne mit On die orthogonale Gruppe
On = {g ∈ GLn (R) | t gg = 1I}.
Wie der Name bereits vermuten läßt, handelt es sich um Untergruppen der
GLn (C) respektive GLn (R).
Lemma 2.2.1 (i) On ist eine Untergruppe der GLn (R).
(ii) Un ist eine Untergruppe der GLn (C).
22
Beweis. Man hat 1I ∈ Un , und sind g, h ∈ Un , so folgt
t
(gh)gh = t h(t gg)h = t hh = 1I,
also gh ∈ Un . Ist nun g ∈ Un , so gilt g −1 = t g. Da
t t
( g)(t g)
= g t g = 1I
folgt t g = g −1 ∈ Un , was zu beweisen war.
Der Beweis für On ist analog und wird dem Leser überlassen.
•
Der Cn respektive Rn ist automatisch mit einer Orthonormalbasis versehen, der kanonischen Basis B = {e1 , . . . , en }. Wir haben gesehen, daß die
Basistransformationsmatrizen TAB zu einer anderen Basis genau die Matrizen in Gruppe GLn (C) beziehungsweise GLn (R) sind. Wenn man alllerdings
einen Raum hat mit einer positiv definiten Form hat, so macht es Sinn als
neue Basen nur wieder Orthonormalbasen zuzulassen. Dann kann man die
obigen Lemmata 2.1.3 und 2.1.2 auch wie folgt lesen:
Korollar 2.2.1 Sei B = {e1 , . . . , en } die kanonische Basis des Cn und sei
h, i die standard hermitesche Form. Eine Basis A des Cn ist eine Orthonormalbasis dann und nur dann wenn TAB ∈ Un .
Sei B = {e1 , . . . , en } die kanonische Basis des Rn und sei h, i das Standardskalarprodukt. Eine Basis A des Rn ist eine Orthonormalbasis dann und
nur dann wenn TAB ∈ On .
2.3
Die Gruppe O2(R)
Untersuchen wir als Beispiel genauer, wie die Elemente der Gruppe O2 (R)
aussehen. Sei
a b
g=
∈ GL2 (R) mit t gg = 1I,
c d
also a2 + c2 = 1, b2 + d2 = 1 sowie ab + cd = 0. Aus den ersten beiden
Bedingungen folgt, daß es Winkel α1 , α2 ∈ [0, 2π] gibt mit
a = cos α1 b = sin α2
c = sin α1 d = cos α2
Die dritte Bedingung ab + cd = 0 liefert dann zusammen mit dem Additionstheorem für trigonometrische Funktionen:
0 = cos α1 sin α2 + sin α1 cos α2 = sin(α1 + α2 )
23
Also ist α1 + α2 = mπ für ein m ∈ Z. Ist m = 2k, so gilt cos α1 = cos α2
sowie sin α1 = − sin α2 , und damit
cos α − sin α
g=
.
sin α
cos α
Dies ist die Matrix einer Drehung des R2 um den Ursprung um den Winkel α.
Das charakteristische
Polynom ist pg (t) = t2 −2t cos α+1, die Eigenwerte sind
√
cos α ± cos2 α − 1. Diese sind reell dann und nur dann wenn α = 0, π, 2π,
also entweder ist dann g = 1I oder −1I.
Ist m = 2k + 1, so gilt cos α1 = − cos α2 sowie sin α1 = sin α2 , und damit
cos α
sin α
g=
sin α − cos α
Das charakteristische Polynom ist pg (t) = t2 − 1 = (t − 1)(t + 1). Die Matrix
ist also diagonalisierbar. Sei v1 ein Eigenvektor zum Eigenwert 1 und sei v−1
ein Eigenvektor zum Eigenwert −1. Dann gilt:
hv1 , v−1 i = hgv1 , gv−1 i = hv1 , −v−1 i = −hv1 , v−1 i,
also hv1 , v−1 i = 0. Wir können zusäztlich noch v1 , v−1 so nromieren, daß
hv1 , v1 i = 1 und hv−1 , v−1 i = 1, die Matrix h = (v1 |v−1 ) ist also auch ein
Element in O2 (R), und auch die Matrix
−1
t
h gh = hgh =
1
0
0 −1
In der diagonalisierten Form stellt die Matrix genau die Spiegelung an der
x-Achse dar, die Matrix g stellt also eine Spiegelung dar an der Geraden, die
aufgespannt wird vom Eigenvektor zum Eigenwert 1. Eine kleine Rechnung
ergibt, es die Gerade aufgespannt von dem Vektor
v=
cos α2
sin α2
also die x-Achse gedreht um den Winkel
α
2
gegen den Uhrzeigersinn.
24
2.4
Orthogonales Komplement und direkte Summen
Sei V ein reeller endlichdimensionaler Vektorraum mit einer positiv definiten
symmetrischen Bilinearform h, i und sei U ⊂ V ein Untervektorraum.
Lemma 2.4.1
a) Sei U ⊥ = {v ∈ V | hU, vi = 0}, dann ist V = U ⊕ U ⊥ .
b) Sei φ ∈ O(V ) ein orthogonaler Automorphismus. Gilt φ(U ) ⊆ U , dann
gilt auch φ(U ⊥ ) ⊆ U ⊥ .
c) Sei φ ∈ O(V ) ein orthogonaler Automorphismus mit φ(U ) ⊆ U . Sei
B1 ⊂ U eine Orthonormalbasis und sei B2 ⊂ U ⊥ eine Orthonormalbasis. Setze B = B1 ∪ B2 . Dann ist
MB1 (φ)
0
MB (φ) =
.
0
MB2 (φ)
mit MB1 (φ) ∈ Odim U (R) und MB2 (φ) ∈ Odim U ⊥ (R).
Bemerkung 2.4.1 Wie vorher nennt man U ⊥ das orthogonale Komplement
von U .
Beweis. Zunächst einmal zur Erinnerung: U ⊥ ist ein Unterraum: Sei λ ∈ R
und seien w, w1 , w2 ∈ U ⊥ , dann gilt
hU, λwi = λhU, wi = 0 =⇒ λw ∈ U ⊥
sowie für alle u ∈ U :
hu, w1 + w2 i = hu, w1 i + hu, w2 i = 0 + 0 = 0 =⇒ w1 + w2 ∈ U ⊥ .
Ist nun u ∈ U ∩ U ⊥ , so folgt aus der Definition hu, ui = 0 und damit u = 0,
da h, i positiv definit ist.
Um zu zeigen, daß U und U ⊥ den ganzen Raum aufspannen, benutzt
man ähnliche Argument wie in Satz 1.4.1. Sei B1 = {b1 , . . . , br } ⊂ U eine
Orthonormalbasis und sei v ∈ V . Bezeichne mit u1 den Vektor
u1 = hb1 , vib1 + hb2 , vib2 + · · · + hbr , vibr ∈ U
25
und sei u2 = v−u1 . Um zu zeigen, daß u2 ∈ U ⊥ reicht es zu zeigen hbi , u2 i = 0
für alle Basiselemente b1 , . . . , br . Nun gilt
hbi , u2 i =
=
=
=
hbi , v − (hb1 , vib1 + · · · + hbr , vibr )i
hbi , vi − hb1 , vihbi , b1 i − · · · − hbi , vihbi , bi i − · · · − hbr , vihbi , br i
,
hbi , vi − hbi , vihbi , bi i
0
was zu beweisen war, also u2 ∈ U ⊥ . Aber damit haben wir gezeigt: v = u1 +u2
mit u1 ∈ U und u2 ∈ U ⊥ , und somit V = U ⊕ U ⊥ .
Um b) zu zeigen, betrachte ein Element w ∈ U ⊥ . Dann gilt für alle u ∈ U :
hu, φ(w)i = hφ−1 (u), φ−1 (φ(w))i = hφ−1 (u), wi = 0
da mit φ auch φ−1 orthogonal ist und aus φ(U ) = U auch φ−1 (U ) = U folgt.
Somit erhält man: φ(w) ∈ U ⊥ . Teil c) folgt unmittelbar aus Teil b) da die
Einschränkungen φ|U und φ|U ⊥ wieder orthogonale Automorphismen sind. •
Sei V ein komplexer endlichdimensionaler Vektorraum mit einer positiv
definiten hermiteschen Form h, i und sei W ⊂ V ein Untervektorraum. Wie
im reellen Fall zeigt man auf die gleiche Weise (mit den entsprechenden
Modifikationen, !Übung!):
Lemma 2.4.2
W ⊥.
a) Sei W ⊥ = {v ∈ V | hW, vi = 0}, dann ist V = W ⊕
b) Sei φ ∈ U (V ) ein unitärer Automorphismus. Gilt φ(W ) ⊆ W , dann
gilt auch φ(W ⊥ ) ⊆ W ⊥ .
c) Sei φ ∈ U (V ) ein unitärer Automorphismus mit φ(W ) ⊆ W . Sei B1 ⊂
W eine Orthonormalbasis und sei B2 ⊂ W ⊥ eine Orthonormalbasis.
Setze B = B1 ∪ B2 . Dann ist
MB (φ) =
MB1 (φ)
0
.
0
MB2 (φ)
mit MB1 (φ) ∈ Udim W (C) und MB2 (φ) ∈ Udim W ⊥ (C).
26
2.5
Determinante, Eigenwerte und Eigenvektoren
Wir haben bereits im Fall der Gruppe O2 (R) gesehen, daß die Determinante
immer 1 oder −1 ist. Dies gilt (im komplexen Fall entsprechend angepaßt)
allgemein. Für eine komplexe Zahl z = a + ib bezeichnet man mit dem
Absolutbetrag:
√
√
|z| = zz = a2 + b2
Identifiziert man C mit dem R2 (x–Koordinate = reeller Anteil, y–Koordinate
= imaginärer Anteil), dann ist |z| die Länge des Vektors z.
Lemma 2.5.1 Der Absolutbetrag der Determinante det g einer orthogonalen
oder unitären Matrix ist 1.
Beweis. Im orthogonalen Fall haben wir 1 = det 1I = det(t gg) = det2 g,
also | det g| = 1, und im unitären Fall haben wir 1 = det 1I = det(t gg) =
det g det g, also | det g| = 1.
•
Definition 2.5.1 Unter der speziellen orthogonalen Untergruppe SOn (R)
versteht man die Untergruppe
SOn (R) = {g ∈ On (R) | det g = 1}.
Unter der speziellen unitären Untergruppe SUn (R) versteht man die Untergruppe
SUn (C) = {g ∈ Un (C) | det g = 1}.
Ist φ ein Endomorphismus und sind B1 und B2 Basen, so gilt det MB1 =
det MB2 , es macht also Sinn von det φ zu sprechen. Im Folgenden sei V ein
reeller / komplexer Vektorraum mit einer positiv definiten symmetrischen
Bilinearform / positiv definiten hermiteschen Form.
Definition 2.5.2 Im reellen Fall versteht man unter der speziellen orthogonalen Untergruppe SOn (V ) die Untergruppe
SOn (V ) = {g ∈ On (V ) | det g = 1}.
Im komplexen Fall versteht man unter der speziellen unitären Untergruppe
SUn (V ) die Untergruppe
SUn (V ) = {g ∈ Un (V ) | det g = 1}.
27
Beispiel 2.5.1 Zeige: SOn (R) ist eine Untergruppe der On (R) und SUn (C)
ist eine Untergruppe der Un (C).
Lemma 2.5.2 Sei λ ein Eigenwert einer orthogonalen bzw. unitären Abbildung g, dann ist |λ| = 1.
Beweis. Sei v ∈ V − {0} ein Eigenvektor. Dann gilt:
hv, vi = hgv, gvi = hλv, λvi = λλhv, vi.
Da hv, vi =
6 0 folgt λλ = 1, was zu beweisen war.
•
Lemma 2.5.3 Seien λ1 , λ2 zwei verschiedene Eigenwerte einer orthogonalen bzw. unitären Abbildung g, und seien v1 , v2 zwei Eigenvektoren, wobei vi
Eigenvektor ist zum Eigenwert λi , i = 1, 2. Dann ist v1 orthogonal zu v2 ,
d.h., hv1 , v2 i = 0.
Beweis. Es gilt
hv1 , v2 i = hgv1 , gv2 i = hλ1 v1 , λ2 v2 i = λ1 λ2 hv1 , v2 i.
Da λ1 6= λ2 aber |λ1 | = |λ2 | = 1 folgt λ1 λ2 6= 1. Damit ist die obige Gleichung
nur möglich wenn hv1 , v2 i = 0.
•
Satz 2.5.1
a) Jede unitäre Matrix ist diagonalisierbar durch Konjugation
mit einer Matrix aus Un (C).
b) Zu jedem unitären Automorphismus φ gibt es eine Orthonormalbasis so
daß die Matrix von φ bezüglich dieser Basis eine Diagonalmatrix ist
Bevor wir zum Beweis kommen zeigen wir folgendes Lemma:
Lemma 2.5.4 Sei v ein Eigenvektor eines unitären oder orthogonalen Automorphismus φ zum Eigenwert λ, wir nehmen weiter an hv, vi = 1. Sei
U = v ⊥ = {w ∈ V |hw, vi = 0}, also V = Kv ⊕ U ( K = R im orthogonalen
Fall, K = C im unitären Fall). Dann gilt φ(U ) ⊆ U , φ|U ist ein unitärer bzw.
orthogonaler Automorphismus von U . Weiter sei B1 eine Orthonormalbasis
von U und sei B = {v} ∪ B1 , dann ist die Matrix von φ bezüglich B von der
Form
λ
0
MB (φ) =
.
0 MB1 (φ|U )
28
Beweis. Ist u ∈ U , so folgt hu, vi = 0, aber damit auch
0 = hu, vi = hφ(u), φ(v)i = λhφ(u), vi,
und somit 0 = hφ(u), vi da λ 6= 0. Also: φ(U ) ⊆ U . Natürlich ist φ|U wieder
orthogonal bzw. unitär bezüglich der Form h, i|U .
•
Beweis des Satzes. Jeder komplexe Automorphismus hat mindestens einen
Eigenvektor. Durch wiederholtes Anwendenden von Lemma 2.5.4 bringt man
die Matrix (den Automorphismus) auf die gewünschte Diagonalform.
•
Das Beispiel der Drehungen in Abschnitt 2.3 zeigt, daß orthogonale Matrizen im Allgemeinen nicht diagonalisierbar sind. Um eine diesem Fall angepaßte Version des Satzes 2.5.1 zu formulieren, schauen wir uns noch genauer
einige spezielle Abbildungen an.
2.6
Drehungen und Spiegelungen
Sei V ein komplexer oder reeller Vektorraum der Dimension n. Sei h, i im
komplexen Fall eine positiv definite hermitesche Form auf V , und im reellen
Fall sei h, i eine symmetrische positiv definite Form auf V .
Betrachten wir zunächst Spiegelungen. Für v ∈ V − {0} sei sv die lineare
Abbildung:
sv : V −→
V
v
w 7→ w − 2 hv,wi
hv,vi
Die Abbildung ist linear da h, i linear ist im zweiten Argument, also
0
i
sv (w + w0 ) = w + w0 − 2 hv,w+w
v
hv,vi
0
i
= w − 2 hv,wi
v + w0 − 2 hv,w
v
hv,vi
hv,vi
0
= sv (w) + sv (w )
und sv (λw) = λsv (w). Aus der Definition folgt:
sv (w) = w
∀w ∈ v ⊥ = {w ∈ V | hv, wi = 0} und sv (v) = −v.
Sei K = C falls V ein komplexer Raum ist und sei K = R falls V ein reeller
Raum ist. Da V = Kv ⊕ v ⊥ , kann man also sv auch charakterisieren als
die eindeutig bestimmte lineare Abbildung, die v auf −v schickt und den
Orthogonalraum v ⊥ punktweise invariant läßt.
29
Definition 2.6.1 Man nennt sv die (orthogonale) Spiegelung von V an v.
Beachte, sv läßt die Form h, i invariant, sv ist also eine orthogonale Abbildung
im reellen Fall und eine unitäre Abbildung im komplexen Fall.
Lemma 2.6.1
∀w, w0 ∈: hw, w0 i = hsv (w), sv (w0 )i
Beweis.
0
i
v, w0 − 2 hv,w
vi
hsv (w), sv (w0 )i = hw − 2 hv,wi
hv,vi
hv,vi
0
i
v, w0 i − hw, 2 hv,w
vi
= hw, w0 i − h2 hv,wi
hv,vi
hv,vi
0
i
+h2 hv,wi
v, 2 hv,w
vi
hv,vi
hv,vi
0
i
= hw, w0 i − 2 hv,wi
hv, w0 i − 2 hv,w
hw, vi
hv,vi
hv,vi
0
0
0
ihv,wi
+4 hv,w
hv, vi
hv,vi2
0
i
ihw,vi
ihw,vi
= hw, w0 i − 2 hw,vihv,w
− 2 hv,whv,vi
+ 4 hv,whv,vi
hv,vi
= hw, w0 i
•
Im Folgenden sei V ein reeller Vektorraum mit einer symmetrischen positiv definiten Bilinearform h, i. Unter einer ebenen Drehung von V versteht
man eine orthogonale Abbildung φ : V → V für die es eine Ebene (d.h. einen
2-dimensionalen Unterraum) U ⊆ V gibt mit der Eigenschaft
φ(U ) ⊆ U
und φ|U ∈ SO(U ) sowie φ|U ⊥ = 1I,
wobei U ⊥ = {v ∈ V | hU, vi = 0}.
Lemma 2.6.2 Eine ebene Drehung φ ist eine spezielle orthogonale Abbildung.
Beweis. Betrachte die Zerlegung V = U ⊕ U ⊥ , dann sind U und U ⊥ selbst
wieder Räume mit einer positiv definiten Bilinearform. Da φ die Unterräume
in sich selbst abbildet und die Einschränkung der Form auf den Unterräumen
invariant läßt, ist φ selbst eine orthogonale Abbildung: Seien v1 , v2 ∈ V mit
v1 = u1 + w1 , v2 = u2 + w2 , u1 , u2 ∈ U und w1 , w2 ∈ U ⊥ . Dann gilt
hv1 , v2 i =
=
=
=
=
hu1 + w1 , u2 + w2 i
hu1 , u2 i + hw1 , w2 i
hφ(u1 ), φ(u2 )i + hφ(w1 ), φ(w2 )i
hφ(u1 ) + φ(w1 ), φ(u2 ) + φ(w2 )i
hφ(v1 ), φ(v2 )i
30
Da φ die Unterräume U und U ⊥ in sich abbildet, hat die Matrix von φ bei
entsprechender Wahl der Basen B1 ⊂ U , B2 ⊂ U ⊥ , B = B1 ∪B2 die Blockform
MB1 (φ)
0
MB (φ) =
0
MB2 (φ)
und somit det φ = (det φ|U ) · (det φ|U ⊥ ) = 1.
2.7
•
Standardform für orthogonale Endomorphismen
Orthogale Abbildungen kann man über den reellen Zahlen im Allgemeinen
nicht diagonalisieren, wie wir am Beispiel der Drehungen des R2 gesehen
haben. Aber im gewissen Sinn ist das das einzige Beispiel, wie der folgende
Satz zeigt. Sei also wieder V ein reeller endlichdimensionaler Vektorraum mit
einer positiv definiten symmetrischen Bilinearform.
Satz 2.7.1
a) Zu jedem orthogonalen Automorphismus φ gibt es eine Orthonormalbasis, so daß die Matrix von φ die folgende Gestalt hat:





















1
...
1
−1
..
.
−1
cos α1 − sin α1
sin α1 cos α1
..
.
cos αr
sin αr


















− sin αr 
cos αr
b) Jede orthogonale Matrix g läßt sich durch Konjugation mit einer Element aus der On (R) auf die obige Gestalt bringen.
31
Bevor wir zum Beweis kommen, beachte: Die Matrix oben läßt sich offenbar
schreiben als Produkt von Matrizen der Form:


1
...






1




−1
g=
,


1




.


..
1
wobei dies die Matrix einer Spiegelung ist, und

1
...



1


cos α − sin α

g0 = 
sin α cos α


1


...








,





1
die Matrix einer ebenen Drehung. Es folgt somit:
Korollar 2.7.1 Jede orthogonale lineare Abbildung läßt sich schreiben als
ein Produkt von Spiegelungen und ebenen Drehungen.
Beweis des Satzes. Der Beweis ist per Induktion über n = dim V . Für n = 1
gibt es nichts zu zeigen (Übung: Zeige O1 (R) = {1, −1}), für n = 2 haben
wir bereits den Satz bewiesen.
Sei also n ≥ 3, und wir nehmen an der Satz ist für alle reellen Vektorräume
der Dimension < n bewiesen. Wenn es einen Unterraum U ⊂ V gibt mit
U 6= 0, V und φ(U ) = U , dann können wir Lemma 2.4.1 anwenden: Man
wählt Orthonormalbasen B1 ⊂ U , B2 ⊂ U ⊥ und erhält für B = B1 ∪ B2 :
MB1 (φ)
0
MB (φ) =
.
0
MB2 (φ)
Wir können nun die Induktionsannahme auf die Abbildungen φ|U und φ|U ⊥
anwenden.
32
Es bleibt also der Fall zu betrachten, in dem V keinen echten Unterraum
U =
6 0, V hat mit φ(U ) = U . Das charakteritsiche Polynom pφ (t) von φ
hat mindestens eine komplexe Nullstelle λ. Da pφ (t) ein Polynom mit reellen
Koeffizienten ist ist λ auch eine Nullstelle.
Sei B ⊂ V eine Orthonormalbasis und sei A = MB (φ) ∈ Mn (R) die
zughörige Matrix. Betrachtet man A als eine Matrix in Mn (C), so gilt
det(λ1I − A) = 0 und
det(λ1I − A) = 0
und damit ist auch
det(λ1I − A)(λ1I − A) = det(1I − λA − λA + A2 )
= det(1I − 2Re(λ)A + A2 )
= 0
Hier bezeichnet Re(λ) den Realteil der komplexen Zahl λ, ist also λ = λ1 +iλ2
mit λ1 , λ2 ∈ R, so ist Re(λ) = λ1 . Damit ist also
1I − 2Re(λ)A + A2 ∈ Mn (R)
die Matrix von 1I−2Re(λ)φ+φ2 . Da die Determinate verschwindet, hat diese
lineare Abbildung einen Kern U = Ker 1I − 2Re(λ)φ + φ2 , der verschieden ist
von 0. Nun gilt allerdings φ(U ) = U , denn ist u ∈ U , so gilt für w = φ(u):
(1I − 2Re(λ)φ + φ2 )(w) = (1I − 2Re(λ)φ + φ2 )(φ(u))
2
3
= φ(u)
− 2Re(λ)φ (u) + φ (u)
2
= φ u − 2Re(λ)φ(u) + φ (u)
= φ(0) = 0
und somit folgt φ(u) ∈ U .
Da wir vorausgesetzt hatten, daß V außer V und 0 keine Unterräume hat
die von φ auf sich selbst abgebildet werden folgt: U = V , und somit:
1I − 2Re(λ)φ + φ2 = 0.
Diese Aussage hat zur Folge dim V ≤ 2, denn sei v ∈ V mit v 6= 0 und
sei W = hv, φ(v)iR der Unterraum aufgespannt von v und φ(v). Dann ist
φ(W ) = W , denn für w = µ1 v + µ2 φ(v), µ1 , µ2 ∈ R hat man:
φ(w) = φ(µ1 v + µ2 φ(v))
2
= µ1 φ(v) + µ2 φ
(v)
= µ1 φ(v) + µ2 2Re(λ)φ − 1I (v)
= −µ2 v + (µ1 + 2Re(λ))φ(v) ∈ W.
33
Also folgt φ(W ) = W , und somit W = V . Da V von zwei Vektoren erzeugt
wird ist dim V ≤ 2. Dies widerspricht aber der Annahme dim V ≥ 3, somit
ist die Annahme, daß V keinen Unterraum außer V und 0 hat, der von φ auf
sich selbst abgebildet wird, zum Widerspruch geführt.
•
Bemerkung 2.7.1 Für eine unitäre Matrix g wissen wir, wie man die Matrix auf Diagonalgestalt bringt: Man bestimmt eine Orthogonormalbasis bestehend aus Eigenvektoren {v1 , . . . , vn }, setzt h = (v1 | · · · |vn ), dann ist h−1 gh
eine Diagonalmatrix.
Der Beweis oben gibt auch einen Algorithmus, wie man die geeignete
Basis findet um eine orthogonale Matrix g auf die obige Form zu bringen.
Zunächst sucht man Orthonormalbasen der Eigenräume zu den Eigenwerten
1 und −1, und dann sucht man für die komplexen Eigenwerte λ1 , . . . , λr
passende Orthonormalbasen für die Kerne Vi = ker(1I − 2Re(λi )g + g 2 ).
Mit passend ist gemeint, daß man für jedes Vi , i = 1, . . . , r, startet mit
einem Vektor v1 ∈ Vi , so daß hv1 , v1 i = 1. Man setzt Vi,1 = Spann von v1 und
φ(v1 ) und wählt u1 ∈ Vi,1 mit hv1 , u1 i = 0 und hu1 , u1 i = 1. Dann wählt man
v2 ∈ Vi mit hVi,1 , v2 i = 0 und hv2 , v2 i = 1 und setzt Vi,2 = Spann von v2 und
φ(v2 ) und wählt u2 ∈ Vi,2 mit hv2 , u2 i = 0 und hu2 , u2 i = 1. Dann wählt man
v3 ∈ Vi mit hVi,1 ⊕ Vi,2 , v3 i = 0 und hv3 , v3 i = 1 . . ..
Übung 2.7.1 Sei V ein reeller endlichdimensionaler Vektorraum mit einer
positiv definiten symmetrischen Bilinearform. Sei φ ∈ O(V ) eine orthogonale
lineare Abbildung. Für einen Eigenwert λ (komplex oder nicht) bezeichne
mit
ker(λ1I − φ)
falls λ = ±1
VRe(λ) =
2
ker(1I − 2Re(λ)φ + φ ) falls λ keine reelle Zahl ist.
Also sind V1 und V−1 genau die Eigenräume von φ zu den Eigenwerten 1 und
−1. Zeige: V zerfällt in die direkte Summe
V =
M
alle Eigenwerte
und hVRe(λ) , VRe(λ0 ) i = 0 für Re(λ) 6= Re(λ0 ).
VReλ
34
2.8
Euklidische und unitäre Vektorräume
Wir formalisieren jetzt einige der bereits vielfach benutzten Eigenschaften.
Im Folgenden sei V ein komplexer oder reeller Vektorraum der Dimension
n versehen mit einem Skalarprodukt h, i, d.h., h, i ist im komplexen Fall eine
positiv definite hermitesche Form auf V , und im reellen Fall ist h, i eine
symmetrische positiv definite Bilinearform auf V .
Im komplexen Fall nennt einen solchen Raum oft einen hermiteschen
Raum und im reellen Fall redet man von einem euklidischen Raum.
Wir haben die unitären beziehungsweise orthogonalen Abbildungen charakterisiert als die linearen Abbildungen φ : V → V , die das Skalarprodukt
invariant lassen. Das linear hätte man übrigends hier weglassen können. Genauer:
Satz 2.8.1 Seien V, W zwei euklidische beziehungsweise zwei unitäre Vektorräume mit den entsprechenden Formen h, iV und h, iW und sei φ : V → W
eine (nicht notwendigerweise lineare) Abbildung, die die Formen invariant
läßt, d.h.:
∀ v, v 0 ∈ V : hv, v 0 iV = hφ(v), φ(v 0 )iW .
Dann ist φ eine lineare Abbildung. Insbesondere, ist V = W , so ist φ ∈ O(V )
im reellen Fall und φ ∈ U (V ) im komplexen Fall.
Zum Beweis benützen wir das folgende Lemma:
Lemma 2.8.1 Sei V ein euklidischer oder hermitescher Vektorraum. Gilt
hx, xi = hx, yi = hy, yi, dann folgt x = y.
Beweis.
hx − y, x − yi = hx, xi − hx, yi − hx, yi + hy, yi
=
0
da hx, yi = hx, xi eine reelle Zahl ist. Somit folgt x − y = 0, also x = y.
•
Beweis des Satzes. Es bleibt die Linearität der Abbildung zu beweisen. Es
gilt
hφ(v + v 0 ), φ(v + v 0 )iW = hv + v 0 , v + v 0 iV
= hv, viV + hv, v 0 iV + hv 0 , viV + hv, viV ,
aber auch
hφ(v) + φ(v 0 ), φ(v) + φ(v 0 )iW = hφ(v), φ(v)iW + hφ(v), φ(v 0 )iW
+hφ(v 0 ), φ(v)iW + hφ(v), φ(v)iW
= hv, viV + hv, v 0 iV + hv 0 , viV + hv, viV ,
35
sowie
hφ(v + v 0 ), φ(v) + φ(v 0 )iW = hφ(v + v 0 ), φ(v)iW + hφ(v + v 0 ), φ(v 0 )iW
= hv + v 0 , viV + hv + v 0 , viV
= hv, viV + hv, v 0 iV + hv 0 , viV + hv, viV ,
Aus Lemma 2.8.1 folgt somit: φ(v + v 0 ) = φ(v) + φ(v 0 ). Mit den gleichen
Argumenten zeigt man φ(λv) = λφ(v). Es gilt
hφ(λv), φ(λv)iW = hλv, λviV
= |λ|2 hv, viV
sowie
hφ(λv), λφ(v)iW = λhφ(λv), φ(v)iW
= λhλv, viV
= |λ|2 hv, viV
und
hλφ(v), λφ(v)iW = |λ|2 hφ(v), φ(v)iW
.
= |λ|2 hv, viV
Aus Lemma 2.8.1 folgt φ(λv) = λφ(v), was zu beweisen war.
2.9
•
Orthonormalbasen
Sei A = {v1 , v2 , . . . , vn } p
⊂ V eine Basis. Da hv, vi eine positive reelle Zahl
ist für v ∈ V − {0}, ist hv, vi eine wohldefinierte
preelle Zahl, genannt die
Norm von v. Wir schreiben im Folgenden kvk für hv, vi. Sei
P
hbj , vn ibj
vn − n−1
v1
v2 − hb1 , v2 ib1
b1 =
, b2 =
, . . . , bn =
Pi=1
n−1
kv1 k
kv2 − hb1 , v2 ib1 k
kvn − i=1 hbj , vn ibj k
(2.1)
Lemma 2.9.1 Die Menge B = {b1 , . . . , bn } ist eine Orthonormalbasis.
Bemerkung 2.9.1 Das Verfahren in (2.1) wird das Schmidtsche Orthonormalisierungsverfahren genannt (nach Erhard Schmidt (1876–1959)).
Beweis. Aus der oberen Dreicksform der Abhängigkeiten folgt sofort, daß B
wieder eine Basis ist, und nach Konstruktion gilt offensichtlich hbi , bi i = 1
36
für alle i = 1, . . . , n. Es bleibt zu zeigen: hbi , bj i = 0 für i 6= j. Der Beweis ist
durch Induktion. Nun ist
hb1 , b2 i = hb1 ,
v2 − hb1 , v2 ib1
1
i=
(hb1 , v2 i − hb1 , v2 i) = 0.
kv2 − hb1 , v2 ib1 k
kv2 − hb1 , v2 ib1 k
Sei nun 2 < k < n und wir nehmen an, daßs gilt hbi , bj i = 0 für alle 1 ≤
i, j ≤ k, i 6= j. Dann folgt für 1 ≤ i ≤ k:
P
− k
v
hb ,v
ib
hbi , bk+1 i = hbi , kvk+1 −Pk`=1 hb` ,vk+1 ib` k i
k+1
=
=
`=1
`
k+1
`
1
P
(hbi , vk+1 i
kvk+1 − k`=1 hb` ,vk+1 ib` k
1
P
(hbi , vk+1 i
kvk+1 − k`=1 hb` ,vk+1 ib` k
−
Pk
`=1 hb` , vk+1 ihbi , b` i)
− hbi , vk+1 ihbi , bi i)
= 0,
•
was zu beweisen war.
Aus dem Basisergänzungssatz fogt mit dieser Methode unmittelbar:
Korollar 2.9.1 Sei V ein endlichdimensionaler euklidscher (respektive unitärer) Raum und sei A = {v1 , . . . , vk } eine Teilmenge linear unabhängiger
Vektoren mit der Eigenschaft
∀1 ≤ i ≤ k : hvi , vi i = 1
und ∀1 ≤ i < j ≤ k : hvi , vj i = 0.
Dann läßt sich A zu einer Orthonormalbasis A0 = {v1 , . . . , vn } von V vervollständigen.
Im Folgenden sei V ein komplexer oder reeller Vektorraum der Dimension
n versehen mit einem Skalarprodukt. In beiden Fällen gibt es eine Orthonormalbasis B = {b1 , . . . , bn } von V , d.h. hbi , bj i = δi,j , und mit Hilfe der
Abbildung
p:V
→ Cn
p:V

v=
Pn
i=1
x i bi
→ Rn

 
x1
x1
Pn
 ..  resp.
 .. 
7→ vB =  . 
v = i=1 xi bi 7→ vB =  . 
xn
xn
kann man kann sich V als den Cn (beziehungsweise Rn im reellen Fall) vorstellen versehen mit der standard–hermiteschen Form (dem standard Skalarprodukt). Damit meinen wir genauer, daß für die Auswertung der Form
37
gilt:
hv, wi =
=
=
=
=
P
P
h xi ai , nj=1 yj aj i
Pn
x y ha , a i
Pni,j=1 i j i j
i=1 xi yi
t
vB wB
hvB , wB i
Man beachte: In der ersten Zeile wertet man die Form auf V aus, in der
letzten Zeile die Form auf dem Cn (respektive Rn ). Anders formuliert:
Lemma 2.9.2 Die Abbildung p : V → Cn (oder, im reellen Fall, p : V →
Rn ) respektiert die Formen auf V und auf dem Bildraum, d.h.,
hv, wi = hp(v), p(w)i.
Es ist oft sinnvoll, nicht beliebige Basen sondern nur Orthonormalbasen zu
betrachten.
Lemma 2.9.3 Sei B = {b1 , . . . , bn } ⊂ V eine Orthonormalbasis und sei
A = {a1 , . . . , an } eine weitere Basis. Dann ist A auch eine Orthonormalbasis
dann und nur dann wenn die Basistransformationsmatrix TBA eine unitäre
(orthogonale) Matrix ist, also wenn TBA ∈ Un (respektive TBA ∈ On ).
Beweis. Sei K = C oder K = R, und bezeichne mit BK die kanonische Basis
des Kn .
p
V ⊃B
BK ⊂ Kn
x −→ p(B) = x
T A
T p(A)
 B
 BK
p
V ⊃ A −→
p(A) ⊂ Kn
p(A)
Da TBA = TBK , folgt das Lemma unmittelbar aus dem Korollar 2.2.1, dem
Lemma 2.9.2 und dem Diagramm.
•
Für eine Orthonormalbasis B = {b1 , . . . , bn } eines euklidischen oder unitären
Vektorraums V gibt es eine “einfache” Vorschrift um einen Vektor v als Linearkombination zu schreiben:
Lemma 2.9.4
v = hb1 , vib1 + hb2 , vib2 + . . . + hbn , vibn .
38
Beweis. Bezeichne mit u = hb1 , vib1 + . . . + hbn , vibn den obigen Vektor. Dann
gilt für alle i = 1, . . . , n:
hv − u, bi i = hv, bi i − hb1 , vihb1 , bi i − . . . − hbn , vihbn , bi i
= hv, bi i − hbi , vihbi , bi i
= 0,
Da B eine Basis bildet ist dies ist nur möglich wenn v − u = 0, also v = u,
was zu beweisen war.
•
2.10
Dualraum und Bilinearformen
Sei V ein endlichdimensionaler Vektorraum über einem beliebigen Körper K.
Unter dem Dualraum V ∗ von V versteht man den Vektorraum Hom(V, K),
also die Menge aller linearen Abbildungen von V nach K mit den Operationen
∀f1 , f2 ∈ Hom(V, K), ∀ v ∈ V : (f1 + f2 )(v) = f1 (v) + f2 (v),
sowie
∀λ ∈ K, ∀ f ∈ Hom(V, K), ∀ v ∈ V : (λf )(v) = λ(f (v)).
Fixieren wir eine Basis B = {v1 , . . . , vn } von V , so können wir V ∗ = Hom(V, K)
identifizieren mit den M1,n (K), den Matrizen mit nur einer Zeile der Länge
n. Ist f ∈ V ∗ , und gilt
f (v1 ) = a1 , f (v2 ) = a2 , . . . , f (vn ) = an ,


x1
 
so ist die Matrix MB (f ) = (a1 , . . . , an ), und für v ∈ V , vB =  ...  gilt
xn
 
x1
n
 ..  X
f (v) = MB (f )vB = (a1 , . . . , an )  .  =
ai x i .
i=1
xn
Erinnere: Eine lineare Abbildung ist eindeutig bestimmt durch die Vorgabe
der Bilder der Basiselemente. Zu jedem Basisvektor vi ∈ B gibt es also genau
eine lineare Abbildung vi∗ ∈ V ∗ mit der Eigenschaft:
1 falls i = j
∗
∗
vi (vj ) = δi,j , d.h. vi (vj ) =
0 falls i 6= j
39
Lemma 2.10.1 B∗ = {v1∗ , . . . , vn∗ } ist eine Basis von V ∗ .
Beweis. Die Dimension von V ∗ = Hom(V, K) ist n, also ist schon mal die
Anzahl richtig, es bleibt die lineare Unabhängigkeit zu zeigen. Angenommen,
a1 v1∗ + . . . + an vn∗ = 0, dann gilt für alle i = 1, . . . , n
0 = (a1 v1∗ + . . . + an vn∗ )(vi ) = a1 v1∗ (vi ) + . . . + an vn∗ (vi ) = ai ,
•
was zu beweisen war.
Definition 2.10.1 Man nennt B∗ die duale Basis in V ∗ zur Basis B in V .
Übung 2.10.1 Sei V ein endlichdimensionaler Vektorraum, sei V ∗ sein Dualraum und sei (V ∗ )∗ der Dualraum des Dualraums. Für v ∈ V sei `v : V ∗ → K
definiert durch f 7→ `v (f ) = f (v).
a) Zeige: `v ist linear, also `v ∈ HomK (V ∗ , K) = (V ∗ )∗ .
b) Zeige: Die Abbildung πV : V → (V ∗ )∗ ,
v 7→ `v , ist ein Isomorphismus.
c) Zeige: Identifiziert man V mit (V ∗ )∗ gemäß a), dann ist (B∗ )∗ = B.
Seien V, W zwei endlichdimensionale Vektorräume und sei φ : V → W ein
Homomorphismus. Man bekommt eine assoziierte Abbildung
φ∗ : W ∗ → V ∗ ,
definiert durch (f : W → K) 7→ (f ◦ φ : V → K)
Definition 2.10.2 Man nennt φ∗ die transponierte Abbildung.
Übung 2.10.2 Identifiziert man (V ∗ )∗ mit V und (W ∗ )∗ mit W gemäß
Übung 2.10.1, dann ist (φ∗ )∗ = φ.
Lemma 2.10.2 Seien V, W zwei endlichdimensionale Vektorräume und sei
φ : V → W ein Homomorphismus. Seien BV = {v1 , . . . , vn } ⊂ V und BW =
{w1 , . . . wm } ⊂ W zwei Basen und seien B∗V ⊂ V ∗ und B∗W ⊂ W ∗ die dualen
Basen. Dann gilt:
B∗
MB∗W (φ∗ ) = t MBBWV (φ).
V
40
B∗
Beweis. Sei A = (ai,j ) = MBBWV (φ) und sei B = (bi,j ) = MB∗W (φ∗ ). InsbesonV
dere ist also φ∗ (wj∗ ) = b1,j v1∗ + . . . + bn,j vn∗ . Daher gilt:
bi,j = φ∗ (wj∗ )(vi ) = wj∗ (φ(vi )) = wj∗ (a1,i w1 + . . . + am,i wm ) = aj,i ,
•
was zu beweisen war.
Sei V ein endlichdimensionaler Vektorraum und sei φ : V → V ∗ ein
Homomorphismus. Dann definiert
h, iφ : V × V → K,
(v, v 0 ) 7→ φ(v)(v 0 ).
eine Bilinearform auf V .
Übung 2.10.3 Zeige, daß die Form wirklich bilinear ist.
Umgekehrt sei h, i : V × V → K eine Bilinearform. Dann definiert:
V −→ K
∗
φh,i : V → V , v 7→ φh,i (v) :
v 0 7→ hv 0 , vi
eine lineare Abbildung.
Übung 2.10.4 Zeige, daß die Abbildung linear ist.
Lemma 2.10.3 Die Abbildungen
HomK (V, V ∗ ) −→ Bilinearformen
φ
7→
h, iφ
und
Bilinearformen −→ HomK (V, V ∗ )
h, i
7→
φh,i
sind bijektiv und invers zueinander.
Beweis. Sei φ ∈ HomK (V, V ∗ ), sei h, iφ die Form und sei Ψh,iφ ∈ HomK (V, V ∗ )
die zugehörige Abbildung. Dann gilt:
Ψh,iφ (v) (v 0 ) = hv 0 , viφ = φ(v)(v 0 )
41
für alle v 0 ∈ V , und somit (Ψh,iφ (v) = φ(v), also Ψh,iφ = φ. Umgekehrt, sei h, i
eine Bilinearform auf V und sei φh,i : V → V ∗ die entsprechende Abbildung,
und sei wieder h, iφh,i die Form. Dann gilt für v, v 0 ∈ V :
hv 0 , viφh,i = φh,i (v) (v 0 ) = hv 0 , vi,
also h, iφh,i = h, i, was zu beweisen war.
•
Sei V ein endlichdimensionaler Vektorraum, sei B = {v1 , . . . , vn } eine
Basis und V und sei B∗ ⊂ V ∗ die duale Basis. Sei h, i eine Bilinearform und
sei φh,i : V → V ∗ die zugehörige lineare Abbildung, wir haben gerade erst
bewiesen, daß die Form und die lineare Abbildung eigentlich dasselbe sind.
Wir können somit h, i zwei Matrizen zuordnen: die
Matrix der Form: MB (h, i) = (hvi , vj i) und die Matrix von φh,i : MBB∗ (φh,i ).
Lemma 2.10.4 MBB∗ (φh,i ) = MB (h, i).
Beweis. Sei A = (ai,j ) = MBB∗ (φh,i ) und sei B = (bi,j ) = MB (h, i). Dann gilt
φh,i (vj ) = a1,j v1∗ + . . . + an,j vn∗ , und somit
ai,j = φh,i (vj )(vi ) = hvi , vj i = bi,j ,
was zu beweisen war
•
Korollar 2.10.1 h, i ist nicht ausgeartet dann und nur dann wenn φh,i ein
Isomorphismus ist.
Als unmittelbare Folgerung erhalten wir, daß euklidische Räume isomorph
zu ihrem Dualraum sind. Da das Sklaraprodukt symmetrisch ist, kann man
es auch wie folgt formulieren:
Korollar 2.10.2 Sei V ein euklidischer Vektorraum mit Skalarprodukt h, i.
Dann definiert
V −→ R
∗
h|: V → V , v 7→ hv| :
v 0 7→ hv, v 0 i
einen Isomorphismus.
42
Im komplexen Fall kann man einen ähnlichen Zusammenhang aufzuzeigen,
man muß nur allgemeiner semilineare statt lineare Abbildungen zulassen. Für
weitere Einzelheiten siehe zum Beispiel Klingenberg/Klein, Lineare Algebra
und analytische Geometrie, oder eines der vielen anderen Bücher über Lineare Algebra, in denen Sesquilinearformen betrachtet werden. Im Folgenden
werden wir spezieller nur den Fall eines hermiteschen Raumes betrachten.
Satz 2.10.1 Sei V ein hermitescher Vektorraum mit Skalarprodukt h, i. Dann
definiert
V −→ C
∗
h|: V → V , v 7→ hv| :
v 0 7→ hv, v 0 i
einen semilinearen Isomorphismus, d.h., h| ist bijektiv und
hv + v 0 | = hv| + hv 0 |,
hλv| = λhv|.
Beweis. Wegen der Linearität im zweiten Argument gilt für alle λ, µ ∈ C,
w, w0 ∈ V :
hv|(λw + µw0 ) = hv, λw + µw0 i = λhv, wi + µhv, w0 i = λhv|(w) + µhv|(w0 ),
und somit ist hv| ∈ V ∗ . Weiter gilt für alle w, v, v 0 ∈ V und λ, µ ∈ C:
hλv + µv 0 |(w) = hλv + µv 0 , wi = λhv, wi + µhv 0 , wi = λhv|(w) + µhv 0 |(w),
also hλv + µv 0 | = λhv| + µhv 0 |. Die Abbildung ist also semilinear.
Übung 2.10.5 Zeige: Sei φ : U → U 0 eine semilineare Abbildung zwischen
zwei endlichdimensionalen komplexen Vektorräumen, und seien
Ker φ = {u ∈ U | hv| = 0} Im φ = {u0 ∈ U 0 | ∃u ∈ U mit u0 = φ(u)}.
Zeige:
a) Ker φ und Im φ sind Unterräume.
b) φ ist injektive dann und nur dann wenn Ker φ = 0.
c) Ist dim U = dim U 0 , dann gilt: φ bijektiv ⇐⇒ Ker φ = 0.
Fortsetzung des Beweises: Da die Form nicht ausgeartet ist folgt hv| = 0 dann
und nur dann wenn v = 0, aus der Übung folgt also, daß h| bijektiv ist.
•
43
2.11
Adjungierter Endomorphismus
Sei V ein endlichdimensionaler euklidischer oder hermitescher Vektorraum,
und sei Ψ : V → V ein Endomorphismus. Durch die zur Form h, i gehörende
Abbildung h|: V → V ∗ erhält man einen neuen Endomorphismus Ψa als
Komposition:
h|
h|−1
Ψ∗
Ψa : V −→V ∗ −→V ∗ −→V.
(2.2)
Das sieht etwas kompliziert aus, beachte zunächst einmal: h|−1 ist wieder semilinear (Übung), und da die Abbildung Ψa eine Komposition ist, in der zwei
semilinearen Abbildungen vorkommen, ist Ψa wieder eine lineare Abbildung:
Ψa (λv + µw) = h|−1 ◦Ψ ◦ h| (λv + µw)
−1
= h|
Ψ(λhv| + µhw|)
= h|−1 λ(Ψ ◦ h|)(v) + µ(Ψ ◦ h|)(w)
= λ(h|−1 ◦Ψ ◦ h|)(v) + µ(h|−1 ◦Ψ ◦ h|)(w)
Man nennt Ψa die durch h, i zu Ψ adjungierte Abbildung. Die wichtigste
Eigenschaft der adjungierten Abbildung liefert auch gleichzeitig eine einfache
und sehr dierekte Charakterisierung von Ψa :
Satz 2.11.1 Ψa ist der eindeutig bestimmete Endomorphismus von V mit
der Eigenschaft
∀v, v 0 ∈ V :
hΨ(v), v 0 i = hv, Ψa (v 0 )i.
(2.3)
Übung 2.11.1 Zeige: Der adjungierte Endomorphismus zum adjungierten
Endomorphismus ist der ursprüngliche Endomorphismus, oder, etwas kürzer
formuliert: (Ψa )a = Ψ.
Beweis. Wir haben
hΨ(v), v 0 i = hv 0 , Ψ(v)i
= Ψ∗ (hv 0 |) (v)
= h h|−1 (Ψ∗ (hv 0 |) , vi
= h h|−1 ◦Ψ∗ ◦ h| (v 0 ), vi
= hΨa (v 0 ), vi
= hv, Ψa (v 0 )i
44
die Abbildung Ψa hat also die in Gleichung (2.3) gewünschte Eigenschaft.
Ist nun φ ∈ End(V ) ein weiterer Endomorphismus mit der Eigenschaft (2.3),
also:
∀v, v 0 ∈ V : hΨ(v), v 0 i = hv, Ψa (v 0 )i = hv, φ(v 0 )i,
dann gilt für alle v, v 0 ∈ V :
0 = hv, Ψ (v )i − hv, φ(v )i = hv, Ψ (v ) − φ(v )i = hv, Ψ − φ (v 0 )i
a
0
0
0
a
0
a
Da h, i nicht ausgeartet ist folgt Ψa (v 0 ) = φ(v 0 ) für alle v 0 ∈ V und somit
Ψa = φ.
•
Um zu rechnen braucht man Basen und Matrizen. Sei also wieder: V ein
endlichdimensionaler euklidischer oder hermitescher Vektorraum, sei B eine
Orthonormalbasis und sei Ψ : V → V . Wie berechnet man die Matrix von
Ψa aus der zu Ψ?
Satz 2.11.2 MB (Ψa ) = t MB (Ψ)
Beweis. Für v, v 0 seien wie üblich vB , vB0 die Koordinatenvektoren von v, v 0
bezüglich der Orthonormalbasis B. Dann gilt (siehe Lemma 2.9.2):
hv, v 0 i = t vB vB0 .
Sei A = MB (Ψ), dann haben wir für alle v, v 0 ∈ V :
hΨ(v), v 0 i =
t
AvB vB0
= (t vB )(t A)vB0 = (t vB ) t AvB0
= hv, Ψa (v 0 )i
Da h, i nicht ausgeartet ist folgt Ψa (v 0 ) = t AvB0 für alle v 0 ∈ V und somit
B
MB (Ψa ) = t A = t MB (Ψ).
was zu beweisen war.
•
45
2.12
Selbstadjungierte und normale Endomorphismen
Sei V ein endlichdimensionaler euklidischer oder hermitescher Vektorraum
und sei Ψ : V → V ein Endomorphismus.
Definition 2.12.1 Man nennt den Endomorphismus Ψ selbstadjungiert falls
Ψa = Ψ.
Eine etwas schwächere Eigenschaft ist die folgende:
Definition 2.12.2 Man nennt den Endomorphismus Ψ normal falls er mit
seinem adjungierten kommutiert, d.h., Ψ ◦ Ψa = Ψa ◦ Ψ.
Offensichtlich haben wir:
Korollar 2.12.1 Ein selbstadjungierter Endomorphismus ist normal.
Hier eine Charakterisierung von normalen Endomorphismen:
Lemma 2.12.1 Ψ ist normal dann und nur dann wenn für all v, w ∈ V gilt:
hΨ(v), Ψ(w)i = hΨa (v), Ψa (w)i
Beweis. Es gilt für alle v, w ∈ V :
hΨ(v), Ψ(w)i = hΨa (v), Ψa (w)i ⇔ hv, Ψa ◦ Ψ(w)i = hv, Ψ ◦ Ψa (w)i,
und diese Bedingung ist (da h, i nicht ausgeartet ist) äquivalent zu Ψa ◦ Ψ =
Ψ ◦ Ψa , also zur Bedingung Ψ ist normal.
•
Sei V ein endlichdimensionaler euklidischer oder hermitescher Vektorraum, sei B eine Orthonormalbasis und sei Ψ : V → V ein Endomorphismus.
Sei A = MB (Ψ) die Matrix von Ψ bezüglich der Orthonormalbasis B. Aus
Satz 2.11.2 folgt sofort für die Matrizen:
Satz 2.12.1
a) Ψ ist selbstadjungiert ⇔ A ist symmetrisch/hermitesch.
b) Ψ ist normal ⇔ At A = t AA.
Definition 2.12.3 Man nennt eine reelle oder komplexe Matrix A normal
wenn At A = t AA.
Offensichtlich gilt:
Korollar 2.12.2 Ist A symmetrisch/hermitesch, dann ist A normal.
46
2.13
Hermitesche und normale Matrizen
Die wichtige Rolle, die hermitesche und, allgemeiner, normale Matrizen, spielen, folgt unmittelbar aus den folgenden Sätzen. Sei V zunächst ein endlichdimensionaler hermitescher Vektorraum, wir sind also im Fall K = C.
Satz 2.13.1 Ein Endomorphismus Ψ ∈ End(V ) ist normal dann und nur
dann, wenn es eine Orthonormalbasis B gibt, so daß die Matrix MB (Ψ) eine
Diagonalmatrix ist.
Korollar 2.13.1 Eine Matrix A ∈ Mn (C)) ist normal dann und nur dann
wenn es eine unitäre Matrix u ∈ Un (C) gibt mit D = uAu−1 ist eine Diagonalmatrix.
Für hermitesche Matrizen folgt sofort:
Korollar 2.13.2 Hermitesche Matrizen sind diagonalisierbar, und alle Eigenwerte sind reelle Zahlen. Sei (p, q) die Signatur einer hermitesche Matrix
A, dann hat A genau p positive Eigenwerte und q negative Eigenwerte.
Beweis. Der Beweis des Satzes wird in mehreren Schritten geführt. Wenn es
eine Orthonormalbasis B gibt, so daß die Matrix MB (Ψ) eine Diagonalmatrix
ist, so gilt
MB (Ψ)MB (Ψa ) = MB (Ψ)t MB (Ψ) = t MB (Ψ)MB (Ψ) = MB (Ψa )MB (Ψ),
da Diagonalmatrizen miteinander kommutieren. Es folgt daher unmittelbar:
Ψ ◦ Ψa = Ψa ◦ Ψ, die Abbildung Ψ ist also normal.
Um die Umkehrung zu zeigen, beweisen wir zunächst das folgende
Lemma 2.13.1 Für eine komplexe Zahl λ sei VΨλ der Eigenraum von Ψ zum
Eigenwert λ, d.h., VΨλ = {v ∈ V | Ψ(v) = λv}. Ist Ψ normal, dann gilt
a) VΨλ = VΨλa .
b) hV λ , V µ i = 0 für λ 6= µ.
Beweis des Lemmas. Sei v 6= 0, wir haben
v ∈ VΨλ ⇔
⇔
⇔
⇔
⇔
v ∈ Ker (Ψ − λ1I)
h(Ψ − λ1I)(v), (Ψ − λ1I)(v)i = 0
h(Ψ − λ1I)a (v), (Ψ − λ1I)a (v)i = 0
h(Ψa − λ1I)a (v), (Ψa − λ1I)a (v)i = 0
v ∈ Ker (Ψa − λ1I)
47
oder, anders gesagt, v ∈ VΨλa . Weiter seien v ∈ VΨλ und w ∈ VΨµ , dann gilt
µhv, wi = hv, µwi = hv, Ψ(w)i = hΨa (v), wi = hλv, wi = λhv, wi.
Das ist nur möglich für λ 6= µ wenn hv, wi = 0.
Lemma 2.13.2 V =
L
λ∈C
•
VΨλ
L
⊥
Beweis. Sei U = λ∈C VΨλ die direkte Summe der
PEigenräume und sei λU das
orthogonaleP
Komplement. Ist u ∈ U mit u = λ∈C uλ und uλ ∈ VΨ , dann
ist Ψ(u) = λ∈C λuλ ∈ U . Wir P
erhalten also: Ψ(U ) ⊆ U . Sei nun w ∈ U ⊥ ,
dann gilt für ein beliebiges u = λ∈C uλ ∈ U :
X
X
λuλ , wi = 0,
Ψa (uλ ), wi = h
hu, Ψ(w)i = hΨa (u), wi = h
λ∈C
λ∈C
also haben wir auch Ψ(U ⊥ ) ⊆ U ⊥ . Damit besitzt aber Ψ|U ⊥ mindestens
einen Eigenvektor w, sagen wir zum Eigenwert µ. Da w ∈ U ⊥ ⊆ V ist aber
w ∈ VΨµ ⊆ U , also w ∈ U ∩ U ⊥ = 0 und somit w = 0. Es folgt U ⊥ = 0, also
U =V.
•
Fortsetzung des Beweises von Satz 2.13.1. Wähle für jeden Eigenwert λ eine
λ
Orthonormalbasis Bλ von VS
Ψ . Aus Lemma 2.13.2 und Lemma 2.13.1 folgt,
daß die Vereinigung B = λ∈C Bλ eine Orthonormalbasis von V ist, die,
nach Konstruktion, aus Eigenvektoren von Ψ besteht. Die Matrix MB (Ψ)
hat daher Diagonalgestalt.
•
Index
U ⊕V, 5
anisotrop, 17
bilinear, 6
Bilinearform
Matrix der, 7
nicht ausgeartet, 8
Radikal, 8
symmetrisch, 6
direkte Summe, 5
euklidischer Raum, 34
hermitesche Form, 15
hermitescher Raum, 34
isotrop, 9, 17
Matrix
hermitesche, 17
orthogonal, 20
Orthogonalbasis, 11
orthogonale Gruppe, 21
orthogonale Raum, 9
Orthonormalbasis, 13
positiv definit, 13, 16
Signatur, 12
unitar, 19
unitare Gruppe, 21
48