Lineare Algebra II - Übungen Lineare Algebra I, WS 2003/04

Lineare Algebra II
Vorlesung WS 2014/15
Gabriele Nebe
RWTH Aachen
Prof. Dr. Gabriele Nebe
Lehrstuhl D f¨
ur Mathematik
RWTH Aachen
Templergraben 64
Der Nachdruck dieses Textes, auch von einzelnen Teilen daraus, ist nicht gestattet.
2
Inhaltsverzeichnis
1 Ringe und Moduln
1
Definitionen und Beispiele. (V1) . . . . . . . . . . . . . . . . . . . .
2
Homomorphies¨
atze und der chinesische Restsatz. . . . . . . . . . . .
2.1
Der Homomorphiesatz f¨
ur Moduln. (V2) . . . . . . . . . . . .
2.2
Ringe und Ideale. (V2) . . . . . . . . . . . . . . . . . . . . . .
2.3
Euklidische Ringe. (V3) . . . . . . . . . . . . . . . . . . . . .
2.4
Der chinesische Restsatz. (V4) . . . . . . . . . . . . . . . . .
2.5
Der chinesische Restsatz und die Hauptraumzerlegung. . . . .
3
Elementare Teilbarkeitstheorie f¨
ur Ringe. (V5) . . . . . . . . . . . .
4
Moduln u
¨ber Hauptidealbereichen. . . . . . . . . . . . . . . . . . . .
4.1
Der Struktursatz. (V6) und (V7) . . . . . . . . . . . . . . . .
4.2
Der Hauptsatz u
¨ber endlich erzeugte abelsche Gruppen. (V7)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
9
9
10
13
16
19
20
23
23
29
2 Normalformen fu
¨ r Matrizen.
¨
5
Ahnlichkeit
von Matrizen. (V8) . . . . . . . . . . . . . . . . . .
6
Normalformen f¨
ur Matrizen. . . . . . . . . . . . . . . . . . . . .
6.1
Die rationale kanonische Form. (V9) . . . . . . . . . . .
6.2
Trennende Invarianten. (V10) . . . . . . . . . . . . . . .
6.3
Die Jordan Normalform. . . . . . . . . . . . . . . . . .
6.4
Transformationsmatrizen. (V11) . . . . . . . . . . . . .
6.5
Eine Anwendung: lineare Differentialgleichungssysteme.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
31
31
34
34
37
39
40
43
3 Gruppen und Operationen
7
Operationen von Gruppen auf Mengen. . . . . . . .
7.1
Wiederholung und erste Beispiele. (V12) . . .
7.2
Die Konjugationsoperation. (V13) . . . . . .
7.3
Parametrisierung aller transitiver G-Mengen.
7.4
Anzahl der Bahnen des Stabilisators. (V14) .
8
Homomorphismen und Normalteiler. (V15) . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
47
47
47
51
53
55
57
4 Geometrie
9
Affine Geometrie . . . . . . . . . . . . . . . . . . . . . . .
9.1
Der affine Raum. (V15) . . . . . . . . . . . . . . .
9.2
Affine Abbildungen. (V16) . . . . . . . . . . . . . .
9.3
Das Invarianzprinzip der affinen Geometrie. (V17)
10 Euklidische affine Geometrie. (V18) . . . . . . . . . . . .
11 Projektive Geometrie. (V19) . . . . . . . . . . . . . . . . .
11.1 Invarianten der projektiven Gruppe. . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
61
61
61
63
66
70
76
78
3
.
.
.
.
.
.
.
.
.
.
.
.
4
INHALTSVERZEICHNIS
12
13
Projektive Quadriken (V20) . . . . . .
Affine Quadriken (V21) . . . . . . . .
13.1 Die Operation von Aff n (K) auf
13.2 Homogenisierung. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
K[x1 , . . . , xn ]≤2
. . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
79
83
83
84
5 Multilineare Algebra
14 Tensorprodukte. . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.1 Tensorprodukte von Moduln. . . . . . . . . . . . . . . . .
14.2 Tensorprodukte von Abbildungen. . . . . . . . . . . . . .
15 Tensoralgebra, Graßmann Algebra und Anwendungen. . . . . . .
15.1 Die Tensoralgebra . . . . . . . . . . . . . . . . . . . . . .
15.2 Schiefsymmetrische Tensoren und die Graßmann-Algebra.
15.3 Pl¨
ucker Koordinaten. . . . . . . . . . . . . . . . . . . . .
15.4 Alternierende und symmetrische Tensoren. . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
87
87
87
90
92
92
93
96
98
6 Lineare Algebra u
¨ ber Z.
16 Grundlegende Definitionen f¨
ur Gitter . . . . .
16.1 Reine Teilgitter. . . . . . . . . . . . .
16.2 Gitterverb¨
ande und kompatible Basen.
16.3 Gitter in Euklidischen R¨aumen. . . . .
17 Isometrien und Automorphismen . . . . . . .
18 Ausblicke. . . . . . . . . . . . . . . . . . . . .
18.1 Orthogonale Zerlegungen. . . . . . . .
18.2 Minkowski’s Gitterpunktsatz. . . . . .
18.3 Dichte Kugelpackungen. . . . . . . . .
18.4 Thetareihen von Gittern. . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
101
101
101
103
104
107
110
110
111
113
114
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Kapitel 1
Ringe und Moduln
1
Definitionen und Beispiele. (V1)
Definition 1.1. R, genauer (R, +, ·) heißt ein Ring mit Eins, f¨
ur uns kurz Ring, falls folgende
drei Eigenschaften gelten:
1) (R, +) ist eine abelsche Gruppe (mit 0 als neutralem Element).
2) (R, ·) ist ein Monoid (mit 1 als Einselement).
3) Es gelten die Distributivgesetze:
a(b + c) = ab + ac
(b + c)a = ba + ca
f¨
ur alle a, b, c ∈ R.
4) Falls (R, ·) kommutativ ist, heißt R kommutativer Ring mit Eins.
5) Falls (R − {0}, ·) eine abelsche Gruppe ist, so heißt R ein K¨
orper.
Konkrete Beispiele: 1) Z, genauer (Z, +, ·), der Ring der ganzen Zahlen, ist ein kommutativer Ring mit Eins.
2) Ist K ein K¨
orper, so ist der Polynomring K[x] u
¨ber K ein kommutativer Ring mit Eins.
3) K n×n ist mit Matrixmultiplikation und Matrixaddition ein Ring mit Eins, der f¨
ur n ≥ 2 nicht
kommutativ ist.
4) Sind R und S Ringe, so ist auch
R ⊕ S := {(r, s) | r ∈ R, s ∈ S}
ein Ring mit komponentenweiser Addition und Multiplikation. Das Einselement ist (1, 1) und
das Nullelement ist (0, 0). Es gilt z.B. (1, 0) + (0, 1) = (1, 1) und (1, 0) · (0, 1) = (0, 0). R ⊕ S ist
also nicht nullteilerfrei.
Definition 1.2. Sei R ein Ring mit Eins. Dann heißt
R∗ := {r ∈ R| es existiert a ∈ R mit ar = ra = 1}
die Einheitengruppe von R. Ihre Elemente heißen auch Einheiten von R.
Beispiele. Z∗ = {1, −1},
F¨
ur jeden K¨
orper K ist K ∗ = K \ {0}, K[x]∗ = K ∗ , (K n×n )∗ = GLn (K).
∗
(R ⊕ S) = R∗ × S ∗ .
5
6
KAPITEL 1. RINGE UND MODULN
Definition 1.3. Seien R, S Ringe mit Eins. ϕ : R → S heißt ein Ringhomomorphismus,
falls gilt
ϕ(a + b) = ϕ(a) + ϕ(b),
ϕ(ab) = ϕ(a)ϕ(b),
ϕ(1R ) = 1S
f¨
ur alle a, b ∈ R. Ist ϕ zus¨
atzlich injektiv, surjektiv oder bijektiv, so spricht man vom Mono-,
∼
Epi-, bzw. Isomorphismus. Ist ϕ ein Isomorphismus, so schreiben wir ϕ : R −
→ S oder R ∼
=S
und nennen R und S isomorph.
Definition 1.4. Sei R ein Ring mit Eins. Eine abelsche Gruppe (M, +) heißt R-Modul (genauer R-Linksmodul), falls eine Abbildung
R × M → M : (r, m) 7→ rm
gegeben ist mit
r(m + n) = rm + rn,
(rs)m = r(sm),
(r + s)m = rm + sm
1m = m
f¨
ur alle r, s ∈ R, m, n ∈ M .
Ist M ein R-Modul, so heißt eine Teilmenge T ⊆ M ein Teilmodul von M , in Zeichen T ≤ M ,
falls T 6= ∅ und f¨
ur alle t1 , t2 ∈ T , a ∈ R auch at1 + t2 ∈ T gilt.
Man ist versucht zu sagen, dass Moduln Vektorr¨aume u
urlich,
¨ber Ringen sind. Richtig ist nat¨
dass Vektorr¨
aume Moduln u
orpern sind.
¨ber K¨
¨
Ubung.
Zeigen Sie, dass Teilmoduln genau die Teilmengen T von M sind, die mit der Einschr¨ankung der Addition und Skalarmultiplikation von M auf T wieder zu R-Moduln werden.
Beispiele.
1) Jede abelsche Gruppe (M, +) ist ein Z-Modul mit

m + .{z
. . + m},
a≥0


 |
a
am :=
− (m + . . . + m), −a ≥ 0.


{z
}
 |
−a
2) Sei V ein K-Vektorraum f¨
ur einen K¨orper K und ϕ ∈ EndK (V ). Dann wird V zu einem
K[x]-Modul durch die Setzung
p(x)v := (p(ϕ))(v) f¨
ur alle p(x) ∈ K[x], v ∈ V.
¨
3) Ubung:
Sei ϕ : R → S ein Ringhomomorphismus und M ein S-Modul. Dann wird M zu
einem R-Modul, durch rm := ϕ(r)m f¨
ur r ∈ R, m ∈ M . Ist ϕ injektiv (also R ∼
= ϕ(R) ein
Teilring von S), so nennt man den R-Modul M auch die Einschr¨
ankung des S-Moduls M .
Ist ϕ surjektiv (also S ∼
= R/ Kern(ϕ)), so nennt man den R-Modul M auch die Aufblasung
(Inflation) des S-Moduls M
1. DEFINITIONEN UND BEISPIELE. (V1)
7
Bemerkung 1.5. (a) Sei M ein R-Modul und T eine Menge von Teilmoduln von M . Dann
gilt:
\
T ≤M
T ∈T
ist wieder ein Teilmodul von M .
T
(b) F¨
ur X ⊆ M so ist das Erzeugnis hXi := X⊂T ≤M T der kleinste Teilmodul von M , welcher
X enth¨
alt.
(c) Es gilt f¨
ur ∅ =
6 X⊆M
hXi = {m ∈ M | es existieren k ∈ N, a ∈ Rk , v ∈ X k mit m = a1 v1 + · · · + ak vk }
und h∅i = {0}.
Beweis. zu (c) Man rechnet leicht nach, dass die Menge X auf der rechten Seite ein R-Teilmodul
von M ist. (Die Konvention, dass die leere Linearkombination gleich 0 ist, f¨
uhrt zu einer Vereinheitlichung der beiden F¨
alle.) Offenbar gilt X ⊆ X. Also nach Definition gilt somit hXi ≤ X.
Aber andererseits ist X in jedem Teilmodul von M enthalten, der X enth¨alt. Das liefert die
Gleichheit.
q. e. d.
Definition 1.6. Eine Abbildung ϕ : M → N von R-Moduln M, N heißt R-Modulhomomorphismus, falls
ϕ(rm1 + sm2 ) = rϕ(m1 ) + sϕ(m2 )
f¨
ur alle r, s ∈ R und alle m1 , m2 ∈ M gilt. In diesem Fall heißt die Faser u
¨ber 0
Kern(ϕ) := {m ∈ M |ϕ(m) = 0}
der Kern von ϕ.
Bemerkung 1.7. (a) Die Komposition von R-Modulhomomorphismen ist ein R-Modulhomomorphismus.
(b) Ist ϕ : M → N ein R-Modulhomomorphismus, so ist Kern(ϕ) ein Teilmodul von M und
Bild(ϕ) := {ϕ(m) | m ∈ M } ein Teilmodul von N .
(c) ϕ ist injektiv genau dann wenn Kern(ϕ) = {0} ist.
(d) ϕ ist surjektiv genau dann wenn Bild(ϕ) = N ist.
(e) Ist ϕ bijektiv (also ein Isomorphismus), so ist die Umkehrabbildung ϕ−1 wieder ein R¨
Modulisomorphismus. Insbesondere ist Isomorphie von Moduln eine Aquivalenzrelation.
(f ) R-Modulhomomorphismen von M in sich selbst heißen Endomorphismen. EndR (M ) :=
{ϕ : M → M | ϕ R − Modulhomomomorphismus } heißt der Endomorphismenring des RModuls M . Es ist EndR (M ) ein Ring, im Fall dass R kommutativ ist, sogar eine R-Algebra.
¨
Beweis. Ubungsaufgabe.
q. e. d.
¨
Ubung.
Die Spalten der Matrix A in Zn×n bilden genau dann ein Erzeugendensystem des
Z-Moduls Zn×1 wenn
A ∈ GLn (Z) = (Zn×n )∗ = {g ∈ Zn×n | det(g) ∈ {±1}}.
Die Tatsache, dass R ein Ring ist, erlaubt es uns, beliebige Moduln als Faktormoduln freier
Moduln zu beschreiben und so einen ersten Rahmen zu bekommen, wie man Moduln konstruiert.
8
KAPITEL 1. RINGE UND MODULN
Bemerkung 1.8. Sei R ein Ring mit Eins.
1) M = R kann als R-Modul aufgefasst werden durch
R × M → M : (r, m) 7→ rm
(Produkt in R).
Diesen Modul bezeichnen wir mit R R. Er heißt der regul¨
are R-Modul. Seine Teilmoduln nennt
man auch Linksideale.
2) Ist M irgendein R-Modul und m ∈ M , dann gibt es genau einen R-Modulhomomorphismus
ϕ : R R → M mit ϕ(1) = m.
3) Sind M und N R-Moduln, so auch die direkte Summe M ⊕ N (entspricht dem direkten
Produkt bei kommutativen Gruppen in additiver Schreibweise) durch die R-Operation
r(m, n) := (rm, rn) f¨
ur alle m ∈ M, n ∈ N, r ∈ R.
M ⊕ N heißt die direkte Summe der R-Moduln M und N .
4) Ist A eine beliebige Menge, so ist RA ein R-Modul mit werteweiser Addition und Produkt:
R × RA → RA : (r, f ) 7→ (a 7→ rf (a)).
Im Falle von A = n schreiben wir Rn statt Rn .
Beweis. 1) Klar. 2) Eindeutigkeit: Sei ψ ein weiterer Homomorphismus mit dieser Eigenschaft.
Dann gilt f¨
ur alle r ∈ R R:
ψ(r) = ψ(r1) = rψ(1) = rm = ϕ(r), also ψ = ϕ.
Existenz:
ϕ : R R → M : r 7→ rm
ist wohldefiniert und hat die gew¨
unschte Eigenschaft.
¨
¨
3) Ubung.
4) Ubung.
q. e. d.
¨
Ubung:
Zeige: Sind A und B disjunkte Mengen, so gilt: RA ⊕ RB ∼
= RA∪B als R-Moduln.
Bemerkung 1.9. Sei A eine Menge und f¨
ur jedes a ∈ A sei ea ∈ RA die charakteristische
Funktion von {a}, definiert durch
0, b =
6 a
ea (b) :=
1, b = a
Dann ist der von den ea mit a ∈ A erzeugte R-Teilmodul hea | a ∈ AiR von RA gegeben durch
FrR (A) := hea |a ∈ AiR = {f ∈ RA | |{a ∈ A|f (a) 6= 0}| < ∞} ≤ RA .
FrR (A) heißt der freie R-Modul auf A.
Satz 1.10. Sei R ein Ring, A eine Menge. Der Modul FrR (A) := hea |a ∈ AiR ≤R RA hat
folgende Eigenschaft: F¨
ur jeden R-Modul M und jede Abbildung ψ : A → M gibt es genau einen
R-Modulhomomorphismus
ψ˜ : FrR (A) → M
mit
˜ a ) = ψ(a) f¨
ψ(e
ur alle a ∈ A.
Moduln, die isomorph zu FrR (A) sind, heißen frei auf dem Erzeugendensystem, welches (ea )a∈A
entspricht. Ein freies Erzeugendensysteme heißt auch Basis, genauer R-Modulbasis.
¨
2. HOMOMORPHIESATZE
UND DER CHINESISCHE RESTSATZ.
9
Beispiele. R R ist frei auf {1}.
Der Spaltenmodul Rn×1 ist frei auf den Einheitsspalten (e1 , . . . , en ).
Beweis. Jedes Element aus FrR (A) hat eine eindeutige Darstellung als
X
ra ea
a∈A
mit ra ∈ R und ra = 0 f¨
ur alle bis auf endlich viele a ∈ A. Daher ist
X
X
ψ˜ : FrR (A) → M :
ra ea 7→
ra ψ(a)
a∈A
a∈A
eine wohldefinierte Abbildung, von der man leicht zeigt, dass sie ein Modulhomomorphismus ist.
˜ a ) = ψ(a) f¨
Sie erf¨
ullt sicher die Bedingung ψ(e
ur alle a ∈ A und ist auch der einzige Modulhomomorphismus mit dieser Eigenschaft.
q. e. d.
¨
Ubung:
Sei R ein kommutativer Ring mit Eins. Dann gilt
EndR (Rn ) ∼
= Rn×n ,
wobei wir Rn×n durch komponentenweise Addition und u
¨bliche Multiplikation zu einem Ring
machen. Genauer: Identifiziere Rn mit Rn×1 . Dann liefert das Heranmultiplizieren von Matrizen
aus Rn×n eine eindeutige Darstellung der Endomorphismen von Rn×1 durch Matrizen. Man
setzt
GL(n, R) := (Rn×n )∗ . (Beachte, der Fall n = 1 ist schon interessant.)
(Hinweis:
e : Rn×1 → Rn×1 : X 7→ AX
A
ist f¨
ur jedes A ∈ Rn×n ein R-Modulendomorphismus und jede Matrix induziert einen anderen
Endomorphismus, da ein Endomorphismus durch die Bilder der (freien) Erzeuger e1 , . . . , en
festgelegt ist, die wie in der linearen Algebra in den Spalten der beschreibenden Matrix stehen.
Da diese Bilder beliebig vorgegeben werden k¨onnen, folgt die Behauptung, wenn man beachtet,
dass der Summe und dem Matrixprodukt gerade die Summe und die Hintereinanderausf¨
uhrung
der Endomorphismen entsprechen.)
2
2.1
Homomorphies¨
atze und der chinesische Restsatz.
Der Homomorphiesatz fu
¨ r Moduln. (V2)
Bemerkung 2.1. Sei R Ring und M ein R-Modul mit Teilmodul U ≤ M .
1.) F¨
ur m ∈ M heißt
m + U := {m + u|u ∈ U }
die Restklasse von m nach U . Die Menge
M/U := {m + U |m ∈ M }
aller Restklassen nach U in M bilden den Faktormodul M/U von M nach U verm¨
oge der
folgenden Verkn¨
upfungen:
+ : M/U × M/U → M/U : (m1 + U, m2 + U ) 7→ (m1 + m2 ) + U
10
KAPITEL 1. RINGE UND MODULN
und
· : R × M/U → M/U : (r, m + U ) 7→ rm + U.
2.) Der natu
¨ rliche Epimorphismus
ν = νU : M → M/U : m 7→ m + U
ist ein R-Modulepimorphismus mit Kern(νU ) = U .
¨
Beweis. 1.) Wir m¨
ussen zeigen, dass + und · wohldefiniert sind. + lassen wir als Ubung.
F¨
ur
· sei m + U = n + U . Wir zeigen: rm + U = rn + U . Aber m − n ∈ U , also auch r(m − n),
also rm + U = rn + U . Die R-Modulaxiome m¨
ussen verifiziert werden. Z. B. ist U = 0 + U das
¨
Nullelement von M/U . Den Rest lassen wir als Ubung.
2. ) Dies folgt direkt aus der Definition der Addition von Restklassen.
q. e. d.
Der n¨achste Schritt in der allgemeinen Modultheorie ist der Homomorphiesatz, dessen Beweis
genau so einfach ist wie bei Vektorr¨
aumen.
Satz 2.2. Sei ϕ : M → N ein R-Modulhomomorphismus. Dann faktorisiert ϕ als
ϕ=ϕ
e ◦ νKern(ϕ)
u
¨ber M/ Kern(ϕ) mit νKern(ϕ) ein R-Modulepimorphismus und den R-Modulmonomorphimus
ϕ
e : M/ Kern(ϕ) → N : m + Kern(ϕ) 7→ ϕ(m).
Bemerkung 2.3. Ist M ein endlich erzeugter R-Modul, so gibt es ein n ∈ N und einen RModulepimorphismus : Rn×1 → M . Insbesondere M ∼
= Rn×1 / Kern().
Beweis. Sei m : n → M gegeben, so dass Bild(m) ein Erzeugendensystem von M ist. Der eindeutige R-Modulhomomorphismus : Rn×1 → M mit ◦ S = m, wo S die Standardbasis von
Rn×1 ist, ist dann ein Epimorphismus.
q. e. d.
Beispiele
1) Jede abelsche Gruppe, die von zwei Elementen erzeugt wird, ist von der Form Z2 /M wobei
M ein Z-Teilmodul von Z2 ∼
= FrZ (2) ist.
2) Sei K ein K¨
orper und V ein endlich erzeugter K-Vektorraum mit ϕ ∈ EndK (V ), so dass das
Minimalpolynom und das charakteristische Polynom von ϕ beide gleich p(x) ∈ K[x] sind, so gilt
(vgl. Begleitmatrix von p(x)):
V ∼
=K[x]
2.2
K[x] K[x]/hp(x)iK[x] .
Ringe und Ideale. (V2)
Wir kommen zu dem Homomorphiesatz von Ringen. Zuerst sieht die Definition eines Ideals
etwas sonderbar aus, wird aber einsichtig, wenn man sich vorstellt, dass ein Ideal etwas ist, was
man gleich Null setzen kann, um einen neuen Ring zu bekommen.
Definition 2.4. Sei R ein Ring.
(a) I ⊆ R heißt Ideal von R, in Zeichen I E R, falls
1) a, b ∈ I und r, s ∈ R impliziert ra + bs ∈ I und
2) I 6= ∅.
(b) Sind I1 , I2 E R so heißt das kleinste Ideal I1 + I2 , welches I1 und I2 enth¨
alt, die Summe
von I1 und I2 .
¨
2. HOMOMORPHIESATZE
UND DER CHINESISCHE RESTSATZ.
11
Beispiele.
1) F¨
ur R = Z ist 3Z := h3i := {3z | z ∈ Z} ein Ideal: h3i E Z.
2) Ist K ein K¨
orper und a ∈ K, dann ist
{p(x) ∈ K[x] | p(a) = 0} = hx − ai := {p(x)(x − a) | p(x) ∈ K[x]} E K[x].
3) Ist R ein kommutativer Ring mit Eins, so sind die Ideale in R genau die R-Teilmoduln von
R R.
4) Der Durchschnitt einer Menge von Idealen ist wieder ein Ideal.
5) Ist M ⊆ R, so heißt
\
hM i :=
I
M ⊆IER
das von M erzeugte Ideal. Ist M = {a1 , . . . an } so schreibt man auch ha1 , . . . , an i statt hM i.
6) Ist R ein kommutativer Ring mit Eins, so heißt
hai := {ra | r ∈ R}
das von a ∈ R erzeugte Hauptideal: hai E R.
7) Ist ϕ : R → S ein Ringhomomorphismus, dann ist
Kern(ϕ) := {r ∈ R | ϕ(r) = 0}
ein Ideal von R:
Kern(ϕ) E R.
¨
Ubung:
Das von M erzeugte Ideal ist
n
X
hM i = {
ai mi bi | n ∈ N0 , ai , bi ∈ R, mi ∈ M }.
i=1
Benutzen Sie diese Beschreibung um zu zeigen, dass die Ideale von R = Zn×n genau die Teilmengen aR sind mit a ∈ Z.
Bei Ringen k¨
onnen wir Restklassenringe nach Idealen bilden. Der neue Punkt ist die Wohldefiniertheit der vertreterweisen Multiplikation.
Satz 2.5. Sei R ein Ring und I E R ein Ideal von R. Dann ist R/I := {r + I|r ∈ R} ein Ring
mit den vertreterweisen Verkn¨
upfungen
+ : R/I × R/I → R/I : (r + I, s + I) 7→ (r + s) + I,
· : R/I × R/I → R/I : (r + I, s + I) 7→ rs + I,
und ν = νI : R → R/I : r 7→ r + I ist ein Ringepimorphismus mit Kern I. R/I heißt Restklassenring von R nach I und ν der natu
¨ rliche Epimorphismus. (Insbesondere ist jedes Ideal
Kern eines Ringhomomorphismus.) Ist R kommutativ, so auch R/I.
Beweis. Da I ≤ R ein R-Teilmodul von R ist, ist R/I wieder ein R-Modul und wir brauchen
uns nur um die Wohldefiniertheit der Multiplikation zu k¨
ummern. Seien also r + I = r0 + I und
0
0
0
s + I = s + I f¨
ur gewisse r, r , s, s ∈ R. Dann existieren a, b ∈ I mit r0 = r + a, s0 = s + b, und
wir bekommen
r0 s0 − rs = (r + a)(s + b) − rs
= rs + rb + as + ab − rs
= rb + as + ab ∈ I
12
KAPITEL 1. RINGE UND MODULN
d. h. (r + I)(s + I) ist wohldefiniert. Die Assoziativ- und Distributivgesetze u
¨bertragen sich von
R. Dass ν ein Epimorphismus ist, ist gerade die Definition der Operationen im Restklassenring.
q. e. d.
Folgerung 2.6. (Homomorphiesatz f¨
ur Ringe) Seien R, S Ringe und ϕ : R → S ein Ringhomomorphismus. Dann ist I := Kern(ϕ) ein Ideal von R, B := Bild(ϕ) ein Teilring von S
und
ϕ : R/I → B, r + I 7→ ϕ(r)
ein wohldefinierter Ringisomorphismus.
Bemerkung 2.7. Sei M ein R-Modul. Dann ist der Annihilator von M
AnnR (M ) := {r ∈ R | rm = 0 f¨
ur alle m ∈ M }
ein Ideal von R, der Kern des Ringhomomorphismus
R → EndZ (M ), r 7→ (m 7→ rm).
Weiter ist M ein R/ AnnR (M )-Modul.
Bemerkung 2.8. Seien R und S Ringe, M ein R-Modul und N ein S-Modul. Dann ist M ⊕ N
ein R ⊕ S-Modul durch
(r, s) · (m, n) := (rm, sn) f¨
ur alle r ∈ R, s ∈ S, m ∈ M, n ∈ N.
Sei umgekehrt X ein R ⊕ S-Modul. Dann sind M := (1, 0)X und N := (0, 1)X Teilmoduln von
X so dass X = M ⊕N . Es ist AnnR⊕S (M ) ⊇ {0}⊕S und somit M ein R⊕S/{0}⊕S ∼
= R-Modul
und ebenso (R ⊕ {0})N = {0} und N ist ein S-Modul.
Die R ⊕ S-Moduln sind also genau die direkten Summen von R-Moduln und S-Moduln.
Definition 2.9. Sei R ein kommutativer Ring mit Eins. Eine R-Algebra A ist ein Ring mit
Eins (in unserem Kontext meistens kommutativ), der gleichzeitig R-Modul ist, so dass gilt
(ra)b = a(rb) = r(ab) f¨
ur alle r ∈ R, a, b ∈ A.
(D. h., die Multiplikation ist R-bilinear.) Ein R-Algebrenhomomorphismus ist ein Ringhomomorphismus, der gleichzeitig R-Modulhomomorphismus ist.
¨
Ubung:
Sei A eine R-Algebra. Dann ist R → A : r 7→ r1A ein Ringhomomorphismus, sogar ein
R-Algebrenhomomorphismus.
Beispiele.
1) C[x] ist eine C-Algebra. Sei
: C → C : a + bi 7→ a − bi
a, b ∈ R,
die komplexe Konjugation. Dann ist
C[x] → C[x] :
n
X
k=0
ak xk 7→
n
X
ak xk
k=0
ein Ringhomomorphismus, jedoch kein C-Algebrenhomomorphismus. (Man kann ihn jedoch als
R-Algebrenhomomorphismus auffassen.)
2) Ist A eine R-Algebra und I E A ein Ideal, so ist A/I eine R-Algebra und νI ein RAlgebrenhomomorphismus.
3) Jeder Ring ist eine Z-Algebra.
¨
2. HOMOMORPHIESATZE
UND DER CHINESISCHE RESTSATZ.
2.3
13
Euklidische Ringe. (V3)
Definition 2.10. Sei R ein kommutativer Ring mit Eins.
(a) R heißt Integrit¨
atsbereich oder auch nullteilerfrei, falls 1 6= 0 in R gilt und f¨
ur alle
a, b ∈ R, ab = 0 ⇒ a = 0 oder b = 0.
(b) R heißt Hauptidealbereich, falls R ein Integrit¨
atsbereich ist und jedes Ideal von R ein
Hauptideal ist.
(c) R heißt Euklidischer Bereich oder Euklidischer Ring, falls eine Abbildung ν : R −→ Z≥0
existiert mit folgenden Eigenschaften:
(i) ν(r) = 0 genau dann ,wenn r = 0
(ii) ν(r1 r2 ) = ν(r1 )ν(r2 )
(iii) f¨
ur a∈R und 0 6= b∈R existiert ein q∈R und ein r∈R , so dass a = bq + r mit ν(r) < ν(b).
Konkrete Beispiele
1) Jeder Teilring eines K¨
orpers ist ein Integrit¨atsbereich.
2) Offenbar ist jeder K¨
orper sowohl ein Hauptidealbereich als auch ein Euklidischer Ring (mit
|a| = 1 f¨
ur alle a ∈ K ∗ ).
3) Z ist Euklidischer Bereich mit dem gew¨ohnlichen Absolutbetrag:
a
a≥0
ν(a) :=
−a
a < 0.
4) Sei K ein K¨
orper. Dann ist K[x] ein Euklidischer Bereich mit einer multiplikativen Variante
des Grades:
0
a=0
ν(a) :=
Grad(a)
2
a 6= 0
Pn
ur n ∈ N, ai ∈ Z} ist ein Integrit¨atsbereich, da er
5) Z[x] := {p(x) ∈ Q[x] | p(x) = i=0 ai xi f¨
ein Teilring des K¨
orpers Q(x) = {p(x)/q(x) | p(x), q(x) ∈ Q[x], q(x) 6= 0} ist. Jedoch ist Z[x]
kein Hauptidealbereich, da z.B. (2, x) kein Hauptideal ist.
¨
Ubung:
Zeige der Ring Z[i] := Z[x]/hx2 + 1i ist Euklidischer Bereich mit ν(a + bi) := a2 + b2
f¨
ur a, b ∈ Z.
Satz 2.11. Sei R ein Integrit¨
atsbereich. Dann gibt es einen K¨
orper K, so dass R ⊆ K Teilring
von K ist und
K = {ab−1 |a ∈ R, b ∈ R − {0}}.
Dieser K¨
orper ist bis auf Isomorphie eindeutig bestimmt und heißt Quotientenk¨
orper von R.
Bezeichnung: K = Quot(R).
Man beachte: In K sind alle Elemente 6= 0 von R zu Einheiten geworden, weshalb es Sinn macht
ab−1 zu schreiben.
e = {(a, b) | a, b ∈ R, b 6= 0} und eine Aquivalenzrelation
¨
Beweis. 1) Existenz: Definiere K
≈ auf
e
K: (a, b) ≈ (c, d) genau dann, wenn ad = cb. (Zur Veranschaulichung kann man die Tupel (a, b)
e ≈ =: K bildet einen
¨
als ungek¨
urzte Br¨
uche ab betrachten.) Die Menge der Aquivalenzklassen
K/
a
Ring. Definiere nun b :=≈ - Klasse von (a, b).
Addition und Multiplikation werden folgendermaßen definiert:
a
+
b
a
·
b
c
d
c
d
:=
:=
ad + bc
bd
ac
, falls b, d 6= 0.
bd
14
KAPITEL 1. RINGE UND MODULN
Zeige, dass die Addition wohldefiniert ist: Da b, d, bd 6= 0 sind, sind die Ausdr¨
ucke auf beiden
0
a0
a
Seiten wohldefiniert. Zum Beweis der Vertreterunabh¨angigkeit sei b = b0 und dc = dc 0 . Also ist
0 0
0 c0
ab0 = ba0 und cd0 = dc0 . Behauptung: Es ist ad+bc
= a db0+b
bd
d0 . Dies gilt aber genau dann, wenn
bd(a0 d0 + b0 c0 ) = (ad + bc)b0 d0 . Nach Ausmultiplizieren erhalte: ba0 dd0 + bb0 c0 d = ab0 dd0 + bb0 cd0
dies gilt, da ja nach Voraussetzung ba0 = ab0 und cd0 = dc0 . Genauso kann man zeigen, dass die
Multiplikation auf K wohldefiniert ist.
Zeige nun, dass (K, +) eine abelsche Gruppe ist: Nullelement: 0 = a0 , a 6= 0 ( a0 = 0b f¨
ur alle
a, b ∈ R mit a, b 6= 0). Wegen des Assoziativgesetzes in R kann man o.B.d.A. die Nenner als
b
0
b+0
b
gleich ansehen, also ac + cb = a+b
at von K
c . Dann ist also c + c = c = c . Die Kommutativit¨
b
−b
folgt aus der Kommutativt¨
at von R. Negative: − c = c .
Zeige, dass (K − {0}, ·) eine abelsche Gruppe bildet: 1 6= 0 also K − {0} 6= ∅. Das Assoziativgesetz gilt, da (R, ·) f¨
ur Z¨
ahler und Nenner assoziativ ist, ebenso das Kommutativgesetz. Das
−1
a
Einselement ist 1 = a , a 6= 0, das inverse Element zu ab 6= 0 ist ab
= ab . Es bleibt noch zu
¨
zeigen, dass auch das Distributivgesetz gilt! (Ubung)
r
Die Abbildung µ : R −→ K : r → 1 ist ein Ringmonomorphismus, denn µ ist Ringhomomorphismus und aus r∈ Kern µ folgt 1r = 10 . Es gilt also: r · 1 = 0 · 1 = 0 und somit r = 0. Also
identifiziere r∈R mit 1r ∈K. (Beachte: F¨
ur r∈R und 0 6= s∈R gilt:
r
r s −1
= ·
= r · s−1
s
1
1
mit dieser Identifikation.)
2) Eindeutigkeit: Sei K 0 ein weiterer K¨orper mit R ⊆ K. Dann ist die Abbildung : K −→
0
K 0 : ab 7→ a · b−1 ein wohldefinierter Homomorphismus: Sei dazu ab = ab0 . Dann gilt: ab0 = ba0 in
R, also ab−1 = a0 b0 −1 in K 0 . Zeige noch, dass Homomorphismus ist, daraus folgt sofort: ist
Monomorphismus, also K ∼
q. e. d.
= Bild .
An dieser Stelle ist auf ein Problem hinzuweisen: Wir haben zwar eine Beschreibung der Elemente
des Quotientenk¨
orpers, mit der man Gleichheit testen kann. Man hat aber zun¨achst und im
allgemeinen keine Normalform f¨
ur die Elemente, die nat¨
urlich viel effektiver w¨are.
Beispiele 1) Quot(Z) = Q. Hier lernt man eine Normalform in der Schule kennen.
2) Sei K ein K¨
orper. Dann heißt K(x) := Quot(K[x]) der K¨orper der rationalen Funktionen
in einer Variablen.
3) Sei K ein K¨
orper. Dann heißt K(x1 , . . . , xn ) := Quot(K[x1 , . . . , xn ]) der K¨orper der rationalen Funktionen in n Variablen. Zum Beispiel ist
x31 − x32
x21 + x1 x2 + x22
=
.
x1 + x2
x21 − x22
Wir haben also Integrit¨
atsbereiche als die Teilringe von K¨orpern charakterisiert. Unter ihnen
kann man die Hauptidealbereiche als die Integrit¨atsbereiche definieren, in denen immer ein
gr¨oßter gemeinsamer Teiler existiert.
Definition 2.12. Sei R ein Integrit¨
atsbereich, a, b ∈ R.
(a) d ∈ R teilt a genau dann, wenn ein r ∈ R existiert, mit a = dr, also genau dann wenn
a ∈ hdi. Bezeichnung: d|a.
(b) a ∈ R − R∗ heißt prim, falls
a|(b1 b2 ) impliziert a|b1 oder a|b2 f¨
ur alle b1 , b2 ∈ R.
(c) Eine Zahl d ∈ R heißt gr¨
oßter gemeinsamer Teiler ggT(a, b) von a und b genau dann,
¨
2. HOMOMORPHIESATZE
UND DER CHINESISCHE RESTSATZ.
15
wenn d ein Teiler von a und ein Teiler von b ist und f¨
ur jedes c ∈ R, welches a und b teilt, auch
gilt, dass c ein Teiler von d ist.
(d) Eine Zahl v ∈ R heißt kleinstes gemeinsames Vielfaches kgV(a, b) von a und b genau
dann, wenn sie sowohl durch a als auch durch b teilbar ist und jedes w ∈ R, welches durch a
und b teilbar ist, auch durch v teilbar ist.
Satz 2.13. Sei R ein Hauptidealbereich, a, b ∈ R. Dann existieren ggT(a, b) ∈ R und kgV(a, b) ∈
R und sind eindeutig bis auf Multiplikation mit Einheiten.
Beweis. Wir betrachten das Erzeugnis hai + hbi = ha, bi E R. Da R ein Hauptidealbereich ist, ist
dieses Ideal ein Hauptideal, also gibt es ein d ∈ R mit hai + hbi = hdi. Dann gilt a ∈ hdi, also d
teilt a und ebenso d teilt b. Ist umgekehrt c ∈ R ein Teiler von a und von b, so heißt dies, dass
a ∈ hci und b ∈ hci, also
hdi = hai + hbi ⊆ hci
und somit gibt es ein r ∈ R mit d = cr.
¨
F¨
ur das kleinste gemeinsame Vielfache gilt hkgV(a, b)i = hai ∩ hbi wie Sie als Ubungsaufgabe
¨
zeigen. Die Eindeutigkeit zeigen Sie auch als Ubungsaufgabe.
q. e. d.
Bemerkung 2.14. Sei R ein Euklidischer Bereich. Dann ist R ein Hauptidealbereich.
Beweis. Wir zeigen zun¨
achst, dass R nullteilerfrei ist. Seien a, b ∈ R mit ab = 0. Dann ist
0 = ν(ab) = ν(a)ν(b) also ν(a) = 0 oder ν(b) = 0, da Z also Teilring des K¨orpers Q nullteilerfrei
ist. Somit folgt a = 0 oder b = 0.
Nun zeigen wir, dass jedes Ideal von R ein Hauptideal ist. Sei h0i =
6 I E R. W¨ahle ein a∈I − {0}
mit ν(a) minimal. (Dies ist m¨
oglich, da Z≥0 wohlgeortnet ist.)
Behauptung: I = hai. Ist n¨
amlich b∈I, dann folgt: b = aq + r mit ν(r) < ν(a) f¨
ur q, r∈R und
r∈I. Daraus folgt aber r = 0, d.h. b = aq∈hai.
q. e. d.
Man kann sagen, dass die Euklidischen Ringe besonders konstruktive Versionen der Hauptidealbereiche sind. Man hat n¨
amlich den Euklidischen Algorithmus, um den ggT und damit
auch Erzeuger von endlich erzeugten Idealen konstruktiv auszurechnen.
¨
Ubung:
Man formuliere den Euklidischen Algorithmus (inklusive der Darstellung des gr¨oßten
gemeinsamen Teilers) f¨
ur Euklidische Bereiche und zeige, wie man ihn zur Beschreibung von
endlich erzeugten Idealen als Hauptideale benutzen kann.
Beispiel.
Eine Primzahl p > 2 ist genau dann Summe von zwei Quadraten nat¨
urlicher Zahlen, wenn p ≡ 1
(mod 4) gilt.
Beweis: Beachte: Z[i] ist ein Euklidischer Ring.
1. Schritt: Definiere
n : Z[i] → Z : r = a + bi 7→ rr = (a + bi)(a − bi) = a2 + b2 .
Diese Abbildung hat folgende Eigenschaften:
Seien r, s ∈ Z[i]. 1) Sie ist multiplikativ, das heißt n(rs) = n(r)n(s).
2) n(r) = 1 genau dann, wenn r ∈ Z[i]∗ = hii.
3) Ist n(r) = p prim in Z, so ist r prim in Z[i].
16
KAPITEL 1. RINGE UND MODULN
4) Hat n(r) mehr als einen Primteiler in Z, so ist r nicht prim in Z[i]. (Ist n¨amlich p ein ZPrimteiler von n(r), so ist der ggT(p, r) in Z[i] ein echter Teiler von r.)
5) Ist r ∈ Z[i] prim und n(r) nicht prim in Z, so gilt n(r) = p2 f¨
ur eine Primzahl p in Z. (Klar:
a
a
n(r) = p f¨
ur eine Primzahl p. Zerlege beide Seiten von rr = p in Primfaktoren in Z[i]. Da mit
r offenbar auch r prim ist, kommt nur a = 1 oder a = 2 in Frage.)
2. Schritt: Eine Primzahl p > 2 ist genau dann prim in Z[i], wenn p ≡ 3 (mod 4) gilt.
¨
p ist prim in Z[i] genau dann, wenn Z[i]/hpi Integrit¨atsbereich ist (Ubung).
Aber Z[i]/hpi ∼
=
2
2
∼
Z[x]/hp, x + 1i = Fp [x]/hx + 1i. D. h. p ist prim in Z[i] genau dann, wenn x2 + 1 ∈ Fp [x]
irreduzibel ist. Wir werden sehen, dass (F∗p , ·) ∼
= (Z/(p − 1)Z, +), d. h. Fp enh¨alt keine Wurzel
von x2 +1 genau dann, wenn F∗p kein Element der Ordnung 4 enth¨alt, genau dann, wenn 4 6 | p−1.
3. Schritt: p = a2 + b2 mit a, b ∈ N ist ¨aquivalent zu p = (a + bi)(a − bi), d. h. p nicht prim in
Z[i]. Nach Schritt 2 ist dies aber ¨
aquivalent zu p ≡ 1 (mod 4).
¨
Ubung:
Charakterisiere alle nat¨
urlichen Zahlen, die Summe von zwei Quadraten nat¨
urlicher
Zahlen sind und z¨
ahle die Anzahl der Darstellungen. (Hinweis: Primfaktorzerlegung in Z[i].
Operation der Einheitengruppe beachten.)
2.4
Der chinesische Restsatz. (V4)
Wenn nicht anders angeku
¨ ndigt, bedeutet Ring ein kommutativer Ring mit Eins.
Satz 2.15. (Chinesischer Restsatz) Sei R ein Ring und I1 , . . . , In paarweise teilerfremde
Ideale von R, d. h. Ii E R und Ii + Ij = R f¨
ur i, j = 1, . . . , n mit i 6= j. Dann gilt:
R/
r+
n
\
i=1
n
\
∼
Ii −
→ R/I1 ⊕ R/I2 ⊕ . . . ⊕ R/In
Ii
7→
(r + I1 , r + I2 , . . . , r + In )
i=1
ist ein Isomorphismus.
Bei Anwendungen will man h¨
aufig den zu dem obigen Isomorphismus inversen Isomorphismus
ausrechnen. Man nennt den Satz auch den Hauptsatz u
¨ber das L¨osen von simultanen Kongruenzen. Dies ist wie folgt zu verstehen: F¨
ur I E R schreibt man f¨
ur Elemente r, s ∈ R statt
r+I = s+I auch schon mal r ≡ s (mod I). Der obige Satz sagt also: F¨
ur beliebige r1 , . . . , rn ∈ R
gibt es ein x ∈ R mit
x ≡ ri (mod Ii )
f¨
ur alle i = 1, . . . n
Tn
und die L¨osungen sind eindeutig (mod i=1 Ii ).
Beweis. Der Fall n = 2 ist klar: Der offensichtliche Homomorphismus
R → R/I1 ⊕ R/I2 : r 7→ (r + I1 , r + I2 )
hat Kern I1 ∩ I2 und ist wegen I1 + I2 = R surjektiv. Die Behauptung folgt aus dem Homomorphiesatz.
¨
Der allgemeine Beweis erfolgt nun durch Induktion, die wir als Ubung
lassen. Der wesentliche
Schritt steckt schon im Fall n = 3:
Behauptung: I1 + (I2 ∩ I3 ) = R. Zum Beweis beachte: Es existieren e1 , e01 ∈ I1 , e2 ∈ I2 , e3 ∈ I3
mit
1 = e1 + e2 = e01 + e3 , also 1 = 1 · 1 = e1 e01 + e1 e3 + e2 e01 + e2 e3 .
|{z}
|
{z
}
=:e11 ∈I1
=:e12 ∈I2 ∩I3
¨
2. HOMOMORPHIESATZE
UND DER CHINESISCHE RESTSATZ.
17
Damit ist klar: R = Re11 R + Re12 R ⊆ I1 + (I2 ∩ I3 ). Wir wenden den Fall n = 2 nun zweimal
an:
R/(I1 ∩ I2 ∩ I3 ) ∼
= R/I1 ⊕ R/(I2 ∩ I3 ) ∼
= R/I1 ⊕ R/I2 ⊕ R/I3
mit den entsprechenden Isomorphismen.
q. e. d.
Beispiel. Durch Kombination der Neunerprobe mittels Quersumme (mod 9), der Zehnerprobe
mittels letzter Stelle (mod 10) und der Elferprobe verm¨oge der alternierenden Quersumme
(mod 11) kann man Rechnungen mit ganzen Zahlen, die nur Multiplikationen und Additionen
involvieren (mod 990) u
ufen.
¨berpr¨
Sei s := 124, t := 351. Wir wollen (s + t)t = 166275 verifizieren. Mod 10 ist diese Rechnung
richtig (letzte Ziffer stimmt).
Sei q die Quersumme und qa die alternierende Quersumme.
¨
Dann gilt f¨
ur jedes n ∈ N: n ≡ q(n) (mod 9) und n ≡ qa(n) (mod 11) (Ubung
f¨
ur alle Lehramtsstudierenden !!)
Modulo 9: q(s) = 7, q(t) = 0 also auch q((s + t)t) = 0 auch das stimmt.
Mod 11: qa(s) = 3, qa(t) = −1, also qa((s + t)t) = −2. Es ist aber qa(166275) = 5 − 7 + 2 − 6 +
6 − 1 = −1 also ist an der Rechnung etwas falsch. Die richtige Antwort ist (s + t)t = 166725 mit
qa(166725) = 5 − 2 + 7 − 6 + 6 − 1 = 9 ≡ −2 (mod 11).
Der Chinesische Restsatz 2.15 kann f¨
ur Euklidische Ringe wie folgt formuliert und auch bewiesen
werden:
Satz 2.16. (Chinesischer Restsatz fu
¨ r Euklidische Ringe) Sei R ein Euklidischer Ring
und a1 , . . . , an paarweise teilerfremde Elemente von R, d. h. ggT(ai , aj ) = 1 f¨
ur i, j = 1, . . . , n
mit i 6= j. Dann gilt:
n
\
(ai )
i=1
n
Y
ϕ : R/(
=
(
n
Y
ai )
i=1
∼
ai ) −
→ R/(a1 ) ⊕ R/(a2 ) ⊕ . . . ⊕ R/(an )
i=1
r+(
n
Y
ai )
7→
(r + (a1 ), r + (a2 ), . . . , r + (an ))
i=1
ist ein Isomorphismus dessen Umkehrabbildung mit dem Euklidischen Algorithmus berechnet
werden kann.
Qn
n
Beweis.
Da
(a
)+(a
)
=
(1)
gilt
f¨
u
r
alle
i
=
6
j
ist
kgV(a
,
.
.
.
,
a
)
=
i
j
1
n
i=1 ai und somit ∩i=1 (ai ) =
Qn
( i=1 ai ). Es gen¨
ugt also den Algorithmus anzugeben. Ein allgemeines Element von R/(a
Q 1) ⊕
R/(a2 ) ⊕ . . . ⊕ R/(an ) ist von der Form X := (r1 + (a1 ), . . . , rn + (an )). Setze A := ( ni=1 ai ).
Gesucht ist ein r ∈QR mit r + (ai ) = ri + (ai ) f¨
ur alle i = 1, . . . , n, also ϕ(r + A) = X.
Dazu setze Bi := j6=i aj . Da ggT(ai , aj ) = 1 f¨
ur alle i 6= j gilt, folgt auch ggT(ai , Bi ) = 1, es
gibt also xi , yi ∈ R mit
1 = xi ai + yi Bi .
Setze ei := yi Bi . Dann ist
ei + (aj ) = 0 f¨
ur alle i 6= j und ei + (ai ) = 1
18
KAPITEL 1. RINGE UND MODULN
also ϕ(ei +A) = (0, . . . , 0, 1, 0, . . . , 0) mit 1 an der i-ten Stelle. Da ϕ ein R-Algebrenhomomorphismus
ist, ergibt sich
n
X
ϕ−1 (X) =
ri ei + A.
i=1
Beispiel. Wir wollen das simultane Kongruenzensystem
x ≡ 1
(mod 3)
x ≡ 2
(mod 4)
x ≡ 3
(mod 5)
l¨osen. Wir haben den Isomorphismus
∼
ϕ : Z/h60i −
→ Z/h3i ⊕ Z/h4i ⊕ Z/h5i
und haben das Problem gel¨
ost, wenn wir
e1 + h60i := ϕ−1 ((1, 0, 0)),
e2 + h60i := ϕ−1 ((0, 1, 0)),
e3 + h60i := ϕ−1 ((0, 0, 1))
kennen, denn die L¨
osungsmenge ist dann e1 + 2e2 + 3e3 + h60i. Mit Hilfe des Euklidischen
Algorithmus f¨
ur 3 und 4 · 5 etc. bekommen wir dann e1 etc. :
1 = 7 · 3 + (−20),
also
e1 = −20,
1 = 4 · 4 + (−15),
also
e2 = −15,
1 = 5 · 5 + (−2) · 12,
also
e3 = −24.
Also x ∈ −122 + h60i = −2 + h60i.
Beispiel (Lagrangeinterpolation)
Sei K ein K¨orper und p(x) ∈ K[x]. Klar: F¨
ur a ∈ K gilt
p(a) = 0 genau dann, wenn p(x) ∈ hx − ai E K[x],
wie man durch Entwickeln nach Potenzen von x − a sieht. Dies liefert auch
p(x) ≡ p(a)
(mod hx − ai).
Sind nun a1 , . . . , an ∈ K paarweise verschiedene Elemente, so sind die Ideale hx − ai i paarweise
teilerfremd und der Chinesische Restsatz liefert
n
n
Y
M
∼
K[x]/h (x − ai )i =
K[x]/hx − ai i .
{z
}
|
i=1
i=1
∼
=K
Q
Die Restklassen der Elemente e˜i (x) := j6=i (x − aj ) ∈ K[x] liefern auf
Q der rechten Seite Tupel,
deren Komponenten alle Null sind, außer der i-ten, welche gleich j6=i (ai − aj ) = e˜i (ai ) ist.
¨
2. HOMOMORPHIESATZE
UND DER CHINESISCHE RESTSATZ.
19
Hieraus ergibt sich sofort die Lagrangesche Interpolationsformel: Eine Abbildung f : K → K
wird interpoliert an den St¨
utzstellen ai durch das Polynom (vom Grad < n):
n
X
f (ai )
e˜i (x).
e˜i (ai )
i=1
Wenn man im Falle K = R auch noch Ableitungen an den Stellen ai vorgeben will, muss man
mit h(x − ai )k i E K[x] arbeiten statt mit hx − ai i und kommt zur Hermiteinterpolation.
Die ringdirekten Summen enthalten etwas suspekte Elemente, die sich aber oben schon als sehr
n¨
utzlich erwiesen haben.
Definition 2.17. Sei R ein Ring (kmE) und a ∈ R mit a 6= 0. Man nennt a einen Nullteiler,
wenn ein b ∈ R existiert mit b 6= 0 und ab = 0. Weiter heißt a nilpotent, falls ein n ∈ N
existiert mit an = 0.
Klar, nilpotente Elemente sind Nullteiler, aber oben haben wir schon Nullteiler gesehen, die
nicht nilpotent sind.
Beispiele.
1) Seien n, k ∈ Z beide gr¨
oßer als 1. Dann ist n + hnk i ∈ Z/hnk i nilpotent.
2) (Wurzel ziehen). Aus dem Chinesischen Restsatz bekommen wir
∼
π1 ⊕ π2 : R[x]/hx2 − 2i −
→
R
|{z}
√
∼
2i
=R[x]/hx−
2
x := x + hx − 2i
7→
√
⊕
R
|{z}
:
√
∼
=R[x]/hx+ 2i
√
( 2, − 2) = (π1 (x), π2 (x)).
Wir wollen auf der rechten Seite rechnen, k¨onnen aber nur√auf der linken Seite Nullteiler erkennen. Unser Ziel ist eine numerische Approximation
von
√
√ 2 zu bestimmen. Klar: Die einzigen
Nullteiler der Form a + x mit a ∈ R sind 2 + x und − 2 + x. Die Idee ist nun so: Sei b ∈ Q so
gew¨ahlt, dass a := x − b auf der rechten Seite einem (a1 , a2 ) entspricht mit |a1 | < 1 und |a2 | > 1.
(Betragstriche markieren Absolutbetr¨
age.) Es ist a2 = 2 − 2bx + b2 . Dann ist |a21 | < |a1 | < 1, und
2
π1 (a /(−2b)) √
hat einen noch kleineren Absolutbetrag, so dass (b2 + 2)/(2b) eine noch bessere
N¨aherung an 2 ist als b. Durch fortgesetztes Quadrieren verdoppelt sich immer die Anzahl der
signifikanten Dezimalstellen, wir haben quadratische
Konvergenz. F¨angt man also mit b = 1 an,
√
so erh¨alt man die folgende Folge die gegen 2 konvergiert:
3 17
577
665857
1, ,
= 1.416666667,
= 1.414215686,
= 1.414213562, ...
2 12
408
470832
¨
Ubung:
Vergleiche obige Methode des Wurzelziehens mit dem Newtonverfahren aus der Numerik.
2.5
Der chinesische Restsatz und die Hauptraumzerlegung.
Ein Satz der Linearen Algebra I erinnert stark an den chinesischen Restsatz. Sei dazu K ein
K¨orper, V ein e.e. K-Vektorraum und α ∈ End(V) mit Minimalpolynom
µα = pn1 1 · · · pnk k
wobei die pi paarweise verschiedene irreduzible Polynome in K[x] sind und ni ∈ N.
20
KAPITEL 1. RINGE UND MODULN
Satz 2.18. (Hauptraumzerlegung, aus LA I) Unter den obigen Voraussetzungen l¨
aßt sich V
eindeutig schreiben als direkte Summe α-invarianter Teilr¨
aume Ui :
V=
k
M
Ui ,
i=1
so dass das Minimalpolynom der Einschr¨
ankung von α auf Ui genau pni i ist.
Q
n
Setzt man qi := j6=i pj j so ist Ui = Bild(qi (α)).
Bemerkung 2.19. (a) Das Minimalpolynom von α war definiert als normierter Erzeuger des
Kerns des Einsetzungshomomorphismus
α : K[x] → End(V), p 7→ p(α)
Kern(α ) = (µα ), Bild(α ) = K[α].
Also ist nach dem Homomorphiesatz f¨
ur Ringe K[x]/hµα i ∼
= K[α].
(b) Setzt man R := K[x]/(µα ) so wird V ein R-Modul durch
(p + hµα i)V := α (p)(V ) = p(α)(V ).
(c) Die Struktur von R bekommen wir aus dem Chinesischen Restsatz:
n
n
R∼
= K[x]/hpn1 1 · · · pk k i ∼
= K[x]/hpn1 1 i ⊕ K[x]/hpn2 2 i ⊕ . . . ⊕ K[x]/hpk k i
und Urbilder der Idempotente πi = (0, . . . , 0, 1, 0, . . . , 0) (mit 1 an der i-ten Stelle) mit dem
Algorithmus in 2.16, indem wir f¨
ur alle i mit dem Euklidischen Algorithmus 1 = xi pni i + yi qi
schreiben als ei = α (yi qi ) ∈ K[α]. Beachten Sie, dass das Bild von ei gleich dem von qi (α) ist.
(d) Also ist V ein Modul f¨
ur die direkte Summe K[x]/hpn1 1 i ⊕ K[x]/hpn2 2 i ⊕ . . . ⊕ K[x]/hpnk k i
3
Elementare Teilbarkeitstheorie fu
¨ r Ringe. (V5)
Definition 3.1. Sei R Ring (kmE) und a, b ∈ R.
1) a teilt b (in R) oder b ist ein Vielfaches von a, in Zeichen a | b, falls ein r ∈ R existiert
mit ar = b.
2) a ist assoziiert zu b (in R), in Zeichen a ∼ b, falls a | b und b | a.
Klar: Die Vielfachen von a bilden gerade das Hauptideal hai. Teilen ist eine transitive Relation
¨
auf R. Weiter: ∼ ist eine Aquivalenzrelation
auf R. Auch klar: Seien a, b ∈ R. Falls ein e ∈ R∗
existiert mit a = eb, dann gilt a ∼ b. Wenn wir versuchen die Umkehrung zu beweisen stoßen wir
auf eine kleine Schwierigkeit. Diese verschwindet, wenn wir verlangen, dass R keine Nullteiler
hat.
Bemerkung 3.2. In einem Integrit¨
atsbereich sind die Assoziertenklassen der Elemente gegeben
∗
¨
durch R a mit a ∈ R. Assoziiertheit ist also genau die Aquivalenzrelation
die durch die Operation
der Einheitengruppe auf R (durch Multiplikation) definiert ist.
¨ RINGE. (V5)
3. ELEMENTARE TEILBARKEITSTHEORIE FUR
21
Beweis. Es ist klar, dass jedes Element der Form ua mit u ∈ R∗ zu a = u−1 a assoziiert ist. Sei
nun b ∈ R mit b | a und a | b. Dann gibt es r, s ∈ R mit a = br und b = as.
Ist a = 0, so ist b = as = 0 ∈ R∗ a. Sei also a 6= 0.
Wir wollen zeigen, dass r und s Einheiten sind, sogar r = s−1 also rs = 1.
Denn es ist a = br = asr also a(1 − sr) = 0. Da a 6= 0 und R nullteilerfrei, folgt jetzt 1 − sr = 0
also sr = 1.
q. e. d.
Bemerkung 3.3. Ist R ein Integrit¨
atsbereich, so ist der Polynomring R[x1 , . . . , xn ] auch ein
Integrit¨
atsbereich. Zum Beweis definieren wir den Grad eines Polynoms
X
p = p(x1 , . . . , xn ) =
ai1 ...in xi11 · · · xinn ∈ R[x1 , . . . , xn ], p 6= 0
als
Grad p := max{i1 + · · · + in |ai1 ...in 6= 0}.
F¨
ur p, q ∈ R[x1 , . . . , xn ] mit p 6= 0 6= q gilt offenbar
Grad pq = Grad(p) + Grad(q),
woraus man leicht sieht, dass man keine Nullteiler hat.
Unsere n¨achste Frage lautet: Welche Restklassenringe sind Integrit¨atsbereiche ?
Definition 3.4. Sei R ein Ring (kmE).
(a) Ein Ideal I E R mit I 6= R heißt Primideal, falls f¨
ur alle r, s ∈ R gilt:
r, s 6∈ I impliziert rs 6∈ I.
(b) Ein Ideal I heißt maximales Ideal, falls I 6= R und f¨
ur jedes Ideal J von R, welches I
enth¨
alt gilt J = I oder J = R.
Bemerkung 3.5. Sei R Ring (kmE) und I E R.
(a) R/I ist genau dann Integrit¨
atsbereich, wenn I Primideal ist.
(b) R/I ist genau dann ein K¨
orper, wenn I ein maximales Ideal ist.
Beweis. (a) R/I ist Integrit¨
atsbereich, genau dann wenn f¨
ur alle r, s ∈ R mit (r+I)(s+I) = 0 gilt,
dass entweder r+I = 0 ist oder s+I = 0, also entweder r ∈ I oder s ∈ I. Da (r+I)(s+I) = rs+I
ist dies gleichbedeutend mit rs ∈ I ⇔ r ∈ I oder s ∈ I, also damit dass I ein Primideal ist.
(b) R/I ist ein K¨
orper, genau dann wenn jedes r + I ∈ R/I \ 0 + I ein multiplikativ Inverses
hat. Sei also r ∈ R \ I. Dann ist hr, Ii = hri + I ein Ideal von R, welches I echt enth¨alt. Ist
I ein maximales Ideal, so ist hri + I = R und es gibt a ∈ R, i ∈ I mit ar + i = 1. Dann ist
(a + I)(r + I) = 1 + I und (a + I) ein multiplikatives Inverses von r + I. Die Umkehrung geht
genauso.
q. e. d.
Beispiele
1) Sei R Integrit¨
atsbereich. hyi E R[x, y] ist Primideal, da R[x, y]/hyi ∼
= R[x] Integrit¨atsbereich.
2) R ein Ring (kmE), I E R maximal, dann ist I prim.
3) Sei ein R Ring (kmE). Genau dann ist {0} Primideal, wenn R Integrit¨atsbereich ist.
Nun kommen wir zur Teilbarkeitstheorie in Integrit¨atsbereichen. Es wird ganz elementar in dem
Sinne, dass wir wieder mehr von Elementen als von Idealen sprechen. Zuerst eine Ern¨
uchterung: Die Begriffe “prim” und “unzerlegbar” f¨
ur Elemente in einem Integrit¨atsbereich fallen im
allgemeinen auseinander:
22
KAPITEL 1. RINGE UND MODULN
Definition 3.6. Sei R ein Integrit¨
atsbereich.
∗
1) Ein Element 0 6= a∈R − R heißt irreduzibel oder unzerlegbar, falls jede Faktorisierung
von a in R trivial ist, das heißt, falls gilt:
a = a1 a2 f¨
ur ai ∈R impliziert a1 ∈ R∗ oder a2 ∈ R∗ .
2) Ein Element 0 6= a ∈ R − R∗ heißt prim, falls
a|(b1 b2 ) impliziert a|b1 oder a|b2 f¨
ur alle bi ∈ R.
Beispiele 1) In R = Z ist 2 prim und irreduzibel.
2) Sei K ein Integrit¨
atsbereich und R = K[x]. Dann ist x prim (vom Grad 1) und unzerlegbar.
(Falls x|(a(x)b(x)) und x 6 | a(x), so folgt: a(0) 6= 0, also b(0) = 0 und x|b(x).)
Bemerkung 3.7. 1) Ist a prim, so ist a auch unzerlegbar.
2) a ist prim genau dann, wenn hai E R ein Primideal 6= 0 ist.
Beweis. 1) Sei a prim und a = a1 a2 mit ai ∈R − R∗ . Dann gilt: a|a1 a2 und a 6 |a1 (sonst w¨are
a2 ∈R∗ ) und a 6 |a2 (sonst w¨
are a1 ∈R∗ ). Dies ist aber ein Widerspruch zu der Voraussetzung : a
prim.
2) Sei a ∈ R prim. Dann ist hai =
6 0. Weiter gilt f¨
ur r, s ∈ R:
rs ∈ hai ⇔ a | rs ⇔ a | r oder a | s ⇔ r ∈ hai oder s ∈ hai.
Die Umkehrung folgt ebenso.
q. e. d.
Beispiel. Es
die nicht
√ gibt unzerlegbare Elemente,
√
√ prim sind:
Sei R = Z[ −5]. Es gilt: 3 · 2 = (1 + −5)(1 − −5). Das Element 3 ist in R unzerlegbar, aber
nicht prim.
An dieser Stelle sei angemerkt, dass Dedekind, der sicher als einer der Urv¨ater der modernen Algebra einzusch¨
atzen ist, wegen der schlechten Eigenschaften des Teilbarkeitsbegriffes f¨
ur
Elemente, den Idealbegriff erfunden hat, um in bestimmten Situationen der Zahlentheorie doch
noch zu einer befriedigenden Teilbarkeitstheorie, diesmal aber f¨
ur Ideale (sprich ideale Zahlen) zu
kommen. Im obigen Beispiel kann man n¨amlich alle vier Zahlen als Ideale noch weiter zerlegen:
√
√
h3i = h3, 1 + −5ih3, 1 − −5i
√
√
h2i = h2, 1 + −5ih2, 1 − −5i
√
√
√
h1 + −5i = h3, 1 + −5ih2, 1 + −5i
√
√
√
h1 − −5i = h3, 1 − −5ih2, 1 − −5i
Satz 3.8. Ist R Hauptidealbereich, so ist jedes unzerlegbare Element prim.
Beweis. Sei a∈R − R∗ unzerlegbar. Offenbar ist a genau dann prim, wenn hai ein Primideal ist.
Wir k¨onnen sogar zeigen, dass hai ein maximales Ideal ist, denn sei hai ⊆ I E R 6= I. Da R
Hauptidealbereich ist, folgt I = hdi f¨
ur ein d∈R − R∗ . Somit a∈Rd, also a = dd0 f¨
ur ein d0 ∈R.
0
∗
∗
Das bedeutet d ∈R , denn a ist unzerlegbar und d 6∈ R . Da a ∼ d ist, haben wir I = hai. q. e.
d.
¨
Ubung:
Sei R Hauptidealbereich und a, b ∈ R − {0}. Zeige hai + hbi = ha, bi = (ggT(a, b)i und
hai ∩ hbi = hkgV(a, b)i und schließlich haihbi = habi.
¨
4. MODULN UBER
HAUPTIDEALBEREICHEN.
23
Folgerung 3.9. Ist R ein Hauptidealbereich, so ist jedes Primideal, das ungleich dem 0-Ideal
ist, ein maximales Ideal.
Satz 3.10. Sei R ein Hauptidealbereich, 0 6= a ∈ R keine Einheit. Dann gibt es im wesentlichen
eindeutige Primelemente a1 , . . . , an ∈ R mit a = a1 · · · an . Die Eindeutigkeit bedeutet: Falls
a = a1 · · · an = b1 · · · bm mit ai , bj ∈ R unzerlegbar, so folgt n = m und nach Umnumerierung
ai ∼ bi f¨
ur i = 1, . . . , n.
Beweis. Wir k¨
onnen zun¨
achst genauso vorgehen wie f¨
ur R = Z: Ist a irreduzibel, so ist a schon
prim und wir sind fertig. Ist a nicht irreduzibel, so k¨onnen wir a = bc schreiben mit b, c ∈ R \ R∗
und dann mit b und c weitermachen. Wieso h¨ort dieser Prozess auf? Falls nicht, so konstruiert
man eine Folge von echten Teilern . . . bi+1 | bi | . . . | b1 = b | a, so dass
hai ( hb1 i ( hb2 i . . .
S
Sei I := i∈N hbi i. Da die Ideale hbi i eine Kette bilden, ist I ein Ideal
S von R. Nun ist R ein
Hauptidealbereich also gibt es ein d ∈ R mit I = hdi. Da d ∈ I = i∈N hbi i existiert also ein
i ∈ N mit d ∈ hbi i. Aber dann ist hbj i = hbi i = I f¨
ur alle j ≥ i ein Widerspruch dazu, dass bi+1
ein echter Teiler von bi ist.
Die Eindeutigkeit zeigt man genauso wie f¨
ur Z: Sei a = a1 · · · an = b1 · · · bm mit ai , bj ∈ R
unzerlegbar. Dann ist a1 prim, a1 | a = b1 · · · bm , also gibt es ein i mit a1 | bi . Da bi irreduzibel
ist, gilt also a1 ∼ bi , usw. mit Induktion u
q. e. d.
¨ber die Anzahl m von Faktoren.
Beispiele. 1) Z[x] ist kein Hauptidealbereich, denn das Primideal hxi ist kein maximales Ideal.
2) K[x, y] (K sei ein K¨
orper) ist ebenfalls kein Hauptidealbereich.
3) In Z ist ein Hauptidealbereich die Primzahlen sind bis auf Multiplikation mit Einheiten (±1)
die unzerlegbaren Elemente von Z. Die Fp := Z/hpi f¨
ur Primzahlen p sind die einzigen Restklassenk¨orper von Z.
4) F¨
ur jeden K¨
orper K ist K[x] ein Hauptidealbereich. Die irreduziblen Polynome in K[x] sind
gleich den Primelementen in K[x] und den unzerlegbaren Elementen in K[x]. Die Restklassenk¨orper von K[x] sind alle von der Form K[x]/hp(x)i, wo p(x) ∈ K[x] irreduzibel ist.
4
4.1
Moduln u
¨ ber Hauptidealbereichen.
Der Struktursatz. (V6) und (V7)
Endlich erzeugte Moduln u
¨ber Hauptidealbereichen haben eine sehr sch¨one Struktur. Um algorithmisch einen Modul auf Normalform zu bringen ben¨otigt man den Euklidischen Algorithmus,
die “algorithmisch zug¨
anglichen” HIB sind also die Euklidischen Ringe.
Definition 4.1. Sei R ein Integrit¨
atsbereich und M ein R-Modul. m ∈ M heißt Torsionselement, falls das Annullatorideal
AnnR (m) := {r ∈ R | rm = 0}
von h0i verschieden ist. Der Torsionsteilmodul, also der Teilmodul aller Torsionselemente von
M , wird mit T (M ) bezeichnet. M heißt torsionsfrei, falls T (M ) = {0} und ein Torsionsmodul, falls T (M ) = M .
Man konkretisiert sich die Begriffe mit Hilfe der folgenden Beispiele, wobei man R = Z und
R = K[x] betrachte.
24
KAPITEL 1. RINGE UND MODULN
Beispiele Sei R ein Hauptidealbereich mit K := Quot(R) 6= R.
1) K ist ein nicht endlich erzeugter, torsionsfreier R-Modul. (sp¨ater)
2) K/R ist ein nicht endlich erzeugter R-Torsionsmodul. (Zu kompliziert f¨
ur uns.)
3) Jeder freie R-Modul ist torsionsfrei, insbesondere R R = R selbst.
¨
4) Ist M beliebiger R-Modul, so ist M/T (M ) torsionsfrei (Ubung).
5) Jeder zyklische Modul (von einem Element erzeugt), ist entweder isomorph zu R R ≡ R oder
zu R R/Ra ≡ R/hai f¨
ur ein a ∈ R − {0}. Im letzteren Fall haben wir einen Torsionsmodul. (Obwohl R R/Ra und R/hai als abelsche Gruppen identisch sind und auch als R-Moduln, wenn man
die R-Modulstruktur auf R/hai wie erwartet definiert, wollen wir doch im Kontext von Moduln
lieber die erste und im Kontext von Restklassenringen die zweite Notation benutzen; also, da
AnnR (R R/Ra) := ∩x∈R R/Ra AnnR (x) k¨
onnen wir den R-Modul R R/Ra auch als R/hai-Modul
auffassen. Als letzter ist er sogar frei.)
6) Endliche direkte Summen der Moduln aus 5) sind typische endlich erzeugte R-Moduln. Scheinbar allgemeiner sind die folgenden:
7) Faktormoduln von Rn×1 (freier Modul auf n Erzeugern) nach Teilmoduln.
Unser Ziel wird sein, zu zeigen, dass die Moduln aus 7) nicht allgemeiner sind als die Moduln
aus 6). Hier zwei kleine Schritte in diese Richtung.
Lemma 4.2. Sei R Integrit¨
atsbereich und (e1 = (1, 0, . . . , 0)tr , e2 , . . . , en ) die Standardbasis
n×1
von R
, also freies Erzeugendensystem des freien R-Moduls FrR (n) ≡ Rn×1 . Sei k ≤ n und
d1 , . . . , dk ∈ R − {0}. Dann gilt
R
n×1
/hd1 e1 , . . . , dk ek iR = (
∼
=
n
M
Rei )/(
i=1
k
M
k
M
Rei /Rdi ei ⊕
i=1
∼
=
Rdi ei )
i=1
n
M
Rei
i=k+1
k
M
R R/Rdi
⊕ R(n−k)×1 .
i=1
Falls in dieser Situation noch zus¨
atzlich di teilt di+1 f¨
ur i = 1, . . . , k − 1 gilt, so nennt man
(e1 , . . . , en ) und (d1 e1 , . . . , dk ek ) kompatible Basen, genauer ein Paar kompatibler Basen.
(Den Begriff Basis benutzen wir als Synonym f¨
ur freies Erzeugendensystem.)
¨
Hinweis: Bestimme den offensichtlichen Epimorphismus
Beweis. Ubung.
Rn×1 →
k
M
R R/Rdi
⊕ R(n−k)×1
i=1
und wende den Homomorphiesatz f¨
ur Moduln an. Beachte:
Rk×1 →
k
M
Rdi ei : (a1 , . . . , ak )tr 7→ (a1 d1 , . . . , ak dk , 0, . . . , 0)tr
i=1
ist ein R-Modulisomorphismus.
q. e. d.
Bislang wissen wir nicht einmal, dass Teilmoduln freier endlich erzeugter Moduln u
¨ber Hauptidealbereichen frei sind, geschweige denn, ob kompatible Basen existieren. Hier ein erstes Indiz.
¨
4. MODULN UBER
HAUPTIDEALBEREICHEN.
25
Lemma 4.3. Sei R ein Hauptidealbereich und M ∼
= Rn×1 ein freier R-Modul von Rang n. Dann
ist jeder R-Teilmodul von M endlich erzeugter freier R-Modul auf k ≤ n freien Erzeugern.
uhren den Beweis durch Induktion u
ur n = 1 ist die Sache klar, da
Beweis. Wir f¨
¨ber n. F¨
Teilmoduln von R R Ideale von R sind, also Hauptideale. Sei nun T ≤R M und (e1 , . . . , en ) die
Standard-R-Basis von M . Zu der Zerlegung
M = Re1 ⊕ he2 , . . . , en iR
geh¨ort die Projektion π : M → Re1 . Dann ist π(T ) ≤ Re1 . Im Falle π(T ) = {0} greift die
Induktionsvoraussetzung sofort. Sonst ist π(T ) = Rde1 f¨
ur ein d ∈ R − {0}. Beachte, π(T ) ist
frei auf de1 . W¨
ahle t ∈ T mit π(t) = de1 . Dann definiert
ι : Rde1 → T : de1 7→ t
¨
einen R-Modulhomomorphismus und es gilt (Ubung)
T = Rt ⊕ Kern π|T .
Wegen Kern π|T ≤ he2 , . . . , en iR k¨
onnen wir die Induktionsvoraussetzung benutzen und bekommen unsere Behauptung.
q. e. d.
Wir wollen jetzt die Existenz kompatibler Basen beweisen, indem wir sowohl beim Teilmodul
Rk×1 als auch bei Rn×1 Basistransformationen vornehmen.
Bemerkung 4.4. Sei R ein Hauptidealbereich.
1) Die Beschreibung von Homomorphismen von freien R-Moduln in freie R-Moduln (alle endlich erzeugt) geschieht wie bei Vektorr¨
aumen durch Matrizen bez¨
uglich Basen. (Alle relevanten
Formeln aus der linearen Algebra bleiben g¨
ultig.)
2) Automorphismen von freien R-Moduln (vom Rang n) und Basistransformationen werden beschrieben durch Matrizen aus
(Rn×n )∗ = GL(n, R) = {g ∈ Rn×n | det(g) ∈ R∗ }.
3) F¨
ur a, b ∈ R − {0} mit ggT(a, b) = d gibt es s, t ∈ R mit sa + tb = d, so dass
s
t
a
d
U(a,b) :=
∈ GL(2, R) mit U(a,b)
=
b
0
− db ad
gilt.
Satz 4.5. Sei R Hauptidealbereich und C ∈ Rk×n . Dann existieren Matrizen A ∈ GL(k, R) und
B ∈ GL(n, R), so dass
Diag(d1 , . . . , dl ) 0
ACB =
0
0
mit di ∈ R − {0}, l ≤ min(k, n) und di | di+1 f¨
ur i = 1, . . . , l − 1. Die Matrix ACB nennt man
die Smith-Form von C.
Beweis. Setze C1 := C. Wir f¨
uhren reversible Zeilenoperationen durch, und erhalten C2 :=
A1 C1 , C3 := A2 C2 , . . . , Cr := Ar−1 Cr−1 , so dass die erste Spalte von Cr gleich (d, 0, . . . , 0)tr .
Dabei sind die Ai Permutationsmatrizen oder von der Form Diag(U(a,b) , Ik−2 ), wenn die obersten
26
KAPITEL 1. RINGE UND MODULN
zwei Eintr¨age a, b der jeweils ersten Spalte von Ci von Null verschieden sind. Beachte, d ist der
gr¨osste gemeinsame Teiler der Eintr¨
age der ersten Spalte von C.
Danach f¨
uhren wir reversible Spaltenoperationen durch und erhalten
Cr+1 := Cr B1 , . . . , Cr+s := Cr+s−1 Bs , so dass die erste Zeile von Cr+s gleich (d0 , 0, . . . , 0) ist.
tr , I
Dabei sind die Bi Permutationsmatrizen oder von der Form Diag(U(a,b)
n−2 ), wenn die ersten
zwei Eintr¨age a, b der jeweils ersten Zeile von Ci von Null verschieden sind. Klar: d0 | d. Aber
leider ist jetzt die erste Spalte nicht mehr notwendig ausger¨aumt, so dass man den ersten Schritt
wiederholen muss. Da aber R keine echten unendlichen Teilerketten zul¨asst hat man nach endlich vielen Wiederholungen die Matrix Ct := Diag(d1 , C 0 ).
Rekursives Anwenden der Methode auf C 0 liefert nach endlich vielen Schritten schliesslich Matrizen A0 ∈ GL(n, R), B 0 ∈ GL(k, R), so dass
Diag(d1 , . . . , dl ) 0
0
0
0
C := A CB =
0
0
mit di ∈ R − {0}. Sollte f¨
ur ein i noch die Bedingung di | di+1 verletzt sein, sind noch weitere
Umformungen durchzuf¨
uhren. Es gen¨
ugt, diese f¨
ur 2 × 2-Matrizen zu demonstrieren:
di di+1
1 1
Diag(di , di+1 ) =
0 1
0 di+1
also eine Matrix, die man mit den anf¨
anglichen Methoden wieder auf die Form
Diag(ggT(di , di+1 ), kgV(di , di+1 )) transformieren kann. Nach endlich vielen Schritten hat man
die geforderte Gestalt.
q. e. d.
¨
Ubung:
Gib ein effektives Verfahren f¨
ur Matrizen u
¨ber Euklidischen Bereichen an, welches
versucht, immer das Matrixelement einer festen Spalte bzw. einer festen Zeile mit dem gr¨oßten
ν-Wert abzubauen, bis die Spalte oder Zeile ausger¨aumt ist.
!
6 2
Beispiel. Sei R := Z und A :=
∈ Z2×2 .
8 7
!
!
−1 1
2
5
Mit U1 :=
∈ GL(2, Z) folgt U1 A =
.
4 −3
0 −13
!
!
3
5
1 0
Mit W1 :=
∈ GL(2, Z) folgt U1 AW1 =
.
−1 −2
13 26
!
1
0
Mit U2 :=
∈ GL(2, Z) folgt U2 U1 AW1 = Diag(1, 26).
−13 1
Beispiel. Simultane Kongruenzen
x1 + x2 ≡ 0
x1 − x2 ≡ 1/4
(mod Z)
(mod Z)
sind f¨
ur x1 , x2 ∈ R zu l¨
osen. Wir schreiben dies als Matrix:
0
1
1
1
@ 0 −1 A 1
1
0
1
1
0
1 0
0
→
−−−−−−−−−→
1 −1 1/4
0 −2 1/4
0 2 1/4
¨
4. MODULN UBER
HAUPTIDEALBEREICHEN.
27
Aus der letzten Matrix lesen wir die Zwischenl¨osung
y=
z1
1/8 + 1/2z2
mit z1 , z2 ∈ Z
ab und erhalten als endg¨
ultige L¨
osung durch Multiplikation mit W :
x=
1/8 + z1 + 1/2z2
−1/8 − 1/2z2
mit z1 , z2 ∈ Z
Lineare Differentialgleichungssysteme mit konstanten Koeffizienten erweisen sich auch als Kongruenzsysteme u
¨ber R[x] oder C[x]. Solange die rechte Seite Null ist, sind keine Probleme der
Analysis involviert. Im inhomogenen Fall braucht man aus der Analysis die Methode der Variation der Konstanten. Wir beschr¨
anken uns auf den homogenen Fall.
Beispiel. Seien x1 , x2 , x3 unendlich oft differenzierbare Funktionen auf R oder Elemente von
R[[t]]. Gesucht sind die L¨
osungen des Differentialgleichungssystems
x01 − x02 + x003 = b1
x1 + x002 + x03 = b2
mit b1 = b2 = 0. In Matrizen, wobei D dann die Ableitung induzieren soll:


x1
D −D D2


x2
M
,
= 0 mit M :=
1 D2 D
x3
Zeilenumformungen:
D −D D2 b1
1 D2 D b2
→
1
D2
D
b2
3
0 D + D 0 −b1 + Db2
Spaltenumformungen mit

1 −D2 −D
1
0
0
1
0  liefert
W :=  0
0 D3 + D 0
0
0
1

als Matrix der linken Seite. Wegen x3 + x = x(x2 + 1) l¨ost sich dieses System sehr leicht:

 

y1
0
 y2  =  a + b sin(t) + c cos(t) 
y3
f (t)
mit a, b, c ∈ R und f eine unendlich oft differenzierbare Funktion R → R. Durch Heranmultiplizieren von W erhalten wir die L¨
osungen des urspr¨
unglichen Systems:
 

x1
b sin(t) + c cos(t) − f 0 (t)
 x2  =  a + b sin(t) + c cos(t) 
x3
f (t)

28
KAPITEL 1. RINGE UND MODULN
Hauptsatz 4.6. Sei R ein Hauptidealbereich.
1) Ist M ein endlich erzeugter R-Modul, so gibt es s, t ∈ Z≥0 und d1 , . . . , dt ∈ R − (R∗ ∪ {0})
mit di teilt di+1 f¨
ur alle i, so dass
M∼
=R Rs×1 ⊕
t
M
R R/Rdi .
i=1
2) Gilt
R
s×1
⊕
t
M
0
s0 ×1
∼
⊕
R R/Rdi =R R
t
M
0
R R/Rdi
i=1
i=1
0
0
∗
∈ Z≥0 und d1 , . . . , dt , d1 , . . . , dt0 ∈ R − (R ∪ {0}) mit di
0
di+1 f¨
ur i = 1, . . . , t0 − 1, so gilt s = s0 , t = t0 und di ∼ d0i f¨
ur
s, t, s0 , t0
mit
| di+1 f¨
ur i = 1, . . . , t − 1
0
und di |
i = 1, . . . , t. Man nennt s
den Rang (genauer torsionsfreien Rang) von M und di den i-ten Elementarteiler von M .
Beweis. 1) Folgt sofort aus den vorangegangenen Lemmata.
2) Bezeichne die linke Seite mit M und die rechte mit N . Aus M ∼
= N folgt
0
Rs×1 ∼
= M/T (M ) ∼
= N/T (N ) ∼
= Rs ×1 .
Sei p ∈ R ein Primelement und F := R/(p) der zugeh¨orige Restklassenk¨orper. Dann gilt:
0
0
s = dimF (Rs×1 /pRs×1 ) = dimF (Rs ×1 /pRs ×1 ) = s0 .
Weiter folgt T (M ) ∼
= T (N ), also auch
hdt i = AnnR (T (M )) = AnnR (T (N )) = hdt0 i d. h. dt ∼ d0t0 .
Um die di zu rekonstruieren, brauchen wir nur die p-Potenzen zu testen, welche in den di
aufgehen, wobei die p die Primteiler von dt durchl¨auft. Man betrachtet hierzu die Zahlenfolge
dimR/(p) pi T (M )/pi+1 T (M ) = dimR/(p) pi T (N )/pi+1 T (N )
f¨
ur i = 0, 1, . . . k(p), wo pk(p) die h¨
ochste p-Potenz ist, die in dt aufgeht. Es ist klar, wie
¨
man (durch Ubergang zur sogenannten assoziierten Partition) die p-Potenzanteile der di und
der d0i rekonstruieren kann und so di ∼ d0i und t = t0 beweist. Beachte: t = t0 ist die minimale Erzeugendenzahl von T (M ) ∼
= T (N ) und gleich dem Maximum der Dimensionen der
∼
T (M )/pT (M ) = T (N )/pT (N ) als R/(p)-Vektorr¨aume, wo p die Primteiler von dt durchl¨auft.
q. e. d.
Folgerung 4.7. Sei M = T (M ) ein endlich erzeugter R-Torsionsmodul mit (d) = Ann(M ).
Q n(i)
Ist d ∼ i pi
die Faktorisierung in Potenzen von Primelementen, so zerlegt sich nach dem
Chinesischen Restsatz
M
M
n(i)
n(i)
R/(d) ∼
R/(pi ) und entsprechend M ∼
M/pi M
=
=
i
n(i)
i
n(i)
und M/pi M ist R/(pi )-Modul.
Ist p ∈ R prim, so sind die endlich erzeugten R/(pn )-Moduln durch endliche monoton steigende
Folgen a nat¨
urlicher Zahlen ≤ n charakterisiert: a liefert den Modul
M
a(i)
.
R R/Rp
i
¨
4. MODULN UBER
HAUPTIDEALBEREICHEN.
29
Folgerung 4.8. Sei M ein e.e. torsionsfreier R-Modul. Dann ist M frei.
Achtung: Dies ist falsch f¨
ur nicht e.e. torsionsfreie R-Moduln. Ist z.B. R = Z, so ist Q ein
torsionsfreier Z-Modul. Jedoch ist Q nicht frei, denn f¨
ur je zwei Elemente a/b, c/d ∈ Q gilt
(bc)a/b − (ad)c/d = 0.
Folgerung: Sei R ein Hauptidealbereich mit K := Quot(R) 6= R. Dann ist K ist ein nicht
¨
endlich erzeugter, torsionsfreier R-Modul. (Ubung)
4.2
Der Hauptsatz u
¨ ber endlich erzeugte abelsche Gruppen. (V7)
Wir wenden unsere Erkenntnisse jetzt speziell f¨
ur den Ring R = Z an. Die Z-Moduln sind genau
die abelschen Gruppen, endlich erzeugte Z-Moduln also endlich erzeugte abelsche Gruppen und
wir erhalten den folgenden Struktursatz.
Folgerung 4.9. (Hauptsatz u
¨ber endlich erzeugte abelsche Gruppen) Sei G = hg1 , . . . , gn i eine
endlich erzeugte abelsche Gruppe. Dann gibt es r, s ∈ Z≥0 , h1 , . . . , hr ∈ G, t1 , . . . , ts ∈ G,
d1 , . . . , ds ∈ Z mit d1 |d2 | . . . |ds , so dass
G = hh1 i × . . . hhr i × ht1 i × . . . × hts i ∼
= Zr ⊕ Z/(d1 i ⊕ . . . ⊕ Z/(ds i
n1
ns
Folgerung 4.10.
Qs (a)niSei G eine endliche abelsche Gruppe von Ordnung |G| = p1 . . . ps . Dann
ist G ein Z/h i=1 pi i-Modul. Dieser Ring ist nach dem chinesischen Restsatz isomorph zu
L
s
ni
aßt sich G eindeutig schreiben als
i=1 Z/hpi i. Dementsprechend l¨
G=
s
M
Pi
i=1
pni i
ist. (Pi nennt man auch die pi -Sylowgruppe von G).
wo |Pi | =
(b) Sei P eine abelsche Gruppe von Primzahlpotenzordnung |P | = pn > 1 (p-Gruppe). Dann gibt
es eindeutiges t ∈ N, a1 ≤ . . . ≤ at ∈ N mit P ∼
= Z/hpa1 i ⊕ . . . ⊕ Z/hpat i.
Beispiel.
Die abelschen Gruppen der Ordnung 24 = 23 · 3 sind: Z/h24i = Z/h8i ⊕ Z/h3i, Z/h2i ⊕ Z/h4i ⊕
Z/h3i, Z/h2i ⊕ Z/h2i ⊕ Z/h2i ⊕ Z/h3i.
Folgerung 4.11. Sei G eine endliche abelsche Gruppe, a ∈ G. Das n ∈ N mit nZ = AnnZ (a)
nennt man auch die Ordnung von a, ord(a) := |hai|. Es gilt ord(a) teilt |G|.
Existiert ein a ∈ G, so dass hai = G, so heißt G zyklische Gruppe. Von Ordnung m ∈ Z≥0
ist Cm := (Z/mZ, +) bis auf Isomorphie die einzige zyklische Gruppe von Ordnung m.
Wir wollen unsere Ergebnisse jetzt auf Einheitengruppen von Restklassenringen von Z anwenden.
(Z/mZ)∗ = {a + mZ ∈ {1, . . . , m − 1} | ggT(a, m) = 1}.
Definition 4.12. Die Eulersche ϕ-Funktion:
ϕ : N → N; ϕ(m) := |(Z/mZ)∗ |
Bemerkung 4.13. (a) (Kleiner Satz von Fermat) Ist p eine Primzahl und a ∈ Z, dann ap ≡ a
(mod p), denn ϕ(p) = p − 1. (b) Ist p eine Primzahl, so ist (Z/pa Z)∗ = Z \ pZ also ϕ(pa ) =
pa − pa−1 = Q
pa−1 (p − 1).
α
(c) Ist m = sj=1 pj j mit paarweise verschiedenen Primzahlen pj und αj ≥ 1, dann ist Z/mZ =
L
α
α
Z/pj j Z nach dem chinesischen Restsatz, also auch (Z/mZ)∗ = ×j (Z/pj j Z)∗ .
Q
α −1
(d) Es ist ϕ(m) = sj=1 pj j (pj − 1).
30
Lemma 4.14.
KAPITEL 1. RINGE UND MODULN
P
d|m ϕ(d)
= m.
Q
Ps
α
Beweis. Sei m = sj=1 pj j . Induktion u
¨ber j=1 αj =: n.
n = 1: Klar.
Induktionsschritt:
X
X
X
ϕ(d) +
ϕ(pα1 1 d) =
ϕ(d) =
d|m
d|m/p1
α
d|m/(p1 1 )
m/p1 + pα1 1 −1 (p1 − 1)pα2 2 . . . pαs s = m.
q. e. d.
Satz 4.15. Sei K ein endlicher K¨
orper. Dann ist seine Einheitengruppe zyklisch.
Beweis. Betrachte (K ∗ , ·) als Z-Modul u
ur z ∈ Z und a ∈ K ∗ . Zeigen: F¨
ur jeden
¨ber za = az f¨
∗
Teiler d von |K| − 1 hat K genau ϕ(d) Elemente der Ordnung d.
Denn: Sei ψ(d) := {a ∈ K ∗ | ord(a) = d}. Dann gilt d6 | |K| − 1 ⇒ ψ(d) = 0.
Ist a ∈ K ∗ , ord(a) = d, so ist hai die Menge der d verschiedenen Nullstellen von X d − 1. Die
Elemente der Ordnung d in hai sind genau die am mit ggT(m, d) = 1, also ist ihre Anzahl genau
ϕ(d) und ψ(d) ≥ ϕ(d). Deshalb ist
X
X
|K| − 1 = |K ∗ | =
ψ(d) ≥
ϕ(d) = |K| − 1.
d||K|−1
d||K|−1
Also ψ(d) = ϕ(d). Insbesondere ist ψ(|K| − 1) 6= 0 und K ∗ = hai f¨
ur jedes Element a ∈ K ∗ mit
ord(a) = |K| − 1.
q. e. d.
Satz 4.16. Sei p eine Primzahl, α ≥ 1.
(a) Ist p > 2, so ist (Z/pα Z)∗ ∼
= (Z/pα−1 Z, +) ⊕ (Z/(p − 1)Z, +).
α
∗
(b) Ist α ≥ 2, so ist (Z/2 Z) ∼
= (Z/2Z, +) ⊕ (Z/2α−2 Z, +).
Beweis. (a)Zeige: Gruppe ist zyklisch. Mit Hilfe des binomischen Lehrsatzes zeigt man: Ist β ≥ 1,
b ∈ Z, p6 | b, dann ist
(1 + pβ b)p = (1 + pβ+1 c)
f¨
ur ein c ∈ Z mit p6 | c.
Ist a ∈ Z mit h(a + pZ)i = (Z/pZ)∗ , so ist ap−1 = 1 + pb f¨
ur ein b ∈ Z. Gilt p6 | b, so ist
ha + pα Zi = (Z/pα Z)∗ . Falls p | b, dann ist ha + p + pα Zi = (Z/pα Z)∗ .
¨
(b) als Ubung.
q. e. d.
Damit haben wir die Struktur der Einheitengruppe von Z/mZ bestimmt, denn dieser Ring ist
nach dem chinesischen Restsatz isomorph zu
Z/pα1 1 Z ⊕ . . . ⊕ Z/pαs s Z
falls m = pα1 1 · · · pαs s eine Primfaktorzerlegung von m ist. Also ist seine Einheitengruppe das
direkte Produkt der Einheitengruppen
(Z/mZ)∗ ∼
= (Z/pα1 1 Z)∗ × . . . × (Z/pαs s Z)∗ .
Kapitel 2
Normalformen fu
¨ r Matrizen.
5
¨
Ahnlichkeit
von Matrizen. (V8)
Wir wollen u
¨ber das Klassifikationsproblem der Endomorphismen eines endlich dimensionalen
K-Vektorraumes sprechen oder, was ¨
aquivalent hierzu ist, u
¨ber eine Normalform der Matrizen
des Endomorphismus, die durch eine gewisse Basiswahl erreicht wird.
Definition 5.1. Sei V ein endlich erzeugter Vektorraum u
orper K der Dimension
¨ber dem K¨
n ∈ N.
1) Zwei Endomorphismen α, β ∈ End(V) heißen ¨
ahnlich oder konjugiert unter GL(V), falls
−1
ein γ ∈ GL(V) existiert mit α = γ ◦ β ◦ γ , d. h. α, β liegen in derselben Bahn unter der
Operation
GL(V) × End(V) → End(V) : (γ, ζ) 7→ γ ◦ ζ ◦ γ −1 .
2) Zwei Matrizen A, B ∈ K n×n heißen ¨
ahnlich oder konjugiert unter GL(n, K), falls ein
g ∈ GL(n, K) existiert mit A = gBg −1 , d. h. A, B liegen in derselben Bahn unter der Operation
GL(n, K) × K n×n → K n×n : (g, C) 7→ gCg −1 .
3) Sei R ein Integrit¨
atsbereich. Zwei Matrizen A, B ∈ Rn×m heißen ¨
aquivalent (¨
uber R), wenn
es g ∈ GLn (R), h ∈ GLm (R) gibt mit gAh = B.
¨
¨
Klar: Aquivalenz
von Matrizen ist eine Aquivalenzrelation.
Den Struktursatz 4.5 kann man auch so formulieren: Ist R ein Hauptidealbereich, so ist jede
quadratische Matrix ¨
aquivalent zu einer Diagonalmatrix.
¨
Ahnliche Matrizen sind ¨
aquivalent u
¨ber K. Die Umkehrung gilt jedoch nicht, jede Matrix in
¨
GLn (K) ist ¨
aquivalent u
ur Ahnlichkeit.
¨ber K zur Einheitsmatrix. Die ist nicht richtig f¨
¨
Die Matrizen, die einen festen Endomorphismus beschreiben, bilden eine Ahnlichkeitsklasse,
wenn man die Basis variieren l¨
asst. Zwei Endomorphismen sind genau dann durch dieselbe
Matrix beschreibbar, wenn sie konjugiert sind.
Bemerkung 5.2. µα , χα sind Invarianten (aus denen man Spur und Determinante ablesen
kann). F¨
ur jedes Polynom p(x) ∈ K[x] ist
End(V) → Z≥0 : α 7→ Dim(Kern(p(α)))
eine Invariante.
31
¨ MATRIZEN.
KAPITEL 2. NORMALFORMEN FUR
32
Wir wollen in diesem Abschnitt f¨
ur einen gegebenen Endomorphismus α ∈ End(V) eine m¨oglichst
B
einfache Form f¨
ur die Matrix αB finden. Bislang haben wir nur Teilergebnisse und Spezialf¨alle
erledigt, an die wir uns kurz erinnern wollen. F¨
ur den ganzen Abschnitt sei V ein endlich erzeugter
K-Vektorraum. Hier ist eine Zusammenfassung einiger relevanter Ergebnisse aus dem ersten
Semester.
Q
m(i)
die Zerlegung des Minimalpolynoms in normierte
Bemerkung 5.3. Ist µα (x) = li=1 pi
irreduzible und paarweise verschiedene Polynome pi , dann gilt:
Q
c(i)
1) Das charakteristische Polynom ist gegeben durch χα (x) = li=1 pi mit c(i) ≥ m(i).
m(i)
2) Man hat eine kanonische Zerlegung von V in die pi -Hauptr¨
aume Hi := Kern(pi (α)), die
alle α-invariant sind:
l
M
V=
Hi .
i=1
Q
m(j)
Man hat Hi =
= Bild(qi (α)) mit qi := lj6=i pj .
3) Die Projektionen der Zerlegung sind gegeben durch πi = (ai qi )(α) wobei ai ∈ K[x] mit
m(i)
Kern(pi (α))
1 = a1 q1 + . . . + al ql
gegeben sind.
4) F¨
ur die Dimension der Hauptr¨
aume gilt
m(i)
Dim(Kern(pi
(α))) = c(i) Grad(pi ).
m(i)
5) Im Falle m(i) = 1 ist Kern(pi (α)) ein K[x]/pi K[x]-Vektorraum der Dimension c(i), und
aus einer K[x]/pi K[x]-Basis konstruiert man leicht eine K-Basis, die f¨
ur die Einschr¨
ankung von
m(i)
α auf Kern(pi (α)) die Matrix diag(M (pi ), . . . , M (pi )) liefert, wobei M (pi ) die Begleitmatrix
von pi ist. (Wichtiger Spezialfall: pi (x) = x − a f¨
ur ein a ∈ K. Dann ist M (pi ) = (a) und wir
haben (m(i) = 1 vorausgesetzt) eine Basis aus Eigenvektoren f¨
ur den Hauptraum.)
¨
Ubung:
Sei µα = pr f¨
ur ein irreduzibles normiertes Polynom p ∈ K[x]. Zeige, dass der Algorithmus zur Berechnung des Minimalpolynoms einen Vektor V ∈ V als Nebenprodukt produziert,
f¨
ur dessen Minimalpolynom gilt: µα,V = µα .
Mit diesen Vorbemerkungen wollen wir zun¨achst einen kurzen Blick auf den Zentralisator eines
Endomorphimus werfen.
Definition 5.4. Sei V ein endlich erzeugter K-Vektorraum der Dimension n und α ∈ End(V).
Dann heißt
CEnd(V) (α) := {β ∈ End(V)|α ◦ β = β ◦ α} ≤ End(V)
der Zentralisator oder die Zentralisatoralgebra von α (in End(V)).
F¨
ur A ∈ K n×n ist die Zentralisatoralgebra von A definiert als CK n×n (A) := {X ∈ K n×n | AX =
XA}
Bemerkung 5.5. CEnd(V) (α) ist der Kern der linearen Abbildung
End(V) → End(V) : γ 7→ α ◦ γ − γ ◦ α
und somit ein Teilraum des K-Vektorraums End(V). Da CEnd(V) (α) auch abgeschlossen ist unter
Komposition von Abbildungen, ist CEnd(V) (α) eine Teilalgebra von End(V).
¨
5. AHNLICHKEIT
VON MATRIZEN. (V8)
33
Beispiel:Ist A =diag(0, 1) ∈ K 2×2 so ist CK 2×2 (A) = {diag(a, b) | a, b ∈ K} = K[A].
0 1
F¨
ur A =
∈ F2×2
ist CF2×2 (A) = F2 [A] ∼
= F4 . Betrachtet man die Blockdiagonalmatrix
2
2
1 1
¨
diag(A, A) ∈ F4×4
so ist ihr Zentralisator isomorph zu F2×2
(Ubung).
2
4
Satz 5.6. Sei α ∈ End(V) etc. wie in Bemerkung 5.3.
1.) F¨
ur β ∈ CEnd(V) (α) und 1 ≤ i < j ≤ l gilt πi ◦ β ◦ πj = 0, d. h. β respektiert die Zerlegung
von V in seine Hauptr¨
aume, und somit gilt insbesondere
β=
l
X
i=1
und
CEnd(V) (α) =
πi ◦ β ◦ πi
| {z }
∈CEnd(πi (V)) (α|πi (V) )
l
M
CEnd(πi (V)) (α|πi (V) )
i=1
2.) Sei µα (x) = χα (x), also das Minimalpolynom und das charakteristische Polynom seien gleich.
Dann ist
(idV , α, α2 , . . . , αn−1 )
mit n = Dim(V) eine K-Vektorraumbasis von CEnd(V) (α).
Beweis. 1.) Da β ∈ CEnd(V) (α) mit α vertauschbar ist, ist es auch mit jedem Polynom in α vertauschbar, insbesondere mit den πi . Damit folgen die ersten Aussagen. Weiter ist πi ∈ CEnd(V) (α)
f¨
ur jedes i und als Polynom in α ist πi mit jedem Element in CEnd(V) (α) vertauschbar. Daher
ist jedes
M
CEnd(V) (α) =
πi CEnd(V) (α)
i
und πi CEnd(V) (α) = CEnd(Vi ) (αi ).
2.) Aus der Vor¨
ubung schließen wir, dass jeder Hauptraum πi (V) einen Vektor enth¨alt, dessen
Minimalpolynom gleich pm(i) ist. Wegen µα (x) = χα (x) liefert die Summe dieser Vektoren uns
einen Vektor V ∈ V mit mit Minimalpolynom µα,V (x) = µα (x).
Unter den gegebenen Voraussetzungen ist
(V, α(V ), . . . , αn−1 (V ))
eine Basis von V. Sei nun β ∈ CEnd(V) (α) und
X
β(V ) = V 0 =
ai αi (V ) f¨
ur geeignete ai ∈ K.
Dann ist β(α(V )) = α(β(V )) = α(V 0 ) und allgemeiner β(αj (V )) = αj (V 0 ), also
X
β(αj (V )) = (
ai αi )(αj (V )).
i
Also hat β denselben Effekt auf unsere Basis wie
P
ai αi , d. h. β =
P
ai αi .
q. e. d.
¨
Ubung:
Zeige: Im Falle µα = χα ist CEnd(V) (α) als K-Algebra isomorph zu K[x]/µα (x)K[x].
¨
¨
Ubung:
Man formuliere den letzten Satz und die zugeh¨origen Ubungen
in der Sprache der Matrizen. (Sehr wichtig!)
Die Situation aus Satz 5.6 hat einen Namen:
¨ MATRIZEN.
KAPITEL 2. NORMALFORMEN FUR
34
Definition 5.7. Sei α ∈ End(V). Jeder Vektor V ∈ V mit hV iα := K[α](V ) = V heißt ein
zyklischer Vektor von V (bez¨
uglich α). Falls ein solcher existiert, heißt V ein zyklischer
Vektorraum bez¨
uglich α.
˜
Beispiel: Sei A = diag(0, 1) ∈ K 2×2 . Ist K 2×1 ein zyklischer Vektorraum bez¨
uglich A?
˜
Sei B = diag(1, 1) ∈ K 2×2 . Ist K 2×1 ein zyklischer Vektorraum bez¨
uglich B?
Klar: V ist genau dann ein zyklischer Vektorraum bez¨
uglich α ∈ End(V) wenn µα = χα gilt,
¨
denn f¨
ur jeden zyklischen Vektor V hat µα,V den Grad dim(V). Die Umkehrung ist eine Ubungsaufgabe.
6
6.1
Normalformen fu
¨ r Matrizen.
Die rationale kanonische Form. (V9)
In diesem Abschnitt m¨
ochten wir den Struktursatz f¨
ur Moduln u
¨ber Hauptidealbereichen an¨
wenden, um eine Normalform f¨
ur Ahnlichkeitsklassen
von Matrizen zu erhalten. Sei dazu K ein
K¨orper.
Satz 6.1. (a) Jede Matrix A ∈ K n×n macht K n×1 zu einem K[x]-Modul durch p(x)V = p(A)V
f¨
ur alle V ∈ K n×1 , p(x) ∈ K[x]. Diesen K[x]-Modul bezeichnen wir mit MA .
(b) Es ist AnnK[x] (MA ) = hµA i E K[x] das vom Minimalpolynom von A erzeugte Ideal.
(c) EndK[x] (MA ) ∼
= CK n×n (A) = {X ∈ K n×n | XA = AX}.
(d) F¨
ur A, B ∈ K n×n gilt MA ∼
= MB genau dann wenn es ein g ∈ GLn (K) gibt mit A = g −1 Bg,
also genau dann wenn A und B ¨
ahnlich sind.
Beweis. (a) und (b): hatten wir schon fr¨
uher bemerkt.
(c) und (d): Der K[x]-Modul MA wird durch Einschr¨ankung zu einem K-Modul, also einem KVektorraum. Insbesondere sind alle K[x]-Modulhomomorphismen auch K-lineare Abbildungen
und somit gegeben durch Multiplikation mit einer Matrix. F¨
ur X ∈ K n×n ist die K-lineare
˜ ∈ EndK[x] (MA ) genau dann wenn X(xV
˜
˜ ) f¨
Abbildung X
) = xX(V
ur alle V ∈ K n×1 , also genau
n×1
dann wenn XAV = AXV f¨
ur alle V ∈ K
, d.h. XA = AX und somit X ∈ CK n×n (A).
˜ : MA → MB ein Isomorphismus. Dann ist insbesondere die lineare
Um (d) zu sehen sei X
˜ bijektiv, also X ∈ GLn (K). Weiter erf¨
˜ die Bedingung X(AV
˜
˜ ) f¨
Abbildung X
ullt X
) = B X(V
ur
n×1
−1
alle V ∈ K
, also XA = BX und somit A = X BX.
¨
Ubung:
Formulieren Sie obigen Satz und alle weiteren Ergebnisse dieses Abschnitts in der
Sprache der Endomorphismen.
Definition 6.2. Sei A ∈ K n×n . Die charakteristische Matrix X(A) ist definiert als X(A) =
xIn − A ∈ K[x]n×n .
Satz 6.3. Sei A ∈ K n×n . Der Kern des K[x]-Modulepimorphismus
fA : K[x]n×1 = FrK[x] (n) → MA , fA (ei ) := ei
ist der Teilmodul von K[x]n×1 , der frei auf den Spalten von X(A) ist.
Beachten Sie: ei hat in diesem Kontext zwei verschiedene Bedeutungen: Als Argument von fA
lebt ei in K[x]n×1 und bezeichnet die i-te Einheitsspalte in diesem freien K[x]-Modul. Als Wert
von fA lebt ei in MA und bezeichnet die i-te Einheitsspalte in K n×1 .
Beweis. F¨
ur p = (p1 , . . . , pn )tr ∈ K[x]n×1 ist
n
n
n
X
X
X
fA (p) = fA (
pi ei ) =
pi (A) · fA (ei ) =
pi (A)ei .
i=1
i=1
i=1
¨ MATRIZEN.
6. NORMALFORMEN FUR
35
Insbesondere haben wir f¨
ur alle 1 ≤ j ≤ n:
fA (xej ) = Aej = A−j und fA (ej ) = ej
P
und somit fA (xej − A−j ) = fA (xej − ni=1 Aij ei ) = A−j − A−j = 0. Somit ist der von den
Spalten xej − A−j der charakteristischen Matrix erzeugte Teilmodul von K[x]n×1 enthalten im
Kern von fA . Bezeichne NA := S(X(A)) diesen Spaltenraum. Da NA im Kern von fA liegt, ist
die Abbildung f A : K[x]n×1 /NA → MA wohldefiniert und wie die Ausgangsabbildung fA ist
auch f A K-linear und surjektiv. Die K-Dimension von MA ist n.
Behauptung: (e1 + NA , . . . , en + NA ) ist ein K-Erzeugendensystem von K[x]n×1 /NA . Dazu sei
p = (p1 , . . . , pn )tr ∈ K[x]n×1 . Wir zeigen durch Induktion u
¨ber Grad(p) := max{Grad(pi ) | 1 ≤
i ≤ n} dass es ein c ∈ K n×1 und ein C ∈ NA gibt mit p = c + C. Dies ist klar, falls Grad(p) = 0,
da dann schon p = c ∈ K n×1 . Ansonsten dividiere alle pi mit Grad(pi ) = Grad(p) sukzessive
mit Rest durch (x − Aii ) und ersetze p durch p − qi X(A)−i . Da Grad(qi ) = Grad(pi ) − 1 ist,
verringert sich der Grad von p danach um mindestens 1.
Also ist die K-Dimension von K[x]n×1 /NA h¨ochstens n und somit f A auch injektiv.
Dass NA frei auf den Spalten von X(A) ist, folgt da det(X(A)) = χA 6= 0.
q. e. d.
Folgerung 6.4. Als K[x]-Modul ist MA isomorph zu K[x]n×1 /S(X(A)). Nach dem Struktursatz
4.5 gibt es g, h ∈ GLn (K[x]) mit
gX(A)h = diag(f1 (x), . . . , fn (x))
so dass fi (x) ∈ K[x] normiert, f1 (x) | f2 (x) | . . . | fn (x). Die fi (x) sind eindeutig Q
wegen Satz
4.6 durch A bestimmt (die Elementarteiler von X(A)). Es gilt χA = det(X(A)) = ni=1 fi (x),
µA = fn (x) und
MA ∼
=K[x] K[x]/hf1 (x)i ⊕ . . . ⊕ K[x]/hfn (x)i ∼
= MF
mit F = diag(M (f1 ), . . . , M (fn )). Ist di := Grad(fi ) und s = min{i ∈ n | di > 0}, so ist A
ahnlich zur Blockdiagonalmatrix
¨
RKF(A) := diag(M (fs ), . . . , M (fn ))
wo M (fi ) ∈ K di ×di die Begleitmatrix von fi bezeichnet (die leere Matrix, falls di = 0 ist).
RKF(A) heißt rationale kanonische Form oder auch Frobenius-Normalform von A ∈
K n×n .
Bemerkung 6.5. Sei RKF(A) := diag(M (fs ), . . . , M (fn )). Dann ist MA die direkte Summe
von n − s + 1 zyklischen K[x]-Moduln K[x]/(fi ). Jede andere solche Zerlegung von MA hat
mindestens ebensoviele zyklische Summanden.
Achtung: Im Gegensatz zur Hauptraumzerlegung ist die Zerlegung in Bemerkung 6.5 nur bis
auf Isomorphie eindeutig:
Bemerkung 6.6. Die direkte Zerlegung in zyklische Summanden ist nicht eindeutig. Ist α = A˜
und sind B, B 0 Basen von V = K n×1 mit
B B
α = diag(M (fs ), . . . , M (fn )) =
B0
0
αB .
so ist der Endomorphismus β ∈ End(V) definiert durch β(Bi ) := Bi0 f¨
ur alle 1 ≤ i ≤ n = Dim(V)
eine Einheit im Zentralisator von α:
β ∈ CEnd(V) (α)∗ = CEnd(V) (α) ∩ GL(V) =: Autα (V).
¨ MATRIZEN.
KAPITEL 2. NORMALFORMEN FUR
36
¨
Folgerung 6.7. Seien A, B ∈ K n×n . Aquivalent
sind:
(a) A und B sind ¨
ahnlich.
(b) X(A) und X(B) sind ¨
ahnlich.
(c) X(A) und X(B) sind ¨
aquivalent u
¨ber K[x].
(d) MA und MB sind isomorphe K[x]-Moduln.
(e) A und B haben dieselbe rationale kanonische Form.
Durch eine Kombination von Hauptraumzerlegung und rationaler kanonischer Form erh¨alt man
die sogenannte prim¨
are rationale Form einer Matrix A, mit der man MA in die maximal m¨ogliche
Anzahl nicht-trivialer zyklischer K[X]-Moduln zerlegt. Diese hat den Vorteil, dass die Blockdiagonalmatrizen kleiner sind als bei der rationalen kanonischen Form.
Q
m(i)
Bemerkung 6.8. Sei A ∈ K n×n mit Minimalpolynom µA = li=1 pi , charakterisitischem PoL
Q
c(i)
m(i)
lynom χA = li=1 pi und Hi := Kern(pi (A)) der pi -Hauptraum. Dann ist K n×1 = li=1 Hi
˜
eine A-invariante
Zerlegung. Bez¨
uglich einer an diese Zerlegung angepassten Basis hat A˜ also eiais
ne Matrix diag(A1 , . . . , Al ) in Blockdiagonalgestalt. Ist RKF(Ai ) = diag(M (pai i1 ), . . . , M (pi i ))
die rationale kanonische Form von Ai (also 0 < a1 ≤ a2 ≤ . . . ≤ as , ci = a1 +. . .+as , as = m(i))
so ist A ¨
ahnlich zu
alsl
PRF(A) = diag(RKF(A1 ), . . . , RKF(Al )) = diag(M (pa111 ), . . . , M (pl
)).
PRF(A) heißt die prim¨
are rationale Form von A.
¨
Ubung:
Die aij lassen sich aus der Primfaktorzerlegung der Elementarteiler von X(A) bestimmen.
Beispiel 6.9. Sei K := Q und

−6
6
0
6



 −4 6 −1 3 


A := 
 ∈ Q4×4
 −6 12 −3 3 


−6 12 −3 3
Dann ist




X(A) = 


x+6
−6
4
x−6
6
−12
6
−12
0
−6


−3 

 ∈ Q[x]4×4
x + 3 −3 

3
x−3
1
und gX(A)h = diag(1, 1, x, x3 ), wobei



1
0
0
0
0
0
0
6



0
1
0
0 
0
0 −1
1/4x + 3
g=
, h=
 1/24x + 1/4
 −1/2 1 x − 3 −1/4x2 + 3/4x + 3
−3/4
0 1/4 
1/6x2 − x − 4 x + 12 −4 x
−1/6 0
1
3/4x + 3


.

¨ MATRIZEN.
6. NORMALFORMEN FUR
37
Also erh¨
alt man

0
 0
RKF(A) = PRF(A) = 
 0
0
0
0
1
0
0
0
0
1

0
0 

0 
0
Beispiel 6.10. Sei


0 1 1
A =  1 −1 0  ∈ Q3×3 .
0 1 0
Dann findet man gX(A)h = diag(1, 1, x3 + x2 − x − 1)



1 0 0
0
g =  0 1 0 , h =  0
x x2 1
−1
wobei

−1
x+1

0
1
2
−x x + x − 1
Also istp = x3 +x2 − x − 1 = µA = χA = (x + 1)2 (x − 1), RKF(A) = M (p) und PRF(A) =
0 −1
).
diag(1,
1 −2
6.2
Trennende Invarianten. (V10)
Definition 6.11. 1.) Eine Partition der natu
¨ rlichen Zahl c ist ein k-Tupel a = (a1 , . . . , ak ) ∈
k
N f¨
ur ein k ∈ N mit a1 ≥ a2 ≥ . . . ≥ ak und a1 + a2 + · · · + ak = c.
2) Ist a = (a1 , . . . , ak ) ∈ Nk eine Partition von c ∈ N, so ist die konjugierte Partition a0 von
a definiert durch a0i := |{j|aj ≥ i}|.
Man visualisiert u
undig in Zeilen un¨blicherweise die Partition durch K¨astchen, die man linksb¨
tereinander anordnet mit ai K¨
astchen in der i-ten Zeile. Dies nennt man das Young-Diagramm
der Partition. Die Young-Diagramme von a und a0 sind transponiert zueinander.
Definition 6.12. Sei V ein K-Vektorraum und α ∈ End(V) mit χα = pc , p ∈ K[x] irreduzibel.
Dann gibt es eine Basis B von V mit
B B
α = diag(Mpa1 , . . . , Mpak )
f¨
ur eine eindeutig durch α definierte Partition (ak , . . . , a1 ) von c. Diese Partition heißt die durch
α definierte Partition.
Satz 6.13. Sei α ∈ End(V) mit µα = pm mit p ∈ K[x] irreduzibel. Setze ν := p(α), d :=
Grad(p).
Folgende Aussagen sind ¨
aquivalent:
a) V ist zyklisch bez¨
uglich α.
b) Kern(ν) hat Dimension d u
¨ber K.
c) ν hat Rang dim(V) − d.
d) µα = χα .
e) S¨
amtliche α-invarianten Teilr¨
aume von V sind gegeben durch
hν i (V)iα = Bild(ν i )
f¨
ur i = 0, 1, . . . m.
38
¨ MATRIZEN.
KAPITEL 2. NORMALFORMEN FUR
achst eine allgemeine Vorbemerkung: Setze Vi := Bild(ν i ). Nach Definition des
Beweis. Zun¨
Minimalpolynoms ist Vm−1 6= {0} und Vm = {0}. Weiter sind die Vi α-invariant, d. h. α(Vi ) ⊆ Vi .
Es ist
(?) V = V0 > V1 > . . . > Vm−1 > Vm = {0}.
wobei die Faktoren Vi /Vi+1 = ν(Vi−1 /Vi ) epimorphe Bilder voneinander sind, also
Dim(Vm−1 ) ≤ Dim(Vi )−Dim(Vi+1 ) ≤ Dim(Vi−1 )−Dim(Vi ) ≤ . . . Dim(V)−Dim(V1 ) = Dim(Kern(ν))
Das Minimalpolynom des von α auf Vi /Vi+1 induzierten Endomorphismus αi ist µαi = p. Insbesondere die Dimension Dim(Vi /Vi+1 ) ein Vielfaches von d.
b) ⇔ c) folgt aus dem Homomorphiesatz.
¨
Die Aquivalenz
von (a) und (d) folgt aus dem Struktursatz f¨
ur Moduln u
¨ber Hauptidealbereichen .
(d) ⇒ (b): Ist µα = χα , so ist md = Grad(µα ) = Grad(χα ) = n und die echt absteigende Kette
von Teilr¨aumen oben hat L¨
ange n/d. Damit muss aber Dim(Vi ) − Dim(Vi+1 ) = d sein f¨
ur alle i,
also auch Dim(Kern(ν)) = d.
(b) ⇒ (d): Ist Dim(Kern(ν)) = d, so folgt Dim(Vi ) = Dim(Vi+1 )+d f¨
ur alle i und daher m = n/d.
(a) ⇒ (e): Ist W ≤ V ein α-invarianter Teilraum, so gibt es ein gr¨oßtes i mit W ≤ Vi . Aber
jedes W ∈ W \ Vi+1 erf¨
ullt bereits hW iα = Vi , da auch Vi ein zyklischer Modul f¨
ur αi ist.
(e) ⇒ (a): klar.
q. e. d.
Folgerung 6.14. Seien α und p wie in Definition 6.12, d := Grad(p) und a := (ak , . . . , a1 ) die
durch α definierte Partition. Sei Vi := Bild(p(α)i ) f¨
ur i = 0, . . . , ak . Dann gilt
V = V0 > V1 > . . . > Vak −1 > Vak = {0}
und dim(Vi /Vi+1 ) = a0i d, wobei a0 die zu a konjugierte Partition ist.
Beweis. Wende Satz 6.13 auf jeden zyklischen Summanden an.
q. e. d.
Beispiel: Sie p ∈ K[x] normiert, irreduzibel von Grad d und A ∈ K 5d×5d mit µA = p3 . Dann
¨
ist χA = p5 und man hat 2 M¨
oglichkeiten f¨
ur die Ahnlichkeitsklasse
von A:
A ∼ diag(M (p), M (p), M (p3 )) oder A ∼ diag(M (p2 ), M (p3 ))
Im ersten Fall ist dim(Kern(p(A)) = 3d und im zweiten Fall gleich 2d. Man kann also entscheiden,
¨
zu welcher Ahnlichkeitsklasse
die Matrix A geh¨ort, indem man nur den Rang von p(A) berechnet.
Es stellt sich abschließend die Frage nach trennenden Invarianten f¨
ur die Konjugationsoperation.
Satz 6.15. Zwei Endomorphismen α, β ∈ End(V) sind genau dann unter GL(V) konjugiert,
wenn gilt
a) die Minimalpolynome sind gleich: µα (x) = µβ (x) und
b) f¨
ur jeden normierten irreduziblen Teiler p ∈ K[x] des Minimalpolynoms sind die Partitionen
des p-Hauptraumes von (V, α) und von (V, β) gleich.
In anderen Worten: Die Minimalpolynome zusammen mit den Partitionen bilden ein System
¨
trennender Invarianten f¨
ur die Ahnlichkeitsklassen.
¨ MATRIZEN.
6. NORMALFORMEN FUR
39
¨
Beispiel 6.16. Ahnlichkeitsklassen
in C4×4 : (in der Vorlesung nur 3x3)
χA (x)
(x − a)4
µA (x)
Partitionen
Vertreter
x−a
(1, 1, 1, 1)
Diag(a, a, a, a)
(x − a)2
(2, 1, 1)
Diag(M ((x − a)2 ), a, a)
(x − a)2
(2, 2)
Diag(M ((x − a)2 ), M ((x − a)2 ))
3
(x − a)
(3, 1)
Diag(M ((x − a)3 ), a)
(x − a)4
(4)
J4 (a)
3
(x − a) (x − b)
(x − a)(x − b)
(1, 1, 1), (1)
Diag(a, a, a, b)
(x − a)2 (x − b)
(2, 1), (1)
Diag(M ((x − a)2 ), a, b)
3
(x − a) (x − b)
(3), (1)
Diag(M ((x − a)3 ), b)
(x − a)2 (x − b)2
(x − a)(x − b)
(1, 1), (1, 1)
Diag(a, a, b, b)
(x − a)2 (x − b)
(2), (1, 1)
Diag(M ((x − a)2 ), b, b)
(x − a)2 (x − b)2
(2), (2)
Diag(M ((x − a)2 ), M ((x − b)2 ))
2
(x − a) (x − b)(x − c) (x − a)(x − b)(x − c)
(1, 1), (1), (1)
Diag(a, a, b, c)
2
(x − a) (x − b)(x − c)
(2), (1), (1)
Diag(M ((x − a)2 ), b, c)
Q
Q
(1), (1), (1), (1)
Diag(a, b, c, d)
w=a,b,c,d (x − w)
w=a,b,c,d (x − w)
¨
Ubung:
und
Gib ein Vertretersystem aller Konjugiertenklassen von Endomorphismen von F3×3
2
3×3
von R
an.
6.3
Die Jordan Normalform.
Aus der prim¨
aren rationalen Form erh¨alt man durch eine etwas andere Basiswahl leicht die
Jordan Normalform. Dazy gen¨
ugt es, die zyklischen Moduln innerhalb eines Hauptraums zu
behandeln.
Satz 6.17. Sei α ∈ End(V) mit µα = χα = pm mit p ∈ K[x] irreduzibel. Setze ν := p(α),
d := Grad(p).
Jedes V ∈ V − ν(V) liefert eine Basis
B := (V, α(V ), . . . , αd−1 (V ), ν(V ), ν(α(V )), . . . , ν m−1 (αd−1 (V )))
von V, so dass die Matrix von α gegeben ist durch

Mp 0
0
 Nd Mp 0

 0 Nd Mp

B B
α = Jm (p) :=  0
0 Nd

 .
..
..
 ..
.
.
0
0
0


0 ... 0 1
 0 ... ... 0 


d×d .
wobei Nd =  . .
.. ..  ∈ K
.
.
 . .
. . 
0 ... ... 0
Beweis. Nachrechnen.
...
...
...
...
..
.
0
0
0
0
..
.
0
0
0
0
..
.









. . . Nd Mp
q. e. d.
¨ MATRIZEN.
KAPITEL 2. NORMALFORMEN FUR
40
als
ahnlich
Folgerung 6.18. Sei A ∈ K n×n mit PRF(A) = diag(M (pa111 ), . . . , M (pl l )). Dann ist A ¨
zu JNF(A) = diag(Ja11 (p1 ), . . . , Jalsl (pl )). JNF(A) heißt die Jordan-Normalform von A.
Im Beispiel 6.9 ist RKF(A) = PRF(A) = JNF(A). Im Beispiel 6.10 erh¨alt man


1 0
0
JNF(A) =  0 −1 0 
0 1 −1
6.4
Transformationsmatrizen. (V11)
Bemerkung 6.19. (ohne Beweis) Sei S = gX(A)h = diag(f1 , . . . , fn ) die Smith-Form von
X(A), wobei die fi normiert seien. Seien f1 = . . . = fs = 1 und Grad(fi ) = di ≥ 1 f¨
ur alle i > s.
Dann gilt ds+1 + . . . + dn = n. F¨
ur i > s und 1 ≤ j ≤ n sei
gij ≡ ci,j,0 + ci,j,1 x + . . . + ci,j,di −1 xdi −1 (mod fi ).
Setze

(i)
Pj

:= 
ci,j,0
..
.


d
∈K i
ci,j,di −1
und


P−j := 

(s+1)
Pj
..
.
(n)


 ∈ K n.

Pj
Dann ist die Matrix P = [P−1 , . . . , P−n ] ∈ K n×n invertierbar und es gilt P AP −1 = RKF(A),
wobei RKF(A) die rationale kanonische Form von A ist.


1 0 0
Beispiel: Ist A wie in Beispiel 6.10 so kann g =  0 1 0  gew¨ahlt werden und es ergibt
x x2 1
sich gem¨aß obiger Vorschrift


0 0 1
P :=  1 0 0 
0 1 0
und erh¨alt

P AP −1

0 0
1
1  = RKF(A)
= 1 0
0 1 −1
wie gew¨
unscht.
Die Berechnung der Smith-Form von X(A) ist viel zu aufwendig. Eine Transformationsmatrix
P erh¨alt man einfacher durch direktes Rechnen mit Matrizen u
¨ber K: Da µA = χA gilt, ist R3×1
ein zyklischer
  Modul. Beginnt
 man
 mit


1
0
1
e1 =  0 , Ae1 = e2 =  1 , A2 e1 = Ae2 =  −1 , so erh¨alt man direkt eine Basis
0
0
1


1 0 1
B = (e1 , e2 , Ae2 ) mit B A˜B = M (µA ), in Matrizen T :=  0 1 −1  erf¨
ullt T −1 AT = M (µA ).
0 0 1
¨ MATRIZEN.
6. NORMALFORMEN FUR
41
Beispiel: Sei nun A wie in Beispiel 6.9, also gX(A)h = diag(1, 1, x, x3 ), wobei


1
0
0
0

0
1
0
0 
.
g=
 1/24x + 1/4
−3/4
0 1/4 
1/6x2 − x − 4 x + 12 −4 x
Dann erh¨alt man


1/4 −3/4 0 1/4
 −4
12
−4 0 

P =
 −1
1
0
1 
1/6
0
0
0
und berechnet P AP − 1 = diag(M (x), M (x3 )).
Diese Methode ist sehr aufwendig, da es i.a. nicht so leicht ist, die Smith-Form der charakteristischen Matrix zu bestimmen. Dazu werden Rechnungen im Polynomring ben¨otigt. Im folgenden
wollen wir uns u
¨berlegen, wie wir eine geeignete Basis finden, so dass B αB in Normalform ist,
wobei wir ab jetzt mit der Jordan-Normalform arbeiten werden.
Beispiel. Sei K := Q und


−6 6
0 6


 −4 6 −1 3 


A := 
 ∈ Q4×4
 −6 12 −3 3 


−6 12 −3 3
mit Minimalpolynom µA (x) = x3 . Der erste Standardbasisvektor E1 hat x3 als Minimalpolynom:


1 −6 −24


 0 −4 −12 


2
(E1 , AE1 , A E1 ) = 
,
 0 −6 −12 


0 −6 −12
Es ist hE1 iA = hE1 , E2 , E3 +E4 i. Dieser Raum enth¨alt also nicht E3 . Es ist AE3 = AE1 −1/4A2 E1
also setzen wir F := 2E1 − 1/2AE1 − 2E3 = (5, 2, 1, 3)tr . Dann ist (E1 , AE1 , A2 E1 , F ) eine Basis
von Q4×1 , bez¨
uglich der A˜ die Matrix Diag(M (x3 ), M (x)) bekommt.
Unsere Aufgabe ist es, diese Normierung auf den Fall von mehr als zwei Summanden zu u
¨bertragen. Der Einfachheit halber nehmen wir an, dass µα = (x − a)m gilt, also nur ein Hauptraum
vorliegt (die Zerlegung in Hauptr¨
aume haben wir also schon erledigt) und (nur um das Verfahren
klarer zu machen) dass der irreduzible Faktor Grad 1 hat.
Bemerkung 6.20. Algorithmus zur Bestimmung der Jordan-Normalform, der mit
Kernen arbeitet
Sei α ∈ End(V) mit µα = (x − a)m und setze ν := α − a idV . Sei Wi := Kern(ν i ). Dann ist
W0 = {0} < W1 < . . . < Wm−1 < Wm = V.
Sei di := Dim(Wi ). F¨
ur die Elemente V ∈ Wj \ Wj−1 gilt ν j (V ) = 0, aber ν j−1 (V ) 6= 0.
Vorbemerkung: ν : Wj /Wj−1 → Wj−1 /Wj−2 ist injektiv.
Beweis: ν −1 (Wj−2 ) ⊆ Wj−1 .
¨ MATRIZEN.
KAPITEL 2. NORMALFORMEN FUR
42
(a) Erg¨
anze eine Basis von Wm−1 durch V1 , . . . , Vk zu einer Basis von Wm = V. Dann bilden
die Restklassen (V1 + Wm−1 , . . . , Vk + Wm−1 ) eine Basis von Wm /Wm−1 . Da ν : Wm /Wm−1 →
Wm−1 /Wm−2 injekitiv ist, sind auch (ν(V1 ) + Wm−2 , . . . , ν(Vk ) + Wm−2 ) linear unabh¨
angig und
man erh¨
alt induktiv, dass
Bm := (V1 , ν(V1 ), . . . , ν m−1 (V1 ), V2 , . . . , Vk , . . . , ν m−1 (Vk ))
Bm αBm
eine Basis eines α-invarianten Teilraums ist mit
(b) Erg¨
anze eine Basis von
= diag(Jm (a), . . . , Jm (a)).
Wm−2 ⊕ hν(V1 ), . . . , ν(Vk )i ≤ Wm−1
durch Vektoren W1 , . . . , W` zu einer Basis von Wm−1 .
Bm−1 := (W1 , ν(W1 ), . . . , ν m−2 (W1 ), W2 , . . . , W` , . . . , ν m−2 (W` ))
ist dann eine Basis eines α-invarianten Teilraums,
Bm ,Bm−1
αBm ,Bm−1 = diag(Jm (a), . . . , Jm (a), Jm−1 (a), . . . , Jm−1 (a)).
(c) Wiederhole (b) mit m − 1 anstelle von m, dann mit m − 2 ....
Beispiel.

1 2 0 0



 1 2 0 2 


A := 
 ∈ F34×4
 1 2 2 1 


2 0 0 0
hat Minimalpolynom (x − 2)3 . Es gilt

0 1 0 1



 0 2 0 2 


(A − 2I4 ) = 

 0 2 0 2 


0 1 0 1
2
Der Rang ist 1, wir werden also den ersten Jordan-Block aus dem zweiten Standardbasisvektor
V bekommen. (A − 2I4 )2 V wird offenbar durch den dritten Standardbasisvektor W zur Basis
von W = Kern(A − 2I4 ) = EA (2) erg¨
anzt. Also ist unsere neue Basis B = (V, (A − 2I4 )V, (A −
2
2I4 ) V, W ) und die transformierte Matrix ist

2 0 0 0



 1 2 0 0 



 ∈ F4×4
3 .
 0 1 2 0 


0 0 0 2
¨ MATRIZEN.
6. NORMALFORMEN FUR
6.5
43
Eine Anwendung: lineare Differentialgleichungssysteme.
In diesem Abschnitt wollen wir einsehen, wozu z.B. Ingenieure die Jordan-Normalform brauchen.
Im wesentlichen geht es um die Berechnung der Matrix Exponentialfunktion.
Definition 6.21. Sei A ∈ Rn×n . Sind ui (t) reelle Funktionen so setze

 0

u1 (t)
u1 (t)




u(t) :=  ...  und u0 (t) :=  ... 
un (t)
u0n (t)

Dann heißt
(?)
u0 (t) = Au(t)
ein lineares Differentialgleichungssystem (mit konstanten Koeffizienten). Die L¨
osungsmenge von (?) ist
L(?) = {u(t) | ui (t) reelle, differenzierbare Funktionen und u0 (t) = Au(t)}.
Satz 6.22. (aus der Analysis) Sei A ∈ Rn×n . Dann ist die Exponentialreihe
exp(A) :=
∞
X
1 k
A
k!
k=0
konvergent und die Abbildung R → Rn×n , t 7→ exp(tA) auf jedem beschr¨
ankten Intervall gleichm¨
aßig
stetig (bzgl. der Maximumsnorm ||A|| := max{|aij | | 1 ≤ i, j ≤ n}).
Bemerkung 6.23. Seien A, B ∈ Rn×n .
(i) exp(A) exp(B) = exp(B) exp(A) = exp(A + B) falls AB = BA.
(ii) exp(0) = In .
(iii) exp(A) ist invertierbar mit exp(A)−1 = exp(−A).
d
(iv) dt
(exp(tA)) = A exp(tA) = exp(tA)A (t ∈ R).
Beweis. Wir zeigen (i): Sei AB = BA. Dann ist
j k−j
P
P
k
1
1 Pk
exp(A + B) = ∞
(A + B)k = ∞
A B
k=0
k=0
j=0
k!
k!
j
P∞ P∞ 1 j 1
P∞ P∞ 1 j 1 m
k−j
= j=0 m=0 j! A m! B = exp(A) exp(B)
= j=0 k=j j! A (k−j)! B
Behauptung (ii) ist klar, (iii) folgt direkt aus (i) und (ii) und (iv) machen Sie zu Hause. q. e. d.
Satz 6.24. Sei A ∈ Rn×n . Das lineare Differentialgleichungssystem u0 (t) = Au(t) hat die
L¨
osungsmenge L = {u : R → Rn | u(t) = exp(tA)c mit c ∈ Rn }. Die eindeutig bestimmte
L¨
osung des Anfangswertproblems u0 (t) = Au(t), u(t0 ) = u0 ∈ Rn ist u(t) = exp((t − t0 )A)u0 .
Diese L¨osungsmenge L ist ein Vektorraum der Dimension n. Ist (b1 , . . . , bn ) eine Basis von Rn ,
so ist (exp(tA)b1 , . . . , exp(tA)bn ) eine Basis von L. Die Jordan-Normalform von A wird benutzt,
um eine solche sch¨
one Basis von L zu finden. Wir formulieren dies nur f¨
ur zyklische Vektorr¨aume
n
und den Fall dass µA = χA = (x − λ) ist. Das einfache Zusammensetzen im allgemeinen Fall
u
¨berlegen Sie sich zu Hause.
¨ MATRIZEN.
KAPITEL 2. NORMALFORMEN FUR
44
Satz 6.25. Sei A ∈ Rn×n , χA = µA = (x − λ)n . Sei b1 ∈ Rn ein zyklischer Vektor, also
b2 := (A − λIn )b1 , . . . , bn := (A − λIn )n−1 b1 6= 0 ∈ Rn und Abn = λbn . Dann ist (b1 , . . . , bn ) eine
Basis von Rn und (exp(tA)b1 , . . . , exp(tA)bn ) eine Basis von L. Es gilt f¨
ur 1 ≤ ` ≤ n und alle
k ∈ N:
n−`
X
k
k−j k
A b` =
bj+`
λ
j
j=0
und
n−` j
X
t
exp(tA)b` = exp(λt)(
bj+` )
j!
j=0
f¨
ur alle t ∈ R.
Beweis. Wir zeigen
k
A b1 =
n−1
X
k−j
λ
j=0
k
bj+1
j
der Rest ergibt sich dann analog.Dazu wenden wir Induktion u
ur k = 0 liest sich
¨ber k an. F¨
die Behauptung als b1 = b1 , da kj = 0 f¨
ur j > k. Der Induktionsschluss ist nicht schwerer:
Pn−1 k−j k
P
λ
(bj+2 + λbj+1 ) =
λk−j kj bj+1 ) = j=0
Ak+1 b1 = A( n−1
j=0
Pn−1 k+1−j jk+1
Pn−1 k−j+1 k
k
( j + j−1 )bj+1 = j=0 λ
j=0 λ
j bj+1
wobei wir der Einfachheit halber bn+1 := 0 setzen.
q. e. d.
Beispiel: Gesucht ist die L¨
osungsmenge des Differentialgleichungssystems
u01 = −u1 − u2 − 3u02
u002 =
−u2 − 2u02
Um daraus ein DGL-System erster Ordnung zu machen, setzen wir u02 =: u3 und erhalten
u01 = −u1 − u2 − 3u3
u02 =
u3
0
u3 =
−u2 − 2u3
also u0 = Au wobei


−1 −1 −3
0
1 
A= 0
0 −1 −2
gilt. Das Minimalpolynom von A ist (x + 1)3 , also ist −1 der einzige Eigenwert von A und A ist
¨ahnlich zum Jordanblock


−1
0
0
0 
J :=  1 −1
0
1 −1
Der Kern von (A + 1)2 ist
Kern((A + 1)2 ) = h(1, 0, 0)tr , (0, 1, −1)tr i
und enth¨alt nicht den 2. Basisvektor. Wir bilden also
b1 = (0, 1, 0)tr , b2 = (A + 1)b1 = (−1, 1, −1)tr , b3 = (A + 1)b2 = (2, 0, 0)tr
¨ MATRIZEN.
6. NORMALFORMEN FUR
und erhalten mit
45


0 −1 2
1 0 
B= 1
0 −1 0
dass B −1 AB = J gilt. Die L¨
osungsmenge des DGL-Systems ergibt sich also als Erzeugnis von






exp(−t)(t2 − t)
exp(−t)(2t − 1)
2 exp(−t)
exp(−t)  , exp(tA)b3 = 
0 .
exp(tA)b1 =  exp(−t)(t + 1)  , exp(tA)b2 = 
exp(−t)(−t)
− exp(−t)
0
46
¨ MATRIZEN.
KAPITEL 2. NORMALFORMEN FUR
Kapitel 3
Gruppen und Operationen
7
Operationen von Gruppen auf Mengen.
7.1
Wiederholung und erste Beispiele. (V12)
Wiederholung Gruppen: Eine Gruppe G ist eine Menge G mit einer Verkn¨
upfung · : G × G → G,
die das Assoziativgesetz erf¨
ullt, ein Einselement enth¨alt und f¨
ur jedes g ∈ G ein inverses Element.
Die Ordnung der Gruppe G ist die Anzahl der Elemente der Menge G, also eine nat¨
urliche
Zahl, falls G endlich ist und ∞ falls G nicht endlich ist.
Beispiele f¨
ur Gruppen sind die symmetrische Gruppe
Sn := {π : n → n | π bijektiv }
mit |Sn | = n!, die volle lineare Gruppe eines Vektorraums GL(V), die Gruppe der invertierbaren
n × n-Matrizen u
¨ber einem kommutativen Ring R, GLn (R).
Eine Gruppe G heißt zyklisch, falls es ein g ∈ G gibt mit G = {g z | z ∈ Z} =: hgi. Die zyklische
Gruppe der Ordnung n bezeichnen wir auch mit Cn = (Z/nZ, +).
Die Gruppe heißt Abelsch, falls zus¨
atzlich das Kommutativgesetz gilt, also gh = hg f¨
ur alle
g, h ∈ G. Zyklische Gruppen sind Abelsch und nach dem Hauptsatz u
¨ber endlich erzeugte Abelsche Gruppen ist jede e.e. Abelsche Gruppe das direkte Produkt zyklischer Gruppen.
Wiederholung Operation: Die Gruppe G operiert auf der Menge M falls es eine Abbildung
G × M → M, (g, m) 7→ gm gibt mit
• 1m = m f¨
ur alle m ∈ M
• (gh)m = g(hm) f¨
ur alle m ∈ M , g, h ∈ G.
Eine Menge M mit einer Operation von G nennt man auch G-Menge.
Bemerkung 7.1. Die Gruppe G operiere auf der Menge M . Dann bildet die Menge aller Bahnen
auf M unter G eine Partition
BahnenG (M ) = {Gm | m ∈ M }
auf M .
Beweis. Eine Partition P ist eine Teilmenge P ⊂ Pot(M ) der Potenzmenge von M mit den
Eigenschaften:
47
48
KAPITEL 3. GRUPPEN UND OPERATIONEN
• ∅ 6∈ P.
• F¨
ur X, Y ∈ P gilt entweder X = Y oder X ∩ Y = ∅.
S
• M = X∈P X.
Diese Eigenschaften sind nun f¨
ur BahnenG (M ) zu u
ufen:
¨berpr¨
• Gm 6= ∅, da m = 1m ∈ Gm.
• Seien Gm, Gn ∈ BahnenG (M ). Angenommen Gm ∩ Gn 6= ∅. Dann gibt es x ∈ Gm ∩ Gn,
also x = gm = hn f¨
ur geeignete g, h ∈ G. Dann ist aber
m = g −1 x = g −1 (hn) = (g −1 h)n ∈ Gn
und daher Gm ⊆ Gn, denn jedes um ∈ Gm ist von der Form um = (ug −1 h)n ∈ Gn. Aus
Symmetriegr¨
unden gilt dann auch Gn ⊆ Gm also sind die beiden Bahnen gleich.
Zwei Bahnen sind entweder gleich oder disjunkt.
S
• M = m∈M Gm, da die rechte Seite eine Teilmenge von M ist und umgekehrt jedes m ∈ M
in seiner Bahn Gm liegt und daher auch in der Vereinigung auf der rechten Seite.
q. e. d.
Folgerung 7.2. G operiere auf M . Dann ist ∼G ⊂ M × M definiert durch a ∼G b genau dann
wenn a und b in derselben Bahn liegen, also genau dann wenn ein g ∈ G existiert mit a = gb
¨
eine Aquivalenzrelation
auf M .
Definition 7.3. Sei G eine Gruppe.
1) U ⊆ G heißt Untergruppe von G, kurz U ≤ G, falls
(a) U 6= ∅,
(b) g, h ∈ U impliziert gh−1 ∈ U .
2) G operiere auf der Menge M . F¨
ur m ∈ M heißt
StabG (m) := {g ∈ G|gm = m}
der Stabilisator von m in G.
Bemerkung 7.4. G operiere auf M .
1) F¨
ur m ∈ M gilt StabG (m) ≤ G.
2) Ist m ∈ M und g ∈ G, so gilt StabG (gm) = g StabG (m)g −1 .
Beweis. 1.) 1m = m also ist 1 ∈ StabG (m) und somit StabG (m) 6= ∅. Sind g, h ∈ StabG (m), so
gilt hm = m und somit auch h−1 m = h−1 (hm) = (h−1 h)m = 1m = m und ebenso
(gh−1 )m = g(h−1 m) = gm = m also gh−1 ∈ StabG (m).
2.) Es gilt h ∈ StabG (gm) genau dann, wenn h(gm) = gm, also g −1 hgm = m, d. h. g −1 hg ∈
StabG (m) oder h ∈ g StabG (m)g −1 .
7. OPERATIONEN VON GRUPPEN AUF MENGEN.
49
Bemerkung 7.5. Sei G eine beliebige Gruppe und U ≤ G eine Untergruppe. Dann operiert U
auf G durch inverse Rechtsmultiplikation:
U × G → G, (u, g) 7→ gu−1
Die Bahnen heißen auch Linksrestklassen von U in G,
gU = {gu−1 | u ∈ U } = {gu | u ∈ U }
Die Menge der Linksrestklassen von G nach U bezeichnen wir mit G/U . Die Anzahl der Linksrestklassen von U in G heißt der Index [G : U ] von U in G.
Folgerung 7.6. (Lagrange) Sei G eine endliche Gruppe und U ≤ G. Dann teilt die Ordnung
von U die Ordnung von G:
|U | | |G|.
Der Quotient
|G|
|U |
ist gleich dem Index von U in G.
Beweis. Die Abbildung U → gU, u 7→ gu ist eine Bijektion. Also. haben je .zwei Restklassen aus
der Partition G/UPvon G genau |U | Elemente. Nun ist G = g1 U ∪ g2 U . . . ∪ gs U mit s = [G : U ]
q. e. d.
und somit |G| = si=1 |gi U | = s|U |.
Definition 7.7. Die Operation der Gruppe G auf dem K-Vektorraum V heißt linear, falls f¨
ur
jedes g ∈ G die Abbildung
gˆ : V → V : V 7→ gV
linear ist.
Beispiel. Sei M := F32 . Die symmetrische Gruppe G = S3 operiert auf M durch (π −1 , (a1 , a2 , a3 )) 7→
(aπ(1) , aπ(2) , aπ(3) )
Bahnen: {(0, 0, 0)}, {(1, 1, 1)}, {(1, 0, 0), (0, 1, 0), (0, 0, 1)}, {(1, 1, 0), (0, 1, 1), (1, 0, 1)}. Stabilisa1 2 3
toren: StabS3 (1, 0, 0) = {a :=
, id}. StabS3 (1, 1, 1) = S3 .
1 3 2
Diese Operation ist linear, z.B. ist bzgl. der Standardbasis S

S
a
ˆ
S

1 0 0
= 0 0 1 
0 1 0
Operiert G auf der Menge M so erh¨
alt man einen Gruppenhomomorphismus G → SM , g →
7 gˆ.
Operiert G linear auf dem Vektorraum V, so liefert dies einen Gruppenhomomorphismus G →
GL(V) ≤ SV .
Definition 7.8. Die Gruppe G operiere auf der Menge M .
1.) Die Operation heißt transitiv, falls M eine Bahn bildet, d. h. M = Gm f¨
ur ein m ∈ M (
und damit M = Gm f¨
ur jedes m ∈ M ).
2.) Die Operation von G auf M heißt regul¨
ar, falls sie transitiv ist und StabG (m) = {1} f¨
ur
alle m ∈ M .
3.) Die Operation von G auf M heißt treu, falls gm = m f¨
ur alle m ∈ M impliziert g = 1.
50
KAPITEL 3. GRUPPEN UND OPERATIONEN
Beispiel. Sei V ein endlich erzeugter K-Vektorraum und B(V) ⊂ V n die Menge der Basen von
V. Dann sind die beiden Operationen
GL(V) × B(V) → B(V) : (g, B) 7→ gB := (g(B1 ), . . . , g(Bn ))
und
GL(n, K) × B(V) → B(V) : (g, B) 7→ Bg −1
regul¨are Operationen.
Beispiel. Sei M = {x ∈ K n | Ax = b} =
6 ∅ die L¨osungsmenge eines linearen GLS und
V = {x ∈ K n | Ax = 0} die L¨
osungsmenge des zugeh¨origen homogenen Systems. Dann ist
V ein K-Vektorraum, also insbesondere eine Gruppe. V operiert regul¨ar auf M durch Addition.
Satz 7.9. Die Gruppe G operiere auf der Menge M . Folgende Aussagen sind ¨
aquivalent:
1.) G operiert regul¨
ar auf M .
2.) Zu je zwei m, n ∈ M gibt es genau ein g ∈ G mit gm = n. (Man ist versucht dieses g ∈ G
→ zu bezeichnen.)
mit −
mn
3.) F¨
ur jedes feste m0 ∈ M ist die Abbildung
G → M : g 7→ gm0
bijektiv.
4.) Es existiert ein m0 ∈ M , so daß die Abbildung
G → M : g 7→ gm0
bijektiv ist.
Beweis. 1.) =⇒ 2.) Wegen der Transitivit¨at existiert ein g ∈ G mit gm = n. Angenommen es
gibt ein weiteres h ∈ G mit hm = n. Dann ist h−1 g ∈ StabG (m) = {1G }, also h = g.
2.) =⇒ 3.) Definiert ist die Abbildung immer. Sie ist surjektiv, da G transitiv operiert. Sie ist
injektiv wegen der Eindeutigkeit in 2.).
3.) =⇒ 4.) Klar.
4.) =⇒ 1.) StabG (m0 ) = {1G } wegen der Injektivit¨at in 4.). Wegen der Surjektivit¨at in 4.) ist
die Operation auch transitiv. Ist m ∈ M beliebig, so haben wir ein g ∈ G mit gm0 = m. Also
StabG (m) = StabG (gm0 ) = g StabG (m0 )g −1 = {1G }
q. e. d.
Ist ϕ : V → W eine lineare Abbildung von K-Vektorr¨aumen und W ∈ Bild(ϕ), so operiert
Kern(ϕ) regul¨
ar auf der Faser ϕ−1 ({W }).
Dies haben wir schon bei den L¨
osungsmengen linearer Gleichungssysteme gesehen: Die L¨osungsmenge des homogenen Systems ist ein Teilraum und operiert regul¨ar auf der L¨osungsmenge des
inhomogenen Systems. Hat man eine partikul¨are L¨osung x0 des inhomogenen Systems gefunden, so ist {x0 + y | y L¨
osung des homogenen Systems } die L¨osungsmenge des inhomogenen
Systems.
Die Beobachtung wird auch der Ausgangspunkt f¨
ur die affine Geometrie sein.
b) Ist V ein endlich erzeugter K-Vektorraumund T R1 (V) die Menge der eindimensionalen
Teilr¨aume von V, so operiert GL(V) transitiv, aber nicht regul¨ar auf T R1 (V). Dies wird der
Ausgangspunkt f¨
ur die projektive Geometrie sein.
7. OPERATIONEN VON GRUPPEN AUF MENGEN.
7.2
51
Die Konjugationsoperation. (V13)
Definition 7.10. Sei G eine Gruppe. Dann operiert G auf sich selbst durch Konjugation,
G × G → G, (g, m) 7→ κg (m) := gmg −1 .
Die Bahnen unter dieser Operation heißen Konjugiertenklassen. Der Stabilisator von m ∈ G
wird auch als Zentralisator bezeichnet
CG (m) = {g ∈ G | gmg −1 = m}.
Bemerkung: F¨
ur g ∈ G ist die Abbildung κg : G → G, m 7→ gmg −1 ein bijektiver Gruppenhomomorphismus von G in sich selbst, also ein Gruppenautomorphismus. Die Menge aller
Gruppenautomorphismen von G bildet (zusammen mit dr Komposition) eine Gruppe Aut(G)
und die Abbildung κ : G → Aut(G), g 7→ κg ist ein Gruppenhomomorphismus von G in ihre
Automorphismengruppe. Das Bild von κ wird auch mit Inn(G) bezeichnet und heißt die
Gruppe der inneren Automorphismen von G. Der Kern von κ ist ein Normalteiler von G und
heißt das Zentrum Z(G) von G.
Z(G) = {g ∈ G | gh = hg f¨
ur alle h ∈ G}.
Beispiel. Die Diedergruppe der Ordnung 8 als Symmetriegruppe eines Quadrats. (Konjugiertenklassen, Zentrum etc. An Tafel vormachen)
Wir wollen eine recht n¨
utzliche Schreibweise f¨
ur Permutationen endlicher Mengen M , also f¨
ur
Elemente der SM , kennenlernen. Sie hat gegen¨
uber der offensichtlichen Schreibweise, wo man die
Elemente von M in die erste Zeile einer 2 × |M |-Matrix schreibt und die Bilder dieser Elemente
direkt unter diese in die zweite Zeile, viele Vorteile.
Bemerkung 7.11. 1) Seien a1 , . . . , ak ∈ M genau k paarweise verschiedene Elemente. Dann
heißt

a 6∈ {a1 , a2 , . . . , ak }
 a
ai+1
a = ai mit i < k
(a1 , a2 , . . . , ak ) : M → M : a 7→

a1
a = ak
ein k-Zykel oder kurz Zykel. Es gilt (a1 , a2 , . . . , ak ) ∈ SM und
(a1 , a2 , . . . , ak ) = (ak , a1 , a2 , . . . , ak−1 )
und
(a1 , a2 , . . . , ak )−1 = (ak , ak−1 , . . . , a1 ).
1-Zykel sind gleich der Identit¨
at, 2-Zykel sind Transpositionen.
2) Disjunkte Zykel kommutieren miteinander, d. h.
(a1 , a2 , . . . , ak ) ◦ (b1 , b2 , . . . , bl ) = (b1 , b2 , . . . , bl ) ◦ (a1 , a2 , . . . , ak ),
falls {a1 , a2 , . . . , ak } ∩ {b1 , b2 , . . . , bl } = ∅. (In Zukunft lassen wir ◦ einfach weg.)
3) Jedes f ∈ SM l¨
aßt sich als Produkt disjunkter Zykel schreiben, falls M endlich ist. Diese
Schreibweise ist eindeutig bis auf Reihenfolge der Zykel.
Beweis. 1) und 2) klar.
3) Die Existenz zeigen wir mit einem Algorithmus:
Eingabe: f ∈ SM (Beachte: M ist endlich)
52
KAPITEL 3. GRUPPEN UND OPERATIONEN
Algorithmus: Setze N := M . Solange N 6= ∅ ist, w¨ahle a ∈ N und finde kleinstes k mit f k (a) = a.
Dann ist za := (a, f (a), . . . , f k−1 (a)) ein Zykel. Ersetze N durch N − {a, f (a), . . . , f k−1 (a)}.
Ausgabe: Menge der disjunkten Zykel za . Ihr Produkt ist gleich f .
¨
Eindeutigkeit: Ubung.
q. e. d.
Beispiel: (1, 2, 3, 4, 5) ◦ (2, 3, 4, 5) = (1, 2, 4)(3, 5) ∈ S6 .
Wir schauen uns die Konjugationsoperation in der symmetrischen Gruppe genauer an.
Satz 7.12. F¨
ur π∈ Sn sei ai (π) = Anzahl der Zykel der L¨
ange i in disjunkter Zykelzerlegung
von π und a(π) := (a1 (π), . . . , an (π)) der Zykelz¨
ahler. Es gilt: π, ρ∈ Sn sind konjugiert in Sn ,
genau dann wenn a(π) = a(ρ).
Beweis. 1) Konjugieren ¨
andert den Zykelz¨ahler nicht:
Seien π, σ∈ Sn mit
π = (α1 , . . . , αk )(β1 , . . . , βl ) . . .
in disjunkter Zykelzerlegung. Dann ist
σ
π = σπσ −1 = (σ(α1 ), . . . , σ(αk ))(σ(β1 ), . . . , σ(βl )) . . .
die disjunkte Zykelzerlegung von σ π. Insbesondere hat sich der Zykelz¨ahler nicht ver¨andert.
2) Umgekehrt: Sei a(π) = a(ρ). Ordnet man bei beiden Permutationen die Zykel (aus der
disjunkten Zykelzerlegung) der L¨
ange nach, so stehen im folgenden Schema die Zykel gleicher
L¨ange untereinander:
π = (α1 , . . . , αk )(β1 , . . . , βl ) . . .
ρ = (α10 , . . . , αk0 )(β10 , . . . , βl0 ) . . .
in disjunkter Zykelzerlegung. Also definiere σ ∈ Sn durch
σ : αi → αi0 ; βj → βj0 etc.
Dann gilt σ π = ρ.
q. e. d.
P
¨
Ubung:
Zeige jedes a ∈ Zn≥0 mit
iai = n kommt als Zykelz¨ahler eines Elementes von Sn vor.
Wieviele Konjugiertenklassen hat S6 ? Was haben Zykelz¨ahler mit Partitionen der Zahl n zu
tun?
Beispiel zur Konjugation in der Sn :
1) Gegeben seien π = (1, 2)(3, 4, 5, 6, 7)(8, 9), ρ = (9, 4)(1, 2, 3, 7, 6)(5, 8) ∈ S9 . Suche ein τ ∈ S9
mit τ π = ρ.
L¨osung:
π = (1, 2)(3, 4, 5, 6, 7)(8, 9)
ρ = (9, 4)(1, 2, 3, 7, 6)(5, 8)
Also τ = (1, 9, 8, 5, 3)(2, 4)(6, 7) ist eine L¨osung.
Gibt es andere L¨
osungen? Z. B.
π = (1, 2)(3, 4, 5, 6, 7)(8, 9)
ρ = (5, 8)(2, 3, 7, 6, 1)(9, 4)
liefert weitere L¨
osung τ = (1, 5, 7)(2, 8, 9, 4, 3). Beachte, die L¨osungen bilden eine Restklasse
nach CS9 (π). Man sieht leicht, die Elemente von CS9 (π) entsprechen genau den M¨oglichkeiten
7. OPERATIONEN VON GRUPPEN AUF MENGEN.
53
eine disjunkte Zykelzerlegung von π kompatibel unter die gegebene disjunkte Zykelzerlegung
von π zu schreiben. Also |CS9 (π)| = 2 · 22 · 5.
2. Bestimme CS10 ((1, 2, 3)).
L¨osung:
CS10 ((1, 2, 3)) = {π∈ S10 |π (1, 2, 3) = (1, 2, 3)}
= {π∈ S10 |(π(1), π(2), π(3)) = (1, 2, 3)}
Also π = (1, 2, 3)i ρ mit ρ ∈ S10 , ρ(i) = i f¨
ur i = 1, 2, 3. Kurz
CS10 ((1, 2, 3)) = h(1, 2, 3)i × S10−3
7.3
Parametrisierung aller transitiver G-Mengen.
¨
Definition 7.13. (Ahnlichkeit
von G-Mengen) Sei G eine Gruppe, M, N zwei G-Mengen. Dann
heißen M und N ¨
ahnlich, falls es eine Bijektion ϕ : M → N gibt mit ϕ(gm) = gϕ(m) f¨
ur alle
¨
g ∈ G, m ∈ M (in Zeichen M ≡ N ). ϕ heißt auch eine Ahnlichkeit
der G-Mengen M und N .
Eine Abbildung ϕ : M → N heißt G-¨
aquivariant, genau dann, wenn ϕ(gm) = gϕ(m) f¨
ur alle
g ∈ G, m ∈ M .
¨
Eine Ahnlichkeit
ist also eine G-¨
aquivariante Bijektion.
Beispiel. Sind U ≤ S ≤ G Untergruppen von G, so ist die Abbildung G/U → G/S, gU 7→ gS
eine G-¨aquivariante Abblidung.
Satz 7.14. Die Gruppe G operiere transitiv auf der Menge M , sei m ∈ M und S := StabG (m).
Dann sind M und G/S als G-Mengen ¨
ahnlich:
ϕ : M −→ G/S : gm 7→ gS
¨
ist eine G-Ahnlichkeit.
Beweis. Offenbar ist Ψ : G → M : g 7→ gm eine surjektive G-¨aquivariante Abbildung, wobei
G durch Linksmultiplikation auf sich operiert. Die Fasern dieser Abbildung sind gerade die
Linksrestklassen von G nach S:
Ψ−1 ({gm}) = gS
f¨
ur alle g ∈ G.
Also (nach dem Homomorphiesatz f¨
ur Mengen aus dem 1. Semester) faktorisiert Ψ u
¨ber G/S
mit einer Bijektion
ψ : G/S → M : gS 7→ gm,
die offensichtlich G-¨
aquivariant ist. Klar: ϕ = ψ −1 und ϕ ist auch G-¨aquivariant.
q. e. d.
Folgerung 7.15. Die Gruppe G operiere auf der Menge M . Sei m∈M mit |Gm| < ∞ und
S = StabG (m). Dann gilt: Die L¨
ange der Bahn ist gleich dem Index des Stabilisators:
|Gm| = [G : S]
(:= |G/S|).
Insbesondere, falls |G| < ∞, so gilt:
|Gm| =
|G|
.
|S|
54
KAPITEL 3. GRUPPEN UND OPERATIONEN
Beispiel. Sei Fq ein K¨
orper mit q = pn Elementen. (Bestimmung der Ordnung der vollen
linearen Gruppe): Es gilt
| GLn (Fq )| = (q n − 1) · (q n − q) · . . . · (q n − q n−1 ),
wobei
GL(n, q) := GLn (Fq ) = {X ∈ Fqn×n | det X 6= 0}
mit Fq ein endlicher K¨
orper mit q Elementen.
Beweis. GL(n, q) operiert transitiv auf Fqn×1 \{0} mit Bahnl¨ange q n − 1. Der Stabilisator von
(1, 0, . . . , 0)tr ∈ Fn×1
in GL(n, q) ist
q



 
1
1 ∗···∗






 0


 0 

 

| ∗∈Fq , X∈ GL(n − 1, q)
StabGL(n,q) ( . ) =  .



 .. 
X 
 ..





0
0
und hat die Ordnung
| StabGL(n,q) (1, 0, . . . , 0)tr | = q n−1 · | GL(n − 1, q)|.
Nach dem Hauptsatz 7.14 gilt also
| GL(n, q)| = (q n − 1) · q n−1 · | GL(n − 1, q)|.
Mit | GL(1, q)| = q − 1 folgt die Behauptung durch Induktion.
Beispiel: (Gaußsche Binomialkoeffizienten)
:
GL(n, q) operiert auf der Menge der Fq -Teilr¨aume von Fn×1
q
U(Fn×1
, Fq ) := {X | X ≤Fq Fn×1
}.
q
q
Die Bahnen dieser Operation sind Uk (Fn×1
, Fq ), die Menge der k-dimensionalen Teilr¨aume von
q
n×1
Fq . Sei
U = h(1, 0, . . . , 0)tr , (0, 1, 0, . . . , 0)tr , . . . , (0, . . . , 0, 1, 0, . . . , 0)tr iFq ≤Fq Fn×1
q
| {z }
k−1
Dann ist
StabGL(n,q) (U ) =
X Y
0 Z
| X ∈ GL(k, q), Z ∈ GL(n − k, q), Y ∈Fqk×(n−k) .
Die L¨ange der Bahn ist
|Uk (Fn×1
, Fq )|
q
| GL(n, q)|
=
=:
| GL(k, q)| · | GL(n − k, q)| · q k(n−k)
n
k
q
der Gaußsche Binomialkoeffizient.
¨
Beispiel: GLn (Fq ) operiert auf Fn×n
durch Konjugation. Die Bahnen sind die Ahnlichkeitsklasq
sen von Matrizen, von denen wir eine Parametrisierung im vorherigen Kapitel kennengelernt
haben. Der Stabilisator einer Matrix A ist CFn×n
(A)∗ , die Einheitengruppe des Zentralisators.
q
¨
Ihr Index gibt an, wieviele Matrizen zu A ¨ahnlich sind. In der Ubung
machen Sie n = 3, p = 2
hier nur kurz n = 2, p = 2:
7. OPERATIONEN VON GRUPPEN AUF MENGEN.
7.4
µA
χA
x
x2
x+1
(x + 1)2
x2
x2
(x + 1)2
(x + 1)2
x(x + 1)
x(x + 1)
x2 + x + 1
x2 + x + 1
Vertreter
0 0
0 0 1 0
0 1 0 1
0 0 1 1
0 1 1 0
0 0 0 1
1 1
55
|C ∗ |
Anzahl
6
1
6
1
2
3
2
3
1
6
3
2
Anzahl der Bahnen des Stabilisators. (V14)
F¨
ur unsere geometrischen Anwendungen der Gruppentheorie ist die folgende Bemerkung grundlegend.
Bemerkung 7.16. Die Gruppe G operiere auf den Menge M und N .
1) G operiert auf M × N durch
G × (M × N ) → M × N : (g, (m, n)) 7→ (gm, gn).
Diese Operation heißt diagonale Operation.
2.) Ist die Operation von G auf M transitiv, dann gibt es eine Bijektion zwischen der Menge
der Bahnen von G auf M × N und der Menge der StabG (m)-Bahnen auf N f¨
ur jedes (feste)
m ∈ M:
(M × N )/G := (M × N )/ ∼G → N/ StabG (m) : G(m, n) 7→ StabG (m)n.
∼
(M × N )/G −
→ N/ StabG (m)
¨
Beweis. 1.) Ubung.
2.) Wir zeigen, daß diese Abbildung wohldefiniert ist:
Wegen der Transitivit¨
at von G auf M ist jede Bahn von G auf M × N von der Form G(m, n) =
{(gm, gn)|g ∈ G}. Gilt G(m, n) = G(m, n0 ) f¨
ur ein n0 ∈ N , so sind offenbar n und n0 in derselben
Bahn unter StabG (m). Also ist die Abbildung wohldefiniert.
Offenbar ist die Abbildung surjektiv. Wir zeigen die Injektivit¨at:
StabG (m)n = StabG (m)n0 impliziert offenbar G(m, n) = G(m, n0 ). Also haben wir insgesamt
eine Bijektion.
q. e. d.
Beispiel. Sei V ein endlich erzeugter K-Vektorraum. Dann operiert G := GL(V) auf V − {0}
transitiv. Der Stabilisator eines V ∈ V − {0} hat dann jedes Vielfache 6= 0 von V als Bahn,
sowie die Menge aller Vektoren, die linear unabh¨angig von V sind. Die Bahnen von GL(V) auf
(V − {0}) × (V − {0}) sind also gegeben durch {(V, aV ) | 0 6= V ∈ V}, a ∈ K und {(V, W ) |
(V, W ) linear unabh¨
angig .}.
56
KAPITEL 3. GRUPPEN UND OPERATIONEN
In Matrizen: V = K n×1 , G = GL(n, K), Operation durch Linksmultiplikation. Der Stabilisator
des ersten Standardbasisvektors E1 := (In )−,1 ist
1 a
|a ∈ K 1×(n−1) , A ∈ GL(n − 1, K)}
StabG (E1 ) := {
0 A
und hat die folgenden Bahnen auf V:
{aE1 } mit a ∈ K und V − {aE1 |a ∈ K}.
Beispiel. Sei V ein endlich erzeugter K-Vektorraum. Dann operiert G := GL(V) auf dem
Dualraum V ∗ linear und treu durch
G × V ∗ → V ∗ : (g, ϕ) 7→ (g −1 )tr (ϕ) = ϕ ◦ g −1 .
Der Stabilisator eines ϕ ∈ V ∗ − {0} operiert auf jeder Faser ϕ−1 ({a}) mit a ∈ K, also auf jeder
Restklasse nach Kern(ϕ). Das Studium der Operation von StabG (ϕ) auf ϕ−1 ({1}) heißt affine
Geometrie und wird uns noch ausf¨
uhrlich besch¨aftigen.
In Matrizen: V = K n×1 , G = GL(n, K), die Operation auf K 1×n , dem bekanntlich V ∗ entspricht,
ist gegeben durch
G × K 1×n → K 1×n : (g, Z) 7→ Zg −1 .
Der Stabilisator des letzten Standardbasisvektors Zn := (In )n,− ist
A a
StabG (Zn ) := {
|a ∈ K (n−1)×1 , A ∈ GL(n − 1, K)}.
0 1
Die Operation dieser Gruppe auf
{
S
1
|S ∈ K (n−1)×1 }
wird also affine Geometrie sein. Man beachte:
A a
S
AS + a
=
.
0 1
1
1
Beispiel. (weggelassen) Sei V ein endlich erzeugter K-Vektorraum. Dann operiert G := GL(V)
linear, jedoch nicht treu auf Bifo+ (V) durch
G × Bifo+ (V) : (g, Φ) 7→ gΦ
mit
(gΦ)(V, W ) = Φ(g −1 (V ), g −1 (W )).
Der Stabilisator StabG (Φ) wird mit O(V, Φ) bezeichnet und heißt orthogonale Gruppe von
(V, Φ). Die Operation der orthogonalen Gruppe auf V ist wieder von erheblichem Interesse;
wir haben lediglich den Fall K = R und Φ positiv definit im letzten Semester im Rahmen der
Euklidischen Vektorraumtheorie durchgef¨
uhrt. Der Sylvestersche Tr¨agheitssatz beschreibt
uns die Bahnen der obigen Operation durch die Signatur als trennende Invariante im reellen
Fall. Signatur (1, n − 1, 0) ist in der Relativit¨atstheorie von zentraler Bedeutung: (V, Φ) heißt
dann Minkowski-Raum und O(V, Φ) im Falle n = Dim(V) = 4 die Lorentz-Gruppe. Im
komplexen Fall hatten wir gesehen, daß die Dimension Dim(V ⊥,Φ ) des Radikals eine trennende
8. HOMOMORPHISMEN UND NORMALTEILER. (V15)
57
Invariante ist. F¨
ur andere K¨
orper ist die Situation sehr viel komplizierter.
n×n durch
In Matrizen: G := GL(n, K) operiert auf Ksym
n×n
G × Ksym
: (g, F ) 7→ g −tr F g −1 .
Den Stabilisator von F = Diag(1, . . . , 1, −1, . . . , −1) bezeichnet man mit O(k, n − k, R) im Falle
| {z } | {z }
k
n−k
K = R.
8
Homomorphismen und Normalteiler. (V15)
Definition 8.1. Seien G und H Gruppen. Eine Abbildung ϕ : G → H heißt ein Gruppenhomomorphismus genau dann wenn ϕ(g1 g2 ) = ϕ(g1 )ϕ(g2 ) f¨
ur alle g1 , g2 ∈ G.
Beispiel: G operiere auf M . Dann ist ϕ : G → SM , g 7→ (m 7→ gm) ein Gruppenhomomorphismus.
Ist M = V ein K-Vektorraum, so ist die Operation genau dann linear, wenn das Bild dieses
Gruppenhomomorphismus in der linearen Gruppe GL(V) liegt.
Satz 8.2. Sei ϕ : G → H ein Gruppenhomomorphismus. Dann ist Bild(ϕ) = {ϕ(g) : g ∈ G}
eine Untergruppe von H und K := Kern(ϕ) := {g ∈ G | ϕ(g) = 1} eine Untergruppe von G. Es
gilt sogar gKg −1 = K f¨
ur alle g ∈ G. Eine Untergruppe U ≤ G mit gU g −1 = U f¨
ur alle g ∈ G
heißt Normalteiler von G.
Beweis. F¨
ur n ∈ Kern(ϕ), g ∈ G ist
ϕ(gng −1 ) = ϕ(g)ϕ(n)ϕ(g)−1 = ϕ(g)ϕ(g)−1 = 1
also auch gng −1 ∈ Kern(ϕ).
q. e. d.
Konkrete Beispiele fu
¨ r Normalteiler
a) Ist G beliebige Gruppe, so sind {1} und G Normalteiler von G. Man nennt sie triviale
Normalteiler.
b) sign : Sn → ({1, −1}, ·) ist ein Homomorphismus. Der Kern ist also ein Normalteiler vom
Index 2 von Sn . An := Kern(sign) heißt die alternierende Gruppe vom Grad n. Ihre Elemente
heißen gerade Permutationen.
c) det : GL(n, K) → K ∗ := (K − {0}, ·) ist ein Homomorphismus f¨
ur jeden K¨orper K. Also
ist sein Kern ein Normalteiler von GL(n, K). Dieser wird mit SL(n, K) bezeichnet und heißt
spezielle lineare Gruppe vom Grad n.
T
¨
d) (in Ubung):
Sei U ≤ G eine Untergruppe von G. Dann ist Core(U ) := g∈G gU g −1 der gr¨oßte
Normalteiler von G, der in U enthalten ist. Es gilt Core(U ) = Kern(G → SG/U ).
(e) Ist G eine abelsche Gruppe (also gh = hg f¨
ur alle g, h ∈ G), so ist jede Untergruppe von G
ein Normalteiler.
Bemerkung: Eine Untergruppe N ≤ G ist genau dann ein Normalteiler von G, wenn sie
Vereinigung von Konjugiertenklassen ist.
Mithilfe dieser Bemerkung bestimmt man leicht alle Normalteiler von S4 :
S4 , A4 , V4 , {1}.
Satz 8.3. Sei N ein Normalteiler von G. Dann bildet die Menge der Restklassen G/N = {gN |
g ∈ G} eine Gruppe unter vertreterweiser Multiplikation
G/N × G/N → G/N, (gN )(hN ) := (gh)N.
58
KAPITEL 3. GRUPPEN UND OPERATIONEN
upfung wohldefiniert
Beweis. Es ist klar, dass wir eine Gruppe vorliegen haben, sobald die Verkn¨
ist, da die Rechenregeln dann aus denen von G folgen.
Zur Wohldefiniertheit:
Sei g 0 = gn ∈ gN und h0 = hm ∈ hN . Dann gilt
(g 0 h0 )N = (gnhm)N = (gh)(h−1 nh)mN = (gh)N.
q. e. d.
Normalteiler sind genau die Untergruppen N f¨
ur die die Faktorgruppe G/N wieder eine Gruppe
ist.
Beispiel: Die S3 = StabS4 (4) ist kein Normalteiler von S4 . Zum einen da π StabS4 (4)π −1 =
StabS4 (π(4)) ist, zum anderen aber auch, da die Restklassen {S3 , aS3 , a2 S3 , a3 S3 } mit a =
(1, 2, 3, 4) keine Gruppe bilden. Es ist (aS3 )2 = {ahag | g, h ∈ S3 } = S4 .
Bemerkung: Eine Untergruppe N ist genau dann ein Normalteiler von G, wenn gN = N g ist
f¨
ur alle g ∈ G. Insbesondere sind Untergruppen von Index 2 immer Normalteiler, denn es ist
G = N ∪ gN = N ∪ N g, also gN = G \ N = N g.
Die Bausteine aller endlichen Gruppen sind die endlichen einfachen Gruppen, das sind die endlichen Gruppen, die nur sich selbst und {1} als Normalteiler haben.
Definition 8.4. Eine Gruppe G 6= {1} heißt einfach, falls G und {1} die einzigen Normalteiler
von G sind.
Beispiel. Eine zyklische Gruppe Cn ist genau dann einfach, wenn n eine Primzahl ist.
¨
Beispiel. In der Ubung
werden Sie zeigen, dass A5 eine einfache Gruppe ist.
Hauptsatz 8.5. (Homomorphiesatz fu
¨ r Gruppen)
1) Ist G Gruppe und N E G ein Normalteiler von G, dann bildet die Menge G/N der Restklassen
von G nach N eine Gruppe mit vertreterweiser Multiplikation:
gN · hN := ghN f¨
ur alle g, h ∈ G
und der natu
¨ rliche Epimorphismus
ν = νN : G → G/N : g 7→ gN
ist ein surjektiver Homomorphismus mit Kern N .
2) Ist ϕ : G → H ein Gruppenhomomorphismus, so ist Kern ϕ ein Normalteiler von G und
Bild ϕ eine Untergruppe von H. Weiter definiert
ϕ˜ : G/ Kern ϕ → H : g Kern ϕ 7→ ϕ(g)
einen Monomorphismus und ϕ faktorisiert
ϕ = ϕ˜ ◦ νKern ϕ ,
d. h. das Diagramm
G
ϕ
−
→
νKern ϕ &
H
% ϕ˜
G/ Kern ϕ
kommutiert. Insbesondere sind G/ Kern ϕ und Bild ϕ ≤ H isomorph.
8. HOMOMORPHISMEN UND NORMALTEILER. (V15)
59
Beweis. 1) Diesen Teil haben wir bereits bewiesen in Satz 8.3.
2) Genauso wie im Homomorphiesatz f¨
ur Mengen zeigt man, dass ϕ˜ wohldefiniert und injektiv
ist. Es bleibt die Homomorphieeigenschaft von ϕ˜ zu u
ufen: Setze N := Kern ϕ und seien
¨berpr¨
g, h ∈ G. Dann gilt:
ϕ(gN
˜
hN ) = ϕ(gh) = ϕ(g)ϕ(h) = ϕ(gN
˜
)ϕ(hN
˜
).
Dass νKern ϕ ein Epimorphismus ist, wissen wir bereits. Die Komposition ϕ˜ ◦ νKern ϕ = ϕ rechnet
man leicht nach.
q. e. d.
Satz 8.6. (Noetherscher Isomorphiesatz) Sei N ein Normalteiler von G und U ≤ G. Dann
ist U N ≤ G, und N ∩ U E U und es gilt
U N/N ∼
= U/U ∩ N.
Beweis. Wegen N U = U N folgt U N ≤ G. Offenbar ist N auch ein Normalteiler von U N und
somit
µ : U → U N/N : u 7→ uN
ein Homomorphismus mit Kern U ∩ N und Bild U N/N . Die Behauptung folgt aus dem Homomorphiesatz.
q. e. d.
Definition 8.7. Eine Gruppe G heißt semidirektes Produkt, falls es einen Normalteiler
N E G und eine Untergruppe U ≤ G gibt mit
(a) N U = G und
(b) N ∩ U = {1}.
In Zeichen G = N o U .
Beispiel S4 = V4 o S3 wobei es egal ist, welche der 4 Untergruppen S3 in S4 gew¨ahlt wird.
Beachten Sie, alle Elemente 6= 1 in V4 haben keine Fixpunkte auf {1, 2, 3, 4}, also ist V4 ∩ S3 = 1.
Beispiel
A a
Aff n (K) := {
|a ∈ K n×1 , A ∈ GL(n, K)}. = K n×1 o GLn (K)
0 1
Dabei ist
K n×1
In a
={
| a ∈ K n×1 } der Kern des Gruppenhomomorphismus
0 1
Aff n (K) → GLn (K),
und GLn (K) die Untergruppe GLn (K) =
A 0
0 1
A a
0 1
7→ A
≤ Aff n (K).
Bemerkung 8.8. In einem semindirekten Produkt G = N oU hat jedes Element eine eindeutige
Darstellung als nu mit n ∈ N , u ∈ U . Es gilt
n1 u1 n2 u2 = n1 (u1 n2 u−1
1 )u1 u2
60
KAPITEL 3. GRUPPEN UND OPERATIONEN
Kapitel 4
Geometrie
9
Affine Geometrie
Lernziel: Definition und Modelle des affinen Raumes, affine Abbildungen, Invarianten der affinen
Geometrie.
9.1
Der affine Raum. (V15)
In der affinen Geometrie hat man einen Punktraum, dessen Punkte in Bijektion zu einem Vektorraum stehen, welcher in bestimmter Weise auf dem Punktraum (durch Translationen oder
Verschiebungen) operiert. Der wesentliche Unterschied zum Vektorraum besteht darin, dass kein
Punkt (Nullpunkt) mehr ausgezeichnet ist. Begriffe wie Geraden, Ebenen etc. lassen sich leicht
als sogenannte affine Unterr¨
aume definieren.
Definition 9.1. Sei V ein K-Vektorraum. Ein affiner Raum u
¨ber V ist eine nicht leere Menge
A, genannt Punktmenge, auf der V regul¨
ar 1 operiert. Genauer ist ein affiner Raum ein Tripel
(A, V, τ ), wobei
τ : V × A → A : (V, P ) 7→ τV (P )
eine regul¨
are Operation des Vektorraumes V auf dem Punktraum A ist. Die Abbildung τV :
A → A heißt die Translation um den Vektor V von A. Der Vektorraum V wird auch als
Translationsraum von A bezeichnet: T (A) := V. (Bezeichnung: Oft schreiben wir V + P oder
P + V anstatt τV (P ). Diese Schreibweise soll nicht implizieren, dass A = V ist.)
Bem: Jeder Vektorraum V ist ein affiner Raum mit Translationsraum V. Das Modell A = V =
T (A) hat den Nachteil, dass nicht zwischen den Punkten (Elementen von A) und den Vektoren
2 unterschieden wird. Daher bevorzugen wir das folgende Modell:
Beispiel 9.2. (unser Standardbeispiel) Ist V˜ ein K-Vektorraum mit nicht verschwindender Linearform ϕ : V˜ → K. Setze V := Kern(ϕ) und A(ϕ) := ϕ−1 ({1}). Dann ist (A(ϕ), V, τ ) mit
τ : V × A(ϕ) → A(ϕ) : (V, P ) 7→ V + P in V˜ gerechnet
ein affiner Raum.
Wir setzen speziell f¨
ur V˜ = K (n+1)×1 und ϕ ∈ (K (n+1)×1 )∗ die Projektion auf die letzte Komponente:
X
An (K) := A(ϕ) = {
|X ∈ K n×1 }
1
1
Da V eine abelsche Gruppe ist, sind die Begriffe regul¨
are Operation“ einerseits sowie treue und transitive
”
”
Operation“ andererseits ¨
aquivalent.
2
vector (lat.): jemand, der tr¨
agt, zieht oder bef¨
ordert
61
62
KAPITEL 4. GEOMETRIE
und nennen ihn den n-dimensionalen affinen Standardraum. Genau genommen ist
T (An (K)) = {
X
0
|X ∈ K n×1 },
was wir aber mit dem Vektorraum K n×1 identifizieren.
Bemerkung 9.3. Sei A ein affiner Raum u
¨ber dem K-Vektorraum V.
1) F¨
ur jeden Punkt P0 ∈ A ist
V → A : V 7→ τV (P0 )
eine Bijektion.
2) F¨
ur jedes Punktepaar (P, Q) ∈ A2 gibt es genau einen Vektor V ∈ V mit τV (P ) = Q.
−−→
Bezeichnung: V =: P Q.
Beweis. Spezialfall von Satz 7.9
q. e. d.
−−→
−−→
−−→
−−→
¨
Ubung:
Zeige f¨
ur P, Q, P 0 , Q0 ∈ A gilt P Q = P 0 Q0 genau dann, wenn P P 0 = QQ0 . (Hinweis:
Skizze!)
Wir kommen zur Definition affiner Teilr¨aume.
Definition 9.4. Sei (A, V, τ ) affiner Raum u
aum V. A0 ⊆ A heißt affiner
¨ber dem K-Vektorr¨
Teilraum von A, falls ein Teilvektorraum W ≤ V existiert, so dass (A0 , W, τ|W×A0 ) ein affiner
Raum u
¨ber W ist.
Bemerkung 9.5. Sei A affiner Raum u
¨ber V := T (A).
1) Der Translationsraum eines affinen Teilraums A0 von A ist eindeutig bestimmt.
−−→
T (A0 ) = {P Q | P, Q ∈ A0 }.
2) Zu jedem W ≤ V und jedem P ∈ A gibt es genau einen affinen Teilraum A0 von A mit P ∈ A0
und Translationsraum T (A0 ) = W, n¨
amlich P + W = W + P := τ (W × {P }), die Bahn von P
unter W.
Beweis. 1) Sofort aus 9.3. 2) Existenz: Verifiziere Eigenschaften f¨
ur P + W. Eindeutigkeit analog
zu 1).
q. e. d.
Bemerkung 9.6. Der Schnitt affiner Teilr¨
aume eines affinen Raumes A ist entweder leer oder
wieder ein affiner Teilraum.
Sind Ai (i ∈ I) affine Teilr¨
aume von A und ist P ∈ ∩i∈I Ai , so ist
∩i∈I Ai = P + ∩i∈I T (Ai ) = {τV (P ) | V ∈ ∩i∈I T (Ai )}.
Ist ∅ =
6 M ⊂ A eine Teilmenge,
so sei das affine Erzeugnis von M der kleinste affine Teilraum,
T
der M enth¨
alt: hM ia := M ⊂B≤A B.
Wie sieht das affine Erzeugnis einer zweipunktigen Teilmenge von A aus?
9. AFFINE GEOMETRIE
9.2
63
Affine Abbildungen. (V16)
Nun kommen wir zur Definition affiner Abbildungen. Diese bilden einen ganz wesentlichen Bestandteil der Definition des affinen Raumes, weil wir sonst nicht wissen, wie wir vergleichen
k¨onnen. Es liefert auch eine neue Charakterisierung der affinen Teilr¨aume: Die nicht leeren Fasern affiner Abbildungen werden die affinen Teilr¨aume sein.
Definition 9.7. Seien A, A0 affine R¨
aume u
aumen V, V 0 .
¨ber den K-Vektorr¨
0
f : A → A heißt affine Abbildung, falls eine lineare Abbildung f : V → V 0 existiert mit
−−−−−−→
−−→
f (P )f (Q) = f (P Q) f¨
ur alle P, Q ∈ A. f heißt auch der lineare Anteil von f .
Bemerkung 9.8. Seien A, A0 affine R¨
aume mit Translationsvektorraum V = T (A) und V 0 =
0
T (A ). Sei P0 ∈ A fest gew¨
ahlt.
(a) Jede affine Abbildung f : A → A0 ist eindeutig festgelegt durch ihren linearen Anteil f und
f (P0 ).
−−→
Ist n¨
amlich f (P0 ) =: Q0 ∈ A0 so ist f¨
ur P ∈ A und V := P0 P ∈ V (so dass P = τV (P0 ))
−−−−−→ −−−−−−−→
Q0 f (P ) = f (P0 )f (P ) = f (V ) also f (P ) = τf (V ) (Q0 ).
(b) F¨
ur jeden Punkt Q0 ∈ A0 und jede lineare Abbildung ϕ : V → V 0 gibt es genau eine affine
Abbildung f : A → A0 mit f (P0 ) = Q0 und f = ϕ.
Es ist f injektiv (surjektiv, bijektiv), genau dann wenn f injektiv (surjektiv, bijektiv) ist.
¨
Ubung:
Translationen sind affine Abbildungen, deren linearer Anteil die Identit¨at des Translationsraumes ist. Sie sind auch die einzigen affinen Abbildungen eines affinen Raumes in sich mit
dieser Eigenschaft.
Beispiel. Affine Abbildungen von An (K). W¨ahle P0 = (0, . . . , 0|1)tr ∈ An (K). Die affine AbbilS
n×1 ) und
dung f mit linearem Anteil S f = A (bzgl. der Standardbasis S von T (A
n (K)) =K
A b
.
f (P0 ) = Q0 = (b1 , . . . , bn |1)tr ist gegeben durch Matrixmultiplikation mit
0 1
Satz 9.9. 1) Kompositionen affiner Abbildungen sind affin: Sind A, A0 , A00 affine R¨
aume u
¨ber
K-Vektorr¨
aumen mit affinen Abbildungen f : A → A0 und f 0 : A0 → A00 , so ist f 0 ◦ f : A → A00
affin mit f 0 ◦ f = f 0 ◦ f .
−1
2) Ist f : A → A0 affin und bijektiv, so ist f −1 : A0 → A ebenfalls affin mit f −1 = f . (Man
sagt, f ist ein affiner Isomorphismus.) Insbesondere ist
Aff(A) := {f : A → A|f affin und bijektiv }
eine Gruppe (Untergruppe von SA , der symmetrischen Gruppe von A), genannt die affine Gruppe von A, und
Aff(A) → GL(T (A)) : f 7→ f
ein Homomorphismus von Gruppen.
3) Ist f : A → A0 affin und A00 ein affiner Teilraum von A, so ist f (A00 ) ein affiner Teilraum
von A0 mit T (f (A00 )) = f (T (A00 )).
4) Ist f : A → A0 affin und A00 ein affiner Teilraum von A0 , so ist f −1 (A00 ) leer oder ein affiner
−1
Teilraum von A mit T (f −1 (A00 )) = f (T (A00 )).
64
KAPITEL 4. GEOMETRIE
ur P, Q ∈ A ist
Beweis. 1) F¨
−−−
−−−−−−−−−−−−−→ −−−−−−−−−−−−→
(f 0 ◦ f )(P )(f 0 ◦ f )(Q) = f 0 (f (P ))f 0 (f (Q)) =
−−−−−−→
−−→
f 0 (f (P )f (Q)) = (f 0 ◦ f )(P Q).
2)Wegen der Identifikation von A mit T (A) und A0 mit T (A0 ) ist klar, dass f : T (A) → T (A0 )
¨
bijektiv ist. (Genauer Beweis: Ubung!).
Zeige nur noch
−−
−−−−−−−−−→
−1 −−→
f −1 (P 0 )f −1 (Q0 ) = f (P 0 Q0 )
f¨
ur alle P 0 , Q0 ∈ A0 . Dies ist aber a
¨quivalent zu
−−−−−−−−−−−→
−−→
f (f −1 (P 0 )f −1 (Q0 )) = P 0 Q0 .
¨
3) Ubung.
4) Leicht mit 9.5 Teil 2.
q. e. d.
Wir k¨onnen etwas unscharf sagen, dass affine Geometrie das Studium von Eigenschaften ist,
welche unter affinen Isomorphismen erhalten bleiben, oder auch das Studium der Invarianten
der affinen Gruppe bei diversen Operationen. Hier ein Anfang: Die Dimension.
Satz 9.10. Zwei affine R¨
aume A und A0 u
orper K sind genau dann affin
¨ber demselben K¨
isomorph, wenn Dim T (A) = Dim T (A0 ). Man nennt Dim A := Dim T (A) die Dimension des
affinen Raumes A. Insbesondere ist A affin isomorph zu An (K) f¨
ur n = Dim A. Ein affiner
Isomorphismus A → An (K) heißt affines Koordinatensystem.
Je nach Pr¨aferenz w¨
urde man eher einen affinen Isomorphismus auf A(K n×1 ) als affines Koordinatensystem bezeichnen. Wir bevorzugen aber An (K) als Standardmodell. Die Idee des
Koordinatensystems geht zur¨
uck auf Descartes,1596-1650, der hierdurch die Algebra und
Analysis als Hilfsmittel der Geometrie zug¨anglich machte.
Beweis. Ist f : A → A0 ein affiner Isomorphismus, so ist f : T (A) → T (A0 ) ein Vektorraumisomorphismus, also Dim T (A) = Dim T (A0 ). Umgekehrt, sei ϕ : T (A) → T (A0 ) ein Vektorraumisomorphismus. Offenbar ist f¨
ur jedes beliebige, fest gew¨ahlte P0 ∈ A die Abbildung
−−→
¨
A → A0 (T (A))(= T (A)) : P 7→ P0 P ein affiner Isomorphismus (Beweis: Ubung).
Also erh¨alt
0
man durch Komposition einen affinen Isomorphismus von A auf A , falls die Dimensionen gleich
−−→
¨
sind. (Man zeige als Ubungsaufgabe:
Dieser Isomorphismus ist gegeben durch P 7→ P00 +ϕ(P0 P ),
wo P00 ∈ A0 beliebig, aber fest gew¨
ahlt ist.)
q. e. d.
Somit ist die Dimension eine affine Invariante. Wir wollen uns ansehen, wie in den verschiedenen Modellen f¨
ur affine R¨
aume, die wir gesehen haben, die affinen Abbildungen aussehen und
dargestellt werden.
Definition 9.11. Sei A ein affiner Raum u
aumen A0 , A00 .
¨ber T (A) = V mit affinen Teilr¨
0
00
1) Die Teilr¨
aume heißen parallel, falls T (A ) = T (A ).
2) Sie heißen schwach parallel, falls T (A0 ) ⊆ T (A00 ) oder T (A00 ) ⊆ T (A0 ).
3) Sie heißen windschief, falls A0 ∩ A00 = ∅ und T (A00 ) ∩ T (A0 ) = {0}.
9. AFFINE GEOMETRIE
65
¨
¨
Sei A ein affiner Raum u
Ubung:
¨ber dem Vektorraum V. Zeige, dass Parallelit¨at eine Aquivalenz¨
relation auf der Menge aller affinen Teilr¨aume von A ist. Zeige weiter, dass die Aquivalenzklasse
mit zugeh¨origem Teilraum W ≤ T (A) wiederum einen affinen Raum A/W bildet, und zwar mit
Translationsraum V/W. Man nennt A/W auch den Bahnenraum von A mod W. (Beachte: V
operiert zwar auch transitiv auf A/W, aber nicht treu, es sei denn W = {0}.)
¨
Ubung:
Ist A ein affiner Raum u
¨ber dem K-Vektorraum V, und sind U, W ≤ V Teilr¨aume, so
gilt f¨
ur die Abbildung
ϕ : A → A/U × A/W : P 7→ (P + U, P + W),
1.) ϕ ist injektiv genau dann, wenn U ∩ W = {0}.
2.) ϕ ist surjektiv genau dann, wenn U + W = V.
Bemerkung. Parallelit¨
at und schwache Parallelit¨at von affinen Teilr¨aumen bleiben unter affinen Abbildungen erhalten. Die Eigenschaft, windschief zu sein, bleibt unter injektiven affinen
Abbildungen erhalten. Wie steht es mit Urbildern?
˜ ϕ, Kern(ϕ) = V, A(ϕ) = ϕ−1 ({1}) wie in 9.2. Entsprechend nehmen wir einen
Beispiel. Sei V,
˜ ψ, Kern(ψ) = W, A(ψ) = ψ −1 ({1}). Dann ist eine affine
zweiten affinen Raum mit den Daten W,
Abbildung f : A(ϕ) → A(ψ) nichts anderes als die Einschr¨ankung einer linearen Abbildung
˜ welche A(ϕ) in A(ψ) abbildet, d. h. f¨
α : V˜ → W,
ur die ψ ◦ α = ϕ. Wir haben also das folgende
kommutative Diagramm:
f
A(ϕ) −
→ A(ψ)
↓
↓
α
˜
˜
V
−
→
W
ϕ↓
↓ψ
K
=
K
¨
Ubung:
α legt f eindeutig fest und umgekehrt.
Wichtiger Spezialfall: Aff(An (K)) kann mit der Matrixgruppe
a t
|a ∈ GL(n, K), t ∈ K n×1 } ≤ GL(n + 1, K)
Aff(n, K) := {
0 1
identifiziert werden, die durch Linksmultiplikation auf An (K) operiert (¨ahnliche Operationen!).
Man beachte, dass Aff(n, K) schon als Stabilisator eines Kovektors als Untergruppe von GL(n +
1, K) fr¨
uher vorkam.
Bemerkung In Aff(n, K) gelten:
a t
b s
ab as + t
=
0 1
0 1
0
1
a t
0 1
−1
=
a−1 −a−1 t
0
1
und
a t
0 1
In s
0 1
a t
0 1
−1
=
In as
0 1
66
KAPITEL 4. GEOMETRIE
Der Homomorphismus “linearen Anteil nehmen” ist gegeben durch
a t
7→ a
Aff(n, K) → GL(n, K) :
0 1
9.3
Das Invarianzprinzip der affinen Geometrie. (V17)
Bemerkung 9.12. Aff(A) ist transitiv auf A und hat genau zwei Bahnen auf A × A.
Beweis. T (A) ≤ Aff(A) operiert regul¨
ar, also auch transitiv auf A, daher auch Aff(A). Ist P0 ∈ A
so ist der Stabilisator StabAff(A) (P0 ) isomorph zu GL(T (A)), verm¨oge der Abbildung
−−−−→
−−→
s ∈ StabAff(A) (P0 ) 7→ s : P0 P 7→ P0 s(P ).
Also hat StabAff(A) (P0 ) zwei Bahnen auf A, n¨amlich {P0 } und A \ {P0 }.
q. e. d.
In unserem Standardmodell An (K) kann man Πannehmen, dass P0 = (0, ..., 0, 1)tr . Dann ist
a 0
StabAff n (K) (P0 ) = {
|a ∈ GL(n, K)} ∼
= GL(n, K)
0 1
Bei der Operation auf Tripeln bekommen wir die ersten geometrischen Invarianten.
Definition 9.13. 1) P ∈ An heißt affin unabh¨
angig, falls f¨
ur jeden affinen Raum A0 u
¨ber
0
n
0
K und jedes Tupel Q ∈ (A ) eine affine Abbildung f : A → A existiert, mit f ◦ P = Q, d. h.
f (Pi ) = Qi f¨
ur i = 1, . . . , n. Ein maximal affin unabh¨
angiges System P in A heißt auch affine
Basis von A.
2) P ∈ An heißt kollinear bzw. komplanar, falls DimhP ia ≤ 1 bzw. ≤ 2 gilt.
Bemerkung 9.14. F¨
ur P ∈ An sind folgende Aussagen ¨
aquivalent:
1) P ist affin unabh¨
angig.
2) DimhP ia = n − 1.
−−−→
−−−−−→
3) (Pn P1 , . . . , Pn Pn−1 ) ∈ T (A)n−1 ist linear unabh¨
angig.
Ei
4) Die affine Abbildung An−1 (K) → hP ia : E˜i :=
7→ Pi definiert einen affinen Isomor1
phismus.
Beweis. 1) ⇒ 4) Dass eine affine Abbildung vorliegt, ist klar. Aus Definition der affinen Unabh¨angigkeit bekommt man eine affine Abbildung A → An−1 (K), die Pi auf E˜i abbildet. Die
Einschr¨ankung dieser Abbildung auf hP ia liefert die Inverse, d. h. es liegt ein affiner Isomorphismus vor.
4) ⇒ 2) Die Dimension ist eine Invariante f¨
ur affine Isomorphismen.
−−−→
−−−−−→
−−−→
−−−−−→
2) ⇒ 3) Es gilt T (hP ia ) = hPn P1 , . . . , Pn Pn−1 i. Also n−1 = DimhP ia = DimhPn P1 , . . . , Pn Pn−1 i.
3) ⇒ 1) Sei A0 irgendein affiner Raum u
¨ber dem K-Vektorraum V 0 und Q ∈ (A0 )n . Es existiert
−−→
−−−→
eine lineare Abbildung ϕ : V → V 0 mit ϕ(Pn Pi ) = Qn Qi f¨
ur i = 1, . . . , n. Also gibt es genau eine
affine Abbildung f : A → A0 mit f = ϕ und f (Pn ) = Qn . F¨
ur diese gilt offenbar f (Pi ) = Qi f¨
ur
i = 1, . . . , n.
q. e. d.
9. AFFINE GEOMETRIE
67
Bemerkung: Ist A = ϕ−1 (1) f¨
ur ϕ ∈ V˜ ∗ , so ist P ∈ An affin unabh¨angig genau dann wenn
P ∈ V˜ n linear unabh¨
angig ist.
˜ die in A enthalten sind.
Die affinen Basen von A sind also genau die Basen von V,
Sofort klar ist die folgende Bemerkung:
Bemerkung 9.15. 1) Affine Abh¨
angigkeit von Tupeln bleibt erhalten unter beliebigen affinen
Abbildungen.
2) Affine Unabh¨
angigkeit bleibt unter injektiven affinen Abbildungen erhalten.
Satz 9.16. Sei A ein affiner Raum u
¨ber dem endlich erzeugten K-Vektorraum V. Dann operiert
Aff(A) regul¨
ar auf der Menge der affinen Basen von A. Letztere bilden eine der Bahnen von
Aff(A) auf An+1 , wo n = Dim A.
Beweis. Sofort aus Satz 9.10 und Bemerkung 9.14.
q. e. d.
angigen Tripel
Satz 9.17. 1) Aff(A) operiert transitiv auf der Menge A3generisch der affin unabh¨
3
in A (nicht entartete Dreiecke), falls Dim(A) > 1.
2) Eine trennende Invariante f¨
ur die Operation von Aff(A) auf der Menge A3spez := {P =
(P1 , P2 , P3 ) ∈ A3 |P1 6= P2 , P kollinear } ist das Teilverh¨
altnis. Dabei ist das Teilverh¨
altnis
−−−→
−−−→
TV(P1 , P2 , P3 ) definiert als das eindeutige a ∈ K mit P1 P3 = aP1 P2 .
Beweis. 1) Wir k¨
onnen oBdA in A = A(ϕ) ⊂ V˜ arbeiten. Offenbar hat V˜ eine Basis B ∈ An+1
und jedes affin unabh¨
angige Tripel P ∈ A3 kann zu einer solchen Basis Pˆ ∈ An+1 von V˜ erg¨anzt
werden. Es gen¨
ugt nun zu zeigen, dass ein f ∈ Aff(A) existiert, mit f ((B1 , B2 , B3 )) = P . Dies
˜
ist aber klar, denn ein solches f wird induziert von der eindeutigen linearen Abbildung von V,
ˆ
die B auf P abbildet.
2) Dass eine Invariante vorliegt, ist klar. Um zu zeigen, dass sie die Bahnen trennt, gehen wir wieder von der Situation des Beweises von 1) aus mit der Basis B. Sei P ∈ A3spez mit Teilverh¨altnis
a ∈ K. Es gen¨
ugt zu zeigen, dass ein f ∈ Aff(A) existiert mit f ((B1 , B2 , B1 + a(B2 − B1 ))) = P .
˜ Die lineare Abbildung,
Zu diesem Zweck erg¨
anzt man (P1 , P2 ) zu einer Basis Pˆ ∈ An+1 von V.
ˆ
die B auf P abbildet, induziert den gew¨
unschten affinen Automorphismus.
q. e. d.
Aus dem letzten Beweis erhalten wir eine Folgerung, die eine sehr anschauliche Vorstellung von
der affinen Gruppe liefert.
Folgerung 9.18. Sei Dim(A) = n. Dann operiert Aff(A) transitiv auf Akgenerisch := {P ∈
Ak |P affin unabh¨
angig}, der Menge der affin unabh¨
angigen k-Tupel ((k − 1)-Simplizes) f¨
ur 1 ≤
k ≤ n + 1. Im Falle k = n + 1 ist der Stabilisator eines solchen Tupels ist trivial, d. h. in diesem
Falle ist die Operation regul¨
ar, vgl. Satz 9.16.
Wir wollen jetzt als Beispiel einen geometrischen Satz beweisen, f¨
ur weitere Beispiele verweise
ich auf das Skript und die Spezialvorlesung f¨
ur Lehramtskandidaten nach Weihnachten.
Satz 9.19. Sei K ein K¨
orper mit 6 · 1 6= 0, A ein affiner Raum u
¨ber K, (A, B, C) ∈ A3gen . Dann
schneiden sich die Seitenhalbierenden des nicht-entarteten Dreiecks (A, B, C) in einem Punkt
S, so dass das Teilverh¨
altnis TV(A, a, S) = 2/3 ist, wo a der Mittelpunkt der Seite (C, B) ist.
68
KAPITEL 4. GEOMETRIE
C
b
A
a
B
c
Beweis. Zun¨achst einmal definieren wir Seitenhalbierende:
sa = hA , aia , sb = hB , bia , sc = hC , cia
−−→
−−→
−→
wobei c = A + 21 AB, a = B + 21 BC, b = A + 21 AC. Um zu rechnen w¨ahlen wir Koordinaten f¨
ur
die Eckpunkte (A, B, C) des Dreiecks, also einen affinen Isomorphismus f : hA, B, Cia → A2 (K)
definiert durch
 
 
 
0
2
0





0 , f (B) =
0 , f (C) =
2 
f (A) =
1
1
1
Ein solcher Isomorphismus existiert, da (A, B, C) affin unabh¨angig ist. Es gen¨
ugt den Satz f¨
ur
das Bild unter f zu zeigen, da die Aussage invariant ist unter affinen Isomorphismen. Dann
−−→
ergeben sich die Fußpunkte f (a) = f (B + 21 BC) = (1, 1, 1)tr , f (b) = (0, 1, 1)tr , f (c) = (1, 0, 1)tr .
Die Seitenhalbierenden sind dann




2 − 2β
α
−→
 | β ∈ K},
β
f (sa ) = {f (A) + αf (Aa) =  α  | α ∈ K}, f (sb ){
1
1


γ
f (sc ) = { 2 − 2γ  | γ ∈ K}
1
Um den Schnittpunkt {S} = sa ∩ sb ∩ sc zu berechnen, suchen wir α, β, γ ∈ K mit

 
 

α
2 − 2β
γ
 α =
 =  2 − 2γ 
β
1
1
1


2/3
und finden als L¨
osung α = β = γ = 2/3 also f (S) =  2/3 . Das Teilverh¨altnis ergibt sich
1
als TV(A, a, S) = TV(f (A), f (a), f (S)) = 2/3 = TV(B, b, S) = TV(C, c, S).
Zum Beweis des n¨
achsten Satze ben¨
otigen wir Streckungen, also affine Abbildungen der Form
−−→
A → A : P 7→ P0 + aP0 P ,
wobei das feste P0 ∈ A das Streckzentrum ist und das a ∈ K ∗ der Streckfaktor.
¨
Zeige: Je zwei Streckungen von A sind konjugiert in Aff(A) genau dann, wenn sie denUbung:
selben Streckfaktor haben. Die Streckungen zusammen mit den Translationen bilden einen Normalteiler in Aff(A) isomorph zur Matrixgruppe
aIn t
{
|a ∈ K ∗ , t ∈ K n×1 }. ∼
= K n×1 o K ∗
0 1
9. AFFINE GEOMETRIE
69
Satz 9.20. (Pappos) Seien Dim(A) = 2 und D, D0 zwei Geraden in A mit sechs verschiedenen
Punkten P, Q, R ∈ D, P 0 , Q0 , R0 ∈ D0 , von denen keiner in D ∩ D0 liegt. Gilt hP, Q0 ia k hQ, P 0 ia
und hQ, R0 ia k hR, Q0 ia , so folgt hP, R0 ia k hR, P 0 ia .
R
Q
P
R’
Q’
P’
Beweis. Wir betrachten zun¨
achst den Fall, dass D und D0 sich schneiden. Dann sei {P0 } =
−−→
D ∩ D0 und f1 die Streckung mit Zentrum P0 , die P in Q = P + aP0 P u
uhrt, und f2
¨berf¨
die Streckung mit Zentrum P0 , die Q nach R u
uhrt. Es ist Q0 = τV (P ), also f1 (Q0 ) =
¨berf¨
f1 (τV (P )) = τaV (f1 (P )) = τaV (Q) = P 0 und ebenso f2 (R0 ) = Q0 . Dann ist (f2 ◦ f1 )(P ) = R und
(f1 ◦ f2 )(R0 ) = P 0 . Da der lineare Anteil von f2 ◦ f1 gleich dem von f1 ◦ f2 gleich b idV ist (f¨
ur
−−→0 −−→0
∗
0
0
ein b ∈ K ), gilt bP R = RP und somit hP, R ia k hR, P ia .
Falls D und D0 sich nicht schneiden, arbeitet man mit Translationen, denn dann sind D und D0
parallel.
q. e. d.
Den Rest dieses Abschnitts werden wir nicht in der Vorlesung behandeln, eventuelle Teile davon
¨
als Ubung:
Den n¨achsten Satz kann man als weitgehende Verallgemeinerung einer Version des Strahlensatzes
auffassen.
Satz 9.21. Sei Dim(A) = n und Hi f¨
ur i = 1, 2, 3 Hyperebenen in A, also affine Teilr¨
aume der
Dimension n − 1. H1 , H2 , H3 seien parallel und H1 6= H2 .
1) Jede Gerade (= 1-dimensionaler affiner Teilraum von A), die nicht schwach parallel zu H1
ist, hat genau einen Schnittpunkt mit Hi f¨
ur i = 1, 2, 3. (Die Schnittpunkte sind offenbar kollinear.)
2) Das Teilverh¨
altnis der drei Schnittpunkte aus 1) ist unabh¨
angig von der Wahl der Geraden
und legt H3 auf Grund der Nebenbedingungen Dim H3 = n − 1, H3 k H1 eindeutig fest.
Beweis. 1. Beweis. Sei W := T (H1 ) = T (H2 ) = T (H3 ). Wir betrachten A/W := {P +W|P ∈ A}
als eindimensionalen affinen Raum und beachten, dass ν : A → A/W : P 7→ P + W eine affine
Abbildung ist. F¨
ur jede Gerade G, wie in 1) spezifiziert, ist ν|G ein affiner Isomorphismus. Klar:
−1
Die Schnittpunkte sind ν|G
(Hi ) und die Behauptung u
¨ber die Teilverh¨altnisse folgt auch, da
diese bei Anwendung von affinen Isomorphismen fest bleiben.
2. Beweis. Sei G eine Gerade wie in 1) angegeben. Dann gilt T (A) = T (H1 )⊕T (G). Entsprechend
haben wir eine affine Abbildung, genauer eine Parallelprojektion, von A entlang T (H1 ) auf
G, n¨amlich
π : A → A : P 7→ P 0 mit {P 0 } = (P + T (H1 )) ∩ G.
(Man muss nachrechnen, dass dies eine affine Abbildung ist. Die Projektionseigenschaft ist klar.)
Jetzt kann der Beweis analog zum ersten Beweis fortgesetzt werden.
q. e. d.
¨
Ubung:
Definiere Parallelprojektionen allgemein.
70
KAPITEL 4. GEOMETRIE
¨
Zeige, dass in der affinen Ebene zwei Geraden sich entweder schneiden oder parallel sind.
Ubung:
Genauer: Studiere die Bahnen unter der ebenen affinen Gruppe auf der Paarmenge der Geraden
in der affinen Ebene.
¨
Eigentlich ist der Satz von Pappos ein Satz, der zur projektiven Geometrie geh¨ort. Ahnlich
ist
es mit dem Satz von Desargues, der sich im affinen Raum abspielt. Der Beweis, den ich geben
werde, ist vielleicht vom synthetisch-geometrischen Standpunkt aus nicht sch¨on, demonstriert
aber die Descartessche Idee, durch Einf¨
uhrung von Koordinaten geometrische S¨atze durch
algebraische Rechnungen zu beweisen. F¨
ur kompliziertere Situationen kann man sogar Computer
heranziehen, um derartige Beweise “durchzurechnen”.
Satz 9.22. (Desargues3 ) Seien (A, B, C), (A0 , B 0 , C 0 ) ∈ A3generisch zwei nicht entartete Dreiecke, die keine Eckpunkte gemeinsam haben und f¨
ur die hA, Bia k hA0 , B 0 ia , hB, Cia k hB 0 , C 0 ia ,
hA, Cia k hA0 , C 0 ia . Dann schneiden sich die drei Geraden hA, A0 ia , hB, B 0 ia , hC, C 0 ia in einem
gemeinsamen Punkt oder sind paarweise parallel.
A’
A
C
C’
B
B’
Beweis. Da die beiden Dreiecke nicht entartet sind, erzeugen sie einen drei- oder zweidimensiona¨
len affinen Raum. Wir behandeln nur den ersten Fall, den zweiten u
¨berlasse ich Ihnen als Ubung:
0
OBdA ist (A, B, C, A ) nicht komplanar. Dann k¨onnen wir affine Koordinaten κ : hA, B, C, A0 , B 0 , C 0 ia →
A0 (K 3×1 ) so w¨
ahlen (wir arbeiten hier nicht mit An (K), weil es uns nicht weiter hilft!), dass
 
 

 
0
0
1
0
0







0 
1 , κ(A ) =
0 , κ(C) =
0 , κ(B) =
κ(A) =
1
0
0
0

ist. Wegen der Parallelit¨
at der Seiten folgt durch kurze Rechnung


 
a
0
0
0



0
a 
κ(B ) =
, κ(C ) =
1
1
f¨
ur ein a ∈ K. Da (A0 , B 0 , C 0 ) nicht kollinear ist, folgt a 6= 0. Im Falle a = 1 sind die drei
Geraden hA, A0 ia , hB, B 0 ia , hC, C 0 ia parallel. Anderenfalls schneiden sie sich in dem Punkt mit
1 tr
den Koordinaten (0, 0, 1−a
) .
q. e. d.
10
Euklidische affine Geometrie. (V18)
Lernziel: Euklidische Geometrie und ihre Invarianten, Abst¨ande, Winkel, Kongruenzs¨atze.
3
Genauer handelt es sich um eine affine Konsequenz der Umkehrung des (projektiven) Satzes von Desargues.
Die Umkehrung ergibt sich aber durch Dualisieren aus dem urspr¨
unglichen Satz von Desargues, wie noch gezeigt
werden wird.
10. EUKLIDISCHE AFFINE GEOMETRIE. (V18)
71
Bislang haben wir uns mit allgemeinen affinen R¨aumen besch¨aftigt. Jetzt wollen wir unsere
Betrachtungen spezialisieren und einen weiteren Aspekt, den wir aus unserem Anschauungsraum
kennen, ber¨
ucksichtigen, n¨
amlich den Abstand von Punkten.
Definition 10.1. 1) Ein Euklidischer affiner Raum E ist ein endlich dimensionaler reeller
affiner Raum, dessen Translationsraum V = T (E) ein Euklidischer Vektorraum ist, also mit
einem inneren Produkt Φ ausgestattet ist.
2) Die Euklidische Metrik oder der Euklidische Abstand d auf E ist definiert durch
q
−−→ −−→
−−→
d : E × E → R : (P, Q) 7→ Φ(P Q, P Q) = |P Q|.
3) Sind E, E 0 Euklidische R¨
aume, so heißt eine affine Abbildung f : E → E 0 isometrische
Einbettung, falls sie die Metriken respektiert, also
d(P, Q) = d0 (f (P ), f (Q)) f¨
ur alle P, Q ∈ E,
wobei d0 die Euklidische Metrik von E 0 ist. Ist f noch zus¨
atzlich surjektiv, also bijektiv, so heißt
f Isometrie.
Man kann sich u
¨berlegen, dass jede Abbildung E → E 0 von Euklidischen R¨aumen, die die
Metriken respektiert, automatisch affin ist; wir wollen uns jetzt aber nicht damit aufhalten.
¨
Ubung:
Zeige, dass der Euklidische Abstand d auf E den u
ugt:
¨blichen Axiomen einer Metrik gen¨
1) d(P, Q) ≥ 0 f¨
ur alle P, Q ∈ E mit Gleichheit genau dann, wenn P = Q gilt.
2) d(P, Q) = d(Q, P ) f¨
ur alle P, Q ∈ E.
3) d(P, Q) ≤ d(P, R) + d(R, Q) f¨
ur alle P, Q, R ∈ E.
Analog zu den einf¨
uhrenden Beispielen affiner R¨aume in 9.2 haben wir hier die folgenden Beispiele.
Beachte: Ist (V, Φ) ein Euklidischer Vektorraum, so ist V ein affiner Euklidischer Raum.
P
Beispiel 10.2. Sei V˜ = Rn+1 und Φ : V˜ × V˜ → R definiert durch Φ(X, Y ) = ni=1 Xi Yi . Dann
sei En := {X ∈ V˜ | Xn+1 = 1} unser standard affiner Euklidischer Raum. Es gilt T (En ) = Rn×1
mit dem Standardskalarprodukt.
Satz 10.3. 1) Jeder n-dimensionale Euklidische affine Raum ist isometrisch zu En .
2) Sind E, E 0 Euklidische affine R¨
aume, so existiert genau dann eine isometrische Einbettung
von E in E 0 , falls Dim E ≤ Dim E 0 .
3) Jeder affine Teilraum eines affinen Euklidischen Raumes ist wieder Euklidischer Raum
und die nat¨
urliche Inklusion ist eine isometrische Einbettung.
4) Jede Isometrie von einem affinen Teilraum eines Euklidischen Raumes E auf einen anderen
l¨
asst sich zu einer Isometrie von E auf sich fortsetzen.
5) Die Isometrien von E auf sich bilden eine Untergruppe Iso(E) von Aff(E). Diese Gruppe heißt
Isometriegruppe von E oder Gruppe der Euklidischen Bewegungen von E oder einfach
Euklidische Gruppe von E.
6) {τV |V ∈ T (E)} ≤ Iso(E), d. h. jede Translation ist eine Isometrie. Insbesondere operiert
Iso(E) transitiv auf E.
7) F¨
ur f ∈ Aff(E) gilt:
f ∈ Iso(E) genau dann, wenn f ∈ O(T (E)),
72
KAPITEL 4. GEOMETRIE
d. h. eine affine Transformation ist genau dann eine Isometrie, wenn ihr linearer Anteil orthogonal ist.
g
t
|g ∈ O(n, R), t ∈ Rn×1 } ≤ Aff(n, R)
8) Iso(E) ∼
= Iso(n, R) := {
0 1
Genauer, jede Isometrie κ : E → En (aufgefasst als Koordinatensystem) ist ein solcher Isomorphismus.
Beweis. Wird in der Vorlesung skizziert.
q. e. d.
Definition 10.4. Sei E ein euklidischer affiner Raum.
−−−→ −−−→
(a) Sei P ∈ E 3 mit P1 6= P2 6= P3 . Der Winkel ∠(P ) ist definiert als der Winkel ∠(P2 P1 , P2 P3 ) ∈
[0, 2π) im Sinne des Euklidischen Vektorraumes T (E).
(b) Ein k + 1-Tupel
−−−→
−−−→
P ∈ E k+1 mit (P0 P1 , . . . , P0 Pk ) ONSystem in T (E)
heißt orthonormales k-Bein von E.
Klar: Es gibt orthonormale k-Beine in E genau dann wenn k ≤ Dim E = n und jedes orthonormale k-Bein kann zu einem orthonormalen n-Bein erg¨anzt werden.
Da wir schon wissen, dass die orthogonale Gruppe eines Vektorraumes transitiv mit trivialem
Stabilisator auf der Menge aller Orthonormalbasen eines Vektorraumes operiert und daher eine
Bijektion zwischen der orthogonalen Gruppe und der Menge der ONBasen besteht, bekommen
wir eine sehr anschauliche Vorstellung von der Euklidischen Gruppe, genauer von der Gesamtheit ihrer Elemente:
Folgerung 10.5. Sei Dim E = n und
−−−−−→
−−−−−→
B(E) := {P ∈ E n+1 |(Pn+1 P1 , . . . , Pn+1 Pn ) ist ONBasis von T (E)}
die Menge der orthonormalen n-Beine von E. Dann operiert Iso(E) regul¨
ar auf B(E). Insbesondere ist f¨
ur jedes fest gew¨
ahlte P ∈ B(E)
Iso(E) → B(E) : g 7→ gP = (gP1 , . . . , gPn+1 )
eine Bijektion.
Satz 10.6. Iso(E) operiert transitiv auf der Menge der k-dimensionalen affinen Teilr¨
aume von
E. Ist T ≤ E ein k-dimensionaler affiner Teilraum von E und (P1 , . . . , Pk , Pn+1 ) ∈ T k+1 ein
orthonormales k-Bein von T , so dass (P1 , . . . , Pk , Pk+1 , . . . , Pn , Pn+1 ) ein orthonormales n-Bein
von E ist, so ist bezgl. des Koordinatensystems
Pi 7→ (ei |1)tr , Pn+1 7→ (0|1)tr
der Stabilisator von T gegeben als


A 0 t
{ 0 B 0  |A ∈ O(k, R), t ∈ Rk×1 , B ∈ O(n − k, R)},
0 0 1
10. EUKLIDISCHE AFFINE GEOMETRIE. (V18)
73
Beweis. Seien T , S ≤ E zwei k-dimensionale affine Teilr¨aume von E und (P1 , . . . , Pk , Pn+1 ) ∈
T k+1 ein orthonormales k-Bein von T , (Q1 , . . . , Qk , Qn+1 ) ∈ S k+1 ein orthonormales k-Bein
von S, und erg¨
anze beide zu orthonormalen n-Beinen P := (P1 , . . . , Pk , Pk+1 , . . . , Pn , Pn+1 )
bzw. Q := (Q1 , . . . , Qk , Qk+1 , . . . , Qn , Qn+1 ) von E. Dann gibt es genau eine affine Abbildung
ϕ ∈ Aff(E) mit ϕ(P ) = Q. Diese Abbildung ist eine Isometrie, da ϕ eine ON-Basis von T (E)
auf eine ON-Basis abbildet, also ϕ ∈ Iso(E) woraus die Transitivit¨at folgt. Der Stabilisator von
T l¨asst T (T ) aber auch T (T )⊥ invariant, woraus sich die spezielle Gestalt leicht ergibt. q. e. d.
Bevor wir die Operation auf der Menge der Teilr¨aume vertiefen, wollen wir die Operation auf den
Mengen der Zwei- und Dreiecke betrachten und mit dem allgemeinen affinen Fall vergleichen.
2
2
Bemerkung 10.7. Sei Egenerisch
:= {(P, Q) ∈ E 2 |P 6= Q}. Iso(E) operiert auf Egenerisch
wobei
der Abstand eine trennende Invariante ist.
Beweis. Das Iso(E) transitiv auf E operiert, entsprechen die Bahnen von Iso(E) auf E × E genau den Bahnen des Stabilisators StabIso(E) (P0 ) eines Punktes P0 ∈ E. Dieser Stabilisator ist
aber isomorph zur orthogonalen Gruppe, und die Bahnen von StabIso(E) (P0 ) sind parametrisiert
durch den Abstand von P0 .
Wir k¨onnen dies auch direkt beweisen: Es ist klar, dass der Abstand eine Invariante ist. Sei
−−→
−−→
a := d(P1 , Q) = d(P10 , Q0 ) 6= 0. P2 := P1 + a1 P Q und P20 := P10 + a1 P 0 Q0 und erg¨anze zu ortho0
normalen n-Bein (P1 , P2 , . . . , Pn+1 ) bzw. (P10 , P20 , . . . , Pn+1
). Die Isometrie ϕ ∈ Iso(E), die P auf
0
0
0
P abbildet bildet (P1 , Q) auf (P1 , Q ) ab.
q. e. d.
3
¨
sind durch das Teilverh¨altnis und den Abstand der
Ubung:
Die Bahnen von Iso(E) auf Espeziell
ersten beiden Punkte beschrieben. D. h. die Invariante TV von Aff(E) zusammen mit der neuen
Invariante
3
d12 : Espeziell
→ R : P 7→ d(P1 , P2 )
3
→ R2 f¨
ur die Operation von Iso(E).
bildet eine trennende Invariante (TV, d12 ) : Espeziell
3
Bekanntlich machte Aff(E) genau eine Bahn auf Egenerisch
. Diese Bahn zerf¨allt nun in unendlich
viele Bahnen unter Iso(E). Die Beschreibungen dieser Bahnen durch diverse trennende Invarianten heißen in der Schulgeometrie oft Kongruenzs¨atze, weil man Objekte, die in derselben Bahn
unter Iso(E) liegen, auch als kongruent bezeichnet. Klar: Der Winkel ist eine Invariante der
3
Operation von Iso(E) auf Egenerisch
. Wir greifen exemplarisch zwei Kongruenzs¨atze heraus.
3
Satz 10.8. Die Bahnen von Iso(E) auf der Menge Egenerisch
der nicht entarteten Dreiecke in E
sind beschrieben durch
1) die drei Seitenl¨
angen, also durch das Tripel der Invarianten d12 , d23 , d13 , wo
3
dij : Egenerisch
7→ R : P 7→ d(Pi , Pj )
oder durch
2) die L¨
ange der erste Seite und die beiden anliegenden Winkel, also durch (d12 , ∠, ∠ ◦ σ), wo
σ ∈ S3 durch σ(1) = 3, σ(2) = 1, σ(3) = 2 festgelegt ist.
Beweis. Da Iso(E) transitiv auf der Menge der zweidimensionalen Teilr¨aume von E operiert und
jede Isometrie eines solchen Teilraumes auf sich zu einer Isometrie von ganz E fortgesetzt werden
kann, k¨onnen wir oBdA annehmen, dass Dim E = 2 gilt. Da der Abstand d eine trennende Invariante f¨
ur die Operation von Iso(E) auf E 2 ist, brauchen wir nur noch die Bahnen des Stabilisators
74
KAPITEL 4. GEOMETRIE
eines Paares (P1 , P2 ) ∈ E 2 mit P1 6= P2 zu bestimmen. Dieser Stabilisator besteht aber nur noch
aus zwei Elementen, n¨
amlich der Identit¨at und der orthogonalen Spiegelung an der Geraden
hP1 , P2 ia . Nun ist aber auch klar, dass man durch die Vorgabe von (P1 , P2 ) und die Abst¨ande
von P3 zu P1 und P2 wie in 1) vorgegeben bzw. der Winkel ∠(P3 , P1 , P2 ) und ∠(P1 , P2 , P3 ) nur
noch genau zwei M¨
oglichkeiten f¨
ur P3 hat und dass diese beiden M¨oglichkeiten gerade eine Bahn
unter dem Stabilisator von (P1 , P2 ) bilden.
q. e. d.
¨
Ubung:
Man formuliere alle Kongruenzs¨atze f¨
ur Pot3,generisch (E) der affin unabh¨angigen dreiele3
mentigen Teilmengen von E statt Egenerisch . Man beachte den Vorteil dieser Betrachtungsweise,
indem man gleichseitige und gleichschenklige Dreiecke u
¨ber den Stabilisator definiert.
Wir kommen nun zur Operation der Euklidischen Gruppe Iso(E) auf den affinen Teilr¨aumen
von E. Da wir die Dimension schon als trennende Invariante erkannt haben, sind jetzt Paare
von solchen Teilr¨
aumen von Interesse. Wenn die Teilr¨aume parallel sind, ist die Sache einfach:
Der Abstand der Teilr¨
aume ist eine trennende Invariante. Wir hatten bereits im ersten Semester
bei der Diskussion der Euklidischen Vektorr¨aume einen Satz, den wir in der neuen Sprache
formulieren wollen. Eine kleine Vor¨
ubung, die bereits in das Kapitel u
¨ber allgemeine affine
Geometrie geh¨
ort, hilft uns:
Satz 10.9. F¨
ur zwei affine Teilr¨
aume A, B von E wird das Minimum d(A, B) der d(P, Q) mit
P ∈ A, Q ∈ B angenommen und heißt der Abstand der Teilr¨
aume. Ist d(A, B) 6= 0 und ist
−−−→
⊥
d(P0 , Q0 ) = d(A, B), so gilt P0 Q0 ∈ (T (A) + T (B)) .
Beweis. Wir k¨
onnen annehmen, dass E = hA, Bia . Sei U := T (A) + T (B) und V := T (E). (Im
Falle A ∩ B = ∅ ist U := T (A) + T (B) 6= V := T (E). ) Damit ist V = U ⊕ U ⊥ . F¨
ur P ∈ A
−−→
und Q ∈ B gilt also: P Q = UA + UB + U f¨
ur geeignete UA ∈ T (A), UB ∈ T (B), U ∈ U ⊥ .
2
2
Nach Pythagoras gilt d(P, Q) = |UA + UB | + |U |2 . Indem wir P durch UA und Q durch UB
verschieben, sehen wir, dass d(P, Q) = |U | nicht unterboten werden kann, aber auch, dass es
eine Wahl von P ∈ A, Q ∈ B gibt, wo dieses Minimum angenommen wird. Man beachte, dass
U nur von A und B, nicht hingegen von der Wahl von P ∈ A oder Q ∈ B abh¨angt.
q. e. d.
Klar: Der Abstand zweier Teilr¨
aume ist eine Invariante der Operation von Iso(E) auf der Menge
der Paare affiner Teilr¨
aume.
¨
Ubung:
Zeige:
1.) {(P, Q) ∈ A × B|d(P, Q) = d(A, B)} ist eine Bahn unter T (A) ∩ T (B) bei der Translationsoperation. Zeige weiter: Im Falle A ∩ B = ∅ ist Dim(T (A) + T (B)) = Dim T (hA, Bia ) − 1.
2.) Sei A ∩ B = ∅. Ist U ∈ T (hA, Bia ) der bis aufs Vorzeichen eindeutige Vektor senkrecht zu
−−→
T (A) + T (B) mit |U | = 1, so ist d(A, B) = |Φ(U, P Q)| f¨
ur zwei beliebige Punkte P ∈ A, Q ∈ B.
Eine trennende Invariante zu finden ist in den meisten F¨allen nicht so einfach. Greifen wir uns
Paare von Geraden heraus: Man u
¨berlegt sich leicht, dass der Abstand und der Winkel zwischen
den beiden Translationsr¨
aumen zusammen eine trennende Invariante bilden. Im allgemeinen
ben¨otigt man mehr Winkel.
Definition 10.10. Sei (V, Φ) ein Euklidischer Vektorraum. F¨
ur 2 Teilr¨
aume U, W ≤ V mit
Dim(U) = k ≤ Dim(W) =: ` definiere die Hauptwinkel A(U, W) = (θ1 , . . . , θk ) wie folgt:
θ1 := min{∠(U, W ) | 0 6= U ∈ U, 0 6= W ∈ W}. Ist U1 ∈ U und W1 ∈ W mit ∠(U1 , W1 ) = θ1 so
setze U1 := U1⊥ ≤ U und W1 := W1⊥ ≤ W. Dann bestimmen sich die restlichen k −1 Hauptwinkel
rekursiv durch A(U1 , W1 ) = (θ2 , . . . , θk ).
10. EUKLIDISCHE AFFINE GEOMETRIE. (V18)
75
Klar: Dim(U ∩ W) = {i | θi = 0}.
Bemerkung 10.11. Sind U, W ≤ V wie in der Definition mit m := Dim(U ∩ W), so gibt es
eine ONBasis (B1 , . . . , Bn ) von V f¨
ur die B1 . . . , B` eine ONBasis von W ist so dass
(B1 , . . . , Bm , cos(θm+1 )Bm+1 + sin(θm+1 )B`+1 , . . . , cos(θk )Bk + sin(θk )B`+(k−m) )
eine ONBasis von U ist. Insbesondere sind die Hauptwinkel eine trennende Invariante der Operation der orthogonalen Gruppe O(V, Φ) auf
T R(V, k, `) := {(U, W) | Dim(U) = k, Dim(W) = `}.
¨
Ubung:
Sei V = En = Rn der n-dimensionale standard Euklidische Vektorraum und U, W
Teilr¨aume von V mit dim(U) = k ≤ ` = dim(W).
(a) Sei X ∈ Rn×k so dass die Spalten von X eine ON-Basis von U bilden. Dann sind die ONBasen von U gegeben durch die Spalten der Matrizen in der Menge
{Xg | ginRk×k , g tr g = Ik ( also g ∈ Ok }
(b) Fixiere ON-Basen X, Y ∈ Rn×k von U bzw. W. F¨
ur g ∈ Ok , h ∈ O` sei P (g, h) :=
tr
k×`
(Xg) (Y h) ∈ R . Zeigen Sie, dass alle Matrizen in M (U, W) := {P (g, h)P (g, h)tr | g ∈
¨
Ok , h ∈ O` } in einer Ahnlichkeitsklasse
liegen.
(c) Sind θ1 , . . . , θk die Hauptwinkel A(U, W) so sind die Eigenwerte der Matrizen in M (U, W)
gegeben durch (cos(θ1 )2 , . . . , cos(θk )2 ).
Satz 10.12. Die euklidische Bewegungsgruppe Iso(E) operiert auf der Menge
T R(E, k, `) := {(B, C) | Dim(B) = k, Dim(C) = `}.
Eine trennende Invariante der Operation ist gegeben durch Abstand und Hauptwinkel der Translationsr¨
aume
(d, A) : T R(E, k, `) → R≥0 × Rmin(k,`) , (B, C) 7→ (d((B, C)), A(T (B), T (C)))
Beweis. Zun¨achst einmal ist klar, dass dies eine Invariante der Operation ist. Wir zeigen, dass
sie die Bahnen trennt.
Seien (B, C) ∈ T R(E, k, `) und (B 0 , C 0 ) ∈ T R(E, k, `) mit d(B, C) = d(B 0 , C 0 ) =: δ. Der einfacheren
Schreibweise halber betrachten wir nur den Fall dass δ > 0 und Dim(T (B) ∩ T (C)) = 0 und
nehmen Œ an dass k ≤ ` ist. Sei also
A(B, C) := A(T (B), T (C)) = A(B 0 , C 0 ) = (θ1 , . . . , θk ).
Seien weiter P0 ∈ B, Q0 ∈ C, P00 ∈ B0 , Q00 ∈ C 0 , so dass d(P0 , Q0 ) = d(P00 , Q00 ) = δ. Dann ist
→
−
( P0 Q0 ) orthogonal zu T (B) ⊕ T (C) =: U und es gibt eine ON-Basis (B1 , . . . , Bk+` ) von U sowie
Punkte P1 , . . . , Pk ∈ B, Q1 , . . . , Q` ∈ C, so dass (B1 , . . . , B` ) eine ON-Basis von T (C) ist, Bi =
−−−→
−−−→
−−−→
Q0 Qi (1 ≤ i ≤ `) und (P0 P1 = cos(θ1 )B1 + sin(θ1 )B`+1 , . . . P0 Pk = cos(θk )Bk + sin(θk )B`+k ) eine ON-Basis von T (B). Ebensolche orthonormalen k-Beine (P00 , P10 , . . . , Pk0 ) und (Q00 , Q01 , . . . , Q0` )
0
0
findet man
auch
und `-Beine die Translation
−−−
→0 in B und C . Indem wir vor der Wahl der k-Beine
0
um V := P0 P0 anwenden, k¨
onnen wir Πannehmen dass P0 = P0 und suchen nun eine Isometrie
im Stabilisator von P0 (isomorph zur orthogonalen Gruppe von V), die Pi auf Pi0 abbildet und Qi
−−−→
auf Q0i . Eine solche Abbildung erhalten wir, indem wir die ON-Systeme ( √1δ P0 Q0 , B1 , . . . , B`+k )
−−−→
0
bzw. ( √1δ P0 Q00 , B10 , . . . , B`+k
) zu ON-Basen erg¨anzen, als die eindeutige orthogonale Abbildung,
die diese aufeinander abbildet.
q. e. d.
76
11
KAPITEL 4. GEOMETRIE
Projektive Geometrie. (V19)
¨
Viele Fallunterscheidungen der affinen Geometrie fallen beim Ubergang
zur projektiven Geometrie weg. Beispielsweise schneiden sich zwei Geraden der affinen Ebene oder sind parallel.
Definition 11.1. Sei V˜ =
6 {0} ein K-Vektorraum.
1) Die multiplikative Gruppe K ∗ von K operiert auf V˜ − {0} durch Multiplikation. Die Menge
˜ bezeichnet und heißt der projektive Raum auf V.
˜
(V˜ − {0})/K ∗ der Bahnen wird mit P(V)
Als seine (projektive) Dimension definiert man
˜ := Dim V˜ − 1,
Dim P(V)
(weil man gewissermassen eine Dimension durch die Operation von K ∗ verloren hat). Notation
f¨
ur die Punkte des projektiven Raumes: [V ] := K ∗ V f¨
ur V ∈ V˜ − {0}.
˜
˜ − {0})/K ∗ f¨
ur Vektorteilr¨
aume {0} =
6
2) Ein projektiver Teilraum von P(V) ist durch (W
˜ ≤ V˜ gegeben.
W
˜ und P(W)
˜ projektive R¨
˜ W
˜ sind K-Vektorr¨
3) Sind P(V)
aume u
orper K, d. h. V,
aume,
¨ber dem K¨
˜
˜
so heißt f : P(V) → P(W) eine projektive Abbildung, falls eine injektive lineare Abbildung
˜ existiert mit
f˜ : V˜ → W
f ([V ]) = [f˜(V )] f¨
ur alle V ∈ V˜ − {0}.
Wir schreiben f =: [f˜]. Eine bijektive projektive Abbildung heißt Projektivit¨
at. Die Gruppe
˜ auf sich wird mit PGL(V)
˜ bezeichnet.
aller Projektivit¨
aten von P(V)
˜ stehen in nat¨
Klar: Die Punkte des projektiven Raumes P(V)
urlicher Bijektion zu den eindi˜
mensionalen Teilr¨
aumen von V. Entsprechend korrespondieren die k-dimensionalen projektiven
˜ zu den (k + 1)-dimensionalen linearen Teilr¨aumen von V.
˜
Teilr¨aume von P(V)
Beispiel: Sei K (n+1)×1 der n + 1-dimensionale Spaltenraum. Die Punkte von P(n, K) :=
P(K (n+1)×1 ) werden mit


a1
 a2 
.

(a1 : a2 : .. : an+1 ) := [
 . . . ]
an+1
bezeichnet. Beachte (ka1 : ka2 : . . . : kan+1 ) = (a1 : a2 : . . . : an+1 ) f¨
ur alle k ∈ K ∗ . Die
(n+1)×1
Elemente von PGL(K
) werden durch Matrizen aus GL(n + 1, K) repr¨asentiert, welche
bis auf Vielfache mit Elementen aus K ∗ := K − {0} festgelegt sind. Sei V˜ ein K-Vektorraum.
˜ auf P(K (n+1)×1 ) ist ein projektives Koordinatensystem von
Eine Projektivit¨
at von P(V)
˜
P(V).
˜ = 1, so ist P(V)
˜ = {[V ]} f¨
˜
Beispiel: Ist Dim(V)
ur jedes 0 6= V ∈ V.
˜
˜
Ist Dim(V ) = 2, so steht P(V) in Bijektion zu K ∪ {∞}, indem man [(a : 1)tr ] mit a ∈ K und
[(1 : 0)tr ] mit ∞ identifiziert.
˜ auf sich bilden eine Gruppe bez¨
Bemerkung 11.2. Die Projektivit¨
aten von P(V)
uglich der
Komposition. Die Abbildung
˜ → PGL(V)
˜ : f 7→ [f ] : [V ] 7→ [f (V )],
[ ] : GL(V)
ist ein Epimorphismus von Gruppen. Es ist [f ] = [g] genau dann wenn es ein a ∈ K ∗ gibt mit
˜ ∼
f = ag. Also ist Kern([ ]) = {a idV˜ | a ∈ K ∗ } und PGL(V)
= GL(V˜ )/K ∗ .
11. PROJEKTIVE GEOMETRIE. (V19)
77
Beweis. Dass die Abbildung ein Gruppenhomomorphismus ist, ist klar. Die Surjektivit¨at ergibt
˜ mit [f ] = [g], so ist [f g −1 ] = id. Es
sich aus der Definition von Projektivit¨
at. Sind f, g ∈ GL(V)
gen¨
ugt also zu zeigen, dass [f ] = id genau dann wenn f = a id f¨
ur ein a ∈ K ∗ . Gilt f (hV i) = hV i
˜ Ist
˜ so gibt es ai ∈ K ∗ mit f (Bi ) = ai Bi f¨
f¨
ur alle V ∈ V,
ur eine Basis (B1 , . . . , Bn+1 ) von V.
ai 6= aj , so ist f (Bi + Bj ) = ai Bi + aj Bj 6∈ hBi + Bj i. Also sind alle ai gleich und f ist ein
Vielfaches der Identit¨
at.
q. e. d.
Bevor wir die allgemeine Theorie der projektiven R¨aume weiterverfolgen, betrachten wir kurz
den Zusammenhang mit der affinen Geometrie, die ja f¨
ur uns die Motivation dieses Kapitels
ist. Diese Bemerkung l¨
asst uns im Nachhinein verstehen, warum die Beschreibung der affinen
Abbildungen des n-dimensionalen affinen Raumes durch Matrizen vom Grad n + 1 so erfolgreich
war.
Bemerkung 11.3. Sei V˜ ein K-Vektorraum und 0 6= ϕ ∈ V˜ ∗ .
˜ : P 7→ [P ] ist eine injektive Abbildung. Das Komplement des Bildes heißt
1) : A(ϕ) → P(V)
unendlich ferne Hyperebene und ist gleich dem projektiven Teilraum der Kodimension 1,
welcher dem linearen Teilraum Kern ϕ entspricht: F¨
ur V ∈ V˜ − {0} gilt
[V ] 6∈ Bild genau dann, wenn V ∈ Kern ϕ.
˜ ϕ) l¨
2) Jeder affine Automorphismus von A(V,
asst sich in eindeutiger Weise zu einer Projekti˜
vit¨
at von P(V) fortsetzen:
˜ ϕ)) → PGL(V)
˜ : f 7→ [f ]
[ ] : Aff(A(V,
˜ ϕ)) als Untergruppe
ist ein Gruppenmonomorphismus. (Erinnerung: Wir betrachten Aff(A(V,
˜
von GL(V).)
Es gilt:
˜
Bild([ ]) = {g ∈ PGL(V)|g(Bild
) = Bild }.
Beweis. In Koordinaten: An (K) ,→ P(n, K), (a1 , . . . , an , 1) 7→ (a1 : . . . : an : 1) ist wohldefiniert und injektiv, da jeder eindimensionale Teilraum T := h(a1 , . . . , an , an+1 )i mit an+1 6= 0
(also T 6⊆ Kern(ϕ)) genau einen Vektor
(a1 /an+1 , . . . , an /an+1 , 1) mit letzter Koordinate 1
a t
enth¨alt. Es ist Aff n (K) = {
|a ∈ GL(n, K), t ∈ K n×1 } ≤ GL(n + 1, K)} Weiter gilt
0 1
Aff n (K) ∩ K ∗ In+1 = {In+1 } also ist die Einschr¨ankung der Abbildung [ ] : GLn+1 (K) →
PGLn+1 (K) auf Aff n (K) injektiv.
q. e. d.
Wir werden ab jetzt immer den affinen Raum als Teilmenge des projektiven ansehen und die
affine Gruppe als Untergruppe der projektiven Gruppe, wobei nat¨
urlich immer klar sein muss,
welche Teilmenge des projektiven Raumes als affiner Raum genommen wird.
˜ so definiert man das projektive Erzeugnis
Bemerkung 11.4. Sind T1 , . . . , Tn ∈ P(V),
hT1 , . . . , Tn ip := hT1 , . . . , Tn i
˜ welcher von den eindimensionalen Teilr¨
als das Bild des Teilraums von V,
aumen T1 , . . . , Tn von
˜
˜ gilt genauso wie f¨
V erzeugt wird. F¨
ur projektive Teilr¨
aume T1 , T2 ≤ P(V)
ur Teilr¨
aume von
Vektorr¨
aumen die Dimensionsformel
Dim T1 + Dim T2 = Dim T1 ∩ T2 + DimhT1 ∪ T2 ip .
78
KAPITEL 4. GEOMETRIE
˜ = n. PGL(V)
˜ operiert transitiv auf
Satz 11.5. Sei dim P(V)
˜ n+1 := {P ∈ P(V)
˜ n+1 |hP ip = P(V)}
˜
P(V)
gen
˜ n+1
mit nicht trivialem Stabilisator S := StabPGL(V)
ur jedes P ∈ P(V)
˜ (P ) f¨
gen , falls |K| > 2. Ist
˜
Pi = hBi i, so ist B = (B1 , . . . , Bn+1 ) eine Basis von V und jedes s ∈ S ist induziert durch eine
Abbildung g ∈ GL(V˜ ), die bzgl. B Diagonalgestalt hat:
S = {[g] | g ∈ GL(V˜ ),
g = diag(a1 , . . . , an+1 ) f¨
ur ai ∈ K ∗ }.
B B
˜ Da GL(V)
˜ transitiv auf der Menge aller Basen operiert, folgt
Beweis. Sei B eine Basis von V.
˜ von ([B1 ], . . . , [Bn+1 ])
die erste Aussage. Man beachte jedoch, dass der Stabilisator in GL(V)
bez¨
uglich der Basis B durch s¨
amtliche invertierbaren Diagonalmatrizen dargestellt wird. q. e. d.
˜ → P(n, K) ist nach dem letzten Satz durch gewisse (n + 2)-Tupel von
Die Projektivit¨
at P(V)
˜
Punkten in P(V) festgelegt. Wir definieren daher:
˜ k heißt projektiv unabh¨
Definition 11.6. Ein k-Tupel P ∈ P(V)
angig, falls es einen (k − 1)dimensionalen projektiven Teilraum erzeugt.
˜ = n, so heißt ein (n + 2)-Tupel P ∈ P(V)
˜ n+2 eine projektive Basis, wenn jedes
Ist Dim(P(V))
(n + 1)-Tupel, welches durch Weglassen eines Punktes Pi entsteht, immer projektiv unabh¨
angig
ist.
¨
Bemerkung 11.7. Sei Dim(V˜ ) = n + 1 und P ∈ P(V˜ )n+2 . Aquivalent
sind:
n+2
˜
(a) P ∈ P(V )
ist projektive Basis.
P
(b) Pi = hBi i (1 ≤ i ≤ n + 1) f¨
ur eine Basis (B1 , . . . , Bn+1 ) von V˜ und Pn+2 = h n+1
i=1 ai Bi i
mit allen ai 6= 0.
(c) Es gibt genau ein projektive Koordinatensystem κ : P(V˜ ) → Pn (K) mit Pi 7→ hEi i (1 ≤ i ≤
n + 1) und Pn+1 7→ hE1 + . . . + En+1 i.
¨
Beweis. Ubung.
q. e. d.
˜ = n. Dann operiert PGL(V)
˜ regul¨
Folgerung 11.8. Sei Dim P(V)
ar auf der Menge der projekn+2
˜
tiven Basen P ∈ P(V)
.
11.1
Invarianten der projektiven Gruppe.
Satz 11.9. PGL(2, K) operiert regul¨
ar auf
P(1, K)36= := {P ∈ P(1, K)3 |P1 6= P2 6= P3 6= P1 }
Das Doppelverh¨
altnis
DV : P(1, K)46= → K − {0} : ([V1 ], [V2 ], [V3 ], [V4 ]) 7→
det(V1 , V3 ) det(V2 , V4 )
det(V1 , V4 ) det(V2 , V3 )
ist eine trennende Invariante der Operation.
Beweis. Die Transitivit¨
at auf Paaren verschiedener Punkte ist klar. Der Stabilisator von ((1 :
0), (0 : 1)) besteht aus allen Projektivit¨aten, die von Diagonalmatrizen induziert werden. Die
Bahn von (1 : 1) unter dem Stabilisator ist somit P(1, K)−{(1 : 0), (0 : 1)}. Der Stabilisator von
((1 : 0), (0 : 1), (1 : 1)) ist offenbar trivial. Mit anderen Worten, die Bahnen dieses Stabilisators
12. PROJEKTIVE QUADRIKEN (V20)
79
auf P(1, K) sind alle einelementig, d. h. von der Form {(a : b)}. Damit ist die Operation regul¨ar.
Was das Doppelverh¨
altnis angeht, ist leicht zu sehen, dass es wohldefiniert, also unabh¨angig
von der Wahl der Erzeuger Vi ist und keine der Determinanten Null wird und dass es eine
PGL(2, K)-Invariante ist. Weiter hat man:
DV((1 : 0), (0 : 1), (1 : 1), (a : b)) =
1 · (−a)
a
= ,
b · (−1)
b
d. h. ist DV(P ) = ab , so wissen wir, dass es eine projektive Transformation gibt, die P auf
((1 : 0), (0 : 1), (1 : 1), (a : b)) abbildet. Mit anderen Worten, DV trennt die Bahnen.
q. e. d.
¨
Zeige:
Ubung:
1.) L¨asst man 0 und ∞ als Werte zu, ist das Doppelverh¨altnis auch noch definiert, wenn genau
zwei der Punkte zusammenfallen.
2.) Fasst man A0 (K 1 ) als Teilmenge von P(1, K) auf, so h¨angen Teilverh¨altnis und Doppelverh¨altnis wie folgt zusammen: F¨
ur P ∈ A0 (K)3spez gilt TV(P1 , P2 , P3 ) = DV(∞, P1 , P2 , P3 ).
3.) So wie man das Teilverh¨
altnis der affinen Geometrie im Euklidischen Fall als Quotient
zweier L¨angen schreiben kann, untersuche man, ob man das Doppelverh¨altnis der projektiven
Geometrie im affinen Fall als Quotient zweier Teilverh¨altnisse schreiben kann.
˜ operiert auf
Satz 11.10. PGL(V)
˜ 4
˜ 4
P(V)
speziell := {P ∈ P(V) |hP1 , P2 ip = hP1 , P3 ip = hP2 , P3 ip = hP ip 6= {P1 }}
mit dem Doppelverh¨
altnis DV als trennende Invariante, wobei DV(P ) := (a : b), falls (a : b)
das Bild von P4 ist unter der Projektivit¨
at hP ip → P(1, K), die (P1 , P2 , P3 ) auf ((1 : 0), (0 :
1), (1 : 1)) abbildet.
˜
˜ 4
Beweis. Nach der Beschreibung von P(V)
speziell ist klar, dass PGL(V) darauf operiert. Ausserdem ist (P1 , P2 , P3 ) eine projektive Basis von hP ip . Also gibt es genau eine Projektivit¨at der
projektiven Geraden hP ip auf P(1, K) mit den vorgeschriebenen Bildern von P1 , P2 , P3 und DV
ist wohldefiniert. Dass DV eine Invariante ist, folgt aus seiner Definition und der Tatsache, dass
˜ eine Projektivit¨
g ∈ PGL(V)
at von hP ip auf hg(P )ip definiert und die Komposition von Projektivit¨aten wieder eine Projektivit¨
at ist. Dass diese Invariante die Bahnen trennt, folgt wiederum
aus dem Satz 11.9.
q. e. d.
12
Projektive Quadriken (V20)
Lernziel: Quadriken via Bilinearformen, Klassifikation der reellen projektiven Quadriken.
Definition 12.1. Sei V˜ =
6 {0} ein K-Vektorraum.
˜ eine symmetrische Bilinearform, so heißt die Abbildung
Ist Φ ∈ Bifo+ (V)
pΦ : V˜ → K : V 7→ Φ(V, V )
eine quadratische Form auf V˜ und
˜ Φ (V ) = 0} ⊆ V˜
Null(pΦ ) := {V ∈ V|p
die Nullstellenmenge von p. Die Menge Nullp (pΦ ) := {[V ] | 0 6= V ∈ Null(pΦ )} ⊆ P(V˜ ) heißt
die projektive Quadrik oder der (projektive) Kegel zu pΦ .
80
KAPITEL 4. GEOMETRIE
Es ist klar, dass Nullp (pΦ ) wohldefiniert ist, denn mit Φ(V, V ) = 0 gilt auch Φ(aV, aV ) = 0 f¨
ur
∗
alle a ∈ K. Ebenso klar ist Null(pΦ ) = Null(paΦ ) f¨
ur alle a ∈ K .
Wie wir schon fr¨
uher bewiesen haben, kann man aus der quadratischen Form pΦ die Bilinearform
Φ rekonstruieren, falls 1 + 1 6= 0 in K.
e mit A := Diag(1, 1, −1) ∈ R3×3 . Dann gilt
Beispiel. 1.) Sei V˜ := R3×1 und Φ := A
e
pΦ : R3×1 → R : (x, y, z)tr 7→ x2 + y 2 − z 2
und
Nullp (pΦ ) = {(x : y : z) ∈ P(2, R)|x2 + y 2 − z 2 = 0},
also das, was man sich unter einem Kegel vorstellt, wenn man sich ihn im R3×1 denkt. Projektiv
gesehen, denkt man eher an eine Kurve. Und in der Tat, wenn wir in 2-dimensionale affine
Teilebenen schauen, sehen wir Kurven. Diese sind unterschiedlich f¨
ur unterschiedliche affine
Ebenen, z. B. f¨
ur z = 1 ist man geneigt von einem Kreis zu sprechen. F¨
ur y = 1 sieht man eine
Hyperbel, eine Kurve, die man mit Sicherheit nicht durch eine affine Transformation zu einem
Kreis machen kann.
e mit A := Diag(1, −1, 0) ∈ R3×3 . Dann gilt
2.) Sei V˜ := R3×1 und Φ := A
e
pΦ : R3×1 → R : (x, y, z)tr 7→ x2 − y 2 = (x − y)(x + y),
und
Nullp (pΦ ) = {(1 : 1 : z)|z ∈ R} ∪ {(0 : 0 : 1)} ∪ {(1 : −1 : z)|z ∈ R}
ist Vereinigung zweier Geraden, die sich in (0 : 0 : 1) schneiden.
Projektive Quadriken sind also nach Wahl eines projektiven Koordinatensystems gegeben als
Nullstellengebilde eines homogenen Polynoms vom Grad 2:
Definition 12.2. Sei K ein K¨
orper und x1 , . . . , xn eine Menge von n Unbestimmten. Definiere
induktiv durch K[x1 ] Polynomring in x1 u
ur n = 1 und
¨ber K f¨
K[x1 , . . . , xn ] := K[x1 , . . . , xn−1 ][xn ]
f¨
ur n > 1. Die Elemente a ∈ K[x1 , . . . , xn ] werden geschrieben als endliche Summen
a=
X
i(1)
ai(1),...,i(n) x1
· · · xni(n)
i(1),...,i(n)
Falls a 6= 0, heißt
max{i(1) + · · · + i(n)|ai(1),...,i(n) 6= 0}
der Grad von a.
i(1)
i(n)
Bemerkung. Die Elemente xi := x1 · · · xn von K[x1 , . . . , xn ] heißen Monome. Grad(xi ) =
i(1) + . . . + i(n). Die Monome bilden eine K-Basis von K[x1 , . . . , xn ], d.h. jedes Element des Polynomrings l¨aßt sich eindeutig schreiben als endliche Linearkombination von Monomen. Monome
werden multipliziert, indem man die Exponenten addiert:
xi xj = xi+j , wo (i + j)(l) = i(l) + j(l).
12. PROJEKTIVE QUADRIKEN (V20)
81
Die Menge aller Linearkombinationen von Monomen von Grad k bildet den Teilraum K[x1 , . . . , xn ]hom,k
der homogenen Polynome vom Grad k. Es ist
n+k−1
Dim(K[x1 , . . . , xn ]hom,k ) =
.
k
Wie bei Polynomen in einer Variable definiert man den Einsetzungshomomorphismus a : K[x1 , . . . , xn ] →
K, p 7→ p(a1 , . . . , an ) f¨
ur jedes a ∈ K n . Ist p ∈ K[x1 , . . . , xn ]hom,k ein homogenes Polynom vom
n
Grad k und a ∈ K , t ∈ K, so ist p(ta) = tk p(a). Ist a ∈ K n eine Nullstelle eines homogenen
Polynoms p, so ist auch jedes Vielfaches, also alle Elemente in hai ≤ K n eine Nullstelle von p.
Definition 12.3. Sei p = p(x1 , . . . , xn+1 ) ∈ K[x1 , . . . , xn+1 ] homogen vom Grad i > 0, also Linearkombination von Monomen vom Grad i. Dann ist die Nullstellenmenge von p in P(n, K)
definiert als
Nullp (p) := {(a1 : . . . : an+1 ) ∈ P(n, K)|p(a1 , . . . , an+1 ) = 0}.
˜ → P(n, K) ein homogenes Koordinatensystem, so ist
Allgemeiner: Ist κ : P(V)
Nullκ (p) := κ−1 (Null(p)).
Wir m¨
ussen uns nat¨
urlich fragen, ob das Konzept der projektiven Quadrik mit der Operation
der projektiven Gruppe vertr¨
aglich ist. Dies ist in der Tat der Fall:
˜ operiert auf Bifo+ (V)
˜ durch
Lemma 12.4. (a) GL(V)
˜ × Bifo+ (V)
˜ → Bifo+ (V)
˜ : (g, Φ) 7→ gΦ
GL(V)
mit
gΦ : V˜ × V˜ → K : (V, W ) 7→ Φ(g −1 (V ), g −1 (W )),
so dass gilt:
Null(pgΦ ) = g(Null(pΦ )).
(b) GLn+1 (K) operiert auf der Menge aller homogenen Polynome vom Grad k durch Variablentransformation:
GLn+1 (K) × K[x1 , . . . , xn+1 ]hom,k → K[x1 , . . . , xn+1 ]hom,k , (g, p) 7→ p ◦ g −1 .
Es ist Null(p ◦ g −1 ) = g(Null(p)).
˜ vorliegt ist eine wichtige Ubung,
¨
Beweis. Dass eine Operation von GL(V)
damit man sieht, warum
invertiert wird. Wir beweisen den zweiten Teil: V ∈ Null(pgΦ ) ist ¨aquivalent mit (gΦ)(V, V ) = 0,
also Φ(g −1 (V ), g −1 (V )) = 0. Dies bedeutet aber g −1 (V ) ∈ Null(pΦ ).
q. e. d.
Man muss jedoch ein Wort der Warnung sagen: Nicht immer kann man aus der Quadrik die
definierende Bilinearform Φ bis auf Vielfache rekonstruieren.
Bemerkung 12.5. Sei K = R.
1.) Ist Φ positiv definit, dann ist Nullp (pΦ ) leer.
2.) Ist Φ semidefinit, so ist Nullp (pΦ ) der projektive Teilraum zum Radikal von Φ.
3.) Ist Φ indefinit, so ist Φ bis auf Vielfache durch Nullp (pΦ ) bestimmt.
82
KAPITEL 4. GEOMETRIE
ur alle X 6= 0.
Beweis. 1.) ist klar, da Φ(X, X) > 0 f¨
2.) ist auch klar, aber wichtig: Ist Φ semidefinit so hat Φ eine Gram-Matrix der Form
BΦ
B
= Diag(, . . . , , 0, . . . 0)
P
P
mit = 1 oder = −1, also pΦ ( ni=1 ai Bi ) = di=1 a2i . Das Radikal von Φ ist der Teilraum der
von Bd+1 , . . . , Bn erzeugt wird. Es gilt
n
d
n
X
X
X
pΦ (
ai Bi ) = 0 ⇔
a2i = 0 ⇔ a1 = . . . = ad = 0 ⇔
ai Bi ∈ Rad(Φ).
i=1
i=1
i=1
3.) Wegen des vorausgehenden Lemmas kann man annehmen, dass die Gram-Matrix von Φ die
Gestalt
Diag(1, . . . , 1, −1, . . . , −1, 0, . . . 0)
hat, wobei man mindestens eine 1 und eine −1 auf der Diagonalen hat. Der Rest wird in der
Vorlesung skizziert.
q. e. d.
Definition 12.6. Zwei projektive Quadriken heißen ¨
aquivalent, falls sie in derselben Bahn
˜
unter der Operation von PGL(V) liegen.
Aus dem Satz von Sylvester erhalten wir sofort den folgenden Satz.
˜ auf
Satz 12.7. ( Projektive Hauptachsentransformation“) Sei K := R. Die Bahnen von GL(V)
”
˜
˜
Bifo+ (V) haben die Signatur (a+ , a− , a0 ) mit a+ + a− + a0 = Dim V als trennende Invariante.
˜ sind dadurch gekennzeichnet, dass a+
Die resultierenden Bahnen auf {Null(pΦ )|Φ ∈ Bifo+ (V)}
und a− noch zus¨
atzlich vertauscht werden k¨
onnen.
ur den zweiten
Beweis. Der erste Teil folgt sofort aus dem Sylvesterschen Tr¨agheitssatz. F¨
Teil betrachte man die definiten F¨
alle, die leere Quadriken haben, die semidefiniten F¨alle, die
projektive Teilr¨
aume als Quadriken haben, und die echten F¨alle, bei denen die Bilinearform bis
auf Vielfache reproduzierbar ist, getrennt.
q. e. d.
¨
Die Aquivalenzklassen
reeller projektiver Quadriken sind durch die Signatur der quadratischen
Form beschrieben. Genauer erh¨
alt man
Zweidimensionale reelle projektive Quadriken
Signatur (a+ , a− , a0 ) Nullstellenmenge Vertreter
(3, 0, 0), (0, 3, 0)
leer
Null(x21 + x22 + x23 )
(2, 1, 0), (1, 2, 0)
Kegel
Null(x21 + x22 − x23 )
(2, 0, 1), (0, 2, 1)
Punkt
Null(x21 + x22 )
(1, 1, 1)
Geradenpaar
Null(x21 − x22 )
(1, 0, 2), (0, 1, 2)
(Doppel-)gerade Null(x21 )
(0, 0, 3)
proj. Ebene
Null(0)
Dreidimensionale reelle projektive Qudriken
13. AFFINE QUADRIKEN (V21)
Signatur (a+ , a− , a0 )
(4, 0, 0), (0, 4, 0)
(3, 1, 0), (1, 3, 0)
(2, 2, 0)
(3, 0, 1), (0, 3, 1)
(2, 1, 1), (1, 2, 1)
(2, 0, 2), (0, 2, 2)
(1, 1, 2)
(1, 0, 3), (0, 1, 3)
(0, 0, 4)
13
13.1
83
Nullstellenmenge
leer
Kegel
Kegel
Punkt
zylindrischer Kegel
Gerade
Ebenenpaar
(Doppel-)Ebene
proj. Raum
Vertreter
Null(x21 + x22 + x23 + x24 )
Null(x21 + x22 + x23 − x24 )
Null(x21 + x22 − x23 − x24 )
Null(x21 + x22 + x23 )
Null(x21 + x22 − x23 )
Null(x21 + x22 )
Null(x21 − x22 )
Null(x21 )
Null(0)
Affine Quadriken (V21)
Die Operation von Aff n (K) auf K[x1 , . . . , xn ]≤2
Sei 2 · 1 6= 0 in K und
p(x1 , . . . , xn ) =
n
X
Fii x2i
+
i=1
X
2Fij xi xj +
i<j
n
X
2fi xi + c ∈ K[x1 , . . . , xn ]≤2 .
i=1
Dann ist

p(x1 , . . . , xn ) = (x1 , . . . , xn , 1)
F
f tr

x1


f  ... 


c  xn 
1
Satz 13.1.

(a)
(n+1)×(n+1)
µ : Ksym
→ K[x1 , . . . , xn ]≤2

x1
 .. 


: F 7→ pF = (x1 , . . . , xn , 1)F  .  ∈ K[x1 , . . . , xn ]
 xn 
1
ein Vektorraumisomorphismus auf den Raum der Polynome vom Grad ≤ 2.
(n+1)×(n+1)
(b) Aff(n, K) operiert auf Ksym
durch
(n+1)×(n+1)
(n+1)×(n+1)
Aff(n, K) × Ksym
→ Ksym
: (g, F ) 7→ g −tr F g −1 .
(c) Es gilt N ulla (µ(g · F )) = gN ull(µ(F )) wobei


a1
 .. 


N ulla (p) = { .  ∈ An (K) | p(a1 , . . . , an ) = 0}
 an 
1
die affine Nullstellenmenge von p ist.
ubung.
Beweis. Leichte Finger¨
A a
F f
−1
˜
Ist g =
∈ Aff n (K), und F =
so ist
0 1
f tr c
Atr F A
Atr (F a + f )
−tr ˜ −1
g Fg =
(atr F + f tr )A atr F a + 2f tr a + c
q. e. d.
84
13.2
KAPITEL 4. GEOMETRIE
Homogenisierung.
Den Zusammenhang zwischen projektiven und affinen Nullstellengebilden erh¨alt man durch
Homogenisierung der Polynome:
Definition 13.2. Sei p = p(x1 , . . . , xn ) ∈ K[x1 , . . . , xn ] vom Grad k. Die Homogenisierung
von p ist das eindeutige Polynom ph = ph (x1 , . . . , xn+1 ) ∈ K[x1 , . . . , xn+1 ], welches sich aus p
dadurch ergibt, dass man jedes vorkommende Monom m durch mxk−d
n+1 ersetzt, wo d der Grad
von m ist.
Z. B. ergibt p = 3 + x1 + x32 ∈ K[x1 , x2 ] die Homogenisierung ph = 3x33 + x1 x23 + x32 . Im
n¨achsten Satz fassen wir den affinen Raum als Teilmenge des projektiven Raumes auf, wie in
11.3 diskutiert.
Satz 13.3. F¨
ur 0 6= p ∈ K[x1 , . . . , xn ] gilt
p = ph (x1 , . . . , xn , 1) und daher Nullp (ph ) ∩ An (K) = Nulla (p).
Beweis. Ist (a1 : . . . : an+1 ) ∈ Nullp (ph ) ∩ An (K), so ist an+1 6= 0 und wir k¨onnen oBdA an+1 = 1
annehmen. Also ist der projektive Punkt identifiziert mit dem affinen Punkt (a1 , . . . , an , 1)tr und
ph (a1 : . . . : an+1 ) = 0 impliziert p(a1 , . . . , an ) = 0. Die umgekehrte Inklusion ist offensichtlich.
q. e. d.
ur die affine Teilebene x3 = 1 die
Beispiel. Der Kegel Null(x21 + x22 − x23 ) ⊂ P(2, R) liefert f¨
2
2
Ellipse Null(x1 + x2 − 1) ⊂ A2 (R), f¨
ur die affine Teilebene x2 = 1 eine Hyperbel und f¨
ur
die affine Teilebene x1 + x3 = 1 eine Parabel. Dies erkl¨art den Namen Kegelschnitt, wobei
die Begriffe Ellipse, Hyperbel und Parabel bei den affinen Quadriken noch genauer eingef¨
uhrt
werden. Jedenfalls ist klar, dass es sich um drei affin in¨aquivalente Teilmengen der affinen Ebene
handelt, also solche, die nicht durch eine Affinit¨at aufeinander abgebildet werden k¨onnen.
Bemerkung 13.4. Ist p ∈ K[x1 , . . . , xn ] vom Grad 2, so sind der affinen Quadrik Nulla (p) ⊆
An (K) zwei projektive Quadriken zugeordnet:
Nullp (ph ) ⊆ P(n, K) und Nullp (ph (x1 , . . . , xn , 0) ⊆ P(n − 1, K), denn wir k¨
onnen bei offenkundiger Identifikation sagen:
An (K) = P(n, K) − P(n − 1, K).
Diese Zuordnung ist geometrisch in dem Sinne, dass sie mit den relevanten Gruppenoperationen
vertr¨
aglich ist.
Beispiel. Wir wollen eine affine Koordinatentransformation finden, so dass wir erkennen, welche
Quadrik durch
p := x21 + 2x1 x2 + 2x2 x3 − 4x1 − 2x2 − 2x3 − 3 ∈ R[x1 , x2 , x3 ]
dargestellt wird.
Wir haben

1
1
0
 1
0
1
p = (x1 , x2 , x3 , 1) 
 0
1
0
−2 −1 −1

−2
x1
 x2
−1 

−1   x3
−3
1


.

Wir f¨
uhren jetzt den angepassten Gauss-Algorithmus durch, um diese Matrix auf eine Art
Normalform zu bringen. Es sei daran erinnert, dass die letzte Zeile der umformenden Matrizen
13. AFFINE QUADRIKEN (V21)
85
immer (0, . . . , 0, 1) sein muss, da wir anders als im projektiven Fall mit affinen Transformationen
arbeiten. In der linken Spalte stehen die aktuellen Matrizen, die das Polynom beschreiben, in
der zweiten Spalte die aktuelle Umformungsmatrix und in der letzten Spalte die Gesamtumformungsmatrix vom Ausgangspolynom bis zum aktuellen.
Gram-Matrix
1
1
0 −2
 1
0
1 −1

 0
1
0 −1
−2 −1 −1 −3

Umformungsschritt
Gesamtumformung




I4

1 −1 0 2
 0 1 0 0 


 0 0 1 0 
0 0 0 1


1 0
0
0
 0 −1 1
1 


 0 1
0 −1 
0 1 −1 −7

1 −1 0 2
 0 1 0 0 


 0 0 1 0 
0 0 0 1



1
 0

 0
0
0
1
0
0

0
1
1
0

0
1 

0 
1


1 0 0 0
 0 −1 0 0 


 0 0 1 0 
0 0 0 −6

1 −1 −1 1
 0 1
1 1 


 0 0
1 0 
0 0
0 1
Dies lesen wir so:
Null(p) = Null(y12 − y22 + y32 − 6)
mit
x1 = y1 − y2 − y3 + 1, x2 = y2 + y3 + 1, x3 = y3 .
Es liegt also ein einschaliges Hyperboloid vor.
Hier ist der Satz, der die affine Klassifikation aufstellt. Den Wiedererkennungsalgorithmus, den
¨
wir gerade an einem Beispiel gesehen haben, lassen wir als Ubungsaufgabe.
Satz 13.5. (“Affine Hauptachsentransformation”) Sei Q ⊂ An (R) eine Quadrik. Dann finden
wir ein Koordinatensystem von An (R), so dass eine Gleichung von Q in diesen Koordinaten
eine der folgenden ist:
pn,r,s,,τ :=
r
X
i=1
x2i
−
r+s
X
x2i + 2xn + τ ∈ R[x1 , . . . , xn ]
i=r+1
mit r + s ≤ n, 0 < r ≥ s ≥ 0, ∈ {0, 1} mit = 0 falls r + s = n, τ ∈ {−1, 0, 1} mit τ = 0
falls = 1. Mit dieser Maßgabe sind nur die folgenden M¨
oglichkeiten bei nicht leeren Quadriken
aquivalent: pn,r,r,,τ und pn,r,r,,−τ . Die leeren Quadriken korrespondieren zu den F¨
allen (s, , τ ) =
¨
(0, 0, 1).
86
KAPITEL 4. GEOMETRIE
¨
Man gebe die Signatur der Homogenisierung (pn,r,s,,τ )h und die des homogenen quaUbung:
dratischen Anteils (pn,r,s,,τ )2 an.
Beweis. (Skizze) Die Normierung der homogenen Komponente vom Grad 2 ist aus der Transformationsformel sofort klar, weil symmetrische Bilinearformen immer eine Orthogonalbasis haben.
Hat die zugeh¨
orige Gram-Matrix H¨
ochstrang, so sagt uns die Formel, dass wir auch den linearen
Anteil durch geeignete Nullpunktswahl zum Verschwinden bringen k¨onnen. Danach k¨onnen wir
durch Multiplikation mit einem Faktor ungleich Null und einer Streckung vom aktuellen Nullpunkt aus die obige Form erreichen. Hat die Gram-Matrix nicht H¨ochstrang, so haben wir noch
viel Freiheit beim linearen Anteil der Transformation, der bewirkt, dass dann nur eine Komponente f¨
ur den linearen Anteil unseres Polynoms u
¨brigbleibt. Der Rest ist wieder Normierung.
Zur Eindeutigkeit sei zweierlei gesagt: In den F¨allen, wo die Nullstellenmenge den ganzen affinen
Raum affin erzeugt, l¨
asst sich die Gleichung aus der Nullstellenmenge bis auf einen konstanten
Faktor reproduzieren. In anderen F¨
allen kann man nur auf den Typ der Gleichung schliessen.
Die Einzelheiten sind etwas m¨
uhsam.
q. e. d.
Hier ist eine Liste der 3-dimensionalen reell affinen Quadriken, die vier affin unabh¨angige Punkte
enthalten, also nicht in einer affinen Teilebene enthalten sind.
(r, s, , τ )
(3, 0, 0, −1)
(2, 1, 0, 0)
(2, 1, 0, −1)
(2, 1, 0, 1)
(2, 0, 0, −1)
(2, 0, 1, 0)
(1, 1, 0, −1)
(1, 1, 0, 0)
(1, 1, 1, 0)
(1, 0, 0, −1)
(1, 0, 1, 0)
Nullstellenmenge
Ellipsoid
Doppelkegel
einschaliges Hyperboloid
zweischaliges Hyperboloid
elliptischer Zylinder
elliptisches Paraboloid
hyperbolischer Zylinder
sich schneidendes Ebenenpaar
hyperbolisches Paraboloid
paralleles Ebenenpaar
parabolischer Zylinder
Vertreterpolynom
x21 + x22 + x23 − 1
x21 + x22 − x23
x21 + x22 − x23 − 1
x21 + x22 − x23 + 1
x21 + x22 − 1
x21 + x22 + 2x3
x21 − x22 − 1
x21 − x22
x21 − x22 + 2x3
x21 − 1
x21 + 2x3
Es stellt sich nun die Frage, wie diese Klassifikation im Euklidischen Fall aufspaltet.
Satz 13.6. (Euklidische Hauptachsentransformation) Sei Q ⊂ En eine Quadrik. Dann finden wir ein orthonormales Koordinatensystem von En , so dass eine Gleichung von Q in diesen
Koordinaten eine der folgenden ist:
pn,r,s,a,b,,τ :=
r
X
i=1
2
(xi /ai ) −
r+s
X
(xi /bi )2 + 2xn + τ ∈ R[x1 , . . . , xn ]
i=r+1
mit r + s ≤ n, 0 < r ≥ s, ∈ {0, 1} mit = 0 falls r + s = n, τ ∈ {−1, 0, 1} mit τ = 0
falls = 1 und a = (a1 , . . . , ar ) ∈ (R>0 )r , b = (br+1 , . . . , br+s ) ∈ (R>0 )s beide monoton steigend.
Erzeugt die Quadrik ganz En als affinen Raum, so sind die ai und bi durch die Quadrik eindeutig
bestimmt.
Beweis. (Skizze) Im Unterschied zum affinen Satz muss der lineare Anteil der Koordinatentransformation orthogonal sein. Hierf¨
ur hat man den Satz u
¨ber reelle Hauptachsentransformationen
zur Verf¨
ugung.
q. e. d.
Kapitel 5
Multilineare Algebra
14
Tensorprodukte.
Sei R ein kommutativer Ring, K ein K¨
orper.
14.1
Tensorprodukte von Moduln.
Definition 14.1. Seien M, N, T Moduln u
¨ber R.
1) Eine Abbildung Φ : M × N → T heißt bilinear, falls
Φ(aV + bV 0 , W ) = aΦ(V, W ) + bΦ(V 0 , W ) f¨
ur alle a, b ∈ R, V, V 0 ∈ M, W ∈ N
und
Φ(V, aW + bW 0 ) = aΦ(V, W ) + bΦ(V, W 0 ) f¨
ur alle a, b ∈ R, V ∈ M, W, W 0 ∈ N.
2) (⊗, T ) heißt Tensorprodukt von M und N , falls
a) ⊗ : M × N → T : (V, W ) 7→ V ⊗ W bilinear ist und
b) f¨
ur jeden R-Modul U und jede bilineare Abbildung Φ : M × N → U genau eine lineare
Abbildung ϕ : T → U existiert, so dass das Diagramm
⊗: M ×N
→
Φ&
T
↓ϕ
U
kommutiert, d. h. Φ(V, W ) = ϕ(V ⊗ W ).
Man sagt auch kurz: Ein Tensorprodukt ist eine universelle bilineare Abbildung .
Bemerkung 14.2. Sei A ∈ K m×n , B ∈ K o×p . Das Kronecker-Produkt von A und B ist
definiert als


A11 B A12 B . . . A1n B
 A21 B A22 B . . . A2n B 


A ⊗ B := 
 ∈ K mo×np .
..
..
..


.
.
.
Am1 B Am2 B . . . Amn B
Dann ist ⊗ : K m×n × K o×p → K mo×np sicher bilinear. Frage: Ist es universell, also ein Tensorprodukt?
87
88
KAPITEL 5. MULTILINEARE ALGEBRA
¨
Ubung:
F¨
ur beliebige Matrizen A, B, C u
¨ber K gilt:
A ⊗ (B ⊗ C) = (A ⊗ B) ⊗ C.
Weiter ist A ⊗ B ¨
aquivalent zu B ⊗ A. Gilt n = m und o = p, so ist A ⊗ B ¨ahnlich zu B ⊗ A.
Bemerkung 14.3. Falls ein Tensorprodukt von M und N existiert, ist es eindeutig bis auf
Isomorphie bestimmt.
Beweis. Seien (⊗, T ) und (⊗0 , U ) Tensorprodukte der R-Moduln M und N . Dann haben wir
eine lineare Abbildung ϕ : T → U mit V ⊗0 W = ϕ(V ⊗ W ) f¨
ur alle V ∈ M, W ∈ N und eine
0
lineare Abbildung ψ : U → T mit V ⊗ W = ψ(V ⊗ W ). Also hat die Komposition ϕ ◦ ψ : U → U
die Eigenschaft V ⊗0 W = (ϕ ◦ ψ)(V ⊗0 W ) f¨
ur alle V ∈ M, W ∈ N ebenso wie die Identit¨at
idU von U. Also ist ϕ◦ψ = idU . Analog ψ ◦ϕ = idT . D. h. ϕ und ψ sind invers zueinander. q. e. d.
Bemerkung 14.4. Das Kronecker-Produkt ist ein Tensorprodukt. Genauer (⊗, K mo×np ) ist
ein Tensorprodukt von K m×n und K o×p .
Beweis. Eine bilineare Abbildung Φ ist festgelegt durch die Bilder von (B, C), wobei B und C die
Basisvektoren von je einer Basis der beiden Ausgangsvektorr¨aume durchlaufen. Im vorliegenden
Fall kann man die Standardbasen nehmen. Aber dann bilden die Kronecker-Produkte B ⊗ C
eine Basis von K mo×np , n¨
amlich auch wieder die Standardbasis bei geeigneter Anordnung. Also
ist durch ϕ : B ⊗ C 7→ Φ(B, C) eine lineare Abbildung festgelegt, die unser Diagramm zum
Kommutieren bringt. Es ist klar, dass man keine andere Wahl f¨
ur ϕ hat.
q. e. d.
Damit ist der Existenz- und Eindeutigkeitssatz f¨
ur Tensorprodukte von Vektorr¨aumen bewiesen.
Bemerkung 14.5. Sind V und W K-VR der Dimension n bzw. m, so hat das Tensorprodukt
V ⊗ W die Dimension nm. Genauer, ist B ∈ V m eine Basis von V und C ∈ W n eine Basis von
W, so ist
B ⊗ C := (B1 ⊗ C1 , B1 ⊗ C2 , . . . , B1 ⊗ Cn , B2 ⊗ C1 , . . . Bm ⊗ Cn ) ∈ (V ⊗ W)mn
eine Basis von V ⊗ W.
Satz 14.6. Seien M und N R-Moduln. Dann existiert bis auf Isomorphie genau ein Tensorprodukt. Dieses wird mit (⊗, M ⊗ N ) bezeichnet.
Beweis. Die Eindeutigkeit haben wir schon bewiesen. Zur Existenz: Sei F der freie R-Modul mit
Basis M × N , d.h.
X
F ={
a(m,n) (m, n) | a(m,n) ∈ R, a(m,n) 6= 0 nur f¨
ur endlich viele (m,n)}
(m,n)∈M ×N
Setze
U := h(rm1 +m2 , sn1 +n2 )−rs(m1 , n1 )−r(m1 , n2 )−s(m2 , n1 )−(m2 , n2 ) | r, s ∈ R, m1 , m2 ∈ M, n1 , n2 ∈ N iR ≤ F.
Behauptung: Ist T := F/U so ist ⊗ : M × N → T, (m, n) 7→ (m, n) + U =: π(m, n) ein Tensorprodukt.
⊗ ist bilinear nach Konstruktion.
⊗ hat auch die universelle Eigenschaft: Ist V ein R-Modul und ψ : M × N → V bilinear, so gibt
es genau einen R-Modulhomomorphismus ϕ : F → V mit ϕM ×N = ψ, da F frei auf M × N .
Aus der Bilinearit¨
at von ψ folgt, dass U ≤ Kern(ϕ).
q. e. d.
14. TENSORPRODUKTE.
89
Bemerkung 14.7. Sind M, N zwei R-Moduln, so erzeugen die m ⊗ n mit m ∈ M , n ∈ N das
Tensorprodukt M ⊗ N als R-Modul.
M = hm1 , . . . , mr i, N = hn1 , . . . , ns i, so ist jede bilineare Abbildung Φ : M × N → U eindeutig
bestimmt durch alle Φ(mi , nj ) und hmi ⊗ nj | 1 ≤ i ≤ r, 1 ≤ j ≤ siR = M ⊗ N .
Beispiel. (a) R = Z, M = Z/2Z = hai, N = Z/3Z = hbi.
Hier ist M ⊗ N = {0}. Denn jede bilineare Abbildung Φ : M × N → U erf¨
ullt
Φ(a, b) = 3Φ(a, b) − 2Φ(a, b) = Φ(a, 3b) − Φ(2a, b) = 0 − 0 = 0.
(b) R = Z, M = Z/2Z = hai, N = Z/4Z = hci.
Dann ist M ⊗ N = Z/2Z. Denn jede bilineare Abbildung Φ : M × N → U ist eindeutig
bestimmt durch Φ(a, c) =: u. Es ist 2u = Φ(2a, c) = 0. Umgekehrt definiert Φ : M × N → Z/2Z,
Φ(a, c) := 1 + 2Z eine bilineare Abbildung.
Bemerkung 14.8. Sind M, N zwei R-Moduln so ist M ⊗ N ∼
= N ⊗ M . Das Tensorprodukt ist
also kommutativ.
Beweis. Die Abbildung M ×N → N ⊗M, (m, n) 7→ n⊗m ist nach Definition des Tensorprodukts
bilinear, also gibt es genau einen R-Modulhomomorphismus σ : M ⊗N → N ⊗M, m⊗n 7→ n⊗m.
Ebenso folgt die Existenz einer eindeutigen R-linearen Abbildung τ : N ⊗ M → M ⊗ N, n ⊗ m 7→
m⊗n. Die Verkn¨
upfung σ◦τ : N ⊗M → N ⊗M erf¨
ullt σ◦τ (n⊗m) = n⊗m f¨
ur alle n ∈ N, m ∈ M .
Da die n ⊗ m mit n ∈ N, m ∈ M den R-Modul N ⊗ M erzeugen, ist σ ◦ τ die Identit¨at. Ebenso
folgt τ ◦ σ = idM ⊗N und somit σ = τ −1 .
q. e. d.
Beachten Sie: Sind V und W zwei K-Vektorr¨aume mit Basen B ∈ V n und C ∈ W n , so ist jedes
Element von V ⊗ W eine eindeutige K-Linearkombination der Elemente in B ⊗ C, die Dimension
von V ⊗ W ist also nm. Jedoch ist nicht jedes Element von V ⊗ W ein reiner Tensor, also von
der Form V ⊗ W mit v ∈ V, W ∈ W.
Bemerkung 14.9. Es ist K n×m ∼
= K n ⊗ K m.
Beweis. Die Abbildung K n×1 × K m×1 : (x, y) 7→ xy tr ist K-bilinear, faktorisiert also u
¨ber das
Tensorprodukt,
ϕ : K n×1 ⊗ K m×1 : x ⊗ y 7→ xy tr
ist K-linear, Kern(ϕ) = {0}, Bild(ϕ) = K n×m (ganz explizit sind alle Rang 1 Matrizen von der
¨
Form xy tr mit x ∈ K n×1 , y ∈ K m×1 (Ubung)
und jede Matrix ist Summe von Rang 1 Matrizen)
und daher ϕ ein Isomorphismus.
q. e. d.
Definition 14.10. (Tensorrang) Seien V und W zwei endlichdimensionale K-Vektorr¨
aume und
X ∈ V ⊗ W. Der Tensorrang von X ist
Rg(X) := min{r ∈ N0 | ∃V1 , . . . , Vr ∈ V, W1 , . . . , Wr ∈ W so dass X = V1 ⊗ W1 + . . . + Vr ⊗ Wr }.
∼
Lemma 14.11. Der Tensorrang von X ist wohldefiniert und ≤ min(dim(V), dim(W)). Ist V =
n
m
n×m
∼
∼
K , W = K , so ist nach Bemerkung 14.9 V ⊗ W = K
und der Tensorrang von X gleich
dem Rang der Matrix X ∈ K n×m .
90
KAPITEL 5. MULTILINEARE ALGEBRA
Beweis. Wir zeigen den 2. Teil, die Wohldefiniertheit ist dann klar, da der Rang eine Invariante
der Operation von GLn (K) × GLm (K) auf K n×m ist, also unabh¨angig von der Wahl der Isomorphismen V ∼
achst einmal ist jede Matrix A ∈ K n×m vom Rang 1 von der
= K n, W ∼
= K m . Zun¨
Form xy tr . Dazu w¨
ahlen wir als x die erste Spalte 6= 0 in A. Da der Rang von A gleich 1 ist, folgt
dass jede andere Spalte ein Vielfaches von x ist, Ai = yi x mit y ∈ K m . Dann ist A = xy tr . Die
Matrizen vom Rang 1 sind also genau die reinen Tensoren 6= 0. Sei nun A ∈ K n×m vom Rang r.
Dann ist r ≤ min(n, m) und jede Darstellung von A als Summe von Matrizen vom Rang 1 hat
¨
mindestens r Summanden. In der Ubung
entwickeln Sie einen Algorithmus, um A als Summe
von genau r Rang 1 Matrizen darzustellen.
q. e. d.


0 1 2 3
Beispiel: Sei A =  1 2 3 4  ∈ R3×4 . Dann ist Rg(A) = 2 und A = (1, 1, 1)tr (0, 1, 2, 3) +
2 3 4 5
tr
(0, 1, 2) (1, 1, 1, 1).
14.2
Tensorprodukte von Abbildungen.
Wir haben noch eine unmittelbare Konsequenz der Definition des Tensorprodukts: Die Existenz
von Produkten von linearen Abbildungen.
Satz 14.12. Seien V, V 0 und W, W 0 K-Vektorr¨
aume mit linearen Abbildungen α : V → V 0 und
β : W → W0 .
1) Es gibt genau eine lineare Abbildung
α ⊗ β : V ⊗ W → V0 ⊗ W0
mit (α ⊗ β)(V ⊗ W ) = α(V ) ⊗ β(W ) f¨
ur alle V ∈ V, W ∈ W.
2) Sind B, B 0 , C, C 0 Basen von V, V 0 , W, W 0 , so gilt
B 0 ⊗C 0
0
0
(α ⊗ β)B⊗C = B αB ⊗ C β C ,
wobei das zweite ⊗ das Kronecker-Produkt von Matrizen ist.
3)
⊗ : Hom(V, V 0 ) × Hom(W, W 0 ) → Hom(V ⊗ W, V 0 ⊗ W 0 ) : (ϕ, ψ) → ϕ ⊗ ψ
ist ein Tensorprodukt, insbesondere
Hom(V, V 0 ) ⊗ Hom(W, W 0 ) ∼
= Hom(V ⊗ W, V 0 ⊗ W 0 ).
Beweis. 1) Offenbar ist
V × W → V 0 ⊗ W 0 : (V, W ) 7→ α(V ) ⊗ β(W )
bilinear. Mit der Definition des Tensorproduktes folgt die Behauptung.
0
0
2) Sei B αB =: M, C β C =: N Dann ist
X
X
(α ⊗ β)(Bi ⊗ Cj ) = α(Bi ) ⊗ β(Cj ) = (
Mki Bk0 ) ⊗ (
Nlj Cl0 ) =
k
=
XX
k
l
Mki Nlj Bk0 ⊗ Cl0 .
l
3) Folgt aus 2) und Bemerkung 14.4 u
¨ber das Kronecker-Produkt.
q. e. d.
Offenbar kann man K ⊗ W mit W identifizieren, indem man k ⊗ W mit kW f¨
ur k ∈ K, W ∈ W
identifiziert. Dann bekommen wir eine wichtige Folgerung:
14. TENSORPRODUKTE.
91
Folgerung 14.13. V ∗ ⊗ W ∼
= Hom(V, W). Genauer,
⊗ : V ∗ × W → Hom(V, W) : (ϕ, W ) 7→ (V 7→ ϕ(V )W )
ist ein Tensorprodukt.
Beweis. V ∗ ⊗ W ∼
= Hom(V, K) ⊗ Hom(K, W) ∼
= Hom(V ⊗ K, K ⊗ W) ∼
= Hom(V, W)
q. e. d.
Bemerkung 14.14. (Konstantenerweiterung) Sei K Teilk¨
orper eines K¨
orpers F und V ein
K-Vektorraum. Dann ist VF := F ⊗ V ein F -Vektorraum, die Konstantenerweiterung, mit
a(b ⊗ V ) := (ab) ⊗ V f¨
ur alle a, b ∈ F, V ∈ V.
1) Ist B ∈ V n eine K-Basis von V, so ist 1 ⊗ B := (1 ⊗ B1 , . . . , 1 ⊗ Bn ) ∈ (VF )n eine F -Basis
von VF .
2) Ist W ein weiterer K-Vektorraum und ϕ : V → W linear (¨
uber K), so ist e
1 ⊗ ϕ : VF → WF
m
linear u
¨ber F . Ist C ∈ W eine K-Basis von W, so ist
1⊗C
(e
1 ⊗ ϕ)1⊗B = C ϕB .
3) Die beiden F -Vektorr¨
aume Hom(V, W)F und Hom(VF , WF ) werden identifiziert, indem man
a ⊗ ϕ f¨
ur a ∈ F, ϕ ∈ Hom(V, W) mit e
a ⊗ ϕ identifiziert. (Hinweis: F × Hom(V, W) →
Hom(VF , WF ) : (a, ϕ) 7→ e
a ⊗ ϕ ist ein Tensorprodukt.)
√
¨
Beispiel: C ⊗R C ∼
mit Q[ 5] ∼
= C ⊕ C, jedoch C ⊗C C ∼
= C. (als Ubung
= Q[x]/(x2 − 5).)
Es gilt sogar allgemeiner:
Lemma 14.15. Seien R, S kommutative Ringe, M ein R-Modul und ϕ : R → S ein Ringhomomorphismus. Dann ist S verm¨
oge ϕ ein R-Modul. Weiter wird Mϕ := S ⊗ M zu einem S-Modul
durch
a(b ⊗ V ) := (ab) ⊗ V f¨
ur alle a, b ∈ S, V ∈ M.
Mϕ heißt die Konstantenerweiterung von M mit S.
Ist M ein freier R-Modul mit Basis B ∈ M n , so ist MS frei mit Basis
1 ⊗ B := (1 ⊗ B1 , . . . , 1 ⊗ Bn ) ∈ (MS )n .
F¨
ur b ∈ R, V ∈ M ist 1 ⊗ bV = ϕ(b) ⊗ V ∈ Mϕ .
Beweis. Die Modulvorschriften folgen direkt aus der Bilinearit¨at des Tensorprodukts. Zur Freiheit
m¨
ussen wir zeigen, dass f¨
ur jede Abbildung f : 1 ⊗ B → N in einen S-Modul N ein eindeutig bestimmter S-Modulhomomorphismus existiert, welcher die Abbildung fortsetzt. Die Eindeutigkeit
ist klar, da 1⊗B ein S-Modulerzeugendensystem von MS ist. Zur Existenz: Da 1⊗B in Bijektion
zu B steht und N auch ein R-Modul ist, gibt es einen eindeutigen R-Modulhomomorphismus
f˜ : M → N mit f˜(Bi ) = f (1 ⊗ Bi ). Definiere f˜ : MS → N durch f˜(a ⊗ m) = af˜(m) f¨
ur alle
m ∈ M , a ∈ S.
q. e. d.
Beispiel:
Ist M ein freier Z-Modul mit Basis B ∈ M n , so ist MQ := Q ⊗ M ein Q-Vektorraum mit Basis
B, in dem M eingebettet ist. Betrachtet man jedoch den Ringhomomorphismus Z → Z/2Z = F2
So ist Mϕ = F2 ⊗ M eine endliche Menge isomorph zu M/2M .
92
15
15.1
KAPITEL 5. MULTILINEARE ALGEBRA
Tensoralgebra, Graßmann Algebra und Anwendungen.
Die Tensoralgebra
Wir haben bislang nur von Tensorprodukten von zwei Vektorr¨aumen gesprochen. Es ist klar,
dass man die Konstruktion auch f¨
ur n Vektorr¨aume durchf¨
uhren kann.
Definition 15.1. Seien Vi f¨
ur i = 1, . . . n und W, T K-Vektorr¨
aume. Eine Abbildung
Ψ : ×ni=1 Vi → W
heißt multilinear, falls sie in jeder Komponente linear ist.
(⊗, T ) heißt Tensorprodukt der Vi , falls T ein K-Vektorraum ist,
⊗ : ×ni=1 Vi → T : (V1 , . . . , Vn ) 7→ V1 ⊗ . . . ⊗ Vn
multilinear ist und f¨
ur jede multilineare Abbildung
Ψ : ×ni=1 Vi → W
in einen beliebigen K-Vektorraum W genau eine lineare Abbildung ϕ : T → W existiert mit
Ψ(V1 , . . . , Vn ) = ϕ(V1 ⊗ . . . ⊗ Vn ) f¨
ur alle Vi ∈ Vi , i = 1, . . . , n.
Satz 15.2. Bis auf Isomorphie gibt es genau ein Tensorprodukt (⊗, T ) von (V1 , . . . , Vn ). Dieses
wird mit ⊗ni=1 Vi bezeichnet.
Beweis. Die Eindeutigkeit folgt wieder direkt aus der universellen Eigenschaft wie in Bemerkung
14.3 (der Beweis u
agt sich direkt).
¨bertr¨
Die Existenz zeigen wir durch Induktion u
ur n = 1 ist T = V1 und der Fall n = 2 ist in
¨ber n. F¨
14.6 behandelt worden. Im Allgemeinen setzen wir
T := (V1 ⊗ . . . ⊗ Vn−1 ) ⊗ Vn und ⊗ (V1 , . . . , Vn ) := (V1 ⊗ . . . ⊗ Vn−1 ) ⊗ Vn .
Dies ist ein Tensorprodukt, denn ist W ein K-Vektorraum und Ψ : ×ni=1 Vi → W multilinear, so
auch die Abbildung ΨV f¨
ur jedes feste V ∈ Vn , definiert durch
ΨV : ×n−1
i=1 Vi → W, ΨV (V1 , . . . , Vn−1 ) := Ψ(V1 , . . . , Vn−1 , V ).
Nach Induktionsvoraussetzung gibt es eine eindeutige lineare Abbildung ϕV : V1 ⊗ . . . ⊗ Vn−1 →
W mit ΨV (V1 , . . . , Vn−1 ) = ϕV (V1 ⊗ . . . ⊗ Vn−1 ) f¨
ur alle Vi ∈ Vi , i = 1, . . . , n − 1 und V ∈ Vn .
Da Ψ linear in der n-ten Komponente ist, ist die Abbildung
χ : (V1 ⊗ . . . ⊗ Vn−1 ) × Vn → W, χ(V1 ⊗ . . . ⊗ Vn−1 , Vn ) 7→ ϕVn (V1 ⊗ . . . ⊗ Vn−1 )
bilinear, faktorisiert also nach Satz 14.6 eindeutig u
¨ber das Tensorprodukt T .
q. e. d.
Da offensichtlich sowohl V1 ⊗ (V2 ⊗ V3 ) als auch (V1 ⊗ V2 ) ⊗ V3 ein Tensorprodukt von (V1 , V2 , V3 )
ist, haben wir ein Korollar, das uns erm¨oglicht in Zukunft alle Klammerungen bei Tensorprodukten zu ignorieren.
Folgerung 15.3. (V1 ⊗ V2 ) ⊗ V3 ∼
= V1 ⊗ (V2 ⊗ V3 ) ∼
= V1 ⊗ V2 ⊗ V3 mit (V1 ⊗ V2 ) ⊗ V3 ↔
V1 ⊗ (V2 ⊗ V3 ) ↔ V1 ⊗ V2 ⊗ V3 f¨
ur alle Vi ∈ Vi , i = 1, 2, 3.
15. TENSORALGEBRA, GRASSMANN ALGEBRA UND ANWENDUNGEN.
93
Definition 15.4. Sei V ein K-Vektorraum. Setze V ⊗0 := T 0 V := K1, ein eindimensionaler
K-Vektorraum mit Basis 1 und V ⊗n := T n V := ⊗n V f¨
ur n > 0. Die Tensoralgebra T V von V
ist definiert als
M
T V :=
T iV
i∈Z≥0
mit der bilinearen Multiplikation
(V1 ⊗ . . . ⊗ Vm )(W1 ⊗ . . . ⊗ Wn ) := V1 ⊗ . . . ⊗ Vm ⊗ W1 ⊗ . . . ⊗ Wn
f¨
ur alle V ∈ V m , W ∈ V n und 1X = X = X1 f¨
ur alle X ∈ T V.
F¨
ur die Tensoralgebra k¨
onnen wir nicht nur zeigen, dass sie eine Algebra ist, sondern dass sie
sogar eine universelle Eigenschaft hat ¨
ahnlich wie das Tensorprodukt selbst.
Satz 15.5. 1) T V ist eine assoziative K-Algebra.
2) Ist A eine assoziative K-Algebra mit Einselement und ϕ : V → A eine lineare Abbildung, so
gibt es genau einen Algebrenhomomorphismus ϕ : T V → A, der ϕ fortsetzt.
Beweis. 1) Zeige, dass die Multiplikation wohldefiniert ist. Klar:
T n V × T m V → T n+m V : (X, Y ) → X ⊗ Y
ist bilinear, sogar ein Tensorprodukt. Also ist die Multiplikation auf T n V × T m V wohldefiniert
und bilinear. Diese wird bilinear auf ganz T V × T V → T V fortgesetzt, was wegen der Struktur
von T V als direkte Summe wohldefiniert ist. Offenbar ist dieses Produkt auch assoziativ, so dass
wir eine K-Algebra mit Eins haben.
2) Klar: Soll ϕ ein Homomorphismus f¨
ur Algebren mit Eins sein, so muss ϕ(1) = 1 ∈ A und
ϕ(V1 ⊗ . . . ⊗ Vm ) = ϕ(V1 ) · · · ϕ(Vm ) f¨
ur alle V ∈ V n sein. Offenbar ist aber
V n → A : V 7→ ϕ(V1 ) · · · ϕ(Vm )
multilinear, so dass ϕ|T n V wohldefiniert ist. Da T V direkte Summe der T m V ist, folgt die Behauptung.
q. e. d.
15.2
Schiefsymmetrische Tensoren und die Graßmann-Algebra.
Lernziel: Alternierende Multilinearformen, alternierende Multivektoren, geometrische Interpretation, symmetrische Tensoren, Zusammenhang mit Polynomen.
Wir hatten fr¨
uher Determinanten als alternierende Multilinearformen kennengelernt. Wir wollen
jetzt einen breiteren Kontext f¨
ur Determinanten herstellen. Unsere Vektorr¨aume bleiben in der
Regel endlich erzeugt.
Definition 15.6. Seien V, W K-Vektorr¨
aume.
1) Eine multilineare Abbildung Ψ : V k → W heißt alternierend, falls Ψ(V ) = 0 f¨
ur alle V ∈ V k ,
f¨
ur die verschiedene i, j ∈ k existieren mit Vi = Vj .
2) (∧, T ) heißt ein ¨
außeres k-faches Produkt von V oder ein alternierendes k-faches
Produkt, falls T ein K-Vektorraum ist, ∧ : V k → T : V 7→ V1 ∧ . . . ∧ Vk eine alternierende
multilineare Abbildung ist und f¨
ur jeden K-Vektorraum W und jede alternierende multilineare
Abbildung Ψ : V k → W genau eine lineare Abbildung ϕ : T → W existiert mit
Ψ(V ) = ϕ(V1 ∧ . . . ∧ Vk ) f¨
ur alle V ∈ V k .
94
KAPITEL 5. MULTILINEARE ALGEBRA
Bemerkung 15.7. Da Λk wieder verm¨
oge einer universellen Eigenschaft definiert ist, folgt
wie beim Tensorprodukt dass in alternierendes k-faches Produkt von V bis auf Isomomorphie
eindeutig ist, falls es existiert.
Satz 15.8. Sei V ein endlich erzeugter K-Vektorraum. Es existiert bis auf Isomorphie genau
ein ¨
außeres k-faches Produkt (∧, T ). Bezeichnung: Λk V := T .
Beweis. Falls T existiert, sollte es nach Definition der Tensorpotenz ein epimorphes Bild von
T k V sein. Ist : T k V → T dieser Epimorphismus, so gilt sicherlich V1 ⊗ . . . ⊗ Vk ∈ Kern , sobald
Vi = Vj ist f¨
ur ein Paar (i, j) mit i 6= j. Dies f¨
uhrt uns zu folgendem Ansatz:
T := (T k V)/U, wo U von allen V1 ⊗ . . . ⊗ Vk mit V ∈ V k , Vi = Vj f¨
ur ein Paar (i, j), i 6= j erzeugt
wird. Es folgt sofort:
∧ : V k → T : V 7→ V1 ∧ . . . ∧ Vk := V1 ⊗ . . . ⊗ Vk + U
ist multilinear und alternierend. Wir u
ufen die Universalit¨at: Sei Ψ : V k → W multilinear
¨berpr¨
und alternierend. Nach Definition des Tensorproduktes haben wir eine eindeutige lineare Abbildung α : T k V → W mit Ψ(V ) = α(V1 ⊗ . . . ⊗ Vk ) f¨
ur alle V ∈ V k . Da Ψ alternierend ist, folgt
U ≤ Kern α. Also faktorisiert α u
urlichen Epimorphismus ν : T k V → T , d. h. es gibt
¨ber den nat¨
eine eindeutige lineare Abbildung ϕ : T → W mit ϕ ◦ ν = α, d. h. mit Ψ(V ) = ϕ(V1 ∧ . . . ∧ Vk ).
q. e. d.
Leider sagt uns der Satz nichts u
¨ber die Dimension von Λk V. Wir schauen uns einige Beispiele
an:
Beispiel. 1) Sei k > Dim V, dann ist Λk V = {0}. Denn sei Ψ : V k → W alternierend, so ist
jedes V ∈ V k linear abh¨
angig und somit Ψ(V ) = 0 (Schluss wie bei der Determinante.)
2) Λ1 V ∼
= V.
3) Sei n = Dim V. Dann gilt Dim Λn V = 1. Genauer, ist B ∈ V n eine Basis von V, so ist
¨
(B1 ∧ . . . ∧ Bn ) eine Basis von Λn V. (Beweis: Ubung.)
Andere Sichtweise: Im letzten Semester
hatten wir bereits gezeigt, dass der Vektorraum der alternierenden Linearformen, den wir mit
Λn V ∗ bezeichneten, eindimensional ist, und zwar von der Determinante erzeugt wird.
Satz 15.9. Sei Dim V = n. Dann gilt Dim Λk V = nk . Genauer: Sei B ∈ V n eine Basis von
V. F¨
ur jede k-elementige Teilmenge I von n mit Elementen i1 < i2 < . . . < ik sei BI :=
Bi1 ∧ . . . ∧ Bik . Dann ist (BI |I ⊆ n, |I| = k) eine Basis von Λk V.
Beweis. 1) Die BI erzeugen Λk V: Zur Vorbereitung beachte
V1 ∧ . . . . . . ∧ Vk = sign(σ)W1 ∧ . . . ∧ Wk
f¨
ur alle V ∈ V k , σ ∈ Sk , W = V ◦ σ. Dies folgt sofort f¨
ur Transpositionen σ und da diese Sk
erzeugen auch f¨
ur alle σ ∈ Sk . Da nun klar ist, dass Λk V von Elementen der Form Ba(1) ∧
. . . ∧ Ba(k) erzeugt wird wo a : k → n eine beliebige Abbildung ist, folgt die Erzeugung aus
der Multilinearit¨
at, der Umsortierungseigenschaft oben und der offensichtlichen Tatsache, dass
Ba(1) ∧ . . . ∧ Ba(k) = 0 ist, falls a P
nicht injektiv ist.
2) Lineare Unabh¨
angigkeit: Sei
ur gewisse aI ∈ K, P
I ⊆ n, |I| P
= k. Sei nun
I aI BI = 0 f¨
J ⊆ n, |J| = k. Um aJ = 0 zu zeigen, betrachte πJ : V → hBi |i ∈ Ji :
ai Bi 7→ i∈J ai Bi und
sei det die Determinante von hBi |i ∈ Ji. Dann ist
ΨJ : V k → K : V 7→ det(πJ (V1 ), . . . , πJ (Vk ))
15. TENSORALGEBRA, GRASSMANN ALGEBRA UND ANWENDUNGEN.
95
multilinear und alternierend. Nach Definition des a¨ußeren Produktes haben wir eine eindeutige
lineare Abbildung ϕJ mit
ur alle V ∈ V k . Klar: ϕJ (BI ) = δIJ .
P ΨJ (V ) = ϕJ (V1 ∧ . . . ∧ Vk ) f¨
Wenden wir also ϕJ auf I aI BI = 0 an, so folgt aJ = 0.
q. e. d.
Folgerung 15.10. Ein k-Tupel V ∈ V k ist linear abh¨
angig genau dann, wenn V1 ∧ . . . ∧ Vk = 0
gilt.
Bislang war ∧ nur eine alternierende multilineare Abbildung. Wir wollen uns u
¨berlegen, dass
man ∧ auch als Verkn¨
upfung auffassen kann und dabei alle Λk V zu einem gr¨oßeren Ganzen
zusammenfassen.
Definition 15.11. Sei Dim V = n und Λ0 V := K1 ein eindimensionaler K-Vektorraum mit
Basis (1). Man setzt
n
M
ΛV :=
Λk V
k=0
und definiert eine Multiplikation auf ΛV, indem man die durch
∧k,l : Λk V × Λl V → Λk+l V :
(V1 ∧ . . . ∧ Vk , W1 ∧ . . . ∧ Wl ) 7→ V1 ∧ . . . ∧ Vk ∧ W1 ∧ . . . ∧ Wl
definierten bilinearen Abbildungen zu einer bilinearen Abbildung
∧ : ΛV × ΛV → ΛV
zusammensetzt. (ΛV, ∧) heißt die ¨
außere Algebra oder Graßmann-Algebra von V.
Satz 15.12. ΛV ist eine assoziative Algebra der Dimension 2Dim V .
Beweis. Wir m¨
ussen zuerst u
¨berlegen, dass das Produkt wohldefiniert ist. Dies ist mit der gegebenen Definition etwas umst¨
andlich. Hier sind zwei andere M¨oglichkeiten:
1) Man w¨ahlt eine Basis B ∈ V n und definiert f¨
ur die Basis (BI |I ⊆ n) das Produkt als
(BI , BJ ) 7→ BI ∧ BJ := Bi1 ∧ . . . ∧ Bj|J| , was also 0 oder bis aufs Vorzeichen BI∪J im Falle
I ∩ J = ∅ ist. Dann setzt man bilinear fort und rechnet man die Eigenschaft aus der Definition
nach.
L
2) Man geht von der Tensoralgebra T V aus und betrachtet den Teilraum AV := k≥0 Ak V mit
Ak V ≤ T k V erzeugt von allen V1 ⊗ . . . ⊗ Vk f¨
ur V ∈ V k mit zwei verschiedenen Indizes i, j mit
i 6= j, Vi = Vj . Wir erinnern uns Λk V = T k V/Ak V. Also haben wir einen Vektorraumepimorphismus α : T V → ΛV, der bei den Basisvektoren ⊗ durch ∧ ersetzt, mit Kern α = AV. Nun
hat AV folgende bemerkenswerte Eigenschaft:
X ∈ AV, Y ∈ T V impliziert XY, Y X ∈ AV
(was den Relationen 0y = y0 = 0 in einem Ring R entspricht). Deswegen gilt f¨
ur X, X 0 , Y, Y 0 ∈
T V:
X − X 0 , Y − Y 0 ∈ AV impliziert XY − X 0 Y 0 ∈ AV,
d. h. wir k¨onnen f¨
ur die Restklassen nach AV widerspruchsfrei eine Multiplikation u
¨ber die
Multiplikation der Vertreter definieren, oder anders ausgedr¨
uckt:
α(X) ∧ α(Y ) := α(X ⊗ Y )
96
KAPITEL 5. MULTILINEARE ALGEBRA
ist eine wohldefinierte assoziative Multiplikation f¨
ur ΛV.
Bei der ersten M¨
oglichkeit muss man noch die Assoziativit¨at auf den Basisvektoren u
ufen,
¨berpr¨
bei der zweiten ist dies u
ussig.
¨berfl¨
Die Dimension ergibt sich aus 15.9. Man beachte B∅ ist das Einselement der Algebra. q. e. d.
15.3
Plu
¨ cker Koordinaten.
Wir k¨onnen als Anwendung die Teilr¨
aume eines Vektorraumes durch homogene Koordinaten
beschreiben.
Satz 15.13. Sei T Rk (V) die Menge der k-dimensionalen Teilr¨
aume von V. Dann ist die Abbildung
T Rk (V) → T R1 (Λk V) ≡ P(Λk V) : hV1 , . . . , Vk i 7→ hV1 ∧ . . . ∧ Vk i
injektiv.
Beweis. Wir u
ur V, W ∈ V k
¨berzeugen uns, dass die Abbildung wohldefiniert ist. Sei hV i = hW i f¨
linear unabh¨angig. Dann existiert eine invertierbare Matrix A ∈ GL(k, K) mit V A = W . Es
folgt
W1 ∧ . . . ∧ Wk = det(A)(V1 ∧ . . . ∧ Vk ) 6= 0.
Damit haben wir die Wohldefiniertheit. Zur Injektivit¨at: Seien V, W ∈ V k linear unabh¨angig
mit W1 ∧ . . . ∧ Wk = aV1 ∧ . . . ∧ Vk f¨
ur ein a ∈ K ∗ . Wir fassen dies als eine Gleichheit in der
Graßmann-Algebra auf und erhalten durch Multiplikation mit Vi , dass Vi ∧ W1 ∧ . . . ∧ Wk = 0
gilt, also Vi linear abh¨
angig von W ist. Es folgt hV i = hW i.
q. e. d.
¨
Ubung:
Sei B ∈ V n eine Basis von V und A ∈ K n×k . Zeige f¨
ur V := BA ∈ V k gilt:
V1 ∧ . . . ∧ Vk =
X
det A|I×k BI .
I
Definition 15.14. Sei B ∈ V n eine Basis von V. Dann nennt man die injektive Abbildung
n
T Rk (V) → P(
− 1, K) : hBAi 7→ K ∗ (det A|I×k |I ⊆ n, |I| = k)
k
Pl¨
ucker-Koordinaten, wobei A ∈ K n×k alle Matrizen vom Rang k durchl¨
auft.
¨
Beispiel: Sei Dim V = 4. Wir wollen uns einen Uberblick
u
¨ber alle 2-dimensionalen Teilr¨aume
verschaffen. Nach der letzten Definition werden diese beschrieben durch homogene Koordinaten
im 5-dimensionalen projektiven Raum: (a1,2 : a1,3 : a1,4 : a2,3 : a2,4 : a3,4 ). Genauer:
X
X
h
ai Bi ,
bj Bj i 7→ ((a1 b2 − a2 b1 ) : . . . : (a3 b4 − a4 b3 ))
a1 a2 a3 a4
oder in Matrizen
7→ ((a1 b2 − a2 b1 ) : (a1 b3 − a3 b1 ) : (a1 b4 − a4 b1 ) : (a2 b3 −
b1 b2 b3 b4
a3 b2 ) : (a2 b4 −a4 b2 ) : (a3 b4 −a4 b3 )) Die Bildpunkte liegen alle auf einer Quadrik, deren Gleichung
wir herleiten wollen: (V1 ∧ V2 ) ∧ (V1 ∧ V2 ) = 0, d. h. ist
V1 ∧ V2 = a1,2 B{1,2} + · · · + a3,4 B{3,4}
15. TENSORALGEBRA, GRASSMANN ALGEBRA UND ANWENDUNGEN.
97
so folgt, falls 2 6= 0 in K:
a1,2 a3,4 − a1,3 a2,4 + a1,4 a2,3 = 0.
¨
Wir werden die Pl¨
uckerschen Koordinaten besser verstehen, wenn wir unsere Uberlegungen
u
aumen auf lineare Abbildungen ausdehnen. Aus der Uni¨ber ¨außere Produkte von den Vektorr¨
versalit¨at des k-fachen a
ußeren
Produktes
erhalten wir sofort die folgende Bemerkung:
¨
Bemerkung 15.15. Seien V, W K-Vektorr¨
aume mit einer linearen Abbildung ϕ : V → W.
1) Es gibt genau eine lineare Abbildung
Λk ϕ : Λk V → Λk W
mit
Λk ϕ(V1 ∧ . . . ∧ Vk ) = ϕ(V1 ) ∧ . . . ∧ ϕ(Vk )
f¨
ur alle V ∈ V k .
2) Ist ψ : W → T eine weitere lineare Abbildung, so gilt
Λk (ψ ◦ ϕ) = Λk (ψ) ◦ Λk (ϕ).
3) Die Λk ϕ setzen sich zu einem Algebrenhomomorphismus
Λϕ : ΛV → ΛW
zusammen, der das Einselement von ΛV auf das Einselement von ΛW abbildet.
Beweis. 1) V k → Λk W : V 7→ ϕ(V1 ) ∧ . . . ∧ ϕ(Vk ) ist sicher multilinear und alternierend, woraus
die Behauptung sofort aus der Definition folgt.
¨
2) und 3): Ubung.
q. e. d.
Etwas aufwendiger ist es, die neue Abbildung durch Matrizen zu beschreiben. Aber der Fall
V = W mit k = Dim V ist schon aus dem ersten Semester bekannt.
Satz 15.16. Seien V, W K-Vektorr¨
aume mit Basen B ∈ V n und C ∈ W m und sei ϕ : V → W
eine lineare Abbildung. Die Basen von Λk V und Λk W gebildet aus den BI bzw. CI in (derselben)
festen Anordnung seien mit Λk B und Λk C bezeichnet. Dann gilt:
Λk C
kB
(Λk ϕ)Λ
= (det((C ϕB )|J×I )),
wobei I, J die k-elementigen Teilmengen von n bzw. von m in der Reihenfolge der Basisvektoren
BI bzw. CJ durchlaufen. (Die Teildeterminanten det((C ϕB )|J×I ) heißen Minoren. )
Beweis. Sei C ϕB =: A. Dann gilt
Λk ϕ(BI ) =
=
=
=
=
Λk ϕ(Bi1 ∧ . . . ∧ Bik )
ϕ(B
P i1 ) ∧ . . . ∧ ϕ(Bik ) P
( j1 Aj1 i1 Cj1 ) ∧ . . . ∧ ( jk Ajk ik Cjk )
P
A
· · · Ajk ik Cj1 ∧ . . . ∧ Cjk
Pj1 ,...,jk j1 i1
J det A|J×I CJ .
Der letzte Umformungsschritt benutzt zweierlei: Cj1 ∧ . . . ∧ Cjk = 0, sobald zwei Indizes gleich
sind, und Cj1 ∧ . . . ∧ Cjk = sign(σ)CJ , wenn alle ji paarweise verschieden sind, d. h. J =
98
KAPITEL 5. MULTILINEARE ALGEBRA
{j1 , . . . , jk } wirklich aus k verschiedenen Elementen besteht, wobei σ ∈ Sk mit jσ(1) < . . . < jσ(k) .
q. e. d.
Beispiel: Sei


1 2 3
4
A =  2 1 0 −1  ∈ Q3×4 .
3 2 1
0
Dann ist die Matrix von Λ2 A˜ bez¨
uglich der Basen (C12 , C13 , C23 ) und (B12 , B13 , B14 , B23 , B24 , B34 )
gegeben durch


−3 −6 −9 −3 −6 −3
 −4 −8 −12 −4 −8 −4  .
1
2
3
1
2
1
Die n¨achste Folgerung verallgemeinert den Determinantenmultiplikationssatz.
Folgerung 15.17. GL(V) operiert linear auf Λk V. Ist B ∈ V n eine Basis von V, so ist die
zugeh¨
orige Matrixdarstellung bez¨
uglich der Basis Λk B gegeben durch die k-te Minorendarstellung
n
GL(V) → GL(
, K) : g 7→ (det((B g B )|I×J )),
k
wobei I, J alle k-elementigen Teilmengen von n durchlaufen.
15.4
Alternierende und symmetrische Tensoren.
Sei V ein K-Vektorraum und k ∈ N.
Lemma 15.18. Die Operation von Sk auf V k durch
Sk × V k → V k : (σ, V ) 7→ V ◦ σ −1
induziert eine lineare Operation von Sk auf T k V gegeben durch
X
X
σ(
aV V1 ⊗ . . . ⊗ Vk ) :=
aV Vσ−1 (1) ⊗ . . . ⊗ Vσ−1 (k) ,
V
V
wobei σ ∈ Sk und die Summe u
¨ber endlich viele V ∈ V k genommen ist. Diese Operation der Sk
ist mit der Operation der GL(V) vertauschbar. Entsprechend bekommt man eine Operation von
Sk auf T k V ∗ mit entsprechenden Eigenschaften.
¨
Beweis. Ubung.
q. e. d.
Definition 15.19. 1) Ein Tensor T ∈ T k V heißt schiefsymmetrisch, falls σ(T ) = sign(σ)T
f¨
ur alle σ ∈ Sk .
2) Sei
X
alt = altk : T k V → T k V : V1 ⊗ . . . ⊗ Vk 7→
sign(σ)Vσ(1) ⊗ . . . ⊗ Vσ(k) .
σ∈Sk
Ein Tensor T ∈ T k V heißt alternierend, falls T ∈ Bild altk .
15. TENSORALGEBRA, GRASSMANN ALGEBRA UND ANWENDUNGEN.
99
¨
Zeige T ∈ T k V ist genau dann schiefsymmetrisch, wenn σ(T ) = −T f¨
ur alle TransUbung:
positionen σ ∈ Sk . (Hinweis: sign ist ein Gruppenhomomorphismus und die Transpositionen
erzeugen Sk als Gruppe.)
Klar: Alternierende Tensoren sind schiefsymmetrisch. Wie steht es mit der Umkehrung?
1
Bemerkung 15.20. Sei k! 6= 0 in K. Dann ist k!
altk ∈ End(T k V) eine Projektion. Insbesondere
ist ein k-Tensor genau dann schiefsymmetrisch, wenn er alternierend ist.
Beweis. Sei σ ∈ GL(T k V) der von σ ∈ Sn induzierte Automorphismus.
Wegen σ ◦ τ = σ ◦ τ und
P
der Homomorphieeigenschaft von sign folgt aus alt = σ∈Sk sign(σ)σ, dass alt2 = k!alt gilt,
woraus die Behauptung folgt.
q. e. d.
Das wahrscheinlich wichtigste Objekt, welches wir im letzten Abschnitt kennengelernt haben,
ist die Graßmann-Algebra ΛV ∗ , die als wichtigste Elemente die alternierenden k-Formen auf
V beherbergt.
Wir kommen zu dem Fall symmetrischer Tensoren:
Bemerkung 15.21. Sei V ein K-Vektorraum.
Eine Abbildung Ψ : V k → W in einen K-Vektorraum W heißt symmetrisch, falls Ψ(V ) =
Ψ(V ◦ σ) gilt f¨
ur alle σ ∈ Sk , V ∈ V k . Ein symmetrisches Produkt (·, S k V) ist eine universelle
multilineare symmetrische Abbildung · : V k → S k V. Wegen der Universalit¨
at ist S k V bis auf
Isomorphie eindeutig bestimmt. Es kann konstruiert werden als
S k V := V ⊗k / hV1 ⊗ . . . ⊗ Vk − Vσ(1) ⊗ . . . ⊗ Vσ(k) |Vi ∈ V, σ ∈ Sk i .
|
{z
}
Dk V
Bemerkung 15.22. Ist (B1 , . . . , Bn ) eine Basis von V so ist (B1a1 B2a2 · · · Bnan | ai ∈ N0 , a1 +
. . . + an = k) eine K-Basis von S k (V) wobei Bi0 =: 1 ∈ K und
B1a1 B2a2 · · · Bnan := B1 ⊗ . . . ⊗ B1 ⊗ . . . ⊗ Bn ⊗ . . . ⊗ Bn +Dk V
|
{z
}
{z
}
|
a1
an
die Restklasse des Tensors in T k (V) bezeichnet. Insbesondere ist dim(S k (V)) = dim(K[x1 , . . . , xn ]hom,k ) =
n+k−1
.
k
Satz 15.23. Die symmetrische Algebra SV von V ist definiert als
M
SV :=
S i V,
i≥0
wobei S 0 V als eindimensionaler K-Vektorraum mit Basis (1) definiert wird. Das Produkt auf SV
ist so definiert, dass der offensichtliche Epimorphismus T V → SV das Produkt der Tensoralgebra
T V auf SV u
agt. Mit desem Produkt aus ist SV eine assoziative und kommutative K¨bertr¨
Algebra, und zwar universell assoziativ-kommutativ, d. h. jede lineare Abbildung ϕ : V → A
in eine kommutative, assoziative K-Algebra A (mit Eins) l¨
asst sich eindeutig zu einem K1
Algebrenhomomorphismus ϕ : SV → A fortsetzen. (Beachte S V = V.)
Beweis. Klar ist SV eine assoziative und kommutative Algebra. Die universelle Eigenschaft folgt
aus der von T V: Ist n¨
amlich A eine kommutative, assoziative K-Algebra und ϕ : V → A linear,
so ist A auch eine assoziative K-Algebra. Wegen der universellen Eigenschaft der Tensoralgebra
100
KAPITEL 5. MULTILINEARE ALGEBRA
gibt es also einen eindeutigen K-Algebrenhomomorphismus ϕ˜ : T V → A, der ϕ fortsetzt. Da A
kommutativ ist, ist ϕ(V
˜ ) = 0 f¨
ur alle V ∈ Dk V und somit faktorisiert ϕ˜ u
¨ber die symmetrische
Algebra SV.
Wie beim alternierenden Produkt die Graßmann-Algebra das wichtigste Objekt war, so ist es
hier die symmetrische Algebra SV ∗ auf V ∗ , weil sie mit der Polynomalgebra identifiziert werden
kann und ihre Elemente in nat¨
urlicher Weise die Polynomfunktionen induziert.
Folgerung 15.24. Sei V ein n-dimensionaler K-Vektorraum mit Basis (B1 , . . . , Bn ) =: B. Sei
∗
A = K[x
Pn 1 , . . . , xn ] der Polynomring in n Unbestimmten. Dann ist die Abbildung ϕ : V → A,
f 7→ i=1 f (Bi )xi linear und kann somit eindeutig zu einem K-Algebrenhomomorphismus ϕ :
SV ∗ → K[x1 , . . . , xn ] fortgesetzt werden. Dieser ist surjektiv, da die xi = ϕ(Bi∗ ) die K-Algebra
K[x1 , . . . , xn ] erzeugen. Es ist ϕ(S k (V ∗ )) = K[x1 , . . . , xn ]hom,k und da die beiden R¨
aume dieselbe
Dimension haben, folgt auch die Injektivit¨
at von ϕ.
Es folgt eine tabellarische Gegen¨
uberstellung der analogen Begriffe f¨
ur den alternierenden und
den symmetrischen Fall.
Alternierender Fall
Ak V mit Erzeugern
V1 ⊗ . . . ⊗ Vk zwei Vi gleich
Λk V
alternierendes Produkt
∧ : V k → Λk V
Dim Λk V = nk
Graßmann-Algebra ΛV
Gruppenhomomorphismus
Sk → K ∗ : σ 7→ sign(σ)
schiefsymmetrische Tensoren in T k V
P
altk := σ∈Sk sign(σ)σ ∈ End(T k V)
Graßmann-Algebra ΛV ∗
und alternierende Formen auf V
Symmetrischer Fall
Dk V mit Erzeugern
V1 ⊗ . . . ⊗ Vk − Vσ(1) ⊗ . . . ⊗ Vσ(k)
mit σ ∈ Sk
SkV
symmetrisches Produkt
· : V k → SkV
Dim S k V = n+k−1
k
symmetrische Algebra SV
Gruppenhomomorphismus
Sk → K ∗ : σ 7→ 1
symmetrische Tensoren in T k V
P
symk := σ∈Sk σ ∈ End(T k V)
symmetrische Algebra SV ∗
und Polynomfunktionen auf V
¨
Ubung:
Definiere symmetrische Tensoren in T k V analog zu schiefsymmetrischen Tensoren.
¨
Ubung:
Sei B ∈ V n eine Basis von V und X := B ∗ ∈ (V ∗ )n die Dualbasis zu B. Die Elemente
von SV fassen wir auf als Polynome in den Bi und die Elemente von SV ∗ fassen wir auf als
Polynome in den Xi . F¨
ur g ∈ GL(V) sei G := B g B . Zeige:
P
1.) gp(B1 , . . . , Bn ) = p(g(B1 ), . . . , g(Bn )) mit g(Bi ) = BG−,i = j Gji Bj .
P
2.) g −1 p(X1 , . . . , Xn ) = p(g −1 X1 , . . . , g −1 Xn ) mit g −1 Xi = g tr (Xi ) = X(Gtr )−,i = j Gij Xj .
Kapitel 6
Lineare Algebra u
¨ ber Z.
16
16.1
Grundlegende Definitionen fu
¨ r Gitter
Reine Teilgitter.
Erinnerung. Z ist ein Euklidischer Ring, also ein Hauptidealbereich. Daher wissen wir nach
dem Hauptsatz u
¨ber endlich erzeugte Moduln u
¨ber Hauptidealbereichen, dass jeder e.e. Z-Modul
M isomorph zu Z/a1 Z ⊕ . . . ⊕ Z/as Z ⊕ Zr ist mit eindeutig bestimmten 1 < ai ∈ N, a1 | . . . | as
und eindeutigen s, r ∈ N0 . Es ist T (M ) := {m ∈ M | am = 0 f¨
ur ein 0 6= a ∈ Z} ∼
= Z/a1 Z ⊕
. . . ⊕ Z/as Z der Torsionsteilmodul von M . Ein endlich erzeugter Z-Modul M ist frei genau dann
wenn er torsionsfrei ist, also genau dann wenn s = 0 gilt.
Bemerkung 16.1. Sei M ∼
orper.
= Z/a1 Z ⊕ . . . ⊕ Z/as Z ⊕ Zr ein e.e. Z-Modul und K ein K¨
Verm¨
oge des Ringhomomorphismus ϕ : Z → K, a 7→ a · 1 ist K ein Z-Modul und K ⊗Z M ist
ein K-Vektorraum der Dimension r + |{1 ≤ i ≤ s | ϕ(ai ) = 0}|. Insbesondere f¨
ur K¨
orper der
r
∼
Charakteristik 0 (wie Q und R) ist K ⊗Z M = K .
Definition 16.2. Ein freier e.e. Z-Modul M heißt auch Gitter. Jedes freie Erzeugendensystem
B = (B1 , . . . , Br ) eines Gitters nennt man eine Basis oder auch Gitterbasis von M .
Freie Z-Moduln M haben eine Basis B = (B1 , . . . , Br ), so dass jedes Element von M eindeutige
Z-Linearkombination der Basisvektoren ist.
M := {
r
X
αi Bi | αi ∈ Z}.
i=1
Dann ist M → Q ⊗Z M, m 7→ 1 ⊗ m injektiv und (B1 , . . . , Br ) eine Basis des Q-Vektorraums
Q ⊗Z M =: QM .
Lemma 16.3. (Basiswechsel) Sei M ein freier Z-Modul und B eine Basis von M . Dann ist
B (genauer gesagt (1 ⊗ B1 , . . . , 1 ⊗ Br ) ) eine Basis des Q-Vektorraums QM =: V. Ist C eine
weitere Basis von V so ist C genau dann eine Z-Basis von M wenn
C
r×r
idB
| det(A) ∈ {1, −1} = Z∗ }.
V ∈ GLr (Z) := {A ∈ Z
uglich
Beweis. Sei A = B idC
V . Dann ist die i-te Spalte von A die Koordinatenspalte von Ci bez¨
der Basis B. Da Ci ∈ M ist f¨
ur alle i, ist also A ∈ Zn×n . Da auch C eine Gitterbasis von M ist,
l¨aßt sich jedes Bj eindeutig Z-linear kombinieren aus den Ci : κC (Bj ) ∈ Zn×1 . Also sind auch
die Spalten von A−1 = C idB
q. e. d.
V ganzzahlig und somit A ∈ GLn (Z).
101
102
¨
KAPITEL 6. LINEARE ALGEBRA UBER
Z.
F¨
ur Vektorr¨
aume hatten wir den Basiserg¨anzungssatz, der aussagte, dass man jede linear unabh¨angige Teilmenge eines Vektorraums zu einer Basis erg¨anzen kann. F¨
ur Gitter (also freie
Z-Moduln) geht das nicht immer: Ist z.B. M = Z3 und B = ((2, 1, 0), (1, 2, 3)) ∈ M 2 , dann ist B
sicherlich linear unabh¨
angig, kann jedoch nicht zu einer Basis erg¨anzt werden, da B1 + B2 ∈ 3M
liegt, nach “Konstantenerweiterung” mit F3 wird also B linear abh¨angig.
Definition 16.4. Sei M ein e.e. freier Z-Modul. Ein Teilmodul L ≤ M heißt rein in M , oder
auch reines Teilgitter, falls
L = {m ∈ M | m ∈ QL} = M ∩ QL.
Bemerkung 16.5. Sei M ein e.e. freier Z-Modul. Sei L ≤ M ein Teilmodul. Dann ist auch L
ein freier Z-Modul. W¨
ahle Basen B = (b1 , . . . , bn ) von M und C = (c1 , . . . , ck ) von L und sei
C
B
n×k
T = id ∈ Z
die Basiswechselmatrix.
Dann ist L rein in M ⇔ die Invariantenteiler von T sind alle gleich 1 ⇔ M/L ist torsionsfrei
⇔ C kann zu einer Basis von M erg¨
anzt werden.
Beweis. Nach dem Hauptsatz u
¨ber endlich erzeugte abelsche Gruppen gibt es eine Basis B 0 =
(b01 , . . . , b0n ) von M und Zahlen d1 , . . . , dk ∈ Z (die Invariantenteiler von T ) so daß C 0 =
(d1 b01 , . . . , dk b0k ) eine Basis von L ist. Da QL ∩ M aus der Menge aller ganzen Linearkombinationen der (b01 , . . . , b0k ) besteht, gilt QL ∩ M = L genau dann, wenn alle di gleich 1 sind.
Definition 16.6. Sei V ein Q-Vektorraum. Ein volles Gitter L in V ist die Menge aller ZLinearkombinationen einer Basis B von V. Jede solche Basis B heißt auch Gitterbasis von
L.
Satz 16.7. (subdirektes Produkt von Gittern) Sei V ein Q-Vektorraum, V = U1 ⊕ U2 ,
πi ∈ End(V) die Projektionen auf Ui . Sei L ein volles Gitter in V. Dann sind die Li := L ∩ Ui
volle Gitter in Ui (i = 1, 2). Setze L0i := πi (L). Dann ist Li ≤ L0i (i = 1, 2) und es gilt:
L01 /L1 ∼
= L02 /L2 ∼
= L/(L1 ⊕ L2 ) ∼
= (L01 ⊕ L02 )/L.
Beweis. Seien B ∈ V n eine Gitterbasis von L, X ∈ U1k eine Basis von U1 und Y ∈ U2n−k eine
n×k und y := B idY ∈ Qn×(n−k) rationale Matrizen
Basis von U2 . Dann sind x := B idX
V ∈ Q
V
vom Rang k bzw. n − k. Sind nx , ny die Hauptnenner der Eintr¨age in x bzw. y, so gilt nx X ⊆ L1
und ny Y ⊆ L2 , also enthalten die Li eine Basis von Ui , sind somit volle Gitter in diesen R¨aumen.
Klar ist L01 /L1 ∼
= L01 ⊕ L2 /L1 ⊕ L2 ∼
= L01 ⊕ L02 /L1 ⊕ L02 .
Wir betrachten zun¨
achst die Projektion π1 : L → L01 . Gefolgt vom nat¨
urlichen Epimorphismus
0
0
L1 → L1 /L1 liefert sie eine surjektive Abbildung π1 : L → L01 /L1 . Sei
K1 := ker(π1 ) = {` ∈ L | π1 (`) ∈ L1 }.
F¨
ur ` = x1 + x2 ∈ L mit xi ∈ Ui ist π1 (`) = x1 ∈ L1 = U1 ∩ L genau dann wenn x1 ∈ L und
somit x2 = ` − x1 ∈ L ∩ U2 = L2 liegt. Also ist K1 = L1 ⊕ L2 und nach dem Homomorphiesatz
gilt
L01 /L1 = Bild(π1 ) ∼
= L/Kern(π1 ) = L/(L1 ⊕ L2 ).
Ebenso erh¨alt man L02 /L2 ∼
ur die letzte Isomorphie zeigen wir, dass L01 + L =
= L/(L1 ⊕ L2 ). F¨
0
0
L1 ⊕ L2 . Denn dann ist nach dem Noetherschen Isomorphiesatz
(L01 ⊕ L02 )/L = (L01 + L)/L ∼
= L01 /(L01 ∩ L) = L01 /L1 .
¨ GITTER
16. GRUNDLEGENDE DEFINITIONEN FUR
103
Nach Definition ist L01 + L = hL01 , Li. Es ist x1 ∈ L01 genau dann wenn x1 ∈ U1 und es gibt ein
` ∈ L, x2 ∈ U2 mit ` = x1 + x2 (dann notwendigerweise x2 ∈ L02 ). Also ist L01 + L ⊆ L01 ⊕ L02 .
Umgekehrt liegt nat¨
urlich L01 ⊂ L01 + L. Um zu sehen, dass L02 ⊂ L01 + L ist, sei x2 = π2 (`) ∈ L02
(` ∈ L). Dann ist ` = π1 (`) + π2 (`) ∈ L und somit
π2 (`) = −π1 (`) + ` ∈ L01 + L.
Also insgesamt L01 + L = L01 ⊕ L02 .
16.2
Gitterverb¨
ande und kompatible Basen.
In diesem Abschnitt ist V ein n-dimensionaler Q-Vektorraum. Wir betrachten volle Z-Gitter in
V, also die Menge aller ganzzahligen Linearkombinationen von Vektoren einer geeigneten Basis
von V.
Definition 16.8. Sei L eine Menge voller Gitter in V. Eine Basis B von V heißt kompatible
Basis f¨
ur L, falls f¨
ur jedes L ∈ L Zahlen a1 , . . . , an ∈ Q existieren, so das (a1 B1 , . . . , an Bn )
eine Gitterbasis von L ist.
Aus dem Hauptsatz f¨
ur endlich erzeugte Moduln u
¨ber Hauptidealbereichen folgt direkt, dass je
zwei volle Gitter in V kompatible Basen haben.
Bemerkung 16.9. Der Endomorphismenring eines Gitters L ist die Menge aller Endomorphismen ϕ von V, die L in sich abbilden,
End(L) := {ϕ ∈ End(V) | ϕ(L) ⊆ L}.
Schreibt man die linearen Abbildungen von V bez¨
uglich einer Gitterbasis B von L, so ist End(L) =
{ϕ ∈ End(V) | B ϕB ∈ Zn×n } ∼
= Zn×n .
EinePBasis B von V ist eine kompatible Basis f¨
ur L, genau dann wenn alle Projektionen
πi : nj=1 aj Bj 7→ ai Bi (1 ≤ i ≤ n) in ∩L∈L End(L) liegen.
Lemma 16.10. Sind L1 , L2 volle Gitter in V, so sind auch L1 + L2 = hL1 , L2 iZ und L1 ∩ L2
volle Gitter in V.
Beweis. W¨ahle eine Gitterbasis (B1 , . . . , Bn ) von L1 so dass (x1 B1 , . . . , xn Bn ) eine Gitterbasis
von L2 ist wobei xi = abii ∈ Q, ai , bi ∈ N, ggT(ai , bi ) = 1. Dann ist L1 ∩ L2 = ha1 B1 , . . . , an Bn iZ
und L1 + L2 = h b11 B1 , . . . , b1n Bn iZ .
Der Beweis zeigt: Jede kompatible Basis von L1 und L2 ist auch eine von {L1 , L2 , L1 ∩ L2 , L1 +
L2 }. Dies kann man auch strukturell einsehen. Sind die in Bemerkung 16.9 definierten Projektionen πi ∈ End(Lj ) f¨
ur j = 1, 2, so auch in End(L1 + L2 ) und End(L1 ∩ L2 ).
Definition 16.11. Eine Menge von L von vollen Gittern in V heißt Gitterverband, falls f¨
ur
je zwei Gitter L1 , L2 ∈ L auch L1 ∩ L2 und L1 + L2 in L liegen.
Klar: Zu jeder Menge L von vollen Gittern in V gibt es einen eindeutigen kleinstm¨oglichen
alt. Man erh¨
alt ihn, indem man wiederholt die Menge L um alle Schnitte
Verband L, der L enth¨
und Erzeugnisse von Gittern in L vergr¨
oßert.
Definition 16.12. Ein Verband (M, ∨, ∧) ist eine Menge M mit zwei assoziativen und kommutativen Verkn¨
upfungen ∨, ∧ : M × M → M so dass
a ∨ (a ∧ b) = a und a ∧ (a ∨ b) = a gilt, f¨
ur alle a, b ∈ M
Ein Verband heißt distributiv, falls zus¨
atzlich die Distributivgesetze gelten, also
a ∨ (b ∧ c) = (a ∨ b) ∧ (a ∨ c) und a ∧ (b ∨ c) = (a ∧ b) ∨ (a ∧ c) und f¨
ur alle a, b, c ∈ M.
¨
KAPITEL 6. LINEARE ALGEBRA UBER
Z.
104
Standardbeispiel: Ist M eine Menge so ist die Potenzmenge (Pot(M ), ∪, ∩) mit den Verkn¨
upfungen Durchschnitt und Vereinigung ein Verband, der Teilmengenverband von M . In den Grundlagen haben wir gelernt, dass f¨
ur X, Y, Z ∈ Pot(M ) gilt
X ∩ (Y ∪ Z) = (X ∩ Y ) ∪ (X ∩ Z) und X ∪ (Y ∩ Z) = (X ∪ Y ) ∩ (X ∪ Z).
Der Teilmengenverband einer Menge ist also ein distributiver Verband.
Man kann zeigen, dass ein Verband genau dann distributiv ist, wenn er isomorph zu einem
Teilverband des Teilmengenverbands ist.
Sei n = 2, L = hB1 , B2 i, L1 = hB1 , 2B2 i, L2 = h2B1 , B2 i und L3 = hB1 +B2 , 2B2 i. Dann ist L =
{L, 2L, L1 , L2 , L3 } ein Gitterverband, der jedoch nicht distributiv ist, denn L1 + (L2 ∩ L3 ) = L1
aber L1 + L2 = L1 + L3 = L.
Bemerkung 16.13. Haben die drei Gitter L1 , L2 , L3 eine kompatible Basis B, so gilt
L1 + (L2 ∩ L3 ) = (L1 + L2 ) ∩ (L1 + L3 ) und L1 ∩ (L2 + L3 ) = (L1 ∩ L2 ) + (L1 ∩ L3 ).
Beweis. Man kann jeden einzelnen Basisvektor betrachten und daher annehmen, dass n = 1 ist
und L1 , L2 , L3 ⊆ QB1 , genauer L1 = Z, L2 = ab Z und L3 = dc Z (gek¨
urzte Br¨
uche). Multipliziert
man alles mit bd so kann man annehmen, dass L1 = (bd), L2 = (ad), L3 = (cb) alles Ideale in Z
sind.
L1 + L2 = (ggT(bd, ad)) = (d), L1 + L3 = (b), L2 + L3 = (ggT(ad, cb))
L1 ∩ L2 = (kgV(bd, ad)) = (abd), L1 ∩ L2 = (bcd), L2 ∩ L3 = (kgV(ad, cb))
und die Gleichungen u
¨bersetzen sich in
ggT(bd, kgV(ad, cb)) = kgV(d, b), kgV(bd, ggT(ad, cb)) = ggT(abd, bcd).
q. e. d.
Satz 16.14. (ohne Beweis) F¨
ur eine Menge L von vollen Gittern in V gibt es genau dann eine
kompatible Basis, wenn der von L erzeugte Verband L distributiv ist.
Beweis. ⇒: Folgt aus Bemerkung 16.13.
⇐: W¨are ein sch¨
ones Thema f¨
ur eine Bachelorarbeit.
16.3
q. e. d.
Gitter in Euklidischen R¨
aumen.
Wir betrachten jetzt einen euklidischen Vektorraum, also E = (V, Φ) mit Φ : V × V → R
positiv definite symmetrische Bilinearform. Sei weiterhin n := dim(V). Ein volles Gitter L in
V ist wieder die Menge aller Z-Linearkombinationen von Vektoren einer R-Basis B von V. Wir
nennen B dann eine Gitterbasis von L.
Definition 16.15. Sei L ⊆ V ein volles Gitter in V und B ∈ V n eine Gitterbasis von L. Dann
ist G(B) := (Φ(Bi , Bj )) ∈ Rn×n die Grammatrix von B und
det(L) := det(G(B))
die Determinante des Gitters L. G(B) nennt man auch eine Grammatrix von L.
¨ GITTER
16. GRUNDLEGENDE DEFINITIONEN FUR
105
Klar: Ist C eine weitere Gitterbasis von L so ist
G(C) = T tr G(B)T
wobei T ∈ GLn (Z) die Basiswechselmatrix ist. Insbesondere ist det(T ) = ±1 und somit det(G(C)) =
det(G(B)), die Determinante des Gitters also unabh¨angig von der Wahl der Gitterbasis.
Bemerkung 16.16. Sei L ein volles Gitter in E = (V, Φ) mit Gitterbasis B. Dann ist
L# := {v ∈ V | Φ(v, `) ∈ Z f¨
ur alle ` ∈ L}
ebenfalls ein volles Gitter in E, das zu L duale Gitter. Die Dualbasis B ∗ von B ist eine Gitterbasis von L# .
Es gilt G(B)G(B ∗ ) = In , also det(L# ) det(L) = 1.
Ist L ⊂ L# , so nennt man das Gitter L auch ganz. Dann ist die Faktorgruppe L# /L eine endliche abelsche Gruppe der Ordnung det(L). Es gilt B ∗ G(B) ∈ Ln und G(B) ist eine Relationenmatrix von L# /L. Sind (d1 , . . . , dn ) die Invariantenteiler von G(B), so ist
L# /L ∼
= Z/d1 Z ⊕ . . . ⊕ Z/dn Z.
Beweis. Sei v ∈ V. Dann ist
Φ(`, v) ∈ Z f¨
ur alle ` ∈ L ⇔ ai := Φ(Bi , v) ∈ Z f¨
ur alle 1 ≤ i ≤ n ⇔ v =
X
ai Bi∗ ∈ hB1∗ , . . . , Bn∗ iZ .
∗
Also ist das duale Gitter L# genau das von der dualen Basis erzeugte Gitter. Weiter ist B idB =
G(B) die Basiswechselmatrix. Damit ist G(B) die Relationenmatrix von L# /L und det(G(B)) =
|L# /L|. Die Elementarteiler von G(B) ∈ Zn×n geben uns die Struktur der endlichen abelschen
Gruppe L# /L an.
Bemerkung 16.17. Sind L ⊆ M volle Gitter, so ist M # ⊆ L# .
Ist B eine Gitterbasis von L und C eine Basis von M mit Basiswechselmatrix T :=
Zn×n , so ist G(B) = T tr G(C)T und daher
C
idB ∈
det(L) = det(T )2 det(M ) = |M/L|2 det(M ).
Beispiele: Einige Beispiele f¨
ur ganze Gitter.
P
(1) Das Standardgitter: Sei E eine ON-Basis von E. Dann ist Zn := hEiZ = { ni=1 ai Ei | ai ∈ Z}
das Standardgitter der Dimension n. Da E = E ∗ gilt ist (Zn )# = Zn . Gitter L mit L = L#
heißen auch unimodular. Unimodulare Gitter sind also ganze Gitter der Determinante 1. Eine
Grammatrix von Zn ist In = G(E).
P
(2) Das gerade Teilgitter: Sei wieder E eine ON-Basis. Dann ist Dn := { ni=1 ai Ei | ai ∈
Pn
Pn
#
Z, i=1 ai ∈ 2Z} ein Teilgitter von Zn mit Zn /Dn ∼
= Z/2Z. Es gilt Dn = hZn , 12 i=1 Ei i und
D := (Ei − Ei+1 , En−1 + En | i = 1, . . . , n − 1) ist eine Basis von Dn . Es gilt det(Dn ) = 22 = 4
und
Dn = {x ∈ Zn | (x, x) ∈ 2Z}.
¨
Ubung:
Ist L ein ganzes Gitter, so ist Lev := {` ∈ L | (`, `) ∈ 2Z} ein Teilgitter von L, genannt
das gerade Teilgitter. Das Gitter L heißt gerade, falls L = Lev .
(3) Das An -Gitter: Sei wieder E eine ON-Basis des n + 1-dimensionalen Euklidischen Raums E
und Zn+1 = hEiZ . Definiere
An := {x =
n+1
X
i=1
ai Ei ∈ Zn+1 |
n+1
X
i=1
ai = 0}
¨
KAPITEL 6. LINEARE ALGEBRA UBER
Z.
106
Dann ist An ein n-dimensionales Gitter mit Basis A := (Ei − Ei+1 | i = 1, . . . , n). Es gilt





G(A) := 



2 −1 0 . . .
−1 2 −1 0
0 −1 2 −1
..
..
..
..
.
.
.
.
0 . . . 0 −1
0 ... ... 0
...
...
...
..
.
0
0
0
..
.











 und G(D) := 






2 −1

−1 2
2 −1 0 . . .
−1 2 −1 0
0 −1 2 −1
..
..
..
..
.
.
.
.
0 . . . 0 −1
0 ... ... 0
0 ... ... 0
...
...
...
..
.
0
0
0
..
.
0
0
0
..
.








2 −1 −1 

−1 2
0 
−1 0
2
Satz 16.18. Sei M ein unimodulares Gitter und L ≤ M ein reines Teilgitter. Dann ist auch
L⊥ := {m ∈ M | Φ(m, `) = 0 f¨
ur alle ` ∈ L} ein reines Teilgitter von M und det(L) = det(L⊥ ),
sogar L# /L ∼
= (L⊥ )# /L⊥ . Beachte: L und L⊥ werden hierbei als volle Gitter in den von ihnen
erzeugten Euklidischen Vektorr¨
aumen RL und RL⊥ betrachtet.
Beweis. Wir wenden Satz 16.7 an auf U1 := RL, U2 = U1⊥ = RL⊥ , L1 = L = U1 ∩ M ,
L2 = L⊥ = U2 ∩ M und m¨
ussen nur noch zeigen, dass
L01 = π1 (M ) = L# , L02 = π2 (M ) = (L⊥ )# .
Ist nun ` ∈ L und m ∈ M , so ist (`, m) = (`, π1 (m)) ∈ Z und daher π1 (M ) ⊂ L# . Sei (b1 , . . . , bk )
eine Gitterbasis von L und erg¨
anze diese zu Basis B := (b1 , . . . , bk , bk+1 , . . . , bn ) von M . Da
M = M # ist auch die duale Basis B ∗ = (b∗1 , . . . , b∗k , b∗k+1 , . . . , b∗n ) eine Gitterbasis von M . (Dabei
ist (b∗k+1 , . . . , b∗n ) eine Gitterbasis von L⊥ .) Und L# = hπ1 (b∗1 ), . . . , π1 (b∗k )i ⊂ π1 (M ).
∼
Bemerkung 16.19. Als Anwendung zeigen wir, dass A#
n /An = Z/(n+1)Z. Setzt man L = h` :=
E1 + . . . + En+1 i ≤ Zn+1 = hE1 , . . . , En+1 iZ , so ist L ein reines Teilgitter in dem unimodularen
Gitter M := Zn+1 . Weiter ist An = L⊥ . G(`) = (n + 1) = ((`, `)) liefert L# /L ∼
= Z/(n + 1)Z,
#
1
#
∼
L = h n+1 `i. Mit Satz 16.18 findet man also auch An /An = Z/(n + 1)Z.
Die Gitter An und Dn sind gerade Gitter mit Minimum 2. Die Vektoren der Norm 2 in Dn sind
Min(Dn ) = {
n
X
ai Ei |
i=1
n
X
a2i = 2, ai ∈ Z} = {±Ei ± Ej | 1 ≤ i < j ≤ n}
i=1
also | Min(Dn )| = 2n(n − 1). Die Vektoren der Norm 2 in An sind
Min(An ) = {
n+1
X
i=1
ai Ei |
n+1
X
i=1
a2i = 2, ai ∈ Z,
n+1
X
ai = 0} = {±(Ei − Ej ) | 1 ≤ i < j ≤ n + 1}
i=1
also | Min(An )| = n(n + 1).
Gitter L | Min(L)| det(L)
L# /L
Dimension n
An
n(n + 1) n + 1
Z/(n + 1)Z
≥1
Dn
2n(n − 1)
4
Z/4Z
≥ 4, ungerade
Dn
2n(n − 1)
4
Z/2Z ⊕ Z/2Z ≥ 4, gerade
17. ISOMETRIEN UND AUTOMORPHISMEN
17
107
Isometrien und Automorphismen
Erinnerung: E = (V, Φ) Euklidischer Vektorraum,
O(E) := {g ∈ GL(V) | Φ(gV, gW ) = Φ(V, W ) f¨
ur alle V, W ∈ V}
die orthogonale Gruppe von E.
Definition 17.1. Seien L und L0 volle Gitter in E.
(a) L und L0 heißen isometrisch, falls es ein g ∈ O(E) gibt, mit g(L) = L0 .
(b) Aut(L) := {g ∈ O(E) | g(L) = L} heißt die Automorphismengruppe von L.
Bemerkung 17.2. (a) Zwei Gitter L und L0 sind isometrisch, genau dann wenn es Gitterbasen
B und B 0 gibt, mit G(B) = G(B 0 ). “Sie haben gleiche Grammatrizen”. Ein Gitter L ist also bis
auf Isometrie bestimmt durch jede seiner Grammatrizen. Umgekehrt bestimmt ein Gitter L eine
GLn (Z)-Bahn {gG(B)g tr | g ∈ GLn (Z)} von Grammatrizen.
Die Menge Ln alle n-dimensionalen Gitter ist also in Bijektion zu Rn×n
sym,>0 / GLn (Z).
(b) Ist B eine Gitterbasis von L, so ist B Aut(L)B = {g ∈ GLn (Z) | gG(B)g tr = G(B)}.
Beispiel: Es gilt Aut(A2 ) ∼
= D12 , die Symmetriegruppe eines regelm¨aßigen Sechsecks.
Es ist Aut(Zn ) ∼
= C2n o Sn = {A ∈ Zn×n | AAtr = In } die Menge aller monomialen Matrizen.
Bemerkung 17.3. Ist L ein ganzes Gitter und ` ∈ L mit Φ(`, `) = 1 oder 2, so ist die Spiegelung σ` entlang ` definiert durch
Φ(v, `)
v − Φ(v, `)`
falls Φ(`, `) = 2
σ` (v) := v − 2
f¨
ur alle v ∈ V
`=
v − 2Φ(v, `)` falls Φ(`, `) = 1
Φ(`, `)
eine orthogonale Abbildung die L festl¨
asst, also σ` ∈ Aut(L).
Beweis. (f¨
ur Φ(`, `) = 2). Ist v ∈ L, so auch v − Φ(v, `)`, da Φ(v, `) ∈ Z und ` ∈ L gelten. Also
ist σ` (L) ⊆ L. Es gilt σ`2 = id, also ist σ` ein Automorphismus von L. Sind v, w ∈ V, so ist
Φ(σ` (v), σ` (w)) = Φ(v, w) − 2Φ(v, `)Φ(`, w) + Φ(v, `)Φ(w, `)Φ(`, `) = Φ(v, w)
also ist σ` eine orthogonale Abbildung.
q. e. d.
Beachten Sie: Es gilt σ` (v) = v genau dann wenn v ∈ `⊥ . Weiter ist σ` (`) = −`, also ist
`⊥ = E1 (σ` ) der Eigenraum zum Eigenwert 1 und h`i = E−1 (σ` ).
Bemerkung 17.4. Sei L ein ganzes Gitter, v 6= ±w ∈ L mit Φ(v, v) = Φ(w, w) = 2.
(1) σv = σ−v .
(2) Φ(w, v) ∈ {−1, 0, 1}.
(3) Es ist (σv σw )2 = id ⇔ Φ(v, w) = 0, ⇔ σv σw = σw σv .
(4) Ist Φ(v, w) = ±1, so gilt (σv σw )3 = id und hσv , σw i ∼
= S3 .
−1
(5) Ist g ∈ Aut(L), so ist σg(v) = gσv g .
Beweis. (1) ist klar. Zu (2): Da L ganz ist, gilt Φ(v, w) ∈ Z. Weiter ist nach der CauchySchwarz Ungleichung: Φ(v, w)2 ≤ Φ(v, v)Φ(w, w) = 4 mit Gleichheit, genau dann wenn die
beiden Vektoren linear abh¨
angig sind. Also ist Φ(v, w) ∈ {−1, 0, 1}.
(3) und (4): σv und σw sind beide die Identit¨at auf hv, wi⊥ , also gen¨
ugt es, die Einschr¨ankung
¨
KAPITEL 6. LINEARE ALGEBRA UBER
Z.
108
dieser beiden Abbildungen auf den hσv , σw i-invarianten Teilraum hv, wi zu betrachten. Da v 6=
±w gilt, ist B := (v, w) eine Basis dieses Teilraums und
−1 −Φ(v, w)
1
0
B B
B B
σv =
, σw =
.
−Φ(v, w) −1
0
1
Setzt man a := Φ(v, w), so ergibt sich das Produkt als
2
a −1
a
B B B B
B
σv σw =
und B σw
−a −1
B B
σv
=
−1
−a
a a2 − 1
.
¨
(5) Ubung.
q. e. d.
¨
In der Ubung
zeigen Sie: Ist L ein ganzes Gitter, so ist
W (L) := hσ` | Φ(`, `) = 1 oder 2i
ein Normalteiler von Aut(L). Zur Bestimmung von W (An ) beachten Sie, dass gilt

 Ek k 6∈ {i, j}
Ei k = j
σEi −Ej (Ek ) =

Ej k = i
woraus man leicht ersieht, dass W (An ) ∼
= Sn+1 .
Algorithmus 17.5. Das Gram-Schmidt-Orthogonalisierungsverfahren:
Eingabe: Eine Basis (B1 , . . . , Bn ) von V.
Ausgabe: Eine Orthogonalbasis B 0 := (B10 , . . . , Bn0 ) von V mit hB1 , . . . , Bi i = hB10 , . . . , Bi0 i f¨
ur
alle i.
Algorithmus: F¨
ur i = 1, . . . , n berechne sukzessive die Orthogonalprojektion Bi0 von Bi auf
0 i⊥ . Diese ergibt sich als
hB1 , . . . , Bi−1 i⊥ = hB10 , . . . , Bi−1
Bi0
:= Bi −
i−1
X
µij Bj0
j=1
wo µij =
Φ(Bi ,Bj0 )
.
Φ(Bj0 ,Bj0 )
Bemerkung 17.6. Bi0 ist die Projektion von Bi auf hB1 , . . . , Bi−1 i⊥ .
Q
Die von B und B 0 erzeugten Gitter haben die gleiche Determinante, n¨
amlich nj=1 Φ(Bj0 , Bj0 ).
Da Φ(Bj0 , Bj0 ) ≤ Φ(Bj , Bj ) ist, ergibt sich die folgende Hadamard Ungleichung.
Folgerung 17.7. Die Hadamard Ungleichung:
Q
Ist B := (B1 , . . . , Bn ) eine Gitterbasis von L, so ist det(L) ≤ nj=1 Φ(Bj , Bj ).
Beweis. Sei B 0 die in Algorithmus 17.5 berechnete Orthogonalbasis und


1
0
...
0
 µ21 1
...
0 


M :=  .
.. 
.
.
.
.
.
 .
.
.
. 
µn1 . . . µn,n−1 1
17. ISOMETRIEN UND AUTOMORPHISMEN
109
Dann ist det(M ) = 1 und B 0 M tr = B. Also ist G(B) = M G(B 0 )M tr und daher
det(L) = det(G(B)) = det(G(B 0 )) =
n
Y
Φ(Bi0 , Bi0 ) ≤
i=1
n
Y
Φ(Bi , Bi ).
i=1
Satz 17.8. Sei L ein volles Gitter in E = (V, Φ) und S ∈ R. Dann ist L≤S := {v ∈ L | Φ(v, v) ≤
S} eine endliche Menge.
Sei B eine Gitterbasis vonP
L und B 0 , µij wie in 17.5.
Beweis. P
n
Ist v = j=1 aj Bj ∈ L, so ist v = nj=1 αj Bj0 mit αj ∈ Q,
αn = an , αn−1 = an−1 − µn,n−1 an , . . .
Aus
n
X
Φ(v, v) =
αj2 Φ(Bj0 , Bj0 ) ≤ S
j=1
folgt insbesondere a2n Φ(Bn0 , Bn0 ) ≤ S. Also hat man nur endlich viele M¨oglichkeiten f¨
ur an ∈ Z.
Allgemein gilt
αj2 Φ(Bj0 , Bj0 ) = (aj −
n
X
µi,j ai )2 Φ(Bj0 , Bj0 ) ≤ S −
i=j+1
n
X
αi2 Φ(Bi0 , Bi0 )
i=j+1
woraus man sukzessiv nur endlich viele M¨oglichkeiten f¨
ur aj ∈ Z, j = n, n − 1, . . . , 1 erh¨alt.
¨
Algorithmus zum Auflisten kurzer Vektoren in Gittern (f¨
ur die Ubung)
n
Eingabe: Eine Gitterbasis B eines Gitters L in (R , (, )) (oder G(B) eine Grammatrix von L)
und Schranke S ∈ R
sowie Parameter := 0.0001 um Rundungsfehler zu vermeiden.
Ausgabe: Liste K von Koordinatenvektoren (a1 , . . . , an ) ∈ Zn , so dass
L≤S = {0} ∪ {±v | v =
n
X
ai bi , (a1 , . . . , an ) ∈ K}.
i=1
Algorithmus:
(1) (Gram-Schmidt)
Berechne µij (1 ≤ j < i ≤ n) und
gi := (b0i , b0i ) (1 ≤ i ≤ n) wie in Algorithmus 17.5.
(2) (Initialisieren)
Setze k := n; fk := 0;
(3) (Bestimme
P maximales ak )
uk := nj=k+1 µkj aj ; h := round(uk );
while ((gk (h − uk )2 ≤ S − fk + ) or ((h − uk ) < 0)) do
h := h + 1;
end while;
ak := h;
¨
KAPITEL 6. LINEARE ALGEBRA UBER
Z.
110
(4) (Schleife u
¨ber alle ak )
ak := ak − 1;
if (gk (ak − uk )2 ≤ S − fk + ) then
if (k = 1) then
if ((a1 , . . . , an ) = (0, . . . , 0)) then RETURN;
else Ausgabe von (a1 , . . . , an ) =: v
und (v, v) = f1 + g1 (a1 + u1 )2 ; goto (4);
end if;
else fk−1 := fk + gk (ak + uk )2 ;
k := k − 1; goto (3);
end if;
else k:=k+1; goto (4);
end if;
Folgerung 17.9. Aut(L) ist eine endliche Gruppe.
Beweis. Sei B = (B1 , . . . , Bn ) eine Gitterbasis von L und S := max{Φ(Bi , Bi ) | 1 ≤ i ≤ n}. Ist
g ∈ Aut(L), so ist g eindeutig bestimmt durch die Bilder der Basisvektoren (g(B1 ), . . . , g(Bn )) ∈
Ln≤S . Also gilt | Aut(L)| ≤ |L≤S |n .
18
18.1
Ausblicke.
Orthogonale Zerlegungen.
Definition 18.1. (i) F¨
ur zwei Gitter L1 , L2 in den Euklidischen R¨
aumen E1 bzw. E2 bezeichnet L1 ⊥ L2 die (¨
aussere) orthogonale Summe. Dies ist ein Gitter in E1 ⊥ E2 der Dimension
dim(L1 )+dim(L2 ). Sind B bzw. C Gitterbasen von L1 bzw. L2 , so ist ((B1 , 0), . . . , (Bn1 , 0), (0, C1 ), . . . , (0, Cn2 ))
eine Gitterbasis von L1 ⊥ L2 mit Grammatrix
G(B)
0
0
G(C)
(iii) Ein Gitter L heißt irreduzibel oder auch orthogonal unzerlegbares Gitter, falls L
nicht orthogonale Summe echter Teilgitter ist.
Satz 18.2. (Kneser) Jedes Gitter l¨
asst sich eindeutig schreiben als orthogonale Summe irreduzibler Gitter.
Beweis. Dazu zun¨
achst eine kleine Definition. Wir nennen einen Vektor x ∈ L unzerlegbar, falls
es keine y, z ∈ L \ {0} gibt mit x = y + z und (y, z) = 0.
Dann gilt: Jeder Vektor 0 6= x ∈ L ist Summe von unzerlegbaren Vektoren. Denn dies ist klar,
wenn x unzerlegbar ist. Ist aber x nicht unzerlegbar, so ist x = y + z mit 0 < (y, y) < (x, x)
und 0 < (z, z) < (x, x). Ist einer der Summanden y oder z nicht unzerlegbar, so kann man ihn
wiederum als Summe von Vektoren kleinerer Norm schreiben. Da L<=(x,x) endlich ist, terminiert
dieses Verfahren nach endlich vielen Schritten.
Insbesondere wird L von unzerlegbaren Vektoren erzeugt.
Wir nennen zwei unzerlegbare Vektoren y, z verbunden, falls es unzerlegbare Vektoren x0 =
¨
y, x1 , . . . , xt = z in L gibt, mit (xi , xi+1 ) 6= 0 f¨
ur alle i. Diese Aquivalenzrelation
teilt die Menge
der unzerlegbaren Vektoren in endlich viele Klassen K1 , . . . , Ks .
Sei Li := hKi iZ .
Dann ist L = L1 ⊥ . . . ⊥ Ls eine Zerlegung in irreduzible Gitter und diese Zerlegung ist
eindeutig.
18. AUSBLICKE.
111
Beispiel 18.3. (Automorphismen der Ordnung 2) Sei L ein ganzes Gitter also L ⊆ L# und
− id 6= σ ∈ Aut(L) ein Automorphismus der Ordnung 2. Dann ist µσ = X 2 − 1 und 1 und −1
sind die Eigenwerte von σ. Sind v, w ∈ E mit σ(v) = v und σ(w) = −w, so gilt
(v, w) = (σ(v), σ(w)) = −(v, w), also (v, w) = 0.
Somit ist E = Eσ (1) ⊥ Eσ (−1). Sei Lσ (1) := L ∩ Eσ (1) und Lσ (−1) := L ∩ Eσ (−1). Dies sind
reine Teilgitter in L und
2L ⊆ Lσ (1) ⊥ Lσ (−1) ⊆ L.
Sei nun M ⊆ L ein reines Teilgitter so dass
? 2L ⊆ M ⊥ M ⊥ ⊆ L.
Definiere tM ∈ O(E) durch tM (v) = −v falls v ∈ RM und tM (v) = v falls v ∈ M ⊥ . Dann ist
tM (L) = L und somit tM ∈ Aut(L). Die Automorphismen von L der Ordnung 2 sind also in
Bijektion zu den Teilgittern M von L die ? erf¨
ullen.
18.2
Minkowski’s Gitterpunktsatz.
Bemerkung 18.4. Sei L ein Gitter in E = (V, Φ) und B = (B1 , . . . , Bn ) eine Basis von L.
Das Fundamentalparallelotop ist
E(B) := {
n
X
λi Bi | 0 ≤ λi ≤ 1}.
i=1
p
p
Es ist vol(E(B)) = det(G(B)) =S det(L). Weiter ist E(B) ein Fundamentalbereich der
Operation von L auf V, d.h. V = `∈L ` + E(B) und diese Vereinigung ist fast disjunkt: sind
`, m ∈ L mit `+E(B)∩m+E(B) 6= ∅, so gilt entweder ` = m oder der Schnitt `+E(B)∩m+E(B)
liegt auf dem Rand von ` + E(B).
Definition 18.5. Sei ∅ =
6 X ⊂ E.
(a) X heißt zentralsymmetrisch, falls mit x ∈ X auch −x ∈ X liegt.
(b) X heißt konvex, falls f¨
ur je zwei x, y ∈ X und jedes t ∈ [0, 1] auch x + t(y − x) ∈ X.
Klar: Ist ∅ =
6 X konvex und zentralsymmetrisch so gilt 0 ∈ X.
Satz 18.6. (Minkowski)
Sei L ⊂ E ein volles Gitter und X ⊆ Rn konvex und zentralsymmep
trisch. Ist vol(X) > 2n det(L) dann ist L ∩ X =
6 {0}.
Beweis. Wir zeigen, dass `1 6= `2 ∈ L existieren, so dass
1
1
( X + `1 ) ∩ ( X + `2 ) 6= ∅
2
2
Denn dann gibt es x1 , x2 ∈ X so dass 12 x1 + `1 = 12 x2 + `2 und also
1
0 6= (x1 − x2 ) = `2 − `1 ∈ L ∩ X.
2
Beachte: 12 (x1 − x2 ) ist der Mittelpunkt der Verbindungsstrecke zwischen x1 und −x2 und somit
in X.
Angenommen, alle Translate ` + 12 X = {` + 21 x | x ∈ X} mit ` ∈ L sind disjunkt:
1
1
( X + `1 ) ∩ ( X + `2 ) = ∅ for all `1 6= `2 ∈ L
2
2
¨
KAPITEL 6. LINEARE ALGEBRA UBER
Z.
112
Dann ist auch deren Schnitt mit der Fundamentalzelle
1
1
(E(B) ∩ ( X + `1 )) ∩ (E(B) ∩ ( X + `2 )) = ∅ for all `1 6= `2 ∈ L also
2
2
P
vol(E(B))
≥ `∈L vol(E(B) ∩ ( 12 X + `)) =
P
1
1
1
`∈L vol((E(B) − `) ∩ 2 X) = vol( 2 X) = 2n vol(X)
ein Widerspruch zur Annahme, dass vol(X) > 2n vol(E(B)).
Der Minkowskische Gitterpunktsatz hat viele Anwendungen. Sie werden ihn z.B. in der algebraischen Zahlentheorie wiedersehen. Die Schranke ist i.a. nicht zu verbessern, wie man an dem
Beispiel L = Z2 und
x1
X := {
∈ R2 | |x1 | < 1 und |x2 | < 1}
x2
sieht. Es ist vol(X) = vol(X) = 22 , det(L) = 1 und X ∩ L = {0}.
Als eine Anwendung zeigen wir den Satz von Lagrange, dass jede nat¨
urliche Zahl Summe von 4
Quadraten ist:
{x21 + x22 + x23 + x24 | x1 , x2 , x3 , x4 ∈ Z} = N0 .
Lemma 18.7. (Euler Identit¨
at) F¨
ur a1 , a2 , a3 , a4 , b1 , b2 , b3 , b4 ∈ Z gilt
(a21 + a22 + a23 + a24 )(b21 + b22 + b23 + b24 ) = (a1 b1 − a2 b2 − a3 b3 − a4 b4 )2 + (a1 b2 + a2 b1 + a3 b4 − a4 b3 )2 +
(a1 b3 − a2 b4 + a3 b1 + a4 b2 )2 + (a1 b4 + a2 b3 − a3 b2 + a4 b1 )2 .
a1 + ia2 a3 + ia4
Beweis. Nachrechnen oder aber
+ + + = det
−a3 + ia4 a1 − ia2
plikation und Multiplikativit¨
at der Determinante benutzen.
a21
a22
a23
a24
Matrixmultiq. e. d.
Folgerung 18.8. Jede nat¨
urliche Zahl ist Summe von 4 Quadraten genau dann wenn jede
Primzahl p > 2 Summe von 4 Quadraten ist.
Sei also ab jetzt p > 2 eine Primzahl.
Lemma 18.9. Sei p > 2 prim und a ∈ Z. Dann gibt es r, s ∈ Z mit r2 + s2 ≡ a (mod p).
Beweis. F¨
ur b ∈ Z sei Q(b) := {r2 − b (mod p) | r ∈ Z/pZ} ⊆ Z/pZ}. Die L¨osbarkeit der
Kongruenz ist gleichbedeutend damit, dass Q(0) ∩ (−Q(a)) 6= ∅. Dies folgt durch ein einfaches
p+1
Z¨ahlargument, da Q(b) immer p−1
alt. W¨aren
2 + 1 = 2 verschiedene Elemente von Z/pZ enth¨
die beiden Mengen disjunkt, so h¨
atte Z/pZ mindestens p + 1 Elemente, was absurd ist. q. e. d.
Satz 18.10. (Lagrange) Jede positive ganze Zahl ist Summe von 4 Quadraten ganzer Zahlen.
at
Beweis. Klar ist 1 = 12 + 02 + 02 + 02 und 2 = 12 + 12 + 02 + 02 . Wegen der Multiplikativit¨
gen¨
ugt es, die Behauptung f¨
ur Primzahlen p > 2 zu zeigen. Wegen Lemma 18.9 gibt es r, s ∈ Z
mit r2 + s2 + 1 ≡ 0 (mod p). Betrachte das Teilgitter Λ von Z4 , welches von den Spalten der
Matrix


p 0 r s
 0 p s −r 

M := 
 0 0 1 0 
0 0 0 1
18. AUSBLICKE.
113
erzeugt wird. Dann gilt f¨
ur die Elemente (x1 , x2 , x3 , x4 )tr = t1 M−1 + t2 M−2 + t3 M−3 + t4 M−4
dass
x21 +x22 +x23 +x24 = (pt1 +rt3 +st4 )2 +(pt2 +st3 −rt4 )2 +t23 +t24 ≡ (t23 +t24 )(r2 +s2 +1) ≡ 0
(mod p).
Nun sei
Ω := {(x1 , x2 , x3 , x4 )tr ∈ R4 | x21 + x22 + x23 + x24 < 2p}
√
der offene Ball mit Radius 2p. Es ist
vol(Ω) =
p
π2 p 4
( 2p) = 2π 2 p2 > 16p2 = 24 det(Λ).
2
Also enh¨alt Ω einen Gitterpunkt
0 6= x = (x1 , x2 , x3 , x4 )tr ∈ Ω ∩ Λ.
Da x ∈ Λ ist, ist x21 + x22 + x23 + x24 durch p teilbar.
Da x ∈ Ω ist, ist x21 + x22 + x23 + x24 < 2p.
Da x 6= 0 ist, ist x21 + x22 + x23 + x24 > 0, also ist x21 + x22 + x23 + x24 = p.
18.3
q. e. d.
Dichte Kugelpackungen.
Definition 18.11. Sei L ∈ (Rn , (, )) ein Gitter. Dann ist
min(L) := min{(`, `) | 0 6= ` ∈ L}
das Minimum des Gitters L und
Min(L) := {` ∈ L | (`, `) = min(L)}
die Menge der k¨
urzesten Vektoren von L. Nach Satz 17.8 ist Min(L) = {`1 , . . . , `k } eine endliche
Menge. k = | Min(L)| heißt auch die Kußzahl oder auch kissing number von L.
p
1
min(L) ist der Radius der Kugeln in der zu L geh¨orenden Kugelpackung. Die Kußzahl ist
2
die Anzahl der Kugeln in der Gitterkugelpackung, die eine feste weitere Kugel ber¨
uhren.
Definition 18.12. Bezeichne Ln die Menge aller n-dimensionalen Gitter. Die Hermite-Funktion
γ : Ln → R>0 ist definiert durch
min(L)
γ(L) :=
.
det(L)1/n
γn := sup{γ(L) | L ∈ Ln } heißt die Hermite-Konstante.
Bemerkung 18.13. Die Dichte der zu L geh¨
orenden gitterf¨
ormigen Kugelpackung ist
∆(L) = 2−n γ(L)n/2 Vn
wobei Vn das Volumen der n-dimensionalen Einheitskugel bezeichnet. Insbesondere ist ∆(L)
maximal, genau dann wenn γ(L) maximal ist.
Es ist γ(L) = γ(M ), falls L und M ¨
ahnliche Gitter sind.
¨
Auf dem Raum Ln der Ahnlichkeitsklassen
aller n-dimensionalen Gitter hat die Funktion γ
nur endlich viele lokale Maxima, die mithilfe des Voronoi-Algorithmus (1900) bestimmt werden
k¨
onnen. Man kennt alle diese lokalen Maxima bis zur Dimension n = 8.
¨
KAPITEL 6. LINEARE ALGEBRA UBER
Z.
114
18.4
Thetareihen von Gittern.
Ganz kurz m¨
ochte ich den Inhalt des geplanten Seminars im SS 2016 anreissen:
Definition 18.14. Sei L ein ganzes Gitter in (Rn , (, )). Die formale Potenzreihe
ΘL :=
X
q
(`,`)
=
∞
X
am q m ∈ C[[q]]
m=0
`∈L
mit am = |L=m | heißt Theta-Reihe von L.
P
P
2
n2
Beispiel: ΘZ = a∈Z q a = 1 + 2 ∞
n=1 q .
Sind L, M Gitter, so gilt
ΘL⊥M = ΘL ΘM .
Lemma 18.15. Sei L ein Gitter. Setzt man q = exp(πiz) mit z ∈ H := {z ∈ C | =(z) > 0} so
ist die Reihe ΘL : H → C absolut und uniform konvergent auf jedem Streifen =(z) ≥ v0 > 0 und
somit eine holomorphe Funktion.
ur ein M ∈ GLn (R) und := minxxtr =1 xM M tr xtr . Dann ist > 0 und
Beweis. Sei L = Zn M f¨
xM M tr xtr ≥ xxtr f¨
ur alle x ∈ Rn . Daher erh¨alt man
X
| exp(πiz(`, `))| =
X
| exp(πiz(xM, xM ))| ≤
x∈Zn
`∈L
X
exp(−πv0 (x, x)) = (
x∈Zn
∞
X
exp(−πv0 r2 ))n < ∞.
r=−∞
Bemerkung 18.16. Ist L ganz, so ist ΘL (z + 2) = ΘL (z) f¨
ur alle z ∈ H und ist L sogar gerade,
so gilt ΘL (z + 1) = ΘL (z).
Satz 18.17. (Poisson Summation) Sei f : Rn → C eine Funktion, die die Bedingungen (V1),
(V2), (V3) erf¨
ullt. Dann ist f¨
ur jedes volle Gitter Γ ≤ Rn
X
f (x) = det(Γ)−1/2
x∈Γ
wobei
fˆ(y) =
X
fˆ(y)
y∈Γ#
Z
f (x) exp(−2πixy tr )dx
Rn
die Fourier-Transformierte von f ist und die Bedingungen (V1), (V2), (V3) wie folgt sind:
R
(V1) Rn |f (x)|dx < ∞ (damit fˆ existiert).
(V2) Die Reihe
F (u) :=
X
f (x + u)
x∈Γ
konvergiert absolut und uniform auf jedem Kompaktum (damit F (u) stetig ist).
(V3) Die Reihe
P
y∈Γ#
fˆ(y) konvergiert absolut.
18. AUSBLICKE.
115
achst f¨
ur Γ = Zn .
Beweis. Wir beweisen den
P Satz zun¨
Die Funktion F (u) := x∈Zn f (x + u) ist nach Voraussetzung (V2) stetig und periodisch in u,
F (u + x) = F (u) f¨
ur x ∈ Zn . Also hat F eine Fourier-Entwicklung
X
F (u) =
exp(2πi(u, y))a(y)
y∈Zn
wobei a(y) =
(V3), dass
R
[0,1]n
F (t) exp(−2πi(t, y))dt. Wir zeigen, fˆ(y) = a(y). Dann gilt n¨amlich wegen
F (0) =
X
f (x) =
x∈Zn
Es ist f¨
ur y ∈
X
fˆ(y).
y∈Zn
Zn
R
P
a(y) = [0,1]n x∈Zn f (x + t) exp(−2πi(t, y))dt
R
P
= x∈Zn [0,1]n f (x + t) exp(−2πi((x + t), y))dt
R
P
= x∈Zn x+[0,1]n f (t) exp(−2πi(t, y))dt = fˆ(y).
Im allgemeinen Fall ist Γ = Zn M mit M ∈ GLn (R) und Γ# = Zn M −tr . Also ist
X
X
X
X
f (x) =
f (xM ) =
fM (x) =
fˆM (y)
x∈Zn
x∈Γ
x∈Zn
y∈Zn
wobei
fˆM (y) =
Z
1
f (tM ) exp(−2πi(t, y))dt =
| det(M )|
Rn
Z
f (t) exp(−2πi(tM −1 , y))dt = det(Γ)−1/2 fˆ(yM −tr ).
Rn
Satz 18.18. (Theta Transformationsformel) Es gilt f¨
ur ein volles Gitter L ≤ Rn
ΘL (−1/z) = (z/i)n/2 det(L)−1/2 ΘL# (z).
Beweis. Beide Seiten sind holomorphe Funktionen auf H. Daher gen¨
ugt es die Identit¨at f¨
ur
ˆ(y) =
z = it mit t > 0 nachzuweisen. Die Fouriertransformierte von f (x) = exp( −π
(x,
x))
ist
f
t
¨
tn/2 exp(−πt(y, y)) (Ubung).
Daher erhalten wir mithilfe von Poisson Summation:
P
−π
ΘL ( −1
it ) = Px∈L exp( t (x, x)) =
det(L)−1/2 y∈L# tn/2 exp(−πt(y, y)) = tn/2 det(L)−1/2 ΘL# (it).
Bemerkung 18.19. Die Gruppe
SL2 (Z) := hS =
0 −1
1 0
, T :=
1 1
0 1
operiert auf der oberen Halbebene durch M¨
obiustransformationen:
az + b
a b
γz =
z :=
.
c d
cz + d
Insbesondere ist
T z = z + 1 und Sz =
−1
.
z
i
¨
KAPITEL 6. LINEARE ALGEBRA UBER
Z.
116
Definition 18.20. Sei k ∈ 2Z≥0 . Eine holomorphe Funktion f : H → C heißt Modulform vom
Gewicht k falls
a b
az+b
k
(i) f ( cz+d ) = (cz + d) f (z) f¨
ur alle γ =
∈ SL2 (Z) und
c d
P
(ii) f hat eine Potenzreihenentwicklung f (z) = ∞
n=0 an exp(2πinz).
Bemerkung 18.21. Eine holomorphe Funktion f : H → C ist genau dann eine Modulform,
falls f (z) = f (z + 1) und fP
(−1/z) = z k f (z) und die wegen der ersten Bedingung existierende
ur n < 0 erf¨
ullt.
Fourierentwicklung f (z) = ∞
−∞ an exp(2πinz) die Bedingung an = 0 f¨
Satz 18.22. Ist L ≤ Rn ein gerades unimodulares Gitter, so ist n durch 8 teilbar.
Beweis. Sei L so ein Gitter. Angenommen n ist nicht durch 8 teilbar. Indem wir L durch L ⊥ L
oder L ⊥ L ⊥ L ⊥ L ersetzen k¨
onnen wir annehmen, dass n ≡8 4 ist. Dann ist
ΘL (−1/z) = (−1)n/4 z n/2 ΘL (z) = −z n/2 ΘL (z).
Also ist
ΘL ((T S)z) = −z n/2 ΘL (z).
Da (T S)z = (z − 1)/z und (T S)2 z = 1/(1 − z) ist, ergibt sich daraus
ΘL ((T S)3 z) = ΘL ((T S)(T S)2 z) = −(1/(1 − z))n/2 ΘL ((T S)2 z)
= z −n/2 ΘL ((T S)z) = −ΘL (z)
ein Widerspruch da (T S)3 = I2 .
Satz 18.23. Ist L ≤ Rn ein gerades unimodulares Gitter, so ist ΘL eine Modulform vom Gewicht
n/2.
Beweis. Sei f := ΘL . Dann ist f (z) = f (z + 1), da L ein gerades Gitter ist und f hat eine
Fourierentwicklung wie in 18.20 (ii). Wegen der Theta Transformaionsformel ist f (−1/z) =
z n/2 f (z) (da n durch 8 teilbar ist), also ist f eine Modulform vom Gewicht n/2.
Bemerkung 18.24. Bezeichne
M(SL2 (Z)) :=
∞
M
Mk
k=0
den Ring der Modulformen wobei Mk den C-Vektorraum der Modulformen vom Gewicht k bezeichnet. F¨
ur f ∈ Mk und g ∈ Ml ist f g ∈ Mk+l , also ist M(SL2 (Z)) eine Z-graduierte
C-Algebra.
Satz 18.25. (ohne Beweis) M(SL2 (Z)) = C[E4 , E6 ], wo
E4 = θE8 = 1 + 240
∞
X
σ3 (n)q
2n
∈ M4 und E6 = 1 − 504
n=1
die Eisensteinreihen bezeichnen. Dabei ist σt (n) =
Teiler von n.
∞
X
σ5 (n)q 2n ∈ M6
n=1
t
0<d|n d
P
die Summe der t-ten Potenzen der
18. AUSBLICKE.
117
Beweis. Ein Beweis findet man in Ebeling, Abschnitte 2.5 und 2.6.
Folgerung 18.26. Sei
∞
∆ :=
Y
1
(E43 − E62 ) = q 2 (1 − q 2i )24 ∈ M12 .
1728
i=1
Ist L ≤ Rn ein gerades unimodulares Gitter mit n = 24a + 8b, so gibt es Zahlen ci ∈ Q mit
ΘL =
a
X
n/8−3i
ci E4
∆i .
i=0
P
2n
Definition 18.27. Eine Modulform f vom Gewicht k heißt Spitzenform, falls f = ∞
n=1 q .
Bezeichnung: f ∈ Sk .
L∞
Bemerkung 18.28. S :=
k=1 Sk = ∆M(SL2 (Z)) ist das von ∆ erzeugte Hauptideal in
M(SL2 (Z)).
Bemerkung 18.29. Der Raum M12a+4b (0 ≤ b ≤ 2) enth¨
alt genau eine extremale Modulform
∗
f12a+4b
= 1 + 0q 2 + . . . + 0q 2a + a∗2a+2 q 2a+2 + . . . = 1 +
∞
X
a∗2i q 2i .
i=a+1
P
Beweis. f ist ein Polynom in E4 und ∆. f = ai=0 ci E43a+b−3i ∆i . Die a + 1 = dim(M12a+4b )
Bedingungen, dass die Koeffizienten von q 2i gleich 0 sind (1 ≤ i ≤ a) und der von q 0 gleich 1
sind linear unabh¨
angig und bestimmen daher die Koeffizienten ci eindeutig.
Satz 18.30. (ohne Beweis) Man kann zeigen, dass der Koeffizient a∗2a+2 in der extremalen
Modulform von Null verschieden ist.
Beweis. C.L. Siegel, Berechnung von Zetafunktionen an ganzzahligen Stellen. Nachr. Akad. Wiss.
G¨ottingen, 87-102 (1969).
Folgerung 18.31. Sei L ≤ R24a+8b ein gerades unimodulares Gitter mit 0 ≤ b ≤ 2. Dann ist
min(L) ≤ 2 + 2a. Ist min(L) = 2a + 2, so heißt L extremal.
Die Thetareihe ΘL eines extremalen Gitters L ist genau die extremale Modulform und insbesondere eindeutig bestimmt. Man kann beweisen, dass f¨
ur großes Gewicht k, (k > 82000) der
Koeffizient a∗2a+4 in der extremalen Modulform negativ wird (Mallows, Odlysko, Sloane: Upper
bounds for modular forms, lattices and codes, J. Algebra 68-76 (1975), auch wenn dort k fehlerhaft angegeben ist, Korrektur: Jenkins, Rouse: Bounds for coefficients of cusp forms and extremal
lattices. Bulletin LMS 2011). Also gibt es nur endlich viele extremale gerade unimodulare Gitter.
In durch 24 teilbaren Dimensionen kennt man bisher 5 solcher Gitter, das Leech Gitter Λ24 und
3 gerade unimodulare Gitter in Dimension 48 mit Minimum 6, P48p , P48q und P48n . Erst 2010
habe ich ein extremales gerades unimodulares Gitter Γ72 konstruiert. Ab Dimension 96 ist die
Existenz extremaler Gitter unbekannt.
Index
¨
Ahnlichkeit,
53
¨ahnlich, 31, 53
¨aquivalent, 31, 82
¨außere Algebra, 95
¨außeres k-faches Produkt, 93
Abstand, 74
affin unabh¨angig, 66
affine Abbildung, 63
affine Basis, 66
affine Erzeugnis, 62
affine Gruppe, 63
affiner Isomorphismus, 63
affiner Raum, 61
affiner Teilraum, 62
affines Koordinatensystem, 64
Algebra, 12
alternierend, 93, 98
alternierende Gruppe, 57
alternierendes k-faches Produkt, 93
Annihilator, 12
Annullatorideal, 23
assoziiert, 20
Aufblasung, 6
Automorphismengruppe, 51, 107
einfach, 58
Einheiten, 5
Einheitengruppe, 5
Einschr¨ankung, 6
Elementarteiler, 28
Endomorphismen, 7
Endomorphismenring, 7
Erzeugnis, 7
erzeugte Ideal, 11
Euklidische Abstand, 71
Euklidische Gruppe, 71
Euklidische Metrik, 71
Euklidischer affiner Raum, 71
Euklidischer Bereich, 13
Euklidischer Ring, 13
Exponentialreihe, 43
Faktormodul, 9
frei, 8
freie R-Modul auf A, 8
Frobenius-Normalform, 35
Fundamentalbereich, 111
Fundamentalparallelotop, 111
G-¨aquivariant, 53
G-Menge, 47
Basis, 8, 24, 101
ganz, 105
Bewegung, 71
Gaußsche Binomialkoeffizienten, 54
bilinear, 87
gerade, 105
gerade Permutationen, 57
charakteristische Matrix, 34
gerade Teilgitter, 105
Chinesischer Restsatz, 16
Chinesischer Restsatz f¨
ur Euklidische Ringe, 17 Gitter, 101
Gitterbasis, 101, 102
Determinante, 104
Gitterverband, 103
diagonale Operation, 55
gr¨oßter gemeinsamer Teiler, 14
Dimension, 64, 76
Graßmann-Algebra, 95
direkte Summe, 8
Grad, 21, 80
distributiv, 103
Grammatrix, 104
Distributivgesetze, 5
Gruppenhomomorphismus, 57
Doppelverh¨altnis, 78, 79
Hadamard Ungleichung, 108
duale Gitter, 105
118
INDEX
119
Hauptideal, 11
Hauptidealbereich, 13
Hermite-Funktion, 113
Hermite-Konstante, 113
Hermiteinterpolation, 19
Homogenisierung, 84
Homomorphiesatz, 10
Homomorphiesatz f¨
ur Gruppen, 58
Linksideale, 8
Linksrestklassen, 49
Ideal, 10
Index, 49
Integrit¨atsbereich, 13
irreduzibel, 22, 110
Isometrie, 71
Isometriegruppe, 71
isometrisch, 107
isometrische Einbettung, 71
isomorph, 6
Isomorphismus, 7
nat¨
urliche Epimorphismus, 10, 11, 58
nilpotent, 19
Noetherscher Isomorphiesatz, 59
Normalteiler, 57
Nullstellenmenge, 81
Nullteiler, 19
nullteilerfrei, 13
Jordan-Normalform, 40
K¨orper, 5
Kegel, 79
Kern, 7
kissing number, 113
kleinstes gemeinsames Vielfaches, 15
kollinear, 66
kommutativer Ring, 5
kommutieren, 51
kompatible Basen, 24
kompatible Basis, 103
komplanar, 66
komplexe Konjugation, 12
kongruent, 73
Konjugation, 51
konjugiert, 31
konjugierte Partition, 37
Konjugiertenklassen, 51
Konstantenerweiterung, 91
konvex, 111
Kronecker-Produkt, 87
Kußzahl, 113
L¨ange der Bahn, 53
Lagrange, 49
Lagrangeinterpolation, 18
lineare Operation, 49
linearer Anteil, 63
lineares Differentialgleichungssystem, 43
maximales Ideal, 21
Minimum des Gitters, 113
Minoren, 97
Modul, 6
Modulhomomorphismus, 7
Operation
diagonale Operation, 55
linear, 49
regul¨are Operation, 49
transitive Operation, 49
treue Operation, 49
Ordnung, 29
orthogonal unzerlegbares Gitter, 110
orthogonale Gruppe, 56
orthogonale Summe, 110
parallel, 64
Parallelprojektion, 69
Partition, 47
Partition einer nat¨
urlichen Zahl, 37
Poisson Summation, 114
Polynomring, 5
prim, 14, 22
prim¨are rationale Form, 36
Primideal, 21
projektiv unabh¨angig, 78
projektive Abbildung, 76
projektive Basis, 78
projektive Quadrik, 79
projektiver Raum, 76
projektiver Teilraum, 76
projektives Koordinatensystem, 76
Projektivit¨at, 76
quadratische Form, 79
Quotientenk¨orper, 13
Rang, 28
120
rationale kanonische Form, 35
rationalen Funktionen, 14
regul¨ar, 49
regul¨are R-Modul, 8
reiner Tensor, 89
reines Teilgitter, 102
Relationenmatrix, 105
Restklasse, 9
Restklassenring, 11
Ring, 5
Ring der ganzen Zahlen, 5
Ring mit Eins, 5
Ringhomomorphismus, 6
schiefsymmetrisch, 98
schwach parallel, 64
semidirektes Produkt, 59
Smith-Form, 25
spezielle lineare Gruppe, 57
Spiegelung, 107
Stabilisator, 48
Standardgitter, 105
Streckungen, 68
subdirektes Produkt von Gittern, 102
Summe, 10
symmetrisch, 99
symmetrische Algebra, 99
symmetrische Tensoren, 100
teilerfremde, 16, 17
Teilmodul, 6
teilt, 20
Teilverh¨altnis, 67
Tensoralgebra, 93
Tensorprodukt, 87, 92
Tensorrang, 89
Theta-Reihe, 114
Torsionselement, 23
torsionsfrei, 23
Torsionsmodul, 23
Torsionsteilmodul, 23
transitiv, 49
Translation, 61
Translationsraum, 61
treu, 49
triviale Normalteiler, 57
unendlich ferne Hyperebene, 77
unimodular, 105
INDEX
universelle bilineare Abbildung, 87
Untergruppe, 48
unzerlegbar, 22
Verband, 103
Vielfaches, 20
vollen linearen Gruppe, 54
volles Gitter, 102
windschief, 64
Winkel, 72
Young-Diagramm, 37
Zentralisator, 32, 51
Zentralisatoralgebra, 32
zentrallsymmetrisch, 111
Zentrum, 51
Zykel, 51
Zykelz¨ahler, 52
zyklische Gruppe, 29
zyklischer Vektor, 34
zyklischer Vektorraum, 34