Lineare Algebra II Vorlesung WS 2014/15 Gabriele Nebe RWTH Aachen Prof. Dr. Gabriele Nebe Lehrstuhl D f¨ ur Mathematik RWTH Aachen Templergraben 64 Der Nachdruck dieses Textes, auch von einzelnen Teilen daraus, ist nicht gestattet. 2 Inhaltsverzeichnis 1 Ringe und Moduln 1 Definitionen und Beispiele. (V1) . . . . . . . . . . . . . . . . . . . . 2 Homomorphies¨ atze und der chinesische Restsatz. . . . . . . . . . . . 2.1 Der Homomorphiesatz f¨ ur Moduln. (V2) . . . . . . . . . . . . 2.2 Ringe und Ideale. (V2) . . . . . . . . . . . . . . . . . . . . . . 2.3 Euklidische Ringe. (V3) . . . . . . . . . . . . . . . . . . . . . 2.4 Der chinesische Restsatz. (V4) . . . . . . . . . . . . . . . . . 2.5 Der chinesische Restsatz und die Hauptraumzerlegung. . . . . 3 Elementare Teilbarkeitstheorie f¨ ur Ringe. (V5) . . . . . . . . . . . . 4 Moduln u ¨ber Hauptidealbereichen. . . . . . . . . . . . . . . . . . . . 4.1 Der Struktursatz. (V6) und (V7) . . . . . . . . . . . . . . . . 4.2 Der Hauptsatz u ¨ber endlich erzeugte abelsche Gruppen. (V7) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 9 9 10 13 16 19 20 23 23 29 2 Normalformen fu ¨ r Matrizen. ¨ 5 Ahnlichkeit von Matrizen. (V8) . . . . . . . . . . . . . . . . . . 6 Normalformen f¨ ur Matrizen. . . . . . . . . . . . . . . . . . . . . 6.1 Die rationale kanonische Form. (V9) . . . . . . . . . . . 6.2 Trennende Invarianten. (V10) . . . . . . . . . . . . . . . 6.3 Die Jordan Normalform. . . . . . . . . . . . . . . . . . 6.4 Transformationsmatrizen. (V11) . . . . . . . . . . . . . 6.5 Eine Anwendung: lineare Differentialgleichungssysteme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 31 34 34 37 39 40 43 3 Gruppen und Operationen 7 Operationen von Gruppen auf Mengen. . . . . . . . 7.1 Wiederholung und erste Beispiele. (V12) . . . 7.2 Die Konjugationsoperation. (V13) . . . . . . 7.3 Parametrisierung aller transitiver G-Mengen. 7.4 Anzahl der Bahnen des Stabilisators. (V14) . 8 Homomorphismen und Normalteiler. (V15) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 47 47 51 53 55 57 4 Geometrie 9 Affine Geometrie . . . . . . . . . . . . . . . . . . . . . . . 9.1 Der affine Raum. (V15) . . . . . . . . . . . . . . . 9.2 Affine Abbildungen. (V16) . . . . . . . . . . . . . . 9.3 Das Invarianzprinzip der affinen Geometrie. (V17) 10 Euklidische affine Geometrie. (V18) . . . . . . . . . . . . 11 Projektive Geometrie. (V19) . . . . . . . . . . . . . . . . . 11.1 Invarianten der projektiven Gruppe. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 61 61 63 66 70 76 78 3 . . . . . . . . . . . . 4 INHALTSVERZEICHNIS 12 13 Projektive Quadriken (V20) . . . . . . Affine Quadriken (V21) . . . . . . . . 13.1 Die Operation von Aff n (K) auf 13.2 Homogenisierung. . . . . . . . . . . . . . . . . . . . . . . . . . . K[x1 , . . . , xn ]≤2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 83 83 84 5 Multilineare Algebra 14 Tensorprodukte. . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.1 Tensorprodukte von Moduln. . . . . . . . . . . . . . . . . 14.2 Tensorprodukte von Abbildungen. . . . . . . . . . . . . . 15 Tensoralgebra, Graßmann Algebra und Anwendungen. . . . . . . 15.1 Die Tensoralgebra . . . . . . . . . . . . . . . . . . . . . . 15.2 Schiefsymmetrische Tensoren und die Graßmann-Algebra. 15.3 Pl¨ ucker Koordinaten. . . . . . . . . . . . . . . . . . . . . 15.4 Alternierende und symmetrische Tensoren. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 87 87 90 92 92 93 96 98 6 Lineare Algebra u ¨ ber Z. 16 Grundlegende Definitionen f¨ ur Gitter . . . . . 16.1 Reine Teilgitter. . . . . . . . . . . . . 16.2 Gitterverb¨ ande und kompatible Basen. 16.3 Gitter in Euklidischen R¨aumen. . . . . 17 Isometrien und Automorphismen . . . . . . . 18 Ausblicke. . . . . . . . . . . . . . . . . . . . . 18.1 Orthogonale Zerlegungen. . . . . . . . 18.2 Minkowski’s Gitterpunktsatz. . . . . . 18.3 Dichte Kugelpackungen. . . . . . . . . 18.4 Thetareihen von Gittern. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 101 101 103 104 107 110 110 111 113 114 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Kapitel 1 Ringe und Moduln 1 Definitionen und Beispiele. (V1) Definition 1.1. R, genauer (R, +, ·) heißt ein Ring mit Eins, f¨ ur uns kurz Ring, falls folgende drei Eigenschaften gelten: 1) (R, +) ist eine abelsche Gruppe (mit 0 als neutralem Element). 2) (R, ·) ist ein Monoid (mit 1 als Einselement). 3) Es gelten die Distributivgesetze: a(b + c) = ab + ac (b + c)a = ba + ca f¨ ur alle a, b, c ∈ R. 4) Falls (R, ·) kommutativ ist, heißt R kommutativer Ring mit Eins. 5) Falls (R − {0}, ·) eine abelsche Gruppe ist, so heißt R ein K¨ orper. Konkrete Beispiele: 1) Z, genauer (Z, +, ·), der Ring der ganzen Zahlen, ist ein kommutativer Ring mit Eins. 2) Ist K ein K¨ orper, so ist der Polynomring K[x] u ¨ber K ein kommutativer Ring mit Eins. 3) K n×n ist mit Matrixmultiplikation und Matrixaddition ein Ring mit Eins, der f¨ ur n ≥ 2 nicht kommutativ ist. 4) Sind R und S Ringe, so ist auch R ⊕ S := {(r, s) | r ∈ R, s ∈ S} ein Ring mit komponentenweiser Addition und Multiplikation. Das Einselement ist (1, 1) und das Nullelement ist (0, 0). Es gilt z.B. (1, 0) + (0, 1) = (1, 1) und (1, 0) · (0, 1) = (0, 0). R ⊕ S ist also nicht nullteilerfrei. Definition 1.2. Sei R ein Ring mit Eins. Dann heißt R∗ := {r ∈ R| es existiert a ∈ R mit ar = ra = 1} die Einheitengruppe von R. Ihre Elemente heißen auch Einheiten von R. Beispiele. Z∗ = {1, −1}, F¨ ur jeden K¨ orper K ist K ∗ = K \ {0}, K[x]∗ = K ∗ , (K n×n )∗ = GLn (K). ∗ (R ⊕ S) = R∗ × S ∗ . 5 6 KAPITEL 1. RINGE UND MODULN Definition 1.3. Seien R, S Ringe mit Eins. ϕ : R → S heißt ein Ringhomomorphismus, falls gilt ϕ(a + b) = ϕ(a) + ϕ(b), ϕ(ab) = ϕ(a)ϕ(b), ϕ(1R ) = 1S f¨ ur alle a, b ∈ R. Ist ϕ zus¨ atzlich injektiv, surjektiv oder bijektiv, so spricht man vom Mono-, ∼ Epi-, bzw. Isomorphismus. Ist ϕ ein Isomorphismus, so schreiben wir ϕ : R − → S oder R ∼ =S und nennen R und S isomorph. Definition 1.4. Sei R ein Ring mit Eins. Eine abelsche Gruppe (M, +) heißt R-Modul (genauer R-Linksmodul), falls eine Abbildung R × M → M : (r, m) 7→ rm gegeben ist mit r(m + n) = rm + rn, (rs)m = r(sm), (r + s)m = rm + sm 1m = m f¨ ur alle r, s ∈ R, m, n ∈ M . Ist M ein R-Modul, so heißt eine Teilmenge T ⊆ M ein Teilmodul von M , in Zeichen T ≤ M , falls T 6= ∅ und f¨ ur alle t1 , t2 ∈ T , a ∈ R auch at1 + t2 ∈ T gilt. Man ist versucht zu sagen, dass Moduln Vektorr¨aume u urlich, ¨ber Ringen sind. Richtig ist nat¨ dass Vektorr¨ aume Moduln u orpern sind. ¨ber K¨ ¨ Ubung. Zeigen Sie, dass Teilmoduln genau die Teilmengen T von M sind, die mit der Einschr¨ankung der Addition und Skalarmultiplikation von M auf T wieder zu R-Moduln werden. Beispiele. 1) Jede abelsche Gruppe (M, +) ist ein Z-Modul mit m + .{z . . + m}, a≥0 | a am := − (m + . . . + m), −a ≥ 0. {z } | −a 2) Sei V ein K-Vektorraum f¨ ur einen K¨orper K und ϕ ∈ EndK (V ). Dann wird V zu einem K[x]-Modul durch die Setzung p(x)v := (p(ϕ))(v) f¨ ur alle p(x) ∈ K[x], v ∈ V. ¨ 3) Ubung: Sei ϕ : R → S ein Ringhomomorphismus und M ein S-Modul. Dann wird M zu einem R-Modul, durch rm := ϕ(r)m f¨ ur r ∈ R, m ∈ M . Ist ϕ injektiv (also R ∼ = ϕ(R) ein Teilring von S), so nennt man den R-Modul M auch die Einschr¨ ankung des S-Moduls M . Ist ϕ surjektiv (also S ∼ = R/ Kern(ϕ)), so nennt man den R-Modul M auch die Aufblasung (Inflation) des S-Moduls M 1. DEFINITIONEN UND BEISPIELE. (V1) 7 Bemerkung 1.5. (a) Sei M ein R-Modul und T eine Menge von Teilmoduln von M . Dann gilt: \ T ≤M T ∈T ist wieder ein Teilmodul von M . T (b) F¨ ur X ⊆ M so ist das Erzeugnis hXi := X⊂T ≤M T der kleinste Teilmodul von M , welcher X enth¨ alt. (c) Es gilt f¨ ur ∅ = 6 X⊆M hXi = {m ∈ M | es existieren k ∈ N, a ∈ Rk , v ∈ X k mit m = a1 v1 + · · · + ak vk } und h∅i = {0}. Beweis. zu (c) Man rechnet leicht nach, dass die Menge X auf der rechten Seite ein R-Teilmodul von M ist. (Die Konvention, dass die leere Linearkombination gleich 0 ist, f¨ uhrt zu einer Vereinheitlichung der beiden F¨ alle.) Offenbar gilt X ⊆ X. Also nach Definition gilt somit hXi ≤ X. Aber andererseits ist X in jedem Teilmodul von M enthalten, der X enth¨alt. Das liefert die Gleichheit. q. e. d. Definition 1.6. Eine Abbildung ϕ : M → N von R-Moduln M, N heißt R-Modulhomomorphismus, falls ϕ(rm1 + sm2 ) = rϕ(m1 ) + sϕ(m2 ) f¨ ur alle r, s ∈ R und alle m1 , m2 ∈ M gilt. In diesem Fall heißt die Faser u ¨ber 0 Kern(ϕ) := {m ∈ M |ϕ(m) = 0} der Kern von ϕ. Bemerkung 1.7. (a) Die Komposition von R-Modulhomomorphismen ist ein R-Modulhomomorphismus. (b) Ist ϕ : M → N ein R-Modulhomomorphismus, so ist Kern(ϕ) ein Teilmodul von M und Bild(ϕ) := {ϕ(m) | m ∈ M } ein Teilmodul von N . (c) ϕ ist injektiv genau dann wenn Kern(ϕ) = {0} ist. (d) ϕ ist surjektiv genau dann wenn Bild(ϕ) = N ist. (e) Ist ϕ bijektiv (also ein Isomorphismus), so ist die Umkehrabbildung ϕ−1 wieder ein R¨ Modulisomorphismus. Insbesondere ist Isomorphie von Moduln eine Aquivalenzrelation. (f ) R-Modulhomomorphismen von M in sich selbst heißen Endomorphismen. EndR (M ) := {ϕ : M → M | ϕ R − Modulhomomomorphismus } heißt der Endomorphismenring des RModuls M . Es ist EndR (M ) ein Ring, im Fall dass R kommutativ ist, sogar eine R-Algebra. ¨ Beweis. Ubungsaufgabe. q. e. d. ¨ Ubung. Die Spalten der Matrix A in Zn×n bilden genau dann ein Erzeugendensystem des Z-Moduls Zn×1 wenn A ∈ GLn (Z) = (Zn×n )∗ = {g ∈ Zn×n | det(g) ∈ {±1}}. Die Tatsache, dass R ein Ring ist, erlaubt es uns, beliebige Moduln als Faktormoduln freier Moduln zu beschreiben und so einen ersten Rahmen zu bekommen, wie man Moduln konstruiert. 8 KAPITEL 1. RINGE UND MODULN Bemerkung 1.8. Sei R ein Ring mit Eins. 1) M = R kann als R-Modul aufgefasst werden durch R × M → M : (r, m) 7→ rm (Produkt in R). Diesen Modul bezeichnen wir mit R R. Er heißt der regul¨ are R-Modul. Seine Teilmoduln nennt man auch Linksideale. 2) Ist M irgendein R-Modul und m ∈ M , dann gibt es genau einen R-Modulhomomorphismus ϕ : R R → M mit ϕ(1) = m. 3) Sind M und N R-Moduln, so auch die direkte Summe M ⊕ N (entspricht dem direkten Produkt bei kommutativen Gruppen in additiver Schreibweise) durch die R-Operation r(m, n) := (rm, rn) f¨ ur alle m ∈ M, n ∈ N, r ∈ R. M ⊕ N heißt die direkte Summe der R-Moduln M und N . 4) Ist A eine beliebige Menge, so ist RA ein R-Modul mit werteweiser Addition und Produkt: R × RA → RA : (r, f ) 7→ (a 7→ rf (a)). Im Falle von A = n schreiben wir Rn statt Rn . Beweis. 1) Klar. 2) Eindeutigkeit: Sei ψ ein weiterer Homomorphismus mit dieser Eigenschaft. Dann gilt f¨ ur alle r ∈ R R: ψ(r) = ψ(r1) = rψ(1) = rm = ϕ(r), also ψ = ϕ. Existenz: ϕ : R R → M : r 7→ rm ist wohldefiniert und hat die gew¨ unschte Eigenschaft. ¨ ¨ 3) Ubung. 4) Ubung. q. e. d. ¨ Ubung: Zeige: Sind A und B disjunkte Mengen, so gilt: RA ⊕ RB ∼ = RA∪B als R-Moduln. Bemerkung 1.9. Sei A eine Menge und f¨ ur jedes a ∈ A sei ea ∈ RA die charakteristische Funktion von {a}, definiert durch 0, b = 6 a ea (b) := 1, b = a Dann ist der von den ea mit a ∈ A erzeugte R-Teilmodul hea | a ∈ AiR von RA gegeben durch FrR (A) := hea |a ∈ AiR = {f ∈ RA | |{a ∈ A|f (a) 6= 0}| < ∞} ≤ RA . FrR (A) heißt der freie R-Modul auf A. Satz 1.10. Sei R ein Ring, A eine Menge. Der Modul FrR (A) := hea |a ∈ AiR ≤R RA hat folgende Eigenschaft: F¨ ur jeden R-Modul M und jede Abbildung ψ : A → M gibt es genau einen R-Modulhomomorphismus ψ˜ : FrR (A) → M mit ˜ a ) = ψ(a) f¨ ψ(e ur alle a ∈ A. Moduln, die isomorph zu FrR (A) sind, heißen frei auf dem Erzeugendensystem, welches (ea )a∈A entspricht. Ein freies Erzeugendensysteme heißt auch Basis, genauer R-Modulbasis. ¨ 2. HOMOMORPHIESATZE UND DER CHINESISCHE RESTSATZ. 9 Beispiele. R R ist frei auf {1}. Der Spaltenmodul Rn×1 ist frei auf den Einheitsspalten (e1 , . . . , en ). Beweis. Jedes Element aus FrR (A) hat eine eindeutige Darstellung als X ra ea a∈A mit ra ∈ R und ra = 0 f¨ ur alle bis auf endlich viele a ∈ A. Daher ist X X ψ˜ : FrR (A) → M : ra ea 7→ ra ψ(a) a∈A a∈A eine wohldefinierte Abbildung, von der man leicht zeigt, dass sie ein Modulhomomorphismus ist. ˜ a ) = ψ(a) f¨ Sie erf¨ ullt sicher die Bedingung ψ(e ur alle a ∈ A und ist auch der einzige Modulhomomorphismus mit dieser Eigenschaft. q. e. d. ¨ Ubung: Sei R ein kommutativer Ring mit Eins. Dann gilt EndR (Rn ) ∼ = Rn×n , wobei wir Rn×n durch komponentenweise Addition und u ¨bliche Multiplikation zu einem Ring machen. Genauer: Identifiziere Rn mit Rn×1 . Dann liefert das Heranmultiplizieren von Matrizen aus Rn×n eine eindeutige Darstellung der Endomorphismen von Rn×1 durch Matrizen. Man setzt GL(n, R) := (Rn×n )∗ . (Beachte, der Fall n = 1 ist schon interessant.) (Hinweis: e : Rn×1 → Rn×1 : X 7→ AX A ist f¨ ur jedes A ∈ Rn×n ein R-Modulendomorphismus und jede Matrix induziert einen anderen Endomorphismus, da ein Endomorphismus durch die Bilder der (freien) Erzeuger e1 , . . . , en festgelegt ist, die wie in der linearen Algebra in den Spalten der beschreibenden Matrix stehen. Da diese Bilder beliebig vorgegeben werden k¨onnen, folgt die Behauptung, wenn man beachtet, dass der Summe und dem Matrixprodukt gerade die Summe und die Hintereinanderausf¨ uhrung der Endomorphismen entsprechen.) 2 2.1 Homomorphies¨ atze und der chinesische Restsatz. Der Homomorphiesatz fu ¨ r Moduln. (V2) Bemerkung 2.1. Sei R Ring und M ein R-Modul mit Teilmodul U ≤ M . 1.) F¨ ur m ∈ M heißt m + U := {m + u|u ∈ U } die Restklasse von m nach U . Die Menge M/U := {m + U |m ∈ M } aller Restklassen nach U in M bilden den Faktormodul M/U von M nach U verm¨ oge der folgenden Verkn¨ upfungen: + : M/U × M/U → M/U : (m1 + U, m2 + U ) 7→ (m1 + m2 ) + U 10 KAPITEL 1. RINGE UND MODULN und · : R × M/U → M/U : (r, m + U ) 7→ rm + U. 2.) Der natu ¨ rliche Epimorphismus ν = νU : M → M/U : m 7→ m + U ist ein R-Modulepimorphismus mit Kern(νU ) = U . ¨ Beweis. 1.) Wir m¨ ussen zeigen, dass + und · wohldefiniert sind. + lassen wir als Ubung. F¨ ur · sei m + U = n + U . Wir zeigen: rm + U = rn + U . Aber m − n ∈ U , also auch r(m − n), also rm + U = rn + U . Die R-Modulaxiome m¨ ussen verifiziert werden. Z. B. ist U = 0 + U das ¨ Nullelement von M/U . Den Rest lassen wir als Ubung. 2. ) Dies folgt direkt aus der Definition der Addition von Restklassen. q. e. d. Der n¨achste Schritt in der allgemeinen Modultheorie ist der Homomorphiesatz, dessen Beweis genau so einfach ist wie bei Vektorr¨ aumen. Satz 2.2. Sei ϕ : M → N ein R-Modulhomomorphismus. Dann faktorisiert ϕ als ϕ=ϕ e ◦ νKern(ϕ) u ¨ber M/ Kern(ϕ) mit νKern(ϕ) ein R-Modulepimorphismus und den R-Modulmonomorphimus ϕ e : M/ Kern(ϕ) → N : m + Kern(ϕ) 7→ ϕ(m). Bemerkung 2.3. Ist M ein endlich erzeugter R-Modul, so gibt es ein n ∈ N und einen RModulepimorphismus : Rn×1 → M . Insbesondere M ∼ = Rn×1 / Kern(). Beweis. Sei m : n → M gegeben, so dass Bild(m) ein Erzeugendensystem von M ist. Der eindeutige R-Modulhomomorphismus : Rn×1 → M mit ◦ S = m, wo S die Standardbasis von Rn×1 ist, ist dann ein Epimorphismus. q. e. d. Beispiele 1) Jede abelsche Gruppe, die von zwei Elementen erzeugt wird, ist von der Form Z2 /M wobei M ein Z-Teilmodul von Z2 ∼ = FrZ (2) ist. 2) Sei K ein K¨ orper und V ein endlich erzeugter K-Vektorraum mit ϕ ∈ EndK (V ), so dass das Minimalpolynom und das charakteristische Polynom von ϕ beide gleich p(x) ∈ K[x] sind, so gilt (vgl. Begleitmatrix von p(x)): V ∼ =K[x] 2.2 K[x] K[x]/hp(x)iK[x] . Ringe und Ideale. (V2) Wir kommen zu dem Homomorphiesatz von Ringen. Zuerst sieht die Definition eines Ideals etwas sonderbar aus, wird aber einsichtig, wenn man sich vorstellt, dass ein Ideal etwas ist, was man gleich Null setzen kann, um einen neuen Ring zu bekommen. Definition 2.4. Sei R ein Ring. (a) I ⊆ R heißt Ideal von R, in Zeichen I E R, falls 1) a, b ∈ I und r, s ∈ R impliziert ra + bs ∈ I und 2) I 6= ∅. (b) Sind I1 , I2 E R so heißt das kleinste Ideal I1 + I2 , welches I1 und I2 enth¨ alt, die Summe von I1 und I2 . ¨ 2. HOMOMORPHIESATZE UND DER CHINESISCHE RESTSATZ. 11 Beispiele. 1) F¨ ur R = Z ist 3Z := h3i := {3z | z ∈ Z} ein Ideal: h3i E Z. 2) Ist K ein K¨ orper und a ∈ K, dann ist {p(x) ∈ K[x] | p(a) = 0} = hx − ai := {p(x)(x − a) | p(x) ∈ K[x]} E K[x]. 3) Ist R ein kommutativer Ring mit Eins, so sind die Ideale in R genau die R-Teilmoduln von R R. 4) Der Durchschnitt einer Menge von Idealen ist wieder ein Ideal. 5) Ist M ⊆ R, so heißt \ hM i := I M ⊆IER das von M erzeugte Ideal. Ist M = {a1 , . . . an } so schreibt man auch ha1 , . . . , an i statt hM i. 6) Ist R ein kommutativer Ring mit Eins, so heißt hai := {ra | r ∈ R} das von a ∈ R erzeugte Hauptideal: hai E R. 7) Ist ϕ : R → S ein Ringhomomorphismus, dann ist Kern(ϕ) := {r ∈ R | ϕ(r) = 0} ein Ideal von R: Kern(ϕ) E R. ¨ Ubung: Das von M erzeugte Ideal ist n X hM i = { ai mi bi | n ∈ N0 , ai , bi ∈ R, mi ∈ M }. i=1 Benutzen Sie diese Beschreibung um zu zeigen, dass die Ideale von R = Zn×n genau die Teilmengen aR sind mit a ∈ Z. Bei Ringen k¨ onnen wir Restklassenringe nach Idealen bilden. Der neue Punkt ist die Wohldefiniertheit der vertreterweisen Multiplikation. Satz 2.5. Sei R ein Ring und I E R ein Ideal von R. Dann ist R/I := {r + I|r ∈ R} ein Ring mit den vertreterweisen Verkn¨ upfungen + : R/I × R/I → R/I : (r + I, s + I) 7→ (r + s) + I, · : R/I × R/I → R/I : (r + I, s + I) 7→ rs + I, und ν = νI : R → R/I : r 7→ r + I ist ein Ringepimorphismus mit Kern I. R/I heißt Restklassenring von R nach I und ν der natu ¨ rliche Epimorphismus. (Insbesondere ist jedes Ideal Kern eines Ringhomomorphismus.) Ist R kommutativ, so auch R/I. Beweis. Da I ≤ R ein R-Teilmodul von R ist, ist R/I wieder ein R-Modul und wir brauchen uns nur um die Wohldefiniertheit der Multiplikation zu k¨ ummern. Seien also r + I = r0 + I und 0 0 0 s + I = s + I f¨ ur gewisse r, r , s, s ∈ R. Dann existieren a, b ∈ I mit r0 = r + a, s0 = s + b, und wir bekommen r0 s0 − rs = (r + a)(s + b) − rs = rs + rb + as + ab − rs = rb + as + ab ∈ I 12 KAPITEL 1. RINGE UND MODULN d. h. (r + I)(s + I) ist wohldefiniert. Die Assoziativ- und Distributivgesetze u ¨bertragen sich von R. Dass ν ein Epimorphismus ist, ist gerade die Definition der Operationen im Restklassenring. q. e. d. Folgerung 2.6. (Homomorphiesatz f¨ ur Ringe) Seien R, S Ringe und ϕ : R → S ein Ringhomomorphismus. Dann ist I := Kern(ϕ) ein Ideal von R, B := Bild(ϕ) ein Teilring von S und ϕ : R/I → B, r + I 7→ ϕ(r) ein wohldefinierter Ringisomorphismus. Bemerkung 2.7. Sei M ein R-Modul. Dann ist der Annihilator von M AnnR (M ) := {r ∈ R | rm = 0 f¨ ur alle m ∈ M } ein Ideal von R, der Kern des Ringhomomorphismus R → EndZ (M ), r 7→ (m 7→ rm). Weiter ist M ein R/ AnnR (M )-Modul. Bemerkung 2.8. Seien R und S Ringe, M ein R-Modul und N ein S-Modul. Dann ist M ⊕ N ein R ⊕ S-Modul durch (r, s) · (m, n) := (rm, sn) f¨ ur alle r ∈ R, s ∈ S, m ∈ M, n ∈ N. Sei umgekehrt X ein R ⊕ S-Modul. Dann sind M := (1, 0)X und N := (0, 1)X Teilmoduln von X so dass X = M ⊕N . Es ist AnnR⊕S (M ) ⊇ {0}⊕S und somit M ein R⊕S/{0}⊕S ∼ = R-Modul und ebenso (R ⊕ {0})N = {0} und N ist ein S-Modul. Die R ⊕ S-Moduln sind also genau die direkten Summen von R-Moduln und S-Moduln. Definition 2.9. Sei R ein kommutativer Ring mit Eins. Eine R-Algebra A ist ein Ring mit Eins (in unserem Kontext meistens kommutativ), der gleichzeitig R-Modul ist, so dass gilt (ra)b = a(rb) = r(ab) f¨ ur alle r ∈ R, a, b ∈ A. (D. h., die Multiplikation ist R-bilinear.) Ein R-Algebrenhomomorphismus ist ein Ringhomomorphismus, der gleichzeitig R-Modulhomomorphismus ist. ¨ Ubung: Sei A eine R-Algebra. Dann ist R → A : r 7→ r1A ein Ringhomomorphismus, sogar ein R-Algebrenhomomorphismus. Beispiele. 1) C[x] ist eine C-Algebra. Sei : C → C : a + bi 7→ a − bi a, b ∈ R, die komplexe Konjugation. Dann ist C[x] → C[x] : n X k=0 ak xk 7→ n X ak xk k=0 ein Ringhomomorphismus, jedoch kein C-Algebrenhomomorphismus. (Man kann ihn jedoch als R-Algebrenhomomorphismus auffassen.) 2) Ist A eine R-Algebra und I E A ein Ideal, so ist A/I eine R-Algebra und νI ein RAlgebrenhomomorphismus. 3) Jeder Ring ist eine Z-Algebra. ¨ 2. HOMOMORPHIESATZE UND DER CHINESISCHE RESTSATZ. 2.3 13 Euklidische Ringe. (V3) Definition 2.10. Sei R ein kommutativer Ring mit Eins. (a) R heißt Integrit¨ atsbereich oder auch nullteilerfrei, falls 1 6= 0 in R gilt und f¨ ur alle a, b ∈ R, ab = 0 ⇒ a = 0 oder b = 0. (b) R heißt Hauptidealbereich, falls R ein Integrit¨ atsbereich ist und jedes Ideal von R ein Hauptideal ist. (c) R heißt Euklidischer Bereich oder Euklidischer Ring, falls eine Abbildung ν : R −→ Z≥0 existiert mit folgenden Eigenschaften: (i) ν(r) = 0 genau dann ,wenn r = 0 (ii) ν(r1 r2 ) = ν(r1 )ν(r2 ) (iii) f¨ ur a∈R und 0 6= b∈R existiert ein q∈R und ein r∈R , so dass a = bq + r mit ν(r) < ν(b). Konkrete Beispiele 1) Jeder Teilring eines K¨ orpers ist ein Integrit¨atsbereich. 2) Offenbar ist jeder K¨ orper sowohl ein Hauptidealbereich als auch ein Euklidischer Ring (mit |a| = 1 f¨ ur alle a ∈ K ∗ ). 3) Z ist Euklidischer Bereich mit dem gew¨ohnlichen Absolutbetrag: a a≥0 ν(a) := −a a < 0. 4) Sei K ein K¨ orper. Dann ist K[x] ein Euklidischer Bereich mit einer multiplikativen Variante des Grades: 0 a=0 ν(a) := Grad(a) 2 a 6= 0 Pn ur n ∈ N, ai ∈ Z} ist ein Integrit¨atsbereich, da er 5) Z[x] := {p(x) ∈ Q[x] | p(x) = i=0 ai xi f¨ ein Teilring des K¨ orpers Q(x) = {p(x)/q(x) | p(x), q(x) ∈ Q[x], q(x) 6= 0} ist. Jedoch ist Z[x] kein Hauptidealbereich, da z.B. (2, x) kein Hauptideal ist. ¨ Ubung: Zeige der Ring Z[i] := Z[x]/hx2 + 1i ist Euklidischer Bereich mit ν(a + bi) := a2 + b2 f¨ ur a, b ∈ Z. Satz 2.11. Sei R ein Integrit¨ atsbereich. Dann gibt es einen K¨ orper K, so dass R ⊆ K Teilring von K ist und K = {ab−1 |a ∈ R, b ∈ R − {0}}. Dieser K¨ orper ist bis auf Isomorphie eindeutig bestimmt und heißt Quotientenk¨ orper von R. Bezeichnung: K = Quot(R). Man beachte: In K sind alle Elemente 6= 0 von R zu Einheiten geworden, weshalb es Sinn macht ab−1 zu schreiben. e = {(a, b) | a, b ∈ R, b 6= 0} und eine Aquivalenzrelation ¨ Beweis. 1) Existenz: Definiere K ≈ auf e K: (a, b) ≈ (c, d) genau dann, wenn ad = cb. (Zur Veranschaulichung kann man die Tupel (a, b) e ≈ =: K bildet einen ¨ als ungek¨ urzte Br¨ uche ab betrachten.) Die Menge der Aquivalenzklassen K/ a Ring. Definiere nun b :=≈ - Klasse von (a, b). Addition und Multiplikation werden folgendermaßen definiert: a + b a · b c d c d := := ad + bc bd ac , falls b, d 6= 0. bd 14 KAPITEL 1. RINGE UND MODULN Zeige, dass die Addition wohldefiniert ist: Da b, d, bd 6= 0 sind, sind die Ausdr¨ ucke auf beiden 0 a0 a Seiten wohldefiniert. Zum Beweis der Vertreterunabh¨angigkeit sei b = b0 und dc = dc 0 . Also ist 0 0 0 c0 ab0 = ba0 und cd0 = dc0 . Behauptung: Es ist ad+bc = a db0+b bd d0 . Dies gilt aber genau dann, wenn bd(a0 d0 + b0 c0 ) = (ad + bc)b0 d0 . Nach Ausmultiplizieren erhalte: ba0 dd0 + bb0 c0 d = ab0 dd0 + bb0 cd0 dies gilt, da ja nach Voraussetzung ba0 = ab0 und cd0 = dc0 . Genauso kann man zeigen, dass die Multiplikation auf K wohldefiniert ist. Zeige nun, dass (K, +) eine abelsche Gruppe ist: Nullelement: 0 = a0 , a 6= 0 ( a0 = 0b f¨ ur alle a, b ∈ R mit a, b 6= 0). Wegen des Assoziativgesetzes in R kann man o.B.d.A. die Nenner als b 0 b+0 b gleich ansehen, also ac + cb = a+b at von K c . Dann ist also c + c = c = c . Die Kommutativit¨ b −b folgt aus der Kommutativt¨ at von R. Negative: − c = c . Zeige, dass (K − {0}, ·) eine abelsche Gruppe bildet: 1 6= 0 also K − {0} 6= ∅. Das Assoziativgesetz gilt, da (R, ·) f¨ ur Z¨ ahler und Nenner assoziativ ist, ebenso das Kommutativgesetz. Das −1 a Einselement ist 1 = a , a 6= 0, das inverse Element zu ab 6= 0 ist ab = ab . Es bleibt noch zu ¨ zeigen, dass auch das Distributivgesetz gilt! (Ubung) r Die Abbildung µ : R −→ K : r → 1 ist ein Ringmonomorphismus, denn µ ist Ringhomomorphismus und aus r∈ Kern µ folgt 1r = 10 . Es gilt also: r · 1 = 0 · 1 = 0 und somit r = 0. Also identifiziere r∈R mit 1r ∈K. (Beachte: F¨ ur r∈R und 0 6= s∈R gilt: r r s −1 = · = r · s−1 s 1 1 mit dieser Identifikation.) 2) Eindeutigkeit: Sei K 0 ein weiterer K¨orper mit R ⊆ K. Dann ist die Abbildung : K −→ 0 K 0 : ab 7→ a · b−1 ein wohldefinierter Homomorphismus: Sei dazu ab = ab0 . Dann gilt: ab0 = ba0 in R, also ab−1 = a0 b0 −1 in K 0 . Zeige noch, dass Homomorphismus ist, daraus folgt sofort: ist Monomorphismus, also K ∼ q. e. d. = Bild . An dieser Stelle ist auf ein Problem hinzuweisen: Wir haben zwar eine Beschreibung der Elemente des Quotientenk¨ orpers, mit der man Gleichheit testen kann. Man hat aber zun¨achst und im allgemeinen keine Normalform f¨ ur die Elemente, die nat¨ urlich viel effektiver w¨are. Beispiele 1) Quot(Z) = Q. Hier lernt man eine Normalform in der Schule kennen. 2) Sei K ein K¨ orper. Dann heißt K(x) := Quot(K[x]) der K¨orper der rationalen Funktionen in einer Variablen. 3) Sei K ein K¨ orper. Dann heißt K(x1 , . . . , xn ) := Quot(K[x1 , . . . , xn ]) der K¨orper der rationalen Funktionen in n Variablen. Zum Beispiel ist x31 − x32 x21 + x1 x2 + x22 = . x1 + x2 x21 − x22 Wir haben also Integrit¨ atsbereiche als die Teilringe von K¨orpern charakterisiert. Unter ihnen kann man die Hauptidealbereiche als die Integrit¨atsbereiche definieren, in denen immer ein gr¨oßter gemeinsamer Teiler existiert. Definition 2.12. Sei R ein Integrit¨ atsbereich, a, b ∈ R. (a) d ∈ R teilt a genau dann, wenn ein r ∈ R existiert, mit a = dr, also genau dann wenn a ∈ hdi. Bezeichnung: d|a. (b) a ∈ R − R∗ heißt prim, falls a|(b1 b2 ) impliziert a|b1 oder a|b2 f¨ ur alle b1 , b2 ∈ R. (c) Eine Zahl d ∈ R heißt gr¨ oßter gemeinsamer Teiler ggT(a, b) von a und b genau dann, ¨ 2. HOMOMORPHIESATZE UND DER CHINESISCHE RESTSATZ. 15 wenn d ein Teiler von a und ein Teiler von b ist und f¨ ur jedes c ∈ R, welches a und b teilt, auch gilt, dass c ein Teiler von d ist. (d) Eine Zahl v ∈ R heißt kleinstes gemeinsames Vielfaches kgV(a, b) von a und b genau dann, wenn sie sowohl durch a als auch durch b teilbar ist und jedes w ∈ R, welches durch a und b teilbar ist, auch durch v teilbar ist. Satz 2.13. Sei R ein Hauptidealbereich, a, b ∈ R. Dann existieren ggT(a, b) ∈ R und kgV(a, b) ∈ R und sind eindeutig bis auf Multiplikation mit Einheiten. Beweis. Wir betrachten das Erzeugnis hai + hbi = ha, bi E R. Da R ein Hauptidealbereich ist, ist dieses Ideal ein Hauptideal, also gibt es ein d ∈ R mit hai + hbi = hdi. Dann gilt a ∈ hdi, also d teilt a und ebenso d teilt b. Ist umgekehrt c ∈ R ein Teiler von a und von b, so heißt dies, dass a ∈ hci und b ∈ hci, also hdi = hai + hbi ⊆ hci und somit gibt es ein r ∈ R mit d = cr. ¨ F¨ ur das kleinste gemeinsame Vielfache gilt hkgV(a, b)i = hai ∩ hbi wie Sie als Ubungsaufgabe ¨ zeigen. Die Eindeutigkeit zeigen Sie auch als Ubungsaufgabe. q. e. d. Bemerkung 2.14. Sei R ein Euklidischer Bereich. Dann ist R ein Hauptidealbereich. Beweis. Wir zeigen zun¨ achst, dass R nullteilerfrei ist. Seien a, b ∈ R mit ab = 0. Dann ist 0 = ν(ab) = ν(a)ν(b) also ν(a) = 0 oder ν(b) = 0, da Z also Teilring des K¨orpers Q nullteilerfrei ist. Somit folgt a = 0 oder b = 0. Nun zeigen wir, dass jedes Ideal von R ein Hauptideal ist. Sei h0i = 6 I E R. W¨ahle ein a∈I − {0} mit ν(a) minimal. (Dies ist m¨ oglich, da Z≥0 wohlgeortnet ist.) Behauptung: I = hai. Ist n¨ amlich b∈I, dann folgt: b = aq + r mit ν(r) < ν(a) f¨ ur q, r∈R und r∈I. Daraus folgt aber r = 0, d.h. b = aq∈hai. q. e. d. Man kann sagen, dass die Euklidischen Ringe besonders konstruktive Versionen der Hauptidealbereiche sind. Man hat n¨ amlich den Euklidischen Algorithmus, um den ggT und damit auch Erzeuger von endlich erzeugten Idealen konstruktiv auszurechnen. ¨ Ubung: Man formuliere den Euklidischen Algorithmus (inklusive der Darstellung des gr¨oßten gemeinsamen Teilers) f¨ ur Euklidische Bereiche und zeige, wie man ihn zur Beschreibung von endlich erzeugten Idealen als Hauptideale benutzen kann. Beispiel. Eine Primzahl p > 2 ist genau dann Summe von zwei Quadraten nat¨ urlicher Zahlen, wenn p ≡ 1 (mod 4) gilt. Beweis: Beachte: Z[i] ist ein Euklidischer Ring. 1. Schritt: Definiere n : Z[i] → Z : r = a + bi 7→ rr = (a + bi)(a − bi) = a2 + b2 . Diese Abbildung hat folgende Eigenschaften: Seien r, s ∈ Z[i]. 1) Sie ist multiplikativ, das heißt n(rs) = n(r)n(s). 2) n(r) = 1 genau dann, wenn r ∈ Z[i]∗ = hii. 3) Ist n(r) = p prim in Z, so ist r prim in Z[i]. 16 KAPITEL 1. RINGE UND MODULN 4) Hat n(r) mehr als einen Primteiler in Z, so ist r nicht prim in Z[i]. (Ist n¨amlich p ein ZPrimteiler von n(r), so ist der ggT(p, r) in Z[i] ein echter Teiler von r.) 5) Ist r ∈ Z[i] prim und n(r) nicht prim in Z, so gilt n(r) = p2 f¨ ur eine Primzahl p in Z. (Klar: a a n(r) = p f¨ ur eine Primzahl p. Zerlege beide Seiten von rr = p in Primfaktoren in Z[i]. Da mit r offenbar auch r prim ist, kommt nur a = 1 oder a = 2 in Frage.) 2. Schritt: Eine Primzahl p > 2 ist genau dann prim in Z[i], wenn p ≡ 3 (mod 4) gilt. ¨ p ist prim in Z[i] genau dann, wenn Z[i]/hpi Integrit¨atsbereich ist (Ubung). Aber Z[i]/hpi ∼ = 2 2 ∼ Z[x]/hp, x + 1i = Fp [x]/hx + 1i. D. h. p ist prim in Z[i] genau dann, wenn x2 + 1 ∈ Fp [x] irreduzibel ist. Wir werden sehen, dass (F∗p , ·) ∼ = (Z/(p − 1)Z, +), d. h. Fp enh¨alt keine Wurzel von x2 +1 genau dann, wenn F∗p kein Element der Ordnung 4 enth¨alt, genau dann, wenn 4 6 | p−1. 3. Schritt: p = a2 + b2 mit a, b ∈ N ist ¨aquivalent zu p = (a + bi)(a − bi), d. h. p nicht prim in Z[i]. Nach Schritt 2 ist dies aber ¨ aquivalent zu p ≡ 1 (mod 4). ¨ Ubung: Charakterisiere alle nat¨ urlichen Zahlen, die Summe von zwei Quadraten nat¨ urlicher Zahlen sind und z¨ ahle die Anzahl der Darstellungen. (Hinweis: Primfaktorzerlegung in Z[i]. Operation der Einheitengruppe beachten.) 2.4 Der chinesische Restsatz. (V4) Wenn nicht anders angeku ¨ ndigt, bedeutet Ring ein kommutativer Ring mit Eins. Satz 2.15. (Chinesischer Restsatz) Sei R ein Ring und I1 , . . . , In paarweise teilerfremde Ideale von R, d. h. Ii E R und Ii + Ij = R f¨ ur i, j = 1, . . . , n mit i 6= j. Dann gilt: R/ r+ n \ i=1 n \ ∼ Ii − → R/I1 ⊕ R/I2 ⊕ . . . ⊕ R/In Ii 7→ (r + I1 , r + I2 , . . . , r + In ) i=1 ist ein Isomorphismus. Bei Anwendungen will man h¨ aufig den zu dem obigen Isomorphismus inversen Isomorphismus ausrechnen. Man nennt den Satz auch den Hauptsatz u ¨ber das L¨osen von simultanen Kongruenzen. Dies ist wie folgt zu verstehen: F¨ ur I E R schreibt man f¨ ur Elemente r, s ∈ R statt r+I = s+I auch schon mal r ≡ s (mod I). Der obige Satz sagt also: F¨ ur beliebige r1 , . . . , rn ∈ R gibt es ein x ∈ R mit x ≡ ri (mod Ii ) f¨ ur alle i = 1, . . . n Tn und die L¨osungen sind eindeutig (mod i=1 Ii ). Beweis. Der Fall n = 2 ist klar: Der offensichtliche Homomorphismus R → R/I1 ⊕ R/I2 : r 7→ (r + I1 , r + I2 ) hat Kern I1 ∩ I2 und ist wegen I1 + I2 = R surjektiv. Die Behauptung folgt aus dem Homomorphiesatz. ¨ Der allgemeine Beweis erfolgt nun durch Induktion, die wir als Ubung lassen. Der wesentliche Schritt steckt schon im Fall n = 3: Behauptung: I1 + (I2 ∩ I3 ) = R. Zum Beweis beachte: Es existieren e1 , e01 ∈ I1 , e2 ∈ I2 , e3 ∈ I3 mit 1 = e1 + e2 = e01 + e3 , also 1 = 1 · 1 = e1 e01 + e1 e3 + e2 e01 + e2 e3 . |{z} | {z } =:e11 ∈I1 =:e12 ∈I2 ∩I3 ¨ 2. HOMOMORPHIESATZE UND DER CHINESISCHE RESTSATZ. 17 Damit ist klar: R = Re11 R + Re12 R ⊆ I1 + (I2 ∩ I3 ). Wir wenden den Fall n = 2 nun zweimal an: R/(I1 ∩ I2 ∩ I3 ) ∼ = R/I1 ⊕ R/(I2 ∩ I3 ) ∼ = R/I1 ⊕ R/I2 ⊕ R/I3 mit den entsprechenden Isomorphismen. q. e. d. Beispiel. Durch Kombination der Neunerprobe mittels Quersumme (mod 9), der Zehnerprobe mittels letzter Stelle (mod 10) und der Elferprobe verm¨oge der alternierenden Quersumme (mod 11) kann man Rechnungen mit ganzen Zahlen, die nur Multiplikationen und Additionen involvieren (mod 990) u ufen. ¨berpr¨ Sei s := 124, t := 351. Wir wollen (s + t)t = 166275 verifizieren. Mod 10 ist diese Rechnung richtig (letzte Ziffer stimmt). Sei q die Quersumme und qa die alternierende Quersumme. ¨ Dann gilt f¨ ur jedes n ∈ N: n ≡ q(n) (mod 9) und n ≡ qa(n) (mod 11) (Ubung f¨ ur alle Lehramtsstudierenden !!) Modulo 9: q(s) = 7, q(t) = 0 also auch q((s + t)t) = 0 auch das stimmt. Mod 11: qa(s) = 3, qa(t) = −1, also qa((s + t)t) = −2. Es ist aber qa(166275) = 5 − 7 + 2 − 6 + 6 − 1 = −1 also ist an der Rechnung etwas falsch. Die richtige Antwort ist (s + t)t = 166725 mit qa(166725) = 5 − 2 + 7 − 6 + 6 − 1 = 9 ≡ −2 (mod 11). Der Chinesische Restsatz 2.15 kann f¨ ur Euklidische Ringe wie folgt formuliert und auch bewiesen werden: Satz 2.16. (Chinesischer Restsatz fu ¨ r Euklidische Ringe) Sei R ein Euklidischer Ring und a1 , . . . , an paarweise teilerfremde Elemente von R, d. h. ggT(ai , aj ) = 1 f¨ ur i, j = 1, . . . , n mit i 6= j. Dann gilt: n \ (ai ) i=1 n Y ϕ : R/( = ( n Y ai ) i=1 ∼ ai ) − → R/(a1 ) ⊕ R/(a2 ) ⊕ . . . ⊕ R/(an ) i=1 r+( n Y ai ) 7→ (r + (a1 ), r + (a2 ), . . . , r + (an )) i=1 ist ein Isomorphismus dessen Umkehrabbildung mit dem Euklidischen Algorithmus berechnet werden kann. Qn n Beweis. Da (a )+(a ) = (1) gilt f¨ u r alle i = 6 j ist kgV(a , . . . , a ) = i j 1 n i=1 ai und somit ∩i=1 (ai ) = Qn ( i=1 ai ). Es gen¨ ugt also den Algorithmus anzugeben. Ein allgemeines Element von R/(a Q 1) ⊕ R/(a2 ) ⊕ . . . ⊕ R/(an ) ist von der Form X := (r1 + (a1 ), . . . , rn + (an )). Setze A := ( ni=1 ai ). Gesucht ist ein r ∈QR mit r + (ai ) = ri + (ai ) f¨ ur alle i = 1, . . . , n, also ϕ(r + A) = X. Dazu setze Bi := j6=i aj . Da ggT(ai , aj ) = 1 f¨ ur alle i 6= j gilt, folgt auch ggT(ai , Bi ) = 1, es gibt also xi , yi ∈ R mit 1 = xi ai + yi Bi . Setze ei := yi Bi . Dann ist ei + (aj ) = 0 f¨ ur alle i 6= j und ei + (ai ) = 1 18 KAPITEL 1. RINGE UND MODULN also ϕ(ei +A) = (0, . . . , 0, 1, 0, . . . , 0) mit 1 an der i-ten Stelle. Da ϕ ein R-Algebrenhomomorphismus ist, ergibt sich n X ϕ−1 (X) = ri ei + A. i=1 Beispiel. Wir wollen das simultane Kongruenzensystem x ≡ 1 (mod 3) x ≡ 2 (mod 4) x ≡ 3 (mod 5) l¨osen. Wir haben den Isomorphismus ∼ ϕ : Z/h60i − → Z/h3i ⊕ Z/h4i ⊕ Z/h5i und haben das Problem gel¨ ost, wenn wir e1 + h60i := ϕ−1 ((1, 0, 0)), e2 + h60i := ϕ−1 ((0, 1, 0)), e3 + h60i := ϕ−1 ((0, 0, 1)) kennen, denn die L¨ osungsmenge ist dann e1 + 2e2 + 3e3 + h60i. Mit Hilfe des Euklidischen Algorithmus f¨ ur 3 und 4 · 5 etc. bekommen wir dann e1 etc. : 1 = 7 · 3 + (−20), also e1 = −20, 1 = 4 · 4 + (−15), also e2 = −15, 1 = 5 · 5 + (−2) · 12, also e3 = −24. Also x ∈ −122 + h60i = −2 + h60i. Beispiel (Lagrangeinterpolation) Sei K ein K¨orper und p(x) ∈ K[x]. Klar: F¨ ur a ∈ K gilt p(a) = 0 genau dann, wenn p(x) ∈ hx − ai E K[x], wie man durch Entwickeln nach Potenzen von x − a sieht. Dies liefert auch p(x) ≡ p(a) (mod hx − ai). Sind nun a1 , . . . , an ∈ K paarweise verschiedene Elemente, so sind die Ideale hx − ai i paarweise teilerfremd und der Chinesische Restsatz liefert n n Y M ∼ K[x]/h (x − ai )i = K[x]/hx − ai i . {z } | i=1 i=1 ∼ =K Q Die Restklassen der Elemente e˜i (x) := j6=i (x − aj ) ∈ K[x] liefern auf Q der rechten Seite Tupel, deren Komponenten alle Null sind, außer der i-ten, welche gleich j6=i (ai − aj ) = e˜i (ai ) ist. ¨ 2. HOMOMORPHIESATZE UND DER CHINESISCHE RESTSATZ. 19 Hieraus ergibt sich sofort die Lagrangesche Interpolationsformel: Eine Abbildung f : K → K wird interpoliert an den St¨ utzstellen ai durch das Polynom (vom Grad < n): n X f (ai ) e˜i (x). e˜i (ai ) i=1 Wenn man im Falle K = R auch noch Ableitungen an den Stellen ai vorgeben will, muss man mit h(x − ai )k i E K[x] arbeiten statt mit hx − ai i und kommt zur Hermiteinterpolation. Die ringdirekten Summen enthalten etwas suspekte Elemente, die sich aber oben schon als sehr n¨ utzlich erwiesen haben. Definition 2.17. Sei R ein Ring (kmE) und a ∈ R mit a 6= 0. Man nennt a einen Nullteiler, wenn ein b ∈ R existiert mit b 6= 0 und ab = 0. Weiter heißt a nilpotent, falls ein n ∈ N existiert mit an = 0. Klar, nilpotente Elemente sind Nullteiler, aber oben haben wir schon Nullteiler gesehen, die nicht nilpotent sind. Beispiele. 1) Seien n, k ∈ Z beide gr¨ oßer als 1. Dann ist n + hnk i ∈ Z/hnk i nilpotent. 2) (Wurzel ziehen). Aus dem Chinesischen Restsatz bekommen wir ∼ π1 ⊕ π2 : R[x]/hx2 − 2i − → R |{z} √ ∼ 2i =R[x]/hx− 2 x := x + hx − 2i 7→ √ ⊕ R |{z} : √ ∼ =R[x]/hx+ 2i √ ( 2, − 2) = (π1 (x), π2 (x)). Wir wollen auf der rechten Seite rechnen, k¨onnen aber nur√auf der linken Seite Nullteiler erkennen. Unser Ziel ist eine numerische Approximation von √ √ 2 zu bestimmen. Klar: Die einzigen Nullteiler der Form a + x mit a ∈ R sind 2 + x und − 2 + x. Die Idee ist nun so: Sei b ∈ Q so gew¨ahlt, dass a := x − b auf der rechten Seite einem (a1 , a2 ) entspricht mit |a1 | < 1 und |a2 | > 1. (Betragstriche markieren Absolutbetr¨ age.) Es ist a2 = 2 − 2bx + b2 . Dann ist |a21 | < |a1 | < 1, und 2 π1 (a /(−2b)) √ hat einen noch kleineren Absolutbetrag, so dass (b2 + 2)/(2b) eine noch bessere N¨aherung an 2 ist als b. Durch fortgesetztes Quadrieren verdoppelt sich immer die Anzahl der signifikanten Dezimalstellen, wir haben quadratische Konvergenz. F¨angt man also mit b = 1 an, √ so erh¨alt man die folgende Folge die gegen 2 konvergiert: 3 17 577 665857 1, , = 1.416666667, = 1.414215686, = 1.414213562, ... 2 12 408 470832 ¨ Ubung: Vergleiche obige Methode des Wurzelziehens mit dem Newtonverfahren aus der Numerik. 2.5 Der chinesische Restsatz und die Hauptraumzerlegung. Ein Satz der Linearen Algebra I erinnert stark an den chinesischen Restsatz. Sei dazu K ein K¨orper, V ein e.e. K-Vektorraum und α ∈ End(V) mit Minimalpolynom µα = pn1 1 · · · pnk k wobei die pi paarweise verschiedene irreduzible Polynome in K[x] sind und ni ∈ N. 20 KAPITEL 1. RINGE UND MODULN Satz 2.18. (Hauptraumzerlegung, aus LA I) Unter den obigen Voraussetzungen l¨ aßt sich V eindeutig schreiben als direkte Summe α-invarianter Teilr¨ aume Ui : V= k M Ui , i=1 so dass das Minimalpolynom der Einschr¨ ankung von α auf Ui genau pni i ist. Q n Setzt man qi := j6=i pj j so ist Ui = Bild(qi (α)). Bemerkung 2.19. (a) Das Minimalpolynom von α war definiert als normierter Erzeuger des Kerns des Einsetzungshomomorphismus α : K[x] → End(V), p 7→ p(α) Kern(α ) = (µα ), Bild(α ) = K[α]. Also ist nach dem Homomorphiesatz f¨ ur Ringe K[x]/hµα i ∼ = K[α]. (b) Setzt man R := K[x]/(µα ) so wird V ein R-Modul durch (p + hµα i)V := α (p)(V ) = p(α)(V ). (c) Die Struktur von R bekommen wir aus dem Chinesischen Restsatz: n n R∼ = K[x]/hpn1 1 · · · pk k i ∼ = K[x]/hpn1 1 i ⊕ K[x]/hpn2 2 i ⊕ . . . ⊕ K[x]/hpk k i und Urbilder der Idempotente πi = (0, . . . , 0, 1, 0, . . . , 0) (mit 1 an der i-ten Stelle) mit dem Algorithmus in 2.16, indem wir f¨ ur alle i mit dem Euklidischen Algorithmus 1 = xi pni i + yi qi schreiben als ei = α (yi qi ) ∈ K[α]. Beachten Sie, dass das Bild von ei gleich dem von qi (α) ist. (d) Also ist V ein Modul f¨ ur die direkte Summe K[x]/hpn1 1 i ⊕ K[x]/hpn2 2 i ⊕ . . . ⊕ K[x]/hpnk k i 3 Elementare Teilbarkeitstheorie fu ¨ r Ringe. (V5) Definition 3.1. Sei R Ring (kmE) und a, b ∈ R. 1) a teilt b (in R) oder b ist ein Vielfaches von a, in Zeichen a | b, falls ein r ∈ R existiert mit ar = b. 2) a ist assoziiert zu b (in R), in Zeichen a ∼ b, falls a | b und b | a. Klar: Die Vielfachen von a bilden gerade das Hauptideal hai. Teilen ist eine transitive Relation ¨ auf R. Weiter: ∼ ist eine Aquivalenzrelation auf R. Auch klar: Seien a, b ∈ R. Falls ein e ∈ R∗ existiert mit a = eb, dann gilt a ∼ b. Wenn wir versuchen die Umkehrung zu beweisen stoßen wir auf eine kleine Schwierigkeit. Diese verschwindet, wenn wir verlangen, dass R keine Nullteiler hat. Bemerkung 3.2. In einem Integrit¨ atsbereich sind die Assoziertenklassen der Elemente gegeben ∗ ¨ durch R a mit a ∈ R. Assoziiertheit ist also genau die Aquivalenzrelation die durch die Operation der Einheitengruppe auf R (durch Multiplikation) definiert ist. ¨ RINGE. (V5) 3. ELEMENTARE TEILBARKEITSTHEORIE FUR 21 Beweis. Es ist klar, dass jedes Element der Form ua mit u ∈ R∗ zu a = u−1 a assoziiert ist. Sei nun b ∈ R mit b | a und a | b. Dann gibt es r, s ∈ R mit a = br und b = as. Ist a = 0, so ist b = as = 0 ∈ R∗ a. Sei also a 6= 0. Wir wollen zeigen, dass r und s Einheiten sind, sogar r = s−1 also rs = 1. Denn es ist a = br = asr also a(1 − sr) = 0. Da a 6= 0 und R nullteilerfrei, folgt jetzt 1 − sr = 0 also sr = 1. q. e. d. Bemerkung 3.3. Ist R ein Integrit¨ atsbereich, so ist der Polynomring R[x1 , . . . , xn ] auch ein Integrit¨ atsbereich. Zum Beweis definieren wir den Grad eines Polynoms X p = p(x1 , . . . , xn ) = ai1 ...in xi11 · · · xinn ∈ R[x1 , . . . , xn ], p 6= 0 als Grad p := max{i1 + · · · + in |ai1 ...in 6= 0}. F¨ ur p, q ∈ R[x1 , . . . , xn ] mit p 6= 0 6= q gilt offenbar Grad pq = Grad(p) + Grad(q), woraus man leicht sieht, dass man keine Nullteiler hat. Unsere n¨achste Frage lautet: Welche Restklassenringe sind Integrit¨atsbereiche ? Definition 3.4. Sei R ein Ring (kmE). (a) Ein Ideal I E R mit I 6= R heißt Primideal, falls f¨ ur alle r, s ∈ R gilt: r, s 6∈ I impliziert rs 6∈ I. (b) Ein Ideal I heißt maximales Ideal, falls I 6= R und f¨ ur jedes Ideal J von R, welches I enth¨ alt gilt J = I oder J = R. Bemerkung 3.5. Sei R Ring (kmE) und I E R. (a) R/I ist genau dann Integrit¨ atsbereich, wenn I Primideal ist. (b) R/I ist genau dann ein K¨ orper, wenn I ein maximales Ideal ist. Beweis. (a) R/I ist Integrit¨ atsbereich, genau dann wenn f¨ ur alle r, s ∈ R mit (r+I)(s+I) = 0 gilt, dass entweder r+I = 0 ist oder s+I = 0, also entweder r ∈ I oder s ∈ I. Da (r+I)(s+I) = rs+I ist dies gleichbedeutend mit rs ∈ I ⇔ r ∈ I oder s ∈ I, also damit dass I ein Primideal ist. (b) R/I ist ein K¨ orper, genau dann wenn jedes r + I ∈ R/I \ 0 + I ein multiplikativ Inverses hat. Sei also r ∈ R \ I. Dann ist hr, Ii = hri + I ein Ideal von R, welches I echt enth¨alt. Ist I ein maximales Ideal, so ist hri + I = R und es gibt a ∈ R, i ∈ I mit ar + i = 1. Dann ist (a + I)(r + I) = 1 + I und (a + I) ein multiplikatives Inverses von r + I. Die Umkehrung geht genauso. q. e. d. Beispiele 1) Sei R Integrit¨ atsbereich. hyi E R[x, y] ist Primideal, da R[x, y]/hyi ∼ = R[x] Integrit¨atsbereich. 2) R ein Ring (kmE), I E R maximal, dann ist I prim. 3) Sei ein R Ring (kmE). Genau dann ist {0} Primideal, wenn R Integrit¨atsbereich ist. Nun kommen wir zur Teilbarkeitstheorie in Integrit¨atsbereichen. Es wird ganz elementar in dem Sinne, dass wir wieder mehr von Elementen als von Idealen sprechen. Zuerst eine Ern¨ uchterung: Die Begriffe “prim” und “unzerlegbar” f¨ ur Elemente in einem Integrit¨atsbereich fallen im allgemeinen auseinander: 22 KAPITEL 1. RINGE UND MODULN Definition 3.6. Sei R ein Integrit¨ atsbereich. ∗ 1) Ein Element 0 6= a∈R − R heißt irreduzibel oder unzerlegbar, falls jede Faktorisierung von a in R trivial ist, das heißt, falls gilt: a = a1 a2 f¨ ur ai ∈R impliziert a1 ∈ R∗ oder a2 ∈ R∗ . 2) Ein Element 0 6= a ∈ R − R∗ heißt prim, falls a|(b1 b2 ) impliziert a|b1 oder a|b2 f¨ ur alle bi ∈ R. Beispiele 1) In R = Z ist 2 prim und irreduzibel. 2) Sei K ein Integrit¨ atsbereich und R = K[x]. Dann ist x prim (vom Grad 1) und unzerlegbar. (Falls x|(a(x)b(x)) und x 6 | a(x), so folgt: a(0) 6= 0, also b(0) = 0 und x|b(x).) Bemerkung 3.7. 1) Ist a prim, so ist a auch unzerlegbar. 2) a ist prim genau dann, wenn hai E R ein Primideal 6= 0 ist. Beweis. 1) Sei a prim und a = a1 a2 mit ai ∈R − R∗ . Dann gilt: a|a1 a2 und a 6 |a1 (sonst w¨are a2 ∈R∗ ) und a 6 |a2 (sonst w¨ are a1 ∈R∗ ). Dies ist aber ein Widerspruch zu der Voraussetzung : a prim. 2) Sei a ∈ R prim. Dann ist hai = 6 0. Weiter gilt f¨ ur r, s ∈ R: rs ∈ hai ⇔ a | rs ⇔ a | r oder a | s ⇔ r ∈ hai oder s ∈ hai. Die Umkehrung folgt ebenso. q. e. d. Beispiel. Es die nicht √ gibt unzerlegbare Elemente, √ √ prim sind: Sei R = Z[ −5]. Es gilt: 3 · 2 = (1 + −5)(1 − −5). Das Element 3 ist in R unzerlegbar, aber nicht prim. An dieser Stelle sei angemerkt, dass Dedekind, der sicher als einer der Urv¨ater der modernen Algebra einzusch¨ atzen ist, wegen der schlechten Eigenschaften des Teilbarkeitsbegriffes f¨ ur Elemente, den Idealbegriff erfunden hat, um in bestimmten Situationen der Zahlentheorie doch noch zu einer befriedigenden Teilbarkeitstheorie, diesmal aber f¨ ur Ideale (sprich ideale Zahlen) zu kommen. Im obigen Beispiel kann man n¨amlich alle vier Zahlen als Ideale noch weiter zerlegen: √ √ h3i = h3, 1 + −5ih3, 1 − −5i √ √ h2i = h2, 1 + −5ih2, 1 − −5i √ √ √ h1 + −5i = h3, 1 + −5ih2, 1 + −5i √ √ √ h1 − −5i = h3, 1 − −5ih2, 1 − −5i Satz 3.8. Ist R Hauptidealbereich, so ist jedes unzerlegbare Element prim. Beweis. Sei a∈R − R∗ unzerlegbar. Offenbar ist a genau dann prim, wenn hai ein Primideal ist. Wir k¨onnen sogar zeigen, dass hai ein maximales Ideal ist, denn sei hai ⊆ I E R 6= I. Da R Hauptidealbereich ist, folgt I = hdi f¨ ur ein d∈R − R∗ . Somit a∈Rd, also a = dd0 f¨ ur ein d0 ∈R. 0 ∗ ∗ Das bedeutet d ∈R , denn a ist unzerlegbar und d 6∈ R . Da a ∼ d ist, haben wir I = hai. q. e. d. ¨ Ubung: Sei R Hauptidealbereich und a, b ∈ R − {0}. Zeige hai + hbi = ha, bi = (ggT(a, b)i und hai ∩ hbi = hkgV(a, b)i und schließlich haihbi = habi. ¨ 4. MODULN UBER HAUPTIDEALBEREICHEN. 23 Folgerung 3.9. Ist R ein Hauptidealbereich, so ist jedes Primideal, das ungleich dem 0-Ideal ist, ein maximales Ideal. Satz 3.10. Sei R ein Hauptidealbereich, 0 6= a ∈ R keine Einheit. Dann gibt es im wesentlichen eindeutige Primelemente a1 , . . . , an ∈ R mit a = a1 · · · an . Die Eindeutigkeit bedeutet: Falls a = a1 · · · an = b1 · · · bm mit ai , bj ∈ R unzerlegbar, so folgt n = m und nach Umnumerierung ai ∼ bi f¨ ur i = 1, . . . , n. Beweis. Wir k¨ onnen zun¨ achst genauso vorgehen wie f¨ ur R = Z: Ist a irreduzibel, so ist a schon prim und wir sind fertig. Ist a nicht irreduzibel, so k¨onnen wir a = bc schreiben mit b, c ∈ R \ R∗ und dann mit b und c weitermachen. Wieso h¨ort dieser Prozess auf? Falls nicht, so konstruiert man eine Folge von echten Teilern . . . bi+1 | bi | . . . | b1 = b | a, so dass hai ( hb1 i ( hb2 i . . . S Sei I := i∈N hbi i. Da die Ideale hbi i eine Kette bilden, ist I ein Ideal S von R. Nun ist R ein Hauptidealbereich also gibt es ein d ∈ R mit I = hdi. Da d ∈ I = i∈N hbi i existiert also ein i ∈ N mit d ∈ hbi i. Aber dann ist hbj i = hbi i = I f¨ ur alle j ≥ i ein Widerspruch dazu, dass bi+1 ein echter Teiler von bi ist. Die Eindeutigkeit zeigt man genauso wie f¨ ur Z: Sei a = a1 · · · an = b1 · · · bm mit ai , bj ∈ R unzerlegbar. Dann ist a1 prim, a1 | a = b1 · · · bm , also gibt es ein i mit a1 | bi . Da bi irreduzibel ist, gilt also a1 ∼ bi , usw. mit Induktion u q. e. d. ¨ber die Anzahl m von Faktoren. Beispiele. 1) Z[x] ist kein Hauptidealbereich, denn das Primideal hxi ist kein maximales Ideal. 2) K[x, y] (K sei ein K¨ orper) ist ebenfalls kein Hauptidealbereich. 3) In Z ist ein Hauptidealbereich die Primzahlen sind bis auf Multiplikation mit Einheiten (±1) die unzerlegbaren Elemente von Z. Die Fp := Z/hpi f¨ ur Primzahlen p sind die einzigen Restklassenk¨orper von Z. 4) F¨ ur jeden K¨ orper K ist K[x] ein Hauptidealbereich. Die irreduziblen Polynome in K[x] sind gleich den Primelementen in K[x] und den unzerlegbaren Elementen in K[x]. Die Restklassenk¨orper von K[x] sind alle von der Form K[x]/hp(x)i, wo p(x) ∈ K[x] irreduzibel ist. 4 4.1 Moduln u ¨ ber Hauptidealbereichen. Der Struktursatz. (V6) und (V7) Endlich erzeugte Moduln u ¨ber Hauptidealbereichen haben eine sehr sch¨one Struktur. Um algorithmisch einen Modul auf Normalform zu bringen ben¨otigt man den Euklidischen Algorithmus, die “algorithmisch zug¨ anglichen” HIB sind also die Euklidischen Ringe. Definition 4.1. Sei R ein Integrit¨ atsbereich und M ein R-Modul. m ∈ M heißt Torsionselement, falls das Annullatorideal AnnR (m) := {r ∈ R | rm = 0} von h0i verschieden ist. Der Torsionsteilmodul, also der Teilmodul aller Torsionselemente von M , wird mit T (M ) bezeichnet. M heißt torsionsfrei, falls T (M ) = {0} und ein Torsionsmodul, falls T (M ) = M . Man konkretisiert sich die Begriffe mit Hilfe der folgenden Beispiele, wobei man R = Z und R = K[x] betrachte. 24 KAPITEL 1. RINGE UND MODULN Beispiele Sei R ein Hauptidealbereich mit K := Quot(R) 6= R. 1) K ist ein nicht endlich erzeugter, torsionsfreier R-Modul. (sp¨ater) 2) K/R ist ein nicht endlich erzeugter R-Torsionsmodul. (Zu kompliziert f¨ ur uns.) 3) Jeder freie R-Modul ist torsionsfrei, insbesondere R R = R selbst. ¨ 4) Ist M beliebiger R-Modul, so ist M/T (M ) torsionsfrei (Ubung). 5) Jeder zyklische Modul (von einem Element erzeugt), ist entweder isomorph zu R R ≡ R oder zu R R/Ra ≡ R/hai f¨ ur ein a ∈ R − {0}. Im letzteren Fall haben wir einen Torsionsmodul. (Obwohl R R/Ra und R/hai als abelsche Gruppen identisch sind und auch als R-Moduln, wenn man die R-Modulstruktur auf R/hai wie erwartet definiert, wollen wir doch im Kontext von Moduln lieber die erste und im Kontext von Restklassenringen die zweite Notation benutzen; also, da AnnR (R R/Ra) := ∩x∈R R/Ra AnnR (x) k¨ onnen wir den R-Modul R R/Ra auch als R/hai-Modul auffassen. Als letzter ist er sogar frei.) 6) Endliche direkte Summen der Moduln aus 5) sind typische endlich erzeugte R-Moduln. Scheinbar allgemeiner sind die folgenden: 7) Faktormoduln von Rn×1 (freier Modul auf n Erzeugern) nach Teilmoduln. Unser Ziel wird sein, zu zeigen, dass die Moduln aus 7) nicht allgemeiner sind als die Moduln aus 6). Hier zwei kleine Schritte in diese Richtung. Lemma 4.2. Sei R Integrit¨ atsbereich und (e1 = (1, 0, . . . , 0)tr , e2 , . . . , en ) die Standardbasis n×1 von R , also freies Erzeugendensystem des freien R-Moduls FrR (n) ≡ Rn×1 . Sei k ≤ n und d1 , . . . , dk ∈ R − {0}. Dann gilt R n×1 /hd1 e1 , . . . , dk ek iR = ( ∼ = n M Rei )/( i=1 k M k M Rei /Rdi ei ⊕ i=1 ∼ = Rdi ei ) i=1 n M Rei i=k+1 k M R R/Rdi ⊕ R(n−k)×1 . i=1 Falls in dieser Situation noch zus¨ atzlich di teilt di+1 f¨ ur i = 1, . . . , k − 1 gilt, so nennt man (e1 , . . . , en ) und (d1 e1 , . . . , dk ek ) kompatible Basen, genauer ein Paar kompatibler Basen. (Den Begriff Basis benutzen wir als Synonym f¨ ur freies Erzeugendensystem.) ¨ Hinweis: Bestimme den offensichtlichen Epimorphismus Beweis. Ubung. Rn×1 → k M R R/Rdi ⊕ R(n−k)×1 i=1 und wende den Homomorphiesatz f¨ ur Moduln an. Beachte: Rk×1 → k M Rdi ei : (a1 , . . . , ak )tr 7→ (a1 d1 , . . . , ak dk , 0, . . . , 0)tr i=1 ist ein R-Modulisomorphismus. q. e. d. Bislang wissen wir nicht einmal, dass Teilmoduln freier endlich erzeugter Moduln u ¨ber Hauptidealbereichen frei sind, geschweige denn, ob kompatible Basen existieren. Hier ein erstes Indiz. ¨ 4. MODULN UBER HAUPTIDEALBEREICHEN. 25 Lemma 4.3. Sei R ein Hauptidealbereich und M ∼ = Rn×1 ein freier R-Modul von Rang n. Dann ist jeder R-Teilmodul von M endlich erzeugter freier R-Modul auf k ≤ n freien Erzeugern. uhren den Beweis durch Induktion u ur n = 1 ist die Sache klar, da Beweis. Wir f¨ ¨ber n. F¨ Teilmoduln von R R Ideale von R sind, also Hauptideale. Sei nun T ≤R M und (e1 , . . . , en ) die Standard-R-Basis von M . Zu der Zerlegung M = Re1 ⊕ he2 , . . . , en iR geh¨ort die Projektion π : M → Re1 . Dann ist π(T ) ≤ Re1 . Im Falle π(T ) = {0} greift die Induktionsvoraussetzung sofort. Sonst ist π(T ) = Rde1 f¨ ur ein d ∈ R − {0}. Beachte, π(T ) ist frei auf de1 . W¨ ahle t ∈ T mit π(t) = de1 . Dann definiert ι : Rde1 → T : de1 7→ t ¨ einen R-Modulhomomorphismus und es gilt (Ubung) T = Rt ⊕ Kern π|T . Wegen Kern π|T ≤ he2 , . . . , en iR k¨ onnen wir die Induktionsvoraussetzung benutzen und bekommen unsere Behauptung. q. e. d. Wir wollen jetzt die Existenz kompatibler Basen beweisen, indem wir sowohl beim Teilmodul Rk×1 als auch bei Rn×1 Basistransformationen vornehmen. Bemerkung 4.4. Sei R ein Hauptidealbereich. 1) Die Beschreibung von Homomorphismen von freien R-Moduln in freie R-Moduln (alle endlich erzeugt) geschieht wie bei Vektorr¨ aumen durch Matrizen bez¨ uglich Basen. (Alle relevanten Formeln aus der linearen Algebra bleiben g¨ ultig.) 2) Automorphismen von freien R-Moduln (vom Rang n) und Basistransformationen werden beschrieben durch Matrizen aus (Rn×n )∗ = GL(n, R) = {g ∈ Rn×n | det(g) ∈ R∗ }. 3) F¨ ur a, b ∈ R − {0} mit ggT(a, b) = d gibt es s, t ∈ R mit sa + tb = d, so dass s t a d U(a,b) := ∈ GL(2, R) mit U(a,b) = b 0 − db ad gilt. Satz 4.5. Sei R Hauptidealbereich und C ∈ Rk×n . Dann existieren Matrizen A ∈ GL(k, R) und B ∈ GL(n, R), so dass Diag(d1 , . . . , dl ) 0 ACB = 0 0 mit di ∈ R − {0}, l ≤ min(k, n) und di | di+1 f¨ ur i = 1, . . . , l − 1. Die Matrix ACB nennt man die Smith-Form von C. Beweis. Setze C1 := C. Wir f¨ uhren reversible Zeilenoperationen durch, und erhalten C2 := A1 C1 , C3 := A2 C2 , . . . , Cr := Ar−1 Cr−1 , so dass die erste Spalte von Cr gleich (d, 0, . . . , 0)tr . Dabei sind die Ai Permutationsmatrizen oder von der Form Diag(U(a,b) , Ik−2 ), wenn die obersten 26 KAPITEL 1. RINGE UND MODULN zwei Eintr¨age a, b der jeweils ersten Spalte von Ci von Null verschieden sind. Beachte, d ist der gr¨osste gemeinsame Teiler der Eintr¨ age der ersten Spalte von C. Danach f¨ uhren wir reversible Spaltenoperationen durch und erhalten Cr+1 := Cr B1 , . . . , Cr+s := Cr+s−1 Bs , so dass die erste Zeile von Cr+s gleich (d0 , 0, . . . , 0) ist. tr , I Dabei sind die Bi Permutationsmatrizen oder von der Form Diag(U(a,b) n−2 ), wenn die ersten zwei Eintr¨age a, b der jeweils ersten Zeile von Ci von Null verschieden sind. Klar: d0 | d. Aber leider ist jetzt die erste Spalte nicht mehr notwendig ausger¨aumt, so dass man den ersten Schritt wiederholen muss. Da aber R keine echten unendlichen Teilerketten zul¨asst hat man nach endlich vielen Wiederholungen die Matrix Ct := Diag(d1 , C 0 ). Rekursives Anwenden der Methode auf C 0 liefert nach endlich vielen Schritten schliesslich Matrizen A0 ∈ GL(n, R), B 0 ∈ GL(k, R), so dass Diag(d1 , . . . , dl ) 0 0 0 0 C := A CB = 0 0 mit di ∈ R − {0}. Sollte f¨ ur ein i noch die Bedingung di | di+1 verletzt sein, sind noch weitere Umformungen durchzuf¨ uhren. Es gen¨ ugt, diese f¨ ur 2 × 2-Matrizen zu demonstrieren: di di+1 1 1 Diag(di , di+1 ) = 0 1 0 di+1 also eine Matrix, die man mit den anf¨ anglichen Methoden wieder auf die Form Diag(ggT(di , di+1 ), kgV(di , di+1 )) transformieren kann. Nach endlich vielen Schritten hat man die geforderte Gestalt. q. e. d. ¨ Ubung: Gib ein effektives Verfahren f¨ ur Matrizen u ¨ber Euklidischen Bereichen an, welches versucht, immer das Matrixelement einer festen Spalte bzw. einer festen Zeile mit dem gr¨oßten ν-Wert abzubauen, bis die Spalte oder Zeile ausger¨aumt ist. ! 6 2 Beispiel. Sei R := Z und A := ∈ Z2×2 . 8 7 ! ! −1 1 2 5 Mit U1 := ∈ GL(2, Z) folgt U1 A = . 4 −3 0 −13 ! ! 3 5 1 0 Mit W1 := ∈ GL(2, Z) folgt U1 AW1 = . −1 −2 13 26 ! 1 0 Mit U2 := ∈ GL(2, Z) folgt U2 U1 AW1 = Diag(1, 26). −13 1 Beispiel. Simultane Kongruenzen x1 + x2 ≡ 0 x1 − x2 ≡ 1/4 (mod Z) (mod Z) sind f¨ ur x1 , x2 ∈ R zu l¨ osen. Wir schreiben dies als Matrix: 0 1 1 1 @ 0 −1 A 1 1 0 1 1 0 1 0 0 → −−−−−−−−−→ 1 −1 1/4 0 −2 1/4 0 2 1/4 ¨ 4. MODULN UBER HAUPTIDEALBEREICHEN. 27 Aus der letzten Matrix lesen wir die Zwischenl¨osung y= z1 1/8 + 1/2z2 mit z1 , z2 ∈ Z ab und erhalten als endg¨ ultige L¨ osung durch Multiplikation mit W : x= 1/8 + z1 + 1/2z2 −1/8 − 1/2z2 mit z1 , z2 ∈ Z Lineare Differentialgleichungssysteme mit konstanten Koeffizienten erweisen sich auch als Kongruenzsysteme u ¨ber R[x] oder C[x]. Solange die rechte Seite Null ist, sind keine Probleme der Analysis involviert. Im inhomogenen Fall braucht man aus der Analysis die Methode der Variation der Konstanten. Wir beschr¨ anken uns auf den homogenen Fall. Beispiel. Seien x1 , x2 , x3 unendlich oft differenzierbare Funktionen auf R oder Elemente von R[[t]]. Gesucht sind die L¨ osungen des Differentialgleichungssystems x01 − x02 + x003 = b1 x1 + x002 + x03 = b2 mit b1 = b2 = 0. In Matrizen, wobei D dann die Ableitung induzieren soll: x1 D −D D2 x2 M , = 0 mit M := 1 D2 D x3 Zeilenumformungen: D −D D2 b1 1 D2 D b2 → 1 D2 D b2 3 0 D + D 0 −b1 + Db2 Spaltenumformungen mit 1 −D2 −D 1 0 0 1 0 liefert W := 0 0 D3 + D 0 0 0 1 als Matrix der linken Seite. Wegen x3 + x = x(x2 + 1) l¨ost sich dieses System sehr leicht: y1 0 y2 = a + b sin(t) + c cos(t) y3 f (t) mit a, b, c ∈ R und f eine unendlich oft differenzierbare Funktion R → R. Durch Heranmultiplizieren von W erhalten wir die L¨ osungen des urspr¨ unglichen Systems: x1 b sin(t) + c cos(t) − f 0 (t) x2 = a + b sin(t) + c cos(t) x3 f (t) 28 KAPITEL 1. RINGE UND MODULN Hauptsatz 4.6. Sei R ein Hauptidealbereich. 1) Ist M ein endlich erzeugter R-Modul, so gibt es s, t ∈ Z≥0 und d1 , . . . , dt ∈ R − (R∗ ∪ {0}) mit di teilt di+1 f¨ ur alle i, so dass M∼ =R Rs×1 ⊕ t M R R/Rdi . i=1 2) Gilt R s×1 ⊕ t M 0 s0 ×1 ∼ ⊕ R R/Rdi =R R t M 0 R R/Rdi i=1 i=1 0 0 ∗ ∈ Z≥0 und d1 , . . . , dt , d1 , . . . , dt0 ∈ R − (R ∪ {0}) mit di 0 di+1 f¨ ur i = 1, . . . , t0 − 1, so gilt s = s0 , t = t0 und di ∼ d0i f¨ ur s, t, s0 , t0 mit | di+1 f¨ ur i = 1, . . . , t − 1 0 und di | i = 1, . . . , t. Man nennt s den Rang (genauer torsionsfreien Rang) von M und di den i-ten Elementarteiler von M . Beweis. 1) Folgt sofort aus den vorangegangenen Lemmata. 2) Bezeichne die linke Seite mit M und die rechte mit N . Aus M ∼ = N folgt 0 Rs×1 ∼ = M/T (M ) ∼ = N/T (N ) ∼ = Rs ×1 . Sei p ∈ R ein Primelement und F := R/(p) der zugeh¨orige Restklassenk¨orper. Dann gilt: 0 0 s = dimF (Rs×1 /pRs×1 ) = dimF (Rs ×1 /pRs ×1 ) = s0 . Weiter folgt T (M ) ∼ = T (N ), also auch hdt i = AnnR (T (M )) = AnnR (T (N )) = hdt0 i d. h. dt ∼ d0t0 . Um die di zu rekonstruieren, brauchen wir nur die p-Potenzen zu testen, welche in den di aufgehen, wobei die p die Primteiler von dt durchl¨auft. Man betrachtet hierzu die Zahlenfolge dimR/(p) pi T (M )/pi+1 T (M ) = dimR/(p) pi T (N )/pi+1 T (N ) f¨ ur i = 0, 1, . . . k(p), wo pk(p) die h¨ ochste p-Potenz ist, die in dt aufgeht. Es ist klar, wie ¨ man (durch Ubergang zur sogenannten assoziierten Partition) die p-Potenzanteile der di und der d0i rekonstruieren kann und so di ∼ d0i und t = t0 beweist. Beachte: t = t0 ist die minimale Erzeugendenzahl von T (M ) ∼ = T (N ) und gleich dem Maximum der Dimensionen der ∼ T (M )/pT (M ) = T (N )/pT (N ) als R/(p)-Vektorr¨aume, wo p die Primteiler von dt durchl¨auft. q. e. d. Folgerung 4.7. Sei M = T (M ) ein endlich erzeugter R-Torsionsmodul mit (d) = Ann(M ). Q n(i) Ist d ∼ i pi die Faktorisierung in Potenzen von Primelementen, so zerlegt sich nach dem Chinesischen Restsatz M M n(i) n(i) R/(d) ∼ R/(pi ) und entsprechend M ∼ M/pi M = = i n(i) i n(i) und M/pi M ist R/(pi )-Modul. Ist p ∈ R prim, so sind die endlich erzeugten R/(pn )-Moduln durch endliche monoton steigende Folgen a nat¨ urlicher Zahlen ≤ n charakterisiert: a liefert den Modul M a(i) . R R/Rp i ¨ 4. MODULN UBER HAUPTIDEALBEREICHEN. 29 Folgerung 4.8. Sei M ein e.e. torsionsfreier R-Modul. Dann ist M frei. Achtung: Dies ist falsch f¨ ur nicht e.e. torsionsfreie R-Moduln. Ist z.B. R = Z, so ist Q ein torsionsfreier Z-Modul. Jedoch ist Q nicht frei, denn f¨ ur je zwei Elemente a/b, c/d ∈ Q gilt (bc)a/b − (ad)c/d = 0. Folgerung: Sei R ein Hauptidealbereich mit K := Quot(R) 6= R. Dann ist K ist ein nicht ¨ endlich erzeugter, torsionsfreier R-Modul. (Ubung) 4.2 Der Hauptsatz u ¨ ber endlich erzeugte abelsche Gruppen. (V7) Wir wenden unsere Erkenntnisse jetzt speziell f¨ ur den Ring R = Z an. Die Z-Moduln sind genau die abelschen Gruppen, endlich erzeugte Z-Moduln also endlich erzeugte abelsche Gruppen und wir erhalten den folgenden Struktursatz. Folgerung 4.9. (Hauptsatz u ¨ber endlich erzeugte abelsche Gruppen) Sei G = hg1 , . . . , gn i eine endlich erzeugte abelsche Gruppe. Dann gibt es r, s ∈ Z≥0 , h1 , . . . , hr ∈ G, t1 , . . . , ts ∈ G, d1 , . . . , ds ∈ Z mit d1 |d2 | . . . |ds , so dass G = hh1 i × . . . hhr i × ht1 i × . . . × hts i ∼ = Zr ⊕ Z/(d1 i ⊕ . . . ⊕ Z/(ds i n1 ns Folgerung 4.10. Qs (a)niSei G eine endliche abelsche Gruppe von Ordnung |G| = p1 . . . ps . Dann ist G ein Z/h i=1 pi i-Modul. Dieser Ring ist nach dem chinesischen Restsatz isomorph zu L s ni aßt sich G eindeutig schreiben als i=1 Z/hpi i. Dementsprechend l¨ G= s M Pi i=1 pni i ist. (Pi nennt man auch die pi -Sylowgruppe von G). wo |Pi | = (b) Sei P eine abelsche Gruppe von Primzahlpotenzordnung |P | = pn > 1 (p-Gruppe). Dann gibt es eindeutiges t ∈ N, a1 ≤ . . . ≤ at ∈ N mit P ∼ = Z/hpa1 i ⊕ . . . ⊕ Z/hpat i. Beispiel. Die abelschen Gruppen der Ordnung 24 = 23 · 3 sind: Z/h24i = Z/h8i ⊕ Z/h3i, Z/h2i ⊕ Z/h4i ⊕ Z/h3i, Z/h2i ⊕ Z/h2i ⊕ Z/h2i ⊕ Z/h3i. Folgerung 4.11. Sei G eine endliche abelsche Gruppe, a ∈ G. Das n ∈ N mit nZ = AnnZ (a) nennt man auch die Ordnung von a, ord(a) := |hai|. Es gilt ord(a) teilt |G|. Existiert ein a ∈ G, so dass hai = G, so heißt G zyklische Gruppe. Von Ordnung m ∈ Z≥0 ist Cm := (Z/mZ, +) bis auf Isomorphie die einzige zyklische Gruppe von Ordnung m. Wir wollen unsere Ergebnisse jetzt auf Einheitengruppen von Restklassenringen von Z anwenden. (Z/mZ)∗ = {a + mZ ∈ {1, . . . , m − 1} | ggT(a, m) = 1}. Definition 4.12. Die Eulersche ϕ-Funktion: ϕ : N → N; ϕ(m) := |(Z/mZ)∗ | Bemerkung 4.13. (a) (Kleiner Satz von Fermat) Ist p eine Primzahl und a ∈ Z, dann ap ≡ a (mod p), denn ϕ(p) = p − 1. (b) Ist p eine Primzahl, so ist (Z/pa Z)∗ = Z \ pZ also ϕ(pa ) = pa − pa−1 = Q pa−1 (p − 1). α (c) Ist m = sj=1 pj j mit paarweise verschiedenen Primzahlen pj und αj ≥ 1, dann ist Z/mZ = L α α Z/pj j Z nach dem chinesischen Restsatz, also auch (Z/mZ)∗ = ×j (Z/pj j Z)∗ . Q α −1 (d) Es ist ϕ(m) = sj=1 pj j (pj − 1). 30 Lemma 4.14. KAPITEL 1. RINGE UND MODULN P d|m ϕ(d) = m. Q Ps α Beweis. Sei m = sj=1 pj j . Induktion u ¨ber j=1 αj =: n. n = 1: Klar. Induktionsschritt: X X X ϕ(d) + ϕ(pα1 1 d) = ϕ(d) = d|m d|m/p1 α d|m/(p1 1 ) m/p1 + pα1 1 −1 (p1 − 1)pα2 2 . . . pαs s = m. q. e. d. Satz 4.15. Sei K ein endlicher K¨ orper. Dann ist seine Einheitengruppe zyklisch. Beweis. Betrachte (K ∗ , ·) als Z-Modul u ur z ∈ Z und a ∈ K ∗ . Zeigen: F¨ ur jeden ¨ber za = az f¨ ∗ Teiler d von |K| − 1 hat K genau ϕ(d) Elemente der Ordnung d. Denn: Sei ψ(d) := {a ∈ K ∗ | ord(a) = d}. Dann gilt d6 | |K| − 1 ⇒ ψ(d) = 0. Ist a ∈ K ∗ , ord(a) = d, so ist hai die Menge der d verschiedenen Nullstellen von X d − 1. Die Elemente der Ordnung d in hai sind genau die am mit ggT(m, d) = 1, also ist ihre Anzahl genau ϕ(d) und ψ(d) ≥ ϕ(d). Deshalb ist X X |K| − 1 = |K ∗ | = ψ(d) ≥ ϕ(d) = |K| − 1. d||K|−1 d||K|−1 Also ψ(d) = ϕ(d). Insbesondere ist ψ(|K| − 1) 6= 0 und K ∗ = hai f¨ ur jedes Element a ∈ K ∗ mit ord(a) = |K| − 1. q. e. d. Satz 4.16. Sei p eine Primzahl, α ≥ 1. (a) Ist p > 2, so ist (Z/pα Z)∗ ∼ = (Z/pα−1 Z, +) ⊕ (Z/(p − 1)Z, +). α ∗ (b) Ist α ≥ 2, so ist (Z/2 Z) ∼ = (Z/2Z, +) ⊕ (Z/2α−2 Z, +). Beweis. (a)Zeige: Gruppe ist zyklisch. Mit Hilfe des binomischen Lehrsatzes zeigt man: Ist β ≥ 1, b ∈ Z, p6 | b, dann ist (1 + pβ b)p = (1 + pβ+1 c) f¨ ur ein c ∈ Z mit p6 | c. Ist a ∈ Z mit h(a + pZ)i = (Z/pZ)∗ , so ist ap−1 = 1 + pb f¨ ur ein b ∈ Z. Gilt p6 | b, so ist ha + pα Zi = (Z/pα Z)∗ . Falls p | b, dann ist ha + p + pα Zi = (Z/pα Z)∗ . ¨ (b) als Ubung. q. e. d. Damit haben wir die Struktur der Einheitengruppe von Z/mZ bestimmt, denn dieser Ring ist nach dem chinesischen Restsatz isomorph zu Z/pα1 1 Z ⊕ . . . ⊕ Z/pαs s Z falls m = pα1 1 · · · pαs s eine Primfaktorzerlegung von m ist. Also ist seine Einheitengruppe das direkte Produkt der Einheitengruppen (Z/mZ)∗ ∼ = (Z/pα1 1 Z)∗ × . . . × (Z/pαs s Z)∗ . Kapitel 2 Normalformen fu ¨ r Matrizen. 5 ¨ Ahnlichkeit von Matrizen. (V8) Wir wollen u ¨ber das Klassifikationsproblem der Endomorphismen eines endlich dimensionalen K-Vektorraumes sprechen oder, was ¨ aquivalent hierzu ist, u ¨ber eine Normalform der Matrizen des Endomorphismus, die durch eine gewisse Basiswahl erreicht wird. Definition 5.1. Sei V ein endlich erzeugter Vektorraum u orper K der Dimension ¨ber dem K¨ n ∈ N. 1) Zwei Endomorphismen α, β ∈ End(V) heißen ¨ ahnlich oder konjugiert unter GL(V), falls −1 ein γ ∈ GL(V) existiert mit α = γ ◦ β ◦ γ , d. h. α, β liegen in derselben Bahn unter der Operation GL(V) × End(V) → End(V) : (γ, ζ) 7→ γ ◦ ζ ◦ γ −1 . 2) Zwei Matrizen A, B ∈ K n×n heißen ¨ ahnlich oder konjugiert unter GL(n, K), falls ein g ∈ GL(n, K) existiert mit A = gBg −1 , d. h. A, B liegen in derselben Bahn unter der Operation GL(n, K) × K n×n → K n×n : (g, C) 7→ gCg −1 . 3) Sei R ein Integrit¨ atsbereich. Zwei Matrizen A, B ∈ Rn×m heißen ¨ aquivalent (¨ uber R), wenn es g ∈ GLn (R), h ∈ GLm (R) gibt mit gAh = B. ¨ ¨ Klar: Aquivalenz von Matrizen ist eine Aquivalenzrelation. Den Struktursatz 4.5 kann man auch so formulieren: Ist R ein Hauptidealbereich, so ist jede quadratische Matrix ¨ aquivalent zu einer Diagonalmatrix. ¨ Ahnliche Matrizen sind ¨ aquivalent u ¨ber K. Die Umkehrung gilt jedoch nicht, jede Matrix in ¨ GLn (K) ist ¨ aquivalent u ur Ahnlichkeit. ¨ber K zur Einheitsmatrix. Die ist nicht richtig f¨ ¨ Die Matrizen, die einen festen Endomorphismus beschreiben, bilden eine Ahnlichkeitsklasse, wenn man die Basis variieren l¨ asst. Zwei Endomorphismen sind genau dann durch dieselbe Matrix beschreibbar, wenn sie konjugiert sind. Bemerkung 5.2. µα , χα sind Invarianten (aus denen man Spur und Determinante ablesen kann). F¨ ur jedes Polynom p(x) ∈ K[x] ist End(V) → Z≥0 : α 7→ Dim(Kern(p(α))) eine Invariante. 31 ¨ MATRIZEN. KAPITEL 2. NORMALFORMEN FUR 32 Wir wollen in diesem Abschnitt f¨ ur einen gegebenen Endomorphismus α ∈ End(V) eine m¨oglichst B einfache Form f¨ ur die Matrix αB finden. Bislang haben wir nur Teilergebnisse und Spezialf¨alle erledigt, an die wir uns kurz erinnern wollen. F¨ ur den ganzen Abschnitt sei V ein endlich erzeugter K-Vektorraum. Hier ist eine Zusammenfassung einiger relevanter Ergebnisse aus dem ersten Semester. Q m(i) die Zerlegung des Minimalpolynoms in normierte Bemerkung 5.3. Ist µα (x) = li=1 pi irreduzible und paarweise verschiedene Polynome pi , dann gilt: Q c(i) 1) Das charakteristische Polynom ist gegeben durch χα (x) = li=1 pi mit c(i) ≥ m(i). m(i) 2) Man hat eine kanonische Zerlegung von V in die pi -Hauptr¨ aume Hi := Kern(pi (α)), die alle α-invariant sind: l M V= Hi . i=1 Q m(j) Man hat Hi = = Bild(qi (α)) mit qi := lj6=i pj . 3) Die Projektionen der Zerlegung sind gegeben durch πi = (ai qi )(α) wobei ai ∈ K[x] mit m(i) Kern(pi (α)) 1 = a1 q1 + . . . + al ql gegeben sind. 4) F¨ ur die Dimension der Hauptr¨ aume gilt m(i) Dim(Kern(pi (α))) = c(i) Grad(pi ). m(i) 5) Im Falle m(i) = 1 ist Kern(pi (α)) ein K[x]/pi K[x]-Vektorraum der Dimension c(i), und aus einer K[x]/pi K[x]-Basis konstruiert man leicht eine K-Basis, die f¨ ur die Einschr¨ ankung von m(i) α auf Kern(pi (α)) die Matrix diag(M (pi ), . . . , M (pi )) liefert, wobei M (pi ) die Begleitmatrix von pi ist. (Wichtiger Spezialfall: pi (x) = x − a f¨ ur ein a ∈ K. Dann ist M (pi ) = (a) und wir haben (m(i) = 1 vorausgesetzt) eine Basis aus Eigenvektoren f¨ ur den Hauptraum.) ¨ Ubung: Sei µα = pr f¨ ur ein irreduzibles normiertes Polynom p ∈ K[x]. Zeige, dass der Algorithmus zur Berechnung des Minimalpolynoms einen Vektor V ∈ V als Nebenprodukt produziert, f¨ ur dessen Minimalpolynom gilt: µα,V = µα . Mit diesen Vorbemerkungen wollen wir zun¨achst einen kurzen Blick auf den Zentralisator eines Endomorphimus werfen. Definition 5.4. Sei V ein endlich erzeugter K-Vektorraum der Dimension n und α ∈ End(V). Dann heißt CEnd(V) (α) := {β ∈ End(V)|α ◦ β = β ◦ α} ≤ End(V) der Zentralisator oder die Zentralisatoralgebra von α (in End(V)). F¨ ur A ∈ K n×n ist die Zentralisatoralgebra von A definiert als CK n×n (A) := {X ∈ K n×n | AX = XA} Bemerkung 5.5. CEnd(V) (α) ist der Kern der linearen Abbildung End(V) → End(V) : γ 7→ α ◦ γ − γ ◦ α und somit ein Teilraum des K-Vektorraums End(V). Da CEnd(V) (α) auch abgeschlossen ist unter Komposition von Abbildungen, ist CEnd(V) (α) eine Teilalgebra von End(V). ¨ 5. AHNLICHKEIT VON MATRIZEN. (V8) 33 Beispiel:Ist A =diag(0, 1) ∈ K 2×2 so ist CK 2×2 (A) = {diag(a, b) | a, b ∈ K} = K[A]. 0 1 F¨ ur A = ∈ F2×2 ist CF2×2 (A) = F2 [A] ∼ = F4 . Betrachtet man die Blockdiagonalmatrix 2 2 1 1 ¨ diag(A, A) ∈ F4×4 so ist ihr Zentralisator isomorph zu F2×2 (Ubung). 2 4 Satz 5.6. Sei α ∈ End(V) etc. wie in Bemerkung 5.3. 1.) F¨ ur β ∈ CEnd(V) (α) und 1 ≤ i < j ≤ l gilt πi ◦ β ◦ πj = 0, d. h. β respektiert die Zerlegung von V in seine Hauptr¨ aume, und somit gilt insbesondere β= l X i=1 und CEnd(V) (α) = πi ◦ β ◦ πi | {z } ∈CEnd(πi (V)) (α|πi (V) ) l M CEnd(πi (V)) (α|πi (V) ) i=1 2.) Sei µα (x) = χα (x), also das Minimalpolynom und das charakteristische Polynom seien gleich. Dann ist (idV , α, α2 , . . . , αn−1 ) mit n = Dim(V) eine K-Vektorraumbasis von CEnd(V) (α). Beweis. 1.) Da β ∈ CEnd(V) (α) mit α vertauschbar ist, ist es auch mit jedem Polynom in α vertauschbar, insbesondere mit den πi . Damit folgen die ersten Aussagen. Weiter ist πi ∈ CEnd(V) (α) f¨ ur jedes i und als Polynom in α ist πi mit jedem Element in CEnd(V) (α) vertauschbar. Daher ist jedes M CEnd(V) (α) = πi CEnd(V) (α) i und πi CEnd(V) (α) = CEnd(Vi ) (αi ). 2.) Aus der Vor¨ ubung schließen wir, dass jeder Hauptraum πi (V) einen Vektor enth¨alt, dessen Minimalpolynom gleich pm(i) ist. Wegen µα (x) = χα (x) liefert die Summe dieser Vektoren uns einen Vektor V ∈ V mit mit Minimalpolynom µα,V (x) = µα (x). Unter den gegebenen Voraussetzungen ist (V, α(V ), . . . , αn−1 (V )) eine Basis von V. Sei nun β ∈ CEnd(V) (α) und X β(V ) = V 0 = ai αi (V ) f¨ ur geeignete ai ∈ K. Dann ist β(α(V )) = α(β(V )) = α(V 0 ) und allgemeiner β(αj (V )) = αj (V 0 ), also X β(αj (V )) = ( ai αi )(αj (V )). i Also hat β denselben Effekt auf unsere Basis wie P ai αi , d. h. β = P ai αi . q. e. d. ¨ Ubung: Zeige: Im Falle µα = χα ist CEnd(V) (α) als K-Algebra isomorph zu K[x]/µα (x)K[x]. ¨ ¨ Ubung: Man formuliere den letzten Satz und die zugeh¨origen Ubungen in der Sprache der Matrizen. (Sehr wichtig!) Die Situation aus Satz 5.6 hat einen Namen: ¨ MATRIZEN. KAPITEL 2. NORMALFORMEN FUR 34 Definition 5.7. Sei α ∈ End(V). Jeder Vektor V ∈ V mit hV iα := K[α](V ) = V heißt ein zyklischer Vektor von V (bez¨ uglich α). Falls ein solcher existiert, heißt V ein zyklischer Vektorraum bez¨ uglich α. ˜ Beispiel: Sei A = diag(0, 1) ∈ K 2×2 . Ist K 2×1 ein zyklischer Vektorraum bez¨ uglich A? ˜ Sei B = diag(1, 1) ∈ K 2×2 . Ist K 2×1 ein zyklischer Vektorraum bez¨ uglich B? Klar: V ist genau dann ein zyklischer Vektorraum bez¨ uglich α ∈ End(V) wenn µα = χα gilt, ¨ denn f¨ ur jeden zyklischen Vektor V hat µα,V den Grad dim(V). Die Umkehrung ist eine Ubungsaufgabe. 6 6.1 Normalformen fu ¨ r Matrizen. Die rationale kanonische Form. (V9) In diesem Abschnitt m¨ ochten wir den Struktursatz f¨ ur Moduln u ¨ber Hauptidealbereichen an¨ wenden, um eine Normalform f¨ ur Ahnlichkeitsklassen von Matrizen zu erhalten. Sei dazu K ein K¨orper. Satz 6.1. (a) Jede Matrix A ∈ K n×n macht K n×1 zu einem K[x]-Modul durch p(x)V = p(A)V f¨ ur alle V ∈ K n×1 , p(x) ∈ K[x]. Diesen K[x]-Modul bezeichnen wir mit MA . (b) Es ist AnnK[x] (MA ) = hµA i E K[x] das vom Minimalpolynom von A erzeugte Ideal. (c) EndK[x] (MA ) ∼ = CK n×n (A) = {X ∈ K n×n | XA = AX}. (d) F¨ ur A, B ∈ K n×n gilt MA ∼ = MB genau dann wenn es ein g ∈ GLn (K) gibt mit A = g −1 Bg, also genau dann wenn A und B ¨ ahnlich sind. Beweis. (a) und (b): hatten wir schon fr¨ uher bemerkt. (c) und (d): Der K[x]-Modul MA wird durch Einschr¨ankung zu einem K-Modul, also einem KVektorraum. Insbesondere sind alle K[x]-Modulhomomorphismen auch K-lineare Abbildungen und somit gegeben durch Multiplikation mit einer Matrix. F¨ ur X ∈ K n×n ist die K-lineare ˜ ∈ EndK[x] (MA ) genau dann wenn X(xV ˜ ˜ ) f¨ Abbildung X ) = xX(V ur alle V ∈ K n×1 , also genau n×1 dann wenn XAV = AXV f¨ ur alle V ∈ K , d.h. XA = AX und somit X ∈ CK n×n (A). ˜ : MA → MB ein Isomorphismus. Dann ist insbesondere die lineare Um (d) zu sehen sei X ˜ bijektiv, also X ∈ GLn (K). Weiter erf¨ ˜ die Bedingung X(AV ˜ ˜ ) f¨ Abbildung X ullt X ) = B X(V ur n×1 −1 alle V ∈ K , also XA = BX und somit A = X BX. ¨ Ubung: Formulieren Sie obigen Satz und alle weiteren Ergebnisse dieses Abschnitts in der Sprache der Endomorphismen. Definition 6.2. Sei A ∈ K n×n . Die charakteristische Matrix X(A) ist definiert als X(A) = xIn − A ∈ K[x]n×n . Satz 6.3. Sei A ∈ K n×n . Der Kern des K[x]-Modulepimorphismus fA : K[x]n×1 = FrK[x] (n) → MA , fA (ei ) := ei ist der Teilmodul von K[x]n×1 , der frei auf den Spalten von X(A) ist. Beachten Sie: ei hat in diesem Kontext zwei verschiedene Bedeutungen: Als Argument von fA lebt ei in K[x]n×1 und bezeichnet die i-te Einheitsspalte in diesem freien K[x]-Modul. Als Wert von fA lebt ei in MA und bezeichnet die i-te Einheitsspalte in K n×1 . Beweis. F¨ ur p = (p1 , . . . , pn )tr ∈ K[x]n×1 ist n n n X X X fA (p) = fA ( pi ei ) = pi (A) · fA (ei ) = pi (A)ei . i=1 i=1 i=1 ¨ MATRIZEN. 6. NORMALFORMEN FUR 35 Insbesondere haben wir f¨ ur alle 1 ≤ j ≤ n: fA (xej ) = Aej = A−j und fA (ej ) = ej P und somit fA (xej − A−j ) = fA (xej − ni=1 Aij ei ) = A−j − A−j = 0. Somit ist der von den Spalten xej − A−j der charakteristischen Matrix erzeugte Teilmodul von K[x]n×1 enthalten im Kern von fA . Bezeichne NA := S(X(A)) diesen Spaltenraum. Da NA im Kern von fA liegt, ist die Abbildung f A : K[x]n×1 /NA → MA wohldefiniert und wie die Ausgangsabbildung fA ist auch f A K-linear und surjektiv. Die K-Dimension von MA ist n. Behauptung: (e1 + NA , . . . , en + NA ) ist ein K-Erzeugendensystem von K[x]n×1 /NA . Dazu sei p = (p1 , . . . , pn )tr ∈ K[x]n×1 . Wir zeigen durch Induktion u ¨ber Grad(p) := max{Grad(pi ) | 1 ≤ i ≤ n} dass es ein c ∈ K n×1 und ein C ∈ NA gibt mit p = c + C. Dies ist klar, falls Grad(p) = 0, da dann schon p = c ∈ K n×1 . Ansonsten dividiere alle pi mit Grad(pi ) = Grad(p) sukzessive mit Rest durch (x − Aii ) und ersetze p durch p − qi X(A)−i . Da Grad(qi ) = Grad(pi ) − 1 ist, verringert sich der Grad von p danach um mindestens 1. Also ist die K-Dimension von K[x]n×1 /NA h¨ochstens n und somit f A auch injektiv. Dass NA frei auf den Spalten von X(A) ist, folgt da det(X(A)) = χA 6= 0. q. e. d. Folgerung 6.4. Als K[x]-Modul ist MA isomorph zu K[x]n×1 /S(X(A)). Nach dem Struktursatz 4.5 gibt es g, h ∈ GLn (K[x]) mit gX(A)h = diag(f1 (x), . . . , fn (x)) so dass fi (x) ∈ K[x] normiert, f1 (x) | f2 (x) | . . . | fn (x). Die fi (x) sind eindeutig Q wegen Satz 4.6 durch A bestimmt (die Elementarteiler von X(A)). Es gilt χA = det(X(A)) = ni=1 fi (x), µA = fn (x) und MA ∼ =K[x] K[x]/hf1 (x)i ⊕ . . . ⊕ K[x]/hfn (x)i ∼ = MF mit F = diag(M (f1 ), . . . , M (fn )). Ist di := Grad(fi ) und s = min{i ∈ n | di > 0}, so ist A ahnlich zur Blockdiagonalmatrix ¨ RKF(A) := diag(M (fs ), . . . , M (fn )) wo M (fi ) ∈ K di ×di die Begleitmatrix von fi bezeichnet (die leere Matrix, falls di = 0 ist). RKF(A) heißt rationale kanonische Form oder auch Frobenius-Normalform von A ∈ K n×n . Bemerkung 6.5. Sei RKF(A) := diag(M (fs ), . . . , M (fn )). Dann ist MA die direkte Summe von n − s + 1 zyklischen K[x]-Moduln K[x]/(fi ). Jede andere solche Zerlegung von MA hat mindestens ebensoviele zyklische Summanden. Achtung: Im Gegensatz zur Hauptraumzerlegung ist die Zerlegung in Bemerkung 6.5 nur bis auf Isomorphie eindeutig: Bemerkung 6.6. Die direkte Zerlegung in zyklische Summanden ist nicht eindeutig. Ist α = A˜ und sind B, B 0 Basen von V = K n×1 mit B B α = diag(M (fs ), . . . , M (fn )) = B0 0 αB . so ist der Endomorphismus β ∈ End(V) definiert durch β(Bi ) := Bi0 f¨ ur alle 1 ≤ i ≤ n = Dim(V) eine Einheit im Zentralisator von α: β ∈ CEnd(V) (α)∗ = CEnd(V) (α) ∩ GL(V) =: Autα (V). ¨ MATRIZEN. KAPITEL 2. NORMALFORMEN FUR 36 ¨ Folgerung 6.7. Seien A, B ∈ K n×n . Aquivalent sind: (a) A und B sind ¨ ahnlich. (b) X(A) und X(B) sind ¨ ahnlich. (c) X(A) und X(B) sind ¨ aquivalent u ¨ber K[x]. (d) MA und MB sind isomorphe K[x]-Moduln. (e) A und B haben dieselbe rationale kanonische Form. Durch eine Kombination von Hauptraumzerlegung und rationaler kanonischer Form erh¨alt man die sogenannte prim¨ are rationale Form einer Matrix A, mit der man MA in die maximal m¨ogliche Anzahl nicht-trivialer zyklischer K[X]-Moduln zerlegt. Diese hat den Vorteil, dass die Blockdiagonalmatrizen kleiner sind als bei der rationalen kanonischen Form. Q m(i) Bemerkung 6.8. Sei A ∈ K n×n mit Minimalpolynom µA = li=1 pi , charakterisitischem PoL Q c(i) m(i) lynom χA = li=1 pi und Hi := Kern(pi (A)) der pi -Hauptraum. Dann ist K n×1 = li=1 Hi ˜ eine A-invariante Zerlegung. Bez¨ uglich einer an diese Zerlegung angepassten Basis hat A˜ also eiais ne Matrix diag(A1 , . . . , Al ) in Blockdiagonalgestalt. Ist RKF(Ai ) = diag(M (pai i1 ), . . . , M (pi i )) die rationale kanonische Form von Ai (also 0 < a1 ≤ a2 ≤ . . . ≤ as , ci = a1 +. . .+as , as = m(i)) so ist A ¨ ahnlich zu alsl PRF(A) = diag(RKF(A1 ), . . . , RKF(Al )) = diag(M (pa111 ), . . . , M (pl )). PRF(A) heißt die prim¨ are rationale Form von A. ¨ Ubung: Die aij lassen sich aus der Primfaktorzerlegung der Elementarteiler von X(A) bestimmen. Beispiel 6.9. Sei K := Q und −6 6 0 6 −4 6 −1 3 A := ∈ Q4×4 −6 12 −3 3 −6 12 −3 3 Dann ist X(A) = x+6 −6 4 x−6 6 −12 6 −12 0 −6 −3 ∈ Q[x]4×4 x + 3 −3 3 x−3 1 und gX(A)h = diag(1, 1, x, x3 ), wobei 1 0 0 0 0 0 0 6 0 1 0 0 0 0 −1 1/4x + 3 g= , h= 1/24x + 1/4 −1/2 1 x − 3 −1/4x2 + 3/4x + 3 −3/4 0 1/4 1/6x2 − x − 4 x + 12 −4 x −1/6 0 1 3/4x + 3 . ¨ MATRIZEN. 6. NORMALFORMEN FUR 37 Also erh¨ alt man 0 0 RKF(A) = PRF(A) = 0 0 0 0 1 0 0 0 0 1 0 0 0 0 Beispiel 6.10. Sei 0 1 1 A = 1 −1 0 ∈ Q3×3 . 0 1 0 Dann findet man gX(A)h = diag(1, 1, x3 + x2 − x − 1) 1 0 0 0 g = 0 1 0 , h = 0 x x2 1 −1 wobei −1 x+1 0 1 2 −x x + x − 1 Also istp = x3 +x2 − x − 1 = µA = χA = (x + 1)2 (x − 1), RKF(A) = M (p) und PRF(A) = 0 −1 ). diag(1, 1 −2 6.2 Trennende Invarianten. (V10) Definition 6.11. 1.) Eine Partition der natu ¨ rlichen Zahl c ist ein k-Tupel a = (a1 , . . . , ak ) ∈ k N f¨ ur ein k ∈ N mit a1 ≥ a2 ≥ . . . ≥ ak und a1 + a2 + · · · + ak = c. 2) Ist a = (a1 , . . . , ak ) ∈ Nk eine Partition von c ∈ N, so ist die konjugierte Partition a0 von a definiert durch a0i := |{j|aj ≥ i}|. Man visualisiert u undig in Zeilen un¨blicherweise die Partition durch K¨astchen, die man linksb¨ tereinander anordnet mit ai K¨ astchen in der i-ten Zeile. Dies nennt man das Young-Diagramm der Partition. Die Young-Diagramme von a und a0 sind transponiert zueinander. Definition 6.12. Sei V ein K-Vektorraum und α ∈ End(V) mit χα = pc , p ∈ K[x] irreduzibel. Dann gibt es eine Basis B von V mit B B α = diag(Mpa1 , . . . , Mpak ) f¨ ur eine eindeutig durch α definierte Partition (ak , . . . , a1 ) von c. Diese Partition heißt die durch α definierte Partition. Satz 6.13. Sei α ∈ End(V) mit µα = pm mit p ∈ K[x] irreduzibel. Setze ν := p(α), d := Grad(p). Folgende Aussagen sind ¨ aquivalent: a) V ist zyklisch bez¨ uglich α. b) Kern(ν) hat Dimension d u ¨ber K. c) ν hat Rang dim(V) − d. d) µα = χα . e) S¨ amtliche α-invarianten Teilr¨ aume von V sind gegeben durch hν i (V)iα = Bild(ν i ) f¨ ur i = 0, 1, . . . m. 38 ¨ MATRIZEN. KAPITEL 2. NORMALFORMEN FUR achst eine allgemeine Vorbemerkung: Setze Vi := Bild(ν i ). Nach Definition des Beweis. Zun¨ Minimalpolynoms ist Vm−1 6= {0} und Vm = {0}. Weiter sind die Vi α-invariant, d. h. α(Vi ) ⊆ Vi . Es ist (?) V = V0 > V1 > . . . > Vm−1 > Vm = {0}. wobei die Faktoren Vi /Vi+1 = ν(Vi−1 /Vi ) epimorphe Bilder voneinander sind, also Dim(Vm−1 ) ≤ Dim(Vi )−Dim(Vi+1 ) ≤ Dim(Vi−1 )−Dim(Vi ) ≤ . . . Dim(V)−Dim(V1 ) = Dim(Kern(ν)) Das Minimalpolynom des von α auf Vi /Vi+1 induzierten Endomorphismus αi ist µαi = p. Insbesondere die Dimension Dim(Vi /Vi+1 ) ein Vielfaches von d. b) ⇔ c) folgt aus dem Homomorphiesatz. ¨ Die Aquivalenz von (a) und (d) folgt aus dem Struktursatz f¨ ur Moduln u ¨ber Hauptidealbereichen . (d) ⇒ (b): Ist µα = χα , so ist md = Grad(µα ) = Grad(χα ) = n und die echt absteigende Kette von Teilr¨aumen oben hat L¨ ange n/d. Damit muss aber Dim(Vi ) − Dim(Vi+1 ) = d sein f¨ ur alle i, also auch Dim(Kern(ν)) = d. (b) ⇒ (d): Ist Dim(Kern(ν)) = d, so folgt Dim(Vi ) = Dim(Vi+1 )+d f¨ ur alle i und daher m = n/d. (a) ⇒ (e): Ist W ≤ V ein α-invarianter Teilraum, so gibt es ein gr¨oßtes i mit W ≤ Vi . Aber jedes W ∈ W \ Vi+1 erf¨ ullt bereits hW iα = Vi , da auch Vi ein zyklischer Modul f¨ ur αi ist. (e) ⇒ (a): klar. q. e. d. Folgerung 6.14. Seien α und p wie in Definition 6.12, d := Grad(p) und a := (ak , . . . , a1 ) die durch α definierte Partition. Sei Vi := Bild(p(α)i ) f¨ ur i = 0, . . . , ak . Dann gilt V = V0 > V1 > . . . > Vak −1 > Vak = {0} und dim(Vi /Vi+1 ) = a0i d, wobei a0 die zu a konjugierte Partition ist. Beweis. Wende Satz 6.13 auf jeden zyklischen Summanden an. q. e. d. Beispiel: Sie p ∈ K[x] normiert, irreduzibel von Grad d und A ∈ K 5d×5d mit µA = p3 . Dann ¨ ist χA = p5 und man hat 2 M¨ oglichkeiten f¨ ur die Ahnlichkeitsklasse von A: A ∼ diag(M (p), M (p), M (p3 )) oder A ∼ diag(M (p2 ), M (p3 )) Im ersten Fall ist dim(Kern(p(A)) = 3d und im zweiten Fall gleich 2d. Man kann also entscheiden, ¨ zu welcher Ahnlichkeitsklasse die Matrix A geh¨ort, indem man nur den Rang von p(A) berechnet. Es stellt sich abschließend die Frage nach trennenden Invarianten f¨ ur die Konjugationsoperation. Satz 6.15. Zwei Endomorphismen α, β ∈ End(V) sind genau dann unter GL(V) konjugiert, wenn gilt a) die Minimalpolynome sind gleich: µα (x) = µβ (x) und b) f¨ ur jeden normierten irreduziblen Teiler p ∈ K[x] des Minimalpolynoms sind die Partitionen des p-Hauptraumes von (V, α) und von (V, β) gleich. In anderen Worten: Die Minimalpolynome zusammen mit den Partitionen bilden ein System ¨ trennender Invarianten f¨ ur die Ahnlichkeitsklassen. ¨ MATRIZEN. 6. NORMALFORMEN FUR 39 ¨ Beispiel 6.16. Ahnlichkeitsklassen in C4×4 : (in der Vorlesung nur 3x3) χA (x) (x − a)4 µA (x) Partitionen Vertreter x−a (1, 1, 1, 1) Diag(a, a, a, a) (x − a)2 (2, 1, 1) Diag(M ((x − a)2 ), a, a) (x − a)2 (2, 2) Diag(M ((x − a)2 ), M ((x − a)2 )) 3 (x − a) (3, 1) Diag(M ((x − a)3 ), a) (x − a)4 (4) J4 (a) 3 (x − a) (x − b) (x − a)(x − b) (1, 1, 1), (1) Diag(a, a, a, b) (x − a)2 (x − b) (2, 1), (1) Diag(M ((x − a)2 ), a, b) 3 (x − a) (x − b) (3), (1) Diag(M ((x − a)3 ), b) (x − a)2 (x − b)2 (x − a)(x − b) (1, 1), (1, 1) Diag(a, a, b, b) (x − a)2 (x − b) (2), (1, 1) Diag(M ((x − a)2 ), b, b) (x − a)2 (x − b)2 (2), (2) Diag(M ((x − a)2 ), M ((x − b)2 )) 2 (x − a) (x − b)(x − c) (x − a)(x − b)(x − c) (1, 1), (1), (1) Diag(a, a, b, c) 2 (x − a) (x − b)(x − c) (2), (1), (1) Diag(M ((x − a)2 ), b, c) Q Q (1), (1), (1), (1) Diag(a, b, c, d) w=a,b,c,d (x − w) w=a,b,c,d (x − w) ¨ Ubung: und Gib ein Vertretersystem aller Konjugiertenklassen von Endomorphismen von F3×3 2 3×3 von R an. 6.3 Die Jordan Normalform. Aus der prim¨ aren rationalen Form erh¨alt man durch eine etwas andere Basiswahl leicht die Jordan Normalform. Dazy gen¨ ugt es, die zyklischen Moduln innerhalb eines Hauptraums zu behandeln. Satz 6.17. Sei α ∈ End(V) mit µα = χα = pm mit p ∈ K[x] irreduzibel. Setze ν := p(α), d := Grad(p). Jedes V ∈ V − ν(V) liefert eine Basis B := (V, α(V ), . . . , αd−1 (V ), ν(V ), ν(α(V )), . . . , ν m−1 (αd−1 (V ))) von V, so dass die Matrix von α gegeben ist durch Mp 0 0 Nd Mp 0 0 Nd Mp B B α = Jm (p) := 0 0 Nd . .. .. .. . . 0 0 0 0 ... 0 1 0 ... ... 0 d×d . wobei Nd = . . .. .. ∈ K . . . . . . 0 ... ... 0 Beweis. Nachrechnen. ... ... ... ... .. . 0 0 0 0 .. . 0 0 0 0 .. . . . . Nd Mp q. e. d. ¨ MATRIZEN. KAPITEL 2. NORMALFORMEN FUR 40 als ahnlich Folgerung 6.18. Sei A ∈ K n×n mit PRF(A) = diag(M (pa111 ), . . . , M (pl l )). Dann ist A ¨ zu JNF(A) = diag(Ja11 (p1 ), . . . , Jalsl (pl )). JNF(A) heißt die Jordan-Normalform von A. Im Beispiel 6.9 ist RKF(A) = PRF(A) = JNF(A). Im Beispiel 6.10 erh¨alt man 1 0 0 JNF(A) = 0 −1 0 0 1 −1 6.4 Transformationsmatrizen. (V11) Bemerkung 6.19. (ohne Beweis) Sei S = gX(A)h = diag(f1 , . . . , fn ) die Smith-Form von X(A), wobei die fi normiert seien. Seien f1 = . . . = fs = 1 und Grad(fi ) = di ≥ 1 f¨ ur alle i > s. Dann gilt ds+1 + . . . + dn = n. F¨ ur i > s und 1 ≤ j ≤ n sei gij ≡ ci,j,0 + ci,j,1 x + . . . + ci,j,di −1 xdi −1 (mod fi ). Setze (i) Pj := ci,j,0 .. . d ∈K i ci,j,di −1 und P−j := (s+1) Pj .. . (n) ∈ K n. Pj Dann ist die Matrix P = [P−1 , . . . , P−n ] ∈ K n×n invertierbar und es gilt P AP −1 = RKF(A), wobei RKF(A) die rationale kanonische Form von A ist. 1 0 0 Beispiel: Ist A wie in Beispiel 6.10 so kann g = 0 1 0 gew¨ahlt werden und es ergibt x x2 1 sich gem¨aß obiger Vorschrift 0 0 1 P := 1 0 0 0 1 0 und erh¨alt P AP −1 0 0 1 1 = RKF(A) = 1 0 0 1 −1 wie gew¨ unscht. Die Berechnung der Smith-Form von X(A) ist viel zu aufwendig. Eine Transformationsmatrix P erh¨alt man einfacher durch direktes Rechnen mit Matrizen u ¨ber K: Da µA = χA gilt, ist R3×1 ein zyklischer Modul. Beginnt man mit 1 0 1 e1 = 0 , Ae1 = e2 = 1 , A2 e1 = Ae2 = −1 , so erh¨alt man direkt eine Basis 0 0 1 1 0 1 B = (e1 , e2 , Ae2 ) mit B A˜B = M (µA ), in Matrizen T := 0 1 −1 erf¨ ullt T −1 AT = M (µA ). 0 0 1 ¨ MATRIZEN. 6. NORMALFORMEN FUR 41 Beispiel: Sei nun A wie in Beispiel 6.9, also gX(A)h = diag(1, 1, x, x3 ), wobei 1 0 0 0 0 1 0 0 . g= 1/24x + 1/4 −3/4 0 1/4 1/6x2 − x − 4 x + 12 −4 x Dann erh¨alt man 1/4 −3/4 0 1/4 −4 12 −4 0 P = −1 1 0 1 1/6 0 0 0 und berechnet P AP − 1 = diag(M (x), M (x3 )). Diese Methode ist sehr aufwendig, da es i.a. nicht so leicht ist, die Smith-Form der charakteristischen Matrix zu bestimmen. Dazu werden Rechnungen im Polynomring ben¨otigt. Im folgenden wollen wir uns u ¨berlegen, wie wir eine geeignete Basis finden, so dass B αB in Normalform ist, wobei wir ab jetzt mit der Jordan-Normalform arbeiten werden. Beispiel. Sei K := Q und −6 6 0 6 −4 6 −1 3 A := ∈ Q4×4 −6 12 −3 3 −6 12 −3 3 mit Minimalpolynom µA (x) = x3 . Der erste Standardbasisvektor E1 hat x3 als Minimalpolynom: 1 −6 −24 0 −4 −12 2 (E1 , AE1 , A E1 ) = , 0 −6 −12 0 −6 −12 Es ist hE1 iA = hE1 , E2 , E3 +E4 i. Dieser Raum enth¨alt also nicht E3 . Es ist AE3 = AE1 −1/4A2 E1 also setzen wir F := 2E1 − 1/2AE1 − 2E3 = (5, 2, 1, 3)tr . Dann ist (E1 , AE1 , A2 E1 , F ) eine Basis von Q4×1 , bez¨ uglich der A˜ die Matrix Diag(M (x3 ), M (x)) bekommt. Unsere Aufgabe ist es, diese Normierung auf den Fall von mehr als zwei Summanden zu u ¨bertragen. Der Einfachheit halber nehmen wir an, dass µα = (x − a)m gilt, also nur ein Hauptraum vorliegt (die Zerlegung in Hauptr¨ aume haben wir also schon erledigt) und (nur um das Verfahren klarer zu machen) dass der irreduzible Faktor Grad 1 hat. Bemerkung 6.20. Algorithmus zur Bestimmung der Jordan-Normalform, der mit Kernen arbeitet Sei α ∈ End(V) mit µα = (x − a)m und setze ν := α − a idV . Sei Wi := Kern(ν i ). Dann ist W0 = {0} < W1 < . . . < Wm−1 < Wm = V. Sei di := Dim(Wi ). F¨ ur die Elemente V ∈ Wj \ Wj−1 gilt ν j (V ) = 0, aber ν j−1 (V ) 6= 0. Vorbemerkung: ν : Wj /Wj−1 → Wj−1 /Wj−2 ist injektiv. Beweis: ν −1 (Wj−2 ) ⊆ Wj−1 . ¨ MATRIZEN. KAPITEL 2. NORMALFORMEN FUR 42 (a) Erg¨ anze eine Basis von Wm−1 durch V1 , . . . , Vk zu einer Basis von Wm = V. Dann bilden die Restklassen (V1 + Wm−1 , . . . , Vk + Wm−1 ) eine Basis von Wm /Wm−1 . Da ν : Wm /Wm−1 → Wm−1 /Wm−2 injekitiv ist, sind auch (ν(V1 ) + Wm−2 , . . . , ν(Vk ) + Wm−2 ) linear unabh¨ angig und man erh¨ alt induktiv, dass Bm := (V1 , ν(V1 ), . . . , ν m−1 (V1 ), V2 , . . . , Vk , . . . , ν m−1 (Vk )) Bm αBm eine Basis eines α-invarianten Teilraums ist mit (b) Erg¨ anze eine Basis von = diag(Jm (a), . . . , Jm (a)). Wm−2 ⊕ hν(V1 ), . . . , ν(Vk )i ≤ Wm−1 durch Vektoren W1 , . . . , W` zu einer Basis von Wm−1 . Bm−1 := (W1 , ν(W1 ), . . . , ν m−2 (W1 ), W2 , . . . , W` , . . . , ν m−2 (W` )) ist dann eine Basis eines α-invarianten Teilraums, Bm ,Bm−1 αBm ,Bm−1 = diag(Jm (a), . . . , Jm (a), Jm−1 (a), . . . , Jm−1 (a)). (c) Wiederhole (b) mit m − 1 anstelle von m, dann mit m − 2 .... Beispiel. 1 2 0 0 1 2 0 2 A := ∈ F34×4 1 2 2 1 2 0 0 0 hat Minimalpolynom (x − 2)3 . Es gilt 0 1 0 1 0 2 0 2 (A − 2I4 ) = 0 2 0 2 0 1 0 1 2 Der Rang ist 1, wir werden also den ersten Jordan-Block aus dem zweiten Standardbasisvektor V bekommen. (A − 2I4 )2 V wird offenbar durch den dritten Standardbasisvektor W zur Basis von W = Kern(A − 2I4 ) = EA (2) erg¨ anzt. Also ist unsere neue Basis B = (V, (A − 2I4 )V, (A − 2 2I4 ) V, W ) und die transformierte Matrix ist 2 0 0 0 1 2 0 0 ∈ F4×4 3 . 0 1 2 0 0 0 0 2 ¨ MATRIZEN. 6. NORMALFORMEN FUR 6.5 43 Eine Anwendung: lineare Differentialgleichungssysteme. In diesem Abschnitt wollen wir einsehen, wozu z.B. Ingenieure die Jordan-Normalform brauchen. Im wesentlichen geht es um die Berechnung der Matrix Exponentialfunktion. Definition 6.21. Sei A ∈ Rn×n . Sind ui (t) reelle Funktionen so setze 0 u1 (t) u1 (t) u(t) := ... und u0 (t) := ... un (t) u0n (t) Dann heißt (?) u0 (t) = Au(t) ein lineares Differentialgleichungssystem (mit konstanten Koeffizienten). Die L¨ osungsmenge von (?) ist L(?) = {u(t) | ui (t) reelle, differenzierbare Funktionen und u0 (t) = Au(t)}. Satz 6.22. (aus der Analysis) Sei A ∈ Rn×n . Dann ist die Exponentialreihe exp(A) := ∞ X 1 k A k! k=0 konvergent und die Abbildung R → Rn×n , t 7→ exp(tA) auf jedem beschr¨ ankten Intervall gleichm¨ aßig stetig (bzgl. der Maximumsnorm ||A|| := max{|aij | | 1 ≤ i, j ≤ n}). Bemerkung 6.23. Seien A, B ∈ Rn×n . (i) exp(A) exp(B) = exp(B) exp(A) = exp(A + B) falls AB = BA. (ii) exp(0) = In . (iii) exp(A) ist invertierbar mit exp(A)−1 = exp(−A). d (iv) dt (exp(tA)) = A exp(tA) = exp(tA)A (t ∈ R). Beweis. Wir zeigen (i): Sei AB = BA. Dann ist j k−j P P k 1 1 Pk exp(A + B) = ∞ (A + B)k = ∞ A B k=0 k=0 j=0 k! k! j P∞ P∞ 1 j 1 P∞ P∞ 1 j 1 m k−j = j=0 m=0 j! A m! B = exp(A) exp(B) = j=0 k=j j! A (k−j)! B Behauptung (ii) ist klar, (iii) folgt direkt aus (i) und (ii) und (iv) machen Sie zu Hause. q. e. d. Satz 6.24. Sei A ∈ Rn×n . Das lineare Differentialgleichungssystem u0 (t) = Au(t) hat die L¨ osungsmenge L = {u : R → Rn | u(t) = exp(tA)c mit c ∈ Rn }. Die eindeutig bestimmte L¨ osung des Anfangswertproblems u0 (t) = Au(t), u(t0 ) = u0 ∈ Rn ist u(t) = exp((t − t0 )A)u0 . Diese L¨osungsmenge L ist ein Vektorraum der Dimension n. Ist (b1 , . . . , bn ) eine Basis von Rn , so ist (exp(tA)b1 , . . . , exp(tA)bn ) eine Basis von L. Die Jordan-Normalform von A wird benutzt, um eine solche sch¨ one Basis von L zu finden. Wir formulieren dies nur f¨ ur zyklische Vektorr¨aume n und den Fall dass µA = χA = (x − λ) ist. Das einfache Zusammensetzen im allgemeinen Fall u ¨berlegen Sie sich zu Hause. ¨ MATRIZEN. KAPITEL 2. NORMALFORMEN FUR 44 Satz 6.25. Sei A ∈ Rn×n , χA = µA = (x − λ)n . Sei b1 ∈ Rn ein zyklischer Vektor, also b2 := (A − λIn )b1 , . . . , bn := (A − λIn )n−1 b1 6= 0 ∈ Rn und Abn = λbn . Dann ist (b1 , . . . , bn ) eine Basis von Rn und (exp(tA)b1 , . . . , exp(tA)bn ) eine Basis von L. Es gilt f¨ ur 1 ≤ ` ≤ n und alle k ∈ N: n−` X k k−j k A b` = bj+` λ j j=0 und n−` j X t exp(tA)b` = exp(λt)( bj+` ) j! j=0 f¨ ur alle t ∈ R. Beweis. Wir zeigen k A b1 = n−1 X k−j λ j=0 k bj+1 j der Rest ergibt sich dann analog.Dazu wenden wir Induktion u ur k = 0 liest sich ¨ber k an. F¨ die Behauptung als b1 = b1 , da kj = 0 f¨ ur j > k. Der Induktionsschluss ist nicht schwerer: Pn−1 k−j k P λ (bj+2 + λbj+1 ) = λk−j kj bj+1 ) = j=0 Ak+1 b1 = A( n−1 j=0 Pn−1 k+1−j jk+1 Pn−1 k−j+1 k k ( j + j−1 )bj+1 = j=0 λ j=0 λ j bj+1 wobei wir der Einfachheit halber bn+1 := 0 setzen. q. e. d. Beispiel: Gesucht ist die L¨ osungsmenge des Differentialgleichungssystems u01 = −u1 − u2 − 3u02 u002 = −u2 − 2u02 Um daraus ein DGL-System erster Ordnung zu machen, setzen wir u02 =: u3 und erhalten u01 = −u1 − u2 − 3u3 u02 = u3 0 u3 = −u2 − 2u3 also u0 = Au wobei −1 −1 −3 0 1 A= 0 0 −1 −2 gilt. Das Minimalpolynom von A ist (x + 1)3 , also ist −1 der einzige Eigenwert von A und A ist ¨ahnlich zum Jordanblock −1 0 0 0 J := 1 −1 0 1 −1 Der Kern von (A + 1)2 ist Kern((A + 1)2 ) = h(1, 0, 0)tr , (0, 1, −1)tr i und enth¨alt nicht den 2. Basisvektor. Wir bilden also b1 = (0, 1, 0)tr , b2 = (A + 1)b1 = (−1, 1, −1)tr , b3 = (A + 1)b2 = (2, 0, 0)tr ¨ MATRIZEN. 6. NORMALFORMEN FUR und erhalten mit 45 0 −1 2 1 0 B= 1 0 −1 0 dass B −1 AB = J gilt. Die L¨ osungsmenge des DGL-Systems ergibt sich also als Erzeugnis von exp(−t)(t2 − t) exp(−t)(2t − 1) 2 exp(−t) exp(−t) , exp(tA)b3 = 0 . exp(tA)b1 = exp(−t)(t + 1) , exp(tA)b2 = exp(−t)(−t) − exp(−t) 0 46 ¨ MATRIZEN. KAPITEL 2. NORMALFORMEN FUR Kapitel 3 Gruppen und Operationen 7 Operationen von Gruppen auf Mengen. 7.1 Wiederholung und erste Beispiele. (V12) Wiederholung Gruppen: Eine Gruppe G ist eine Menge G mit einer Verkn¨ upfung · : G × G → G, die das Assoziativgesetz erf¨ ullt, ein Einselement enth¨alt und f¨ ur jedes g ∈ G ein inverses Element. Die Ordnung der Gruppe G ist die Anzahl der Elemente der Menge G, also eine nat¨ urliche Zahl, falls G endlich ist und ∞ falls G nicht endlich ist. Beispiele f¨ ur Gruppen sind die symmetrische Gruppe Sn := {π : n → n | π bijektiv } mit |Sn | = n!, die volle lineare Gruppe eines Vektorraums GL(V), die Gruppe der invertierbaren n × n-Matrizen u ¨ber einem kommutativen Ring R, GLn (R). Eine Gruppe G heißt zyklisch, falls es ein g ∈ G gibt mit G = {g z | z ∈ Z} =: hgi. Die zyklische Gruppe der Ordnung n bezeichnen wir auch mit Cn = (Z/nZ, +). Die Gruppe heißt Abelsch, falls zus¨ atzlich das Kommutativgesetz gilt, also gh = hg f¨ ur alle g, h ∈ G. Zyklische Gruppen sind Abelsch und nach dem Hauptsatz u ¨ber endlich erzeugte Abelsche Gruppen ist jede e.e. Abelsche Gruppe das direkte Produkt zyklischer Gruppen. Wiederholung Operation: Die Gruppe G operiert auf der Menge M falls es eine Abbildung G × M → M, (g, m) 7→ gm gibt mit • 1m = m f¨ ur alle m ∈ M • (gh)m = g(hm) f¨ ur alle m ∈ M , g, h ∈ G. Eine Menge M mit einer Operation von G nennt man auch G-Menge. Bemerkung 7.1. Die Gruppe G operiere auf der Menge M . Dann bildet die Menge aller Bahnen auf M unter G eine Partition BahnenG (M ) = {Gm | m ∈ M } auf M . Beweis. Eine Partition P ist eine Teilmenge P ⊂ Pot(M ) der Potenzmenge von M mit den Eigenschaften: 47 48 KAPITEL 3. GRUPPEN UND OPERATIONEN • ∅ 6∈ P. • F¨ ur X, Y ∈ P gilt entweder X = Y oder X ∩ Y = ∅. S • M = X∈P X. Diese Eigenschaften sind nun f¨ ur BahnenG (M ) zu u ufen: ¨berpr¨ • Gm 6= ∅, da m = 1m ∈ Gm. • Seien Gm, Gn ∈ BahnenG (M ). Angenommen Gm ∩ Gn 6= ∅. Dann gibt es x ∈ Gm ∩ Gn, also x = gm = hn f¨ ur geeignete g, h ∈ G. Dann ist aber m = g −1 x = g −1 (hn) = (g −1 h)n ∈ Gn und daher Gm ⊆ Gn, denn jedes um ∈ Gm ist von der Form um = (ug −1 h)n ∈ Gn. Aus Symmetriegr¨ unden gilt dann auch Gn ⊆ Gm also sind die beiden Bahnen gleich. Zwei Bahnen sind entweder gleich oder disjunkt. S • M = m∈M Gm, da die rechte Seite eine Teilmenge von M ist und umgekehrt jedes m ∈ M in seiner Bahn Gm liegt und daher auch in der Vereinigung auf der rechten Seite. q. e. d. Folgerung 7.2. G operiere auf M . Dann ist ∼G ⊂ M × M definiert durch a ∼G b genau dann wenn a und b in derselben Bahn liegen, also genau dann wenn ein g ∈ G existiert mit a = gb ¨ eine Aquivalenzrelation auf M . Definition 7.3. Sei G eine Gruppe. 1) U ⊆ G heißt Untergruppe von G, kurz U ≤ G, falls (a) U 6= ∅, (b) g, h ∈ U impliziert gh−1 ∈ U . 2) G operiere auf der Menge M . F¨ ur m ∈ M heißt StabG (m) := {g ∈ G|gm = m} der Stabilisator von m in G. Bemerkung 7.4. G operiere auf M . 1) F¨ ur m ∈ M gilt StabG (m) ≤ G. 2) Ist m ∈ M und g ∈ G, so gilt StabG (gm) = g StabG (m)g −1 . Beweis. 1.) 1m = m also ist 1 ∈ StabG (m) und somit StabG (m) 6= ∅. Sind g, h ∈ StabG (m), so gilt hm = m und somit auch h−1 m = h−1 (hm) = (h−1 h)m = 1m = m und ebenso (gh−1 )m = g(h−1 m) = gm = m also gh−1 ∈ StabG (m). 2.) Es gilt h ∈ StabG (gm) genau dann, wenn h(gm) = gm, also g −1 hgm = m, d. h. g −1 hg ∈ StabG (m) oder h ∈ g StabG (m)g −1 . 7. OPERATIONEN VON GRUPPEN AUF MENGEN. 49 Bemerkung 7.5. Sei G eine beliebige Gruppe und U ≤ G eine Untergruppe. Dann operiert U auf G durch inverse Rechtsmultiplikation: U × G → G, (u, g) 7→ gu−1 Die Bahnen heißen auch Linksrestklassen von U in G, gU = {gu−1 | u ∈ U } = {gu | u ∈ U } Die Menge der Linksrestklassen von G nach U bezeichnen wir mit G/U . Die Anzahl der Linksrestklassen von U in G heißt der Index [G : U ] von U in G. Folgerung 7.6. (Lagrange) Sei G eine endliche Gruppe und U ≤ G. Dann teilt die Ordnung von U die Ordnung von G: |U | | |G|. Der Quotient |G| |U | ist gleich dem Index von U in G. Beweis. Die Abbildung U → gU, u 7→ gu ist eine Bijektion. Also. haben je .zwei Restklassen aus der Partition G/UPvon G genau |U | Elemente. Nun ist G = g1 U ∪ g2 U . . . ∪ gs U mit s = [G : U ] q. e. d. und somit |G| = si=1 |gi U | = s|U |. Definition 7.7. Die Operation der Gruppe G auf dem K-Vektorraum V heißt linear, falls f¨ ur jedes g ∈ G die Abbildung gˆ : V → V : V 7→ gV linear ist. Beispiel. Sei M := F32 . Die symmetrische Gruppe G = S3 operiert auf M durch (π −1 , (a1 , a2 , a3 )) 7→ (aπ(1) , aπ(2) , aπ(3) ) Bahnen: {(0, 0, 0)}, {(1, 1, 1)}, {(1, 0, 0), (0, 1, 0), (0, 0, 1)}, {(1, 1, 0), (0, 1, 1), (1, 0, 1)}. Stabilisa1 2 3 toren: StabS3 (1, 0, 0) = {a := , id}. StabS3 (1, 1, 1) = S3 . 1 3 2 Diese Operation ist linear, z.B. ist bzgl. der Standardbasis S S a ˆ S 1 0 0 = 0 0 1 0 1 0 Operiert G auf der Menge M so erh¨ alt man einen Gruppenhomomorphismus G → SM , g → 7 gˆ. Operiert G linear auf dem Vektorraum V, so liefert dies einen Gruppenhomomorphismus G → GL(V) ≤ SV . Definition 7.8. Die Gruppe G operiere auf der Menge M . 1.) Die Operation heißt transitiv, falls M eine Bahn bildet, d. h. M = Gm f¨ ur ein m ∈ M ( und damit M = Gm f¨ ur jedes m ∈ M ). 2.) Die Operation von G auf M heißt regul¨ ar, falls sie transitiv ist und StabG (m) = {1} f¨ ur alle m ∈ M . 3.) Die Operation von G auf M heißt treu, falls gm = m f¨ ur alle m ∈ M impliziert g = 1. 50 KAPITEL 3. GRUPPEN UND OPERATIONEN Beispiel. Sei V ein endlich erzeugter K-Vektorraum und B(V) ⊂ V n die Menge der Basen von V. Dann sind die beiden Operationen GL(V) × B(V) → B(V) : (g, B) 7→ gB := (g(B1 ), . . . , g(Bn )) und GL(n, K) × B(V) → B(V) : (g, B) 7→ Bg −1 regul¨are Operationen. Beispiel. Sei M = {x ∈ K n | Ax = b} = 6 ∅ die L¨osungsmenge eines linearen GLS und V = {x ∈ K n | Ax = 0} die L¨ osungsmenge des zugeh¨origen homogenen Systems. Dann ist V ein K-Vektorraum, also insbesondere eine Gruppe. V operiert regul¨ar auf M durch Addition. Satz 7.9. Die Gruppe G operiere auf der Menge M . Folgende Aussagen sind ¨ aquivalent: 1.) G operiert regul¨ ar auf M . 2.) Zu je zwei m, n ∈ M gibt es genau ein g ∈ G mit gm = n. (Man ist versucht dieses g ∈ G → zu bezeichnen.) mit − mn 3.) F¨ ur jedes feste m0 ∈ M ist die Abbildung G → M : g 7→ gm0 bijektiv. 4.) Es existiert ein m0 ∈ M , so daß die Abbildung G → M : g 7→ gm0 bijektiv ist. Beweis. 1.) =⇒ 2.) Wegen der Transitivit¨at existiert ein g ∈ G mit gm = n. Angenommen es gibt ein weiteres h ∈ G mit hm = n. Dann ist h−1 g ∈ StabG (m) = {1G }, also h = g. 2.) =⇒ 3.) Definiert ist die Abbildung immer. Sie ist surjektiv, da G transitiv operiert. Sie ist injektiv wegen der Eindeutigkeit in 2.). 3.) =⇒ 4.) Klar. 4.) =⇒ 1.) StabG (m0 ) = {1G } wegen der Injektivit¨at in 4.). Wegen der Surjektivit¨at in 4.) ist die Operation auch transitiv. Ist m ∈ M beliebig, so haben wir ein g ∈ G mit gm0 = m. Also StabG (m) = StabG (gm0 ) = g StabG (m0 )g −1 = {1G } q. e. d. Ist ϕ : V → W eine lineare Abbildung von K-Vektorr¨aumen und W ∈ Bild(ϕ), so operiert Kern(ϕ) regul¨ ar auf der Faser ϕ−1 ({W }). Dies haben wir schon bei den L¨ osungsmengen linearer Gleichungssysteme gesehen: Die L¨osungsmenge des homogenen Systems ist ein Teilraum und operiert regul¨ar auf der L¨osungsmenge des inhomogenen Systems. Hat man eine partikul¨are L¨osung x0 des inhomogenen Systems gefunden, so ist {x0 + y | y L¨ osung des homogenen Systems } die L¨osungsmenge des inhomogenen Systems. Die Beobachtung wird auch der Ausgangspunkt f¨ ur die affine Geometrie sein. b) Ist V ein endlich erzeugter K-Vektorraumund T R1 (V) die Menge der eindimensionalen Teilr¨aume von V, so operiert GL(V) transitiv, aber nicht regul¨ar auf T R1 (V). Dies wird der Ausgangspunkt f¨ ur die projektive Geometrie sein. 7. OPERATIONEN VON GRUPPEN AUF MENGEN. 7.2 51 Die Konjugationsoperation. (V13) Definition 7.10. Sei G eine Gruppe. Dann operiert G auf sich selbst durch Konjugation, G × G → G, (g, m) 7→ κg (m) := gmg −1 . Die Bahnen unter dieser Operation heißen Konjugiertenklassen. Der Stabilisator von m ∈ G wird auch als Zentralisator bezeichnet CG (m) = {g ∈ G | gmg −1 = m}. Bemerkung: F¨ ur g ∈ G ist die Abbildung κg : G → G, m 7→ gmg −1 ein bijektiver Gruppenhomomorphismus von G in sich selbst, also ein Gruppenautomorphismus. Die Menge aller Gruppenautomorphismen von G bildet (zusammen mit dr Komposition) eine Gruppe Aut(G) und die Abbildung κ : G → Aut(G), g 7→ κg ist ein Gruppenhomomorphismus von G in ihre Automorphismengruppe. Das Bild von κ wird auch mit Inn(G) bezeichnet und heißt die Gruppe der inneren Automorphismen von G. Der Kern von κ ist ein Normalteiler von G und heißt das Zentrum Z(G) von G. Z(G) = {g ∈ G | gh = hg f¨ ur alle h ∈ G}. Beispiel. Die Diedergruppe der Ordnung 8 als Symmetriegruppe eines Quadrats. (Konjugiertenklassen, Zentrum etc. An Tafel vormachen) Wir wollen eine recht n¨ utzliche Schreibweise f¨ ur Permutationen endlicher Mengen M , also f¨ ur Elemente der SM , kennenlernen. Sie hat gegen¨ uber der offensichtlichen Schreibweise, wo man die Elemente von M in die erste Zeile einer 2 × |M |-Matrix schreibt und die Bilder dieser Elemente direkt unter diese in die zweite Zeile, viele Vorteile. Bemerkung 7.11. 1) Seien a1 , . . . , ak ∈ M genau k paarweise verschiedene Elemente. Dann heißt a 6∈ {a1 , a2 , . . . , ak } a ai+1 a = ai mit i < k (a1 , a2 , . . . , ak ) : M → M : a 7→ a1 a = ak ein k-Zykel oder kurz Zykel. Es gilt (a1 , a2 , . . . , ak ) ∈ SM und (a1 , a2 , . . . , ak ) = (ak , a1 , a2 , . . . , ak−1 ) und (a1 , a2 , . . . , ak )−1 = (ak , ak−1 , . . . , a1 ). 1-Zykel sind gleich der Identit¨ at, 2-Zykel sind Transpositionen. 2) Disjunkte Zykel kommutieren miteinander, d. h. (a1 , a2 , . . . , ak ) ◦ (b1 , b2 , . . . , bl ) = (b1 , b2 , . . . , bl ) ◦ (a1 , a2 , . . . , ak ), falls {a1 , a2 , . . . , ak } ∩ {b1 , b2 , . . . , bl } = ∅. (In Zukunft lassen wir ◦ einfach weg.) 3) Jedes f ∈ SM l¨ aßt sich als Produkt disjunkter Zykel schreiben, falls M endlich ist. Diese Schreibweise ist eindeutig bis auf Reihenfolge der Zykel. Beweis. 1) und 2) klar. 3) Die Existenz zeigen wir mit einem Algorithmus: Eingabe: f ∈ SM (Beachte: M ist endlich) 52 KAPITEL 3. GRUPPEN UND OPERATIONEN Algorithmus: Setze N := M . Solange N 6= ∅ ist, w¨ahle a ∈ N und finde kleinstes k mit f k (a) = a. Dann ist za := (a, f (a), . . . , f k−1 (a)) ein Zykel. Ersetze N durch N − {a, f (a), . . . , f k−1 (a)}. Ausgabe: Menge der disjunkten Zykel za . Ihr Produkt ist gleich f . ¨ Eindeutigkeit: Ubung. q. e. d. Beispiel: (1, 2, 3, 4, 5) ◦ (2, 3, 4, 5) = (1, 2, 4)(3, 5) ∈ S6 . Wir schauen uns die Konjugationsoperation in der symmetrischen Gruppe genauer an. Satz 7.12. F¨ ur π∈ Sn sei ai (π) = Anzahl der Zykel der L¨ ange i in disjunkter Zykelzerlegung von π und a(π) := (a1 (π), . . . , an (π)) der Zykelz¨ ahler. Es gilt: π, ρ∈ Sn sind konjugiert in Sn , genau dann wenn a(π) = a(ρ). Beweis. 1) Konjugieren ¨ andert den Zykelz¨ahler nicht: Seien π, σ∈ Sn mit π = (α1 , . . . , αk )(β1 , . . . , βl ) . . . in disjunkter Zykelzerlegung. Dann ist σ π = σπσ −1 = (σ(α1 ), . . . , σ(αk ))(σ(β1 ), . . . , σ(βl )) . . . die disjunkte Zykelzerlegung von σ π. Insbesondere hat sich der Zykelz¨ahler nicht ver¨andert. 2) Umgekehrt: Sei a(π) = a(ρ). Ordnet man bei beiden Permutationen die Zykel (aus der disjunkten Zykelzerlegung) der L¨ ange nach, so stehen im folgenden Schema die Zykel gleicher L¨ange untereinander: π = (α1 , . . . , αk )(β1 , . . . , βl ) . . . ρ = (α10 , . . . , αk0 )(β10 , . . . , βl0 ) . . . in disjunkter Zykelzerlegung. Also definiere σ ∈ Sn durch σ : αi → αi0 ; βj → βj0 etc. Dann gilt σ π = ρ. q. e. d. P ¨ Ubung: Zeige jedes a ∈ Zn≥0 mit iai = n kommt als Zykelz¨ahler eines Elementes von Sn vor. Wieviele Konjugiertenklassen hat S6 ? Was haben Zykelz¨ahler mit Partitionen der Zahl n zu tun? Beispiel zur Konjugation in der Sn : 1) Gegeben seien π = (1, 2)(3, 4, 5, 6, 7)(8, 9), ρ = (9, 4)(1, 2, 3, 7, 6)(5, 8) ∈ S9 . Suche ein τ ∈ S9 mit τ π = ρ. L¨osung: π = (1, 2)(3, 4, 5, 6, 7)(8, 9) ρ = (9, 4)(1, 2, 3, 7, 6)(5, 8) Also τ = (1, 9, 8, 5, 3)(2, 4)(6, 7) ist eine L¨osung. Gibt es andere L¨ osungen? Z. B. π = (1, 2)(3, 4, 5, 6, 7)(8, 9) ρ = (5, 8)(2, 3, 7, 6, 1)(9, 4) liefert weitere L¨ osung τ = (1, 5, 7)(2, 8, 9, 4, 3). Beachte, die L¨osungen bilden eine Restklasse nach CS9 (π). Man sieht leicht, die Elemente von CS9 (π) entsprechen genau den M¨oglichkeiten 7. OPERATIONEN VON GRUPPEN AUF MENGEN. 53 eine disjunkte Zykelzerlegung von π kompatibel unter die gegebene disjunkte Zykelzerlegung von π zu schreiben. Also |CS9 (π)| = 2 · 22 · 5. 2. Bestimme CS10 ((1, 2, 3)). L¨osung: CS10 ((1, 2, 3)) = {π∈ S10 |π (1, 2, 3) = (1, 2, 3)} = {π∈ S10 |(π(1), π(2), π(3)) = (1, 2, 3)} Also π = (1, 2, 3)i ρ mit ρ ∈ S10 , ρ(i) = i f¨ ur i = 1, 2, 3. Kurz CS10 ((1, 2, 3)) = h(1, 2, 3)i × S10−3 7.3 Parametrisierung aller transitiver G-Mengen. ¨ Definition 7.13. (Ahnlichkeit von G-Mengen) Sei G eine Gruppe, M, N zwei G-Mengen. Dann heißen M und N ¨ ahnlich, falls es eine Bijektion ϕ : M → N gibt mit ϕ(gm) = gϕ(m) f¨ ur alle ¨ g ∈ G, m ∈ M (in Zeichen M ≡ N ). ϕ heißt auch eine Ahnlichkeit der G-Mengen M und N . Eine Abbildung ϕ : M → N heißt G-¨ aquivariant, genau dann, wenn ϕ(gm) = gϕ(m) f¨ ur alle g ∈ G, m ∈ M . ¨ Eine Ahnlichkeit ist also eine G-¨ aquivariante Bijektion. Beispiel. Sind U ≤ S ≤ G Untergruppen von G, so ist die Abbildung G/U → G/S, gU 7→ gS eine G-¨aquivariante Abblidung. Satz 7.14. Die Gruppe G operiere transitiv auf der Menge M , sei m ∈ M und S := StabG (m). Dann sind M und G/S als G-Mengen ¨ ahnlich: ϕ : M −→ G/S : gm 7→ gS ¨ ist eine G-Ahnlichkeit. Beweis. Offenbar ist Ψ : G → M : g 7→ gm eine surjektive G-¨aquivariante Abbildung, wobei G durch Linksmultiplikation auf sich operiert. Die Fasern dieser Abbildung sind gerade die Linksrestklassen von G nach S: Ψ−1 ({gm}) = gS f¨ ur alle g ∈ G. Also (nach dem Homomorphiesatz f¨ ur Mengen aus dem 1. Semester) faktorisiert Ψ u ¨ber G/S mit einer Bijektion ψ : G/S → M : gS 7→ gm, die offensichtlich G-¨ aquivariant ist. Klar: ϕ = ψ −1 und ϕ ist auch G-¨aquivariant. q. e. d. Folgerung 7.15. Die Gruppe G operiere auf der Menge M . Sei m∈M mit |Gm| < ∞ und S = StabG (m). Dann gilt: Die L¨ ange der Bahn ist gleich dem Index des Stabilisators: |Gm| = [G : S] (:= |G/S|). Insbesondere, falls |G| < ∞, so gilt: |Gm| = |G| . |S| 54 KAPITEL 3. GRUPPEN UND OPERATIONEN Beispiel. Sei Fq ein K¨ orper mit q = pn Elementen. (Bestimmung der Ordnung der vollen linearen Gruppe): Es gilt | GLn (Fq )| = (q n − 1) · (q n − q) · . . . · (q n − q n−1 ), wobei GL(n, q) := GLn (Fq ) = {X ∈ Fqn×n | det X 6= 0} mit Fq ein endlicher K¨ orper mit q Elementen. Beweis. GL(n, q) operiert transitiv auf Fqn×1 \{0} mit Bahnl¨ange q n − 1. Der Stabilisator von (1, 0, . . . , 0)tr ∈ Fn×1 in GL(n, q) ist q 1 1 ∗···∗ 0 0 | ∗∈Fq , X∈ GL(n − 1, q) StabGL(n,q) ( . ) = . .. X .. 0 0 und hat die Ordnung | StabGL(n,q) (1, 0, . . . , 0)tr | = q n−1 · | GL(n − 1, q)|. Nach dem Hauptsatz 7.14 gilt also | GL(n, q)| = (q n − 1) · q n−1 · | GL(n − 1, q)|. Mit | GL(1, q)| = q − 1 folgt die Behauptung durch Induktion. Beispiel: (Gaußsche Binomialkoeffizienten) : GL(n, q) operiert auf der Menge der Fq -Teilr¨aume von Fn×1 q U(Fn×1 , Fq ) := {X | X ≤Fq Fn×1 }. q q Die Bahnen dieser Operation sind Uk (Fn×1 , Fq ), die Menge der k-dimensionalen Teilr¨aume von q n×1 Fq . Sei U = h(1, 0, . . . , 0)tr , (0, 1, 0, . . . , 0)tr , . . . , (0, . . . , 0, 1, 0, . . . , 0)tr iFq ≤Fq Fn×1 q | {z } k−1 Dann ist StabGL(n,q) (U ) = X Y 0 Z | X ∈ GL(k, q), Z ∈ GL(n − k, q), Y ∈Fqk×(n−k) . Die L¨ange der Bahn ist |Uk (Fn×1 , Fq )| q | GL(n, q)| = =: | GL(k, q)| · | GL(n − k, q)| · q k(n−k) n k q der Gaußsche Binomialkoeffizient. ¨ Beispiel: GLn (Fq ) operiert auf Fn×n durch Konjugation. Die Bahnen sind die Ahnlichkeitsklasq sen von Matrizen, von denen wir eine Parametrisierung im vorherigen Kapitel kennengelernt haben. Der Stabilisator einer Matrix A ist CFn×n (A)∗ , die Einheitengruppe des Zentralisators. q ¨ Ihr Index gibt an, wieviele Matrizen zu A ¨ahnlich sind. In der Ubung machen Sie n = 3, p = 2 hier nur kurz n = 2, p = 2: 7. OPERATIONEN VON GRUPPEN AUF MENGEN. 7.4 µA χA x x2 x+1 (x + 1)2 x2 x2 (x + 1)2 (x + 1)2 x(x + 1) x(x + 1) x2 + x + 1 x2 + x + 1 Vertreter 0 0 0 0 1 0 0 1 0 1 0 0 1 1 0 1 1 0 0 0 0 1 1 1 55 |C ∗ | Anzahl 6 1 6 1 2 3 2 3 1 6 3 2 Anzahl der Bahnen des Stabilisators. (V14) F¨ ur unsere geometrischen Anwendungen der Gruppentheorie ist die folgende Bemerkung grundlegend. Bemerkung 7.16. Die Gruppe G operiere auf den Menge M und N . 1) G operiert auf M × N durch G × (M × N ) → M × N : (g, (m, n)) 7→ (gm, gn). Diese Operation heißt diagonale Operation. 2.) Ist die Operation von G auf M transitiv, dann gibt es eine Bijektion zwischen der Menge der Bahnen von G auf M × N und der Menge der StabG (m)-Bahnen auf N f¨ ur jedes (feste) m ∈ M: (M × N )/G := (M × N )/ ∼G → N/ StabG (m) : G(m, n) 7→ StabG (m)n. ∼ (M × N )/G − → N/ StabG (m) ¨ Beweis. 1.) Ubung. 2.) Wir zeigen, daß diese Abbildung wohldefiniert ist: Wegen der Transitivit¨ at von G auf M ist jede Bahn von G auf M × N von der Form G(m, n) = {(gm, gn)|g ∈ G}. Gilt G(m, n) = G(m, n0 ) f¨ ur ein n0 ∈ N , so sind offenbar n und n0 in derselben Bahn unter StabG (m). Also ist die Abbildung wohldefiniert. Offenbar ist die Abbildung surjektiv. Wir zeigen die Injektivit¨at: StabG (m)n = StabG (m)n0 impliziert offenbar G(m, n) = G(m, n0 ). Also haben wir insgesamt eine Bijektion. q. e. d. Beispiel. Sei V ein endlich erzeugter K-Vektorraum. Dann operiert G := GL(V) auf V − {0} transitiv. Der Stabilisator eines V ∈ V − {0} hat dann jedes Vielfache 6= 0 von V als Bahn, sowie die Menge aller Vektoren, die linear unabh¨angig von V sind. Die Bahnen von GL(V) auf (V − {0}) × (V − {0}) sind also gegeben durch {(V, aV ) | 0 6= V ∈ V}, a ∈ K und {(V, W ) | (V, W ) linear unabh¨ angig .}. 56 KAPITEL 3. GRUPPEN UND OPERATIONEN In Matrizen: V = K n×1 , G = GL(n, K), Operation durch Linksmultiplikation. Der Stabilisator des ersten Standardbasisvektors E1 := (In )−,1 ist 1 a |a ∈ K 1×(n−1) , A ∈ GL(n − 1, K)} StabG (E1 ) := { 0 A und hat die folgenden Bahnen auf V: {aE1 } mit a ∈ K und V − {aE1 |a ∈ K}. Beispiel. Sei V ein endlich erzeugter K-Vektorraum. Dann operiert G := GL(V) auf dem Dualraum V ∗ linear und treu durch G × V ∗ → V ∗ : (g, ϕ) 7→ (g −1 )tr (ϕ) = ϕ ◦ g −1 . Der Stabilisator eines ϕ ∈ V ∗ − {0} operiert auf jeder Faser ϕ−1 ({a}) mit a ∈ K, also auf jeder Restklasse nach Kern(ϕ). Das Studium der Operation von StabG (ϕ) auf ϕ−1 ({1}) heißt affine Geometrie und wird uns noch ausf¨ uhrlich besch¨aftigen. In Matrizen: V = K n×1 , G = GL(n, K), die Operation auf K 1×n , dem bekanntlich V ∗ entspricht, ist gegeben durch G × K 1×n → K 1×n : (g, Z) 7→ Zg −1 . Der Stabilisator des letzten Standardbasisvektors Zn := (In )n,− ist A a StabG (Zn ) := { |a ∈ K (n−1)×1 , A ∈ GL(n − 1, K)}. 0 1 Die Operation dieser Gruppe auf { S 1 |S ∈ K (n−1)×1 } wird also affine Geometrie sein. Man beachte: A a S AS + a = . 0 1 1 1 Beispiel. (weggelassen) Sei V ein endlich erzeugter K-Vektorraum. Dann operiert G := GL(V) linear, jedoch nicht treu auf Bifo+ (V) durch G × Bifo+ (V) : (g, Φ) 7→ gΦ mit (gΦ)(V, W ) = Φ(g −1 (V ), g −1 (W )). Der Stabilisator StabG (Φ) wird mit O(V, Φ) bezeichnet und heißt orthogonale Gruppe von (V, Φ). Die Operation der orthogonalen Gruppe auf V ist wieder von erheblichem Interesse; wir haben lediglich den Fall K = R und Φ positiv definit im letzten Semester im Rahmen der Euklidischen Vektorraumtheorie durchgef¨ uhrt. Der Sylvestersche Tr¨agheitssatz beschreibt uns die Bahnen der obigen Operation durch die Signatur als trennende Invariante im reellen Fall. Signatur (1, n − 1, 0) ist in der Relativit¨atstheorie von zentraler Bedeutung: (V, Φ) heißt dann Minkowski-Raum und O(V, Φ) im Falle n = Dim(V) = 4 die Lorentz-Gruppe. Im komplexen Fall hatten wir gesehen, daß die Dimension Dim(V ⊥,Φ ) des Radikals eine trennende 8. HOMOMORPHISMEN UND NORMALTEILER. (V15) 57 Invariante ist. F¨ ur andere K¨ orper ist die Situation sehr viel komplizierter. n×n durch In Matrizen: G := GL(n, K) operiert auf Ksym n×n G × Ksym : (g, F ) 7→ g −tr F g −1 . Den Stabilisator von F = Diag(1, . . . , 1, −1, . . . , −1) bezeichnet man mit O(k, n − k, R) im Falle | {z } | {z } k n−k K = R. 8 Homomorphismen und Normalteiler. (V15) Definition 8.1. Seien G und H Gruppen. Eine Abbildung ϕ : G → H heißt ein Gruppenhomomorphismus genau dann wenn ϕ(g1 g2 ) = ϕ(g1 )ϕ(g2 ) f¨ ur alle g1 , g2 ∈ G. Beispiel: G operiere auf M . Dann ist ϕ : G → SM , g 7→ (m 7→ gm) ein Gruppenhomomorphismus. Ist M = V ein K-Vektorraum, so ist die Operation genau dann linear, wenn das Bild dieses Gruppenhomomorphismus in der linearen Gruppe GL(V) liegt. Satz 8.2. Sei ϕ : G → H ein Gruppenhomomorphismus. Dann ist Bild(ϕ) = {ϕ(g) : g ∈ G} eine Untergruppe von H und K := Kern(ϕ) := {g ∈ G | ϕ(g) = 1} eine Untergruppe von G. Es gilt sogar gKg −1 = K f¨ ur alle g ∈ G. Eine Untergruppe U ≤ G mit gU g −1 = U f¨ ur alle g ∈ G heißt Normalteiler von G. Beweis. F¨ ur n ∈ Kern(ϕ), g ∈ G ist ϕ(gng −1 ) = ϕ(g)ϕ(n)ϕ(g)−1 = ϕ(g)ϕ(g)−1 = 1 also auch gng −1 ∈ Kern(ϕ). q. e. d. Konkrete Beispiele fu ¨ r Normalteiler a) Ist G beliebige Gruppe, so sind {1} und G Normalteiler von G. Man nennt sie triviale Normalteiler. b) sign : Sn → ({1, −1}, ·) ist ein Homomorphismus. Der Kern ist also ein Normalteiler vom Index 2 von Sn . An := Kern(sign) heißt die alternierende Gruppe vom Grad n. Ihre Elemente heißen gerade Permutationen. c) det : GL(n, K) → K ∗ := (K − {0}, ·) ist ein Homomorphismus f¨ ur jeden K¨orper K. Also ist sein Kern ein Normalteiler von GL(n, K). Dieser wird mit SL(n, K) bezeichnet und heißt spezielle lineare Gruppe vom Grad n. T ¨ d) (in Ubung): Sei U ≤ G eine Untergruppe von G. Dann ist Core(U ) := g∈G gU g −1 der gr¨oßte Normalteiler von G, der in U enthalten ist. Es gilt Core(U ) = Kern(G → SG/U ). (e) Ist G eine abelsche Gruppe (also gh = hg f¨ ur alle g, h ∈ G), so ist jede Untergruppe von G ein Normalteiler. Bemerkung: Eine Untergruppe N ≤ G ist genau dann ein Normalteiler von G, wenn sie Vereinigung von Konjugiertenklassen ist. Mithilfe dieser Bemerkung bestimmt man leicht alle Normalteiler von S4 : S4 , A4 , V4 , {1}. Satz 8.3. Sei N ein Normalteiler von G. Dann bildet die Menge der Restklassen G/N = {gN | g ∈ G} eine Gruppe unter vertreterweiser Multiplikation G/N × G/N → G/N, (gN )(hN ) := (gh)N. 58 KAPITEL 3. GRUPPEN UND OPERATIONEN upfung wohldefiniert Beweis. Es ist klar, dass wir eine Gruppe vorliegen haben, sobald die Verkn¨ ist, da die Rechenregeln dann aus denen von G folgen. Zur Wohldefiniertheit: Sei g 0 = gn ∈ gN und h0 = hm ∈ hN . Dann gilt (g 0 h0 )N = (gnhm)N = (gh)(h−1 nh)mN = (gh)N. q. e. d. Normalteiler sind genau die Untergruppen N f¨ ur die die Faktorgruppe G/N wieder eine Gruppe ist. Beispiel: Die S3 = StabS4 (4) ist kein Normalteiler von S4 . Zum einen da π StabS4 (4)π −1 = StabS4 (π(4)) ist, zum anderen aber auch, da die Restklassen {S3 , aS3 , a2 S3 , a3 S3 } mit a = (1, 2, 3, 4) keine Gruppe bilden. Es ist (aS3 )2 = {ahag | g, h ∈ S3 } = S4 . Bemerkung: Eine Untergruppe N ist genau dann ein Normalteiler von G, wenn gN = N g ist f¨ ur alle g ∈ G. Insbesondere sind Untergruppen von Index 2 immer Normalteiler, denn es ist G = N ∪ gN = N ∪ N g, also gN = G \ N = N g. Die Bausteine aller endlichen Gruppen sind die endlichen einfachen Gruppen, das sind die endlichen Gruppen, die nur sich selbst und {1} als Normalteiler haben. Definition 8.4. Eine Gruppe G 6= {1} heißt einfach, falls G und {1} die einzigen Normalteiler von G sind. Beispiel. Eine zyklische Gruppe Cn ist genau dann einfach, wenn n eine Primzahl ist. ¨ Beispiel. In der Ubung werden Sie zeigen, dass A5 eine einfache Gruppe ist. Hauptsatz 8.5. (Homomorphiesatz fu ¨ r Gruppen) 1) Ist G Gruppe und N E G ein Normalteiler von G, dann bildet die Menge G/N der Restklassen von G nach N eine Gruppe mit vertreterweiser Multiplikation: gN · hN := ghN f¨ ur alle g, h ∈ G und der natu ¨ rliche Epimorphismus ν = νN : G → G/N : g 7→ gN ist ein surjektiver Homomorphismus mit Kern N . 2) Ist ϕ : G → H ein Gruppenhomomorphismus, so ist Kern ϕ ein Normalteiler von G und Bild ϕ eine Untergruppe von H. Weiter definiert ϕ˜ : G/ Kern ϕ → H : g Kern ϕ 7→ ϕ(g) einen Monomorphismus und ϕ faktorisiert ϕ = ϕ˜ ◦ νKern ϕ , d. h. das Diagramm G ϕ − → νKern ϕ & H % ϕ˜ G/ Kern ϕ kommutiert. Insbesondere sind G/ Kern ϕ und Bild ϕ ≤ H isomorph. 8. HOMOMORPHISMEN UND NORMALTEILER. (V15) 59 Beweis. 1) Diesen Teil haben wir bereits bewiesen in Satz 8.3. 2) Genauso wie im Homomorphiesatz f¨ ur Mengen zeigt man, dass ϕ˜ wohldefiniert und injektiv ist. Es bleibt die Homomorphieeigenschaft von ϕ˜ zu u ufen: Setze N := Kern ϕ und seien ¨berpr¨ g, h ∈ G. Dann gilt: ϕ(gN ˜ hN ) = ϕ(gh) = ϕ(g)ϕ(h) = ϕ(gN ˜ )ϕ(hN ˜ ). Dass νKern ϕ ein Epimorphismus ist, wissen wir bereits. Die Komposition ϕ˜ ◦ νKern ϕ = ϕ rechnet man leicht nach. q. e. d. Satz 8.6. (Noetherscher Isomorphiesatz) Sei N ein Normalteiler von G und U ≤ G. Dann ist U N ≤ G, und N ∩ U E U und es gilt U N/N ∼ = U/U ∩ N. Beweis. Wegen N U = U N folgt U N ≤ G. Offenbar ist N auch ein Normalteiler von U N und somit µ : U → U N/N : u 7→ uN ein Homomorphismus mit Kern U ∩ N und Bild U N/N . Die Behauptung folgt aus dem Homomorphiesatz. q. e. d. Definition 8.7. Eine Gruppe G heißt semidirektes Produkt, falls es einen Normalteiler N E G und eine Untergruppe U ≤ G gibt mit (a) N U = G und (b) N ∩ U = {1}. In Zeichen G = N o U . Beispiel S4 = V4 o S3 wobei es egal ist, welche der 4 Untergruppen S3 in S4 gew¨ahlt wird. Beachten Sie, alle Elemente 6= 1 in V4 haben keine Fixpunkte auf {1, 2, 3, 4}, also ist V4 ∩ S3 = 1. Beispiel A a Aff n (K) := { |a ∈ K n×1 , A ∈ GL(n, K)}. = K n×1 o GLn (K) 0 1 Dabei ist K n×1 In a ={ | a ∈ K n×1 } der Kern des Gruppenhomomorphismus 0 1 Aff n (K) → GLn (K), und GLn (K) die Untergruppe GLn (K) = A 0 0 1 A a 0 1 7→ A ≤ Aff n (K). Bemerkung 8.8. In einem semindirekten Produkt G = N oU hat jedes Element eine eindeutige Darstellung als nu mit n ∈ N , u ∈ U . Es gilt n1 u1 n2 u2 = n1 (u1 n2 u−1 1 )u1 u2 60 KAPITEL 3. GRUPPEN UND OPERATIONEN Kapitel 4 Geometrie 9 Affine Geometrie Lernziel: Definition und Modelle des affinen Raumes, affine Abbildungen, Invarianten der affinen Geometrie. 9.1 Der affine Raum. (V15) In der affinen Geometrie hat man einen Punktraum, dessen Punkte in Bijektion zu einem Vektorraum stehen, welcher in bestimmter Weise auf dem Punktraum (durch Translationen oder Verschiebungen) operiert. Der wesentliche Unterschied zum Vektorraum besteht darin, dass kein Punkt (Nullpunkt) mehr ausgezeichnet ist. Begriffe wie Geraden, Ebenen etc. lassen sich leicht als sogenannte affine Unterr¨ aume definieren. Definition 9.1. Sei V ein K-Vektorraum. Ein affiner Raum u ¨ber V ist eine nicht leere Menge A, genannt Punktmenge, auf der V regul¨ ar 1 operiert. Genauer ist ein affiner Raum ein Tripel (A, V, τ ), wobei τ : V × A → A : (V, P ) 7→ τV (P ) eine regul¨ are Operation des Vektorraumes V auf dem Punktraum A ist. Die Abbildung τV : A → A heißt die Translation um den Vektor V von A. Der Vektorraum V wird auch als Translationsraum von A bezeichnet: T (A) := V. (Bezeichnung: Oft schreiben wir V + P oder P + V anstatt τV (P ). Diese Schreibweise soll nicht implizieren, dass A = V ist.) Bem: Jeder Vektorraum V ist ein affiner Raum mit Translationsraum V. Das Modell A = V = T (A) hat den Nachteil, dass nicht zwischen den Punkten (Elementen von A) und den Vektoren 2 unterschieden wird. Daher bevorzugen wir das folgende Modell: Beispiel 9.2. (unser Standardbeispiel) Ist V˜ ein K-Vektorraum mit nicht verschwindender Linearform ϕ : V˜ → K. Setze V := Kern(ϕ) und A(ϕ) := ϕ−1 ({1}). Dann ist (A(ϕ), V, τ ) mit τ : V × A(ϕ) → A(ϕ) : (V, P ) 7→ V + P in V˜ gerechnet ein affiner Raum. Wir setzen speziell f¨ ur V˜ = K (n+1)×1 und ϕ ∈ (K (n+1)×1 )∗ die Projektion auf die letzte Komponente: X An (K) := A(ϕ) = { |X ∈ K n×1 } 1 1 Da V eine abelsche Gruppe ist, sind die Begriffe regul¨ are Operation“ einerseits sowie treue und transitive ” ” Operation“ andererseits ¨ aquivalent. 2 vector (lat.): jemand, der tr¨ agt, zieht oder bef¨ ordert 61 62 KAPITEL 4. GEOMETRIE und nennen ihn den n-dimensionalen affinen Standardraum. Genau genommen ist T (An (K)) = { X 0 |X ∈ K n×1 }, was wir aber mit dem Vektorraum K n×1 identifizieren. Bemerkung 9.3. Sei A ein affiner Raum u ¨ber dem K-Vektorraum V. 1) F¨ ur jeden Punkt P0 ∈ A ist V → A : V 7→ τV (P0 ) eine Bijektion. 2) F¨ ur jedes Punktepaar (P, Q) ∈ A2 gibt es genau einen Vektor V ∈ V mit τV (P ) = Q. −−→ Bezeichnung: V =: P Q. Beweis. Spezialfall von Satz 7.9 q. e. d. −−→ −−→ −−→ −−→ ¨ Ubung: Zeige f¨ ur P, Q, P 0 , Q0 ∈ A gilt P Q = P 0 Q0 genau dann, wenn P P 0 = QQ0 . (Hinweis: Skizze!) Wir kommen zur Definition affiner Teilr¨aume. Definition 9.4. Sei (A, V, τ ) affiner Raum u aum V. A0 ⊆ A heißt affiner ¨ber dem K-Vektorr¨ Teilraum von A, falls ein Teilvektorraum W ≤ V existiert, so dass (A0 , W, τ|W×A0 ) ein affiner Raum u ¨ber W ist. Bemerkung 9.5. Sei A affiner Raum u ¨ber V := T (A). 1) Der Translationsraum eines affinen Teilraums A0 von A ist eindeutig bestimmt. −−→ T (A0 ) = {P Q | P, Q ∈ A0 }. 2) Zu jedem W ≤ V und jedem P ∈ A gibt es genau einen affinen Teilraum A0 von A mit P ∈ A0 und Translationsraum T (A0 ) = W, n¨ amlich P + W = W + P := τ (W × {P }), die Bahn von P unter W. Beweis. 1) Sofort aus 9.3. 2) Existenz: Verifiziere Eigenschaften f¨ ur P + W. Eindeutigkeit analog zu 1). q. e. d. Bemerkung 9.6. Der Schnitt affiner Teilr¨ aume eines affinen Raumes A ist entweder leer oder wieder ein affiner Teilraum. Sind Ai (i ∈ I) affine Teilr¨ aume von A und ist P ∈ ∩i∈I Ai , so ist ∩i∈I Ai = P + ∩i∈I T (Ai ) = {τV (P ) | V ∈ ∩i∈I T (Ai )}. Ist ∅ = 6 M ⊂ A eine Teilmenge, so sei das affine Erzeugnis von M der kleinste affine Teilraum, T der M enth¨ alt: hM ia := M ⊂B≤A B. Wie sieht das affine Erzeugnis einer zweipunktigen Teilmenge von A aus? 9. AFFINE GEOMETRIE 9.2 63 Affine Abbildungen. (V16) Nun kommen wir zur Definition affiner Abbildungen. Diese bilden einen ganz wesentlichen Bestandteil der Definition des affinen Raumes, weil wir sonst nicht wissen, wie wir vergleichen k¨onnen. Es liefert auch eine neue Charakterisierung der affinen Teilr¨aume: Die nicht leeren Fasern affiner Abbildungen werden die affinen Teilr¨aume sein. Definition 9.7. Seien A, A0 affine R¨ aume u aumen V, V 0 . ¨ber den K-Vektorr¨ 0 f : A → A heißt affine Abbildung, falls eine lineare Abbildung f : V → V 0 existiert mit −−−−−−→ −−→ f (P )f (Q) = f (P Q) f¨ ur alle P, Q ∈ A. f heißt auch der lineare Anteil von f . Bemerkung 9.8. Seien A, A0 affine R¨ aume mit Translationsvektorraum V = T (A) und V 0 = 0 T (A ). Sei P0 ∈ A fest gew¨ ahlt. (a) Jede affine Abbildung f : A → A0 ist eindeutig festgelegt durch ihren linearen Anteil f und f (P0 ). −−→ Ist n¨ amlich f (P0 ) =: Q0 ∈ A0 so ist f¨ ur P ∈ A und V := P0 P ∈ V (so dass P = τV (P0 )) −−−−−→ −−−−−−−→ Q0 f (P ) = f (P0 )f (P ) = f (V ) also f (P ) = τf (V ) (Q0 ). (b) F¨ ur jeden Punkt Q0 ∈ A0 und jede lineare Abbildung ϕ : V → V 0 gibt es genau eine affine Abbildung f : A → A0 mit f (P0 ) = Q0 und f = ϕ. Es ist f injektiv (surjektiv, bijektiv), genau dann wenn f injektiv (surjektiv, bijektiv) ist. ¨ Ubung: Translationen sind affine Abbildungen, deren linearer Anteil die Identit¨at des Translationsraumes ist. Sie sind auch die einzigen affinen Abbildungen eines affinen Raumes in sich mit dieser Eigenschaft. Beispiel. Affine Abbildungen von An (K). W¨ahle P0 = (0, . . . , 0|1)tr ∈ An (K). Die affine AbbilS n×1 ) und dung f mit linearem Anteil S f = A (bzgl. der Standardbasis S von T (A n (K)) =K A b . f (P0 ) = Q0 = (b1 , . . . , bn |1)tr ist gegeben durch Matrixmultiplikation mit 0 1 Satz 9.9. 1) Kompositionen affiner Abbildungen sind affin: Sind A, A0 , A00 affine R¨ aume u ¨ber K-Vektorr¨ aumen mit affinen Abbildungen f : A → A0 und f 0 : A0 → A00 , so ist f 0 ◦ f : A → A00 affin mit f 0 ◦ f = f 0 ◦ f . −1 2) Ist f : A → A0 affin und bijektiv, so ist f −1 : A0 → A ebenfalls affin mit f −1 = f . (Man sagt, f ist ein affiner Isomorphismus.) Insbesondere ist Aff(A) := {f : A → A|f affin und bijektiv } eine Gruppe (Untergruppe von SA , der symmetrischen Gruppe von A), genannt die affine Gruppe von A, und Aff(A) → GL(T (A)) : f 7→ f ein Homomorphismus von Gruppen. 3) Ist f : A → A0 affin und A00 ein affiner Teilraum von A, so ist f (A00 ) ein affiner Teilraum von A0 mit T (f (A00 )) = f (T (A00 )). 4) Ist f : A → A0 affin und A00 ein affiner Teilraum von A0 , so ist f −1 (A00 ) leer oder ein affiner −1 Teilraum von A mit T (f −1 (A00 )) = f (T (A00 )). 64 KAPITEL 4. GEOMETRIE ur P, Q ∈ A ist Beweis. 1) F¨ −−− −−−−−−−−−−−−−→ −−−−−−−−−−−−→ (f 0 ◦ f )(P )(f 0 ◦ f )(Q) = f 0 (f (P ))f 0 (f (Q)) = −−−−−−→ −−→ f 0 (f (P )f (Q)) = (f 0 ◦ f )(P Q). 2)Wegen der Identifikation von A mit T (A) und A0 mit T (A0 ) ist klar, dass f : T (A) → T (A0 ) ¨ bijektiv ist. (Genauer Beweis: Ubung!). Zeige nur noch −− −−−−−−−−−→ −1 −−→ f −1 (P 0 )f −1 (Q0 ) = f (P 0 Q0 ) f¨ ur alle P 0 , Q0 ∈ A0 . Dies ist aber a ¨quivalent zu −−−−−−−−−−−→ −−→ f (f −1 (P 0 )f −1 (Q0 )) = P 0 Q0 . ¨ 3) Ubung. 4) Leicht mit 9.5 Teil 2. q. e. d. Wir k¨onnen etwas unscharf sagen, dass affine Geometrie das Studium von Eigenschaften ist, welche unter affinen Isomorphismen erhalten bleiben, oder auch das Studium der Invarianten der affinen Gruppe bei diversen Operationen. Hier ein Anfang: Die Dimension. Satz 9.10. Zwei affine R¨ aume A und A0 u orper K sind genau dann affin ¨ber demselben K¨ isomorph, wenn Dim T (A) = Dim T (A0 ). Man nennt Dim A := Dim T (A) die Dimension des affinen Raumes A. Insbesondere ist A affin isomorph zu An (K) f¨ ur n = Dim A. Ein affiner Isomorphismus A → An (K) heißt affines Koordinatensystem. Je nach Pr¨aferenz w¨ urde man eher einen affinen Isomorphismus auf A(K n×1 ) als affines Koordinatensystem bezeichnen. Wir bevorzugen aber An (K) als Standardmodell. Die Idee des Koordinatensystems geht zur¨ uck auf Descartes,1596-1650, der hierdurch die Algebra und Analysis als Hilfsmittel der Geometrie zug¨anglich machte. Beweis. Ist f : A → A0 ein affiner Isomorphismus, so ist f : T (A) → T (A0 ) ein Vektorraumisomorphismus, also Dim T (A) = Dim T (A0 ). Umgekehrt, sei ϕ : T (A) → T (A0 ) ein Vektorraumisomorphismus. Offenbar ist f¨ ur jedes beliebige, fest gew¨ahlte P0 ∈ A die Abbildung −−→ ¨ A → A0 (T (A))(= T (A)) : P 7→ P0 P ein affiner Isomorphismus (Beweis: Ubung). Also erh¨alt 0 man durch Komposition einen affinen Isomorphismus von A auf A , falls die Dimensionen gleich −−→ ¨ sind. (Man zeige als Ubungsaufgabe: Dieser Isomorphismus ist gegeben durch P 7→ P00 +ϕ(P0 P ), wo P00 ∈ A0 beliebig, aber fest gew¨ ahlt ist.) q. e. d. Somit ist die Dimension eine affine Invariante. Wir wollen uns ansehen, wie in den verschiedenen Modellen f¨ ur affine R¨ aume, die wir gesehen haben, die affinen Abbildungen aussehen und dargestellt werden. Definition 9.11. Sei A ein affiner Raum u aumen A0 , A00 . ¨ber T (A) = V mit affinen Teilr¨ 0 00 1) Die Teilr¨ aume heißen parallel, falls T (A ) = T (A ). 2) Sie heißen schwach parallel, falls T (A0 ) ⊆ T (A00 ) oder T (A00 ) ⊆ T (A0 ). 3) Sie heißen windschief, falls A0 ∩ A00 = ∅ und T (A00 ) ∩ T (A0 ) = {0}. 9. AFFINE GEOMETRIE 65 ¨ ¨ Sei A ein affiner Raum u Ubung: ¨ber dem Vektorraum V. Zeige, dass Parallelit¨at eine Aquivalenz¨ relation auf der Menge aller affinen Teilr¨aume von A ist. Zeige weiter, dass die Aquivalenzklasse mit zugeh¨origem Teilraum W ≤ T (A) wiederum einen affinen Raum A/W bildet, und zwar mit Translationsraum V/W. Man nennt A/W auch den Bahnenraum von A mod W. (Beachte: V operiert zwar auch transitiv auf A/W, aber nicht treu, es sei denn W = {0}.) ¨ Ubung: Ist A ein affiner Raum u ¨ber dem K-Vektorraum V, und sind U, W ≤ V Teilr¨aume, so gilt f¨ ur die Abbildung ϕ : A → A/U × A/W : P 7→ (P + U, P + W), 1.) ϕ ist injektiv genau dann, wenn U ∩ W = {0}. 2.) ϕ ist surjektiv genau dann, wenn U + W = V. Bemerkung. Parallelit¨ at und schwache Parallelit¨at von affinen Teilr¨aumen bleiben unter affinen Abbildungen erhalten. Die Eigenschaft, windschief zu sein, bleibt unter injektiven affinen Abbildungen erhalten. Wie steht es mit Urbildern? ˜ ϕ, Kern(ϕ) = V, A(ϕ) = ϕ−1 ({1}) wie in 9.2. Entsprechend nehmen wir einen Beispiel. Sei V, ˜ ψ, Kern(ψ) = W, A(ψ) = ψ −1 ({1}). Dann ist eine affine zweiten affinen Raum mit den Daten W, Abbildung f : A(ϕ) → A(ψ) nichts anderes als die Einschr¨ankung einer linearen Abbildung ˜ welche A(ϕ) in A(ψ) abbildet, d. h. f¨ α : V˜ → W, ur die ψ ◦ α = ϕ. Wir haben also das folgende kommutative Diagramm: f A(ϕ) − → A(ψ) ↓ ↓ α ˜ ˜ V − → W ϕ↓ ↓ψ K = K ¨ Ubung: α legt f eindeutig fest und umgekehrt. Wichtiger Spezialfall: Aff(An (K)) kann mit der Matrixgruppe a t |a ∈ GL(n, K), t ∈ K n×1 } ≤ GL(n + 1, K) Aff(n, K) := { 0 1 identifiziert werden, die durch Linksmultiplikation auf An (K) operiert (¨ahnliche Operationen!). Man beachte, dass Aff(n, K) schon als Stabilisator eines Kovektors als Untergruppe von GL(n + 1, K) fr¨ uher vorkam. Bemerkung In Aff(n, K) gelten: a t b s ab as + t = 0 1 0 1 0 1 a t 0 1 −1 = a−1 −a−1 t 0 1 und a t 0 1 In s 0 1 a t 0 1 −1 = In as 0 1 66 KAPITEL 4. GEOMETRIE Der Homomorphismus “linearen Anteil nehmen” ist gegeben durch a t 7→ a Aff(n, K) → GL(n, K) : 0 1 9.3 Das Invarianzprinzip der affinen Geometrie. (V17) Bemerkung 9.12. Aff(A) ist transitiv auf A und hat genau zwei Bahnen auf A × A. Beweis. T (A) ≤ Aff(A) operiert regul¨ ar, also auch transitiv auf A, daher auch Aff(A). Ist P0 ∈ A so ist der Stabilisator StabAff(A) (P0 ) isomorph zu GL(T (A)), verm¨oge der Abbildung −−−−→ −−→ s ∈ StabAff(A) (P0 ) 7→ s : P0 P 7→ P0 s(P ). Also hat StabAff(A) (P0 ) zwei Bahnen auf A, n¨amlich {P0 } und A \ {P0 }. q. e. d. In unserem Standardmodell An (K) kann man Œ annehmen, dass P0 = (0, ..., 0, 1)tr . Dann ist a 0 StabAff n (K) (P0 ) = { |a ∈ GL(n, K)} ∼ = GL(n, K) 0 1 Bei der Operation auf Tripeln bekommen wir die ersten geometrischen Invarianten. Definition 9.13. 1) P ∈ An heißt affin unabh¨ angig, falls f¨ ur jeden affinen Raum A0 u ¨ber 0 n 0 K und jedes Tupel Q ∈ (A ) eine affine Abbildung f : A → A existiert, mit f ◦ P = Q, d. h. f (Pi ) = Qi f¨ ur i = 1, . . . , n. Ein maximal affin unabh¨ angiges System P in A heißt auch affine Basis von A. 2) P ∈ An heißt kollinear bzw. komplanar, falls DimhP ia ≤ 1 bzw. ≤ 2 gilt. Bemerkung 9.14. F¨ ur P ∈ An sind folgende Aussagen ¨ aquivalent: 1) P ist affin unabh¨ angig. 2) DimhP ia = n − 1. −−−→ −−−−−→ 3) (Pn P1 , . . . , Pn Pn−1 ) ∈ T (A)n−1 ist linear unabh¨ angig. Ei 4) Die affine Abbildung An−1 (K) → hP ia : E˜i := 7→ Pi definiert einen affinen Isomor1 phismus. Beweis. 1) ⇒ 4) Dass eine affine Abbildung vorliegt, ist klar. Aus Definition der affinen Unabh¨angigkeit bekommt man eine affine Abbildung A → An−1 (K), die Pi auf E˜i abbildet. Die Einschr¨ankung dieser Abbildung auf hP ia liefert die Inverse, d. h. es liegt ein affiner Isomorphismus vor. 4) ⇒ 2) Die Dimension ist eine Invariante f¨ ur affine Isomorphismen. −−−→ −−−−−→ −−−→ −−−−−→ 2) ⇒ 3) Es gilt T (hP ia ) = hPn P1 , . . . , Pn Pn−1 i. Also n−1 = DimhP ia = DimhPn P1 , . . . , Pn Pn−1 i. 3) ⇒ 1) Sei A0 irgendein affiner Raum u ¨ber dem K-Vektorraum V 0 und Q ∈ (A0 )n . Es existiert −−→ −−−→ eine lineare Abbildung ϕ : V → V 0 mit ϕ(Pn Pi ) = Qn Qi f¨ ur i = 1, . . . , n. Also gibt es genau eine affine Abbildung f : A → A0 mit f = ϕ und f (Pn ) = Qn . F¨ ur diese gilt offenbar f (Pi ) = Qi f¨ ur i = 1, . . . , n. q. e. d. 9. AFFINE GEOMETRIE 67 Bemerkung: Ist A = ϕ−1 (1) f¨ ur ϕ ∈ V˜ ∗ , so ist P ∈ An affin unabh¨angig genau dann wenn P ∈ V˜ n linear unabh¨ angig ist. ˜ die in A enthalten sind. Die affinen Basen von A sind also genau die Basen von V, Sofort klar ist die folgende Bemerkung: Bemerkung 9.15. 1) Affine Abh¨ angigkeit von Tupeln bleibt erhalten unter beliebigen affinen Abbildungen. 2) Affine Unabh¨ angigkeit bleibt unter injektiven affinen Abbildungen erhalten. Satz 9.16. Sei A ein affiner Raum u ¨ber dem endlich erzeugten K-Vektorraum V. Dann operiert Aff(A) regul¨ ar auf der Menge der affinen Basen von A. Letztere bilden eine der Bahnen von Aff(A) auf An+1 , wo n = Dim A. Beweis. Sofort aus Satz 9.10 und Bemerkung 9.14. q. e. d. angigen Tripel Satz 9.17. 1) Aff(A) operiert transitiv auf der Menge A3generisch der affin unabh¨ 3 in A (nicht entartete Dreiecke), falls Dim(A) > 1. 2) Eine trennende Invariante f¨ ur die Operation von Aff(A) auf der Menge A3spez := {P = (P1 , P2 , P3 ) ∈ A3 |P1 6= P2 , P kollinear } ist das Teilverh¨ altnis. Dabei ist das Teilverh¨ altnis −−−→ −−−→ TV(P1 , P2 , P3 ) definiert als das eindeutige a ∈ K mit P1 P3 = aP1 P2 . Beweis. 1) Wir k¨ onnen oBdA in A = A(ϕ) ⊂ V˜ arbeiten. Offenbar hat V˜ eine Basis B ∈ An+1 und jedes affin unabh¨ angige Tripel P ∈ A3 kann zu einer solchen Basis Pˆ ∈ An+1 von V˜ erg¨anzt werden. Es gen¨ ugt nun zu zeigen, dass ein f ∈ Aff(A) existiert, mit f ((B1 , B2 , B3 )) = P . Dies ˜ ist aber klar, denn ein solches f wird induziert von der eindeutigen linearen Abbildung von V, ˆ die B auf P abbildet. 2) Dass eine Invariante vorliegt, ist klar. Um zu zeigen, dass sie die Bahnen trennt, gehen wir wieder von der Situation des Beweises von 1) aus mit der Basis B. Sei P ∈ A3spez mit Teilverh¨altnis a ∈ K. Es gen¨ ugt zu zeigen, dass ein f ∈ Aff(A) existiert mit f ((B1 , B2 , B1 + a(B2 − B1 ))) = P . ˜ Die lineare Abbildung, Zu diesem Zweck erg¨ anzt man (P1 , P2 ) zu einer Basis Pˆ ∈ An+1 von V. ˆ die B auf P abbildet, induziert den gew¨ unschten affinen Automorphismus. q. e. d. Aus dem letzten Beweis erhalten wir eine Folgerung, die eine sehr anschauliche Vorstellung von der affinen Gruppe liefert. Folgerung 9.18. Sei Dim(A) = n. Dann operiert Aff(A) transitiv auf Akgenerisch := {P ∈ Ak |P affin unabh¨ angig}, der Menge der affin unabh¨ angigen k-Tupel ((k − 1)-Simplizes) f¨ ur 1 ≤ k ≤ n + 1. Im Falle k = n + 1 ist der Stabilisator eines solchen Tupels ist trivial, d. h. in diesem Falle ist die Operation regul¨ ar, vgl. Satz 9.16. Wir wollen jetzt als Beispiel einen geometrischen Satz beweisen, f¨ ur weitere Beispiele verweise ich auf das Skript und die Spezialvorlesung f¨ ur Lehramtskandidaten nach Weihnachten. Satz 9.19. Sei K ein K¨ orper mit 6 · 1 6= 0, A ein affiner Raum u ¨ber K, (A, B, C) ∈ A3gen . Dann schneiden sich die Seitenhalbierenden des nicht-entarteten Dreiecks (A, B, C) in einem Punkt S, so dass das Teilverh¨ altnis TV(A, a, S) = 2/3 ist, wo a der Mittelpunkt der Seite (C, B) ist. 68 KAPITEL 4. GEOMETRIE C b A a B c Beweis. Zun¨achst einmal definieren wir Seitenhalbierende: sa = hA , aia , sb = hB , bia , sc = hC , cia −−→ −−→ −→ wobei c = A + 21 AB, a = B + 21 BC, b = A + 21 AC. Um zu rechnen w¨ahlen wir Koordinaten f¨ ur die Eckpunkte (A, B, C) des Dreiecks, also einen affinen Isomorphismus f : hA, B, Cia → A2 (K) definiert durch 0 2 0 0 , f (B) = 0 , f (C) = 2 f (A) = 1 1 1 Ein solcher Isomorphismus existiert, da (A, B, C) affin unabh¨angig ist. Es gen¨ ugt den Satz f¨ ur das Bild unter f zu zeigen, da die Aussage invariant ist unter affinen Isomorphismen. Dann −−→ ergeben sich die Fußpunkte f (a) = f (B + 21 BC) = (1, 1, 1)tr , f (b) = (0, 1, 1)tr , f (c) = (1, 0, 1)tr . Die Seitenhalbierenden sind dann 2 − 2β α −→ | β ∈ K}, β f (sa ) = {f (A) + αf (Aa) = α | α ∈ K}, f (sb ){ 1 1 γ f (sc ) = { 2 − 2γ | γ ∈ K} 1 Um den Schnittpunkt {S} = sa ∩ sb ∩ sc zu berechnen, suchen wir α, β, γ ∈ K mit α 2 − 2β γ α = = 2 − 2γ β 1 1 1 2/3 und finden als L¨ osung α = β = γ = 2/3 also f (S) = 2/3 . Das Teilverh¨altnis ergibt sich 1 als TV(A, a, S) = TV(f (A), f (a), f (S)) = 2/3 = TV(B, b, S) = TV(C, c, S). Zum Beweis des n¨ achsten Satze ben¨ otigen wir Streckungen, also affine Abbildungen der Form −−→ A → A : P 7→ P0 + aP0 P , wobei das feste P0 ∈ A das Streckzentrum ist und das a ∈ K ∗ der Streckfaktor. ¨ Zeige: Je zwei Streckungen von A sind konjugiert in Aff(A) genau dann, wenn sie denUbung: selben Streckfaktor haben. Die Streckungen zusammen mit den Translationen bilden einen Normalteiler in Aff(A) isomorph zur Matrixgruppe aIn t { |a ∈ K ∗ , t ∈ K n×1 }. ∼ = K n×1 o K ∗ 0 1 9. AFFINE GEOMETRIE 69 Satz 9.20. (Pappos) Seien Dim(A) = 2 und D, D0 zwei Geraden in A mit sechs verschiedenen Punkten P, Q, R ∈ D, P 0 , Q0 , R0 ∈ D0 , von denen keiner in D ∩ D0 liegt. Gilt hP, Q0 ia k hQ, P 0 ia und hQ, R0 ia k hR, Q0 ia , so folgt hP, R0 ia k hR, P 0 ia . R Q P R’ Q’ P’ Beweis. Wir betrachten zun¨ achst den Fall, dass D und D0 sich schneiden. Dann sei {P0 } = −−→ D ∩ D0 und f1 die Streckung mit Zentrum P0 , die P in Q = P + aP0 P u uhrt, und f2 ¨berf¨ die Streckung mit Zentrum P0 , die Q nach R u uhrt. Es ist Q0 = τV (P ), also f1 (Q0 ) = ¨berf¨ f1 (τV (P )) = τaV (f1 (P )) = τaV (Q) = P 0 und ebenso f2 (R0 ) = Q0 . Dann ist (f2 ◦ f1 )(P ) = R und (f1 ◦ f2 )(R0 ) = P 0 . Da der lineare Anteil von f2 ◦ f1 gleich dem von f1 ◦ f2 gleich b idV ist (f¨ ur −−→0 −−→0 ∗ 0 0 ein b ∈ K ), gilt bP R = RP und somit hP, R ia k hR, P ia . Falls D und D0 sich nicht schneiden, arbeitet man mit Translationen, denn dann sind D und D0 parallel. q. e. d. Den Rest dieses Abschnitts werden wir nicht in der Vorlesung behandeln, eventuelle Teile davon ¨ als Ubung: Den n¨achsten Satz kann man als weitgehende Verallgemeinerung einer Version des Strahlensatzes auffassen. Satz 9.21. Sei Dim(A) = n und Hi f¨ ur i = 1, 2, 3 Hyperebenen in A, also affine Teilr¨ aume der Dimension n − 1. H1 , H2 , H3 seien parallel und H1 6= H2 . 1) Jede Gerade (= 1-dimensionaler affiner Teilraum von A), die nicht schwach parallel zu H1 ist, hat genau einen Schnittpunkt mit Hi f¨ ur i = 1, 2, 3. (Die Schnittpunkte sind offenbar kollinear.) 2) Das Teilverh¨ altnis der drei Schnittpunkte aus 1) ist unabh¨ angig von der Wahl der Geraden und legt H3 auf Grund der Nebenbedingungen Dim H3 = n − 1, H3 k H1 eindeutig fest. Beweis. 1. Beweis. Sei W := T (H1 ) = T (H2 ) = T (H3 ). Wir betrachten A/W := {P +W|P ∈ A} als eindimensionalen affinen Raum und beachten, dass ν : A → A/W : P 7→ P + W eine affine Abbildung ist. F¨ ur jede Gerade G, wie in 1) spezifiziert, ist ν|G ein affiner Isomorphismus. Klar: −1 Die Schnittpunkte sind ν|G (Hi ) und die Behauptung u ¨ber die Teilverh¨altnisse folgt auch, da diese bei Anwendung von affinen Isomorphismen fest bleiben. 2. Beweis. Sei G eine Gerade wie in 1) angegeben. Dann gilt T (A) = T (H1 )⊕T (G). Entsprechend haben wir eine affine Abbildung, genauer eine Parallelprojektion, von A entlang T (H1 ) auf G, n¨amlich π : A → A : P 7→ P 0 mit {P 0 } = (P + T (H1 )) ∩ G. (Man muss nachrechnen, dass dies eine affine Abbildung ist. Die Projektionseigenschaft ist klar.) Jetzt kann der Beweis analog zum ersten Beweis fortgesetzt werden. q. e. d. ¨ Ubung: Definiere Parallelprojektionen allgemein. 70 KAPITEL 4. GEOMETRIE ¨ Zeige, dass in der affinen Ebene zwei Geraden sich entweder schneiden oder parallel sind. Ubung: Genauer: Studiere die Bahnen unter der ebenen affinen Gruppe auf der Paarmenge der Geraden in der affinen Ebene. ¨ Eigentlich ist der Satz von Pappos ein Satz, der zur projektiven Geometrie geh¨ort. Ahnlich ist es mit dem Satz von Desargues, der sich im affinen Raum abspielt. Der Beweis, den ich geben werde, ist vielleicht vom synthetisch-geometrischen Standpunkt aus nicht sch¨on, demonstriert aber die Descartessche Idee, durch Einf¨ uhrung von Koordinaten geometrische S¨atze durch algebraische Rechnungen zu beweisen. F¨ ur kompliziertere Situationen kann man sogar Computer heranziehen, um derartige Beweise “durchzurechnen”. Satz 9.22. (Desargues3 ) Seien (A, B, C), (A0 , B 0 , C 0 ) ∈ A3generisch zwei nicht entartete Dreiecke, die keine Eckpunkte gemeinsam haben und f¨ ur die hA, Bia k hA0 , B 0 ia , hB, Cia k hB 0 , C 0 ia , hA, Cia k hA0 , C 0 ia . Dann schneiden sich die drei Geraden hA, A0 ia , hB, B 0 ia , hC, C 0 ia in einem gemeinsamen Punkt oder sind paarweise parallel. A’ A C C’ B B’ Beweis. Da die beiden Dreiecke nicht entartet sind, erzeugen sie einen drei- oder zweidimensiona¨ len affinen Raum. Wir behandeln nur den ersten Fall, den zweiten u ¨berlasse ich Ihnen als Ubung: 0 OBdA ist (A, B, C, A ) nicht komplanar. Dann k¨onnen wir affine Koordinaten κ : hA, B, C, A0 , B 0 , C 0 ia → A0 (K 3×1 ) so w¨ ahlen (wir arbeiten hier nicht mit An (K), weil es uns nicht weiter hilft!), dass 0 0 1 0 0 0 1 , κ(A ) = 0 , κ(C) = 0 , κ(B) = κ(A) = 1 0 0 0 ist. Wegen der Parallelit¨ at der Seiten folgt durch kurze Rechnung a 0 0 0 0 a κ(B ) = , κ(C ) = 1 1 f¨ ur ein a ∈ K. Da (A0 , B 0 , C 0 ) nicht kollinear ist, folgt a 6= 0. Im Falle a = 1 sind die drei Geraden hA, A0 ia , hB, B 0 ia , hC, C 0 ia parallel. Anderenfalls schneiden sie sich in dem Punkt mit 1 tr den Koordinaten (0, 0, 1−a ) . q. e. d. 10 Euklidische affine Geometrie. (V18) Lernziel: Euklidische Geometrie und ihre Invarianten, Abst¨ande, Winkel, Kongruenzs¨atze. 3 Genauer handelt es sich um eine affine Konsequenz der Umkehrung des (projektiven) Satzes von Desargues. Die Umkehrung ergibt sich aber durch Dualisieren aus dem urspr¨ unglichen Satz von Desargues, wie noch gezeigt werden wird. 10. EUKLIDISCHE AFFINE GEOMETRIE. (V18) 71 Bislang haben wir uns mit allgemeinen affinen R¨aumen besch¨aftigt. Jetzt wollen wir unsere Betrachtungen spezialisieren und einen weiteren Aspekt, den wir aus unserem Anschauungsraum kennen, ber¨ ucksichtigen, n¨ amlich den Abstand von Punkten. Definition 10.1. 1) Ein Euklidischer affiner Raum E ist ein endlich dimensionaler reeller affiner Raum, dessen Translationsraum V = T (E) ein Euklidischer Vektorraum ist, also mit einem inneren Produkt Φ ausgestattet ist. 2) Die Euklidische Metrik oder der Euklidische Abstand d auf E ist definiert durch q −−→ −−→ −−→ d : E × E → R : (P, Q) 7→ Φ(P Q, P Q) = |P Q|. 3) Sind E, E 0 Euklidische R¨ aume, so heißt eine affine Abbildung f : E → E 0 isometrische Einbettung, falls sie die Metriken respektiert, also d(P, Q) = d0 (f (P ), f (Q)) f¨ ur alle P, Q ∈ E, wobei d0 die Euklidische Metrik von E 0 ist. Ist f noch zus¨ atzlich surjektiv, also bijektiv, so heißt f Isometrie. Man kann sich u ¨berlegen, dass jede Abbildung E → E 0 von Euklidischen R¨aumen, die die Metriken respektiert, automatisch affin ist; wir wollen uns jetzt aber nicht damit aufhalten. ¨ Ubung: Zeige, dass der Euklidische Abstand d auf E den u ugt: ¨blichen Axiomen einer Metrik gen¨ 1) d(P, Q) ≥ 0 f¨ ur alle P, Q ∈ E mit Gleichheit genau dann, wenn P = Q gilt. 2) d(P, Q) = d(Q, P ) f¨ ur alle P, Q ∈ E. 3) d(P, Q) ≤ d(P, R) + d(R, Q) f¨ ur alle P, Q, R ∈ E. Analog zu den einf¨ uhrenden Beispielen affiner R¨aume in 9.2 haben wir hier die folgenden Beispiele. Beachte: Ist (V, Φ) ein Euklidischer Vektorraum, so ist V ein affiner Euklidischer Raum. P Beispiel 10.2. Sei V˜ = Rn+1 und Φ : V˜ × V˜ → R definiert durch Φ(X, Y ) = ni=1 Xi Yi . Dann sei En := {X ∈ V˜ | Xn+1 = 1} unser standard affiner Euklidischer Raum. Es gilt T (En ) = Rn×1 mit dem Standardskalarprodukt. Satz 10.3. 1) Jeder n-dimensionale Euklidische affine Raum ist isometrisch zu En . 2) Sind E, E 0 Euklidische affine R¨ aume, so existiert genau dann eine isometrische Einbettung von E in E 0 , falls Dim E ≤ Dim E 0 . 3) Jeder affine Teilraum eines affinen Euklidischen Raumes ist wieder Euklidischer Raum und die nat¨ urliche Inklusion ist eine isometrische Einbettung. 4) Jede Isometrie von einem affinen Teilraum eines Euklidischen Raumes E auf einen anderen l¨ asst sich zu einer Isometrie von E auf sich fortsetzen. 5) Die Isometrien von E auf sich bilden eine Untergruppe Iso(E) von Aff(E). Diese Gruppe heißt Isometriegruppe von E oder Gruppe der Euklidischen Bewegungen von E oder einfach Euklidische Gruppe von E. 6) {τV |V ∈ T (E)} ≤ Iso(E), d. h. jede Translation ist eine Isometrie. Insbesondere operiert Iso(E) transitiv auf E. 7) F¨ ur f ∈ Aff(E) gilt: f ∈ Iso(E) genau dann, wenn f ∈ O(T (E)), 72 KAPITEL 4. GEOMETRIE d. h. eine affine Transformation ist genau dann eine Isometrie, wenn ihr linearer Anteil orthogonal ist. g t |g ∈ O(n, R), t ∈ Rn×1 } ≤ Aff(n, R) 8) Iso(E) ∼ = Iso(n, R) := { 0 1 Genauer, jede Isometrie κ : E → En (aufgefasst als Koordinatensystem) ist ein solcher Isomorphismus. Beweis. Wird in der Vorlesung skizziert. q. e. d. Definition 10.4. Sei E ein euklidischer affiner Raum. −−−→ −−−→ (a) Sei P ∈ E 3 mit P1 6= P2 6= P3 . Der Winkel ∠(P ) ist definiert als der Winkel ∠(P2 P1 , P2 P3 ) ∈ [0, 2π) im Sinne des Euklidischen Vektorraumes T (E). (b) Ein k + 1-Tupel −−−→ −−−→ P ∈ E k+1 mit (P0 P1 , . . . , P0 Pk ) ONSystem in T (E) heißt orthonormales k-Bein von E. Klar: Es gibt orthonormale k-Beine in E genau dann wenn k ≤ Dim E = n und jedes orthonormale k-Bein kann zu einem orthonormalen n-Bein erg¨anzt werden. Da wir schon wissen, dass die orthogonale Gruppe eines Vektorraumes transitiv mit trivialem Stabilisator auf der Menge aller Orthonormalbasen eines Vektorraumes operiert und daher eine Bijektion zwischen der orthogonalen Gruppe und der Menge der ONBasen besteht, bekommen wir eine sehr anschauliche Vorstellung von der Euklidischen Gruppe, genauer von der Gesamtheit ihrer Elemente: Folgerung 10.5. Sei Dim E = n und −−−−−→ −−−−−→ B(E) := {P ∈ E n+1 |(Pn+1 P1 , . . . , Pn+1 Pn ) ist ONBasis von T (E)} die Menge der orthonormalen n-Beine von E. Dann operiert Iso(E) regul¨ ar auf B(E). Insbesondere ist f¨ ur jedes fest gew¨ ahlte P ∈ B(E) Iso(E) → B(E) : g 7→ gP = (gP1 , . . . , gPn+1 ) eine Bijektion. Satz 10.6. Iso(E) operiert transitiv auf der Menge der k-dimensionalen affinen Teilr¨ aume von E. Ist T ≤ E ein k-dimensionaler affiner Teilraum von E und (P1 , . . . , Pk , Pn+1 ) ∈ T k+1 ein orthonormales k-Bein von T , so dass (P1 , . . . , Pk , Pk+1 , . . . , Pn , Pn+1 ) ein orthonormales n-Bein von E ist, so ist bezgl. des Koordinatensystems Pi 7→ (ei |1)tr , Pn+1 7→ (0|1)tr der Stabilisator von T gegeben als A 0 t { 0 B 0 |A ∈ O(k, R), t ∈ Rk×1 , B ∈ O(n − k, R)}, 0 0 1 10. EUKLIDISCHE AFFINE GEOMETRIE. (V18) 73 Beweis. Seien T , S ≤ E zwei k-dimensionale affine Teilr¨aume von E und (P1 , . . . , Pk , Pn+1 ) ∈ T k+1 ein orthonormales k-Bein von T , (Q1 , . . . , Qk , Qn+1 ) ∈ S k+1 ein orthonormales k-Bein von S, und erg¨ anze beide zu orthonormalen n-Beinen P := (P1 , . . . , Pk , Pk+1 , . . . , Pn , Pn+1 ) bzw. Q := (Q1 , . . . , Qk , Qk+1 , . . . , Qn , Qn+1 ) von E. Dann gibt es genau eine affine Abbildung ϕ ∈ Aff(E) mit ϕ(P ) = Q. Diese Abbildung ist eine Isometrie, da ϕ eine ON-Basis von T (E) auf eine ON-Basis abbildet, also ϕ ∈ Iso(E) woraus die Transitivit¨at folgt. Der Stabilisator von T l¨asst T (T ) aber auch T (T )⊥ invariant, woraus sich die spezielle Gestalt leicht ergibt. q. e. d. Bevor wir die Operation auf der Menge der Teilr¨aume vertiefen, wollen wir die Operation auf den Mengen der Zwei- und Dreiecke betrachten und mit dem allgemeinen affinen Fall vergleichen. 2 2 Bemerkung 10.7. Sei Egenerisch := {(P, Q) ∈ E 2 |P 6= Q}. Iso(E) operiert auf Egenerisch wobei der Abstand eine trennende Invariante ist. Beweis. Das Iso(E) transitiv auf E operiert, entsprechen die Bahnen von Iso(E) auf E × E genau den Bahnen des Stabilisators StabIso(E) (P0 ) eines Punktes P0 ∈ E. Dieser Stabilisator ist aber isomorph zur orthogonalen Gruppe, und die Bahnen von StabIso(E) (P0 ) sind parametrisiert durch den Abstand von P0 . Wir k¨onnen dies auch direkt beweisen: Es ist klar, dass der Abstand eine Invariante ist. Sei −−→ −−→ a := d(P1 , Q) = d(P10 , Q0 ) 6= 0. P2 := P1 + a1 P Q und P20 := P10 + a1 P 0 Q0 und erg¨anze zu ortho0 normalen n-Bein (P1 , P2 , . . . , Pn+1 ) bzw. (P10 , P20 , . . . , Pn+1 ). Die Isometrie ϕ ∈ Iso(E), die P auf 0 0 0 P abbildet bildet (P1 , Q) auf (P1 , Q ) ab. q. e. d. 3 ¨ sind durch das Teilverh¨altnis und den Abstand der Ubung: Die Bahnen von Iso(E) auf Espeziell ersten beiden Punkte beschrieben. D. h. die Invariante TV von Aff(E) zusammen mit der neuen Invariante 3 d12 : Espeziell → R : P 7→ d(P1 , P2 ) 3 → R2 f¨ ur die Operation von Iso(E). bildet eine trennende Invariante (TV, d12 ) : Espeziell 3 Bekanntlich machte Aff(E) genau eine Bahn auf Egenerisch . Diese Bahn zerf¨allt nun in unendlich viele Bahnen unter Iso(E). Die Beschreibungen dieser Bahnen durch diverse trennende Invarianten heißen in der Schulgeometrie oft Kongruenzs¨atze, weil man Objekte, die in derselben Bahn unter Iso(E) liegen, auch als kongruent bezeichnet. Klar: Der Winkel ist eine Invariante der 3 Operation von Iso(E) auf Egenerisch . Wir greifen exemplarisch zwei Kongruenzs¨atze heraus. 3 Satz 10.8. Die Bahnen von Iso(E) auf der Menge Egenerisch der nicht entarteten Dreiecke in E sind beschrieben durch 1) die drei Seitenl¨ angen, also durch das Tripel der Invarianten d12 , d23 , d13 , wo 3 dij : Egenerisch 7→ R : P 7→ d(Pi , Pj ) oder durch 2) die L¨ ange der erste Seite und die beiden anliegenden Winkel, also durch (d12 , ∠, ∠ ◦ σ), wo σ ∈ S3 durch σ(1) = 3, σ(2) = 1, σ(3) = 2 festgelegt ist. Beweis. Da Iso(E) transitiv auf der Menge der zweidimensionalen Teilr¨aume von E operiert und jede Isometrie eines solchen Teilraumes auf sich zu einer Isometrie von ganz E fortgesetzt werden kann, k¨onnen wir oBdA annehmen, dass Dim E = 2 gilt. Da der Abstand d eine trennende Invariante f¨ ur die Operation von Iso(E) auf E 2 ist, brauchen wir nur noch die Bahnen des Stabilisators 74 KAPITEL 4. GEOMETRIE eines Paares (P1 , P2 ) ∈ E 2 mit P1 6= P2 zu bestimmen. Dieser Stabilisator besteht aber nur noch aus zwei Elementen, n¨ amlich der Identit¨at und der orthogonalen Spiegelung an der Geraden hP1 , P2 ia . Nun ist aber auch klar, dass man durch die Vorgabe von (P1 , P2 ) und die Abst¨ande von P3 zu P1 und P2 wie in 1) vorgegeben bzw. der Winkel ∠(P3 , P1 , P2 ) und ∠(P1 , P2 , P3 ) nur noch genau zwei M¨ oglichkeiten f¨ ur P3 hat und dass diese beiden M¨oglichkeiten gerade eine Bahn unter dem Stabilisator von (P1 , P2 ) bilden. q. e. d. ¨ Ubung: Man formuliere alle Kongruenzs¨atze f¨ ur Pot3,generisch (E) der affin unabh¨angigen dreiele3 mentigen Teilmengen von E statt Egenerisch . Man beachte den Vorteil dieser Betrachtungsweise, indem man gleichseitige und gleichschenklige Dreiecke u ¨ber den Stabilisator definiert. Wir kommen nun zur Operation der Euklidischen Gruppe Iso(E) auf den affinen Teilr¨aumen von E. Da wir die Dimension schon als trennende Invariante erkannt haben, sind jetzt Paare von solchen Teilr¨ aumen von Interesse. Wenn die Teilr¨aume parallel sind, ist die Sache einfach: Der Abstand der Teilr¨ aume ist eine trennende Invariante. Wir hatten bereits im ersten Semester bei der Diskussion der Euklidischen Vektorr¨aume einen Satz, den wir in der neuen Sprache formulieren wollen. Eine kleine Vor¨ ubung, die bereits in das Kapitel u ¨ber allgemeine affine Geometrie geh¨ ort, hilft uns: Satz 10.9. F¨ ur zwei affine Teilr¨ aume A, B von E wird das Minimum d(A, B) der d(P, Q) mit P ∈ A, Q ∈ B angenommen und heißt der Abstand der Teilr¨ aume. Ist d(A, B) 6= 0 und ist −−−→ ⊥ d(P0 , Q0 ) = d(A, B), so gilt P0 Q0 ∈ (T (A) + T (B)) . Beweis. Wir k¨ onnen annehmen, dass E = hA, Bia . Sei U := T (A) + T (B) und V := T (E). (Im Falle A ∩ B = ∅ ist U := T (A) + T (B) 6= V := T (E). ) Damit ist V = U ⊕ U ⊥ . F¨ ur P ∈ A −−→ und Q ∈ B gilt also: P Q = UA + UB + U f¨ ur geeignete UA ∈ T (A), UB ∈ T (B), U ∈ U ⊥ . 2 2 Nach Pythagoras gilt d(P, Q) = |UA + UB | + |U |2 . Indem wir P durch UA und Q durch UB verschieben, sehen wir, dass d(P, Q) = |U | nicht unterboten werden kann, aber auch, dass es eine Wahl von P ∈ A, Q ∈ B gibt, wo dieses Minimum angenommen wird. Man beachte, dass U nur von A und B, nicht hingegen von der Wahl von P ∈ A oder Q ∈ B abh¨angt. q. e. d. Klar: Der Abstand zweier Teilr¨ aume ist eine Invariante der Operation von Iso(E) auf der Menge der Paare affiner Teilr¨ aume. ¨ Ubung: Zeige: 1.) {(P, Q) ∈ A × B|d(P, Q) = d(A, B)} ist eine Bahn unter T (A) ∩ T (B) bei der Translationsoperation. Zeige weiter: Im Falle A ∩ B = ∅ ist Dim(T (A) + T (B)) = Dim T (hA, Bia ) − 1. 2.) Sei A ∩ B = ∅. Ist U ∈ T (hA, Bia ) der bis aufs Vorzeichen eindeutige Vektor senkrecht zu −−→ T (A) + T (B) mit |U | = 1, so ist d(A, B) = |Φ(U, P Q)| f¨ ur zwei beliebige Punkte P ∈ A, Q ∈ B. Eine trennende Invariante zu finden ist in den meisten F¨allen nicht so einfach. Greifen wir uns Paare von Geraden heraus: Man u ¨berlegt sich leicht, dass der Abstand und der Winkel zwischen den beiden Translationsr¨ aumen zusammen eine trennende Invariante bilden. Im allgemeinen ben¨otigt man mehr Winkel. Definition 10.10. Sei (V, Φ) ein Euklidischer Vektorraum. F¨ ur 2 Teilr¨ aume U, W ≤ V mit Dim(U) = k ≤ Dim(W) =: ` definiere die Hauptwinkel A(U, W) = (θ1 , . . . , θk ) wie folgt: θ1 := min{∠(U, W ) | 0 6= U ∈ U, 0 6= W ∈ W}. Ist U1 ∈ U und W1 ∈ W mit ∠(U1 , W1 ) = θ1 so setze U1 := U1⊥ ≤ U und W1 := W1⊥ ≤ W. Dann bestimmen sich die restlichen k −1 Hauptwinkel rekursiv durch A(U1 , W1 ) = (θ2 , . . . , θk ). 10. EUKLIDISCHE AFFINE GEOMETRIE. (V18) 75 Klar: Dim(U ∩ W) = {i | θi = 0}. Bemerkung 10.11. Sind U, W ≤ V wie in der Definition mit m := Dim(U ∩ W), so gibt es eine ONBasis (B1 , . . . , Bn ) von V f¨ ur die B1 . . . , B` eine ONBasis von W ist so dass (B1 , . . . , Bm , cos(θm+1 )Bm+1 + sin(θm+1 )B`+1 , . . . , cos(θk )Bk + sin(θk )B`+(k−m) ) eine ONBasis von U ist. Insbesondere sind die Hauptwinkel eine trennende Invariante der Operation der orthogonalen Gruppe O(V, Φ) auf T R(V, k, `) := {(U, W) | Dim(U) = k, Dim(W) = `}. ¨ Ubung: Sei V = En = Rn der n-dimensionale standard Euklidische Vektorraum und U, W Teilr¨aume von V mit dim(U) = k ≤ ` = dim(W). (a) Sei X ∈ Rn×k so dass die Spalten von X eine ON-Basis von U bilden. Dann sind die ONBasen von U gegeben durch die Spalten der Matrizen in der Menge {Xg | ginRk×k , g tr g = Ik ( also g ∈ Ok } (b) Fixiere ON-Basen X, Y ∈ Rn×k von U bzw. W. F¨ ur g ∈ Ok , h ∈ O` sei P (g, h) := tr k×` (Xg) (Y h) ∈ R . Zeigen Sie, dass alle Matrizen in M (U, W) := {P (g, h)P (g, h)tr | g ∈ ¨ Ok , h ∈ O` } in einer Ahnlichkeitsklasse liegen. (c) Sind θ1 , . . . , θk die Hauptwinkel A(U, W) so sind die Eigenwerte der Matrizen in M (U, W) gegeben durch (cos(θ1 )2 , . . . , cos(θk )2 ). Satz 10.12. Die euklidische Bewegungsgruppe Iso(E) operiert auf der Menge T R(E, k, `) := {(B, C) | Dim(B) = k, Dim(C) = `}. Eine trennende Invariante der Operation ist gegeben durch Abstand und Hauptwinkel der Translationsr¨ aume (d, A) : T R(E, k, `) → R≥0 × Rmin(k,`) , (B, C) 7→ (d((B, C)), A(T (B), T (C))) Beweis. Zun¨achst einmal ist klar, dass dies eine Invariante der Operation ist. Wir zeigen, dass sie die Bahnen trennt. Seien (B, C) ∈ T R(E, k, `) und (B 0 , C 0 ) ∈ T R(E, k, `) mit d(B, C) = d(B 0 , C 0 ) =: δ. Der einfacheren Schreibweise halber betrachten wir nur den Fall dass δ > 0 und Dim(T (B) ∩ T (C)) = 0 und nehmen Œ an dass k ≤ ` ist. Sei also A(B, C) := A(T (B), T (C)) = A(B 0 , C 0 ) = (θ1 , . . . , θk ). Seien weiter P0 ∈ B, Q0 ∈ C, P00 ∈ B0 , Q00 ∈ C 0 , so dass d(P0 , Q0 ) = d(P00 , Q00 ) = δ. Dann ist → − ( P0 Q0 ) orthogonal zu T (B) ⊕ T (C) =: U und es gibt eine ON-Basis (B1 , . . . , Bk+` ) von U sowie Punkte P1 , . . . , Pk ∈ B, Q1 , . . . , Q` ∈ C, so dass (B1 , . . . , B` ) eine ON-Basis von T (C) ist, Bi = −−−→ −−−→ −−−→ Q0 Qi (1 ≤ i ≤ `) und (P0 P1 = cos(θ1 )B1 + sin(θ1 )B`+1 , . . . P0 Pk = cos(θk )Bk + sin(θk )B`+k ) eine ON-Basis von T (B). Ebensolche orthonormalen k-Beine (P00 , P10 , . . . , Pk0 ) und (Q00 , Q01 , . . . , Q0` ) 0 0 findet man auch und `-Beine die Translation −−− →0 in B und C . Indem wir vor der Wahl der k-Beine 0 um V := P0 P0 anwenden, k¨ onnen wir Œ annehmen dass P0 = P0 und suchen nun eine Isometrie im Stabilisator von P0 (isomorph zur orthogonalen Gruppe von V), die Pi auf Pi0 abbildet und Qi −−−→ auf Q0i . Eine solche Abbildung erhalten wir, indem wir die ON-Systeme ( √1δ P0 Q0 , B1 , . . . , B`+k ) −−−→ 0 bzw. ( √1δ P0 Q00 , B10 , . . . , B`+k ) zu ON-Basen erg¨anzen, als die eindeutige orthogonale Abbildung, die diese aufeinander abbildet. q. e. d. 76 11 KAPITEL 4. GEOMETRIE Projektive Geometrie. (V19) ¨ Viele Fallunterscheidungen der affinen Geometrie fallen beim Ubergang zur projektiven Geometrie weg. Beispielsweise schneiden sich zwei Geraden der affinen Ebene oder sind parallel. Definition 11.1. Sei V˜ = 6 {0} ein K-Vektorraum. 1) Die multiplikative Gruppe K ∗ von K operiert auf V˜ − {0} durch Multiplikation. Die Menge ˜ bezeichnet und heißt der projektive Raum auf V. ˜ (V˜ − {0})/K ∗ der Bahnen wird mit P(V) Als seine (projektive) Dimension definiert man ˜ := Dim V˜ − 1, Dim P(V) (weil man gewissermassen eine Dimension durch die Operation von K ∗ verloren hat). Notation f¨ ur die Punkte des projektiven Raumes: [V ] := K ∗ V f¨ ur V ∈ V˜ − {0}. ˜ ˜ − {0})/K ∗ f¨ ur Vektorteilr¨ aume {0} = 6 2) Ein projektiver Teilraum von P(V) ist durch (W ˜ ≤ V˜ gegeben. W ˜ und P(W) ˜ projektive R¨ ˜ W ˜ sind K-Vektorr¨ 3) Sind P(V) aume u orper K, d. h. V, aume, ¨ber dem K¨ ˜ ˜ so heißt f : P(V) → P(W) eine projektive Abbildung, falls eine injektive lineare Abbildung ˜ existiert mit f˜ : V˜ → W f ([V ]) = [f˜(V )] f¨ ur alle V ∈ V˜ − {0}. Wir schreiben f =: [f˜]. Eine bijektive projektive Abbildung heißt Projektivit¨ at. Die Gruppe ˜ auf sich wird mit PGL(V) ˜ bezeichnet. aller Projektivit¨ aten von P(V) ˜ stehen in nat¨ Klar: Die Punkte des projektiven Raumes P(V) urlicher Bijektion zu den eindi˜ mensionalen Teilr¨ aumen von V. Entsprechend korrespondieren die k-dimensionalen projektiven ˜ zu den (k + 1)-dimensionalen linearen Teilr¨aumen von V. ˜ Teilr¨aume von P(V) Beispiel: Sei K (n+1)×1 der n + 1-dimensionale Spaltenraum. Die Punkte von P(n, K) := P(K (n+1)×1 ) werden mit a1 a2 . (a1 : a2 : .. : an+1 ) := [ . . . ] an+1 bezeichnet. Beachte (ka1 : ka2 : . . . : kan+1 ) = (a1 : a2 : . . . : an+1 ) f¨ ur alle k ∈ K ∗ . Die (n+1)×1 Elemente von PGL(K ) werden durch Matrizen aus GL(n + 1, K) repr¨asentiert, welche bis auf Vielfache mit Elementen aus K ∗ := K − {0} festgelegt sind. Sei V˜ ein K-Vektorraum. ˜ auf P(K (n+1)×1 ) ist ein projektives Koordinatensystem von Eine Projektivit¨ at von P(V) ˜ P(V). ˜ = 1, so ist P(V) ˜ = {[V ]} f¨ ˜ Beispiel: Ist Dim(V) ur jedes 0 6= V ∈ V. ˜ ˜ Ist Dim(V ) = 2, so steht P(V) in Bijektion zu K ∪ {∞}, indem man [(a : 1)tr ] mit a ∈ K und [(1 : 0)tr ] mit ∞ identifiziert. ˜ auf sich bilden eine Gruppe bez¨ Bemerkung 11.2. Die Projektivit¨ aten von P(V) uglich der Komposition. Die Abbildung ˜ → PGL(V) ˜ : f 7→ [f ] : [V ] 7→ [f (V )], [ ] : GL(V) ist ein Epimorphismus von Gruppen. Es ist [f ] = [g] genau dann wenn es ein a ∈ K ∗ gibt mit ˜ ∼ f = ag. Also ist Kern([ ]) = {a idV˜ | a ∈ K ∗ } und PGL(V) = GL(V˜ )/K ∗ . 11. PROJEKTIVE GEOMETRIE. (V19) 77 Beweis. Dass die Abbildung ein Gruppenhomomorphismus ist, ist klar. Die Surjektivit¨at ergibt ˜ mit [f ] = [g], so ist [f g −1 ] = id. Es sich aus der Definition von Projektivit¨ at. Sind f, g ∈ GL(V) gen¨ ugt also zu zeigen, dass [f ] = id genau dann wenn f = a id f¨ ur ein a ∈ K ∗ . Gilt f (hV i) = hV i ˜ Ist ˜ so gibt es ai ∈ K ∗ mit f (Bi ) = ai Bi f¨ f¨ ur alle V ∈ V, ur eine Basis (B1 , . . . , Bn+1 ) von V. ai 6= aj , so ist f (Bi + Bj ) = ai Bi + aj Bj 6∈ hBi + Bj i. Also sind alle ai gleich und f ist ein Vielfaches der Identit¨ at. q. e. d. Bevor wir die allgemeine Theorie der projektiven R¨aume weiterverfolgen, betrachten wir kurz den Zusammenhang mit der affinen Geometrie, die ja f¨ ur uns die Motivation dieses Kapitels ist. Diese Bemerkung l¨ asst uns im Nachhinein verstehen, warum die Beschreibung der affinen Abbildungen des n-dimensionalen affinen Raumes durch Matrizen vom Grad n + 1 so erfolgreich war. Bemerkung 11.3. Sei V˜ ein K-Vektorraum und 0 6= ϕ ∈ V˜ ∗ . ˜ : P 7→ [P ] ist eine injektive Abbildung. Das Komplement des Bildes heißt 1) : A(ϕ) → P(V) unendlich ferne Hyperebene und ist gleich dem projektiven Teilraum der Kodimension 1, welcher dem linearen Teilraum Kern ϕ entspricht: F¨ ur V ∈ V˜ − {0} gilt [V ] 6∈ Bild genau dann, wenn V ∈ Kern ϕ. ˜ ϕ) l¨ 2) Jeder affine Automorphismus von A(V, asst sich in eindeutiger Weise zu einer Projekti˜ vit¨ at von P(V) fortsetzen: ˜ ϕ)) → PGL(V) ˜ : f 7→ [f ] [ ] : Aff(A(V, ˜ ϕ)) als Untergruppe ist ein Gruppenmonomorphismus. (Erinnerung: Wir betrachten Aff(A(V, ˜ von GL(V).) Es gilt: ˜ Bild([ ]) = {g ∈ PGL(V)|g(Bild ) = Bild }. Beweis. In Koordinaten: An (K) ,→ P(n, K), (a1 , . . . , an , 1) 7→ (a1 : . . . : an : 1) ist wohldefiniert und injektiv, da jeder eindimensionale Teilraum T := h(a1 , . . . , an , an+1 )i mit an+1 6= 0 (also T 6⊆ Kern(ϕ)) genau einen Vektor (a1 /an+1 , . . . , an /an+1 , 1) mit letzter Koordinate 1 a t enth¨alt. Es ist Aff n (K) = { |a ∈ GL(n, K), t ∈ K n×1 } ≤ GL(n + 1, K)} Weiter gilt 0 1 Aff n (K) ∩ K ∗ In+1 = {In+1 } also ist die Einschr¨ankung der Abbildung [ ] : GLn+1 (K) → PGLn+1 (K) auf Aff n (K) injektiv. q. e. d. Wir werden ab jetzt immer den affinen Raum als Teilmenge des projektiven ansehen und die affine Gruppe als Untergruppe der projektiven Gruppe, wobei nat¨ urlich immer klar sein muss, welche Teilmenge des projektiven Raumes als affiner Raum genommen wird. ˜ so definiert man das projektive Erzeugnis Bemerkung 11.4. Sind T1 , . . . , Tn ∈ P(V), hT1 , . . . , Tn ip := hT1 , . . . , Tn i ˜ welcher von den eindimensionalen Teilr¨ als das Bild des Teilraums von V, aumen T1 , . . . , Tn von ˜ ˜ gilt genauso wie f¨ V erzeugt wird. F¨ ur projektive Teilr¨ aume T1 , T2 ≤ P(V) ur Teilr¨ aume von Vektorr¨ aumen die Dimensionsformel Dim T1 + Dim T2 = Dim T1 ∩ T2 + DimhT1 ∪ T2 ip . 78 KAPITEL 4. GEOMETRIE ˜ = n. PGL(V) ˜ operiert transitiv auf Satz 11.5. Sei dim P(V) ˜ n+1 := {P ∈ P(V) ˜ n+1 |hP ip = P(V)} ˜ P(V) gen ˜ n+1 mit nicht trivialem Stabilisator S := StabPGL(V) ur jedes P ∈ P(V) ˜ (P ) f¨ gen , falls |K| > 2. Ist ˜ Pi = hBi i, so ist B = (B1 , . . . , Bn+1 ) eine Basis von V und jedes s ∈ S ist induziert durch eine Abbildung g ∈ GL(V˜ ), die bzgl. B Diagonalgestalt hat: S = {[g] | g ∈ GL(V˜ ), g = diag(a1 , . . . , an+1 ) f¨ ur ai ∈ K ∗ }. B B ˜ Da GL(V) ˜ transitiv auf der Menge aller Basen operiert, folgt Beweis. Sei B eine Basis von V. ˜ von ([B1 ], . . . , [Bn+1 ]) die erste Aussage. Man beachte jedoch, dass der Stabilisator in GL(V) bez¨ uglich der Basis B durch s¨ amtliche invertierbaren Diagonalmatrizen dargestellt wird. q. e. d. ˜ → P(n, K) ist nach dem letzten Satz durch gewisse (n + 2)-Tupel von Die Projektivit¨ at P(V) ˜ Punkten in P(V) festgelegt. Wir definieren daher: ˜ k heißt projektiv unabh¨ Definition 11.6. Ein k-Tupel P ∈ P(V) angig, falls es einen (k − 1)dimensionalen projektiven Teilraum erzeugt. ˜ = n, so heißt ein (n + 2)-Tupel P ∈ P(V) ˜ n+2 eine projektive Basis, wenn jedes Ist Dim(P(V)) (n + 1)-Tupel, welches durch Weglassen eines Punktes Pi entsteht, immer projektiv unabh¨ angig ist. ¨ Bemerkung 11.7. Sei Dim(V˜ ) = n + 1 und P ∈ P(V˜ )n+2 . Aquivalent sind: n+2 ˜ (a) P ∈ P(V ) ist projektive Basis. P (b) Pi = hBi i (1 ≤ i ≤ n + 1) f¨ ur eine Basis (B1 , . . . , Bn+1 ) von V˜ und Pn+2 = h n+1 i=1 ai Bi i mit allen ai 6= 0. (c) Es gibt genau ein projektive Koordinatensystem κ : P(V˜ ) → Pn (K) mit Pi 7→ hEi i (1 ≤ i ≤ n + 1) und Pn+1 7→ hE1 + . . . + En+1 i. ¨ Beweis. Ubung. q. e. d. ˜ = n. Dann operiert PGL(V) ˜ regul¨ Folgerung 11.8. Sei Dim P(V) ar auf der Menge der projekn+2 ˜ tiven Basen P ∈ P(V) . 11.1 Invarianten der projektiven Gruppe. Satz 11.9. PGL(2, K) operiert regul¨ ar auf P(1, K)36= := {P ∈ P(1, K)3 |P1 6= P2 6= P3 6= P1 } Das Doppelverh¨ altnis DV : P(1, K)46= → K − {0} : ([V1 ], [V2 ], [V3 ], [V4 ]) 7→ det(V1 , V3 ) det(V2 , V4 ) det(V1 , V4 ) det(V2 , V3 ) ist eine trennende Invariante der Operation. Beweis. Die Transitivit¨ at auf Paaren verschiedener Punkte ist klar. Der Stabilisator von ((1 : 0), (0 : 1)) besteht aus allen Projektivit¨aten, die von Diagonalmatrizen induziert werden. Die Bahn von (1 : 1) unter dem Stabilisator ist somit P(1, K)−{(1 : 0), (0 : 1)}. Der Stabilisator von ((1 : 0), (0 : 1), (1 : 1)) ist offenbar trivial. Mit anderen Worten, die Bahnen dieses Stabilisators 12. PROJEKTIVE QUADRIKEN (V20) 79 auf P(1, K) sind alle einelementig, d. h. von der Form {(a : b)}. Damit ist die Operation regul¨ar. Was das Doppelverh¨ altnis angeht, ist leicht zu sehen, dass es wohldefiniert, also unabh¨angig von der Wahl der Erzeuger Vi ist und keine der Determinanten Null wird und dass es eine PGL(2, K)-Invariante ist. Weiter hat man: DV((1 : 0), (0 : 1), (1 : 1), (a : b)) = 1 · (−a) a = , b · (−1) b d. h. ist DV(P ) = ab , so wissen wir, dass es eine projektive Transformation gibt, die P auf ((1 : 0), (0 : 1), (1 : 1), (a : b)) abbildet. Mit anderen Worten, DV trennt die Bahnen. q. e. d. ¨ Zeige: Ubung: 1.) L¨asst man 0 und ∞ als Werte zu, ist das Doppelverh¨altnis auch noch definiert, wenn genau zwei der Punkte zusammenfallen. 2.) Fasst man A0 (K 1 ) als Teilmenge von P(1, K) auf, so h¨angen Teilverh¨altnis und Doppelverh¨altnis wie folgt zusammen: F¨ ur P ∈ A0 (K)3spez gilt TV(P1 , P2 , P3 ) = DV(∞, P1 , P2 , P3 ). 3.) So wie man das Teilverh¨ altnis der affinen Geometrie im Euklidischen Fall als Quotient zweier L¨angen schreiben kann, untersuche man, ob man das Doppelverh¨altnis der projektiven Geometrie im affinen Fall als Quotient zweier Teilverh¨altnisse schreiben kann. ˜ operiert auf Satz 11.10. PGL(V) ˜ 4 ˜ 4 P(V) speziell := {P ∈ P(V) |hP1 , P2 ip = hP1 , P3 ip = hP2 , P3 ip = hP ip 6= {P1 }} mit dem Doppelverh¨ altnis DV als trennende Invariante, wobei DV(P ) := (a : b), falls (a : b) das Bild von P4 ist unter der Projektivit¨ at hP ip → P(1, K), die (P1 , P2 , P3 ) auf ((1 : 0), (0 : 1), (1 : 1)) abbildet. ˜ ˜ 4 Beweis. Nach der Beschreibung von P(V) speziell ist klar, dass PGL(V) darauf operiert. Ausserdem ist (P1 , P2 , P3 ) eine projektive Basis von hP ip . Also gibt es genau eine Projektivit¨at der projektiven Geraden hP ip auf P(1, K) mit den vorgeschriebenen Bildern von P1 , P2 , P3 und DV ist wohldefiniert. Dass DV eine Invariante ist, folgt aus seiner Definition und der Tatsache, dass ˜ eine Projektivit¨ g ∈ PGL(V) at von hP ip auf hg(P )ip definiert und die Komposition von Projektivit¨aten wieder eine Projektivit¨ at ist. Dass diese Invariante die Bahnen trennt, folgt wiederum aus dem Satz 11.9. q. e. d. 12 Projektive Quadriken (V20) Lernziel: Quadriken via Bilinearformen, Klassifikation der reellen projektiven Quadriken. Definition 12.1. Sei V˜ = 6 {0} ein K-Vektorraum. ˜ eine symmetrische Bilinearform, so heißt die Abbildung Ist Φ ∈ Bifo+ (V) pΦ : V˜ → K : V 7→ Φ(V, V ) eine quadratische Form auf V˜ und ˜ Φ (V ) = 0} ⊆ V˜ Null(pΦ ) := {V ∈ V|p die Nullstellenmenge von p. Die Menge Nullp (pΦ ) := {[V ] | 0 6= V ∈ Null(pΦ )} ⊆ P(V˜ ) heißt die projektive Quadrik oder der (projektive) Kegel zu pΦ . 80 KAPITEL 4. GEOMETRIE Es ist klar, dass Nullp (pΦ ) wohldefiniert ist, denn mit Φ(V, V ) = 0 gilt auch Φ(aV, aV ) = 0 f¨ ur ∗ alle a ∈ K. Ebenso klar ist Null(pΦ ) = Null(paΦ ) f¨ ur alle a ∈ K . Wie wir schon fr¨ uher bewiesen haben, kann man aus der quadratischen Form pΦ die Bilinearform Φ rekonstruieren, falls 1 + 1 6= 0 in K. e mit A := Diag(1, 1, −1) ∈ R3×3 . Dann gilt Beispiel. 1.) Sei V˜ := R3×1 und Φ := A e pΦ : R3×1 → R : (x, y, z)tr 7→ x2 + y 2 − z 2 und Nullp (pΦ ) = {(x : y : z) ∈ P(2, R)|x2 + y 2 − z 2 = 0}, also das, was man sich unter einem Kegel vorstellt, wenn man sich ihn im R3×1 denkt. Projektiv gesehen, denkt man eher an eine Kurve. Und in der Tat, wenn wir in 2-dimensionale affine Teilebenen schauen, sehen wir Kurven. Diese sind unterschiedlich f¨ ur unterschiedliche affine Ebenen, z. B. f¨ ur z = 1 ist man geneigt von einem Kreis zu sprechen. F¨ ur y = 1 sieht man eine Hyperbel, eine Kurve, die man mit Sicherheit nicht durch eine affine Transformation zu einem Kreis machen kann. e mit A := Diag(1, −1, 0) ∈ R3×3 . Dann gilt 2.) Sei V˜ := R3×1 und Φ := A e pΦ : R3×1 → R : (x, y, z)tr 7→ x2 − y 2 = (x − y)(x + y), und Nullp (pΦ ) = {(1 : 1 : z)|z ∈ R} ∪ {(0 : 0 : 1)} ∪ {(1 : −1 : z)|z ∈ R} ist Vereinigung zweier Geraden, die sich in (0 : 0 : 1) schneiden. Projektive Quadriken sind also nach Wahl eines projektiven Koordinatensystems gegeben als Nullstellengebilde eines homogenen Polynoms vom Grad 2: Definition 12.2. Sei K ein K¨ orper und x1 , . . . , xn eine Menge von n Unbestimmten. Definiere induktiv durch K[x1 ] Polynomring in x1 u ur n = 1 und ¨ber K f¨ K[x1 , . . . , xn ] := K[x1 , . . . , xn−1 ][xn ] f¨ ur n > 1. Die Elemente a ∈ K[x1 , . . . , xn ] werden geschrieben als endliche Summen a= X i(1) ai(1),...,i(n) x1 · · · xni(n) i(1),...,i(n) Falls a 6= 0, heißt max{i(1) + · · · + i(n)|ai(1),...,i(n) 6= 0} der Grad von a. i(1) i(n) Bemerkung. Die Elemente xi := x1 · · · xn von K[x1 , . . . , xn ] heißen Monome. Grad(xi ) = i(1) + . . . + i(n). Die Monome bilden eine K-Basis von K[x1 , . . . , xn ], d.h. jedes Element des Polynomrings l¨aßt sich eindeutig schreiben als endliche Linearkombination von Monomen. Monome werden multipliziert, indem man die Exponenten addiert: xi xj = xi+j , wo (i + j)(l) = i(l) + j(l). 12. PROJEKTIVE QUADRIKEN (V20) 81 Die Menge aller Linearkombinationen von Monomen von Grad k bildet den Teilraum K[x1 , . . . , xn ]hom,k der homogenen Polynome vom Grad k. Es ist n+k−1 Dim(K[x1 , . . . , xn ]hom,k ) = . k Wie bei Polynomen in einer Variable definiert man den Einsetzungshomomorphismus a : K[x1 , . . . , xn ] → K, p 7→ p(a1 , . . . , an ) f¨ ur jedes a ∈ K n . Ist p ∈ K[x1 , . . . , xn ]hom,k ein homogenes Polynom vom n Grad k und a ∈ K , t ∈ K, so ist p(ta) = tk p(a). Ist a ∈ K n eine Nullstelle eines homogenen Polynoms p, so ist auch jedes Vielfaches, also alle Elemente in hai ≤ K n eine Nullstelle von p. Definition 12.3. Sei p = p(x1 , . . . , xn+1 ) ∈ K[x1 , . . . , xn+1 ] homogen vom Grad i > 0, also Linearkombination von Monomen vom Grad i. Dann ist die Nullstellenmenge von p in P(n, K) definiert als Nullp (p) := {(a1 : . . . : an+1 ) ∈ P(n, K)|p(a1 , . . . , an+1 ) = 0}. ˜ → P(n, K) ein homogenes Koordinatensystem, so ist Allgemeiner: Ist κ : P(V) Nullκ (p) := κ−1 (Null(p)). Wir m¨ ussen uns nat¨ urlich fragen, ob das Konzept der projektiven Quadrik mit der Operation der projektiven Gruppe vertr¨ aglich ist. Dies ist in der Tat der Fall: ˜ operiert auf Bifo+ (V) ˜ durch Lemma 12.4. (a) GL(V) ˜ × Bifo+ (V) ˜ → Bifo+ (V) ˜ : (g, Φ) 7→ gΦ GL(V) mit gΦ : V˜ × V˜ → K : (V, W ) 7→ Φ(g −1 (V ), g −1 (W )), so dass gilt: Null(pgΦ ) = g(Null(pΦ )). (b) GLn+1 (K) operiert auf der Menge aller homogenen Polynome vom Grad k durch Variablentransformation: GLn+1 (K) × K[x1 , . . . , xn+1 ]hom,k → K[x1 , . . . , xn+1 ]hom,k , (g, p) 7→ p ◦ g −1 . Es ist Null(p ◦ g −1 ) = g(Null(p)). ˜ vorliegt ist eine wichtige Ubung, ¨ Beweis. Dass eine Operation von GL(V) damit man sieht, warum invertiert wird. Wir beweisen den zweiten Teil: V ∈ Null(pgΦ ) ist ¨aquivalent mit (gΦ)(V, V ) = 0, also Φ(g −1 (V ), g −1 (V )) = 0. Dies bedeutet aber g −1 (V ) ∈ Null(pΦ ). q. e. d. Man muss jedoch ein Wort der Warnung sagen: Nicht immer kann man aus der Quadrik die definierende Bilinearform Φ bis auf Vielfache rekonstruieren. Bemerkung 12.5. Sei K = R. 1.) Ist Φ positiv definit, dann ist Nullp (pΦ ) leer. 2.) Ist Φ semidefinit, so ist Nullp (pΦ ) der projektive Teilraum zum Radikal von Φ. 3.) Ist Φ indefinit, so ist Φ bis auf Vielfache durch Nullp (pΦ ) bestimmt. 82 KAPITEL 4. GEOMETRIE ur alle X 6= 0. Beweis. 1.) ist klar, da Φ(X, X) > 0 f¨ 2.) ist auch klar, aber wichtig: Ist Φ semidefinit so hat Φ eine Gram-Matrix der Form BΦ B = Diag(, . . . , , 0, . . . 0) P P mit = 1 oder = −1, also pΦ ( ni=1 ai Bi ) = di=1 a2i . Das Radikal von Φ ist der Teilraum der von Bd+1 , . . . , Bn erzeugt wird. Es gilt n d n X X X pΦ ( ai Bi ) = 0 ⇔ a2i = 0 ⇔ a1 = . . . = ad = 0 ⇔ ai Bi ∈ Rad(Φ). i=1 i=1 i=1 3.) Wegen des vorausgehenden Lemmas kann man annehmen, dass die Gram-Matrix von Φ die Gestalt Diag(1, . . . , 1, −1, . . . , −1, 0, . . . 0) hat, wobei man mindestens eine 1 und eine −1 auf der Diagonalen hat. Der Rest wird in der Vorlesung skizziert. q. e. d. Definition 12.6. Zwei projektive Quadriken heißen ¨ aquivalent, falls sie in derselben Bahn ˜ unter der Operation von PGL(V) liegen. Aus dem Satz von Sylvester erhalten wir sofort den folgenden Satz. ˜ auf Satz 12.7. ( Projektive Hauptachsentransformation“) Sei K := R. Die Bahnen von GL(V) ” ˜ ˜ Bifo+ (V) haben die Signatur (a+ , a− , a0 ) mit a+ + a− + a0 = Dim V als trennende Invariante. ˜ sind dadurch gekennzeichnet, dass a+ Die resultierenden Bahnen auf {Null(pΦ )|Φ ∈ Bifo+ (V)} und a− noch zus¨ atzlich vertauscht werden k¨ onnen. ur den zweiten Beweis. Der erste Teil folgt sofort aus dem Sylvesterschen Tr¨agheitssatz. F¨ Teil betrachte man die definiten F¨ alle, die leere Quadriken haben, die semidefiniten F¨alle, die projektive Teilr¨ aume als Quadriken haben, und die echten F¨alle, bei denen die Bilinearform bis auf Vielfache reproduzierbar ist, getrennt. q. e. d. ¨ Die Aquivalenzklassen reeller projektiver Quadriken sind durch die Signatur der quadratischen Form beschrieben. Genauer erh¨ alt man Zweidimensionale reelle projektive Quadriken Signatur (a+ , a− , a0 ) Nullstellenmenge Vertreter (3, 0, 0), (0, 3, 0) leer Null(x21 + x22 + x23 ) (2, 1, 0), (1, 2, 0) Kegel Null(x21 + x22 − x23 ) (2, 0, 1), (0, 2, 1) Punkt Null(x21 + x22 ) (1, 1, 1) Geradenpaar Null(x21 − x22 ) (1, 0, 2), (0, 1, 2) (Doppel-)gerade Null(x21 ) (0, 0, 3) proj. Ebene Null(0) Dreidimensionale reelle projektive Qudriken 13. AFFINE QUADRIKEN (V21) Signatur (a+ , a− , a0 ) (4, 0, 0), (0, 4, 0) (3, 1, 0), (1, 3, 0) (2, 2, 0) (3, 0, 1), (0, 3, 1) (2, 1, 1), (1, 2, 1) (2, 0, 2), (0, 2, 2) (1, 1, 2) (1, 0, 3), (0, 1, 3) (0, 0, 4) 13 13.1 83 Nullstellenmenge leer Kegel Kegel Punkt zylindrischer Kegel Gerade Ebenenpaar (Doppel-)Ebene proj. Raum Vertreter Null(x21 + x22 + x23 + x24 ) Null(x21 + x22 + x23 − x24 ) Null(x21 + x22 − x23 − x24 ) Null(x21 + x22 + x23 ) Null(x21 + x22 − x23 ) Null(x21 + x22 ) Null(x21 − x22 ) Null(x21 ) Null(0) Affine Quadriken (V21) Die Operation von Aff n (K) auf K[x1 , . . . , xn ]≤2 Sei 2 · 1 6= 0 in K und p(x1 , . . . , xn ) = n X Fii x2i + i=1 X 2Fij xi xj + i<j n X 2fi xi + c ∈ K[x1 , . . . , xn ]≤2 . i=1 Dann ist p(x1 , . . . , xn ) = (x1 , . . . , xn , 1) F f tr x1 f ... c xn 1 Satz 13.1. (a) (n+1)×(n+1) µ : Ksym → K[x1 , . . . , xn ]≤2 x1 .. : F 7→ pF = (x1 , . . . , xn , 1)F . ∈ K[x1 , . . . , xn ] xn 1 ein Vektorraumisomorphismus auf den Raum der Polynome vom Grad ≤ 2. (n+1)×(n+1) (b) Aff(n, K) operiert auf Ksym durch (n+1)×(n+1) (n+1)×(n+1) Aff(n, K) × Ksym → Ksym : (g, F ) 7→ g −tr F g −1 . (c) Es gilt N ulla (µ(g · F )) = gN ull(µ(F )) wobei a1 .. N ulla (p) = { . ∈ An (K) | p(a1 , . . . , an ) = 0} an 1 die affine Nullstellenmenge von p ist. ubung. Beweis. Leichte Finger¨ A a F f −1 ˜ Ist g = ∈ Aff n (K), und F = so ist 0 1 f tr c Atr F A Atr (F a + f ) −tr ˜ −1 g Fg = (atr F + f tr )A atr F a + 2f tr a + c q. e. d. 84 13.2 KAPITEL 4. GEOMETRIE Homogenisierung. Den Zusammenhang zwischen projektiven und affinen Nullstellengebilden erh¨alt man durch Homogenisierung der Polynome: Definition 13.2. Sei p = p(x1 , . . . , xn ) ∈ K[x1 , . . . , xn ] vom Grad k. Die Homogenisierung von p ist das eindeutige Polynom ph = ph (x1 , . . . , xn+1 ) ∈ K[x1 , . . . , xn+1 ], welches sich aus p dadurch ergibt, dass man jedes vorkommende Monom m durch mxk−d n+1 ersetzt, wo d der Grad von m ist. Z. B. ergibt p = 3 + x1 + x32 ∈ K[x1 , x2 ] die Homogenisierung ph = 3x33 + x1 x23 + x32 . Im n¨achsten Satz fassen wir den affinen Raum als Teilmenge des projektiven Raumes auf, wie in 11.3 diskutiert. Satz 13.3. F¨ ur 0 6= p ∈ K[x1 , . . . , xn ] gilt p = ph (x1 , . . . , xn , 1) und daher Nullp (ph ) ∩ An (K) = Nulla (p). Beweis. Ist (a1 : . . . : an+1 ) ∈ Nullp (ph ) ∩ An (K), so ist an+1 6= 0 und wir k¨onnen oBdA an+1 = 1 annehmen. Also ist der projektive Punkt identifiziert mit dem affinen Punkt (a1 , . . . , an , 1)tr und ph (a1 : . . . : an+1 ) = 0 impliziert p(a1 , . . . , an ) = 0. Die umgekehrte Inklusion ist offensichtlich. q. e. d. ur die affine Teilebene x3 = 1 die Beispiel. Der Kegel Null(x21 + x22 − x23 ) ⊂ P(2, R) liefert f¨ 2 2 Ellipse Null(x1 + x2 − 1) ⊂ A2 (R), f¨ ur die affine Teilebene x2 = 1 eine Hyperbel und f¨ ur die affine Teilebene x1 + x3 = 1 eine Parabel. Dies erkl¨art den Namen Kegelschnitt, wobei die Begriffe Ellipse, Hyperbel und Parabel bei den affinen Quadriken noch genauer eingef¨ uhrt werden. Jedenfalls ist klar, dass es sich um drei affin in¨aquivalente Teilmengen der affinen Ebene handelt, also solche, die nicht durch eine Affinit¨at aufeinander abgebildet werden k¨onnen. Bemerkung 13.4. Ist p ∈ K[x1 , . . . , xn ] vom Grad 2, so sind der affinen Quadrik Nulla (p) ⊆ An (K) zwei projektive Quadriken zugeordnet: Nullp (ph ) ⊆ P(n, K) und Nullp (ph (x1 , . . . , xn , 0) ⊆ P(n − 1, K), denn wir k¨ onnen bei offenkundiger Identifikation sagen: An (K) = P(n, K) − P(n − 1, K). Diese Zuordnung ist geometrisch in dem Sinne, dass sie mit den relevanten Gruppenoperationen vertr¨ aglich ist. Beispiel. Wir wollen eine affine Koordinatentransformation finden, so dass wir erkennen, welche Quadrik durch p := x21 + 2x1 x2 + 2x2 x3 − 4x1 − 2x2 − 2x3 − 3 ∈ R[x1 , x2 , x3 ] dargestellt wird. Wir haben 1 1 0 1 0 1 p = (x1 , x2 , x3 , 1) 0 1 0 −2 −1 −1 −2 x1 x2 −1 −1 x3 −3 1 . Wir f¨ uhren jetzt den angepassten Gauss-Algorithmus durch, um diese Matrix auf eine Art Normalform zu bringen. Es sei daran erinnert, dass die letzte Zeile der umformenden Matrizen 13. AFFINE QUADRIKEN (V21) 85 immer (0, . . . , 0, 1) sein muss, da wir anders als im projektiven Fall mit affinen Transformationen arbeiten. In der linken Spalte stehen die aktuellen Matrizen, die das Polynom beschreiben, in der zweiten Spalte die aktuelle Umformungsmatrix und in der letzten Spalte die Gesamtumformungsmatrix vom Ausgangspolynom bis zum aktuellen. Gram-Matrix 1 1 0 −2 1 0 1 −1 0 1 0 −1 −2 −1 −1 −3 Umformungsschritt Gesamtumformung I4 1 −1 0 2 0 1 0 0 0 0 1 0 0 0 0 1 1 0 0 0 0 −1 1 1 0 1 0 −1 0 1 −1 −7 1 −1 0 2 0 1 0 0 0 0 1 0 0 0 0 1 1 0 0 0 0 1 0 0 0 1 1 0 0 1 0 1 1 0 0 0 0 −1 0 0 0 0 1 0 0 0 0 −6 1 −1 −1 1 0 1 1 1 0 0 1 0 0 0 0 1 Dies lesen wir so: Null(p) = Null(y12 − y22 + y32 − 6) mit x1 = y1 − y2 − y3 + 1, x2 = y2 + y3 + 1, x3 = y3 . Es liegt also ein einschaliges Hyperboloid vor. Hier ist der Satz, der die affine Klassifikation aufstellt. Den Wiedererkennungsalgorithmus, den ¨ wir gerade an einem Beispiel gesehen haben, lassen wir als Ubungsaufgabe. Satz 13.5. (“Affine Hauptachsentransformation”) Sei Q ⊂ An (R) eine Quadrik. Dann finden wir ein Koordinatensystem von An (R), so dass eine Gleichung von Q in diesen Koordinaten eine der folgenden ist: pn,r,s,,τ := r X i=1 x2i − r+s X x2i + 2xn + τ ∈ R[x1 , . . . , xn ] i=r+1 mit r + s ≤ n, 0 < r ≥ s ≥ 0, ∈ {0, 1} mit = 0 falls r + s = n, τ ∈ {−1, 0, 1} mit τ = 0 falls = 1. Mit dieser Maßgabe sind nur die folgenden M¨ oglichkeiten bei nicht leeren Quadriken aquivalent: pn,r,r,,τ und pn,r,r,,−τ . Die leeren Quadriken korrespondieren zu den F¨ allen (s, , τ ) = ¨ (0, 0, 1). 86 KAPITEL 4. GEOMETRIE ¨ Man gebe die Signatur der Homogenisierung (pn,r,s,,τ )h und die des homogenen quaUbung: dratischen Anteils (pn,r,s,,τ )2 an. Beweis. (Skizze) Die Normierung der homogenen Komponente vom Grad 2 ist aus der Transformationsformel sofort klar, weil symmetrische Bilinearformen immer eine Orthogonalbasis haben. Hat die zugeh¨ orige Gram-Matrix H¨ ochstrang, so sagt uns die Formel, dass wir auch den linearen Anteil durch geeignete Nullpunktswahl zum Verschwinden bringen k¨onnen. Danach k¨onnen wir durch Multiplikation mit einem Faktor ungleich Null und einer Streckung vom aktuellen Nullpunkt aus die obige Form erreichen. Hat die Gram-Matrix nicht H¨ochstrang, so haben wir noch viel Freiheit beim linearen Anteil der Transformation, der bewirkt, dass dann nur eine Komponente f¨ ur den linearen Anteil unseres Polynoms u ¨brigbleibt. Der Rest ist wieder Normierung. Zur Eindeutigkeit sei zweierlei gesagt: In den F¨allen, wo die Nullstellenmenge den ganzen affinen Raum affin erzeugt, l¨ asst sich die Gleichung aus der Nullstellenmenge bis auf einen konstanten Faktor reproduzieren. In anderen F¨ allen kann man nur auf den Typ der Gleichung schliessen. Die Einzelheiten sind etwas m¨ uhsam. q. e. d. Hier ist eine Liste der 3-dimensionalen reell affinen Quadriken, die vier affin unabh¨angige Punkte enthalten, also nicht in einer affinen Teilebene enthalten sind. (r, s, , τ ) (3, 0, 0, −1) (2, 1, 0, 0) (2, 1, 0, −1) (2, 1, 0, 1) (2, 0, 0, −1) (2, 0, 1, 0) (1, 1, 0, −1) (1, 1, 0, 0) (1, 1, 1, 0) (1, 0, 0, −1) (1, 0, 1, 0) Nullstellenmenge Ellipsoid Doppelkegel einschaliges Hyperboloid zweischaliges Hyperboloid elliptischer Zylinder elliptisches Paraboloid hyperbolischer Zylinder sich schneidendes Ebenenpaar hyperbolisches Paraboloid paralleles Ebenenpaar parabolischer Zylinder Vertreterpolynom x21 + x22 + x23 − 1 x21 + x22 − x23 x21 + x22 − x23 − 1 x21 + x22 − x23 + 1 x21 + x22 − 1 x21 + x22 + 2x3 x21 − x22 − 1 x21 − x22 x21 − x22 + 2x3 x21 − 1 x21 + 2x3 Es stellt sich nun die Frage, wie diese Klassifikation im Euklidischen Fall aufspaltet. Satz 13.6. (Euklidische Hauptachsentransformation) Sei Q ⊂ En eine Quadrik. Dann finden wir ein orthonormales Koordinatensystem von En , so dass eine Gleichung von Q in diesen Koordinaten eine der folgenden ist: pn,r,s,a,b,,τ := r X i=1 2 (xi /ai ) − r+s X (xi /bi )2 + 2xn + τ ∈ R[x1 , . . . , xn ] i=r+1 mit r + s ≤ n, 0 < r ≥ s, ∈ {0, 1} mit = 0 falls r + s = n, τ ∈ {−1, 0, 1} mit τ = 0 falls = 1 und a = (a1 , . . . , ar ) ∈ (R>0 )r , b = (br+1 , . . . , br+s ) ∈ (R>0 )s beide monoton steigend. Erzeugt die Quadrik ganz En als affinen Raum, so sind die ai und bi durch die Quadrik eindeutig bestimmt. Beweis. (Skizze) Im Unterschied zum affinen Satz muss der lineare Anteil der Koordinatentransformation orthogonal sein. Hierf¨ ur hat man den Satz u ¨ber reelle Hauptachsentransformationen zur Verf¨ ugung. q. e. d. Kapitel 5 Multilineare Algebra 14 Tensorprodukte. Sei R ein kommutativer Ring, K ein K¨ orper. 14.1 Tensorprodukte von Moduln. Definition 14.1. Seien M, N, T Moduln u ¨ber R. 1) Eine Abbildung Φ : M × N → T heißt bilinear, falls Φ(aV + bV 0 , W ) = aΦ(V, W ) + bΦ(V 0 , W ) f¨ ur alle a, b ∈ R, V, V 0 ∈ M, W ∈ N und Φ(V, aW + bW 0 ) = aΦ(V, W ) + bΦ(V, W 0 ) f¨ ur alle a, b ∈ R, V ∈ M, W, W 0 ∈ N. 2) (⊗, T ) heißt Tensorprodukt von M und N , falls a) ⊗ : M × N → T : (V, W ) 7→ V ⊗ W bilinear ist und b) f¨ ur jeden R-Modul U und jede bilineare Abbildung Φ : M × N → U genau eine lineare Abbildung ϕ : T → U existiert, so dass das Diagramm ⊗: M ×N → Φ& T ↓ϕ U kommutiert, d. h. Φ(V, W ) = ϕ(V ⊗ W ). Man sagt auch kurz: Ein Tensorprodukt ist eine universelle bilineare Abbildung . Bemerkung 14.2. Sei A ∈ K m×n , B ∈ K o×p . Das Kronecker-Produkt von A und B ist definiert als A11 B A12 B . . . A1n B A21 B A22 B . . . A2n B A ⊗ B := ∈ K mo×np . .. .. .. . . . Am1 B Am2 B . . . Amn B Dann ist ⊗ : K m×n × K o×p → K mo×np sicher bilinear. Frage: Ist es universell, also ein Tensorprodukt? 87 88 KAPITEL 5. MULTILINEARE ALGEBRA ¨ Ubung: F¨ ur beliebige Matrizen A, B, C u ¨ber K gilt: A ⊗ (B ⊗ C) = (A ⊗ B) ⊗ C. Weiter ist A ⊗ B ¨ aquivalent zu B ⊗ A. Gilt n = m und o = p, so ist A ⊗ B ¨ahnlich zu B ⊗ A. Bemerkung 14.3. Falls ein Tensorprodukt von M und N existiert, ist es eindeutig bis auf Isomorphie bestimmt. Beweis. Seien (⊗, T ) und (⊗0 , U ) Tensorprodukte der R-Moduln M und N . Dann haben wir eine lineare Abbildung ϕ : T → U mit V ⊗0 W = ϕ(V ⊗ W ) f¨ ur alle V ∈ M, W ∈ N und eine 0 lineare Abbildung ψ : U → T mit V ⊗ W = ψ(V ⊗ W ). Also hat die Komposition ϕ ◦ ψ : U → U die Eigenschaft V ⊗0 W = (ϕ ◦ ψ)(V ⊗0 W ) f¨ ur alle V ∈ M, W ∈ N ebenso wie die Identit¨at idU von U. Also ist ϕ◦ψ = idU . Analog ψ ◦ϕ = idT . D. h. ϕ und ψ sind invers zueinander. q. e. d. Bemerkung 14.4. Das Kronecker-Produkt ist ein Tensorprodukt. Genauer (⊗, K mo×np ) ist ein Tensorprodukt von K m×n und K o×p . Beweis. Eine bilineare Abbildung Φ ist festgelegt durch die Bilder von (B, C), wobei B und C die Basisvektoren von je einer Basis der beiden Ausgangsvektorr¨aume durchlaufen. Im vorliegenden Fall kann man die Standardbasen nehmen. Aber dann bilden die Kronecker-Produkte B ⊗ C eine Basis von K mo×np , n¨ amlich auch wieder die Standardbasis bei geeigneter Anordnung. Also ist durch ϕ : B ⊗ C 7→ Φ(B, C) eine lineare Abbildung festgelegt, die unser Diagramm zum Kommutieren bringt. Es ist klar, dass man keine andere Wahl f¨ ur ϕ hat. q. e. d. Damit ist der Existenz- und Eindeutigkeitssatz f¨ ur Tensorprodukte von Vektorr¨aumen bewiesen. Bemerkung 14.5. Sind V und W K-VR der Dimension n bzw. m, so hat das Tensorprodukt V ⊗ W die Dimension nm. Genauer, ist B ∈ V m eine Basis von V und C ∈ W n eine Basis von W, so ist B ⊗ C := (B1 ⊗ C1 , B1 ⊗ C2 , . . . , B1 ⊗ Cn , B2 ⊗ C1 , . . . Bm ⊗ Cn ) ∈ (V ⊗ W)mn eine Basis von V ⊗ W. Satz 14.6. Seien M und N R-Moduln. Dann existiert bis auf Isomorphie genau ein Tensorprodukt. Dieses wird mit (⊗, M ⊗ N ) bezeichnet. Beweis. Die Eindeutigkeit haben wir schon bewiesen. Zur Existenz: Sei F der freie R-Modul mit Basis M × N , d.h. X F ={ a(m,n) (m, n) | a(m,n) ∈ R, a(m,n) 6= 0 nur f¨ ur endlich viele (m,n)} (m,n)∈M ×N Setze U := h(rm1 +m2 , sn1 +n2 )−rs(m1 , n1 )−r(m1 , n2 )−s(m2 , n1 )−(m2 , n2 ) | r, s ∈ R, m1 , m2 ∈ M, n1 , n2 ∈ N iR ≤ F. Behauptung: Ist T := F/U so ist ⊗ : M × N → T, (m, n) 7→ (m, n) + U =: π(m, n) ein Tensorprodukt. ⊗ ist bilinear nach Konstruktion. ⊗ hat auch die universelle Eigenschaft: Ist V ein R-Modul und ψ : M × N → V bilinear, so gibt es genau einen R-Modulhomomorphismus ϕ : F → V mit ϕM ×N = ψ, da F frei auf M × N . Aus der Bilinearit¨ at von ψ folgt, dass U ≤ Kern(ϕ). q. e. d. 14. TENSORPRODUKTE. 89 Bemerkung 14.7. Sind M, N zwei R-Moduln, so erzeugen die m ⊗ n mit m ∈ M , n ∈ N das Tensorprodukt M ⊗ N als R-Modul. M = hm1 , . . . , mr i, N = hn1 , . . . , ns i, so ist jede bilineare Abbildung Φ : M × N → U eindeutig bestimmt durch alle Φ(mi , nj ) und hmi ⊗ nj | 1 ≤ i ≤ r, 1 ≤ j ≤ siR = M ⊗ N . Beispiel. (a) R = Z, M = Z/2Z = hai, N = Z/3Z = hbi. Hier ist M ⊗ N = {0}. Denn jede bilineare Abbildung Φ : M × N → U erf¨ ullt Φ(a, b) = 3Φ(a, b) − 2Φ(a, b) = Φ(a, 3b) − Φ(2a, b) = 0 − 0 = 0. (b) R = Z, M = Z/2Z = hai, N = Z/4Z = hci. Dann ist M ⊗ N = Z/2Z. Denn jede bilineare Abbildung Φ : M × N → U ist eindeutig bestimmt durch Φ(a, c) =: u. Es ist 2u = Φ(2a, c) = 0. Umgekehrt definiert Φ : M × N → Z/2Z, Φ(a, c) := 1 + 2Z eine bilineare Abbildung. Bemerkung 14.8. Sind M, N zwei R-Moduln so ist M ⊗ N ∼ = N ⊗ M . Das Tensorprodukt ist also kommutativ. Beweis. Die Abbildung M ×N → N ⊗M, (m, n) 7→ n⊗m ist nach Definition des Tensorprodukts bilinear, also gibt es genau einen R-Modulhomomorphismus σ : M ⊗N → N ⊗M, m⊗n 7→ n⊗m. Ebenso folgt die Existenz einer eindeutigen R-linearen Abbildung τ : N ⊗ M → M ⊗ N, n ⊗ m 7→ m⊗n. Die Verkn¨ upfung σ◦τ : N ⊗M → N ⊗M erf¨ ullt σ◦τ (n⊗m) = n⊗m f¨ ur alle n ∈ N, m ∈ M . Da die n ⊗ m mit n ∈ N, m ∈ M den R-Modul N ⊗ M erzeugen, ist σ ◦ τ die Identit¨at. Ebenso folgt τ ◦ σ = idM ⊗N und somit σ = τ −1 . q. e. d. Beachten Sie: Sind V und W zwei K-Vektorr¨aume mit Basen B ∈ V n und C ∈ W n , so ist jedes Element von V ⊗ W eine eindeutige K-Linearkombination der Elemente in B ⊗ C, die Dimension von V ⊗ W ist also nm. Jedoch ist nicht jedes Element von V ⊗ W ein reiner Tensor, also von der Form V ⊗ W mit v ∈ V, W ∈ W. Bemerkung 14.9. Es ist K n×m ∼ = K n ⊗ K m. Beweis. Die Abbildung K n×1 × K m×1 : (x, y) 7→ xy tr ist K-bilinear, faktorisiert also u ¨ber das Tensorprodukt, ϕ : K n×1 ⊗ K m×1 : x ⊗ y 7→ xy tr ist K-linear, Kern(ϕ) = {0}, Bild(ϕ) = K n×m (ganz explizit sind alle Rang 1 Matrizen von der ¨ Form xy tr mit x ∈ K n×1 , y ∈ K m×1 (Ubung) und jede Matrix ist Summe von Rang 1 Matrizen) und daher ϕ ein Isomorphismus. q. e. d. Definition 14.10. (Tensorrang) Seien V und W zwei endlichdimensionale K-Vektorr¨ aume und X ∈ V ⊗ W. Der Tensorrang von X ist Rg(X) := min{r ∈ N0 | ∃V1 , . . . , Vr ∈ V, W1 , . . . , Wr ∈ W so dass X = V1 ⊗ W1 + . . . + Vr ⊗ Wr }. ∼ Lemma 14.11. Der Tensorrang von X ist wohldefiniert und ≤ min(dim(V), dim(W)). Ist V = n m n×m ∼ ∼ K , W = K , so ist nach Bemerkung 14.9 V ⊗ W = K und der Tensorrang von X gleich dem Rang der Matrix X ∈ K n×m . 90 KAPITEL 5. MULTILINEARE ALGEBRA Beweis. Wir zeigen den 2. Teil, die Wohldefiniertheit ist dann klar, da der Rang eine Invariante der Operation von GLn (K) × GLm (K) auf K n×m ist, also unabh¨angig von der Wahl der Isomorphismen V ∼ achst einmal ist jede Matrix A ∈ K n×m vom Rang 1 von der = K n, W ∼ = K m . Zun¨ Form xy tr . Dazu w¨ ahlen wir als x die erste Spalte 6= 0 in A. Da der Rang von A gleich 1 ist, folgt dass jede andere Spalte ein Vielfaches von x ist, Ai = yi x mit y ∈ K m . Dann ist A = xy tr . Die Matrizen vom Rang 1 sind also genau die reinen Tensoren 6= 0. Sei nun A ∈ K n×m vom Rang r. Dann ist r ≤ min(n, m) und jede Darstellung von A als Summe von Matrizen vom Rang 1 hat ¨ mindestens r Summanden. In der Ubung entwickeln Sie einen Algorithmus, um A als Summe von genau r Rang 1 Matrizen darzustellen. q. e. d. 0 1 2 3 Beispiel: Sei A = 1 2 3 4 ∈ R3×4 . Dann ist Rg(A) = 2 und A = (1, 1, 1)tr (0, 1, 2, 3) + 2 3 4 5 tr (0, 1, 2) (1, 1, 1, 1). 14.2 Tensorprodukte von Abbildungen. Wir haben noch eine unmittelbare Konsequenz der Definition des Tensorprodukts: Die Existenz von Produkten von linearen Abbildungen. Satz 14.12. Seien V, V 0 und W, W 0 K-Vektorr¨ aume mit linearen Abbildungen α : V → V 0 und β : W → W0 . 1) Es gibt genau eine lineare Abbildung α ⊗ β : V ⊗ W → V0 ⊗ W0 mit (α ⊗ β)(V ⊗ W ) = α(V ) ⊗ β(W ) f¨ ur alle V ∈ V, W ∈ W. 2) Sind B, B 0 , C, C 0 Basen von V, V 0 , W, W 0 , so gilt B 0 ⊗C 0 0 0 (α ⊗ β)B⊗C = B αB ⊗ C β C , wobei das zweite ⊗ das Kronecker-Produkt von Matrizen ist. 3) ⊗ : Hom(V, V 0 ) × Hom(W, W 0 ) → Hom(V ⊗ W, V 0 ⊗ W 0 ) : (ϕ, ψ) → ϕ ⊗ ψ ist ein Tensorprodukt, insbesondere Hom(V, V 0 ) ⊗ Hom(W, W 0 ) ∼ = Hom(V ⊗ W, V 0 ⊗ W 0 ). Beweis. 1) Offenbar ist V × W → V 0 ⊗ W 0 : (V, W ) 7→ α(V ) ⊗ β(W ) bilinear. Mit der Definition des Tensorproduktes folgt die Behauptung. 0 0 2) Sei B αB =: M, C β C =: N Dann ist X X (α ⊗ β)(Bi ⊗ Cj ) = α(Bi ) ⊗ β(Cj ) = ( Mki Bk0 ) ⊗ ( Nlj Cl0 ) = k = XX k l Mki Nlj Bk0 ⊗ Cl0 . l 3) Folgt aus 2) und Bemerkung 14.4 u ¨ber das Kronecker-Produkt. q. e. d. Offenbar kann man K ⊗ W mit W identifizieren, indem man k ⊗ W mit kW f¨ ur k ∈ K, W ∈ W identifiziert. Dann bekommen wir eine wichtige Folgerung: 14. TENSORPRODUKTE. 91 Folgerung 14.13. V ∗ ⊗ W ∼ = Hom(V, W). Genauer, ⊗ : V ∗ × W → Hom(V, W) : (ϕ, W ) 7→ (V 7→ ϕ(V )W ) ist ein Tensorprodukt. Beweis. V ∗ ⊗ W ∼ = Hom(V, K) ⊗ Hom(K, W) ∼ = Hom(V ⊗ K, K ⊗ W) ∼ = Hom(V, W) q. e. d. Bemerkung 14.14. (Konstantenerweiterung) Sei K Teilk¨ orper eines K¨ orpers F und V ein K-Vektorraum. Dann ist VF := F ⊗ V ein F -Vektorraum, die Konstantenerweiterung, mit a(b ⊗ V ) := (ab) ⊗ V f¨ ur alle a, b ∈ F, V ∈ V. 1) Ist B ∈ V n eine K-Basis von V, so ist 1 ⊗ B := (1 ⊗ B1 , . . . , 1 ⊗ Bn ) ∈ (VF )n eine F -Basis von VF . 2) Ist W ein weiterer K-Vektorraum und ϕ : V → W linear (¨ uber K), so ist e 1 ⊗ ϕ : VF → WF m linear u ¨ber F . Ist C ∈ W eine K-Basis von W, so ist 1⊗C (e 1 ⊗ ϕ)1⊗B = C ϕB . 3) Die beiden F -Vektorr¨ aume Hom(V, W)F und Hom(VF , WF ) werden identifiziert, indem man a ⊗ ϕ f¨ ur a ∈ F, ϕ ∈ Hom(V, W) mit e a ⊗ ϕ identifiziert. (Hinweis: F × Hom(V, W) → Hom(VF , WF ) : (a, ϕ) 7→ e a ⊗ ϕ ist ein Tensorprodukt.) √ ¨ Beispiel: C ⊗R C ∼ mit Q[ 5] ∼ = C ⊕ C, jedoch C ⊗C C ∼ = C. (als Ubung = Q[x]/(x2 − 5).) Es gilt sogar allgemeiner: Lemma 14.15. Seien R, S kommutative Ringe, M ein R-Modul und ϕ : R → S ein Ringhomomorphismus. Dann ist S verm¨ oge ϕ ein R-Modul. Weiter wird Mϕ := S ⊗ M zu einem S-Modul durch a(b ⊗ V ) := (ab) ⊗ V f¨ ur alle a, b ∈ S, V ∈ M. Mϕ heißt die Konstantenerweiterung von M mit S. Ist M ein freier R-Modul mit Basis B ∈ M n , so ist MS frei mit Basis 1 ⊗ B := (1 ⊗ B1 , . . . , 1 ⊗ Bn ) ∈ (MS )n . F¨ ur b ∈ R, V ∈ M ist 1 ⊗ bV = ϕ(b) ⊗ V ∈ Mϕ . Beweis. Die Modulvorschriften folgen direkt aus der Bilinearit¨at des Tensorprodukts. Zur Freiheit m¨ ussen wir zeigen, dass f¨ ur jede Abbildung f : 1 ⊗ B → N in einen S-Modul N ein eindeutig bestimmter S-Modulhomomorphismus existiert, welcher die Abbildung fortsetzt. Die Eindeutigkeit ist klar, da 1⊗B ein S-Modulerzeugendensystem von MS ist. Zur Existenz: Da 1⊗B in Bijektion zu B steht und N auch ein R-Modul ist, gibt es einen eindeutigen R-Modulhomomorphismus f˜ : M → N mit f˜(Bi ) = f (1 ⊗ Bi ). Definiere f˜ : MS → N durch f˜(a ⊗ m) = af˜(m) f¨ ur alle m ∈ M , a ∈ S. q. e. d. Beispiel: Ist M ein freier Z-Modul mit Basis B ∈ M n , so ist MQ := Q ⊗ M ein Q-Vektorraum mit Basis B, in dem M eingebettet ist. Betrachtet man jedoch den Ringhomomorphismus Z → Z/2Z = F2 So ist Mϕ = F2 ⊗ M eine endliche Menge isomorph zu M/2M . 92 15 15.1 KAPITEL 5. MULTILINEARE ALGEBRA Tensoralgebra, Graßmann Algebra und Anwendungen. Die Tensoralgebra Wir haben bislang nur von Tensorprodukten von zwei Vektorr¨aumen gesprochen. Es ist klar, dass man die Konstruktion auch f¨ ur n Vektorr¨aume durchf¨ uhren kann. Definition 15.1. Seien Vi f¨ ur i = 1, . . . n und W, T K-Vektorr¨ aume. Eine Abbildung Ψ : ×ni=1 Vi → W heißt multilinear, falls sie in jeder Komponente linear ist. (⊗, T ) heißt Tensorprodukt der Vi , falls T ein K-Vektorraum ist, ⊗ : ×ni=1 Vi → T : (V1 , . . . , Vn ) 7→ V1 ⊗ . . . ⊗ Vn multilinear ist und f¨ ur jede multilineare Abbildung Ψ : ×ni=1 Vi → W in einen beliebigen K-Vektorraum W genau eine lineare Abbildung ϕ : T → W existiert mit Ψ(V1 , . . . , Vn ) = ϕ(V1 ⊗ . . . ⊗ Vn ) f¨ ur alle Vi ∈ Vi , i = 1, . . . , n. Satz 15.2. Bis auf Isomorphie gibt es genau ein Tensorprodukt (⊗, T ) von (V1 , . . . , Vn ). Dieses wird mit ⊗ni=1 Vi bezeichnet. Beweis. Die Eindeutigkeit folgt wieder direkt aus der universellen Eigenschaft wie in Bemerkung 14.3 (der Beweis u agt sich direkt). ¨bertr¨ Die Existenz zeigen wir durch Induktion u ur n = 1 ist T = V1 und der Fall n = 2 ist in ¨ber n. F¨ 14.6 behandelt worden. Im Allgemeinen setzen wir T := (V1 ⊗ . . . ⊗ Vn−1 ) ⊗ Vn und ⊗ (V1 , . . . , Vn ) := (V1 ⊗ . . . ⊗ Vn−1 ) ⊗ Vn . Dies ist ein Tensorprodukt, denn ist W ein K-Vektorraum und Ψ : ×ni=1 Vi → W multilinear, so auch die Abbildung ΨV f¨ ur jedes feste V ∈ Vn , definiert durch ΨV : ×n−1 i=1 Vi → W, ΨV (V1 , . . . , Vn−1 ) := Ψ(V1 , . . . , Vn−1 , V ). Nach Induktionsvoraussetzung gibt es eine eindeutige lineare Abbildung ϕV : V1 ⊗ . . . ⊗ Vn−1 → W mit ΨV (V1 , . . . , Vn−1 ) = ϕV (V1 ⊗ . . . ⊗ Vn−1 ) f¨ ur alle Vi ∈ Vi , i = 1, . . . , n − 1 und V ∈ Vn . Da Ψ linear in der n-ten Komponente ist, ist die Abbildung χ : (V1 ⊗ . . . ⊗ Vn−1 ) × Vn → W, χ(V1 ⊗ . . . ⊗ Vn−1 , Vn ) 7→ ϕVn (V1 ⊗ . . . ⊗ Vn−1 ) bilinear, faktorisiert also nach Satz 14.6 eindeutig u ¨ber das Tensorprodukt T . q. e. d. Da offensichtlich sowohl V1 ⊗ (V2 ⊗ V3 ) als auch (V1 ⊗ V2 ) ⊗ V3 ein Tensorprodukt von (V1 , V2 , V3 ) ist, haben wir ein Korollar, das uns erm¨oglicht in Zukunft alle Klammerungen bei Tensorprodukten zu ignorieren. Folgerung 15.3. (V1 ⊗ V2 ) ⊗ V3 ∼ = V1 ⊗ (V2 ⊗ V3 ) ∼ = V1 ⊗ V2 ⊗ V3 mit (V1 ⊗ V2 ) ⊗ V3 ↔ V1 ⊗ (V2 ⊗ V3 ) ↔ V1 ⊗ V2 ⊗ V3 f¨ ur alle Vi ∈ Vi , i = 1, 2, 3. 15. TENSORALGEBRA, GRASSMANN ALGEBRA UND ANWENDUNGEN. 93 Definition 15.4. Sei V ein K-Vektorraum. Setze V ⊗0 := T 0 V := K1, ein eindimensionaler K-Vektorraum mit Basis 1 und V ⊗n := T n V := ⊗n V f¨ ur n > 0. Die Tensoralgebra T V von V ist definiert als M T V := T iV i∈Z≥0 mit der bilinearen Multiplikation (V1 ⊗ . . . ⊗ Vm )(W1 ⊗ . . . ⊗ Wn ) := V1 ⊗ . . . ⊗ Vm ⊗ W1 ⊗ . . . ⊗ Wn f¨ ur alle V ∈ V m , W ∈ V n und 1X = X = X1 f¨ ur alle X ∈ T V. F¨ ur die Tensoralgebra k¨ onnen wir nicht nur zeigen, dass sie eine Algebra ist, sondern dass sie sogar eine universelle Eigenschaft hat ¨ ahnlich wie das Tensorprodukt selbst. Satz 15.5. 1) T V ist eine assoziative K-Algebra. 2) Ist A eine assoziative K-Algebra mit Einselement und ϕ : V → A eine lineare Abbildung, so gibt es genau einen Algebrenhomomorphismus ϕ : T V → A, der ϕ fortsetzt. Beweis. 1) Zeige, dass die Multiplikation wohldefiniert ist. Klar: T n V × T m V → T n+m V : (X, Y ) → X ⊗ Y ist bilinear, sogar ein Tensorprodukt. Also ist die Multiplikation auf T n V × T m V wohldefiniert und bilinear. Diese wird bilinear auf ganz T V × T V → T V fortgesetzt, was wegen der Struktur von T V als direkte Summe wohldefiniert ist. Offenbar ist dieses Produkt auch assoziativ, so dass wir eine K-Algebra mit Eins haben. 2) Klar: Soll ϕ ein Homomorphismus f¨ ur Algebren mit Eins sein, so muss ϕ(1) = 1 ∈ A und ϕ(V1 ⊗ . . . ⊗ Vm ) = ϕ(V1 ) · · · ϕ(Vm ) f¨ ur alle V ∈ V n sein. Offenbar ist aber V n → A : V 7→ ϕ(V1 ) · · · ϕ(Vm ) multilinear, so dass ϕ|T n V wohldefiniert ist. Da T V direkte Summe der T m V ist, folgt die Behauptung. q. e. d. 15.2 Schiefsymmetrische Tensoren und die Graßmann-Algebra. Lernziel: Alternierende Multilinearformen, alternierende Multivektoren, geometrische Interpretation, symmetrische Tensoren, Zusammenhang mit Polynomen. Wir hatten fr¨ uher Determinanten als alternierende Multilinearformen kennengelernt. Wir wollen jetzt einen breiteren Kontext f¨ ur Determinanten herstellen. Unsere Vektorr¨aume bleiben in der Regel endlich erzeugt. Definition 15.6. Seien V, W K-Vektorr¨ aume. 1) Eine multilineare Abbildung Ψ : V k → W heißt alternierend, falls Ψ(V ) = 0 f¨ ur alle V ∈ V k , f¨ ur die verschiedene i, j ∈ k existieren mit Vi = Vj . 2) (∧, T ) heißt ein ¨ außeres k-faches Produkt von V oder ein alternierendes k-faches Produkt, falls T ein K-Vektorraum ist, ∧ : V k → T : V 7→ V1 ∧ . . . ∧ Vk eine alternierende multilineare Abbildung ist und f¨ ur jeden K-Vektorraum W und jede alternierende multilineare Abbildung Ψ : V k → W genau eine lineare Abbildung ϕ : T → W existiert mit Ψ(V ) = ϕ(V1 ∧ . . . ∧ Vk ) f¨ ur alle V ∈ V k . 94 KAPITEL 5. MULTILINEARE ALGEBRA Bemerkung 15.7. Da Λk wieder verm¨ oge einer universellen Eigenschaft definiert ist, folgt wie beim Tensorprodukt dass in alternierendes k-faches Produkt von V bis auf Isomomorphie eindeutig ist, falls es existiert. Satz 15.8. Sei V ein endlich erzeugter K-Vektorraum. Es existiert bis auf Isomorphie genau ein ¨ außeres k-faches Produkt (∧, T ). Bezeichnung: Λk V := T . Beweis. Falls T existiert, sollte es nach Definition der Tensorpotenz ein epimorphes Bild von T k V sein. Ist : T k V → T dieser Epimorphismus, so gilt sicherlich V1 ⊗ . . . ⊗ Vk ∈ Kern , sobald Vi = Vj ist f¨ ur ein Paar (i, j) mit i 6= j. Dies f¨ uhrt uns zu folgendem Ansatz: T := (T k V)/U, wo U von allen V1 ⊗ . . . ⊗ Vk mit V ∈ V k , Vi = Vj f¨ ur ein Paar (i, j), i 6= j erzeugt wird. Es folgt sofort: ∧ : V k → T : V 7→ V1 ∧ . . . ∧ Vk := V1 ⊗ . . . ⊗ Vk + U ist multilinear und alternierend. Wir u ufen die Universalit¨at: Sei Ψ : V k → W multilinear ¨berpr¨ und alternierend. Nach Definition des Tensorproduktes haben wir eine eindeutige lineare Abbildung α : T k V → W mit Ψ(V ) = α(V1 ⊗ . . . ⊗ Vk ) f¨ ur alle V ∈ V k . Da Ψ alternierend ist, folgt U ≤ Kern α. Also faktorisiert α u urlichen Epimorphismus ν : T k V → T , d. h. es gibt ¨ber den nat¨ eine eindeutige lineare Abbildung ϕ : T → W mit ϕ ◦ ν = α, d. h. mit Ψ(V ) = ϕ(V1 ∧ . . . ∧ Vk ). q. e. d. Leider sagt uns der Satz nichts u ¨ber die Dimension von Λk V. Wir schauen uns einige Beispiele an: Beispiel. 1) Sei k > Dim V, dann ist Λk V = {0}. Denn sei Ψ : V k → W alternierend, so ist jedes V ∈ V k linear abh¨ angig und somit Ψ(V ) = 0 (Schluss wie bei der Determinante.) 2) Λ1 V ∼ = V. 3) Sei n = Dim V. Dann gilt Dim Λn V = 1. Genauer, ist B ∈ V n eine Basis von V, so ist ¨ (B1 ∧ . . . ∧ Bn ) eine Basis von Λn V. (Beweis: Ubung.) Andere Sichtweise: Im letzten Semester hatten wir bereits gezeigt, dass der Vektorraum der alternierenden Linearformen, den wir mit Λn V ∗ bezeichneten, eindimensional ist, und zwar von der Determinante erzeugt wird. Satz 15.9. Sei Dim V = n. Dann gilt Dim Λk V = nk . Genauer: Sei B ∈ V n eine Basis von V. F¨ ur jede k-elementige Teilmenge I von n mit Elementen i1 < i2 < . . . < ik sei BI := Bi1 ∧ . . . ∧ Bik . Dann ist (BI |I ⊆ n, |I| = k) eine Basis von Λk V. Beweis. 1) Die BI erzeugen Λk V: Zur Vorbereitung beachte V1 ∧ . . . . . . ∧ Vk = sign(σ)W1 ∧ . . . ∧ Wk f¨ ur alle V ∈ V k , σ ∈ Sk , W = V ◦ σ. Dies folgt sofort f¨ ur Transpositionen σ und da diese Sk erzeugen auch f¨ ur alle σ ∈ Sk . Da nun klar ist, dass Λk V von Elementen der Form Ba(1) ∧ . . . ∧ Ba(k) erzeugt wird wo a : k → n eine beliebige Abbildung ist, folgt die Erzeugung aus der Multilinearit¨ at, der Umsortierungseigenschaft oben und der offensichtlichen Tatsache, dass Ba(1) ∧ . . . ∧ Ba(k) = 0 ist, falls a P nicht injektiv ist. 2) Lineare Unabh¨ angigkeit: Sei ur gewisse aI ∈ K, P I ⊆ n, |I| P = k. Sei nun I aI BI = 0 f¨ J ⊆ n, |J| = k. Um aJ = 0 zu zeigen, betrachte πJ : V → hBi |i ∈ Ji : ai Bi 7→ i∈J ai Bi und sei det die Determinante von hBi |i ∈ Ji. Dann ist ΨJ : V k → K : V 7→ det(πJ (V1 ), . . . , πJ (Vk )) 15. TENSORALGEBRA, GRASSMANN ALGEBRA UND ANWENDUNGEN. 95 multilinear und alternierend. Nach Definition des a¨ußeren Produktes haben wir eine eindeutige lineare Abbildung ϕJ mit ur alle V ∈ V k . Klar: ϕJ (BI ) = δIJ . P ΨJ (V ) = ϕJ (V1 ∧ . . . ∧ Vk ) f¨ Wenden wir also ϕJ auf I aI BI = 0 an, so folgt aJ = 0. q. e. d. Folgerung 15.10. Ein k-Tupel V ∈ V k ist linear abh¨ angig genau dann, wenn V1 ∧ . . . ∧ Vk = 0 gilt. Bislang war ∧ nur eine alternierende multilineare Abbildung. Wir wollen uns u ¨berlegen, dass man ∧ auch als Verkn¨ upfung auffassen kann und dabei alle Λk V zu einem gr¨oßeren Ganzen zusammenfassen. Definition 15.11. Sei Dim V = n und Λ0 V := K1 ein eindimensionaler K-Vektorraum mit Basis (1). Man setzt n M ΛV := Λk V k=0 und definiert eine Multiplikation auf ΛV, indem man die durch ∧k,l : Λk V × Λl V → Λk+l V : (V1 ∧ . . . ∧ Vk , W1 ∧ . . . ∧ Wl ) 7→ V1 ∧ . . . ∧ Vk ∧ W1 ∧ . . . ∧ Wl definierten bilinearen Abbildungen zu einer bilinearen Abbildung ∧ : ΛV × ΛV → ΛV zusammensetzt. (ΛV, ∧) heißt die ¨ außere Algebra oder Graßmann-Algebra von V. Satz 15.12. ΛV ist eine assoziative Algebra der Dimension 2Dim V . Beweis. Wir m¨ ussen zuerst u ¨berlegen, dass das Produkt wohldefiniert ist. Dies ist mit der gegebenen Definition etwas umst¨ andlich. Hier sind zwei andere M¨oglichkeiten: 1) Man w¨ahlt eine Basis B ∈ V n und definiert f¨ ur die Basis (BI |I ⊆ n) das Produkt als (BI , BJ ) 7→ BI ∧ BJ := Bi1 ∧ . . . ∧ Bj|J| , was also 0 oder bis aufs Vorzeichen BI∪J im Falle I ∩ J = ∅ ist. Dann setzt man bilinear fort und rechnet man die Eigenschaft aus der Definition nach. L 2) Man geht von der Tensoralgebra T V aus und betrachtet den Teilraum AV := k≥0 Ak V mit Ak V ≤ T k V erzeugt von allen V1 ⊗ . . . ⊗ Vk f¨ ur V ∈ V k mit zwei verschiedenen Indizes i, j mit i 6= j, Vi = Vj . Wir erinnern uns Λk V = T k V/Ak V. Also haben wir einen Vektorraumepimorphismus α : T V → ΛV, der bei den Basisvektoren ⊗ durch ∧ ersetzt, mit Kern α = AV. Nun hat AV folgende bemerkenswerte Eigenschaft: X ∈ AV, Y ∈ T V impliziert XY, Y X ∈ AV (was den Relationen 0y = y0 = 0 in einem Ring R entspricht). Deswegen gilt f¨ ur X, X 0 , Y, Y 0 ∈ T V: X − X 0 , Y − Y 0 ∈ AV impliziert XY − X 0 Y 0 ∈ AV, d. h. wir k¨onnen f¨ ur die Restklassen nach AV widerspruchsfrei eine Multiplikation u ¨ber die Multiplikation der Vertreter definieren, oder anders ausgedr¨ uckt: α(X) ∧ α(Y ) := α(X ⊗ Y ) 96 KAPITEL 5. MULTILINEARE ALGEBRA ist eine wohldefinierte assoziative Multiplikation f¨ ur ΛV. Bei der ersten M¨ oglichkeit muss man noch die Assoziativit¨at auf den Basisvektoren u ufen, ¨berpr¨ bei der zweiten ist dies u ussig. ¨berfl¨ Die Dimension ergibt sich aus 15.9. Man beachte B∅ ist das Einselement der Algebra. q. e. d. 15.3 Plu ¨ cker Koordinaten. Wir k¨onnen als Anwendung die Teilr¨ aume eines Vektorraumes durch homogene Koordinaten beschreiben. Satz 15.13. Sei T Rk (V) die Menge der k-dimensionalen Teilr¨ aume von V. Dann ist die Abbildung T Rk (V) → T R1 (Λk V) ≡ P(Λk V) : hV1 , . . . , Vk i 7→ hV1 ∧ . . . ∧ Vk i injektiv. Beweis. Wir u ur V, W ∈ V k ¨berzeugen uns, dass die Abbildung wohldefiniert ist. Sei hV i = hW i f¨ linear unabh¨angig. Dann existiert eine invertierbare Matrix A ∈ GL(k, K) mit V A = W . Es folgt W1 ∧ . . . ∧ Wk = det(A)(V1 ∧ . . . ∧ Vk ) 6= 0. Damit haben wir die Wohldefiniertheit. Zur Injektivit¨at: Seien V, W ∈ V k linear unabh¨angig mit W1 ∧ . . . ∧ Wk = aV1 ∧ . . . ∧ Vk f¨ ur ein a ∈ K ∗ . Wir fassen dies als eine Gleichheit in der Graßmann-Algebra auf und erhalten durch Multiplikation mit Vi , dass Vi ∧ W1 ∧ . . . ∧ Wk = 0 gilt, also Vi linear abh¨ angig von W ist. Es folgt hV i = hW i. q. e. d. ¨ Ubung: Sei B ∈ V n eine Basis von V und A ∈ K n×k . Zeige f¨ ur V := BA ∈ V k gilt: V1 ∧ . . . ∧ Vk = X det A|I×k BI . I Definition 15.14. Sei B ∈ V n eine Basis von V. Dann nennt man die injektive Abbildung n T Rk (V) → P( − 1, K) : hBAi 7→ K ∗ (det A|I×k |I ⊆ n, |I| = k) k Pl¨ ucker-Koordinaten, wobei A ∈ K n×k alle Matrizen vom Rang k durchl¨ auft. ¨ Beispiel: Sei Dim V = 4. Wir wollen uns einen Uberblick u ¨ber alle 2-dimensionalen Teilr¨aume verschaffen. Nach der letzten Definition werden diese beschrieben durch homogene Koordinaten im 5-dimensionalen projektiven Raum: (a1,2 : a1,3 : a1,4 : a2,3 : a2,4 : a3,4 ). Genauer: X X h ai Bi , bj Bj i 7→ ((a1 b2 − a2 b1 ) : . . . : (a3 b4 − a4 b3 )) a1 a2 a3 a4 oder in Matrizen 7→ ((a1 b2 − a2 b1 ) : (a1 b3 − a3 b1 ) : (a1 b4 − a4 b1 ) : (a2 b3 − b1 b2 b3 b4 a3 b2 ) : (a2 b4 −a4 b2 ) : (a3 b4 −a4 b3 )) Die Bildpunkte liegen alle auf einer Quadrik, deren Gleichung wir herleiten wollen: (V1 ∧ V2 ) ∧ (V1 ∧ V2 ) = 0, d. h. ist V1 ∧ V2 = a1,2 B{1,2} + · · · + a3,4 B{3,4} 15. TENSORALGEBRA, GRASSMANN ALGEBRA UND ANWENDUNGEN. 97 so folgt, falls 2 6= 0 in K: a1,2 a3,4 − a1,3 a2,4 + a1,4 a2,3 = 0. ¨ Wir werden die Pl¨ uckerschen Koordinaten besser verstehen, wenn wir unsere Uberlegungen u aumen auf lineare Abbildungen ausdehnen. Aus der Uni¨ber ¨außere Produkte von den Vektorr¨ versalit¨at des k-fachen a ußeren Produktes erhalten wir sofort die folgende Bemerkung: ¨ Bemerkung 15.15. Seien V, W K-Vektorr¨ aume mit einer linearen Abbildung ϕ : V → W. 1) Es gibt genau eine lineare Abbildung Λk ϕ : Λk V → Λk W mit Λk ϕ(V1 ∧ . . . ∧ Vk ) = ϕ(V1 ) ∧ . . . ∧ ϕ(Vk ) f¨ ur alle V ∈ V k . 2) Ist ψ : W → T eine weitere lineare Abbildung, so gilt Λk (ψ ◦ ϕ) = Λk (ψ) ◦ Λk (ϕ). 3) Die Λk ϕ setzen sich zu einem Algebrenhomomorphismus Λϕ : ΛV → ΛW zusammen, der das Einselement von ΛV auf das Einselement von ΛW abbildet. Beweis. 1) V k → Λk W : V 7→ ϕ(V1 ) ∧ . . . ∧ ϕ(Vk ) ist sicher multilinear und alternierend, woraus die Behauptung sofort aus der Definition folgt. ¨ 2) und 3): Ubung. q. e. d. Etwas aufwendiger ist es, die neue Abbildung durch Matrizen zu beschreiben. Aber der Fall V = W mit k = Dim V ist schon aus dem ersten Semester bekannt. Satz 15.16. Seien V, W K-Vektorr¨ aume mit Basen B ∈ V n und C ∈ W m und sei ϕ : V → W eine lineare Abbildung. Die Basen von Λk V und Λk W gebildet aus den BI bzw. CI in (derselben) festen Anordnung seien mit Λk B und Λk C bezeichnet. Dann gilt: Λk C kB (Λk ϕ)Λ = (det((C ϕB )|J×I )), wobei I, J die k-elementigen Teilmengen von n bzw. von m in der Reihenfolge der Basisvektoren BI bzw. CJ durchlaufen. (Die Teildeterminanten det((C ϕB )|J×I ) heißen Minoren. ) Beweis. Sei C ϕB =: A. Dann gilt Λk ϕ(BI ) = = = = = Λk ϕ(Bi1 ∧ . . . ∧ Bik ) ϕ(B P i1 ) ∧ . . . ∧ ϕ(Bik ) P ( j1 Aj1 i1 Cj1 ) ∧ . . . ∧ ( jk Ajk ik Cjk ) P A · · · Ajk ik Cj1 ∧ . . . ∧ Cjk Pj1 ,...,jk j1 i1 J det A|J×I CJ . Der letzte Umformungsschritt benutzt zweierlei: Cj1 ∧ . . . ∧ Cjk = 0, sobald zwei Indizes gleich sind, und Cj1 ∧ . . . ∧ Cjk = sign(σ)CJ , wenn alle ji paarweise verschieden sind, d. h. J = 98 KAPITEL 5. MULTILINEARE ALGEBRA {j1 , . . . , jk } wirklich aus k verschiedenen Elementen besteht, wobei σ ∈ Sk mit jσ(1) < . . . < jσ(k) . q. e. d. Beispiel: Sei 1 2 3 4 A = 2 1 0 −1 ∈ Q3×4 . 3 2 1 0 Dann ist die Matrix von Λ2 A˜ bez¨ uglich der Basen (C12 , C13 , C23 ) und (B12 , B13 , B14 , B23 , B24 , B34 ) gegeben durch −3 −6 −9 −3 −6 −3 −4 −8 −12 −4 −8 −4 . 1 2 3 1 2 1 Die n¨achste Folgerung verallgemeinert den Determinantenmultiplikationssatz. Folgerung 15.17. GL(V) operiert linear auf Λk V. Ist B ∈ V n eine Basis von V, so ist die zugeh¨ orige Matrixdarstellung bez¨ uglich der Basis Λk B gegeben durch die k-te Minorendarstellung n GL(V) → GL( , K) : g 7→ (det((B g B )|I×J )), k wobei I, J alle k-elementigen Teilmengen von n durchlaufen. 15.4 Alternierende und symmetrische Tensoren. Sei V ein K-Vektorraum und k ∈ N. Lemma 15.18. Die Operation von Sk auf V k durch Sk × V k → V k : (σ, V ) 7→ V ◦ σ −1 induziert eine lineare Operation von Sk auf T k V gegeben durch X X σ( aV V1 ⊗ . . . ⊗ Vk ) := aV Vσ−1 (1) ⊗ . . . ⊗ Vσ−1 (k) , V V wobei σ ∈ Sk und die Summe u ¨ber endlich viele V ∈ V k genommen ist. Diese Operation der Sk ist mit der Operation der GL(V) vertauschbar. Entsprechend bekommt man eine Operation von Sk auf T k V ∗ mit entsprechenden Eigenschaften. ¨ Beweis. Ubung. q. e. d. Definition 15.19. 1) Ein Tensor T ∈ T k V heißt schiefsymmetrisch, falls σ(T ) = sign(σ)T f¨ ur alle σ ∈ Sk . 2) Sei X alt = altk : T k V → T k V : V1 ⊗ . . . ⊗ Vk 7→ sign(σ)Vσ(1) ⊗ . . . ⊗ Vσ(k) . σ∈Sk Ein Tensor T ∈ T k V heißt alternierend, falls T ∈ Bild altk . 15. TENSORALGEBRA, GRASSMANN ALGEBRA UND ANWENDUNGEN. 99 ¨ Zeige T ∈ T k V ist genau dann schiefsymmetrisch, wenn σ(T ) = −T f¨ ur alle TransUbung: positionen σ ∈ Sk . (Hinweis: sign ist ein Gruppenhomomorphismus und die Transpositionen erzeugen Sk als Gruppe.) Klar: Alternierende Tensoren sind schiefsymmetrisch. Wie steht es mit der Umkehrung? 1 Bemerkung 15.20. Sei k! 6= 0 in K. Dann ist k! altk ∈ End(T k V) eine Projektion. Insbesondere ist ein k-Tensor genau dann schiefsymmetrisch, wenn er alternierend ist. Beweis. Sei σ ∈ GL(T k V) der von σ ∈ Sn induzierte Automorphismus. Wegen σ ◦ τ = σ ◦ τ und P der Homomorphieeigenschaft von sign folgt aus alt = σ∈Sk sign(σ)σ, dass alt2 = k!alt gilt, woraus die Behauptung folgt. q. e. d. Das wahrscheinlich wichtigste Objekt, welches wir im letzten Abschnitt kennengelernt haben, ist die Graßmann-Algebra ΛV ∗ , die als wichtigste Elemente die alternierenden k-Formen auf V beherbergt. Wir kommen zu dem Fall symmetrischer Tensoren: Bemerkung 15.21. Sei V ein K-Vektorraum. Eine Abbildung Ψ : V k → W in einen K-Vektorraum W heißt symmetrisch, falls Ψ(V ) = Ψ(V ◦ σ) gilt f¨ ur alle σ ∈ Sk , V ∈ V k . Ein symmetrisches Produkt (·, S k V) ist eine universelle multilineare symmetrische Abbildung · : V k → S k V. Wegen der Universalit¨ at ist S k V bis auf Isomorphie eindeutig bestimmt. Es kann konstruiert werden als S k V := V ⊗k / hV1 ⊗ . . . ⊗ Vk − Vσ(1) ⊗ . . . ⊗ Vσ(k) |Vi ∈ V, σ ∈ Sk i . | {z } Dk V Bemerkung 15.22. Ist (B1 , . . . , Bn ) eine Basis von V so ist (B1a1 B2a2 · · · Bnan | ai ∈ N0 , a1 + . . . + an = k) eine K-Basis von S k (V) wobei Bi0 =: 1 ∈ K und B1a1 B2a2 · · · Bnan := B1 ⊗ . . . ⊗ B1 ⊗ . . . ⊗ Bn ⊗ . . . ⊗ Bn +Dk V | {z } {z } | a1 an die Restklasse des Tensors in T k (V) bezeichnet. Insbesondere ist dim(S k (V)) = dim(K[x1 , . . . , xn ]hom,k ) = n+k−1 . k Satz 15.23. Die symmetrische Algebra SV von V ist definiert als M SV := S i V, i≥0 wobei S 0 V als eindimensionaler K-Vektorraum mit Basis (1) definiert wird. Das Produkt auf SV ist so definiert, dass der offensichtliche Epimorphismus T V → SV das Produkt der Tensoralgebra T V auf SV u agt. Mit desem Produkt aus ist SV eine assoziative und kommutative K¨bertr¨ Algebra, und zwar universell assoziativ-kommutativ, d. h. jede lineare Abbildung ϕ : V → A in eine kommutative, assoziative K-Algebra A (mit Eins) l¨ asst sich eindeutig zu einem K1 Algebrenhomomorphismus ϕ : SV → A fortsetzen. (Beachte S V = V.) Beweis. Klar ist SV eine assoziative und kommutative Algebra. Die universelle Eigenschaft folgt aus der von T V: Ist n¨ amlich A eine kommutative, assoziative K-Algebra und ϕ : V → A linear, so ist A auch eine assoziative K-Algebra. Wegen der universellen Eigenschaft der Tensoralgebra 100 KAPITEL 5. MULTILINEARE ALGEBRA gibt es also einen eindeutigen K-Algebrenhomomorphismus ϕ˜ : T V → A, der ϕ fortsetzt. Da A kommutativ ist, ist ϕ(V ˜ ) = 0 f¨ ur alle V ∈ Dk V und somit faktorisiert ϕ˜ u ¨ber die symmetrische Algebra SV. Wie beim alternierenden Produkt die Graßmann-Algebra das wichtigste Objekt war, so ist es hier die symmetrische Algebra SV ∗ auf V ∗ , weil sie mit der Polynomalgebra identifiziert werden kann und ihre Elemente in nat¨ urlicher Weise die Polynomfunktionen induziert. Folgerung 15.24. Sei V ein n-dimensionaler K-Vektorraum mit Basis (B1 , . . . , Bn ) =: B. Sei ∗ A = K[x Pn 1 , . . . , xn ] der Polynomring in n Unbestimmten. Dann ist die Abbildung ϕ : V → A, f 7→ i=1 f (Bi )xi linear und kann somit eindeutig zu einem K-Algebrenhomomorphismus ϕ : SV ∗ → K[x1 , . . . , xn ] fortgesetzt werden. Dieser ist surjektiv, da die xi = ϕ(Bi∗ ) die K-Algebra K[x1 , . . . , xn ] erzeugen. Es ist ϕ(S k (V ∗ )) = K[x1 , . . . , xn ]hom,k und da die beiden R¨ aume dieselbe Dimension haben, folgt auch die Injektivit¨ at von ϕ. Es folgt eine tabellarische Gegen¨ uberstellung der analogen Begriffe f¨ ur den alternierenden und den symmetrischen Fall. Alternierender Fall Ak V mit Erzeugern V1 ⊗ . . . ⊗ Vk zwei Vi gleich Λk V alternierendes Produkt ∧ : V k → Λk V Dim Λk V = nk Graßmann-Algebra ΛV Gruppenhomomorphismus Sk → K ∗ : σ 7→ sign(σ) schiefsymmetrische Tensoren in T k V P altk := σ∈Sk sign(σ)σ ∈ End(T k V) Graßmann-Algebra ΛV ∗ und alternierende Formen auf V Symmetrischer Fall Dk V mit Erzeugern V1 ⊗ . . . ⊗ Vk − Vσ(1) ⊗ . . . ⊗ Vσ(k) mit σ ∈ Sk SkV symmetrisches Produkt · : V k → SkV Dim S k V = n+k−1 k symmetrische Algebra SV Gruppenhomomorphismus Sk → K ∗ : σ 7→ 1 symmetrische Tensoren in T k V P symk := σ∈Sk σ ∈ End(T k V) symmetrische Algebra SV ∗ und Polynomfunktionen auf V ¨ Ubung: Definiere symmetrische Tensoren in T k V analog zu schiefsymmetrischen Tensoren. ¨ Ubung: Sei B ∈ V n eine Basis von V und X := B ∗ ∈ (V ∗ )n die Dualbasis zu B. Die Elemente von SV fassen wir auf als Polynome in den Bi und die Elemente von SV ∗ fassen wir auf als Polynome in den Xi . F¨ ur g ∈ GL(V) sei G := B g B . Zeige: P 1.) gp(B1 , . . . , Bn ) = p(g(B1 ), . . . , g(Bn )) mit g(Bi ) = BG−,i = j Gji Bj . P 2.) g −1 p(X1 , . . . , Xn ) = p(g −1 X1 , . . . , g −1 Xn ) mit g −1 Xi = g tr (Xi ) = X(Gtr )−,i = j Gij Xj . Kapitel 6 Lineare Algebra u ¨ ber Z. 16 16.1 Grundlegende Definitionen fu ¨ r Gitter Reine Teilgitter. Erinnerung. Z ist ein Euklidischer Ring, also ein Hauptidealbereich. Daher wissen wir nach dem Hauptsatz u ¨ber endlich erzeugte Moduln u ¨ber Hauptidealbereichen, dass jeder e.e. Z-Modul M isomorph zu Z/a1 Z ⊕ . . . ⊕ Z/as Z ⊕ Zr ist mit eindeutig bestimmten 1 < ai ∈ N, a1 | . . . | as und eindeutigen s, r ∈ N0 . Es ist T (M ) := {m ∈ M | am = 0 f¨ ur ein 0 6= a ∈ Z} ∼ = Z/a1 Z ⊕ . . . ⊕ Z/as Z der Torsionsteilmodul von M . Ein endlich erzeugter Z-Modul M ist frei genau dann wenn er torsionsfrei ist, also genau dann wenn s = 0 gilt. Bemerkung 16.1. Sei M ∼ orper. = Z/a1 Z ⊕ . . . ⊕ Z/as Z ⊕ Zr ein e.e. Z-Modul und K ein K¨ Verm¨ oge des Ringhomomorphismus ϕ : Z → K, a 7→ a · 1 ist K ein Z-Modul und K ⊗Z M ist ein K-Vektorraum der Dimension r + |{1 ≤ i ≤ s | ϕ(ai ) = 0}|. Insbesondere f¨ ur K¨ orper der r ∼ Charakteristik 0 (wie Q und R) ist K ⊗Z M = K . Definition 16.2. Ein freier e.e. Z-Modul M heißt auch Gitter. Jedes freie Erzeugendensystem B = (B1 , . . . , Br ) eines Gitters nennt man eine Basis oder auch Gitterbasis von M . Freie Z-Moduln M haben eine Basis B = (B1 , . . . , Br ), so dass jedes Element von M eindeutige Z-Linearkombination der Basisvektoren ist. M := { r X αi Bi | αi ∈ Z}. i=1 Dann ist M → Q ⊗Z M, m 7→ 1 ⊗ m injektiv und (B1 , . . . , Br ) eine Basis des Q-Vektorraums Q ⊗Z M =: QM . Lemma 16.3. (Basiswechsel) Sei M ein freier Z-Modul und B eine Basis von M . Dann ist B (genauer gesagt (1 ⊗ B1 , . . . , 1 ⊗ Br ) ) eine Basis des Q-Vektorraums QM =: V. Ist C eine weitere Basis von V so ist C genau dann eine Z-Basis von M wenn C r×r idB | det(A) ∈ {1, −1} = Z∗ }. V ∈ GLr (Z) := {A ∈ Z uglich Beweis. Sei A = B idC V . Dann ist die i-te Spalte von A die Koordinatenspalte von Ci bez¨ der Basis B. Da Ci ∈ M ist f¨ ur alle i, ist also A ∈ Zn×n . Da auch C eine Gitterbasis von M ist, l¨aßt sich jedes Bj eindeutig Z-linear kombinieren aus den Ci : κC (Bj ) ∈ Zn×1 . Also sind auch die Spalten von A−1 = C idB q. e. d. V ganzzahlig und somit A ∈ GLn (Z). 101 102 ¨ KAPITEL 6. LINEARE ALGEBRA UBER Z. F¨ ur Vektorr¨ aume hatten wir den Basiserg¨anzungssatz, der aussagte, dass man jede linear unabh¨angige Teilmenge eines Vektorraums zu einer Basis erg¨anzen kann. F¨ ur Gitter (also freie Z-Moduln) geht das nicht immer: Ist z.B. M = Z3 und B = ((2, 1, 0), (1, 2, 3)) ∈ M 2 , dann ist B sicherlich linear unabh¨ angig, kann jedoch nicht zu einer Basis erg¨anzt werden, da B1 + B2 ∈ 3M liegt, nach “Konstantenerweiterung” mit F3 wird also B linear abh¨angig. Definition 16.4. Sei M ein e.e. freier Z-Modul. Ein Teilmodul L ≤ M heißt rein in M , oder auch reines Teilgitter, falls L = {m ∈ M | m ∈ QL} = M ∩ QL. Bemerkung 16.5. Sei M ein e.e. freier Z-Modul. Sei L ≤ M ein Teilmodul. Dann ist auch L ein freier Z-Modul. W¨ ahle Basen B = (b1 , . . . , bn ) von M und C = (c1 , . . . , ck ) von L und sei C B n×k T = id ∈ Z die Basiswechselmatrix. Dann ist L rein in M ⇔ die Invariantenteiler von T sind alle gleich 1 ⇔ M/L ist torsionsfrei ⇔ C kann zu einer Basis von M erg¨ anzt werden. Beweis. Nach dem Hauptsatz u ¨ber endlich erzeugte abelsche Gruppen gibt es eine Basis B 0 = (b01 , . . . , b0n ) von M und Zahlen d1 , . . . , dk ∈ Z (die Invariantenteiler von T ) so daß C 0 = (d1 b01 , . . . , dk b0k ) eine Basis von L ist. Da QL ∩ M aus der Menge aller ganzen Linearkombinationen der (b01 , . . . , b0k ) besteht, gilt QL ∩ M = L genau dann, wenn alle di gleich 1 sind. Definition 16.6. Sei V ein Q-Vektorraum. Ein volles Gitter L in V ist die Menge aller ZLinearkombinationen einer Basis B von V. Jede solche Basis B heißt auch Gitterbasis von L. Satz 16.7. (subdirektes Produkt von Gittern) Sei V ein Q-Vektorraum, V = U1 ⊕ U2 , πi ∈ End(V) die Projektionen auf Ui . Sei L ein volles Gitter in V. Dann sind die Li := L ∩ Ui volle Gitter in Ui (i = 1, 2). Setze L0i := πi (L). Dann ist Li ≤ L0i (i = 1, 2) und es gilt: L01 /L1 ∼ = L02 /L2 ∼ = L/(L1 ⊕ L2 ) ∼ = (L01 ⊕ L02 )/L. Beweis. Seien B ∈ V n eine Gitterbasis von L, X ∈ U1k eine Basis von U1 und Y ∈ U2n−k eine n×k und y := B idY ∈ Qn×(n−k) rationale Matrizen Basis von U2 . Dann sind x := B idX V ∈ Q V vom Rang k bzw. n − k. Sind nx , ny die Hauptnenner der Eintr¨age in x bzw. y, so gilt nx X ⊆ L1 und ny Y ⊆ L2 , also enthalten die Li eine Basis von Ui , sind somit volle Gitter in diesen R¨aumen. Klar ist L01 /L1 ∼ = L01 ⊕ L2 /L1 ⊕ L2 ∼ = L01 ⊕ L02 /L1 ⊕ L02 . Wir betrachten zun¨ achst die Projektion π1 : L → L01 . Gefolgt vom nat¨ urlichen Epimorphismus 0 0 L1 → L1 /L1 liefert sie eine surjektive Abbildung π1 : L → L01 /L1 . Sei K1 := ker(π1 ) = {` ∈ L | π1 (`) ∈ L1 }. F¨ ur ` = x1 + x2 ∈ L mit xi ∈ Ui ist π1 (`) = x1 ∈ L1 = U1 ∩ L genau dann wenn x1 ∈ L und somit x2 = ` − x1 ∈ L ∩ U2 = L2 liegt. Also ist K1 = L1 ⊕ L2 und nach dem Homomorphiesatz gilt L01 /L1 = Bild(π1 ) ∼ = L/Kern(π1 ) = L/(L1 ⊕ L2 ). Ebenso erh¨alt man L02 /L2 ∼ ur die letzte Isomorphie zeigen wir, dass L01 + L = = L/(L1 ⊕ L2 ). F¨ 0 0 L1 ⊕ L2 . Denn dann ist nach dem Noetherschen Isomorphiesatz (L01 ⊕ L02 )/L = (L01 + L)/L ∼ = L01 /(L01 ∩ L) = L01 /L1 . ¨ GITTER 16. GRUNDLEGENDE DEFINITIONEN FUR 103 Nach Definition ist L01 + L = hL01 , Li. Es ist x1 ∈ L01 genau dann wenn x1 ∈ U1 und es gibt ein ` ∈ L, x2 ∈ U2 mit ` = x1 + x2 (dann notwendigerweise x2 ∈ L02 ). Also ist L01 + L ⊆ L01 ⊕ L02 . Umgekehrt liegt nat¨ urlich L01 ⊂ L01 + L. Um zu sehen, dass L02 ⊂ L01 + L ist, sei x2 = π2 (`) ∈ L02 (` ∈ L). Dann ist ` = π1 (`) + π2 (`) ∈ L und somit π2 (`) = −π1 (`) + ` ∈ L01 + L. Also insgesamt L01 + L = L01 ⊕ L02 . 16.2 Gitterverb¨ ande und kompatible Basen. In diesem Abschnitt ist V ein n-dimensionaler Q-Vektorraum. Wir betrachten volle Z-Gitter in V, also die Menge aller ganzzahligen Linearkombinationen von Vektoren einer geeigneten Basis von V. Definition 16.8. Sei L eine Menge voller Gitter in V. Eine Basis B von V heißt kompatible Basis f¨ ur L, falls f¨ ur jedes L ∈ L Zahlen a1 , . . . , an ∈ Q existieren, so das (a1 B1 , . . . , an Bn ) eine Gitterbasis von L ist. Aus dem Hauptsatz f¨ ur endlich erzeugte Moduln u ¨ber Hauptidealbereichen folgt direkt, dass je zwei volle Gitter in V kompatible Basen haben. Bemerkung 16.9. Der Endomorphismenring eines Gitters L ist die Menge aller Endomorphismen ϕ von V, die L in sich abbilden, End(L) := {ϕ ∈ End(V) | ϕ(L) ⊆ L}. Schreibt man die linearen Abbildungen von V bez¨ uglich einer Gitterbasis B von L, so ist End(L) = {ϕ ∈ End(V) | B ϕB ∈ Zn×n } ∼ = Zn×n . EinePBasis B von V ist eine kompatible Basis f¨ ur L, genau dann wenn alle Projektionen πi : nj=1 aj Bj 7→ ai Bi (1 ≤ i ≤ n) in ∩L∈L End(L) liegen. Lemma 16.10. Sind L1 , L2 volle Gitter in V, so sind auch L1 + L2 = hL1 , L2 iZ und L1 ∩ L2 volle Gitter in V. Beweis. W¨ahle eine Gitterbasis (B1 , . . . , Bn ) von L1 so dass (x1 B1 , . . . , xn Bn ) eine Gitterbasis von L2 ist wobei xi = abii ∈ Q, ai , bi ∈ N, ggT(ai , bi ) = 1. Dann ist L1 ∩ L2 = ha1 B1 , . . . , an Bn iZ und L1 + L2 = h b11 B1 , . . . , b1n Bn iZ . Der Beweis zeigt: Jede kompatible Basis von L1 und L2 ist auch eine von {L1 , L2 , L1 ∩ L2 , L1 + L2 }. Dies kann man auch strukturell einsehen. Sind die in Bemerkung 16.9 definierten Projektionen πi ∈ End(Lj ) f¨ ur j = 1, 2, so auch in End(L1 + L2 ) und End(L1 ∩ L2 ). Definition 16.11. Eine Menge von L von vollen Gittern in V heißt Gitterverband, falls f¨ ur je zwei Gitter L1 , L2 ∈ L auch L1 ∩ L2 und L1 + L2 in L liegen. Klar: Zu jeder Menge L von vollen Gittern in V gibt es einen eindeutigen kleinstm¨oglichen alt. Man erh¨ alt ihn, indem man wiederholt die Menge L um alle Schnitte Verband L, der L enth¨ und Erzeugnisse von Gittern in L vergr¨ oßert. Definition 16.12. Ein Verband (M, ∨, ∧) ist eine Menge M mit zwei assoziativen und kommutativen Verkn¨ upfungen ∨, ∧ : M × M → M so dass a ∨ (a ∧ b) = a und a ∧ (a ∨ b) = a gilt, f¨ ur alle a, b ∈ M Ein Verband heißt distributiv, falls zus¨ atzlich die Distributivgesetze gelten, also a ∨ (b ∧ c) = (a ∨ b) ∧ (a ∨ c) und a ∧ (b ∨ c) = (a ∧ b) ∨ (a ∧ c) und f¨ ur alle a, b, c ∈ M. ¨ KAPITEL 6. LINEARE ALGEBRA UBER Z. 104 Standardbeispiel: Ist M eine Menge so ist die Potenzmenge (Pot(M ), ∪, ∩) mit den Verkn¨ upfungen Durchschnitt und Vereinigung ein Verband, der Teilmengenverband von M . In den Grundlagen haben wir gelernt, dass f¨ ur X, Y, Z ∈ Pot(M ) gilt X ∩ (Y ∪ Z) = (X ∩ Y ) ∪ (X ∩ Z) und X ∪ (Y ∩ Z) = (X ∪ Y ) ∩ (X ∪ Z). Der Teilmengenverband einer Menge ist also ein distributiver Verband. Man kann zeigen, dass ein Verband genau dann distributiv ist, wenn er isomorph zu einem Teilverband des Teilmengenverbands ist. Sei n = 2, L = hB1 , B2 i, L1 = hB1 , 2B2 i, L2 = h2B1 , B2 i und L3 = hB1 +B2 , 2B2 i. Dann ist L = {L, 2L, L1 , L2 , L3 } ein Gitterverband, der jedoch nicht distributiv ist, denn L1 + (L2 ∩ L3 ) = L1 aber L1 + L2 = L1 + L3 = L. Bemerkung 16.13. Haben die drei Gitter L1 , L2 , L3 eine kompatible Basis B, so gilt L1 + (L2 ∩ L3 ) = (L1 + L2 ) ∩ (L1 + L3 ) und L1 ∩ (L2 + L3 ) = (L1 ∩ L2 ) + (L1 ∩ L3 ). Beweis. Man kann jeden einzelnen Basisvektor betrachten und daher annehmen, dass n = 1 ist und L1 , L2 , L3 ⊆ QB1 , genauer L1 = Z, L2 = ab Z und L3 = dc Z (gek¨ urzte Br¨ uche). Multipliziert man alles mit bd so kann man annehmen, dass L1 = (bd), L2 = (ad), L3 = (cb) alles Ideale in Z sind. L1 + L2 = (ggT(bd, ad)) = (d), L1 + L3 = (b), L2 + L3 = (ggT(ad, cb)) L1 ∩ L2 = (kgV(bd, ad)) = (abd), L1 ∩ L2 = (bcd), L2 ∩ L3 = (kgV(ad, cb)) und die Gleichungen u ¨bersetzen sich in ggT(bd, kgV(ad, cb)) = kgV(d, b), kgV(bd, ggT(ad, cb)) = ggT(abd, bcd). q. e. d. Satz 16.14. (ohne Beweis) F¨ ur eine Menge L von vollen Gittern in V gibt es genau dann eine kompatible Basis, wenn der von L erzeugte Verband L distributiv ist. Beweis. ⇒: Folgt aus Bemerkung 16.13. ⇐: W¨are ein sch¨ ones Thema f¨ ur eine Bachelorarbeit. 16.3 q. e. d. Gitter in Euklidischen R¨ aumen. Wir betrachten jetzt einen euklidischen Vektorraum, also E = (V, Φ) mit Φ : V × V → R positiv definite symmetrische Bilinearform. Sei weiterhin n := dim(V). Ein volles Gitter L in V ist wieder die Menge aller Z-Linearkombinationen von Vektoren einer R-Basis B von V. Wir nennen B dann eine Gitterbasis von L. Definition 16.15. Sei L ⊆ V ein volles Gitter in V und B ∈ V n eine Gitterbasis von L. Dann ist G(B) := (Φ(Bi , Bj )) ∈ Rn×n die Grammatrix von B und det(L) := det(G(B)) die Determinante des Gitters L. G(B) nennt man auch eine Grammatrix von L. ¨ GITTER 16. GRUNDLEGENDE DEFINITIONEN FUR 105 Klar: Ist C eine weitere Gitterbasis von L so ist G(C) = T tr G(B)T wobei T ∈ GLn (Z) die Basiswechselmatrix ist. Insbesondere ist det(T ) = ±1 und somit det(G(C)) = det(G(B)), die Determinante des Gitters also unabh¨angig von der Wahl der Gitterbasis. Bemerkung 16.16. Sei L ein volles Gitter in E = (V, Φ) mit Gitterbasis B. Dann ist L# := {v ∈ V | Φ(v, `) ∈ Z f¨ ur alle ` ∈ L} ebenfalls ein volles Gitter in E, das zu L duale Gitter. Die Dualbasis B ∗ von B ist eine Gitterbasis von L# . Es gilt G(B)G(B ∗ ) = In , also det(L# ) det(L) = 1. Ist L ⊂ L# , so nennt man das Gitter L auch ganz. Dann ist die Faktorgruppe L# /L eine endliche abelsche Gruppe der Ordnung det(L). Es gilt B ∗ G(B) ∈ Ln und G(B) ist eine Relationenmatrix von L# /L. Sind (d1 , . . . , dn ) die Invariantenteiler von G(B), so ist L# /L ∼ = Z/d1 Z ⊕ . . . ⊕ Z/dn Z. Beweis. Sei v ∈ V. Dann ist Φ(`, v) ∈ Z f¨ ur alle ` ∈ L ⇔ ai := Φ(Bi , v) ∈ Z f¨ ur alle 1 ≤ i ≤ n ⇔ v = X ai Bi∗ ∈ hB1∗ , . . . , Bn∗ iZ . ∗ Also ist das duale Gitter L# genau das von der dualen Basis erzeugte Gitter. Weiter ist B idB = G(B) die Basiswechselmatrix. Damit ist G(B) die Relationenmatrix von L# /L und det(G(B)) = |L# /L|. Die Elementarteiler von G(B) ∈ Zn×n geben uns die Struktur der endlichen abelschen Gruppe L# /L an. Bemerkung 16.17. Sind L ⊆ M volle Gitter, so ist M # ⊆ L# . Ist B eine Gitterbasis von L und C eine Basis von M mit Basiswechselmatrix T := Zn×n , so ist G(B) = T tr G(C)T und daher C idB ∈ det(L) = det(T )2 det(M ) = |M/L|2 det(M ). Beispiele: Einige Beispiele f¨ ur ganze Gitter. P (1) Das Standardgitter: Sei E eine ON-Basis von E. Dann ist Zn := hEiZ = { ni=1 ai Ei | ai ∈ Z} das Standardgitter der Dimension n. Da E = E ∗ gilt ist (Zn )# = Zn . Gitter L mit L = L# heißen auch unimodular. Unimodulare Gitter sind also ganze Gitter der Determinante 1. Eine Grammatrix von Zn ist In = G(E). P (2) Das gerade Teilgitter: Sei wieder E eine ON-Basis. Dann ist Dn := { ni=1 ai Ei | ai ∈ Pn Pn # Z, i=1 ai ∈ 2Z} ein Teilgitter von Zn mit Zn /Dn ∼ = Z/2Z. Es gilt Dn = hZn , 12 i=1 Ei i und D := (Ei − Ei+1 , En−1 + En | i = 1, . . . , n − 1) ist eine Basis von Dn . Es gilt det(Dn ) = 22 = 4 und Dn = {x ∈ Zn | (x, x) ∈ 2Z}. ¨ Ubung: Ist L ein ganzes Gitter, so ist Lev := {` ∈ L | (`, `) ∈ 2Z} ein Teilgitter von L, genannt das gerade Teilgitter. Das Gitter L heißt gerade, falls L = Lev . (3) Das An -Gitter: Sei wieder E eine ON-Basis des n + 1-dimensionalen Euklidischen Raums E und Zn+1 = hEiZ . Definiere An := {x = n+1 X i=1 ai Ei ∈ Zn+1 | n+1 X i=1 ai = 0} ¨ KAPITEL 6. LINEARE ALGEBRA UBER Z. 106 Dann ist An ein n-dimensionales Gitter mit Basis A := (Ei − Ei+1 | i = 1, . . . , n). Es gilt G(A) := 2 −1 0 . . . −1 2 −1 0 0 −1 2 −1 .. .. .. .. . . . . 0 . . . 0 −1 0 ... ... 0 ... ... ... .. . 0 0 0 .. . und G(D) := 2 −1 −1 2 2 −1 0 . . . −1 2 −1 0 0 −1 2 −1 .. .. .. .. . . . . 0 . . . 0 −1 0 ... ... 0 0 ... ... 0 ... ... ... .. . 0 0 0 .. . 0 0 0 .. . 2 −1 −1 −1 2 0 −1 0 2 Satz 16.18. Sei M ein unimodulares Gitter und L ≤ M ein reines Teilgitter. Dann ist auch L⊥ := {m ∈ M | Φ(m, `) = 0 f¨ ur alle ` ∈ L} ein reines Teilgitter von M und det(L) = det(L⊥ ), sogar L# /L ∼ = (L⊥ )# /L⊥ . Beachte: L und L⊥ werden hierbei als volle Gitter in den von ihnen erzeugten Euklidischen Vektorr¨ aumen RL und RL⊥ betrachtet. Beweis. Wir wenden Satz 16.7 an auf U1 := RL, U2 = U1⊥ = RL⊥ , L1 = L = U1 ∩ M , L2 = L⊥ = U2 ∩ M und m¨ ussen nur noch zeigen, dass L01 = π1 (M ) = L# , L02 = π2 (M ) = (L⊥ )# . Ist nun ` ∈ L und m ∈ M , so ist (`, m) = (`, π1 (m)) ∈ Z und daher π1 (M ) ⊂ L# . Sei (b1 , . . . , bk ) eine Gitterbasis von L und erg¨ anze diese zu Basis B := (b1 , . . . , bk , bk+1 , . . . , bn ) von M . Da M = M # ist auch die duale Basis B ∗ = (b∗1 , . . . , b∗k , b∗k+1 , . . . , b∗n ) eine Gitterbasis von M . (Dabei ist (b∗k+1 , . . . , b∗n ) eine Gitterbasis von L⊥ .) Und L# = hπ1 (b∗1 ), . . . , π1 (b∗k )i ⊂ π1 (M ). ∼ Bemerkung 16.19. Als Anwendung zeigen wir, dass A# n /An = Z/(n+1)Z. Setzt man L = h` := E1 + . . . + En+1 i ≤ Zn+1 = hE1 , . . . , En+1 iZ , so ist L ein reines Teilgitter in dem unimodularen Gitter M := Zn+1 . Weiter ist An = L⊥ . G(`) = (n + 1) = ((`, `)) liefert L# /L ∼ = Z/(n + 1)Z, # 1 # ∼ L = h n+1 `i. Mit Satz 16.18 findet man also auch An /An = Z/(n + 1)Z. Die Gitter An und Dn sind gerade Gitter mit Minimum 2. Die Vektoren der Norm 2 in Dn sind Min(Dn ) = { n X ai Ei | i=1 n X a2i = 2, ai ∈ Z} = {±Ei ± Ej | 1 ≤ i < j ≤ n} i=1 also | Min(Dn )| = 2n(n − 1). Die Vektoren der Norm 2 in An sind Min(An ) = { n+1 X i=1 ai Ei | n+1 X i=1 a2i = 2, ai ∈ Z, n+1 X ai = 0} = {±(Ei − Ej ) | 1 ≤ i < j ≤ n + 1} i=1 also | Min(An )| = n(n + 1). Gitter L | Min(L)| det(L) L# /L Dimension n An n(n + 1) n + 1 Z/(n + 1)Z ≥1 Dn 2n(n − 1) 4 Z/4Z ≥ 4, ungerade Dn 2n(n − 1) 4 Z/2Z ⊕ Z/2Z ≥ 4, gerade 17. ISOMETRIEN UND AUTOMORPHISMEN 17 107 Isometrien und Automorphismen Erinnerung: E = (V, Φ) Euklidischer Vektorraum, O(E) := {g ∈ GL(V) | Φ(gV, gW ) = Φ(V, W ) f¨ ur alle V, W ∈ V} die orthogonale Gruppe von E. Definition 17.1. Seien L und L0 volle Gitter in E. (a) L und L0 heißen isometrisch, falls es ein g ∈ O(E) gibt, mit g(L) = L0 . (b) Aut(L) := {g ∈ O(E) | g(L) = L} heißt die Automorphismengruppe von L. Bemerkung 17.2. (a) Zwei Gitter L und L0 sind isometrisch, genau dann wenn es Gitterbasen B und B 0 gibt, mit G(B) = G(B 0 ). “Sie haben gleiche Grammatrizen”. Ein Gitter L ist also bis auf Isometrie bestimmt durch jede seiner Grammatrizen. Umgekehrt bestimmt ein Gitter L eine GLn (Z)-Bahn {gG(B)g tr | g ∈ GLn (Z)} von Grammatrizen. Die Menge Ln alle n-dimensionalen Gitter ist also in Bijektion zu Rn×n sym,>0 / GLn (Z). (b) Ist B eine Gitterbasis von L, so ist B Aut(L)B = {g ∈ GLn (Z) | gG(B)g tr = G(B)}. Beispiel: Es gilt Aut(A2 ) ∼ = D12 , die Symmetriegruppe eines regelm¨aßigen Sechsecks. Es ist Aut(Zn ) ∼ = C2n o Sn = {A ∈ Zn×n | AAtr = In } die Menge aller monomialen Matrizen. Bemerkung 17.3. Ist L ein ganzes Gitter und ` ∈ L mit Φ(`, `) = 1 oder 2, so ist die Spiegelung σ` entlang ` definiert durch Φ(v, `) v − Φ(v, `)` falls Φ(`, `) = 2 σ` (v) := v − 2 f¨ ur alle v ∈ V `= v − 2Φ(v, `)` falls Φ(`, `) = 1 Φ(`, `) eine orthogonale Abbildung die L festl¨ asst, also σ` ∈ Aut(L). Beweis. (f¨ ur Φ(`, `) = 2). Ist v ∈ L, so auch v − Φ(v, `)`, da Φ(v, `) ∈ Z und ` ∈ L gelten. Also ist σ` (L) ⊆ L. Es gilt σ`2 = id, also ist σ` ein Automorphismus von L. Sind v, w ∈ V, so ist Φ(σ` (v), σ` (w)) = Φ(v, w) − 2Φ(v, `)Φ(`, w) + Φ(v, `)Φ(w, `)Φ(`, `) = Φ(v, w) also ist σ` eine orthogonale Abbildung. q. e. d. Beachten Sie: Es gilt σ` (v) = v genau dann wenn v ∈ `⊥ . Weiter ist σ` (`) = −`, also ist `⊥ = E1 (σ` ) der Eigenraum zum Eigenwert 1 und h`i = E−1 (σ` ). Bemerkung 17.4. Sei L ein ganzes Gitter, v 6= ±w ∈ L mit Φ(v, v) = Φ(w, w) = 2. (1) σv = σ−v . (2) Φ(w, v) ∈ {−1, 0, 1}. (3) Es ist (σv σw )2 = id ⇔ Φ(v, w) = 0, ⇔ σv σw = σw σv . (4) Ist Φ(v, w) = ±1, so gilt (σv σw )3 = id und hσv , σw i ∼ = S3 . −1 (5) Ist g ∈ Aut(L), so ist σg(v) = gσv g . Beweis. (1) ist klar. Zu (2): Da L ganz ist, gilt Φ(v, w) ∈ Z. Weiter ist nach der CauchySchwarz Ungleichung: Φ(v, w)2 ≤ Φ(v, v)Φ(w, w) = 4 mit Gleichheit, genau dann wenn die beiden Vektoren linear abh¨ angig sind. Also ist Φ(v, w) ∈ {−1, 0, 1}. (3) und (4): σv und σw sind beide die Identit¨at auf hv, wi⊥ , also gen¨ ugt es, die Einschr¨ankung ¨ KAPITEL 6. LINEARE ALGEBRA UBER Z. 108 dieser beiden Abbildungen auf den hσv , σw i-invarianten Teilraum hv, wi zu betrachten. Da v 6= ±w gilt, ist B := (v, w) eine Basis dieses Teilraums und −1 −Φ(v, w) 1 0 B B B B σv = , σw = . −Φ(v, w) −1 0 1 Setzt man a := Φ(v, w), so ergibt sich das Produkt als 2 a −1 a B B B B B σv σw = und B σw −a −1 B B σv = −1 −a a a2 − 1 . ¨ (5) Ubung. q. e. d. ¨ In der Ubung zeigen Sie: Ist L ein ganzes Gitter, so ist W (L) := hσ` | Φ(`, `) = 1 oder 2i ein Normalteiler von Aut(L). Zur Bestimmung von W (An ) beachten Sie, dass gilt Ek k 6∈ {i, j} Ei k = j σEi −Ej (Ek ) = Ej k = i woraus man leicht ersieht, dass W (An ) ∼ = Sn+1 . Algorithmus 17.5. Das Gram-Schmidt-Orthogonalisierungsverfahren: Eingabe: Eine Basis (B1 , . . . , Bn ) von V. Ausgabe: Eine Orthogonalbasis B 0 := (B10 , . . . , Bn0 ) von V mit hB1 , . . . , Bi i = hB10 , . . . , Bi0 i f¨ ur alle i. Algorithmus: F¨ ur i = 1, . . . , n berechne sukzessive die Orthogonalprojektion Bi0 von Bi auf 0 i⊥ . Diese ergibt sich als hB1 , . . . , Bi−1 i⊥ = hB10 , . . . , Bi−1 Bi0 := Bi − i−1 X µij Bj0 j=1 wo µij = Φ(Bi ,Bj0 ) . Φ(Bj0 ,Bj0 ) Bemerkung 17.6. Bi0 ist die Projektion von Bi auf hB1 , . . . , Bi−1 i⊥ . Q Die von B und B 0 erzeugten Gitter haben die gleiche Determinante, n¨ amlich nj=1 Φ(Bj0 , Bj0 ). Da Φ(Bj0 , Bj0 ) ≤ Φ(Bj , Bj ) ist, ergibt sich die folgende Hadamard Ungleichung. Folgerung 17.7. Die Hadamard Ungleichung: Q Ist B := (B1 , . . . , Bn ) eine Gitterbasis von L, so ist det(L) ≤ nj=1 Φ(Bj , Bj ). Beweis. Sei B 0 die in Algorithmus 17.5 berechnete Orthogonalbasis und 1 0 ... 0 µ21 1 ... 0 M := . .. . . . . . . . . . µn1 . . . µn,n−1 1 17. ISOMETRIEN UND AUTOMORPHISMEN 109 Dann ist det(M ) = 1 und B 0 M tr = B. Also ist G(B) = M G(B 0 )M tr und daher det(L) = det(G(B)) = det(G(B 0 )) = n Y Φ(Bi0 , Bi0 ) ≤ i=1 n Y Φ(Bi , Bi ). i=1 Satz 17.8. Sei L ein volles Gitter in E = (V, Φ) und S ∈ R. Dann ist L≤S := {v ∈ L | Φ(v, v) ≤ S} eine endliche Menge. Sei B eine Gitterbasis vonP L und B 0 , µij wie in 17.5. Beweis. P n Ist v = j=1 aj Bj ∈ L, so ist v = nj=1 αj Bj0 mit αj ∈ Q, αn = an , αn−1 = an−1 − µn,n−1 an , . . . Aus n X Φ(v, v) = αj2 Φ(Bj0 , Bj0 ) ≤ S j=1 folgt insbesondere a2n Φ(Bn0 , Bn0 ) ≤ S. Also hat man nur endlich viele M¨oglichkeiten f¨ ur an ∈ Z. Allgemein gilt αj2 Φ(Bj0 , Bj0 ) = (aj − n X µi,j ai )2 Φ(Bj0 , Bj0 ) ≤ S − i=j+1 n X αi2 Φ(Bi0 , Bi0 ) i=j+1 woraus man sukzessiv nur endlich viele M¨oglichkeiten f¨ ur aj ∈ Z, j = n, n − 1, . . . , 1 erh¨alt. ¨ Algorithmus zum Auflisten kurzer Vektoren in Gittern (f¨ ur die Ubung) n Eingabe: Eine Gitterbasis B eines Gitters L in (R , (, )) (oder G(B) eine Grammatrix von L) und Schranke S ∈ R sowie Parameter := 0.0001 um Rundungsfehler zu vermeiden. Ausgabe: Liste K von Koordinatenvektoren (a1 , . . . , an ) ∈ Zn , so dass L≤S = {0} ∪ {±v | v = n X ai bi , (a1 , . . . , an ) ∈ K}. i=1 Algorithmus: (1) (Gram-Schmidt) Berechne µij (1 ≤ j < i ≤ n) und gi := (b0i , b0i ) (1 ≤ i ≤ n) wie in Algorithmus 17.5. (2) (Initialisieren) Setze k := n; fk := 0; (3) (Bestimme P maximales ak ) uk := nj=k+1 µkj aj ; h := round(uk ); while ((gk (h − uk )2 ≤ S − fk + ) or ((h − uk ) < 0)) do h := h + 1; end while; ak := h; ¨ KAPITEL 6. LINEARE ALGEBRA UBER Z. 110 (4) (Schleife u ¨ber alle ak ) ak := ak − 1; if (gk (ak − uk )2 ≤ S − fk + ) then if (k = 1) then if ((a1 , . . . , an ) = (0, . . . , 0)) then RETURN; else Ausgabe von (a1 , . . . , an ) =: v und (v, v) = f1 + g1 (a1 + u1 )2 ; goto (4); end if; else fk−1 := fk + gk (ak + uk )2 ; k := k − 1; goto (3); end if; else k:=k+1; goto (4); end if; Folgerung 17.9. Aut(L) ist eine endliche Gruppe. Beweis. Sei B = (B1 , . . . , Bn ) eine Gitterbasis von L und S := max{Φ(Bi , Bi ) | 1 ≤ i ≤ n}. Ist g ∈ Aut(L), so ist g eindeutig bestimmt durch die Bilder der Basisvektoren (g(B1 ), . . . , g(Bn )) ∈ Ln≤S . Also gilt | Aut(L)| ≤ |L≤S |n . 18 18.1 Ausblicke. Orthogonale Zerlegungen. Definition 18.1. (i) F¨ ur zwei Gitter L1 , L2 in den Euklidischen R¨ aumen E1 bzw. E2 bezeichnet L1 ⊥ L2 die (¨ aussere) orthogonale Summe. Dies ist ein Gitter in E1 ⊥ E2 der Dimension dim(L1 )+dim(L2 ). Sind B bzw. C Gitterbasen von L1 bzw. L2 , so ist ((B1 , 0), . . . , (Bn1 , 0), (0, C1 ), . . . , (0, Cn2 )) eine Gitterbasis von L1 ⊥ L2 mit Grammatrix G(B) 0 0 G(C) (iii) Ein Gitter L heißt irreduzibel oder auch orthogonal unzerlegbares Gitter, falls L nicht orthogonale Summe echter Teilgitter ist. Satz 18.2. (Kneser) Jedes Gitter l¨ asst sich eindeutig schreiben als orthogonale Summe irreduzibler Gitter. Beweis. Dazu zun¨ achst eine kleine Definition. Wir nennen einen Vektor x ∈ L unzerlegbar, falls es keine y, z ∈ L \ {0} gibt mit x = y + z und (y, z) = 0. Dann gilt: Jeder Vektor 0 6= x ∈ L ist Summe von unzerlegbaren Vektoren. Denn dies ist klar, wenn x unzerlegbar ist. Ist aber x nicht unzerlegbar, so ist x = y + z mit 0 < (y, y) < (x, x) und 0 < (z, z) < (x, x). Ist einer der Summanden y oder z nicht unzerlegbar, so kann man ihn wiederum als Summe von Vektoren kleinerer Norm schreiben. Da L<=(x,x) endlich ist, terminiert dieses Verfahren nach endlich vielen Schritten. Insbesondere wird L von unzerlegbaren Vektoren erzeugt. Wir nennen zwei unzerlegbare Vektoren y, z verbunden, falls es unzerlegbare Vektoren x0 = ¨ y, x1 , . . . , xt = z in L gibt, mit (xi , xi+1 ) 6= 0 f¨ ur alle i. Diese Aquivalenzrelation teilt die Menge der unzerlegbaren Vektoren in endlich viele Klassen K1 , . . . , Ks . Sei Li := hKi iZ . Dann ist L = L1 ⊥ . . . ⊥ Ls eine Zerlegung in irreduzible Gitter und diese Zerlegung ist eindeutig. 18. AUSBLICKE. 111 Beispiel 18.3. (Automorphismen der Ordnung 2) Sei L ein ganzes Gitter also L ⊆ L# und − id 6= σ ∈ Aut(L) ein Automorphismus der Ordnung 2. Dann ist µσ = X 2 − 1 und 1 und −1 sind die Eigenwerte von σ. Sind v, w ∈ E mit σ(v) = v und σ(w) = −w, so gilt (v, w) = (σ(v), σ(w)) = −(v, w), also (v, w) = 0. Somit ist E = Eσ (1) ⊥ Eσ (−1). Sei Lσ (1) := L ∩ Eσ (1) und Lσ (−1) := L ∩ Eσ (−1). Dies sind reine Teilgitter in L und 2L ⊆ Lσ (1) ⊥ Lσ (−1) ⊆ L. Sei nun M ⊆ L ein reines Teilgitter so dass ? 2L ⊆ M ⊥ M ⊥ ⊆ L. Definiere tM ∈ O(E) durch tM (v) = −v falls v ∈ RM und tM (v) = v falls v ∈ M ⊥ . Dann ist tM (L) = L und somit tM ∈ Aut(L). Die Automorphismen von L der Ordnung 2 sind also in Bijektion zu den Teilgittern M von L die ? erf¨ ullen. 18.2 Minkowski’s Gitterpunktsatz. Bemerkung 18.4. Sei L ein Gitter in E = (V, Φ) und B = (B1 , . . . , Bn ) eine Basis von L. Das Fundamentalparallelotop ist E(B) := { n X λi Bi | 0 ≤ λi ≤ 1}. i=1 p p Es ist vol(E(B)) = det(G(B)) =S det(L). Weiter ist E(B) ein Fundamentalbereich der Operation von L auf V, d.h. V = `∈L ` + E(B) und diese Vereinigung ist fast disjunkt: sind `, m ∈ L mit `+E(B)∩m+E(B) 6= ∅, so gilt entweder ` = m oder der Schnitt `+E(B)∩m+E(B) liegt auf dem Rand von ` + E(B). Definition 18.5. Sei ∅ = 6 X ⊂ E. (a) X heißt zentralsymmetrisch, falls mit x ∈ X auch −x ∈ X liegt. (b) X heißt konvex, falls f¨ ur je zwei x, y ∈ X und jedes t ∈ [0, 1] auch x + t(y − x) ∈ X. Klar: Ist ∅ = 6 X konvex und zentralsymmetrisch so gilt 0 ∈ X. Satz 18.6. (Minkowski) Sei L ⊂ E ein volles Gitter und X ⊆ Rn konvex und zentralsymmep trisch. Ist vol(X) > 2n det(L) dann ist L ∩ X = 6 {0}. Beweis. Wir zeigen, dass `1 6= `2 ∈ L existieren, so dass 1 1 ( X + `1 ) ∩ ( X + `2 ) 6= ∅ 2 2 Denn dann gibt es x1 , x2 ∈ X so dass 12 x1 + `1 = 12 x2 + `2 und also 1 0 6= (x1 − x2 ) = `2 − `1 ∈ L ∩ X. 2 Beachte: 12 (x1 − x2 ) ist der Mittelpunkt der Verbindungsstrecke zwischen x1 und −x2 und somit in X. Angenommen, alle Translate ` + 12 X = {` + 21 x | x ∈ X} mit ` ∈ L sind disjunkt: 1 1 ( X + `1 ) ∩ ( X + `2 ) = ∅ for all `1 6= `2 ∈ L 2 2 ¨ KAPITEL 6. LINEARE ALGEBRA UBER Z. 112 Dann ist auch deren Schnitt mit der Fundamentalzelle 1 1 (E(B) ∩ ( X + `1 )) ∩ (E(B) ∩ ( X + `2 )) = ∅ for all `1 6= `2 ∈ L also 2 2 P vol(E(B)) ≥ `∈L vol(E(B) ∩ ( 12 X + `)) = P 1 1 1 `∈L vol((E(B) − `) ∩ 2 X) = vol( 2 X) = 2n vol(X) ein Widerspruch zur Annahme, dass vol(X) > 2n vol(E(B)). Der Minkowskische Gitterpunktsatz hat viele Anwendungen. Sie werden ihn z.B. in der algebraischen Zahlentheorie wiedersehen. Die Schranke ist i.a. nicht zu verbessern, wie man an dem Beispiel L = Z2 und x1 X := { ∈ R2 | |x1 | < 1 und |x2 | < 1} x2 sieht. Es ist vol(X) = vol(X) = 22 , det(L) = 1 und X ∩ L = {0}. Als eine Anwendung zeigen wir den Satz von Lagrange, dass jede nat¨ urliche Zahl Summe von 4 Quadraten ist: {x21 + x22 + x23 + x24 | x1 , x2 , x3 , x4 ∈ Z} = N0 . Lemma 18.7. (Euler Identit¨ at) F¨ ur a1 , a2 , a3 , a4 , b1 , b2 , b3 , b4 ∈ Z gilt (a21 + a22 + a23 + a24 )(b21 + b22 + b23 + b24 ) = (a1 b1 − a2 b2 − a3 b3 − a4 b4 )2 + (a1 b2 + a2 b1 + a3 b4 − a4 b3 )2 + (a1 b3 − a2 b4 + a3 b1 + a4 b2 )2 + (a1 b4 + a2 b3 − a3 b2 + a4 b1 )2 . a1 + ia2 a3 + ia4 Beweis. Nachrechnen oder aber + + + = det −a3 + ia4 a1 − ia2 plikation und Multiplikativit¨ at der Determinante benutzen. a21 a22 a23 a24 Matrixmultiq. e. d. Folgerung 18.8. Jede nat¨ urliche Zahl ist Summe von 4 Quadraten genau dann wenn jede Primzahl p > 2 Summe von 4 Quadraten ist. Sei also ab jetzt p > 2 eine Primzahl. Lemma 18.9. Sei p > 2 prim und a ∈ Z. Dann gibt es r, s ∈ Z mit r2 + s2 ≡ a (mod p). Beweis. F¨ ur b ∈ Z sei Q(b) := {r2 − b (mod p) | r ∈ Z/pZ} ⊆ Z/pZ}. Die L¨osbarkeit der Kongruenz ist gleichbedeutend damit, dass Q(0) ∩ (−Q(a)) 6= ∅. Dies folgt durch ein einfaches p+1 Z¨ahlargument, da Q(b) immer p−1 alt. W¨aren 2 + 1 = 2 verschiedene Elemente von Z/pZ enth¨ die beiden Mengen disjunkt, so h¨ atte Z/pZ mindestens p + 1 Elemente, was absurd ist. q. e. d. Satz 18.10. (Lagrange) Jede positive ganze Zahl ist Summe von 4 Quadraten ganzer Zahlen. at Beweis. Klar ist 1 = 12 + 02 + 02 + 02 und 2 = 12 + 12 + 02 + 02 . Wegen der Multiplikativit¨ gen¨ ugt es, die Behauptung f¨ ur Primzahlen p > 2 zu zeigen. Wegen Lemma 18.9 gibt es r, s ∈ Z mit r2 + s2 + 1 ≡ 0 (mod p). Betrachte das Teilgitter Λ von Z4 , welches von den Spalten der Matrix p 0 r s 0 p s −r M := 0 0 1 0 0 0 0 1 18. AUSBLICKE. 113 erzeugt wird. Dann gilt f¨ ur die Elemente (x1 , x2 , x3 , x4 )tr = t1 M−1 + t2 M−2 + t3 M−3 + t4 M−4 dass x21 +x22 +x23 +x24 = (pt1 +rt3 +st4 )2 +(pt2 +st3 −rt4 )2 +t23 +t24 ≡ (t23 +t24 )(r2 +s2 +1) ≡ 0 (mod p). Nun sei Ω := {(x1 , x2 , x3 , x4 )tr ∈ R4 | x21 + x22 + x23 + x24 < 2p} √ der offene Ball mit Radius 2p. Es ist vol(Ω) = p π2 p 4 ( 2p) = 2π 2 p2 > 16p2 = 24 det(Λ). 2 Also enh¨alt Ω einen Gitterpunkt 0 6= x = (x1 , x2 , x3 , x4 )tr ∈ Ω ∩ Λ. Da x ∈ Λ ist, ist x21 + x22 + x23 + x24 durch p teilbar. Da x ∈ Ω ist, ist x21 + x22 + x23 + x24 < 2p. Da x 6= 0 ist, ist x21 + x22 + x23 + x24 > 0, also ist x21 + x22 + x23 + x24 = p. 18.3 q. e. d. Dichte Kugelpackungen. Definition 18.11. Sei L ∈ (Rn , (, )) ein Gitter. Dann ist min(L) := min{(`, `) | 0 6= ` ∈ L} das Minimum des Gitters L und Min(L) := {` ∈ L | (`, `) = min(L)} die Menge der k¨ urzesten Vektoren von L. Nach Satz 17.8 ist Min(L) = {`1 , . . . , `k } eine endliche Menge. k = | Min(L)| heißt auch die Kußzahl oder auch kissing number von L. p 1 min(L) ist der Radius der Kugeln in der zu L geh¨orenden Kugelpackung. Die Kußzahl ist 2 die Anzahl der Kugeln in der Gitterkugelpackung, die eine feste weitere Kugel ber¨ uhren. Definition 18.12. Bezeichne Ln die Menge aller n-dimensionalen Gitter. Die Hermite-Funktion γ : Ln → R>0 ist definiert durch min(L) γ(L) := . det(L)1/n γn := sup{γ(L) | L ∈ Ln } heißt die Hermite-Konstante. Bemerkung 18.13. Die Dichte der zu L geh¨ orenden gitterf¨ ormigen Kugelpackung ist ∆(L) = 2−n γ(L)n/2 Vn wobei Vn das Volumen der n-dimensionalen Einheitskugel bezeichnet. Insbesondere ist ∆(L) maximal, genau dann wenn γ(L) maximal ist. Es ist γ(L) = γ(M ), falls L und M ¨ ahnliche Gitter sind. ¨ Auf dem Raum Ln der Ahnlichkeitsklassen aller n-dimensionalen Gitter hat die Funktion γ nur endlich viele lokale Maxima, die mithilfe des Voronoi-Algorithmus (1900) bestimmt werden k¨ onnen. Man kennt alle diese lokalen Maxima bis zur Dimension n = 8. ¨ KAPITEL 6. LINEARE ALGEBRA UBER Z. 114 18.4 Thetareihen von Gittern. Ganz kurz m¨ ochte ich den Inhalt des geplanten Seminars im SS 2016 anreissen: Definition 18.14. Sei L ein ganzes Gitter in (Rn , (, )). Die formale Potenzreihe ΘL := X q (`,`) = ∞ X am q m ∈ C[[q]] m=0 `∈L mit am = |L=m | heißt Theta-Reihe von L. P P 2 n2 Beispiel: ΘZ = a∈Z q a = 1 + 2 ∞ n=1 q . Sind L, M Gitter, so gilt ΘL⊥M = ΘL ΘM . Lemma 18.15. Sei L ein Gitter. Setzt man q = exp(πiz) mit z ∈ H := {z ∈ C | =(z) > 0} so ist die Reihe ΘL : H → C absolut und uniform konvergent auf jedem Streifen =(z) ≥ v0 > 0 und somit eine holomorphe Funktion. ur ein M ∈ GLn (R) und := minxxtr =1 xM M tr xtr . Dann ist > 0 und Beweis. Sei L = Zn M f¨ xM M tr xtr ≥ xxtr f¨ ur alle x ∈ Rn . Daher erh¨alt man X | exp(πiz(`, `))| = X | exp(πiz(xM, xM ))| ≤ x∈Zn `∈L X exp(−πv0 (x, x)) = ( x∈Zn ∞ X exp(−πv0 r2 ))n < ∞. r=−∞ Bemerkung 18.16. Ist L ganz, so ist ΘL (z + 2) = ΘL (z) f¨ ur alle z ∈ H und ist L sogar gerade, so gilt ΘL (z + 1) = ΘL (z). Satz 18.17. (Poisson Summation) Sei f : Rn → C eine Funktion, die die Bedingungen (V1), (V2), (V3) erf¨ ullt. Dann ist f¨ ur jedes volle Gitter Γ ≤ Rn X f (x) = det(Γ)−1/2 x∈Γ wobei fˆ(y) = X fˆ(y) y∈Γ# Z f (x) exp(−2πixy tr )dx Rn die Fourier-Transformierte von f ist und die Bedingungen (V1), (V2), (V3) wie folgt sind: R (V1) Rn |f (x)|dx < ∞ (damit fˆ existiert). (V2) Die Reihe F (u) := X f (x + u) x∈Γ konvergiert absolut und uniform auf jedem Kompaktum (damit F (u) stetig ist). (V3) Die Reihe P y∈Γ# fˆ(y) konvergiert absolut. 18. AUSBLICKE. 115 achst f¨ ur Γ = Zn . Beweis. Wir beweisen den P Satz zun¨ Die Funktion F (u) := x∈Zn f (x + u) ist nach Voraussetzung (V2) stetig und periodisch in u, F (u + x) = F (u) f¨ ur x ∈ Zn . Also hat F eine Fourier-Entwicklung X F (u) = exp(2πi(u, y))a(y) y∈Zn wobei a(y) = (V3), dass R [0,1]n F (t) exp(−2πi(t, y))dt. Wir zeigen, fˆ(y) = a(y). Dann gilt n¨amlich wegen F (0) = X f (x) = x∈Zn Es ist f¨ ur y ∈ X fˆ(y). y∈Zn Zn R P a(y) = [0,1]n x∈Zn f (x + t) exp(−2πi(t, y))dt R P = x∈Zn [0,1]n f (x + t) exp(−2πi((x + t), y))dt R P = x∈Zn x+[0,1]n f (t) exp(−2πi(t, y))dt = fˆ(y). Im allgemeinen Fall ist Γ = Zn M mit M ∈ GLn (R) und Γ# = Zn M −tr . Also ist X X X X f (x) = f (xM ) = fM (x) = fˆM (y) x∈Zn x∈Γ x∈Zn y∈Zn wobei fˆM (y) = Z 1 f (tM ) exp(−2πi(t, y))dt = | det(M )| Rn Z f (t) exp(−2πi(tM −1 , y))dt = det(Γ)−1/2 fˆ(yM −tr ). Rn Satz 18.18. (Theta Transformationsformel) Es gilt f¨ ur ein volles Gitter L ≤ Rn ΘL (−1/z) = (z/i)n/2 det(L)−1/2 ΘL# (z). Beweis. Beide Seiten sind holomorphe Funktionen auf H. Daher gen¨ ugt es die Identit¨at f¨ ur ˆ(y) = z = it mit t > 0 nachzuweisen. Die Fouriertransformierte von f (x) = exp( −π (x, x)) ist f t ¨ tn/2 exp(−πt(y, y)) (Ubung). Daher erhalten wir mithilfe von Poisson Summation: P −π ΘL ( −1 it ) = Px∈L exp( t (x, x)) = det(L)−1/2 y∈L# tn/2 exp(−πt(y, y)) = tn/2 det(L)−1/2 ΘL# (it). Bemerkung 18.19. Die Gruppe SL2 (Z) := hS = 0 −1 1 0 , T := 1 1 0 1 operiert auf der oberen Halbebene durch M¨ obiustransformationen: az + b a b γz = z := . c d cz + d Insbesondere ist T z = z + 1 und Sz = −1 . z i ¨ KAPITEL 6. LINEARE ALGEBRA UBER Z. 116 Definition 18.20. Sei k ∈ 2Z≥0 . Eine holomorphe Funktion f : H → C heißt Modulform vom Gewicht k falls a b az+b k (i) f ( cz+d ) = (cz + d) f (z) f¨ ur alle γ = ∈ SL2 (Z) und c d P (ii) f hat eine Potenzreihenentwicklung f (z) = ∞ n=0 an exp(2πinz). Bemerkung 18.21. Eine holomorphe Funktion f : H → C ist genau dann eine Modulform, falls f (z) = f (z + 1) und fP (−1/z) = z k f (z) und die wegen der ersten Bedingung existierende ur n < 0 erf¨ ullt. Fourierentwicklung f (z) = ∞ −∞ an exp(2πinz) die Bedingung an = 0 f¨ Satz 18.22. Ist L ≤ Rn ein gerades unimodulares Gitter, so ist n durch 8 teilbar. Beweis. Sei L so ein Gitter. Angenommen n ist nicht durch 8 teilbar. Indem wir L durch L ⊥ L oder L ⊥ L ⊥ L ⊥ L ersetzen k¨ onnen wir annehmen, dass n ≡8 4 ist. Dann ist ΘL (−1/z) = (−1)n/4 z n/2 ΘL (z) = −z n/2 ΘL (z). Also ist ΘL ((T S)z) = −z n/2 ΘL (z). Da (T S)z = (z − 1)/z und (T S)2 z = 1/(1 − z) ist, ergibt sich daraus ΘL ((T S)3 z) = ΘL ((T S)(T S)2 z) = −(1/(1 − z))n/2 ΘL ((T S)2 z) = z −n/2 ΘL ((T S)z) = −ΘL (z) ein Widerspruch da (T S)3 = I2 . Satz 18.23. Ist L ≤ Rn ein gerades unimodulares Gitter, so ist ΘL eine Modulform vom Gewicht n/2. Beweis. Sei f := ΘL . Dann ist f (z) = f (z + 1), da L ein gerades Gitter ist und f hat eine Fourierentwicklung wie in 18.20 (ii). Wegen der Theta Transformaionsformel ist f (−1/z) = z n/2 f (z) (da n durch 8 teilbar ist), also ist f eine Modulform vom Gewicht n/2. Bemerkung 18.24. Bezeichne M(SL2 (Z)) := ∞ M Mk k=0 den Ring der Modulformen wobei Mk den C-Vektorraum der Modulformen vom Gewicht k bezeichnet. F¨ ur f ∈ Mk und g ∈ Ml ist f g ∈ Mk+l , also ist M(SL2 (Z)) eine Z-graduierte C-Algebra. Satz 18.25. (ohne Beweis) M(SL2 (Z)) = C[E4 , E6 ], wo E4 = θE8 = 1 + 240 ∞ X σ3 (n)q 2n ∈ M4 und E6 = 1 − 504 n=1 die Eisensteinreihen bezeichnen. Dabei ist σt (n) = Teiler von n. ∞ X σ5 (n)q 2n ∈ M6 n=1 t 0<d|n d P die Summe der t-ten Potenzen der 18. AUSBLICKE. 117 Beweis. Ein Beweis findet man in Ebeling, Abschnitte 2.5 und 2.6. Folgerung 18.26. Sei ∞ ∆ := Y 1 (E43 − E62 ) = q 2 (1 − q 2i )24 ∈ M12 . 1728 i=1 Ist L ≤ Rn ein gerades unimodulares Gitter mit n = 24a + 8b, so gibt es Zahlen ci ∈ Q mit ΘL = a X n/8−3i ci E4 ∆i . i=0 P 2n Definition 18.27. Eine Modulform f vom Gewicht k heißt Spitzenform, falls f = ∞ n=1 q . Bezeichnung: f ∈ Sk . L∞ Bemerkung 18.28. S := k=1 Sk = ∆M(SL2 (Z)) ist das von ∆ erzeugte Hauptideal in M(SL2 (Z)). Bemerkung 18.29. Der Raum M12a+4b (0 ≤ b ≤ 2) enth¨ alt genau eine extremale Modulform ∗ f12a+4b = 1 + 0q 2 + . . . + 0q 2a + a∗2a+2 q 2a+2 + . . . = 1 + ∞ X a∗2i q 2i . i=a+1 P Beweis. f ist ein Polynom in E4 und ∆. f = ai=0 ci E43a+b−3i ∆i . Die a + 1 = dim(M12a+4b ) Bedingungen, dass die Koeffizienten von q 2i gleich 0 sind (1 ≤ i ≤ a) und der von q 0 gleich 1 sind linear unabh¨ angig und bestimmen daher die Koeffizienten ci eindeutig. Satz 18.30. (ohne Beweis) Man kann zeigen, dass der Koeffizient a∗2a+2 in der extremalen Modulform von Null verschieden ist. Beweis. C.L. Siegel, Berechnung von Zetafunktionen an ganzzahligen Stellen. Nachr. Akad. Wiss. G¨ottingen, 87-102 (1969). Folgerung 18.31. Sei L ≤ R24a+8b ein gerades unimodulares Gitter mit 0 ≤ b ≤ 2. Dann ist min(L) ≤ 2 + 2a. Ist min(L) = 2a + 2, so heißt L extremal. Die Thetareihe ΘL eines extremalen Gitters L ist genau die extremale Modulform und insbesondere eindeutig bestimmt. Man kann beweisen, dass f¨ ur großes Gewicht k, (k > 82000) der Koeffizient a∗2a+4 in der extremalen Modulform negativ wird (Mallows, Odlysko, Sloane: Upper bounds for modular forms, lattices and codes, J. Algebra 68-76 (1975), auch wenn dort k fehlerhaft angegeben ist, Korrektur: Jenkins, Rouse: Bounds for coefficients of cusp forms and extremal lattices. Bulletin LMS 2011). Also gibt es nur endlich viele extremale gerade unimodulare Gitter. In durch 24 teilbaren Dimensionen kennt man bisher 5 solcher Gitter, das Leech Gitter Λ24 und 3 gerade unimodulare Gitter in Dimension 48 mit Minimum 6, P48p , P48q und P48n . Erst 2010 habe ich ein extremales gerades unimodulares Gitter Γ72 konstruiert. Ab Dimension 96 ist die Existenz extremaler Gitter unbekannt. Index ¨ Ahnlichkeit, 53 ¨ahnlich, 31, 53 ¨aquivalent, 31, 82 ¨außere Algebra, 95 ¨außeres k-faches Produkt, 93 Abstand, 74 affin unabh¨angig, 66 affine Abbildung, 63 affine Basis, 66 affine Erzeugnis, 62 affine Gruppe, 63 affiner Isomorphismus, 63 affiner Raum, 61 affiner Teilraum, 62 affines Koordinatensystem, 64 Algebra, 12 alternierend, 93, 98 alternierende Gruppe, 57 alternierendes k-faches Produkt, 93 Annihilator, 12 Annullatorideal, 23 assoziiert, 20 Aufblasung, 6 Automorphismengruppe, 51, 107 einfach, 58 Einheiten, 5 Einheitengruppe, 5 Einschr¨ankung, 6 Elementarteiler, 28 Endomorphismen, 7 Endomorphismenring, 7 Erzeugnis, 7 erzeugte Ideal, 11 Euklidische Abstand, 71 Euklidische Gruppe, 71 Euklidische Metrik, 71 Euklidischer affiner Raum, 71 Euklidischer Bereich, 13 Euklidischer Ring, 13 Exponentialreihe, 43 Faktormodul, 9 frei, 8 freie R-Modul auf A, 8 Frobenius-Normalform, 35 Fundamentalbereich, 111 Fundamentalparallelotop, 111 G-¨aquivariant, 53 G-Menge, 47 Basis, 8, 24, 101 ganz, 105 Bewegung, 71 Gaußsche Binomialkoeffizienten, 54 bilinear, 87 gerade, 105 gerade Permutationen, 57 charakteristische Matrix, 34 gerade Teilgitter, 105 Chinesischer Restsatz, 16 Chinesischer Restsatz f¨ ur Euklidische Ringe, 17 Gitter, 101 Gitterbasis, 101, 102 Determinante, 104 Gitterverband, 103 diagonale Operation, 55 gr¨oßter gemeinsamer Teiler, 14 Dimension, 64, 76 Graßmann-Algebra, 95 direkte Summe, 8 Grad, 21, 80 distributiv, 103 Grammatrix, 104 Distributivgesetze, 5 Gruppenhomomorphismus, 57 Doppelverh¨altnis, 78, 79 Hadamard Ungleichung, 108 duale Gitter, 105 118 INDEX 119 Hauptideal, 11 Hauptidealbereich, 13 Hermite-Funktion, 113 Hermite-Konstante, 113 Hermiteinterpolation, 19 Homogenisierung, 84 Homomorphiesatz, 10 Homomorphiesatz f¨ ur Gruppen, 58 Linksideale, 8 Linksrestklassen, 49 Ideal, 10 Index, 49 Integrit¨atsbereich, 13 irreduzibel, 22, 110 Isometrie, 71 Isometriegruppe, 71 isometrisch, 107 isometrische Einbettung, 71 isomorph, 6 Isomorphismus, 7 nat¨ urliche Epimorphismus, 10, 11, 58 nilpotent, 19 Noetherscher Isomorphiesatz, 59 Normalteiler, 57 Nullstellenmenge, 81 Nullteiler, 19 nullteilerfrei, 13 Jordan-Normalform, 40 K¨orper, 5 Kegel, 79 Kern, 7 kissing number, 113 kleinstes gemeinsames Vielfaches, 15 kollinear, 66 kommutativer Ring, 5 kommutieren, 51 kompatible Basen, 24 kompatible Basis, 103 komplanar, 66 komplexe Konjugation, 12 kongruent, 73 Konjugation, 51 konjugiert, 31 konjugierte Partition, 37 Konjugiertenklassen, 51 Konstantenerweiterung, 91 konvex, 111 Kronecker-Produkt, 87 Kußzahl, 113 L¨ange der Bahn, 53 Lagrange, 49 Lagrangeinterpolation, 18 lineare Operation, 49 linearer Anteil, 63 lineares Differentialgleichungssystem, 43 maximales Ideal, 21 Minimum des Gitters, 113 Minoren, 97 Modul, 6 Modulhomomorphismus, 7 Operation diagonale Operation, 55 linear, 49 regul¨are Operation, 49 transitive Operation, 49 treue Operation, 49 Ordnung, 29 orthogonal unzerlegbares Gitter, 110 orthogonale Gruppe, 56 orthogonale Summe, 110 parallel, 64 Parallelprojektion, 69 Partition, 47 Partition einer nat¨ urlichen Zahl, 37 Poisson Summation, 114 Polynomring, 5 prim, 14, 22 prim¨are rationale Form, 36 Primideal, 21 projektiv unabh¨angig, 78 projektive Abbildung, 76 projektive Basis, 78 projektive Quadrik, 79 projektiver Raum, 76 projektiver Teilraum, 76 projektives Koordinatensystem, 76 Projektivit¨at, 76 quadratische Form, 79 Quotientenk¨orper, 13 Rang, 28 120 rationale kanonische Form, 35 rationalen Funktionen, 14 regul¨ar, 49 regul¨are R-Modul, 8 reiner Tensor, 89 reines Teilgitter, 102 Relationenmatrix, 105 Restklasse, 9 Restklassenring, 11 Ring, 5 Ring der ganzen Zahlen, 5 Ring mit Eins, 5 Ringhomomorphismus, 6 schiefsymmetrisch, 98 schwach parallel, 64 semidirektes Produkt, 59 Smith-Form, 25 spezielle lineare Gruppe, 57 Spiegelung, 107 Stabilisator, 48 Standardgitter, 105 Streckungen, 68 subdirektes Produkt von Gittern, 102 Summe, 10 symmetrisch, 99 symmetrische Algebra, 99 symmetrische Tensoren, 100 teilerfremde, 16, 17 Teilmodul, 6 teilt, 20 Teilverh¨altnis, 67 Tensoralgebra, 93 Tensorprodukt, 87, 92 Tensorrang, 89 Theta-Reihe, 114 Torsionselement, 23 torsionsfrei, 23 Torsionsmodul, 23 Torsionsteilmodul, 23 transitiv, 49 Translation, 61 Translationsraum, 61 treu, 49 triviale Normalteiler, 57 unendlich ferne Hyperebene, 77 unimodular, 105 INDEX universelle bilineare Abbildung, 87 Untergruppe, 48 unzerlegbar, 22 Verband, 103 Vielfaches, 20 vollen linearen Gruppe, 54 volles Gitter, 102 windschief, 64 Winkel, 72 Young-Diagramm, 37 Zentralisator, 32, 51 Zentralisatoralgebra, 32 zentrallsymmetrisch, 111 Zentrum, 51 Zykel, 51 Zykelz¨ahler, 52 zyklische Gruppe, 29 zyklischer Vektor, 34 zyklischer Vektorraum, 34
© Copyright 2025 ExpyDoc