Analysis und Lineare Algebra Mathematik I für die Informatik Goethe-Universität Frankfurt am Main Wintersemester 2016/17 Dr. Samuel Hetterich 21. November 2016 Inhaltsverzeichnis 1. Grundbegriffe und -lagen 7 1.1. Mathematische Logik: Aussagen und Logische Quantoren . . . . . . . . . . . . . . 7 1.2. Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.3. Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.4. Beweis von Lemma 1.2.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2. Gruppen - Abstraktes Rechnen mit einem Operator I. 21 2.1. Axiomatische Definition einer Gruppe . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.2. Rechenregeln in Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.2.1. Lösen von Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.2.2. Abelsche Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.3. Isomorphe Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.4. Die Gruppenordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 Lineare Algebra 33 3. Vektorräume 3.1. Die Vektorräume 35 Rn 3.1.1. Rechnen im . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rn 35 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.2. Allgemeine Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.3. Untervektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 4. Lineare Abbildungen 45 5. Basen und Dimension 49 5.1. Lineare Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 5.2. Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 5.2.1. Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 5.2.2. Basisaustauschsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 6. Matrizen 61 6.1. Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 6.2. Rechnen mit Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 6.3. Matrix-Matrix-Multiplikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 3 Inhaltsverzeichnis 7. Matrizen und lineare Abbildungen 71 7.1. Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 7.1.1. Einige weitere Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 7.2. Dimensionssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 7.3. Allgemeine lineare Abbildungen zwischen Vektorräumen . . . . . . . . . . . . . . . 78 7.3.1. Lineare Selbstabbildungen: Die Welt der quadratischen Matrizen . . . . . . . 79 7.4. Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 7.4.1. Interpretation eines Tableaus mit Nullzeilen . . . . . . . . . . . . . . . . . . 82 7.4.2. Interpretation eines Tableaus mit Sprüngen . . . . . . . . . . . . . . . . . . 83 II. Ausgewählte Themen der Analysis 85 8. Komplexe Zahlen 87 4 8.1. Warum imaginäre Zahlen so heißen wie sie heißen . . . . . . . . . . . . . . . . . . 87 8.2. Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 8.2.1. Die imaginäre Einheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 8.2.2. Rechnen mit komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . 90 8.3. Komplexe Zahlen als kartesische Vektoren . . . . . . . . . . . . . . . . . . . . . . . 90 8.4. Konjugiert komplexe Zahlen und Division . . . . . . . . . . . . . . . . . . . . . . . 92 8.4.1. Verwendung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 8.5. Polardarstellung komplexer Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 8.6. Multiplizieren und Dividieren in Polarkoordinaten . . . . . . . . . . . . . . . . . . . 96 8.6.1. Einheitswurzeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 Inhaltsverzeichnis Vorwort Dieses Skript ist Grundlage der Vorlesung “Analysis und Lineare Algebra - Mathematik für die Informatik I” gehalten von Dr. Samuel Hetterich im Wintersemester 2016/17 an der Goethe-Universität in Frankfurt am Main. Das Skript wird im Laufe des Semesters entwickelt - die entsprechenden Abschnitte sollten aber in ihrer endgültigen Form jeweils vor den einzelnen Vorlesungen zur Verfügung stehen. Bei Anmerkungen, Kritik und Korrekturvorschlägen zögern Sie bitte nicht, sich an Dr. Samuel Hetterich ([email protected]) zu wenden. Teile des vorliegenden Manuskripts sind aus den Skripten zu der gleichen Vorlesung vorangegangener Semester von Herrn Prof. Dr. Amin Coja-Oghlan und Herrn Dr. Hartwig Bosse übernommen. 5 1 Grundbegriffe und -lagen Wir beginnen mit einigen sehr grundlegenden mathematischen Konzepten, die zum Teil schon aus der Schulmathematik bekannt sein sollten und in der Vorlesung häufig als “Handwerkszeug” in den unterschiedlichen Kontexten auftauchen werden. 1.1. Mathematische Logik: Aussagen und Logische Quantoren Unter einer mathematischen Aussage versteht man eine mathematische Formel, oder eine formallogische Aussage, der ein Wahrheitswert “wahr” oder “falsch” zugewiesen werden kann. I Der Ausdruck “x2 − 2x + 1” ist keine mathematische Aussage sondern nur ein mathematischer Term. I Der Ausdruck “x2 − 2x + 1 = 0” ist eine mathematische Aussage (die je nach Wert von x wahr oder falsch ist). I Der Ausdruck “1 = 0” ist eine mathematische Aussage, die falsch ist. I Der Ausdruck “4 ist eine Quadratzahl” ist eine mathematische Aussage, die richtig ist. I Die Goldbach-Vermutung “Jede gerade natürliche Zahl größer als 2 kann als Summe zweier Primzahlen geschrieben werden.“ ist eine mathematische Aussage von der bisher nicht klar ist, ob sie wahr oder falsch ist. Wie Aussagen im “normalen” Leben, muss jede mathematische Aussage ein Verb enthalten. Diese Verben stecken oft in logischen Quantoren oder logischen Operatoren, die im Grunde Abkürzungen für Textbausteine sind. In den obigen Beispielen steckt das Verb an einigen Stellen in dem Operator “=”, den man als “. . . ist gleich . . .” liest. In Tabelle 1.1 und 1.2 sind die von uns verwendeten logischen Operatoren und Quantoren aufgelistet. Symbol ¬ ∨ ∨˙ ∧ Name Negation Oder Exklusives Oder Und Zugehörige Formulierung Es gilt nicht . . . Es gilt . . . oder . . . Es gilt entweder . . . oder . . . Es gilt . . . und . . . Beispiel ¬[3 = 4] [n ≥ 2] ∨ [n ≤ 2] ˙ ≤ 2] [n ≥ 2]∨[n [n ≥ 2] ∧ [n ≤ 2] Tabelle 1.1.: Liste der verwendeten Operatoren. 7 1. Grundbegriffe und -lagen Symbol ∀ ∃ ∃! @ Name All-Quantor Existenz-Quantor Zugehörige Formulierung Für alle . . . Es existiert (mindestens) ein . . . Es existiert genau ein . . . Es existiert kein . . . Beispiel ∀n ∈ : n ≥ 0 ∃n ∈ : n ≥ 5 ∃!n ∈ : n2 = 25 @n ∈ : n < 0 N N N N Tabelle 1.2.: Liste der verwendeten Quantoren. Es gelten in gewissem Sinne “Rechenregeln” für mathematische Aussagen. Dabei spielen die Begriffe der Äquivalenz und der Implikation eine entscheidende Rolle, welche mathematische Aussagen in Relation setzen. Definition 1.1.1. I Eine mathematische Aussage A impliziert eine weitere mathematische Aussage B, wenn aus der Wahrheit der Aussage A die Wahrheit der Aussage B folgt. Man schreibt dann A ⇒ B. I Zwei mathematische Aussagen A und B sind äquivalent, wenn A die Aussage B impliziert und umgekehrt auch B die Aussage A impliziert. In diesem Fall schreibt man A ⇔ B. (Die “Formel”: . . . genau . . . dann . . . , wenn . . . weist auf Äqivalenz in gesprochener Sprache hin.) Beispiel 1.1.2. I Es ist n ≥ 5 ⇒ n ≥ 3. Umgekehrt ist dies jedoch nicht der Fall. I Ein Dreieck ist genau dann gleichseitig, wenn alle Seiten die gleiche Länge haben. Bemerkung 1.1.3. Interessanterweise sind die Implikationen A ⇒ B und ¬B ⇒ ¬A gleichbedeutend. Denn wenn A die Aussage B impliziert, dann kann A nicht wahr sein, wenn B nicht wahr ist. Ergo impliziert ¬B die Aussage ¬A. Anmerkung: Im Fall der Äquivalenz sind die Aussagen entweder beide wahr oder beide falsch - sie sind gleichwertig. Daher erschließt sich der Name aus dem Lateinischen: aequus “gleich” und valere “wert sein”. 8 1.1. Mathematische Logik: Aussagen und Logische Quantoren Eine schöne Veranschaulichung für den Unterschied zwischen Äquivalenz und Implikation ist diese Eselsbrücke: "Wenn es geregnet hat, ist die Straße nass. Aber wenn die Straße nass ist, heißt das nicht zwangsläufig, dass es geregnet hat." “Es hat geregnet.” ⇒ “Die Straße ist nass.” “Die Straße ist nass.” 6⇒ “Es hat geregnet.” Aber es ist nach Bemerkung 1.1.3 ¬(“Die Straße ist nass.”) ⇒ ¬(“Es hat geregnet.”) Wie angekündigt nun die “Rechenregeln” für mathematische Aussagen. Lemma 1.1.4. Es seien A, B, C mathematische Aussagen. Dann gelten A∧B ⇔B∧A (Kommutativgesetze) A∨B ⇔B∨A [A ∧ B] ∧ C ⇔ A ∧ [B ∧ C] (Assoziativgesetze) [A ∨ B] ∨ C ⇔ A ∨ [B ∨ C] [A ∧ B] ∨ C ⇔ [A ∨ C] ∧ [B ∨ C] (Distributivgesetze) [A ∨ B] ∧ C ⇔ [A ∧ C] ∨ [B ∧ C] Anmerkung: Negiert man eine Aussage, die mit einem All- oder Existenzquantor beginnen, so taucht in der negierten Aussage stets der andere Quantor auf. Dies ist wichtig für den Beweis von Aussagen durch Widerspruch, hier wird in der einleitenden Widerspruchsannahme die Originalaussage negiert. 9 1. Grundbegriffe und -lagen 1.2. Mengen Wir beginnen mit dem Begriff der Menge, welche an dieser Stelle aufgrund einiger Komplikationen in den Details nicht im strengen mathematischen Sinne sauber definiert werden kann. Für unsere Zwecke bedienen wir uns der (naiven) Mengendefinition von Georg Cantor (1845-1918), dem Begründer der Mengentheorie: Eine Menge ist eine Zusammenfassung bestimmter wolunterschiedener Objekte unserer Anschauung oder unseres Denkens, welche Elemente genannt werden, zu einem Ganzen. Diese sehr einleuchtende und der alltäglichen Verwendung des Begriffs der Menge sehr nahe Umschreibung führt allerdings bei näherer Untersuchung zu Komplikationen. Die Russelsche Antinomie Definiert man Mengen als “Zusammenfassung unterscheidbarer Objekte” so ergibt sich das folgende Paradoxon: Die Menge der Mengen, welche sich nicht selbst enthalten. (1.1) Gäbe es diese Menge, und nennen wir sie A, so stellt sich die Frage: Enthät A sich selbst? (1.2) I Beantworten wir Frage (1.2) mit JA so ergibt sich ein Widerspruch: – Wir nehmen an A enthält die Menge A (weil wir die Frage (1.2) mit JA beantworten). – Damit ist A (als Menge) keine jener erlesenen Mengen, die wir unter dem Titel “Mengen die sich nicht selbst enthalten” in A versammelt haben. – D.h. A ist nicht dabei, ergo: A ist (doch) nicht in A enthalten. – Ein Widerspruch! I Beantworten wir Frage (1.2) mit NEIN so ergibt sich ein Widerspruch: – Wir nehmen an A enthält die Menge A nicht (weil wir die Frage (1.2) mit NEIN beantworten). – Damit ist A (als Menge) eine jener erlesenen Mengen, die wir unter dem Titel ”Mengen die sich nicht selbst enthalten” in A versammelt haben. – D.h. A ist dabei, ergo: A ist (doch) in A enthalten. – Ein Widerspruch! 10 1.2. Mengen Wir beginnen mit Konventionen und Definitionen bezüglich der Notation grundlegender Begriffe im Kontext von Mengen. Seien A und B Mengen. I Mengen werden mit “{ ” und “ }” den Mengenklammern geschrieben. I Die Schreibweise x ∈ A bedeutet, dass x ein Element der Menge A ist. I Ferner bedeutet A ⊂ B (bzw. B ⊃ A), dass A eine Teilmenge von B ist, d.h. jedes Element von A ist auch ein Element von B. I Wir nennen die Mengen A und B gleich, wenn sie die gleichen Elemente enthalten. I Eine Teilmenge A von B heißt echt, wenn A nicht gleich B ist. I Mit A ∪ B bezeichnen wir die Vereinigung von A und B; die Menge aller Element, die in A oder in B enthalten sind. I Außerdem ist A ∩ B der Durchschnitt von von A und B; die Menge aller Elemente, die in A und B enthalten sind. I Mit A \ B, gesprochen “A ohne B”, bezeichnen wir die Menge aller Elemente von A, die nicht Element von B sind (auch Differenz genannt). I Schließlich ist A × B die Produktmenge von A und B, d.h. die Menge aller geordneten Paare (x, y) mit x ∈ A und y ∈ B (auch kartesisches Produkt genannt). I Eine Menge A heißt endlich, wenn A nur endlich viele Elemente besitzt. Beispiel 1.2.1. Für A = {1, 2, 3} und B = {3, 4} ist A × B = {(1, 3), (1, 4), (2, 3), (2, 4), (3, 3), (3, 4)}. I Die Anzahl der Elemente einer endlichen Menge A wird als die Kardinalität von A bezeichnet, und mit |A| notiert (auch Mächtigkeit genannt). Ist A nicht endlich so schreibt man |A| = ∞. I Die leere Menge notiert mit ∅ ist diejenige Menge, die keine Elemente enthält. I Für eine Menge A is die Potenzmenge P(A) die Menge aller Teilmengen von A inklusive der leeren Menge ∅. Beispiel 1.2.2. Für A = {1, 2, 3} ist P(A) = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, {1, 2, 3}} . I Eine Menge ist definiert, wenn angegeben ist, welche Elemente in ihr enthalten sind. Dies kann deskriptiv - durch Angabe einer definierenden Eigenschaft (A := {n ∈ N : n ist gerade}) - und konstruktiv - durch Aufzählung aller in ihr enthaltenen Elemente (B := {2, 4, 6, 8, 10}) - geschehen. Wenn bei Mengen mit unendlich vielen Elementen das Bildungsgesetz klar ist, können auch unendliche Aufzählungen verwendet werden (A := {2, 4, 6, 8, . . .}). I Es bezeichnet N = {1, 2, 3, . . .} die Menge der natürlichen Zahlen. Es bezeichnet N0 = N ∪ 11 1. Grundbegriffe und -lagen {0} die Menge der natürlichen Zahlen mit der Null. I Es bezeichnet Z = {0, −1, 1, −2, 2, −3, 3, . . .} die Menge der ganzen Zahlen. I Es bezeichnet Q die Menge der rationalen und R die Menge der reellen Zahlen. In einem gewissen Sinne lässt sich mit Mengen und den Operatoren Durchschnitt und Vereinigung (Differenz und dem kartesischen Produkt) rechnen. Es gelten die folgenden “Rechenregeln”. Lemma 1.2.3. Für beliebige Mengen A, B und C gilt: A∩B =B∩A (Kommutativgesetze) A∪B =B∪A (A ∩ B) ∩ C = A ∩ (B ∩ C) (Assoziativgesetze) (A ∪ B) ∪ C = A ∪ (B ∪ C) (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C) (Distributivgesetze) (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C) Im Folgenden Beweis stehen die Symbole “⊂” und “⊃” für folgende Textüberschriften: “⊂” entspricht: “Wir Zeigen nun: linke Menge ist enthalten in rechter Menge”. “⊃” entspricht: “Wir Zeigen nun: rechte Menge ist enthalten in linker Menge”. Diese Symbole sind also Abkürzungen und nicht als mathematische Symbole zu deuten. Beweis von Lemma 1.2.3 Wir beweisen exemplarisch die erste der beiden in Lemma 1.2.3 als Distributivgesetz bezeichneten Gleichungen. Zu zeigen ist: (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C) Nach der Definition von Mengengleichheit müssen wir zeigen, dass die rechte menge in der linken un die linke in der rechten Menge enthalten ist. 12 1.2. Mengen “⊂”: Es sei x ∈ (A ∩ B) ∪ C beliebig gewählt. Für x gilt dann: x ∈ (A ∩ B) ∪ C ⇔ [x ∈ (A ∩ B) ∨ x ∈ C] ⇔ [(x ∈ A ∧ x ∈ B) ∨ x ∈ C] (1.3) Es gibt nun zwei Fälle: Fall 1 x ∈ C: Es gilt demnach x ∈ A ∪ C und x ∈ B ∪ C. Fall 2 x ∈ / C: Es folgen aus (1.3) demnach sofort x ∈ A und x ∈ B. Damit gilt auch x ∈ A ∪ C und x ∈ B ∪ C. In beiden Fällen gilt also x ∈ A ∪ C und x ∈ B ∪ C und damit x ∈ (A ∪ C) ∩ (B ∪ C). Da x beliebig gewählt war gilt also allgemein für alle x ∈ (A ∩ B) ∪ C, dass x ∈ (A ∩ B) ∪ C =⇒ x ∈ (A ∪ C) ∩ (B ∪ C). Damit gilt nach der Defintiont von “⊂” also (A ∩ B) ∪ C ⊂ (A ∪ C) ∩ (B ∪ C). “⊃”: Es sei x ∈ (A ∪ C) ∩ (B ∪ C) beliebig gewählt. Für x gilt dann: x ∈ (A ∪ C) ∩ (B ∪ C) ⇔ [x ∈ (A ∪ C) ∧ x ∈ (B ∪ C)] ⇔ [(x ∈ A ∨ x ∈ C) ∧ (x ∈ B ∨ x ∈ C)] (1.4) Es gibt nun zwei Fälle: Fall 1 x ∈ C: Es folgt demnach x ∈ (A ∩ B) ∪ C. Fall 2 x ∈ / C: Es folgen aus (1.4) demnach sofort x ∈ A und x ∈ B und damit x ∈ (A∪C)∩(B∪C). In beiden Fällen gilt also x ∈ (A ∩ B) ∪ C Da x beliebig gewählt war, gilt also allgemein für alle x ∈ (A ∪ C) ∩ (B ∪ C), dass x ∈ (A ∩ B) ∪ C ⇐ x ∈ (A ∪ C) ∩ (B ∪ C). Damit gilt nach der Definition von Teilmengen also (A ∩ B) ∪ C ⊃ (A ∪ C) ∩ (B ∪ C). 13 1. Grundbegriffe und -lagen Lemma 1.2.4. Für eine endlichen Menge A mit Kardinalität n gilt: Die Potenzmenge P(A) hat Kardinalität 2n . In der Mathematik lassen sich Aussagen häufig auf unterschiedliche Weisen zeigen. Für den Satz des Pythagoras sind beispielsweise mehrere hundert verschiedene Beweise bekannt. Der Satz des Pythagoras ist damit übrigens der meistbewiesene mathematische Satz. Für Lemma 1.2.4 ist ebenfalls mehr als ein Beweis bekannt. Zum einen kann man die Menge aller Teilmengen, also die Potenzmenge, mit einer zweiten Menge in Eins-zu-eins-Relation bringt. Der Trick besteht darin, dass dabei jedem Element aus der Potenzmenge genau ein Element aus der zweiten Menge und tatsächlich jedem Element aus der zweiten Menge auch ein Element der Potenzmenge zugeordnet wird. Folglich enthalten beide Mengen also genau gleich viele Elemente. Die zweite Menge stellt sich dann schlussendlich als leicht zu zählen heraus. Neben diesem Beweis, der die im folgenden Abschnitt erinnerten Begriff im Zusammenhang von Abbildungen verwendet, existiert ein weiterer Beweis über eine Beweistechnik mit dem Namen vollständige Induktion. Wir betrachten beide Beweise im Anschluss an Abschnitt 1.3. 1.3. Abbildungen Eine Abbildung (oder auch Funktion) f : D → B, x 7→ f (x) bildet Werte aus dem Definitionsbereich D in den Bildbereich B ab. Jedem Element x ∈ D wird durch f genau ein Bild f (x) ∈ B zugeordnet. Gilt f (x) = y für ein y ∈ B, so nennt man x das Urbild von y. Jedes x ∈ D besitzt ein Bild f (x), aber nicht jedes Element y ∈ B muss ein Urbild besitzen. Dies verallgemeinert man für eine Abbildung f : D → B und eine Teilmenge Z ⊂ D ist f (Z) = {f (z) : z ∈ Z} die Bildmenge (manchmal auch einfach das Bild) von Z unter f . Umgekehrt bezeichnen wir für C ⊂ B mit f −1 (C) = {x ∈ D : f (x) ∈ C} die Urbildmenge (manchmal auch einfach das Urbild) von C. Definition 1.3.1. Eine Abbildung heißt I injektiv, wenn je zwei verschiedene x, x0 ∈ D auch verschiedene Bilder besitzen, d.h. wenn gilt: x 6= x0 =⇒ f (x) 6= f (x0 ) 14 1.3. Abbildungen I surjektiv, wenn jeder Bildpunkt y ∈ B tatsächlich auch ein Urbild x ∈ D besitzt mit y = f (x), d.h. wenn gilt: ∀ y ∈ B ∃ x ∈ D : f (x) = y I bijektiv, wenn f injektiv und surjektiv ist. Injektiv: Die Definition für “injektiv” kann man sich anschaulich vorstellen als: Die Definitionsmenge D wird in die Bildmenge “injiziert”, d.h. man findet für jedes x ∈ D einen eigenen Funktionswert y ∈ B vor, “der einmal x war”. Surjektiv: Eine surjektive Abbildung dagegen “deckt die ganze Bildmenge ab”, jeder Bildpunkt wird bei einer surjektiven Abbildung auch tatsächlich angenommen. Dies ist nicht selbstverständlich: Das Wort “Bildmenge” klingt zwar wie “die Sammlung aller Bilder f (x)”. Tatsächlich kann die Bildmenge aber auch einfach nur eine “grobe Schätzung” sein, wie im Beispiel g : R → R mit g(x) := x2 . Dabei sind die Werte von g stets nicht-negativ, d.h. man “erreicht” mit g nicht die ganze Bildmenge R. Bijektiv: Eine bijektive Abbildung stellt eine Eins-zu-Eins-Relation zwischen Definitionsmenge D und Bildmenge B her. D.h. jedes x ∈ D hat zum einen “sein eigenes(!)” Bild f (x) ∈ B, aber auch jeder Punkt y 0 ∈ B hat genau(!) ein Urbild x0 ∈ D. Daraus folgt: Sind D und B endliche Mengen und sind sie über eine bijektive Abbildung f : D → B verknüpft, so haben D und B gleich viele Elemente. Der Begriff einer bijektiven Abbildung ist in der Mathematik also beim Zählen von Dingen von zentraler Bedeutung. Falls f eine bijektive Abbildung ist, so hat für jedes y ∈ B die Menge f −1 ({y}) genau ein Element x ∈ D und wir schreiben einfach x = f −1 (y). Die Abbildung f −1 : B → D, y 7→ f −1 (y) ist in diesem Fall ebenfalls bijektiv und heißt die Umkehrabbildung von f . Für eine Menge B und eine Zahl k ∈ N bezeichnen wir mit B k die Menge aller Abbildungen f : {1, . . . , k} → B. Anstelle der Notation f : D → B, x 7→ f (x) schreiben wir mitunter etwas lax (f (x))x∈D . Diese Notation wird häufig verwendet, wenn D = {1, 2, 3, . . . , k} für eine Zahl k ∈ N. Insbesondere schreiben wir die Elemente f der Menge B k als (f (1), . . . , f (k)); sie werden auch kTupel (und im Fall k = 2 Paare und im Fall k = 3 Tripel) genannt. Allgemeiner bezeichnen wir mit B D die Menge aller Abbildungen f : D → B. Ist (Ai )i∈I eine Abbildung, die Elementen einer Menge I Teilmengen Ai einer Menge A zuordnet, so bezeichnet [ Ai = {x ∈ A : es gibt ein i ∈ I mit x ∈ Ai } i∈I 15 1. Grundbegriffe und -lagen die Vereinigung aller Mengen Ai . Analog ist \ Ai = {x ∈ A : für alle i ∈ I gilt x ∈ Ai } i∈I der Durchschnitt aller Ai . Sei f : A → R eine Abbildung von einer endlichen Menge A 6= ∅ in die reellen Zahlen. Dann existiert eine Bijektion g : {1, . . . , k} → A, wobei k ∈ N. Wir definieren die Summe X f (a) = f (g(1)) + f (g(2)) + . . . + f (g(k)) a∈A und das Produkt Y f (a) = f (g(1)) · f (g(2)) · · · f (g(k)). a∈A Falls A die leere Menge ist, interpretieren wir die Summe als 0 und das Produkt als 1. Wir benötigen die Beweismethode der Induktion. Die Grundlage des Induktionsprinzip ist folgende Tatsache. Jede nicht-leere Menge natürlicher Zahlen enthält eine kleinste Zahl. Aus dieser Tatsache folgt Lemma 1.3.2 (“Induktionsprinzip”). Angenommen eine Menge A ⊂ N hat die beiden folgenden Eigenschaften. i. 1 ∈ A ii. Wenn 1, . . . , n ∈ A, dann gilt auch n + 1 ∈ A. Dann gilt A = N. Beweis. Angenommen A 6= N. Dann ist die Menge B = N\A nicht leer. Folglich gibt es eine kleinste Zahl x ∈ B. Aufgrund von i. ist x 6= 1. Ferner gilt 1, . . . , x − 1 ∈ A, weil x ja die kleinste Zahl in B ist. Nach ii. gilt also x ∈ A, im Widerspruch zu unserer Annahme, dass x ∈ B. Das Induktionsprinzip ermöglicht es uns, Beweise nach folgendem Schema zu führen. i. Zeige, dass die Behauptung für n = 1 stimmt. ii. Weise ferner nach, dass die Behauptung für n + 1 gilt, wenn sie für 1, . . . , n gilt. 16 1.4. Beweis von Lemma 1.2.4 Dann folgt die Behauptung für alle n ∈ N. Als Beispiel zeigen wir die gaußsche Summenformel (auch kleiner Gauß genannt). Lemma 1.3.3 (“Kleiner Gauß”). Die Summe der ersten n natürlichen Zahlen ist 1 + 2 + ... + n = n X i= i=1 n(n + 1) . 2 Beweis. Wir führen die Induktion über n. Induktionsverankerung: Im Fall n = 1 ist die rechte Seite 1(1 + 1) =1 2 was tatsächlich der Summe der ersten 1 vielen natürlichen Zahlen entspricht. Induktionsannahme: Wir nehmen als Induktionsvoraussetzung nun an, dass die Formel für n ∈ N gilt, also dass n X i= i=1 n(n + 1) . 2 (1.5) Induktionsschluss: Für den Induktionsschluss berechnen wir nun die Summe der ersten n + 1 vielen natürlichen Zahlen n+1 X i = (n + 1) + i=1 n X i i=1 = (n + 1) + = n(n + 1) 2 [nach Induktionsannahme (1.5)] (n + 1)((n + 1) + 1) 2n + 2 + n2 + n = 2 2 wie behauptet. 1.4. Beweis von Lemma 1.2.4 Wie schon angekündigt beweisen wir Lemma 1.2.4 auf zwei unterschiedliche Wege. Beweis von Lemma 1.2.4 - Variante 1 17 1. Grundbegriffe und -lagen Sei A eine Menge mit n Elementen. Sei Wn die Menge aller “Worte” bestehend aus den Buchstaben i und d mit genau n Buchstaben. Es sei f eine bijektive Abbildung der Elemente in A in die Menge der natürlichen Zahlen 1 bis n. Diese Abbildung ordnet die Elemente in A. Für jedes a ∈ A existiert also eine eindeutiges 1 ≤ j ≤ n sodass f (a) = j. Sei g eine Abbildung die jedem B ∈ P(A) das Wort w ∈ Wn zuordnet, sodass für alle a ∈ A gilt I der f (a)-te Buchstabe von w ist i, wenn a ∈ B und I der f (a)-te Buchstabe von w ist d, wenn a ∈ / B. Diese Abbildung ist bijektiv. I Surjektivität Zu zeigen: Für jedes Wort w ∈ Wn lässt sich eine Menge B ∈ P(A) finden, sodass g(B) = w. ∀ w ∈ Wn ∃ B ∈ P(A) : g(B) = w. Sei Q die Menge der Positionen von w, an welchen ein i steht. Sei B = f −1 (Q). Es ist nun der f (a)-te Buchstabe von w ein i, wenn a ∈ B und ein d, wenn a ∈ / B. Demnach wird B von g auf w abgebildet. I Injektivität Zu zeigen: Es gibt keine zwei verschiedenen Mengen B, B 0 ∈ P(A) mit g(B) = g(B 0 ). @B, B 0 ∈ P(A) : [B 6= B 0 ∧ g(B) = g(B 0 )]. Angenommen, es gibt zwei verschiedene Mengen B, B 0 ∈ P(A) sodass g(B) = g(B 0 ). Dann gibt es ohne Beschränkung der Allgemeinheit ein Element a ∈ B, dass nicht in B 0 enthalten ist (sonst wäre B eine Teilmenge von B 0 - aber beide Mengen sind verschieden und somit gäbe es dann ein Element a ∈ B 0 , dass nicht in B enthalten ist - Umbenennung der Mengen liefert die Behauptung). Dann ist aber der f (a)-te Buchstabe von g(B) ein i und der f (a)-te Buchstabe von g(B 0 ) ein d und somit ist g(B) 6= g(B 0 ) - ein Widerspruch zu unserer Annahme. Wie wir schon beobachteten, haben zwei endliche Mengen genau dann die gleiche Kardinalität, wenn es eine bijektive Abbildung zwischen ihnen gibt. Wir müssen also nur noch zählen, wie viele Wörter bestehend aus zwei Buchstaben und von der Länge n es gibt. Für jede Position gibt es 2 Möglichkeiten: Entweder steht dort ein i oder ein d. Insgesamt gibt es also 2n unterschiedliche Wörter und somit hat die Potenzmenge einer endlichen Menge mit Kardinalität n selbst Kardinalität 2n . Beweis von Lemma 1.2.4 - Variante 2 Wir führen die Induktion über n. 18 1.4. Beweis von Lemma 1.2.4 Induktionsverankerung: Im Fall n = 1 ist die Aussage einfach zu Prüfen. Die Potenzmenge besteht in diesem Fall aus den beiden Mengen ∅ und A selbst. Induktionsannahme: Wir nehmen als Induktionsvoraussetzung an, dass die Potenzmenge einer Menge mit n Elementen Kardinalität 2n habe. Induktionsschluss: Für den Induktionsschluss nehmen wir an A habe n + 1 Elemente. Nun zeichnen wir ein Element a ∈ A aus und betrachten die Menge A0 = A \ {a}. Es gilt |A0 | = n. Nach Induktionsvoraussetzung ist |P(A0 )| = 2n . Wir beobachten, dass jede Teilmenge B von A entweder eine Teilmenge von A0 ist oder das Element a enthält (in diesem Fall ist aber B \ {a} eine Teilmenge von A0 ). Also können wir jeder Teilmenge B ⊂ A genau eine Teilmenge von A0 zuordnen, nämlich B \ {a}. Dabei wird jede Teilmenge von A0 genau zwei Teilmengen von A zugeordnet. Es gibt also zweimal soviele Mengen in P(A) als in P(A0 ). Demnach ist |P(A)| = |P(A0 )| · 2 = 2n · 2 = 2n+1 . Anmerkung: Mit der Formulierung ohne Beschränkung der Allgemeinheit (o. B. d. A.) wird zum Ausdruck gebracht, dass eine Einschränkung (z. B. des Wertebereichs einer Variablen) nur zur Vereinfachung der Beweisführung vorausgesetzt wird (insbesondere zur Verringerung der Schreibarbeit), ohne dass die Gültigkeit der im Anschluss getroffenen Aussagen in Bezug auf die Allgemeinheit darunter leidet. Der Beweis wird nur für einen von mehreren möglichen Fällen geführt. Dies geschieht unter der Bedingung, dass die anderen Fälle in analoger Weise bewiesen werden können (z. B. bei Symmetrie). Durch o. B. d. A. können auch triviale Sonderfälle ausgeschlossen werden. Abschließend noch ein Wort zu Beweistechniken. Mathematische Aussagen zu beweisen erfordert neben Fleiß und Sorgfalt in der Darstellung ein hohes Maß an Kreativität. In der Beschäftigung mit mathematischen Beweisen wird man feststellen, dass es allerdings Prinzipien gibt, die immer wieder angewendet werden. Wir haben schon das Induktionsprinzip kennen gelernt. An dieser Stelle noch der Hinweis auf zwei weitere Beweisprinzipien, die zunächst ähnlich aussehen, aber zu unterscheiden sind und schon unbemerkt in obigen Beweisen auftauchten. I Beweis durch Kontraposition Das logische Prinzip hinter diesem Beweisprinzip haben wir schon in Bemerkung 1.1.3 beobachtet. Um zu zeigen, dass A ⇒ B kann man auch zeigen, dass ¬B ⇒ ¬A. 19 1. Grundbegriffe und -lagen Beispiel 1.4.1. Sei n eine gerade Quadratzahl, dann ist √ n ebenfalls gerade. Beweis. Wir möchten zeigen: √ “n ist gerade Quadratzahl” ⇒ “ n ist gerade”. Die Kontraposition ist √ ¬(“ n ist gerade”) ⇒ ¬(“n ist gerade Quadratzahl” ) also √ “ n ist ungerade” ⇒ “n ist ungerade” Sei also √ n eine ungerade, natürliche Zahl, also gibt es ein k1 ∈ N sodass √ n = 2 · k1 + 1. Dann ist √ n = ( n)2 = (2k1 + 1)2 = 4k12 + 4k + 1 = 2(2k12 + 2k1 ) + 1 Setzte k2 = 2k12 + 2k1 . Dann ist n = 2k2 + 1 also ungerade, was zu zeigen war. I Beweis durch Widerspruch Dabei möchte man die Wahrheit einer Aussage A beweisen und nimmt die Negation von A, nämlich ¬A als wahr an und führt dies über logische Schlüsse zu einem Widerspruch. Also kann ¬A nicht wahr sein, also muss A wahr sein. Beispiel 1.4.2. Ein Beispiel findet man in der Variante 1 des Beweises von Lemma 1.2.4: Nachweis der Injektivität von g. 20 2 Gruppen - Abstraktes Rechnen mit einem Operator Eine Gruppe ist die mathematische Abstraktion von Rechnen mit einer einzelnen umkehrbaren Operation wie zum Beispiel die “Addition in Z” oder die “Multiplikation in Q \ {0}”. Eine Gruppe (G, ◦) besteht stets aus einer Menge (oft “G” genannt) auf der mit einer einzelnen Operation (oft mit “◦” bezeichnet) gerechnet werden kann. Ein typisches Beispiel ist die Gruppe (Z, +) der Ganzen Zahlen zusammen mit der Addition. 2.1. Axiomatische Definition einer Gruppe Gruppen mittels Gruppen-Axiome einzuführen liefert eine sehr knappe Formulierung für eine Menge in der man lineare Gleichungen lösen kann: Definition 2.1.1. Eine Gruppe (G, ◦) ist ein Tupel aus I einer Menge G und I einer Verknüpfung ◦ : G × G → G, so dass gelten: G1. a◦b∈G ∀a, b ∈ G G2. a ◦ (b ◦ c) = (a ◦ b) ◦ c G3. ∃ e ∈ G : ∀a ∈ G : e ◦ a = a (Neutrales Element) G4. ∀a ∈ G : ∃ ā ∈ G : ā ◦ a = e (Inverses Element) ∀a, b, c ∈ G (Abgeschlossenheit) (Assoziativität) Anmerkung: Das Neutrale Element e ist dasjenige Element e ∈ G, das jedes Element a ∈ G unverändert lässt, wenn man e mit a verknüpft. In einer Gruppe mit einer additiven Verknüpfung übernimmt e die Rolle der Null, in einer Gruppe mit einer multiplikativen Verknüpfung übernimmt e die Rolle der 1. Beispiel 2.1.2. Das Tupel (Z, +) aus der Menge Z zusammen mit der gewöhnlichen Addition bildet eine Gruppe: 21 2. Gruppen - Abstraktes Rechnen mit einem Operator G1 Für alle m, n ∈ Z gilt m + n ∈ Z. G2 Für alle m, n, k ∈ Z gilt m + (n + k) = (m + n) + k. G3 Das Neutrale Element ist hier die Zahl e = 0, sie erfüllt: 0 + x = x für alle x ∈ Z. G4 Das Inverse zu einer Zahl m ∈ Z ist die zugehörige Zahl −m mit entgegengesetztem Vorzeichen. Beispiel 2.1.3. Die Menge Q\{0} bildet zusammen mit der gewöhnlichen Multiplikation eine Gruppe: G1 Für alle x, y ∈ Q \ {0} gilt x · y ∈ Q \ {0}. G2 Für alle x, y, z ∈ Z gilt x · (y · z) = (x · y) · z. G3 Das Neutrale Element ist hier die Zahl e = 1, sie erfüllt: 1 · x = x für alle x ∈ Q \ {0}. G4 Das Inverse zu einer Zahl x ∈ Q \ {0} ist die zugehörige Zahl 1 x ∈ Q \ {0}. Für das nächste Beispiel brauchen wir die folgenden Definitionen. Definition 2.1.4. Für eine Zahl n ∈ N sei Restj (n) der Rest, der beim Teilen von n durch j ∈ N entsteht: Restj (n) ist definiert als die kleinste (nicht-negative) Zahl r ∈ N0 für die es ein k ∈ N0 gibt mit n = j · k + r. Definition 2.1.5. Für Zahlen n, m, j ∈ N sei n j m :=Restj (n · m) n ⊕j m :=Restj (n + m). Definition 2.1.6. Für eine Zahl j ∈ N seien die Mengen Zj :={0, 1, 2 . . . , j − 1} Z∗j :={k ∈ N : k < j und ggT(k, j) = 1} definiert, wobei ggT(k, j) der größte gemeinsame Teiler von k und j sei. Beispiel 2.1.7. Die Menge (Z∗5 , 5 ) bildet eine Gruppe (wobei Z∗5 = {1, 2, 3, 4}): G1 Für alle a, b ∈ {1, 2, 3, 4} gilt a 5 b ∈ {1, 2, 3, 4}, dies kann man der unten angefügten Verknüpfungstabelle entnehmen. G2 Muss man nachrechnen - geht auf die Assozitivität der natürlichen Zahlen zurück. G3 Das Neutrale Element ist hier die Zahl e = 1, sie erfüllt: 1 5 b = b für alle b ∈ {1, 2, 3, 4}. 22 2.2. Rechenregeln in Gruppen b= a 5 b a= 1 2 3 4 1 1 2 3 4 2 2 4 1 3 3 3 1 4 2 4 4 3 2 1 Abbildung 2.1.: Verknüpfungstabelle der Gruppe aus Beispiel 2.1.7 G4 Das Inverse zu den Zahlen b ∈ {1, 2, 3, 4} liest man aus der Verknüpfungstabelle ab: b= 1 2 3 4 Inverses b = 1 3 2 4 2.2. Rechenregeln in Gruppen In jeder Gruppe gelten die folgenden Regeln: Lemma 2.2.1. Es sei (G, ◦) eine Gruppe. i. Es gibt in (G, ◦) genau ein neutrales Element e. ii. Es gilt e ◦ a = a ◦ e für alle a ∈ G. iii. Für jedes a ∈ G gibt es genau ein Inverses a. iv. Es gilt a ◦ a = a ◦ a für alle a ∈ G. v. Das Inverse zu a ist a, d.h. es gilt (a) = a für alle a ∈ G. Beweis. Exemplarisch führen wir hier die Beweise für i. und ii. sowie iv.. I Zu iv. Es sei a ∈ G beliebig. Nach Axiom G4 hat a ein Inverses a mit a ◦ a = e. Das Element a hat wiederum ein Inverses e a := (a) Es gilt dann für a ◦ a: G3 G4 G2 a ◦ a = e ◦ (a ◦ a) = (e a ◦ a) ◦ (a ◦ a) = e a◦ G4 G3 G4 (a ◦ a}) ◦ a = e a ◦ (e ◦ a) = e a◦a = e | {z e Es gilt also a ◦ a = e. Wegen a ◦ a = e gilt also a ◦ a = a ◦ a. I Zu ii. Es sei a ∈ G beliebig. 23 2. Gruppen - Abstraktes Rechnen mit einem Operator Nach Axiom G2 hat a ein Inverses a mit a ◦ a = e. Es gilt dann: G3 G2 iv. a ◦ e = a ◦ (a ◦ a) = (a ◦ a) ◦a = e ◦ a | {z } =e I Zu i. Es seien e, ee ∈ G zwei neutrale Elemente, d.h. sie erfüllen e◦a=a ee ◦ a = a (2.1) ii. G4 für alle a ∈ G. Dann gilt ee ◦ e = e nach (2.1) für a = e, sowie ee ◦ e = e ◦ ee = ee. Insgesamt gilt also ee = e. 2.2.1. Lösen von Gleichungen Die Gruppe ist die kleinste Recheneinheit der Mathematik, in der lineare Gleichungen stets lösbar sind: In einer Gruppe (G, ◦) sind Gleichungen der Form a ◦ x = b bei gegebenem a, b ∈ G lösbar mit einem x ∈ G. Um dies garantieren zu können, muss der Vorgang “a mit x mittels ◦ verknüpfen” rückgängig zu machen sein. Rechnet man zum Beispiel in Q \ {0} mit der Verknüpfung · so kann man die Gleichung 2 · x = 7 durch Multiplikation mit 1/2 bzw. 0, 5 ∈ Q wie folgt lösen: 2· x = 7 ⇔ (0, 5)· 2 · x = 0, 5 · 7 ⇔ x = 3, 5 Die Zahl 0, 5 ∈ Q \ {0} nennt man das “multiplikative Inverse zu 2”. Die Zahl 0, 5 kann also das ungeschehen machen, was die Multiplikation mit 2 “angerichtet hat”, denn es gilt: 0, 5 · 2 = 1 und die Zahl 1 benimmt sich bei der Multiplikation neutral. Lemma 2.2.2. Es sei (G, ◦) eine Gruppe und a, b ∈ G. Die Gleichung der Form a ◦ x = b hat stets eine Lösung x ∈ G, nämlich x = a ◦ b. Beweis. In der Gruppe G gibt es ein zu a inverses Element a. Verknüpfung mit a “entfernt ” a auf 24 2.2. Rechenregeln in Gruppen der linken Seite der Gleichung. Beachten Sie, dass beim Umformen der Gleichung a ◦ x = b alle Gruppenaxiome G1 bis G4 verwendet werden müssen: a◦ x ⇔ a◦ (a ◦ x) = a ◦ b G2 ⇔ (a ◦ a) ◦ x G4 ⇔ = b e G3 ⇔ = a◦b Assoziativität: G2 ◦ x = a◦b Eigenschaften des Inversen: G4 x = a◦b Eigenschaften des Neutralen: G3 Dass die Lösung x = a ◦ b wieder in G ist, liegt an Axiom G1. Beispiel 2.2.3 (Rechnen in der Gruppe (Q \ {0}, ·)). Eine Gleichung der Form a · x = b mit a, b ∈ Q \ {0} hat immer eine Lösung x = Hier ist 1 a das Multiplikativ-Inverse zu a ∈ Q \ {0}, das Inverse 1 a 1 a · b. zu bilden ist immer möglich, da a 6= 0 gilt. Beispiel 2.2.4 (Rechnen in der Gruppe (Z, +)). Eine Gleichung der Form a + x = b mit a, b ∈ Z hat immer eine Lösung x = (−a) + b. Hier ist −a das Additiv-Inverse zu a ∈ Z. Beispiel 2.2.5 (Rechnen in (N0 , +)). Das Paar (N0 , +) ist keine Gruppe. Es gibt also Gleichungen der Form a + x = b mit a, b ∈ N0 , die keine Lösung in N0 besitzen: Ein Beispiel für eine solche Gleichung ist 5 + x = 0 die “Lösung” x = −5 liegt nicht in N0 , d.h. man verlässt beim Lösen der Gleichung die vorgegbene Menge. Beispiel 2.2.6 (Rechnen in (Q, ·)). Das Paar (Q, ·) ist keine Gruppe. Es gibt also Gleichungen der Form a · x = b mit a, b ∈ Q, die keine Lösung in N besitzen: Ein Beispiel für eine solche Gleichung ist 0 · x = 5, diese Gleichung besitzt keine Lösung in Q. 25 2. Gruppen - Abstraktes Rechnen mit einem Operator 2.2.2. Abelsche Gruppen Für die meisten bisher betrachteten Gruppen ist die Verknüpfungsreihenfolge in a ◦ b gleichgültig. Das gilt aber nicht allgemein für Grupppen: Definition 2.2.7. Eine Gruppe (G, ◦) heißt abelsch, wenn zusätzlich zu den Gruppenaxiomen G1 bis G4 gilt: GS. a◦b=b◦a ∀a, b ∈ G (Kommutativität (Symmetrie)) Abelsche Gruppen sind beispielsweise (Z, +) und (Q \ {0}, ·) (s. Beispiel 2.1.2, 2.1.3 und 2.1.7). Beispiel 2.2.8. Die Menge O(n) der orthogonalen Matrizen (s. Kapitel “Lineare Abbildungen”) bildet zusammen mit der Matrix-Multiplikation eine nicht-abelsche Gruppe. 2.3. Isomorphe Gruppen Es ist möglich, ein und dieselbe Gruppe auf verschiedene Arten und Weisen zu notieren: Die Gruppe ({0, 1}, ⊕2 ) kann man abstrakt auffassen als eine Gruppe mit zwei Elementen, dem neutralen Element e = 0 und einem weiteren Element x = 1 mit den Rechenregeln e ⊕2 x = x ⊕2 e = x und e ⊕2 e = x ⊕2 x = e. Beispiel 2.3.1. Augenscheinlich sind die Gruppen I ({0, 1}, ⊕2 ) I ({1, 2}, 3 ) ˙ I ({Falsch, Wahr}, ∨) “strukturell gleich”, wenn man die jeweiligen Verknüpfungstabelle anschaut: b= a ⊕2 b 26 0 1 b= a 3 b 1 2 a= 0 0 1 a= 1 1 2 1 1 0 2 2 1 b= ˙ a∨b F W a= F F W W W F 2.3. Isomorphe Gruppen Ersetzt man in einer Gleichung a ⊕2 b = c in ({0, 1}, ⊕2 ) . . . I jede 0 durch F, I jede 1 durch W I und ⊕2 durch ∨˙ so erhält man wieder eine korrekte Gleichung. Diesen Umstand wollen wir mathematisch formalisieren. Um zwei Gruppen (G, ◦) und (H, ∗), die prinzipiell gleich (also “isomorph1 ”) sind als solche auszuweisen, muss angegeben werden, welche Elemente der beiden Gruppen einander entsprechen: Hierzu verwendent man eine bijektive Abbildung, d.h. eine Abbildung f : G → H, die jedem g ∈ G ein h ∈ H zuordnet, so dass I je zwei verschiedene g, ge ∈ G auch verschiedene Bilder f (g) 6= f (e g ) ∈ H haben und I es für jedes h ∈ H ein g ∈ G gibt mit f (g) = h. Mit dieser Zuordnung f wird nun einem g ∈ G sein Gegenstück h := f (g) in H zugeordnet, so dass sich h in (H, ∗) genauso verhält wie g sich in (G, ◦) verhält. Definition 2.3.2 (Isomorphe Gruppen). Zwei Gruppen (G, ◦) und (H, ∗) heißen isomorph, wenn es eine bijektive Abbildung f : G → H gibt, so dass gilt: f (g) ∗ f (e g ) = f (g ◦ ge) ∀g, ge ∈ G Die Gleichung in der Definition lässt sich wie folgt lesen: Für das Element g ◦ ge = c ∈ G müssen die zu g, ge und c zugeordneten Elemente f (g), f (e g ), f (c) ∈ H folgende Identität erfüllen: f (g) ∗ f (e g ) = f (c) Kurz gesagt, f (g), f (e g ) verhalten sich innerhalb von H = f (G) wie g, ge innerhalb von G. Es gilt: g ◦ ge = c ⇒ f (g) ∗ f (e g ) = f (c) Beispiel 2.3.3. Die Gruppen ({0, 1}, ⊕2 ) und ({1, 2}, 3 ) sind isomorph. 1 “gleich geformt” 27 2. Gruppen - Abstraktes Rechnen mit einem Operator Mit f : {0, 1} → {1, 2} definiert durch f (0) := 1 und f (1) := 2 erhält man: a ⊕2 b = c für a, b, c ∈ {0, 1} =⇒ f (a) 3 f (b) = f (c) 0 ⊕2 0 = 0 =⇒ 1 3 1 = 1 0 ⊕2 1 = 1 =⇒ 1 3 2 = 2 1 ⊕2 0 = 1 =⇒ 2 3 1 = 2 1 ⊕2 1 = 0 =⇒ 2 3 |{z} 2 = |{z} 1 |{z} f (1) f (1) f (0) 2.4. Die Gruppenordnung Im Folgenden werden wir zeigen, was beim mehrfachen Verknüpfen ein und desselben Gruppenelements passiert. Interessanterweise kommt man in einer abelschen Gruppe immer wieder am neutralen Element “vorbei”. Um dies zu zeigen benötigen wir die Eigenschaften einer Funktion fa : G → G, die ein Element x ∈ G einfach mit einem (festen!) Element a verknüpft: fa (x) = a ◦ x.Diese Abbildung wird Translation um das Element a genannt. Für eine Gruppe (G, ◦) kann man die Mehrfach-Verknüfung eines Elementes mit an abkürzen: Definition 2.4.1. Für ein Element a ∈ G einer Gruppe (G, ◦) und eine natürliche Zahl n ∈ N ist definiert: an = a | ◦ a ◦{z. . . ◦ a} ◦ e n−oft Es gilt also a0 = e , a1 = a , a2 = a ◦ a etc. Die Gruppenordnung zählt die Elemente der Gruppe: Definition 2.4.2 (Ordnung einer Gruppe). Für eine Gruppe (G, ◦) ist die Anzahl |G| der Elemente in G die Ordnung von G. Hat G endlich unendlich viele Elemente, so nennt man (G, ◦) eine endliche Gruppe. so sagt man: Die Gruppenordnung von (G, ◦) ist ∞. Satz 2.4.3. Es sei (G, ◦) eine endliche abelsche Gruppe mit neutralem Element e. Für alle a ∈ G gilt dann: a|G| = e 28 (|G| = Anzahl der Elemente von G). 2.4. Die Gruppenordnung Um diesen Satz zu beweisen benötigen wir das folgende Lemma: Lemma 2.4.4. Es sei (G, ◦) eine Gruppe und a ∈ G sei ein fest gewähltes Element. Dann ist die Abbildung fa : G → G mit fa (x) := a ◦ x bijektiv. Beweis. I Surjektivität: Zu zeigen ist: für jedes y ∈ G gibt es ein x ∈ G mit fa (x) = y. G1 Sei y ∈ G beliebig. Wähle x := a ◦ y, dann gilt: fa (x) = a ◦ (a ◦ y) = (a ◦ a) ◦ y = y. I Injektivität: Zu zeigen ist: für jedes Paar x, x0 ∈ G mit x 6= x0 gilt: fa (x) 6= fa (e x0 ). Es seien x, x0 ∈ G beliebig mit x 6= x0 . Annahme es gelte: fa (x) = fa (x0 ). Dann gilt: fa (x) = fa (x0 ) ⇔ a◦x = a ◦ x0 a ◦ (a ◦ x) = a ◦ (a ◦ x0 ) ⇔ ( a ◦ a) ◦ x = ( a ◦ a) ◦ x0 ⇔ ⇔ |a ◦ x = x0 Die letzte Gleichung ist ein Widerspruch zu x 6= x0 . Nun können wir mit Lemma 2.4.4 den Satz 2.4.3 beweisen: Beweis. (Satz 2.4.3) Es sei (G, ◦) eine endliche abelsche Gruppe mit n := |G| Elementen g1 , . . . , gn ∈ G. Weiter sei a ∈ G beliebig (d.h. es gilt a = gi für ein i). Da fa : G → G mit fa (x) = a ◦ x nach Lemma 2.4.4 eine bijektive Abbildung ist, gilt: G = {g1 , g2 , . . . , gn } = {a ◦ g1 , a ◦ g2 , . . . , a ◦ gn } Die Gruppe (G, ◦) ist abelsch. Bildet man also die Verknüpfung aller Elemente in G, so spielt die Reihenfolge keine Rolle. Es gilt also Verknüpfung aller gj sortiert z }| { g1 ◦ · · · ◦ gn Verknüpfung aller gj “durcheinander” z }| { = (a ◦ g1 ) ◦ (a ◦ g2 ) ◦ · · · ◦ (a ◦ gn ) Da (G, ◦) abelsch ist, dürfen wir umsortieren, es gilt zum Beispiel a◦Rg1 ◦ a ◦ g2 = g1 ◦ a ◦ a ◦ g2 . Wiederholt man dies immer wieder, so erhält man aus der letzen Gleichung schließlich: g1 ◦ · · · ◦ gn = g1 ◦ · · · ◦ gn ◦ a | ◦ a ◦{z· · · ◦ a} g1 ◦ · · · ◦ gn = g1 ◦ · · · ◦ gn ◦ an n Stück Nun “kürzt” man durch sukzessives Multiplizieren auf beiden Gleichungsseiten mit ḡ1 , ḡ2 , . . . , ḡn . 29 2. Gruppen - Abstraktes Rechnen mit einem Operator Dieses Kürzen liefert: e = an bzw. a|G| = e. Eine zweite Möglichkeit dies einzusehen, folgt aus G1, der Abgeschlossenheit der Gruppenoperation. Die Verknüpfung aller Gruppenelemente ist wieder in G, es gibt also ein g 0 ∈ G mit g 0 = g1 ◦ · · · ◦ gn . Somit ist g1 ◦ · · · ◦ gn = g1 ◦ · · · ◦ gn ◦ an ⇔ g 0 = g 0 ◦ an ⇔ ḡ 0 ◦ g 0 = ḡ 0 ◦ g 0 ◦ an ⇔ e = e ◦ an ⇔ e = an was zu zeigen war. Beispiel 2.4.5 (Lemma 2.4.4). Dass die Abbildung fa : x 7→ a ◦ x bijektiv ist, hat zur Folge, dass die Verknüpungstabelle einer Gruppe (G, ◦) immer ein kleines “Sudoku” ist: In jeder Zeile (und in jeder Spalte) kommt jedes Element aus G genau einmal vor. Dies veranschaulichen wir am Beispiel der Gruppe (Z∗9 , 9 ). Es gilt für a := 5: g Element 1 2 4 5 7 8 f5 (g) = 5 9 g Bild 5 1 2 7 8 4 ← Jedes Element taucht genau einmal auf. Hier ist die zweite Zeile “f5 (g)” eine Zeile aus der Verknüpfungstabelle von 9 : b= a 9 b 1 2 4 5 7 8 a= 1 1 2 4 5 7 8 2 2 4 8 1 5 7 4 4 8 7 2 1 5 5 5 1 2 7 8 4 7 7 5 1 8 4 2 8 8 7 5 4 2 1 Beispiel 2.4.6 (Satz 2.4.3). Wir untersuchen die Aussage a|G| = e am Beispiel der Gruppe (Z∗5 , 5 ). 30 2.4. Die Gruppenordnung Hier gelten Z∗5 = {1, 2, 3, 4} und für zwei Elemente a, b ∈ Z∗5 ist a 5 b := Rest5 (a · b), d.h a 5 b ist der Rest der beim Teilen von a · b durch 5 entsteht . Das Paar (Z∗5 , 5 ) bildet eine Gruppe, dies wurde in Beispiel 2.1.7 gezeigt. Hier ist e = 1. Weiter gilt |G| = 4 wegen Z∗5 = {1, 2, 3, 4}. Wir untersuchen also nun a4 für a ∈ {1, 2, 3, 4}: 14 = Rest5 (14 ) = Rest5 (1) = 1 24 34 = Rest5 (24 ) = Rest5 (16) = 1 = Rest5 (34 ) = Rest5 (81) = 1 44 = Rest5 (44 ) = Rest5 (256) = 1 Berechnet man alle Werte von 2k in Z∗5 durch sukzessive Multiplikation “5 2”, so erhält man nach und nach alle Elemente aus Z∗5 : Man startet bei 1 = 20 und nach einem Zyklus von 4 = |Z∗5 |-oft 1 20 2 5 −→ 2 21 2 5 −→ 4 22 2 5 −→ 3 23 = Rest(2 · 3, 5) = Rest(2 · 4, 5) = Rest(2 · 2, 5) = Rest(2 · 1, 5) “mal-zwei-nehmen” erreicht man zwangsläufig wieder die 1: 2 5 −→ 1 24 2 5 −→ 2 25 2 5 −→ 4 26 ... ... 31 Teil I. Lineare Algebra 33 3 Vektorräume Das Hauptziel der ersten Hälfte dieser Vorlesung ist das Verständnis linearer Abbildungen. Dies ist ein Typ von Abbildungen, den wir in der Tat sehr gut verstehen. Deshalb befasst sich die zweite Hälfte der Vorlesung in etwa damit, wie man Abbildungen, die nicht linear sind, durch lineare Abbildungen annähern kann. Um den Begriff der linearen Abbildung einzuführen, müssen wir beschreiben, was sie wohin abbildet. Diese Objekte sind “Vektoren”. 3.1. Die Vektorräume Rn In diesem Skript erinnern wir zunächst an die aus der Schule bekannten Vektoren aus dem Rn . Eine genaue Definition dafür, was ein allgemeiner Vektor ist, findet sich im nachfolgenden Abschnitt. Ein Vektor in der Schulmathematik ist zunächst einmal ein Vektor aus R3 oder R2 , d.h. eine Spalte mit Zahleneinträgen. Diese Vektoren haben eine geometrische Bedeutung, die sich auf zwei verschiedene Weisen verstehen lässt: I Ein Vektor kann als Punkt in einem Raum aufgefasst werden. Wählt man beispielsweise einen festen Bezugspunkt im uns umgebenden dreidimensionalen Raum, so lässt sich jeder Punkt in unserem Universum durch einen Vektor mit drei Einträgen (Höhe, Breite, Länge) relativ zu diesem Punkt beschreiben. I Andererseits repräsentieren Vektoren in der Physik Kräfte, also eine Messgröße die mit einer Richtung einhergeht: Im Gegensatz zu skalaren Messgrößen wie Temperatur oder Masse, muss man um eine Kraft vollständig zu beschreiben nicht nur angeben wie groß die Kraft ist, sondern auch in welche Richtung sie wirkt. Konkret wurde ein mehrdimensionaler reeller Vektor definiert wie im Folgenden: Erinnerung: Für ein festes n ∈ N ist Rn ein n-dimensionaler Vektorraum. 35 3. Vektorräume Ein Vektor ~x ∈ Rn ist ein Tupel mit n reellen Zahleneinträgen x1 , x2 , . . . xn ∈ R. Die allgemeine Form eines solchen Vektors ~x lautet: x1 x2 ~x = .. . . xn Die Zahlen x1 , . . . , xn heißen die Komponenten des Vektors. Es ist zwischen dem Rn als Vektorraum und dem n-dimensionalen Raum, der mit Koordinaten (zum Beispiel den kartesischen Koordinaten (x1 , . . . , xn )) beschrieben wird, zu unterscheiden. Im n-dimensionalen Raum wird jeder Punkt eindeutig durch seine Koordinaten beschrieben. Bettet man den Vektorraum Rn in den n-dimensionalen Raum ein, dann gibt es für jeden Punkt im Raum einen Stützvektor, der vom Ursprung auf diesen Punkt deutet (die entsprechende Einbettung diskutieren wir nachdem wir das Konzept der Basis eines Vektorraums kennengelernt haben). Die Komponenten dieses Stützvektors entsprechen den kartesischen Koordinaten des Punktes. 3.1.1. Rechnen im Rn Wir führen zwei Rechenregeln für Vektoren ein: Definition 3.1.1. Es sei n ∈ N. Für zwei Vektoren ~a, ~b ∈ Rn und λ ∈ R gelten: a1 . . ~a + ~b = . + an b1 a1 + b1 .. .. . . := bn an + bn a1 λ · a1 . .. . λ · ~a = λ · . . := an λ · an Bemerkung: Man kann Vektoren mit gleich vielen Einträgen addieren oder voneinander abziehen (Dies geht mit Vektoren mit verschieden vielen Einträgen nicht!). Für die Addition von Vektoren und die Multiplikation mit einer Zahl gelten die selben Rechenregeln, die man schon von “normalen Zahlen” kennt: Korollar 3.1.2. Für ~a, ~b, ~c ∈ Rn und λ, µ ∈ R gelten: 36 3.1. Die Vektorräume Rn ~a + ~b ~a + ~b + ~c (λ + µ) · ~a = ~b + ~a = ~a + ~b + ~c (Kommutativgesetz) (Assoziativgesetz) λ · ~a + µ · ~a = und λ · ~a + ~b λ · ~a + λ · ~b = (Distributivgesetze) Geometrische Interpretation des Rechnens im Rn Sei n ∈ N und seinen ~a, ~b, ~c ∈ Rn . I Addition Die Addition zweier Vektoren ~a und ~b entspricht geometrisch dem Aneinanderhängen der entsprechenden Vektoren. In der folgenden Abbildung für n = 2: x2 3 7=3+4 ! 5 + 4 1 ! = 7 ! 6 ! 4 1 1 4 ! 3 5 6=5+1 5 3 x1 I Subtraktion Die Subtraktion zweier Vektoren, ~a − ~b, wird einfach als Addition von ~a und −~b aufgefasst. Geometrisch kann man dies als das umgekehrte Anhängen des Vektors ~b an den Vektor ~a verstehen. Eine deutlich bessere Anschauung erhält man jedoch, wenn man ~c = ~a − ~b liest als “~c ist derjenige Vektor, der von ~b zu ~a führt”. Denn es gilt: ~c = ~a − ~b ⇔ ~b + ~c = ~a Dies liefert dann das folgende Bild: 37 3. Vektorräume x2 ~b + (~a − ~b) = ~a ~a b~ ~ ~a − b x1 ~a − ~b = 7 ! 3 − 6 5 ! = 4 ! 1 I Multiplikation mit einer Zahl Die Multiplikation eines Vektors mit einer Zahl ist verträglich mit der Vektor-Addition. Dies bedeutet, dass beispielsweise 2 · ~a = ~a + ~a gilt: a1 2 · a1 . . . . 2 · ~a = 2 · . = . an 2 · an a1 + a1 .. = = ~a + ~a. . an + an Geometrisch entspricht die Multiplikation eines Vektors mit einer Zahl λ ∈ R also einer Streckung bzw. einer Stauchung von ~a um den Faktor λ, für 0 < |λ| < 1 ist λ · ~a kürzer als ~a. für 1 < |λ| ist λ · ~a länger als ~a. Ist λ negativ, so kehrt sich die Richtung eines Vektors ~a beim Multiplizieren mit λ um, der Vektor −~a = (−1) · ~a zeigt also genau entgegengesetzt zu ~a. 3.2. Allgemeine Vektorräume Im weiteren Verlauf werden wir uns nun zunächst mit abstrakteren Vektorräumen beschäftigen zum Beispiel dem Vektorraum der Polynome. Die bereits bekannten Rechengesetze aus dem Rn wollen wir dabei “mitnehmen” also auf ein abstrakteres Niveau anheben. Im Wesentlichen verlangen wir also einfach, dass die beiden Rechenoperationen “Addition von Vektoren” und “Multiplikation eines Vektors mit einer Zahl” sinnvoll funktionieren: 38 3.2. Allgemeine Vektorräume Bei genauerem Hinsehen entdeckt man, dass (Rn , +) eine Gruppe ist, dass also die Elemente aus Rn beliebig addiert und subtrahiert werden können, und dass es ein Neutrales Element (eine Null, in diesem Fall der Nullvektor) gibt. Die Multiplikation mit Zahlen λ ∈ R kommt dann als “Extra” hinzu. Die Addition innerhalb der Gruppe und die Multiplikation mit Elementen “von außen” aus R müssen bestimmte Verträglichkeitsregeln erfüllen. Wiederholung - Eigenschaften des Rn In der Menge V := Rn sind die folgenden Eigenschaften erfüllt: I (V, +) ist eine abelsche Gruppe. Also gelten RA1. ~v + w ~ ∈V ∀~v , w ~ ∈V (Abgeschl. der Addition) ∀~v , w, ~ ~x ∈ V (Assoziativität) RA2. ~v + (w ~ + ~x) = (~v + w) ~ + ~x RA3. ∃ ~e ∈ V : ∀~v ∈ V : ~e + ~v = ~v (Neutrales Element) RA4. ∀~v ∈ V : ∃ − ~v ∈ V : −~v + ~v = e (Inverses Element) RA5. ~v + w ~ =w ~ + ~v ∀~v , w ~ ∈V (Kommutativität) I Abgeschlossenheit bezüglich der Multiplikation mit Elementen in R: RM1. λ · ~v ∈ V ∀λ ∈ R, ~v ∈ V (Abgeschl. der Multiplikation) I Es gelten Verträglichkeitsregeln für alle ~v , w ~ ∈ V und λ, µ ∈ R: RV1. λ · (µ · ~v ) = (λ · µ) · ~v (Assoziativität) RV2. (λ + µ) · ~v = λ · ~v + µ · ~v (Distributivgesetz I) RV3. λ · (~v + w) ~ = λ · ~v + λ · w ~ (Distributivgesetz II) RV4. 1 · ~v = ~v (Neutralität der 1) Diese Eigenschaften wollen wir verallgemeinern, doch zunächst noch ein Hinweis bezüglich der Notation. Verwendung der Operatoren Um dabei die Definition korrekt und so allgemein wie möglich zu halten, verwenden wir für die “neuen” Operationen (Vektoraddition & skalare Multiplikation) hervorgehobene Symbole + und · . Im normalen mathematischen Alltag schreibt man aber statt dessen einfach “+” und “·”. Dies werden wir nach diesem Abschnitt auch so tun und haben wir bisher ! für die Vektorräume ! auch schon 2 1 + und 1 + 2 tatsächlich Rn gentan. Im Prinzip sind nämlich die beiden Additionen 2 1 unterschiedliche Operationen. Um die Vektorräume in ihrer allgemeinsten Form nun definieren zu können brauchen wir noch das Konzept eines Körpers. 39 3. Vektorräume Körper Ein Körper ist eine Menge K auf welcher zwei Verknüpfungen “◦” (eine Addition) und “?” (eine Multiplikation) definiert sind, so dass sowohl (K, ◦) als auch (K, ?) eine ablesche Gruppe bilden und zusätzlich die beiden Distributivgesetzte gelten. Sowohl die rationalen Zahlen R als auch die reelen Zahlen Q sind ein Körper. Auch die komplexen Zahlen C aus Kapitel 8 sind ein Körper. An dieser Stelle wollen wir nicht weiter in die Tiefe gehen. Für unsere Zwecke reicht es zu verstehen, dass wir Elemente aus einem Körper multiplizieren und addieren können. Wir bezeichnen das neutrale Element der Multiplikation mit 1 und das neutrale Element der Addition mit 0. Außerdem sei für λ ∈ K das additive Inverse mit −λ und das multiplikative Inverse mit 1 λ oder λ−1 bezeichnet. Wir definieren nun allgemeine Vektorräume. Definition 3.2.1. Eine Menge V zusammen mit I einer inneren Verknüpfung + : V × V → V (“Vektor-Addition”) I einer äußeren Verknüpfung · : K × V → V (“Multiplikation mit einem Skalar”) nennt man einen Vektorraum über K, falls gelten I (V, + ) ist eine abelsche Gruppe. Also gelten VA1. ~v + w ~ ∈V ∀~v , w ~ ∈V VA2. ~v + (w ~ + ~x) = (~v + w) ~ + ~x ∀~v , w, ~ ~x ∈ V VA4. ∃ ~e ∈ V : ∀~v ∈ V : ~e + ~v = ~v ∀~v ∈ V : ∃ −~v ∈ V : −~v + ~v = ~e VA5. ~v + w ~ =w ~ + ~v VA3. (Abgeschl. der Addition) (Assoziativität) (Neutrales Element) (Inverses Element) ∀~v , w ~ ∈V (Kommutativität) I Abgeschlossenheit bezüglich der Multiplikation mit Elementen in K: VM1. λ · ~v ∈ V ∀λ ∈ K, ~v ∈ V (Abgeschl. der Multiplikation) I Es gelten Verträglichkeitsregeln für alle ~v , w ~ ∈ V und λ, µ ∈ K: VV1. VV2. VV3. VV4. λ · (µ · ~v ) (λ + µ) · ~v λ · (~v + w) ~ 1 · ~v (Assoziativität) = (λ · µ) · ~v λ · ~v + µ · ~v λ · ~v + λ · w ~ = ~v (Neutralität der 1) = = In der Gruppe (V, + ) bezeichnet man . . . I das neutrale Element mit ~0. I das zu ~v ∈ V inverse Element mit −~v . 40 (Distributivgesetz I) (Distributivgesetz II) 3.2. Allgemeine Vektorräume Beobachtung Ein Vektorraum ist eine abelsche, additive Gruppe (V, + ) zusammen mit einer äußeren Multiplikation “ · ” mit Elementen aus einem Körper K. Die Addition innerhalb der Gruppe und die Multiplikation mit Elementen “von außen” aus K müssen bestimmte Verträglichkeitsregeln erfüllen. Aus der Definition des Vektorraumes ergeben sich sofort Konsequenzen: Korollar 3.2.2. In einem Vektorraum V gelten: a) Die Menge V ist nicht leer. b) Für λ ∈ K und ~v ∈ V i. 0 · ~v = ii. (−1) · ~v = iii. λ · ~0 = iv. λ · ~v = gelten die Rechenregeln: ~0 −~v ~0 ~0 ⇐⇒ (λ = 0) ∨ (~v = ~0) Beweis. zu a) Folgt direkt aus der Definition einer Gruppe, also aus Axiom VA3. Trick VV2 zu b) zu i. Wegen ~v = (0 + 1) · ~v = 0 · ~v + ~v folgt: 0 · ~v ist das neutrale Element ~0 in (V, + ). zu ii. Für λ = 0 gilt wegen i. sofort λ · ~0 = ~0. Es sei nun λ 6= 0 und ~v ∈ V beliebig. Dann gilt: Trick ~v = 1 · ~v = (λ · λ1 ) · ~v VV1 λ · ( λ1 · ~v ) Trick = λ · ( λ1 · ~v + ~0) VV3 (λ · λ1 ) · ~v + λ · ~0 = ~v + λ · ~0 = = Wegen ~v = λ · ~0 + ~v folgt: λ · ~0 ist das neutrale Element ~0 der Gruppe (V, + ). zu iii. Den Beweis für iii. überlassen wir dem Leser. zu iV. Die Richtung “⇐” folgt direkt aus i. und ii.. “⇒”: Sei λ · ~v = ~0 und gelte λ 6= 0 zu zeigen ist: Dann gilt ~v = ~0. Trick ~v = 1 · ~v = ( 1 · λ) · ~v λ VV1 = 1 1 ~ ~ · (λ · ~v ) = · 0=0 λ λ 41 3. Vektorräume Begründung der scheinbar trivial-offensichtlichen Bedingung VV4 Wieso steht in VV4 die scheinbar offensichtliche Bedingung “1 · ~v = ~v ”? Lässt man VV4 weg, so bilden Vektor-Addition und Multiplikation mit einem Skalar auf V zwei völlig voneinander losgelöste Operationen. Es wäre zum Beispiel denkbar, den uns bekannten R2 mit einer “y-weglassen-Multiplikation” der Form ! x λ ! = λ·x 0 y zu versehen. Diese Form der Multiplikation erfüllt alle Regeln VM1 und VV1 bis VV3 nur nicht VV4. Diese Dann ist aber 2 x y ! = 2x ! 6= 0 x y ! + x y ! . Die Bedingung VV4 stellt also sicher, dass Vektoraddition + in V und äußere Multiplikation “sinnvoll” mit einander funktionieren. Dank 1 · ~v = ~v kann man zum Beispiel auf 2 · ~v = ~v + ~v schließen und entdeckt, dass die Multiplikation λ · ~v tatsächlich das tut was man erwartet: VV2 VV4 2 · ~v = (1 + 1) · ~v = 1 · ~v + 1 · ~v = ~v + ~v Beispiel 3.2.3. I Die bekannte Menge a 3 R := b : a, b, c ∈ R c bildet mit der üblichen Vektor-Addition und Skalarmultiplikation einen Vektrorraum. I Die Menge R[x]2 := ax2 + bx + c : a, b, c ∈ R aller Polynome vom Grad höchstens 2 bildet einen Vektorraum zusammen mit der üblichen Addition von Polynomen und der üblichen Multiplikation mit einer Zahl. Der Nullvektor ist hier das Polynom 0 (bzw. das Polynom 0x2 + 0x1 + 0). I Die Menge aller reellen Polynome R[x] bildet einen Vektorraum mit der üblichen Addition von Polynomen und der üblichen Multiplikation mit einer Zahl. Der Nullvektor ist hier das Polynom 42 3.3. Untervektorräume p(x) := 0. I Die Menge aller reellen Funktionen C := {f : R → R} ist ein Vektorraum mit der üblichen Addition von Funktionen und der üblichen Multiplikation mit einer Zahl. Notation In den folgenden Kapiteln werden wir den Vektorpfeil, der bisher Variablen aus einem Vektorraum kennzeichnete, einsparen. Wir schreiben also für einen Vektor aus einem Vektorraum V in Zukunft v ∈ V statt ~v ∈ V . 3.3. Untervektorräume Der Vektorraumbegriff gibt Anlaß zur folgenden Kennzeichung besonderer Teilmengen eines Vektorraumes V , die ebenfalls mit den Operationen + und · verträglich sind. Definition 3.3.1. Es sei V ein Vektorraum. Wir nenne eine Teilmenge W ⊂ V Untervektorraum von V , falls gelten: UV0. ∅= 6 W ⊂V UV1. v+w ∈W ∀v, w ∈ W (Abgeschl. bez. der Addition) UV2. λ·v ∈W ∀λ ∈ K, ∀v ∈ W (Abgeschl. bez. der Skalarmultiplikation) Korollar 3.3.2. Für einen Untervektorraum W ⊂ V des Vektrorraums V gelten: i. Es ist 0 ∈ W . ii. Für alle v ∈ W ist auch −v ∈ W . Beweis. zu i. Da W nach UV0 nicht leer ist, gibt es ein Element v ∈ W . Da ebenfalls nach UV0 W ⊂ V ist auch v ∈ V . Da V ein Vektorraum ist, gilt nach Korollar 3.2.2 b) i., dass 0 · v = 0. Also ist nach UV2 auch 0 ∈ W . ii. Sei v ∈ W beliebig gewählt. Dann gilt nach UV0 W ⊂ V ist auch v ∈ V . Da V ein Vektorraum ist, gilt nach Korollar 3.2.2 b) i., dass −1 · v = −v. Also ist nach UV2 auch −v ∈ W . Eine Teilmenge W ⊂ V “erbt” vom Vektorraum V (automatisch) die Rechenregeln. 43 3. Vektorräume Dies bedeutet, dass in W zum Beispiel weiterhin das Assoziativgesetz gilt, d.h. (v + w) + z = v + (w + z) gilt für alle v, w, z ∈ W . Ebenso gelten auch weiterhin alle Verträglichkeitsregeln VV1 bis VV4 aus den Vektorraumaxiomen in W . Bleibt nur noch die Existenz des neutralen Elements der Addition und der additiven Inversen Elemente zu zeigen. Beides folgt jedoch direkt aus Korollar 3.3.2 und es gilt Korollar 3.3.3. Jeder Untervektorraum ist ein Vektorraum. Bemerkung: Zu erkennen, ob eine Teilmenge W ⊂ V ein Untervektorraum eines Vektorraumes V ist, erfordert also per Definition zu prüfen, ob W abgeschlossen ist unter Addition und skalarer Multiplikation. Ein erster Anhaltspunkt ist das “Enthaltensein der Null”: Gilt 0 6∈ W so ist W kein Vektorraum und damit auch kein Untervektorraum. Beispiel 3.3.4. I Der Vektorraum R = R1 hat nur zwei Untervektorräume: sich selbst und die Menge {0}, die nur den Nullvektor enthält. I Die Untervektorräume von R2 sind genau – die Menge {0}, ( – alle Mengen der Form Va = ( ! – die Menge V∞ = 0 y ! x ) ∈ y R2 : y =a·x mit a ∈ R, ) : y∈R und – der gesamte Vektorraum R2 selbst. ! Geometrisch ist eine Menge Va mit festem a eine Gerade durch den Ursprung 0 = 0 (genau- 0 so auch V∞ ). I Die Untervektorräume des R3 sind entsprechend die Mengen {0} und R3 selbst sowie die Geraden und Ebenen durch 0. 44 4 Lineare Abbildungen Wir kommen nun zum Hauptbegriff, um den sich der erste Teil der Vorlesung dreht. Die Beispiele in 3.2.3 sehen sich überraschend ähnlich und auch die Operationen (Addition und skalare Multiplikation) laufen weitestgehend gleich ab: + (ax2 +bx +c) (αx2 +βx +γ) b + β = b+β c γ c+γ + ((a + α)x2 +(b + β)x +(c + γ)) a α a+α Der Vektorraum R[x]2 ist also quasi nichts anderes als ein “hingelegter” R3 , die Koeffizienten der Polynome benehmen sich identisch zu den Koeffizienten der Vektoren des R3 . Den R[x]2 als Vektorraum zu betrachten bringt also auch im Sinne von Vektorräumen nichts wirklich neues. Den Umstand, dass diese Vektorräume die gleiche Form haben, werden wir in Definition 4.0.9 abstrakt fassen, nachdem wir in diesem Kapitel Abbildungen zwischen Vektorräumen eingeführt haben. Definition 4.0.5. Seien V, V 0 Vektorräume. Eine Abbildung f : V → V 0 heißt linear, falls sie die folgenden Bedingungen erfüllt. L1. f (v + w) = f (v) + f (w) L2. f (λ · v) = λ · f (v) ∀v, w ∈ V ∀v ∈ V, λ ∈ K Salopp gesagt ist eine Abbildung f also linear, wenn man f mit + und · “vertauschen kann”. Es gibt einige offensichtliche Beispiele linearer Abbildungen. Für je zwei Vektorräume V, V 0 ist die Abbildung f : V → V 0 , v 7→ 0, die also alle Vektoren auf den Nullvektor abbildet, linear. Außerdem ist für jeden Vektorraum V die Abbildung id : V → V, v 7→ v, die einfach v auf sich selbst abbildet, linear. Ist allgemeiner λ eine reelle Zahl, so ist die Abbildung fλ : V → V : v 7→ λ · v linear. Kommen wir zu einigen vielleicht weniger offensichtlichen Beispielen. Beispiel 4.0.6. ! I Die Abbildung f : R2 → R2 , x y ! 7→ x −y ist, geometrisch gesprochen, die Spiegelung an 45 4. Lineare Abbildungen der x-Achse. ! I Die Abbildung f : R2 → R2 , x I Allgemeiner ist f : R2 → R2 , x ! 7→ y −y x ! 7→ y ist die Rotation um 90◦ . ! cos(α)x−sin(α)y die Rotation um den Winkel α. sin(α)x+cos(α)y Aus gegebenen linearen Abbildungen kann man neue basteln. Für eine lineare Abbildung f : V → V 0 und λ ∈ K definieren wir eine neue Abbildung λ · f : V → V 0 durch x 7→ λ · f (x). Außerdem definieren wir für lineare f, g : V → V 0 die Abbildung f + g : V → V 0 durch x 7→ f (x) + g(x). Korollar 4.0.7. Seien f, g : V → V 0 und h : V 0 → V 00 lineare Abbildungen. i. Für jede Zahl λ ∈ K ist λ · f linear. ii. Die Abbildung f + g ist linear. iii. Die Abbildung h ◦ f : V → V 00 ist linear. Beweis. Man rechnet die Eigenschaften L1 und L2 nach. Details werden dem Leser überlassen. Proposition 4.0.8. Sei f : V → V 0 eine bijektive lineare Abbildung. Dann ist auch ihre Umkehrabbildung f −1 : V → V 0 linear. Beweis. Seien v 0 , w0 ∈ V 0 Vektoren. Dann gibt es v, v ∈ V mit v 0 = f (v) und w = f (w). Weil f linear ist, gilt also v 0 + w0 = f (v + w). Weil f außerdem bijektiv ist, folgt f −1 (v 0 + w0 ) = f −1 (f (v + w)) = v + w = f −1 (v) + f −1 (w). Ist ferner λ ∈ K, so gilt f −1 (λ · v 0 ) = f −1 (λ · f (v)) = λ · v = λ · f −1 (v). Also erfüllt f −1 die Bedingungen L1 und L2. Lineare Abbildungen werden auch oft als Homomorphismen bezeichnet. Eine bijektive lineare Abbildung heißt ein Isomorphismus. Definition 4.0.9. Zwei Vektorräume V und V 0 heißen isomorph2 , wenn es eine bijektive linear Abbildung (Isomorphismus) von V nach V 0 gibt. 2 gleich-geformt 46 Beispiel 4.0.10. Die Vektorräume (R3 , +, ·) und (R[x]2 , + , · ) sind isomorph, der Isomorphismus lautet: a f : b 7→ ax2 + bx + c c 47 5 Basen und Dimension Bis auf weiteres sprechen wir von einem Vektorraum über einem Körper K, wenn nicht anders angegeben. 5.1. Lineare Unabhängigkeit Wir führen ein Maß für die Größe eines Vektorraums ein, die Dimension. Die Dimension ist grob gesagt ein Maß für die Bewegungsmöglichkeiten in einem Vektorraum, sogenannte Freiheitsgrade. Es ist leicht zu sehen, dass man für die Wahl eines Punktes im R3 drei Freiheitsgrade hat, während es für einen Punkt im R2 nur zwei Freiheitsgrade sind. Dies hat direkte Konsequenzen beim Bau von ferngesteuertem Spielzeug: I Eine Spielzeugeisenbahn muss nur vor oder zurück fahren. Mathematisch gesehen fährt die Lok auf einer Geraden, hat also nur einen Freiheitsgrad und benötigt deswegen auch nur einen Motor. I Ein Modellauto dagegen benötigt mindestens zwei Kontrollmöglichkeiten, weil es sich abstrakt gesehen im R2 (alias “der Fußboden”) frei bewegen können muss. I Ein Modellflugzeug muss mindestens drei Kontrollmöglichkeiten besitzen, weil es sich frei im R3 bewegen können muss. Um die Dimension definieren zu können müssen wir zunächst definieren, was es bedeutet “mit bestimmten Laufrichtungen mittels Vektoren durch einen von den Vektoren aufgespannten Raum zu laufen”. Dazu definieren wir: Definition 5.1.1. Es seien v1 , . . . , vk ∈ V Vektoren in einem Vektorraum V . Eine Summe der Form µ1 · v1 + . . . + µk · vk mit µ1 , . . . , µk ∈ K nennt man eine Linearkombination der Vektoren vi , . . . , vk . Die Menge aller Linearkombinationen dieser Vektoren nennt man den Spann von v1 , . . . , vk bezeichnet mit span(v1 , . . . , vk ) := ( k X ) µ i v i : µ1 , . . . , µ k ∈ R . i=1 49 5. Basen und Dimension Es ist span(∅) = {0}. Anschauung: Die Addition von Vektoren entspricht dem “Hintereinanderhängen” der entsprechenden Vektoren. Geometrisch ist eine Linearkombination µ1 · v1 + . . . + µk · vk also eine “Laufanweisung” der Form “Folge dem Vektor v1 , dann v2 etc. ”. Dabei geben die µi jeweils (grob gesagt) an, wie weit jeweils zu laufen ist. Der Spann ist dann die Menge an Punkten, die über solche Laufwege erreichbar ist. Beispiel 5.1.2. 1 0 I Für die Vektoren v1 := 0 , v2 := 1 ist der Spann: 0 0 1 0 span(v1 , v2 ) := µ1 0 + µ2 1 : µ1 , µ2 ∈ R 0 0 = µ1 : µ , µ ∈ R µ2 1 2 0 1 I Fügt man den Vektor v3 = 1 hinzu, ändert sich der Spann nicht, da sich v3 bereits als Summe 0 von v1 und v2 schreiben lässt (Die “Zutat” v3 liefert also keine “echt neue” Laufrichtung, das Verwenden von v3 lässt sich durch das Verwenden von v1 und v2 ersetzen: 1 0 1 span(v1 , v2 , v3 ) := µ1 0 + µ2 1 + µ3 1 : µ1 , µ2 , µ3 ∈ R 0 0 0 µ1 +µ3 = µ2 +µ3 : µ1 , µ2 , µ3 ∈ R 0 x = y : x, y ∈ R 0 Um das letzte Gleichheitszeichen einzusehen macht man sich klar, dass hier “⊂” stets gilt: Die letzte Menge enthält alle Vektoren mit drittem Eintrag 0 (und jeder Vektor der vorletzten Menge ist ein solcher). 50 5.1. Lineare Unabhängigkeit x Umgekehrt gilt: Ist w := y ein beliebiger Vektor mit x, y ∈ R, so ist w auch ein Element 0 µ1 +µ3 der vorletzten Menge: Setze im Vektor µ2 +µ3 einfach µ1 = x, µ2 = y, µ3 = 0 und erhalte 0 w. Das letzte Beispiel zeigt: Geht es darum eine Menge als Spann von Vektoren zu beschreiben, so ist es nicht hilfreich “überflüssige” Vektoren zu verwenden. Um solche Mengen von Vektoren zu vermeiden, führen wir den folgenden Begriff ein (das Lemma 5.1.5 klärt dann, was dieser für den Spann bedeutet): Definition 5.1.3. Eine Menge von Vektoren {v1 , . . . , vk } ⊂ V in einem Vektorraum V heißt linear unabhängig falls gilt: µ 1 · v 1 + . . . + µk · v k = 0 ⇒ µ1 = µ2 = . . . = µ k = 0 Gilt dies nicht, nennt man die Vektoren linear abhängig (oder auch kurz abhängig). Bemerkung: Für die Gleichung µ1 · v1 + . . . + µk · vk = 0 ist µ1 = . . . = µk = 0 immer eine Lösung, es kann aber noch weitere Lösungen geben. Die Vektoren {v1 , . . . , vk } sind also linear unabhängig, wenn µ1 = µ2 = . . . = µk = 0 die einzige Lösung der Gleichung µ1 · v1 + . . . + µk · vk = 0 ist. Beispiel 5.1.4. 1 0 0 I Die Vektoren 0 , 1 , 0 ⊂ R3 sind linear unabhängig, denn: 0 0 1 1 0 0 µ1 ·0+µ2 ·1+µ3 ·0 = 0 0 0 1 ⇔ µ1 0 µ2 = 0 µ3 ⇔ µ1 = µ2 = µ3 = 0 0 51 5. Basen und Dimension 1 0 1 I Die Vektoren v1 := 0 , v2 := 1 , v3 := 1 ∈ R3 sind linear abhhängig, denn es gilt: 0 0 0 1 0 1 0 1 · 0 + 1 · 1 + (−1) · 1 = 0 0 0 0 0 I In jedem Vektorraum V gilt: Die Menge {0} ⊂ V ist linear abhängig, denn für λ1 · 0 = 0 ist jedes λ1 ∈ R eine Lösung. Ganz genauso ist jede andere Menge der Form {0, v1 , . . . , vk } ⊂ V linear abhängig. In einer Menge von linear abhängigen Vektoren ist beim Bilden des Spanns immer (mindestens) ein Vektor überflüssig, weil er sich aus den anderen herstellen lässt: Lemma 5.1.5. Die Vektoren {v1 , . . . , vk } sind genau dann linear abhängig, wenn es einen Vektor vj ∈ {v1 , . . . , vk } gibt, der sich als Linearkombination der anderen Vektoren schreiben lässt, wenn also gilt: ∃µ1 , . . . , µj−1 , µj+1 , . . . µk ∈ K : vj = n X µi v i (5.1) i=1 i6=j Beweis. “⇒” Annahme: Die Vektoren v1 , . . . , vk seien linear abhängig. Dann hat k P λi vi = 0 mehr als nur i=1 die triviale Lösung λ1 = . . . = λk = 0, d.h. eine Lösung mit mindestens einem λj 6= 0. Es gilt also: λj · vj + k X λ i vi = 0 =⇒ vj = i=1 i6=j Setzt man nun µi := −λi λj k X −λi i=1 i6=j λj · vi für alle i ∈ {1, . . . , k} \ {j}, so hat man die gewünschte Darstellung von vj . “⇐” Annahme: Es gilt (5.1), d.h. vj = k P µi · vi mit µi ∈ K. Setzt man zusätzlich µj := −1 so gilt: i=1 i6=j vj = k X µi ·vi =⇒ i=1 i6=j Die Gleichung 52 0 = −vj + k X i=1 i6=j Pk i µi ·vi =⇒ 0= k X µi ·vi mit µj 6= 0 i=1 µi vi = 0 hat also mehr als nur die Lösung µ1 = . . . = µk = 0, die Vektoren 5.2. Basis sind also linear abhängig. Beispiel 5.1.6. 1 0 0 5 I Die Vektoren v1 := 0 , v2 := 1 , v3 := 0 , v4 := 7 aus R3 sind linear abhängig, 0 0 1 0 denn es gilt v4 = 5 · v1 + 7 · v2 . I Es sei R[x] der Vektorraum aller Polynome. Die Vektoren p1 := x, p2 := x2 + x, p3 := x2 + 5x aus R[x] sind linear abhängig, denn es gilt p3 = 4 · p1 + p2 . Exkurs: Lineare Unabhängigkeit Betrachtet man Lemma 5.1.5 so bedeutet “v1 , . . . vk sind linear unabhängig”, dass kein Vektor aus der Menge {v1 , . . . , vk } durch die anderen “hergestellt” werden kann. Frage: Wieso verwendet man dies nicht als Definition für den Begriff “linear unabhängig”? Antwort: Man verwendet dies nicht als Definition, weil diese Aussage kein praktisches Prüfkriterium bietet: Um zu Zeigen, dass v1 , . . . vk linear unabhängig sind, müsste man für jeden der k Vektoren ein eigenes lineares Gleichungssystem aufstellen und zeigen, dass jedes davon unlösbar ist. 5.2. Basis Der Kernbegriff den wir benötigen, um die Dimension eines Vektorraums zu definieren ist der einer Basis. Definition 5.2.1. Seien v1 , . . . , vn ∈ V Vektoren in einem Vektorraum V . Wir nennen {v1 , . . . , vn } eine Basis von V , wenn erfüllt sind: B1. Die Vektoren {v1 , . . . , vn } sind linear unabhängig. B2. V = span(v1 , . . . , vn ). Geometrisch bedeutet dies: Mit den “Laufrichtungen” vi kann man jeden Punkt in V erreichen, und die “Wegbeschreibung” ist eindeutig: Proposition 5.2.2. Ist {v1 , . . . , vn } eine Basis des Vektorraums V , so gibt es zu jedem Vektor w ∈ V P genau ein n-tupel λ1 , . . . , λn ∈ R mit w = ni=1 λi · vi . 53 5. Basen und Dimension Beweis. Es sei {v1 , . . . , vn } eine Basis des Vektorraums V und sei w ∈ V beliebig. Wegen V = span(v1 , . . . , vn ) gibt es (mindestens) ein Tupel λ1 , . . . , λn ∈ K mit w= n X λ i · vi . i=1 Nehmen wir nun an, es gäbe noch ein anderes n-Tupel µ1 , . . . , µn ∈ K für welches w = ist, dann gilt: Pn i=1 µi · vi n X 0=w−w = (λi − µi ) · vi i=1 Weil nach B1 die Vektoren v1 , . . . , vn linear unabhängig sind, muss λi − µi = 0 für alle i ∈ {1, . . . n} gelten, d.h. die beiden n-Tupel sind identisch, ein Widerspuch zur Annahme, dass µ1 , . . . , µn ein anderes n-Tupel als λ1 , . . . , λn sei. Proposition 5.2.3. Seien v1 , . . . , vn ∈ V Vektoren in einem Vektorraum V . Dann ist span(v1 , . . . , vn ) ein Vektorraum. Beweis. Übungsaufgabe. Definition 5.2.4. Es sei Kn der Vektorraum, der von den n Einheitsvektoren 1 e(1) 0 0 0 1 0 (2) (n) = 0 ,e = 0 ,...,e = 0 . . . . . . . . . 0 0 1 aufgespannt wird. 5.2.1. Dimension Wir würden gerne die Dimension eines Vektorraums V definieren als die Anzahl der Vektoren in einer Basis von V . Dazu müssen wir uns allerdings noch zwei Dinge überlegen: I Jeder Vektorraum hat eine Basis. I Alle Basen bestehen aus gleichvielen Vektoren. Dazu benötigen wir die beiden Sätze 54 5.2. Basis Satz 5.2.5. Sind v1 , . . . , vn und w1 , . . . , vk Basen des Vektorraums V , so gilt: k = n. Satz 5.2.5 folgt direkt aus Lemma 5.2.10, dessen Beweis ist allerdings etwas technisch, weswegen wir ihn am Ende dieses Abschnittes führen. Satz 5.2.5 motiviert die folgende Definition: Definition 5.2.6. Hat ein Vektorraum V eine Basis B = {v1 , . . . , vn } mit n ∈ N so sagt man die Dimension von V ist n. Ist es nicht möglich, eine (endliche) Basis von V zu finden, so sagt man die Dimension von V ist unendlich. Beispiel 5.2.7. I Die Menge 1 0 0 , , 0 1 0 0 0 1 ist eine Basis des R3 , d.h. der Vektorraum R3 hat die Dimension 3. I Die Menge 1, x, x2 ist eine Basis von R[x]2 := ax2 + bx + c : a, b, c ∈ R , d.h. der Vektorraum R[x]2 hat die Dimension 3. I Die Menge R[x] aller Polynome ist ein Vektorraum, der keine endliche Basis besitzt, d.h. der Vektorraum R[x] hat die Dimension unendlich. Satz 5.2.8. Jeder n-dimensionale Vektorraum ist isomorph zu Rn (wobei n ∈ N). Beweis. Es sei V ein n-dimensionaler Vektorraum, dann besitzt V eine Basis {v1 , . . . , vn }. Zu jedem Vektor w ∈ V gibt es genau ein n-Tupel (aw,1 , . . . , aw,n ) ∈ Rn mit w = a1,w v1 + . . . + an,w vn . Die Abbildung f : V → Rn mit w 7→ f (w) := (aw,1 , . . . , aw,n ) ist bijektiv: Injektivität: Klar ist - Für w 6= w e ist (aw,1 , . . . , aw,n ) 6= (aw,1 e , . . . , aw,n e ). Surjektivität: Umgekehrt gilt - Für jeden Vektor a ∈ Rn ist u := a1 v1 + . . . + an vn ein Vektor mit u ∈ V und f (u) = a. Basis des Nullvektorraums”: Der Nullvektorraum besteht nur aus dem Nullvektor 0 und hat eine leere Basis. Nach Beispiel 5.1.4 ist nämlich die Menge bestehend alleine aus dem Nullvektor {0} nicht linear unabhängig. Nach der 55 5. Basen und Dimension Definition gilt span(∅) = {0}. 5.2.2. Basisaustauschsätze Die folgenden zwei Lemmata sind von Ihren Aussagen nur scheinbar rein technische Hilfssätze. Das Lemma 5.2.10 zeigt insbesondere: I dass es Sinn macht von “n-dimensionalen” Vektorräumen zu sprechen und I dass im n-dimensionalen Vektorraum eine Menge von linear unabhängigen Vektoren höchstens n Elemente haben kann. Insgesamt beweist Lemma 5.2.10 den Satz 5.2.5. Lemma 5.2.9. Sei {v1 , . . . , vk } eine Basis des Vektorraumes V , und z = a1 v1 + . . . + ak vk eine Linearkombination mit aj 6= 0. Dann ist auch {v1 , . . . , vj−1 , z , vj+1 , . . . , vn } eine Basis von V . Beweis. Nach Umnummerierung der vi dürfen wir annehmen, dass in z = a1 v1 + . . . + ak vk gilt: a1 6= 0. Wir zeigen, dass in diesem Fall {z, v2 , . . . , vk } eine Basis von V ist: I Lineare Unabhängigkeit: Angenommen es gäbe Zahlen λ1 , . . . , λk ∈ K so dass gilt λ1 z + λ2 v2 + . . . + λk vk = 0. Setzt man hier λ1 z = λ1 a1 v1 + . . . + λ1 ak vk ein, so erhält man λ1 a1 v1 + (λ2 + λ1 a2 )v2 + . . . + (λk + λ1 ak )vk = 0. Da {v1 , . . . vk } linear unabhängig sind, sind hier alle Koeffizienten Null, d.h. insbesondere gilt λ1 a1 = 0. Wegen der Annahme a1 6= 0 folgt sofort λ1 = 0, und dies liefert λ2 v2 + . . . + λk vk = 0. und damit λ2 = . . . = λk = 0, da {v1 , . . . vk } linear unabhängig sind. Folglich sind {z, v1 , . . . , vk } linear unabhängig. I Spann ist ganz V : Es gibt Zahlen c1 , . . . , ck ∈ K mit v1 = c1 z + c2 v2 + . . . + ck vk , denn 56 5.2. Basis löst man z = a1 v1 + a2 v2 + . . . ak vk nach v1 auf, so erhält man v1 = 1 a2 ak z − v2 − . . . − vk . a1 a1 a1 Da {v1 , . . . , vk } eine Basis von V ist, lässt sich jedes w ∈ V darstellen als Linearkombination: w = µ1 v1 + µ2 v2 . . . + µk vk mit µ1 , . . . µk ∈ K Ersetzt man hier v1 = c1 z + c2 v2 + . . . + ck vk , so erhält man für w eine Linearkombination aus z, v2 , . . . vk , nämlich w = µ1 (c1 z + c2 v2 + . . . + ck vk ) + µ2 v2 . . . + µk vk . Es gilt also w ∈ span(z, v2 , . . . vk ). Lemma 5.2.10 (Basisaustasuchsatz von Steinitz). Es seien {w1 , . . . , wk } ⊂ V linear unabhängig und es sei {v1 , . . . , vn } eine Basis von V . Dann gilt k ≤ n, und es gibt n − k paarweise verschiedene vek+1 , . . . , ven ∈ {v1 , . . . , vk }, so dass gilt: { w1 , . . . , wk , vek+1 , . . . , ven } ist eine Basis von V Beweis. Wir führen eine Induktion über k, beginnend bei k = 1. Induktionsverankerung: Es sei {w1 } linear unabhängig. Der Vektor w1 lässt sich darstellen als w1 = a1 v1 + . . . + an vn mit a1 , . . . , an ∈ R. Es gilt w1 6= 0, weil {w1 } linear unabhängig ist. Also gibt es ein ai 6= 0. Lemma 5.2.9 beweist: {v1 , . . . , vi−1 , w1 , vi+1 , . . . vk } ist eine Basis. Induktionsannahme: Die Aussage gelte für ein ` mit 1 ≤ `. Induktionsschluss: Es sei {w1 , . . . , w` , w`+1 } linear unabhängig, entsprechend sind {w1 , . . . , w` } linear unabhängig. Nach Induktionsannahme gibt es ui ∈ {v1 , . . . , vn }, so dass {w1 , . . . w` , u`+1 , . . . , un } eine Basis von V ist. Insbesondere lässt sich der Vektor w`+1 darstellen als w`+1 = a1 w1 + . . . + a` w` + b`+1 u`+1 + . . . + bn un Da {w1 , . . . , w` , w`+1 } linear unabhängig sind, ist w`+1 keine Linearkombination der restlichen wi nach Lemma 5.1.5. D.h. es gibt ein j ≥ ` + 1 mit bj 6= 0. 57 5. Basen und Dimension Nummeriert man die Vektoren ui so, dass bk+1 6= 0 gilt, so zeigt Lemma 5.2.9, dass {w1 , . . . w` , w`+1 , u`+2 , . . . , un } eine Basis von V ist. Es bleibt zu zeigen: k ≤ n. Dazu nehmen wir an, es seien W := {w1 , . . . , wk } ⊂ V linear unabhängig. Per Induktion haben wir bewiesen: Weil die Vektoren in W linear unabhängig sind, lässt sich W zu einer Basis der Länge n auffüllen3 . Es folgt also insbesondere |W | ≤ n, d.h. es folgt k ≤ n. Frage: Eine Induktion über k welches beschränkt wird?! Eine Induktion über k beweist doch eine Aussage für alle k ∈ N. Hier kommt im zweiten Teil des Beweises aber eine Einschränkung k < n. Geht das überhaupt? Antwort: Die Induktion beweist eine “Wenn-Dann-Aussage”, deren “Wenn-Teil” für k > n einfach nicht mehr eintritt: “Wenn W := {w1 , . . . wk } linear unabhängig sind, dann lässt sich W zu einer Basis der Länge n ergänzen.” Diese “Wenn-Dann-Aussage” ist tatsächlich richtig für alle k ∈ N, und das beweist die Induktion. Allerdings gibt es einen kleinen “Twist”: Die Aussage gilt ab k > n trivialerweise, weil die Voraussetzung “{w1 , . . . wk } ist linear unabhängig” unerfüllbar (also immer falsch) ist. Dies ist dann die Aussage des zweiten Teils des Beweises: Ab k > n gilt für eine Menge mit k-vielen Vektoren: Die Vektoren sind nicht linear unabhängig. Lemma 5.2.10 beweist also: I für 1 ≤ k ≤ n − 1: Eine (tatsächlich) linear unabhängige Menge W = {w1 , . . . wk } lässt sich tatsächlich zu einer Basis der Länge n auffüllen. I für k = n: Eine (tatsächlich) linear unabhängige Menge W = {w1 , . . . wn } ist bereits eine Basis der Länge n, 3 (mit Vektoren aus B := {v1 , . . . , vn }) 58 5.2. Basis denn “zu einer Basis der Länge n auffüllen” bedeutet hier: keinen Vektor aus {v1 , . . . , vn } dazufügen, weil die Länge n bereits erreicht ist. I für k > n: Jede hypothetisch linear unabhängige Menge W = {w1 , . . . wk }, ließe sich zu einer Basis der Länge n auffüllen. Da W aber schon mehr als n Elemente hat, kann dies nicht gehen, d.h. es gibt solche Mengen W nicht. 59 6 Matrizen 6.1. Einführung Im den vorherigen Abschnitten haben wir gezeigt, dass ein endlich-dimensionaler K-Vektorraum V stets isomorph ist zu einem Kn . Außerdem verlassen wir nun die Welt der allgemeinen Vektorräume und werden von nun an nur noch Vektorräume über den reelen Zahlen R betrachten. Im Folgenden werden wir uns daher vorerst mit linearen Abbildungen der Form f : Rn → Rm beschäftigen. Diese linearen Abbildungen lassen sich sehr kurz und knapp durch eine Matrix beschreiben. Definition 6.1.1 (Allgemeine Form einer Matrix). Eine m × n-Matrix (sprich „m-Kreuz-n-Matrix“) A ist eine Abbildung A : {1, . . . , m} × {1, . . . , n} → R, I Wir schreiben eine Matrix in der Form A1,1 A2,1 A = A3,1 . .. Am,1 (i, j) 7→ Aij . A1,2 A1,3 ··· A2,2 A2,3 A3,2 .. . A3,3 .. . A2,n · · · A3,n . .. .. . . · · · Am,n Am,2 Am,3 A1,n ··· I Wir nennen das n-Tupel A(i) = (Ai1 , . . . , Ain ) die i-te Zeile von A. I Entsprechend heißt der Vektor A1j . A(j) = .. Amj die j-te Spalte von A. I Die einzelnen Zahlen Aij heißen die Einträge von A. I Falls m = n, nennen wir M eine quadratische Matrix. Matrizen (Einzahl: Matrix): Matrizen sind ein Schlüsselkonzept der linearen Algebra und tauchen in fast allen Gebieten der Ma- 61 6. Matrizen thematik auf. Dabei stellen sie Zusammenhänge, in denen Linearkombinationen eine Rolle spielen, übersichtlich dar und werden insbesondere benutzt, um lineare Abbildungen darzustellen. Eine Matrix A ∈ Rm×n ist grob gesagt eine Tabelle von m mal n Zahlen, die in einem rechteckigen Schema von m Zeilen und n Spalten angeordnet sind. In A ∈ Rm×n steht die erste DimensionsVariable „m“ für die Höhe der Matrix. Dies kann man sich merken, indem man sich vorstellt, dass ein (virtueller) Leser, der von links nach rechts „angelaufen kommt“ immer zuerst die Höhe der Matrix wahrnimmt. Eine m × n-Matrix A ∈ Rm×n ist also ein Zahlenschema mit m Zeilen und n Spalten. Dabei ist Aij ∈ R jeweils den Eintrag in der i-ten Zeile und der j-ten Spalte: i B B Breite n A1,3 · · · A1,n A2,1 A2,2 A2,3 · · · A2,n A = A3,1 A3,2 A3,3 · · · A3,n . .. .. .. .. .. . . . . Am,1 Am,2 Am,3 · · · Am,n A1,1 A1,2 Höhe m Der Leser nimmt immer zuerst die Höhe der Matrix wahr, deswegen steht m vorne. Die Einträge Aij ∈ R einer Matrix können beliebige Zahlen aus R sein, es ist aber unzulässig eine Position leer zu lassen. 1 2 Beispiel 6.1.2. Sei A = 5 3. Dann ist A eine 3 × 2-Matrix (d.h. A ∈ R3×2 ) und es gilt 7 4 A1,1 = 1 A1,2 = 2 A2,1 = 5 A2,2 = 3 A3,1 = 7 A3,2 = 4 Matrizen sind sehr nützliche Hilfsmittel in einer Vielzahl von Anwendungen. Sie eignen sich als Kurzschreibweise für größere Mengen von Daten. Die wahrscheinlich wichtigste solcher Anwendungen sind lineare Gleichungssyteme. Beispiel 6.1.3. Betrachten wir die folgenden beiden linearen Gleichungen: 4x1 +6x2 −8x3 = 0 −2x2 −8x3 = 0 62 6.2. Rechnen mit Matrizen Die wichtige Information dieses Systems steckt lediglich in den Koeffizienten der beiden Gleichungen. Wir können diese in einer Matrix A zusammenfassen, indem wir im Eintrag Aij den Koeffizienten von xj in der i-ten Gleichung schreiben. Taucht xj in der i-ten Gleichung nicht auf, so setzten wir Aij = 0. Hier lautet die Matrix A also 4 A= 6 −8 0 −2 −8 ! . Mit den Rechenregeln, die wir in Kürze lernen werden, können wir das Gleichungssystem dann folgendermaßen schreiben: ! 0 0 = 6 −8 4 ! 0 −2 −8 x1 · x2 . x3 6.2. Rechnen mit Matrizen I Addition Matrizen mit gleichen Dimensionen lassen sich addieren. Die Addition funktioniert komponentenweise: Definition 6.2.1. Es seien A, B ∈ Rm×n . Die Matrix C := A + B ist die Matrix mit den Einträgen Cij = Aij + Bij . Beispiel 6.2.2. 0 6 1 7 0+1 6+7 1 13 2 8 + 3 9 = 2 + 3 8 + 9 = 5 17 4 10 5 11 4 + 5 10 + 11 9 21 Beispiel 6.2.3. 3 5 1 2 1 7 ! + 2 6 1 2 ! ist nicht definiert. Ganz analog definieren wir natürlich die Subtraktion A − B ganz einfach als die komponentenweise Subtraktion aller Einträge. Die Addition von zwei Matrizen ist nur definiert, wenn sie beide die gleiche Anzahl von Zeilen und auch die gleiche Anzahl von Spalten haben. I Multiplikation mit Skalaren Die Multiplikation einer Matrix A mit einem Skalar λ ∈ R funktioniert genauso wie bei Vektoren: Man multipliziert jeden Eintrag von A mit λ. Definition 6.2.4. Es sei A ∈ Rm×n und λ ∈ R. Dann ist B := λ · A ∈ Rm×n die Matrix mit 63 6. Matrizen den Einträgen Bij = λ · aij . Beispiel 6.2.5. 5· ! 1 2 3 4 5 6 = ! 5·1 5·2 5·3 5·5 5·5 5·6 = 5 10 15 ! 20 25 30 Bei der Multiplikation einer Matrix mit einem Skalar müssen wir uns keine Gedanken um passende Zeilen- und Spaltenanzahl machen. Diese Multiplikation ist immer definiert. Es gelten die folgenden Rechenregeln. Lemma 6.2.6. Seien A, B, C ∈ Rm×n drei m × n-Matrizen und seien λ, µ ∈ R Skalare. Dann gelten: A+B =B+A (Kommutativgesetz der Addition) (A + B) + C = A + (B + C) (Assoziativgesetz der Addition) λ(µ · A) = (λ · µ)A = µ(λ · A) (Assoziativgesetz der Multiplikaton) (λ + µ)A) = λ · A + µ · A (Distributivgesetze) λ · (A + B) = λ · A + λ · B Beweis. Folgt aus der Definition und den Rechenregeln der reellen Zahlen. Die Menge Rn×m bildet zusammen mit der Addtition und der skalaren Multiplikation einen Vektorraum. I Transposition Definition 6.2.7 (Transposition). Es sei A ∈ Rm×n eine Matrix. Die zu A transponierte Matrix AT ∈ Rn×m ist die Matrix, mit den Einträgen (AT )k` = A`k . Die Spalten der Matrix A (von oben nach unten gelesen) werden zu Zeilen der Matrix AT (von links nach rechts gelesen) Beispiel 6.2.8. Aus A ∈ R3×2 wird wie folgt eine Matrix AT ∈ R2×3 1 A= 2 3 64 7 8 9 ⇒ AT = 1 2 3 7 8 9 6.2. Rechnen mit Matrizen Liest man einen Vektor als eine Rn×1 -Matrix so kann man diesen auch Transponieren. Aus einem “stehenden” Vektor v ∈ R3 wird so ein “liegender Vektor”: 1 ⇒ v= 2 3 vT = 1 2 3 I Multiplikation mit Vektoren Die Multiplikation einer Matrix A mit einem Vektor v ist so definiert, dass die in A gespeicherten Koeffizienten wieder an die entsprechenden Einträge von v multipliziert werden. Das Berechnen von A · v erfolgt also zeilenweise, für jede Zeile von A wird eine Summe berechnet: Matrix-Vektor-Multiplikation Für eine Matrix A ∈ Rm×n mit n Spalten und einen Vektor v ∈ Rn mit n Einträgen gilt: A11 A12 · · · A1n A 21 A22 · · · A2n A·~v = . .. . . .. . . . . . Am1 Am2 · · · Amn A11 · v1 + A12 · v2 + · · · +A1n · vn A21 · v1 + A22 · v2 + · · · +A2n · vn = .. .. .. .. . . . . Am1 · v1 + Am2 · v2 + · · · +Amn · vn · v1 v2 .. . vn Das Ergebnis der Multiplikation A · v ist also ein Vektor aus Rm . In Beispiel 6.1.3 haben wir bereits eine Multiplikation von einer Matrix A mit einem Vektor x gesehen. Dort wurde die Multiplikation verwendet, um die linke Seite eines Gleichungssystems in Kurzschreibweise zu notieren. Beispiel 6.2.9. 1 9 · 1 +7 · 2 +5 · 3 · 2 = = 8 6 4 8 · 1 +6 · 2 +4 · 3 3 9 7 5 38 ! 32 Interpretation der Matrix-Vektor-Multiplikation Die Multiplikation einer Matrix A mit einem Vektor v lässt sich auf zwei Weisen verstehen: I Skalarprodukt mit den Zeilen von A: Es wird zeilenweise das Skalarprodukt (siehe Kapitel ??) der i-ten Zeile von A mit v berechnet. 65 6. Matrizen * x a b c · y 1 2 3 z = a · x +b · y +c · z = 1 · x +2 · y +3 · z + a x b , y c z * + 1 x 2 , y 3 z I Linearkombination der Spalten von A: Es werden Vielfache der Spalten von A addiert – mit Vorfaktoren aus ~v . Der Vektor ~v ist also eine Linearkombinations-Anweisung für die Spalten von A. x a b c a · x +b · y +c · z · y = 1 2 3 1 · x +2 · y +3 · z z ! ! a b = x · + y · + z · 1 2 b ! 2 6.3. Matrix-Matrix-Multiplikation Üblicherweise wird die Multiplikation A · B einer Matrix A ∈ Rk×m mit einer Matrix B ∈ Rm×n „von rechts nach links“ durchgeführt. D.h. die Matrix B wird als Liste von Spalten aufgefasst, die jeweils mit A multipliziert werden: Definition 6.3.1. Es sei und A ∈ Rk×m B∈ Rm×n mit “Inputdimension” m mit n Spalten B (1) , B (2) , . . . , B (1) ∈ Rm : Breite m A= 66 A11 . . . A1m .. .. . . Ak1 . . . Akm Höhe m B= B11 . . . B1n .. .. . . Bm1 . . . Bmn 6.3. Matrix-Matrix-Multiplikation Die Matrix C := A · B ist die k × n-Matrix mit den Einträgen Ci,j := m X Ais · Bsj . s=1 Das heißt die Matrix C hat n-viele Spalten der Form C (j) = A · B (j) ∈ Rk . Also ist A · B = A · B (1) , A · B (2) , . . . , A · B (n) . Achtung: I Das Produkt A · B zweier Matrizen A und B kann nur dann gebildet werden, wenn die Spaltenanzahl von A gleich der Zeilenanzahl von B ist. I Die Matrix A · B “erbt” von A die “Output-Dimension” und von B die “Input-Dimension”. Die Zwischen-Dimension m geht bei der Matrixmultiplikation verloren: Ist A ∈ Rk×m mit “Output-Dimension” k und “Input-Dimension” m und So ist B ∈ Rm×n A · B ∈ Rk×n mit “Output-Dimension” m und “Input-Dimension” n mit “Output-Dimension” k und “Input-Dimension” n Beispiel 6.3.2. Sei 1 5 9 A := 1 B := 0 und 2 6 9 1 1 1 . 0 Die Matrix A hat 3 Spalten und B hat 3 Zeilen. Da diese Zahlen gleich sind, können wir das Produkt A · B berechnen: 1 1 A·B = A · , A · 1 0 1 = 0 10 6 11 8 ! Korollar 6.3.3. Es seien A ∈ Rk×m , B ∈ Rm×n und x ∈ Rn . Dann ist A · (B · x) = (A · B) · x. Beweis. 67 6. Matrizen A ∈ Rk×m Es sei B∈ und Rm×n mit “Inputdimension” m mit n Spalten B (1) , B (2) , . . . , B (1) ∈ Rm Weiter sei x ∈ Rn . Dann gilt B · x = x1 · B (1) + . . . + xn · B (n) ∈ Rm . A · (B · x) = A· x1 · B (1) ? + . . . + xn · B (n) x1 · A · B (1) + . . . + xn · A · B (n) (? Linearität von A · y) A · B (1) + . . . + A · B (n) · x = (A · B) · x | {z } = = Matrix mit Spalten A·B (i) Die Rechenregeln für die Multiplikation (Lemma 6.3.4) von Matrizen sehen im Prinzip aus, wie Rechnen mit Zahlen aus R. Allerdings gilt für Matrizen das Kommutativgesetz nicht! D.h. im Allgemeinen ist A · B 6= B · A. Selbst wenn beide Produkte definiert sind, gilt nicht immer die Gleichheit. e B, B, e C Matrizen mit Lemma 6.3.4 (Rechenregeln für die Matrix-Multiplikation). Es seien A, A, passenden Dimensionen, d.h. e ∈ Rm×n , A, A e ∈ Rn×k B, B und C ∈ Rk×` Dann gelten: 1) (A · B) · C = A · (B · C) (Assoziativgesetz) 2) e A · (B + B) = e A·B+A·B (Distributivgesetz) e ·B (A + A) = e·B A·B+A A · (λ · B) = λ·A·B gilt für alle λ ∈ R 6= B·A (Kommutativgesetz gilt im Allgemeinen nicht) 3) Im Allgemeinen gilt: A·B Beweis. Die Aussagen in 2) und 3) lassen sich direkt aus der Definition der Matrixmultiplikation ableiten. 68 6.3. Matrix-Matrix-Multiplikation Zu 1) Es sei C = (c1 , . . . , c` ) mit Spalten ci ∈ Rk . A · (B · C) = A · ( B · c1 . . . B · c` ) = A · (B · c1 ) . . . A · (B · c` ) ? (A · B) · ~c1 . . . (A · B) · c` = = (A · B) · C Denn bei (?) gilt nach Korollar 6.3.3 Assoziativität: A · (B · x) = (A · B) · x gilt für alle x ∈ Rk . Beispiel 6.3.5 (Kommutativgesetz gilt nicht). Für die Matrizen A := 3 5 0 0 ! und B := 0 1 ! 0 0 gilt A · B 6= B · A, denn: ! A·B = A· 0 0 !! A· 1 0 = 0 3 ! 0 0 ! und B·A = B· 3 0 !! B· 5 0 = 0 0 ! 0 0 Wir haben jetzt gelernt wie man Matrizen addieren und auch miteinander multiplizieren kann, kann man sie dann auch durcheinander “dividieren”? Die Antwort auf diese Frage geben wir in Kapitel 7 nachdem wir uns zunächst mit Linearen Gleichungssystemen beschäftigt haben, welche durch Matrizen eine elegante Darstellungsform erhalten. 69 7 Matrizen und lineare Abbildungen 7.1. Einführung Wir haben das vorherige Kapitel 6 begonnen mit dem Versprechen, lineare Abbildungen der Form f : Rn → Rm mit Hilfe von Matrizen beschreiben zu können. Diese Abbildungen bilden jeden Vektor aus dem Vektorraum Rn auf einen Vektor im Vektorraum Rm ab. Wir erinnern zunächst, was die uns geläufige Schreibweise von Vektoren aus reellen Vektorräumen der Form Rn letzlich bedeutet. Dazu erinnern wir an die Definition 5.2.4 des Vektorraums Rn - er wird aufgespannt von den n Einheitsvektoren. Die Komponenten v1 , . . . vn eines Vektors v= v1 v2 v3 ∈ Rn .. . vn indizieren die Koeffizienten seiner eindeutigen Linearkombination der Basisvektoren alias den Einheitsvektoren e(1) , . . . e(n) . Denn es ist v= v1 1 0 0 0 1 0 v2 n X vk e(k) . v3 = v1 · 0 + v2 · 0 + . . . + vn · 0 = .. .. .. .. k=1 . . . . vn 0 0 1 Ist f : Rn → Rm eine lineare Abbildung, dann ist also f (v) = f n X k=1 ! vk e (k) = n X vk f (e(k) ). k=1 Wenn wir nun die n Vektoren f (e(1) ), . . . , f (e(n) ) ∈ Rm kennen, kennen wir auch das Bild f (x) für alle x ∈ Rn unt er der linearen Abbildung f . Mit anderen Worten: f ist vollständig durch die bilder der Vektoren e(1) , . . . e(n) bestimmt. Wir fassen diese n Vektoren in einer Matrix zuammen. Genauer 71 7. Matrizen und lineare Abbildungen sei M (f ) die m × n-Matrix mit Spalten M (f )(1) = f (e(1) ), M (f )(2) = f (e(2) ), . . . , M (f )(n) = f (e(n) ). Diese Matrix heißt die darstellende Matrix (oder Darstellungsmatrix) von f . Erinnert an die Multiplikation einer Matrix mit einem Vektor finden wir f (v) = M (f ) · v. Die lineare Abbildung f ist also nichts anderes als Multiplikation mit der Matrix M (f ). Umgekehrt stellt unsere Definition von “Matrix mal Vektor” sicher, daß für jede m × n-Matrix A die Abbildung f : Rn → Rm , v 7→ A · x linear ist. Beispiel 7.1.1. I Abbildungen R → R: Alle linearen Abbildung von R nach R sind von der Form fa (x) = a · x. Fassen wir die reellen Zahlen als Vektorraum auf, wird dieser von dem einzigen und in diesem Fall eindimensionalen Einheitsvektor (1) aufgespannt. Das Bild dieses Vektor ist f ((1)) = (a) und die Darstellungsmatrix ist also die 1 × 1-Matrix M (fa ) = (a). Sowohl die Vektoren als auch die Matrizen sind in diesem Fall einfach reelle Zahlen. I Eine Abbildung von R2 nach R2 : Wir wählen konkret die Abbildung die durch die folgenden Bilder der Einheitsvektoren des R2 bestimmt ist: !! ! 1 1 f = und 0 − 21 0 f 1 !! = − 12 ! 1 Dann ist die Darstellungsmatrix von f gleich M (f ) = 1 − 12 − 12 1 ! Um zu verdeutlichen, was geometrisch bei dieser linearen Abbildung geschieht,!betrachte das ! ! 1 2 1 Dreieck, dessen Ecken die Stützvektoren a1 = , a2 = und a3 = haben, wird 1 1 2 72 7.1. Einführung abgebildet auf: 1 1 − 12 − 21 1 1 − 12 − 21 1 · 1 ! 2 ! · 1 ! 1 ! · 2 1 1 a1 f (e e(2) (2) a2 ) e(1) 1 f (a3 ) x2 a3 x2 = = 1 2 1 2 ! 3 2 ! 0 0 = ! 3 2 ) f (a3 ) = M (f ) · a3 = − 21 ! 1 ! a1 f (a2 ) = M (f ) · a2 = − 12 f( f (a1 ) = M (f ) · a1 = 1 x1 f (e ( f (a2 ) 1 x1 1) ) → Proposition 7.1.2. Sind f, g : Rn → Rm lineare Abbildungen und ist λ ∈ R, so ist I M (f + g) = M (f ) + M (g) I M (λ · f ) = λ · M (f ) I M (g ◦ f ) = M (g) · M (f ). Beweis. Übungsaufgabe. Notation: Für quadratische Matrizen benutzen wir auch die Potenzschreibweise. Mit Ak für k ∈ N bezeichnen wir also das Produkt Ak = A · . . . · A} | · A {z kmal 73 7. Matrizen und lineare Abbildungen Einige Matrizen spielen eine besondere Rolle. Für jede Größe m × n bezeichnen wir mit 0 die Matrix, deren Einträge alle gleich 0 sind. Diese Matrix hat die Eigenschaft, dass A + 0 = 0 + A = A für alle A. Außerdem bezeichnet id die n×n-Matrix, deren Diagonaleinträge gleich 1 sind, während alle anderen Einträge gleich 0 sind. Für jede n × n-Matrix A gilt id · A = A · id = A. Ferner gilt id · x = x für jeden Vektor x ∈ Rn . Allgemeiner bezeichnen wir für einen Vektor a ∈ Rn mit diag(a) die n × n-Matrix, deren Diagonale gerade der Vektor a ist, während alle anderen Einträge gleich 0 sind. Für jeden Vektor x ∈ Rn gilt dann a1 x1 a x 2 2 diag(a) · x = . .. an xn . Schließlich sagen wir, dass eine m × n-Matrix D Diagonalform hat, wenn aus Dij 6= 0 folgt, dass i = j(i = 1, . . . , m; j = 1, . . . , n). Mit anderen Worten: nur die Diagonaleinträge Dii dürfen von Null verschieden sein. Definition 7.1.3. Seien A, B n×n-Matrizen. Wir sagen, dass B zu A invers ist, wenn A·B = B ·A = id. Falls es eine Matrix B gibt, die zu A invers ist, heißt A invertierbar oder regulär, andernfalls heißt A singulär. Proposition 7.1.4. Eine n × n-Matrix A ist genau dann invertierbar, wenn die lineare Abbildung v ∈ Rn → A · v ein Isomorphismus ist. Beweis. ... 7.1.1. Einige weitere Beispiel Wir führen jetzt noch einige konkrete lineare Abbildungen beispielhaft auf. Beispiel 7.1.5. ! I Die Abbildung f : R2 → R2 , x = y. 74 x y ! 7→ y x entspricht der Spiegelung des R2 an der Geraden 7.2. Dimensionssatz ! Die darstellende Matrix hat die Spalten f (e1 ) = M (f ) = ! I Die Abbildung h : R2 → R2 , x y 0 ! , f (e2 ) = 1 1 , d.h. 0 ! 0 1 1 0 ! 7→ −x y entspricht einer Spiegelung des R2 an der y-Achse. ! ! Die darstellende Matrix hat die Spalten h(e1 ) = M (h) = −1 0 , f (e2 ) = −1 0 0 , d.h. 1 ! 0 1 2 → R2 , entspricht der Hintereinanderausführung beider Spiegelungen: I Die Abbildung ! h◦f : R ! ! x y −y ) = h( )= h ◦ f( y x x ! ! Die darstellende Matrix hat also Spalten h ◦ f (e1 ) = M (h ◦ f ) = 0 1 0 −1 1 , h ◦ f (e2 ) = −1 , d.h. 0 ! 0 2 → R2 , entspricht der Hintereinanderausführung beider Spiegelungen: I Die Abbildung ! h◦f : R ! ! x y −y ) = h( )= h ◦ f( y x x ! ! Die darstellende Matrix hat also Spalten h ◦ f (e1 ) = M (h ◦ f ) = 0 1 0 −1 1 , h ◦ f (e2 ) = −1 , d.h. 0 ! 0 7.2. Dimensionssatz Definition 7.2.1. Für eine Matrix A ∈ Rm×n definieren wir den Kern der Matrix und das Bild der Matrix als: Kern(A) := {~x ∈ Rn : A · ~x = 0} Bild(A) := {A · ~x : ~x ∈ Rn } 75 7. Matrizen und lineare Abbildungen Bemerkung: I Für A = (~a1 . . . ~an ) mit Spalten ~ai ∈ Rm gilt: Bild(A) = span ( {~a1 , . . . , ~an }) I Für die Abbildung F : Rn → Rm , x 7→ A · x gilt: – Der Kern ist Teilmenge der Urbildmenge Rn der Abbildung F – Das Bild ist Teilmenge des Bildmenge Rm der Abbildung F Lemma 7.2.2. Für jede Matrix A ∈ Rm×n sind Kern(A) ⊆ Rn und Bild(A) ⊆ Rm Vektorräume. Beweis. Hat A ∈ Rm×n die Spalten ~a1 , . . . , ~an ∈ Rm , d.h. A = (~a1 , . . . , ~an ) so gilt Bild(A) = span ( {~a1 , . . . , ~an }): Bild(A) = {A · ~x : ~x ∈ Rn } = {x1 · ~a1 + . . . + xn~an : x1 , . . . xn ∈ R} = span ({~a1 , . . . , ~an }) Der Spann von endlich vielen Vektoren ist stets ein Vektorraum, d.h. Bild(A) ist ein Vektorraum. Kern(A) ⊆ Rn , “erbt” als Teilmenge von Rn fast alle Eigenschaften des Rn . Deswegen genügt es nach Lemma 3.3.3 zu zeigen: Kern(A) ist abgeschlossen unter Addition und skalarer Multiplikation. I z.z.: ∀~x, ~y ∈ Kern(A) : ~x + ~y ∈ Kern(A). Seien x, y ∈ Kern(A), dann gilt A·(~x +~y ) = A · ~y = 0 und das heißt: ~x +~y ∈ Kern(A). | {z· ~x} + A |{z} =0 =0 I z.z.: ∀~x ∈ Kern(A), λ ∈ R : λ · ~x ∈ Kern(A). Seien x ∈ Kern(A) und λ ∈ R, dann gilt A·(λ~x) = λ·A | {z· ~x} = 0 und das heißt: λ·~x ∈ Kern(A). =0 Lemma 7.2.3. Es sei A ∈ Rm×n dann gilt für die Vektorräume Kern und Bild: dim (Kern(A)) + dim (Bild(A)) = n Beweis. Wir konstruieren aus einer Basis von Kern(A) und (den Urbildern von) einer Basis von Bild(A) eine Basis von Rn : Es sei {u1 , . . . , uk } ⊂ Rn eine Basis von Kern(A), d.h. dim(Kern(A)) = k. 76 7.2. Dimensionssatz Es sei {w1 , . . . , w` } ⊂ Rm eine Basis von Bild(A), d.h. dim(Bild(A)) = `. Nach Definition von Bild(A) ist jeder der Vektoren wi von der Form wi = A · vi . Es sei {v1 , . . . , v` } ⊂ Rn so dass für jedes i = {1, . . . `} gilt: A · vi = wi . Wir zeigen nun, dass u1 , . . . , uk , v1 , . . . v` linear unabhängig sind: Es seien µ1 , . . . , µk , λ1 , . . . , λ` ∈ R (∗) µ1 · u1 + . . . + µk · uk =⇒ A· µ1 · u1 + . . . + µk · uk +λ1 · v1 + . . . + λ` · v` +λ1 · v1 + . . . + λ` · v` = 0 = A·0 =⇒ µ1 A · u1 + . . . + µk A · uk +λ1 · A · v1 + . . . + λ` · A · v` = 0 | {z } | {z } | {z } | {z } =0 =w1 =0 ? =w` ⇒ λ1 = λ2 = . . . = λ` = 0 ? w1 , . . . , w` sind linear unabhängig Setzt man λ1 = λ2 = . . . = λ` = 0 in (∗) ein, so erhält man µ1 · u1 + . . . + µk · uk + 0 · v1 + . . . + 0 · v` = 0 =⇒ µ1 = . . . = µk = 0 weil u1 , . . . , u` linear unabhängig sind Aus (∗) folgt also µ1 = . . . = µk = 0 und λ1 = λ2 = . . . = λ` = 0, d.h. die Vektoren sind linear unabhängig. Wir haben k + `-viele linear unabhängige Vektoren im Rn gefunden. Damit gilt nun: k + ` ≤ dim(Rn ) = n Es bleibt zu zeigen: Für V := span ({u1 , . . . , uk , v1 , . . . v` }) gilt Rn ⊆ V . Es sei x ∈ Rn beliebig und ye := A · x. Wegen ye ∈ Bild(A) gilt ye = λ1 w1 + . . . + λ` w` . Es gibt damit also x e ∈ span(v1 , . . . v` ) mit Ae x = ye nämlich x e := λ1 v1 + . . . + λ` v` . Wegen Ax = Ae x folgt A(x − x e) = 0, d.h. ze := x − x e ∈ Kern(A). Insgesamt folgt: x = ze + x e mit ze ∈ span(u1 , . . . , uk ) und x e ∈ span(v1 , . . . , v` ). Weil x ∈ Rn beliebeig gewählt wurde, gilt also Rn ⊆ V . 77 7. Matrizen und lineare Abbildungen 7.3. Allgemeine lineare Abbildungen zwischen Vektorräumen Wir haben gelernt, lineare Abbildungen g : Rn → Rm durch Matrizen darzustellen. Erlauben auch lineare Abbildungen g : V → V 0 zwischen anderen Vektorräumen V, V 0 eine solche Darstellung? Das geht tatsächlich, allerdings müssen wir zuvor Basen von V und V 0 festlegen. Sei also A = (x1 , . . . , xn ) eine Basis von V und B = (y1 , . . . , yn ) eine Basis von V 0 . Wir definieren einen Isomorphismus f um g als Matrix darzustellen. Es sei a1 m X . . → 7 ai xi . . i=1 an f : Rn → V, Analog definieren wir den Isomorphismus h : Rm → V 0 , b1 m X . . → 7 bi yi . . i=1 bn (Dass es sich dabei um Isomorphismen handelt, ist klar, denn die Bilder sind Linearkombinationen von Basisvektoren (Injektivität) und das Bild ist gleich span(A) bzw. span(B) (Surjektivität)). Dann ist h−1 ◦ g ◦ f : Rn → Rm eine lineare Abbildung. Ihre darstellende Matrix M (h−1 ◦ g ◦ f ) bezeichnen wir mit MA,B (g). Explizit können wir ihre Einträge wie folgt beschreiben. Das Bild f (xj ) des jten Basisvektors von A lässt sich schreiben als g(xj ) = m X cij yi . i=1 Ein wichtiger Spezialfall ergibt sich, wenn V = Rn und V 0 = Rm . In diesem Fall erhalten wir also zu je zwei Basen A von Rn und B von Rm eine darstellende Matrix MA,B (g) der linearen Abbildung g. Wie verhält sich diese Matrix zu der “natürlichen” Matrix M (g)? Die beiden Isomorphismen f : Rn → Rn und h : Rm → Rm können ebenfalls durch Matrizen dargesellt werden, und nach der Definition gilt MA,B (g) = M (h−1 ◦ g ◦ f ) = M (h−1 ) · M (g) · M (f ) = M (h)−1 · M (g) · M (f ). Anhand der Definition von f und g sieht man ferner, dass M (f ) die Matrix ist, deren Spalten die Basisvektoren A sind. Entsprechend ist M (h) die Matrix, deren Spalten die Basisvektoren B sind. Ein wesentliches Ziel der folgenden Abschnitte wird sein, Basen A, B zu finden, so dass die Matrix MA,B (f ) eine möglichst einfache Gestalt hat. 78 7.4. Lineare Gleichungssysteme 7.3.1. Lineare Selbstabbildungen: Die Welt der quadratischen Matrizen Eine Matrix A ∈ Rn×n bei der die Anzahl der Zeilen mit der Anzahl der Spalten übereinstimmt heißt quadratisch (“Input-” gleich “Output-Dimension”). Quadratische Matrizen stehen für lineare Selbstabbildungen, d.h. eine Matrix A ∈ Rn×n liefert eine Abbildung f (x) := A(x) mit f : Rn → Rn . Für solche “Automorphismen4 ” gibt es viele Anwendungen und deswegen eine reichhaltige Theorie. 3 7 Beispiel 7.3.1. Für A := A −1 ·A= ! gilt 2 5 5 −7 −2 3 ! · A−1 = 3 7 ! 5 −7 −2 = 2 5 ! 3 ! 5·3−7·2 0 0 −2 · 7 + 3 · 5 a Beispiel 7.3.2 (Formel für das Invertieren in R2×2 ). Es sei A := c = id ! mit Einträgen a, b, c, d ∈ b d R so dass ad − cb 6= 0 gilt. Es gilt dann: A−1 A −1 1 ·A= · ad − cb d −c −b a 1 = · ad − cb ! · a c b d ! d −c −b ! a 1 = · ad − cb ad − cb 0 0 ad − cb ! = id 7.4. Lineare Gleichungssysteme Definition 7.4.1. Ein lineares Gleichungssystem ist ein System von Gleichungen der Form A1,1 · x1 +A1,2 · x2 +...+ A1,n · xn = b1 A2,1 · x1 .. . +A2,2 · x2 .. . +...+ A2,n · xn .. . = b2 Am1 · x1 +Am,2 · x2 + . . . + Am,n · xn = bm 4 Automorphismus= Strukturerhaltende Selbstabbildungen, von ’auto’ selbst & ’morphismus’ Verformung 79 7. Matrizen und lineare Abbildungen mit A1,1 , . . . , Am,n ∈ R und b1 , . . . bm ∈ R. Jedes Lineare Gleichungssystem lässt sich äquivalent schreiben als A · ~x = ~b mit A ∈ Rm×n und ~b ∈ Rm . Das Lösen eines Linearen Gleichungssystems kann per Gauß’schem Eliminationsverfahren erfolgen. Dabei wird eine Gleichung der Form A · ~x = ~b durch ein Tableau der Form A|b ersetzt, auf dem Umformungen durchgeführt werden (sog. Gaussschritte), bis ein Tableau entsteht, das eine Matrix in Zeilen-Stufen-Form enthält: Eine Matrix A ∈ Rm×n hat Zeilen-Stufen-Form, wenn in jeder Zeile z > 2 mehr führende Nullen stehen als in der vorherigen Zeile z −1 (es sei denn die Zeile z −1 bestand schon komplett aus Nullen). Definition 7.4.2. Eine Matrix A ∈ Rm×n hat Zeilen-Stufen-Form, wenn es einen Zeilen-Index ` ∈ {1, . . . , m + 1} gibt mit: I Jede Zeile mit Index in {2, . . . , ` − 1} enthält mindesten eine führende Null mehr als die Zeile davor. I Jede Zeile mit Index in {`, . . . , m} enthält nur Nullen (falls ` = m + 1 gibt es keine solchen Zeilen). Beispiel 7.4.3. Die folgenden Matrizen haben jeweils Zeilen-Stufen-Form mit ` = 4: 1 2 3 4 5 A= 0 3 5 7 9 0 0 0 2 4 1 2 3 4 5 0 3 5 B= 0 0 0 0 0 0 0 0 0 7 9 Anzahl führender Nullen steigt bis Zeile 3 = ` − 1 2 4 Anzahl führender Nullen 0 0 ist maximal ab Zeile 4 = ` 0 0 Beispiel 7.4.4. Die folgende Matrix ist nicht in Zeilen-Stufen-Form, den Zeile 2 enthält genauso viele führende Nullen wie Zeile 3, obwohl beide nicht maximal viele Nullen enthalten: 1 2 3 4 5 A= 0 0 5 7 9 0 0 2 4 6 Ein Gleichungssytem A · ~x = ~b mit einer Matrix in Zeilen Stufen-Form zu lösen ist leicht rekursiv 80 7.4. Lineare Gleichungssysteme möglich. Definition 7.4.5. Für eine Gleichung A · ~x = ~b mit A ∈ Rm×n und ~b ∈ Rm ist das zugehörige Tableau A1,1 .. . ... A1,n .. . b1 .. . Am,1 . . . Am,n bm Die Lösungen eines Tableaus sind die Lösungen der zugehörigen Gleichung A · ~x = ~b. Zwei Tableaus heißen äquivalent, wenn sie dieselben Lösungen haben. Im Gaußverfahren sind folgende Schritte Zulässig auf einem Tabeau: Lemma 7.4.6. Die Lösungen eines Tableaus verändern sich nicht, wenn man einen der folgenden folgenden Schritte anwendet: Typ I) Addiere eine das Vielfache einer Zeile zu einer anderen Zeile. Typ II) Multipliziere eine Zeile des Tableaus mit einer Zahl. Typ III) Vertausche zwei Zeilen des Tableaus. Typ IV) Streiche eine Nullzeile (eine Zeile deren Einträge alle Null sind). . . . wobei jeweils die anderen Zeilen des Tableaus unberührt bleiben. Der Beweis für Schritte vom Typ I)-III) ergibt sich direkt aus den Eigenschaften von Gleichungen. Beispiel 7.4.7. Gegeben sei A := 2 1 1 1 4 3 3 3 −6 −5 −5 −5 2 1 1 4 3 3 −6 −5 −5 b := und 1 3 gesucht ist die Lösung ~x von A~x = ~b −5 2 1 1 1 2 1 1 1 II − (2) · I 0 1 1 1 0 1 1 1 III + (3) · I 0 −2 −2 −2 0 0 0 0 III + (2) · II Das letzte Tableau hat bereits Zeilen-Stufen-Form. Die letzte Zeile übersetzt sich zu der Gleichung 0 = 0, die die Lösungsmenge nicht einschränkt. Diese Gleichung kann also gestrichen werden. Nach 81 7. Matrizen und lineare Abbildungen Streichen der letzten Nullzeile erhält man aus dem Resultierenden Tableau die Gleichungen: I 2x1 +x2 +x3 = 1 II 0x1 +x2 +x3 = 1 Setzt man x3 := λ mit λ ∈ R so erhält man nach umstellen: I 2 · x1 = 1 −x2 −x3 II x2 = 1 −x3 = 1 − (1 − λ) − λ = 0 II = 1−λ =⇒ 0 ~x = 1 − λ mit λ ∈ R λ 0 0 Die Lösungsmege lautet also: L := 1 + λ · −1 : λ ∈ R 0 1 7.4.1. Interpretation eines Tableaus mit Nullzeilen Das Interpretieren eines Tableaus mit Nullzeile ist üblicherweise anfänglich etwas schweirig, aber im Grunde genommen einfach: Eine Nullzeile entspricht einer Gleichung 0 = 0, und weil diese Gleichung immer wahr ist, schränkt sie die Startmenge Rn nicht ein. I “Fragt” man alle x ∈ R, ob sie x2 = 4 erfüllen, so “antworten” nur 2 und −2 mit ja: {x ∈ R : x2 = 4} = {−2, 2} I “Fragt” man alle x ∈ R, ob sie 0 = 0 erfüllen, so “antworten” alle mit ja, denn diese Gleichung ist stets erfüllt! Es gilt also: {x ∈ R : 0 = 0} = R I “Fragt” man alle x ∈ R, ob sie 0 = 1 erfüllen, so “antworten” alle mit nein, denn diese Gleichung ist immer falsch! Es gilt also: {x ∈ R : 0 = 1} = ∅ Nullzeilen Hat man ein Tableau, dass (am Ende) eine Nullzeile enthält, so entspricht dies der folgenden Situation: 82 7.4. Lineare Gleichungssysteme Das Tableau hat einen “Vorspann” aus einer Matrix A ∈ Rm×n und ~b ∈ Rm , gefolgt von einer Nullzeile. Dieses Tableau hat dann die selben Lösungen wie A · ~x = ~b: Tableau: ~ 1,1 A .. . ... A1,n .. . b1 .. . A1,n xn = b1 .. . Gleichungssystem ~ m,1 x1 + . . . + Am,n xn = bm−1 A 0 = 0 ~ m,1 . . . Am,n bm A 0 ... 0 ~ 1,1 x1 + . . . + A 0 Die Lösungen dieses Systems sind: {~x ∈ Rn : A~x = ~b} \ {~x ∈ Rn : 0 = 0} = {~x ∈ Rn : A~x = ~b} {z } | =Rn Fast-Nullzeilen Hat man ein Tableau, dass (am Ende) eine Nullzeile mit Rechter Seite ungleich Null enthält, so hat das zugehörige Gleichungssytem keine Lösung Allgemein sieht dies wie folgt aus: Nach umsortieren der Zeilen, hat das Tableau hat einen “Vorspann” aus einer Matrix A ∈ Rm×n und ~b ∈ Rm , gefolgt von einer weiteren Zeile: Tableau: ~ 1,1 A .. . ... A1,n .. . b1 .. . ~ m,1 . . . Am,n bm A 0 ... 0 1 ~ 1,1 x1 + . . . + A1,n xn = b1 A .. . Gleichungssystem ~ m,1 x1 + . . . + Am,n xn = bm−1 A 0 = 1 Die Lösungen dieses Systems sind: {~x ∈ Rn : A~x = ~b} \ {~x ∈ Rn : 0 = 1} = ∅ | {z } =∅ 7.4.2. Interpretation eines Tableaus mit Sprüngen Hat in einem Tableau eine Zeile z + 1 mehr als eine führende Nullen mehr als die vorhergehende Zeile so bezeichnet man dies als einen “Sprung”. Die folgende Matrix hat zwei Sprünge: I einen Sprung der Länge 3 von Zeile 2 zu Zeile 3 I einen Sprung der Länge 2 von Zeile 4 zu Zeile 5 83 7. Matrizen und lineare Abbildungen 1 2 3 4 5 6 7 0 2 3 4 5 6 7 0 0 0 0 5 6 7 0 0 0 0 0 6 7 0 0Länge 0 03 0 Länge 0 02 Hat ein Tableau in Zeilen-Stufen-Form einen Sprung der Länge k, so bedeutet dies, dass sich k − 1 der gegebenen Variablen nicht konkret festlegen lassen (s. Beispiel 7.4.7). Diese Variablen bleiben als Variablen in der Lösung erhalten, man drückt dies durch ersetzen der Variable mit einer weiteren, neuen Variable (meist Griechische Lettern) aus. Beispiel 7.4.8. 1 0 1 0 1 9 −x3 −x5 x2 = 7 −2x3 −4x5 x1 = 9 0 1 2 0 4 7 −→ 0 0 0 1 1 5 x4 = 5 −x5 Hier lässt sich I x1 nur ausdrücken in Abhängigkeit von x3 und x5 (oder umgekehrt). I x2 nur ausdrücken in Abhängigkeit von x3 und x5 (oder umgekehrt). I x4 nur ausdrücken in Abhängigkeit von x5 (oder umgekehrt). Hat man dies getan (s. Gleichungen oben), und legt man x5 und x3 fest, so lassen sich alle weiteren Variablen aus x5 und x3 berechnen. D.h. für alle Werte von x5 und x3 gibt es eine Lösungsvektor ~x. Die Lösung hat also 2 Freiheitsgrade, bzw. ist 2 dimensional. Konkret erhält man mit x3 := λ und x5 := µ ist die Lösungsmege: 9 −λ −µ 7 −2λ −4µ : λ, µ ∈ R} L = { λ 5 −µ µ 84 Teil II. Ausgewählte Themen der Analysis 85 8 Komplexe Zahlen 8.1. Warum imaginäre Zahlen so heißen wie sie heißen Dieses Kapitel widmet sich den komplexen Zahlen, einer Zahlenmenge, die zusammen mit Addition und Multiplikation einen Zahlkörper bildet. Die folgenden Zahlenmengen sind bereits bekannt: I die natürlichen Zahlen N = {1, 2, 3, 4, . . .} I die ganzen Zahlen Z = {0, 1, −1, 2, −2, 3, −3, . . .} I die rationalen Zahlen Q = { pq : p, q ∈ Z, q 6= 0} I die reellen Zahlen R = {a + 0, d1 d2 d3 . . . : a ∈ Z und (dn )n∈N mit dk ∈ {0, 1, . . . 9} } | {z } Nachkomma-Ziffern Diese Mengen von Zahlen haben Entsprechungen in der echten Welt: I Die natürlichen Zahlen entsprechen der Anzahl zählbarer Gegenstände. I Brüche (rationale Zahlen) stehen für “Anteile eines geteilten Ganzen” (Pizza). √ I Auch reelle Zahlen treten im Alltage auf. Zum Beispiel ist 2 die Länge der Diagonale in einem 1-mal-1 großen Quadrat (Fliese). Auch das Verhältnis der Seiten eines Blatt Papiers im √ DinA4-Format ist 1 zu 2. Alle diese Zahlen bis hin zu den reellen Zahlen lassen sich also in der Umwelt anschaulich darstellen. Nicht so die imaginäre Einheit bzw. die komplexen Zahlen: Sie entsprechen den nicht ganz so greifbaren, abstrakten Lösungen von Polynomgleichungen. Man kann sich diese Zahlen zwar veranschaulichen, also auf ein Blatt Papier zeichnen, man findet Sie jedoch in der Natur nur hinter den Kulissen, im Wirken von physikalischen Gesetzen. 8.2. Definition Die Klasse der reellen Zahlen ist sehr groß, trotzdem lernt man in der Schule, dass a · x2 + b · x + c = 0 nur dann lösbar ist, falls ihre Diskriminante ∆ = b2 − 4ac nicht-negativ ist, da aus einer negativen Zahl keine Wurzel gezogen werden kann. Beispielsweise hat die Gleichung x2 = −1 keine reelle Lösung, was etwas unbefriedigend ist. Lässt 87 8. Komplexe Zahlen sich nicht vielleicht doch irgendwie eine Zahl es keine reelle Zahl x ∈ R mit x2 √ −1 definieren? Die Antwort ist jein. Tatsächlich gibt = −1, hier wurde Ihnen also nichts vorenthalten, trotzdem konstru- ieren wir nun eine Lösung, indem wir uns eine entsprechende Zahl definieren. 8.2.1. Die imaginäre Einheit Definition 8.2.1. Wir definieren eine Zahl i (genannt die imaginäre Einheit) so, dass i2 = −1 gilt. Die Zahl i ist in sofern imaginär, als dass sie keine reelle Zahl ist, und keine direkt greifbare Entsprechung in der “echten” Welt besitzt. Mit dieser neuen, zusätzlichen Zahl können nun die Lösungen für x2 = −1 angeben, dies sind nämlich i und −i. Aus der Regel i2 = −1 lässt sich folgern, dass sich Potenzen von i wieder als ±1 oder ±i schreiben lassen: k 0 1 2 3 4 ik i0 i1 i2 i3 i4 ... Wert 1 i −1 −i 1 ... ·i ·i ·i ·i ·i Definition 8.2.2. Eine Komplexe Zahl z hat die Form z = a + i · b dabei sind a, b ∈ R und i ist die imaginäre Einheit. Für z = a + i · b ist Re(z) := a der Realteil von z und Im(z) := b der Imaginärteil von z. Die Menge aller Komplexen Zahlen kürzt man ab mit C := {a + i · b : a, b ∈ R} Typischer Fehler: Der Imaginärteil von z = a + i · b ist die reelle Zahl b und nicht i · b. Mit i können wir nun Lösungen für alle Polynomgleichungen angeben – nicht nur eine Lösung für x2 = −1. Satz 8.2.3. Für das Polynom x2 + px + q mit p, q ∈ R sei 88 p 2 2 − q < 0. 8.2. Definition Dann hat die Gleichung x2 + px + q = 0 die komplexen Lösungen p z1 := − + i · 2 s p 2 2 − q p z2 = z 1 := − − i · 2 und s p 2 2 − q Den Beweis führt man durch einfaches Einsetzen und Nachrechnen unter Beachtung, dass hier gilt: p 2 2 −q <0 ⇒ 2 p 2 =q− p − q 2 2 Beispiel 8.2.4. Gesucht sind die Lösungen von x2 + 2x + 10 = 0 mit der p-q-Formel ergibt sich: x1,2 = −1 ± √ 1 − 10 = −1 ± p √ (−1) · 9 = −1 ± 3 · −1. In reellen Zahlen gibt es hier keine Lösung, in komplexen Zahlen lauten die Lösungen x1/2 = −1±3·i. √ Typischer Fehler: i ist nicht “ −1” √ Obwohl es verführerisch aussieht, ist es nie richtig “ i = −1 ” zu schreiben. In Beispiel 8.2.4 sieht √ √ es zwar so aus als hätte man “ −1” durch i ersetzt, trotzdem gilt nicht “i = −1”. Die Wurzelfunktion √ x liefert für x ∈ R mit x ≥ 0 das nicht-negative y, für dass y 2 = x gilt. Wegen der Einschränkung “nicht-negativ” funktioniert die Wurzelfunktion nicht bei −1: I Die Lösungen für y 2 = 16 sind zum Beispiel 4 und −4, √ die Wurzelfunktion liefert aber nur die postive Lösung 16 = 4. I Die Lösungen für y 2 = −1 sind i und −i, aber hier ist (und bleibt!) unklar, wer “die positive” Lösung ist. Sowohl i als auch −i sind weder positiv noch negativ! Auch das Argument “i hat kein Vorzeichen” zieht hier nicht, denn: Bei der Definition von C hätte man (statt die Zahl i zu wählen) ebenso gut die komplexen Zahlen über j := (−i) definieren können! Dann hätte die Zahl j (also eigentlich −i) “kein Vorzeichen”. Ein anderes, etwas schwierigeres Argument für i 6= √ −1 ist das Folgende: √ Wḧre −1 eine echte Zahl, so dürfte man also aus −1 die Wurzel ziehen, d.h. für die entstehende √ √ √ √ Zahl −1 müsste dann die übliche Wurzelrechenregel a · b = a · b gelten. √ −1. (?) Annahme: Es gelte i = (??) Dann gilt die Wurzelrechenregel √ a·b= √ √ a · b auch für a = b = −1. 89 8. Komplexe Zahlen 2) p (−1) · (−1) p p ?? ⇔ 1 = (−1) · (−1) 3) ⇔ 1 = i·i 4) ⇔ 1 = −1 Es gilt dann also: 1) 1 = ? Während hier 1) unstrittig wahr ist, ist 4) unstrittig falsch, d.h. die Annahme i = √ Widerspruch (und zwar durch (??), das direkt aus i = −1 folgt). √ −1 führt zu einem 8.2.2. Rechnen mit komplexen Zahlen Das Rechnen mit komplexen Zahlen folgt im Wesentlichen den Rechenregeln für reele Zahlen, d.h. auch hier gilt beispielsweise die Regel “Punkt- vor Strichrechnung”. Für das Multiplizieren von komplexen Zahlen benötigt man zum einen ein gutes Verständnis der Binomischen Formeln und zum anderen die einfache Einsicht, dass sich Potenzen von i wieder als ±1 oder ±i schreiben lassen: Addition in C + = Addition von Polynomen a+ b·i c+ d·i + (a + c) + (b + d) · i = Multiplikation in C b·x c+ d·x (a + c) + (b + d) · x Multiplikation von Polynomen (a + b · i) · (c + d · i) = a+ (a + b · x) · (c + d · x) a · c + (a · d + c · b) i + b · d ·|{z} i2 = a · c + (a · d + c · b) x + b · d · x2 =−1 = a · c − b · d + (a · d + c · b) i 8.3. Komplexe Zahlen als kartesische Vektoren Die Menge der komplexen Zahlen C lässt sich auffassen als ein zwei-dimensionaler reeller Vektorraum. 90 8.3. Komplexe Zahlen als kartesische Vektoren ! Re(z) Jeder Zahl z = a + i · b kann man einen Vektor ! = Im(z) a b zuordnen. 3 Im zugehörigen R2 bezeichnet man die x1 -Achse mit Re und die 2 x2 -Achse mit Im. Den entstehenden besonderen R2 nennt man die 1 “komplexe Zahlenebene” oder auch die “Gaussche Zahlenebene”. 0 3+i·2 0 Beide Koordinaten-Achsen (auch die Im-Achse!) werden mit Zahlen aus R beschriftet. Im 1 2 3 4 Re ! 0 (Die Zahl z := 2i liegt beispielsweise als Vektor auf der Im- 2 Achse bei Achsenabschnitt “2” (d.h. bei Im(2i) = 2). Der Wert der komplexen Zahl z ist aber weiterhin 2i und damit komplex.) Die Addition von zwei Komplexen Zahlen durch getrenntes Addieren von jeweils zwei Realteilen und zwei Imaginärteilen läuft ganz analog zur Addition von Vektoren im R2 ab. Wie dort so entspricht auch in C die Addition dem Aneinanderhängen der Zahlen bzw. Vektoren: Addition in C + a+ b·i c+ d·i Im 4 3 + 1 ·i 3 (a + c) + (b + d) · i = z+ 2 Addition von Vektoren a b ! + c d ! = a+c w + w 1 ! 5 + 4 ·i z 0 0 1 2 2 + 3 ·i Re 3 4 5 b+d Jede Zahl z ∈ C hat als Vektor eine Länge und einen Winkel (zur Re-Achse): ! Definition 8.3.1. Der Betrag einer komplexen Zahl z = a + b · i ist die Länge des Vektors √ gilt |z| := a2 + b2 . a , es b Das Argument arg(z) ∈ [0, 2π) einer komplexen Zahl z ∈ C ist der Winkel, der zwischen der ReAchse und der Strecke von 0 nach z eingeschlossen wird. Beispiel 8.3.2. 91 8. Komplexe Zahlen √ √ 2 und arg(z) = 43 π. √ √ 7 I Für die Zahl w = 2 − 2i ist |z| = 22 + 22 = 2 · 2 und arg(z) = 2π − π 4 = 4 π. I Für die Zahl z = −2 + 2i ist |z| = z = −2 + 2i Im 22 + 22 = 2 · Im arg(z) arg(w) |z | Re Re |w | w = 2 − 2i Achtung: Winkel vs. Argument Man beachte, dass nach obiger Definition für arg(z) stets 0 ≤ arg(z) < 2π gilt. Gibt man jedoch Winkel an, so sind zwei Winkel äquivalent, wenn sie sich nur um ein Vielfaches von 2π unterscheiden. Das Bogenmaß ordnet dem vollen Kreis den Wert 2π zu, weil der Kreisumfang des Einheitskreises (der Kreis mit Radius r = 1) Umfang 2πr = 2π hat. 8.4. Konjugiert komplexe Zahlen und Division Definition 8.4.1. Für eine komplexe Zahl z = a + b · i, bezeichnet man mit z = a − b · i die zu z konjugiert komplexe Zahl, die aus z durch Spiegelung an der reellen Achse hervorgeht. Offensichtlich haben z und z die selbe Länge, aber entgegenge- Im z =3+i·2 2 1 |z| = |z| 0 0 α −α1 und arg(z) = 2π − arg(z). Re 2 3 4 −1 z = 3−i · 2 −2 setzte Winkel. Es gelten: Konjugieren und rechnen mit komplexen Zahlen ist vertauschbar. Bei Summen und Produkten kann das Konjugieren also vor oder nach dem Addieren bzw. Multiplizieren geschehen. Genauer gelten für z, w ∈ C: (z + w) = z + w 92 und (z · w) = z · w 8.4. Konjugiert komplexe Zahlen und Division 8.4.1. Verwendung Das Konjugieren einer komplexen Zahl z wird “beim Berechnen von reellen Zahlen aus z” genutzt. Mit Hilfe der dritten Binomischen Formel gilt für z = a + b · i: z · z = (a + b · i) · (a − b · i) = a2 − (i · b)2 = a2 + b2 Dies kannn beim Teilen durch komplexe Zahlen verwendet werden: Um auf einen reellen Nenner zu kommen, erweitert man einen komplexwertigen Bruch w z mit z, dem komplex Konjugietrten des Nenners. Beispiel 8.4.2. Für z = 4 + 3i und w = 1 + i gilt: w·z (1 + i) · (4 − 3 · i) 7+i 7 1 w = = = 2 = + ·i 2 z z·z (4 + 3 · i) · (4 − 3 · i) 4 +3 25 25 Lemma 8.4.3. Für z = a + b · i und w = c + d · i gelten: w ca + db ad − bc = 2 + 2 ·i z a + b2 a + b2 Das Ergebnis der Division w z ist also stets wieder eine komplexe Zahl. Beweis. Man rechnet nach w w·z (c + d · i) · (a − b · i) ca + db ad − bc = = = 2 + 2 · i. z z·z (a + b · i) · (a − b · i) a + b2 a + b2 Die zu z konjugierte Zahl wird benötigt, um aus z die Größen Re(z), Im(z) und |z| zu berechnen. Lemma 8.4.4 (Berechnungen mittels z). Für z = a + ib gelten: Re(z) =a, Im(z) =b und |z| = = p a2 + b2 . 93 8. Komplexe Zahlen Beweis. Man rechnet nach Re(z) = z+z 2 = (a +i · b) + (a −i · b) 2a = =a 2 2 Im(z) = z−z 2i = (a +i · b) − (a −i · b) 2bi = =b 2i 2i |z| = √ z·z = p p √ (a +i · b)·(a −i · b) = a2 − (i · b)2 = a2 + b2 . 8.5. Polardarstellung komplexer Zahlen Anstatt Real- und Imaginärteil einer komplexen Zahl z zu kennen, reicht es auch ihren Betrag r, d.h. den Abstand vom Ursprung und den Winkel α, den die Strecke vom Ursprung zu z mit der reellen Achse einschließt, zu kennen. Definition 8.5.1. Die Polarkoordinaten einer komplexen Zahl z ∈ C \ {0} bestehen aus dem Paar (r, α) ∈ R2 mit I Länge r ≥ 0, d.h. r := |z| und I Winkel α ∈ R so dass α äquivalent zu arg(z) ist, d.h. α = arg(z) + k · 2π mit k ∈ Z. Für z = 0 sind die Polarkoordinaten von der Form (0, α), dabei ist der Winkel α beliebig. √ 2 und arg(z) = 2π − π 4. √ √ π Als Polarkoordinaten kommen beispielsweise in Frage: (2 2 , 2π − π 4 ) aber auch (2 2 , − 4 ) Beispiel 8.5.2. Für die Zahl z = 2 − 2i ist |z| = 2 · Im 2π − Im π 4 Re − π4 Re | | |z |z z = 2 − 2i z = 2 − 2i Lemma 8.5.3 (Umrechnen von Polarkoordinaten in kartesische Koordinaten). Liegt z in Polarkoor- 94 8.5. Polardarstellung komplexer Zahlen Im Im z= b (r, α) r z =a+b·i b a α Re Re Abbildung 8.1.: Kartesische vs. Polarkoordinaten Darstellung einer komplexen Zahl dinaten z = b (r, α) vor, so gilt z = r · cos(α) + r · sin(α) · i, d.h. Re(z) = r · cos(α) Im(z) = r · sin(α) Schulwissen: rechtwinkliges Dreieck Komplexe Zahlen Im z = a + ib c r= b α |z | b α a a Ankathete cos(α) = Hypothenuse = ac ⇒ Gegenkathete sin(α) = Hypothenuse = cb ⇒ b = c · sin(α) a = c · cos(α) Re Re(z) = a = r · cos(α) Im(z) = b = r · sin(α) Lemma 8.5.4 (Umrechnen von kartesischen Koordinaten in Polarkoordinaten). Sind die kartesischen Koordinaten z = a + b · i 6= 0 bekannt, so können die zugehörigen Polarkoordinaten (r, α) wie folgt berechnet werden: √ r = |z| = a2 + b2 arccos a r α = − arccos a r falls b ≥ 0 falls b < 0 dabei ist arccos(x) die Umkehrfunktion des Cosinus. 95 8. Komplexe Zahlen 8.6. Multiplizieren und Dividieren in Polarkoordinaten Für zwei komplexe Zahlen ist die Multiplikation in Polarkoordinatendarstellung erheblich einfacher als in kartesischen Koordianten. Kurz gesagt gilt: Längen werden multipliziert und Winkel werden addiert. Lemma 8.6.1. Es seien z, w ∈ C mit z = b (r, α) und w = b (R, β). Dann gilt für das Produkt und den Quotienten: z·w = b (r · R , α + β) und w = b z R , β−α r Beispiel 8.6.2. z= b 1.5 , 2 · 2π 12 2 , 3· 2π 12 2π 12 w= b Im z·w = b w | | ⊕ ↓ ↓ 3 , 5· z·w z α+ β β α 0.5 1 1.5 2 2.5 3 Re Den Beweis werden wir mit der Eulerschen Darstellung einer komplexen Zahl führen, dafür benötigen wir das Verhalten der Funktion ex beim Einsetzen von rein komplexen Zahlen i · α: Lemma 8.6.3. Für α ∈ R gilt stets ei·α = cos(α) + i · sin(α). und e i· π2 =i Die Zahl eiα ist die Zahl auf dem Einheitskreis mit Winkel α: 96 Insbesondere gelten: ei·π = −1 8.6. Multiplizieren und Dividieren in Polarkoordinaten 1 Imπ ei· 2 Im π ei· 4 z = eiα = cos(α) + i · sin(α) |e iα |= −1 Re 1 π α 7 e−i· 4 = ei· 4 π −1 sin(α) 1 ei·π 0 Re cos(α) 1 Beweis. Die Taylorreihentwicklungen von ex , cos(x) und sin(x) lauten: 2 ex = 1 +x + x 2! 2 4 +x 4! +x 4! 3 +... ±... 5 −x 3! x 5 +x 5! 4 −x 2! cos(x) = 1 sin(x) = 3 +x 3! +x 5! ±... Setzt man in ex die Zahl i · α ein so erhält man (wegen i1 = i, i2 = −1, i3 = −i, i4 = 1, i5 = i, . . . ): 2 eiα = 1 +i · α +i2 · α 2! = 1 3 +i3 · α 3! 4 +i4 · α 4! 3 +α 4! 2 −α 2! +i · α 5 +i5 · α 5! +... 5 +i · α 5! ±... 4 −i · α 3! = cos(α) +i · sin(α) Es gilt also ei·α = cos(α) + i · sin(α) Satz 8.6.4 (Eulerdarstellung). Für eine komplexe Zahl z ∈ C mit Polarkoordinaten z = b (r, α) gilt: z = r · ei·α Umgekehrt gilt r · ei·α = b (r, α), d.h. r · ei·α hat die Länge r und den Winkel α. Beweis. Die Zahl z = b (r, α) lässt sich nach Lemma 8.5.3 schreiben als z = r · cos(α) + i · r · sin(α) = r · (cos(α) + i · sin(α)) , | {z } eiα d.h. es gilt z = r · eiα . 97 8. Komplexe Zahlen Für die Zahl r · ei·α gilt: p r · ei·α = r · | cos(α) + i sin(α)| = r · cos(α)2 + sin(α)2 {z } | =1 Darüberhinaus hat ei·α nach Lemma 8.6.3 den Winkel α, und entsprechend hat r · ei·α den Winkel α. Jetzt können wir Lemma 8.6.1 beweisen. Beweis von Lemma 8.6.1. Es gelten z = r · ei·α und w = R · ei·β und es folgt: z · w = r · ei·α · R · ei·β = r · R · ei·(α+β) Die letzte Zahl hat offensichtlich den Betrag (Länge) r · R und den Winkel α + β. Es gilt also z·w = b (r · R, α + β). Für den Quotienten gilt aber w R · ei·β R · ei·β −iα R i(β−α) = = ·e = ·e . z r · ei·α r r Die letzte Zahl hat offensichtlich den Betrag (Länge) w z = b ( Rr R r und den Winkel β − α. Demnach gilt , β − α). 8.6.1. Einheitswurzeln Definition 8.6.5 (Einheitswurzeln). Es sei n ∈ N \ {0}. Die Lösungen von z n = 1 mit z ∈ C heißen die n-ten Einheitswurzeln. Satz 8.6.6. Für n ∈ N \ {0} sind die Lösungen von z n = 1 die folgenden Punkte auf dem Einheitskreis: 2π iα L := e ∈ C : α = k · mit k = 0, 1, 2, . . . n − 1 n Eine Lösung ist (bei k = 0) die Zahl z = 1, alle Lösungen liegen auf einem symmetrischen n-Eck. Beispiel 8.6.7. 98 8.6. Multiplizieren und Dividieren in Polarkoordinaten Für n = 3 sind die Lösungen von z 3 = 1 die drei komplexen Zahlen i·0· 2π 3 z1 = e z2 = e i·1· 2π 3 z3 = e z2 i·2· 2π 3 Im Diese Zahlen liegen gleichmäßig über den Einheitskreis verteilt mit Winkeln 0= b 0◦ 1· 2π = b 120◦ 3 und 2· 2π = b 240◦ 3 z1 Re z3 Ausrechnen der trigonometrischen Funktionen mittels “z = r cos(α) + i · r sin(α)” führt zu den kartesischen Koordinaten: √ 1 3 z2 = − + i · 2 2 z1 = 1 √ 3 1 z4 = − − i · 2 2 Satz 8.6.6 lässt sich mit den Multiplikationsregeln (Längen multiplizieren, Winkel addieren) für Polarkoordinaten veranschaulichen. Wir betrachten das Beispiel z 5 = 1: Die Zahl z = r·eiα hat Polarkoordinaten (r, α), d.h. z 5 = r5 ·ei5α hat die Polarkoordinaten (r5 , 5 · α). Die Zahl 1 hat Polarkoordinaten (1, β) mit möglichen Winkeln β ∈ {. . . , −2π, 0, 2π, 2 · 2π, . . .}. Damit z 5 = 1 gelten kann, muss also gelten: r5 = 1 und 5 · α = k · 2π mit k ∈ Z. I Radius: Aus r5 = 1 folgt sofort r = 1, denn es gelten r ∈ R und r ≥ 0 (r ist eine Längenangabe) und in R≥0 gibt es nur eine Lösung von x5 = 1, nämlich x = 1 I Winkel: Wegen den Multiplikationsregeln (Winkel addieren!) folgt: z = b (1, α) ⇒ z 5 = b (1, 5α) Die Zahl 1 hat Polarkoordinaten (1, β) mit möglichen Winkeln β ∈ {. . . , −2π, 0, 2π, 2 · 2π, . . .}. Es folgt also . . . 5α = −1 · 2π oder 5α = 0 · 2π oder 5α = 1 · 2π d.h. es gilt 5α = k · 2π mit k ∈ Z beziehungsweise α = k · 2π 5 oder 5α = 2 · 2π oder . . . mit k ∈ Z – Für k = 0, 1, 2, 3, 4 ergeben sich Punkte auf dem Einheitskreis mit Winkelabstand 2π/5 zueinander (die Ecken eines symmetrischen 5-Ecks!) z.B. ergibt k = 0 die Lösung z = 1, d.h. die Zahl mit Winkel α = 0 · 2π 5 = 0. – Für k ∈ Z \ {0, 1, 2, 3, 4} ergeben sich zwar neue Zahlen α, aber nicht neue Lösungen z ∈ C, denn ab k = 5 wiederholen sich die Ergebniszahlen z, weil sich immer Winkel der Form “echtes-2π-Fünftel plus Vielfaches-von-2π” ergeben. Die Punkte mit Winkel “echtes-2π-Fünftel” sind mit k = 0, 1, 2, 3, 4 schon entdeckt, während “Vielfaches-von2π” für Winkelangaben unbedeutend ist! Zum Beispiel gilt wegen 5 · 2π/5 = 2π: 99 8. Komplexe Zahlen 100 k=5 heißt α = 5 · 2π/5 k=6 heißt α = (5 + 1) · 2π/5 = 2π + 1 · 2π/5 ergibt selbes z wie für k = 1. k=7 .. . heißt α = (5 + 2) · 2π/5 = 2π + 2 · 2π/5 ergibt selbes z wie für k = 2. = 2π + 0 ergibt selbes z wie für k = 0.
© Copyright 2024 ExpyDoc