Skript - Goethe

Analysis und Lineare Algebra
Mathematik I für die Informatik
Goethe-Universität Frankfurt am Main
Wintersemester 2016/17
Dr. Samuel Hetterich
21. November 2016
Inhaltsverzeichnis
1. Grundbegriffe und -lagen
7
1.1. Mathematische Logik: Aussagen und Logische Quantoren . . . . . . . . . . . . . .
7
1.2. Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
1.3. Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
1.4. Beweis von Lemma 1.2.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
2. Gruppen - Abstraktes Rechnen mit einem Operator
I.
21
2.1. Axiomatische Definition einer Gruppe . . . . . . . . . . . . . . . . . . . . . . . . .
21
2.2. Rechenregeln in Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
2.2.1. Lösen von Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
2.2.2. Abelsche Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
26
2.3. Isomorphe Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
26
2.4. Die Gruppenordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
28
Lineare Algebra
33
3. Vektorräume
3.1. Die Vektorräume
35
Rn
3.1.1. Rechnen im
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Rn
35
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
3.2. Allgemeine Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
38
3.3. Untervektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
43
4. Lineare Abbildungen
45
5. Basen und Dimension
49
5.1. Lineare Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
49
5.2. Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
53
5.2.1. Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
54
5.2.2. Basisaustauschsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
56
6. Matrizen
61
6.1. Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
61
6.2. Rechnen mit Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
63
6.3. Matrix-Matrix-Multiplikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
66
3
Inhaltsverzeichnis
7. Matrizen und lineare Abbildungen
71
7.1. Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71
7.1.1. Einige weitere Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
74
7.2. Dimensionssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
75
7.3. Allgemeine lineare Abbildungen zwischen Vektorräumen . . . . . . . . . . . . . . .
78
7.3.1. Lineare Selbstabbildungen: Die Welt der quadratischen Matrizen . . . . . . .
79
7.4. Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
79
7.4.1. Interpretation eines Tableaus mit Nullzeilen . . . . . . . . . . . . . . . . . .
82
7.4.2. Interpretation eines Tableaus mit Sprüngen . . . . . . . . . . . . . . . . . .
83
II. Ausgewählte Themen der Analysis
85
8. Komplexe Zahlen
87
4
8.1. Warum imaginäre Zahlen so heißen wie sie heißen . . . . . . . . . . . . . . . . . .
87
8.2. Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
87
8.2.1. Die imaginäre Einheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
88
8.2.2. Rechnen mit komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . .
90
8.3. Komplexe Zahlen als kartesische Vektoren . . . . . . . . . . . . . . . . . . . . . . .
90
8.4. Konjugiert komplexe Zahlen und Division . . . . . . . . . . . . . . . . . . . . . . .
92
8.4.1. Verwendung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
93
8.5. Polardarstellung komplexer Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . .
94
8.6. Multiplizieren und Dividieren in Polarkoordinaten . . . . . . . . . . . . . . . . . . .
96
8.6.1. Einheitswurzeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
98
Inhaltsverzeichnis
Vorwort
Dieses Skript ist Grundlage der Vorlesung “Analysis und Lineare Algebra - Mathematik für die Informatik I” gehalten von Dr. Samuel Hetterich im Wintersemester 2016/17 an der Goethe-Universität in
Frankfurt am Main.
Das Skript wird im Laufe des Semesters entwickelt - die entsprechenden Abschnitte sollten aber
in ihrer endgültigen Form jeweils vor den einzelnen Vorlesungen zur Verfügung stehen. Bei Anmerkungen, Kritik und Korrekturvorschlägen zögern Sie bitte nicht, sich an Dr. Samuel Hetterich
([email protected]) zu wenden.
Teile des vorliegenden Manuskripts sind aus den Skripten zu der gleichen Vorlesung vorangegangener
Semester von Herrn Prof. Dr. Amin Coja-Oghlan und Herrn Dr. Hartwig Bosse übernommen.
5
1
Grundbegriffe und -lagen
Wir beginnen mit einigen sehr grundlegenden mathematischen Konzepten, die zum Teil schon aus
der Schulmathematik bekannt sein sollten und in der Vorlesung häufig als “Handwerkszeug” in den
unterschiedlichen Kontexten auftauchen werden.
1.1. Mathematische Logik: Aussagen und Logische Quantoren
Unter einer mathematischen Aussage versteht man eine mathematische Formel, oder eine formallogische Aussage, der ein Wahrheitswert “wahr” oder “falsch” zugewiesen werden kann.
I Der Ausdruck “x2 − 2x + 1” ist keine mathematische Aussage sondern nur ein mathematischer
Term.
I Der Ausdruck “x2 − 2x + 1 = 0” ist eine mathematische Aussage (die je nach Wert von x wahr
oder falsch ist).
I Der Ausdruck “1 = 0” ist eine mathematische Aussage, die falsch ist.
I Der Ausdruck “4 ist eine Quadratzahl” ist eine mathematische Aussage, die richtig ist.
I Die Goldbach-Vermutung “Jede gerade natürliche Zahl größer als 2 kann als Summe zweier
Primzahlen geschrieben werden.“ ist eine mathematische Aussage von der bisher nicht klar ist,
ob sie wahr oder falsch ist.
Wie Aussagen im “normalen” Leben, muss jede mathematische Aussage ein Verb enthalten. Diese
Verben stecken oft in logischen Quantoren oder logischen Operatoren, die im Grunde Abkürzungen
für Textbausteine sind. In den obigen Beispielen steckt das Verb an einigen Stellen in dem Operator
“=”, den man als “. . . ist gleich . . .” liest.
In Tabelle 1.1 und 1.2 sind die von uns verwendeten logischen Operatoren und Quantoren aufgelistet.
Symbol
¬
∨
∨˙
∧
Name
Negation
Oder
Exklusives Oder
Und
Zugehörige Formulierung
Es gilt nicht . . .
Es gilt . . . oder . . .
Es gilt entweder . . . oder . . .
Es gilt . . . und . . .
Beispiel
¬[3 = 4]
[n ≥ 2] ∨ [n ≤ 2]
˙ ≤ 2]
[n ≥ 2]∨[n
[n ≥ 2] ∧ [n ≤ 2]
Tabelle 1.1.: Liste der verwendeten Operatoren.
7
1. Grundbegriffe und -lagen
Symbol
∀
∃
∃!
@
Name
All-Quantor
Existenz-Quantor
Zugehörige Formulierung
Für alle . . .
Es existiert (mindestens) ein . . .
Es existiert genau ein . . .
Es existiert kein . . .
Beispiel
∀n ∈ : n ≥ 0
∃n ∈ : n ≥ 5
∃!n ∈ : n2 = 25
@n ∈ : n < 0
N
N
N
N
Tabelle 1.2.: Liste der verwendeten Quantoren.
Es gelten in gewissem Sinne “Rechenregeln” für mathematische Aussagen. Dabei spielen die Begriffe
der Äquivalenz und der Implikation eine entscheidende Rolle, welche mathematische Aussagen in
Relation setzen.
Definition 1.1.1.
I Eine mathematische Aussage A impliziert eine weitere mathematische Aussage B, wenn aus
der Wahrheit der Aussage A die Wahrheit der Aussage B folgt. Man schreibt dann
A ⇒ B.
I Zwei mathematische Aussagen A und B sind äquivalent, wenn A die Aussage B impliziert und
umgekehrt auch B die Aussage A impliziert. In diesem Fall schreibt man
A ⇔ B.
(Die “Formel”: . . . genau . . . dann . . . , wenn . . . weist auf Äqivalenz in gesprochener Sprache
hin.)
Beispiel 1.1.2.
I Es ist n ≥ 5 ⇒ n ≥ 3. Umgekehrt ist dies jedoch nicht der Fall.
I Ein Dreieck ist genau dann gleichseitig, wenn alle Seiten die gleiche Länge haben.
Bemerkung 1.1.3. Interessanterweise sind die Implikationen A ⇒ B und ¬B ⇒ ¬A gleichbedeutend. Denn wenn A die Aussage B impliziert, dann kann A nicht wahr sein, wenn B nicht wahr ist.
Ergo impliziert ¬B die Aussage ¬A.
Anmerkung:
Im Fall der Äquivalenz sind die Aussagen entweder beide wahr oder beide falsch - sie sind gleichwertig. Daher erschließt sich der Name aus dem Lateinischen: aequus “gleich” und valere “wert sein”.
8
1.1. Mathematische Logik: Aussagen und Logische Quantoren
Eine schöne Veranschaulichung für den Unterschied zwischen Äquivalenz und Implikation ist diese
Eselsbrücke: "Wenn es geregnet hat, ist die Straße nass. Aber wenn die Straße nass ist, heißt das nicht
zwangsläufig, dass es geregnet hat."
“Es hat geregnet.” ⇒ “Die Straße ist nass.”
“Die Straße ist nass.” 6⇒ “Es hat geregnet.”
Aber es ist nach Bemerkung 1.1.3
¬(“Die Straße ist nass.”) ⇒ ¬(“Es hat geregnet.”)
Wie angekündigt nun die “Rechenregeln” für mathematische Aussagen.
Lemma 1.1.4. Es seien A, B, C mathematische Aussagen. Dann gelten
A∧B ⇔B∧A
(Kommutativgesetze)
A∨B ⇔B∨A
[A ∧ B] ∧ C ⇔ A ∧ [B ∧ C]
(Assoziativgesetze)
[A ∨ B] ∨ C ⇔ A ∨ [B ∨ C]
[A ∧ B] ∨ C ⇔ [A ∨ C] ∧ [B ∨ C]
(Distributivgesetze)
[A ∨ B] ∧ C ⇔ [A ∧ C] ∨ [B ∧ C]
Anmerkung:
Negiert man eine Aussage, die mit einem All- oder Existenzquantor beginnen, so taucht in der negierten Aussage stets der andere Quantor auf. Dies ist wichtig für den Beweis von Aussagen durch
Widerspruch, hier wird in der einleitenden Widerspruchsannahme die Originalaussage negiert.
9
1. Grundbegriffe und -lagen
1.2. Mengen
Wir beginnen mit dem Begriff der Menge, welche an dieser Stelle aufgrund einiger Komplikationen in
den Details nicht im strengen mathematischen Sinne sauber definiert werden kann. Für unsere Zwecke
bedienen wir uns der (naiven) Mengendefinition von Georg Cantor (1845-1918), dem Begründer der
Mengentheorie:
Eine Menge ist eine Zusammenfassung bestimmter wolunterschiedener Objekte unserer
Anschauung oder unseres Denkens, welche Elemente genannt werden, zu einem Ganzen.
Diese sehr einleuchtende und der alltäglichen Verwendung des Begriffs der Menge sehr nahe Umschreibung führt allerdings bei näherer Untersuchung zu Komplikationen.
Die Russelsche Antinomie
Definiert man Mengen als “Zusammenfassung unterscheidbarer Objekte” so ergibt sich das folgende
Paradoxon:
Die Menge der Mengen, welche sich nicht selbst enthalten.
(1.1)
Gäbe es diese Menge, und nennen wir sie A, so stellt sich die Frage:
Enthät A sich selbst?
(1.2)
I Beantworten wir Frage (1.2) mit JA so ergibt sich ein Widerspruch:
– Wir nehmen an A enthält die Menge A (weil wir die Frage (1.2) mit JA beantworten).
– Damit ist A (als Menge) keine jener erlesenen Mengen, die wir unter dem Titel “Mengen
die sich nicht selbst enthalten” in A versammelt haben.
– D.h. A ist nicht dabei, ergo: A ist (doch) nicht in A enthalten.
– Ein Widerspruch!
I Beantworten wir Frage (1.2) mit NEIN so ergibt sich ein Widerspruch:
– Wir nehmen an A enthält die Menge A nicht (weil wir die Frage (1.2) mit NEIN beantworten).
– Damit ist A (als Menge) eine jener erlesenen Mengen, die wir unter dem Titel ”Mengen
die sich nicht selbst enthalten” in A versammelt haben.
– D.h. A ist dabei, ergo: A ist (doch) in A enthalten.
– Ein Widerspruch!
10
1.2. Mengen
Wir beginnen mit Konventionen und Definitionen bezüglich der Notation grundlegender Begriffe im
Kontext von Mengen. Seien A und B Mengen.
I Mengen werden mit “{ ” und “ }” den Mengenklammern geschrieben.
I Die Schreibweise x ∈ A bedeutet, dass x ein Element der Menge A ist.
I Ferner bedeutet A ⊂ B (bzw. B ⊃ A), dass A eine Teilmenge von B ist, d.h. jedes Element
von A ist auch ein Element von B.
I Wir nennen die Mengen A und B gleich, wenn sie die gleichen Elemente enthalten.
I Eine Teilmenge A von B heißt echt, wenn A nicht gleich B ist.
I Mit A ∪ B bezeichnen wir die Vereinigung von A und B; die Menge aller Element, die in A
oder in B enthalten sind.
I Außerdem ist A ∩ B der Durchschnitt von von A und B; die Menge aller Elemente, die in A
und B enthalten sind.
I Mit A \ B, gesprochen “A ohne B”, bezeichnen wir die Menge aller Elemente von A, die nicht
Element von B sind (auch Differenz genannt).
I Schließlich ist A × B die Produktmenge von A und B, d.h. die Menge aller geordneten Paare
(x, y) mit x ∈ A und y ∈ B (auch kartesisches Produkt genannt).
I Eine Menge A heißt endlich, wenn A nur endlich viele Elemente besitzt.
Beispiel 1.2.1. Für A = {1, 2, 3} und B = {3, 4} ist
A × B = {(1, 3), (1, 4), (2, 3), (2, 4), (3, 3), (3, 4)}.
I Die Anzahl der Elemente einer endlichen Menge A wird als die Kardinalität von A bezeichnet,
und mit |A| notiert (auch Mächtigkeit genannt). Ist A nicht endlich so schreibt man |A| = ∞.
I Die leere Menge notiert mit ∅ ist diejenige Menge, die keine Elemente enthält.
I Für eine Menge A is die Potenzmenge P(A) die Menge aller Teilmengen von A inklusive der
leeren Menge ∅.
Beispiel 1.2.2. Für A = {1, 2, 3} ist
P(A) = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, {1, 2, 3}} .
I Eine Menge ist definiert, wenn angegeben ist, welche Elemente in ihr enthalten sind. Dies kann
deskriptiv - durch Angabe einer definierenden Eigenschaft (A := {n ∈ N : n ist gerade}) - und
konstruktiv - durch Aufzählung aller in ihr enthaltenen Elemente (B := {2, 4, 6, 8, 10}) - geschehen. Wenn bei Mengen mit unendlich vielen Elementen das Bildungsgesetz klar ist, können
auch unendliche Aufzählungen verwendet werden (A := {2, 4, 6, 8, . . .}).
I Es bezeichnet N = {1, 2, 3, . . .} die Menge der natürlichen Zahlen. Es bezeichnet N0 = N ∪
11
1. Grundbegriffe und -lagen
{0} die Menge der natürlichen Zahlen mit der Null.
I Es bezeichnet Z = {0, −1, 1, −2, 2, −3, 3, . . .} die Menge der ganzen Zahlen.
I Es bezeichnet Q die Menge der rationalen und R die Menge der reellen Zahlen.
In einem gewissen Sinne lässt sich mit Mengen und den Operatoren Durchschnitt und Vereinigung
(Differenz und dem kartesischen Produkt) rechnen. Es gelten die folgenden “Rechenregeln”.
Lemma 1.2.3. Für beliebige Mengen A, B und C gilt:
A∩B =B∩A
(Kommutativgesetze)
A∪B =B∪A
(A ∩ B) ∩ C = A ∩ (B ∩ C)
(Assoziativgesetze)
(A ∪ B) ∪ C = A ∪ (B ∪ C)
(A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C)
(Distributivgesetze)
(A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C)
Im Folgenden Beweis stehen die Symbole “⊂” und “⊃” für folgende Textüberschriften:
“⊂”
entspricht: “Wir Zeigen nun: linke Menge ist enthalten in rechter Menge”.
“⊃”
entspricht: “Wir Zeigen nun: rechte Menge ist enthalten in linker Menge”.
Diese Symbole sind also Abkürzungen und nicht als mathematische Symbole zu deuten.
Beweis von Lemma 1.2.3 Wir beweisen exemplarisch die erste der beiden in Lemma 1.2.3 als Distributivgesetz bezeichneten Gleichungen. Zu zeigen ist:
(A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C)
Nach der Definition von Mengengleichheit müssen wir zeigen, dass die rechte menge in der linken un
die linke in der rechten Menge enthalten ist.
12
1.2. Mengen
“⊂”: Es sei x ∈ (A ∩ B) ∪ C beliebig gewählt. Für x gilt dann:
x ∈ (A ∩ B) ∪ C
⇔
[x ∈ (A ∩ B) ∨ x ∈ C]
⇔
[(x ∈ A ∧ x ∈ B) ∨ x ∈ C]
(1.3)
Es gibt nun zwei Fälle:
Fall 1 x ∈ C: Es gilt demnach x ∈ A ∪ C und x ∈ B ∪ C.
Fall 2 x ∈
/ C: Es folgen aus (1.3) demnach sofort x ∈ A und x ∈ B. Damit gilt auch x ∈ A ∪ C und
x ∈ B ∪ C.
In beiden Fällen gilt also x ∈ A ∪ C und x ∈ B ∪ C und damit x ∈ (A ∪ C) ∩ (B ∪ C).
Da x beliebig gewählt war gilt also allgemein für alle x ∈ (A ∩ B) ∪ C, dass
x ∈ (A ∩ B) ∪ C
=⇒
x ∈ (A ∪ C) ∩ (B ∪ C).
Damit gilt nach der Defintiont von “⊂” also (A ∩ B) ∪ C ⊂ (A ∪ C) ∩ (B ∪ C).
“⊃”: Es sei x ∈ (A ∪ C) ∩ (B ∪ C) beliebig gewählt. Für x gilt dann:
x ∈ (A ∪ C)
∩
(B ∪ C)
⇔
[x ∈ (A ∪ C)
∧
x ∈ (B ∪ C)]
⇔
[(x ∈ A ∨ x ∈ C)
∧
(x ∈ B ∨ x ∈ C)]
(1.4)
Es gibt nun zwei Fälle:
Fall 1 x ∈ C: Es folgt demnach x ∈ (A ∩ B) ∪ C.
Fall 2 x ∈
/ C: Es folgen aus (1.4) demnach sofort x ∈ A und x ∈ B und damit x ∈ (A∪C)∩(B∪C).
In beiden Fällen gilt also x ∈ (A ∩ B) ∪ C
Da x beliebig gewählt war, gilt also allgemein für alle x ∈ (A ∪ C) ∩ (B ∪ C), dass
x ∈ (A ∩ B) ∪ C
⇐
x ∈ (A ∪ C) ∩ (B ∪ C).
Damit gilt nach der Definition von Teilmengen also (A ∩ B) ∪ C ⊃ (A ∪ C) ∩ (B ∪ C).
13
1. Grundbegriffe und -lagen
Lemma 1.2.4. Für eine endlichen Menge A mit Kardinalität n gilt: Die Potenzmenge P(A) hat Kardinalität 2n .
In der Mathematik lassen sich Aussagen häufig auf unterschiedliche Weisen zeigen. Für den Satz des
Pythagoras sind beispielsweise mehrere hundert verschiedene Beweise bekannt. Der Satz des Pythagoras ist damit übrigens der meistbewiesene mathematische Satz. Für Lemma 1.2.4 ist ebenfalls mehr
als ein Beweis bekannt. Zum einen kann man die Menge aller Teilmengen, also die Potenzmenge, mit
einer zweiten Menge in Eins-zu-eins-Relation bringt. Der Trick besteht darin, dass dabei jedem Element aus der Potenzmenge genau ein Element aus der zweiten Menge und tatsächlich jedem Element
aus der zweiten Menge auch ein Element der Potenzmenge zugeordnet wird. Folglich enthalten beide
Mengen also genau gleich viele Elemente. Die zweite Menge stellt sich dann schlussendlich als leicht
zu zählen heraus.
Neben diesem Beweis, der die im folgenden Abschnitt erinnerten Begriff im Zusammenhang von
Abbildungen verwendet, existiert ein weiterer Beweis über eine Beweistechnik mit dem Namen vollständige Induktion. Wir betrachten beide Beweise im Anschluss an Abschnitt 1.3.
1.3. Abbildungen
Eine Abbildung (oder auch Funktion) f : D → B, x 7→ f (x) bildet Werte aus dem Definitionsbereich
D in den Bildbereich B ab. Jedem Element x ∈ D wird durch f genau ein Bild f (x) ∈ B zugeordnet.
Gilt f (x) = y für ein y ∈ B, so nennt man x das Urbild von y. Jedes x ∈ D besitzt ein Bild f (x),
aber nicht jedes Element y ∈ B muss ein Urbild besitzen.
Dies verallgemeinert man für eine Abbildung f : D → B und eine Teilmenge Z ⊂ D ist
f (Z) = {f (z) : z ∈ Z}
die Bildmenge (manchmal auch einfach das Bild) von Z unter f . Umgekehrt bezeichnen wir für
C ⊂ B mit
f −1 (C) = {x ∈ D : f (x) ∈ C}
die Urbildmenge (manchmal auch einfach das Urbild) von C.
Definition 1.3.1. Eine Abbildung heißt
I injektiv, wenn je zwei verschiedene x, x0 ∈ D auch verschiedene Bilder besitzen, d.h. wenn gilt:
x 6= x0 =⇒ f (x) 6= f (x0 )
14
1.3. Abbildungen
I surjektiv, wenn jeder Bildpunkt y ∈ B tatsächlich auch ein Urbild x ∈ D besitzt mit y = f (x),
d.h. wenn gilt:
∀ y ∈ B ∃ x ∈ D : f (x) = y
I bijektiv, wenn f injektiv und surjektiv ist.
Injektiv: Die Definition für “injektiv” kann man sich anschaulich vorstellen als: Die Definitionsmenge
D wird in die Bildmenge “injiziert”, d.h. man findet für jedes x ∈ D einen eigenen Funktionswert
y ∈ B vor, “der einmal x war”.
Surjektiv: Eine surjektive Abbildung dagegen “deckt die ganze Bildmenge ab”, jeder Bildpunkt wird
bei einer surjektiven Abbildung auch tatsächlich angenommen. Dies ist nicht selbstverständlich: Das
Wort “Bildmenge” klingt zwar wie “die Sammlung aller Bilder f (x)”. Tatsächlich kann die Bildmenge
aber auch einfach nur eine “grobe Schätzung” sein, wie im Beispiel g : R → R mit g(x) := x2 . Dabei
sind die Werte von g stets nicht-negativ, d.h. man “erreicht” mit g nicht die ganze Bildmenge R.
Bijektiv: Eine bijektive Abbildung stellt eine Eins-zu-Eins-Relation zwischen Definitionsmenge D
und Bildmenge B her. D.h. jedes x ∈ D hat zum einen “sein eigenes(!)” Bild f (x) ∈ B, aber auch
jeder Punkt y 0 ∈ B hat genau(!) ein Urbild x0 ∈ D. Daraus folgt: Sind D und B endliche Mengen
und sind sie über eine bijektive Abbildung f : D → B verknüpft, so haben D und B gleich viele
Elemente. Der Begriff einer bijektiven Abbildung ist in der Mathematik also beim Zählen von Dingen
von zentraler Bedeutung.
Falls f eine bijektive Abbildung ist, so hat für jedes y ∈ B die Menge f −1 ({y}) genau ein Element
x ∈ D und wir schreiben einfach x = f −1 (y). Die Abbildung f −1 : B → D, y 7→ f −1 (y) ist in
diesem Fall ebenfalls bijektiv und heißt die Umkehrabbildung von f .
Für eine Menge B und eine Zahl k ∈ N bezeichnen wir mit B k die Menge aller Abbildungen f :
{1, . . . , k} → B. Anstelle der Notation f : D → B, x 7→ f (x) schreiben wir mitunter etwas lax
(f (x))x∈D . Diese Notation wird häufig verwendet, wenn D = {1, 2, 3, . . . , k} für eine Zahl k ∈ N.
Insbesondere schreiben wir die Elemente f der Menge B k als (f (1), . . . , f (k)); sie werden auch kTupel (und im Fall k = 2 Paare und im Fall k = 3 Tripel) genannt. Allgemeiner bezeichnen wir
mit B D die Menge aller Abbildungen f : D → B. Ist (Ai )i∈I eine Abbildung, die Elementen einer
Menge I Teilmengen Ai einer Menge A zuordnet, so bezeichnet
[
Ai = {x ∈ A : es gibt ein i ∈ I mit x ∈ Ai }
i∈I
15
1. Grundbegriffe und -lagen
die Vereinigung aller Mengen Ai . Analog ist
\
Ai = {x ∈ A : für alle i ∈ I gilt x ∈ Ai }
i∈I
der Durchschnitt aller Ai .
Sei f : A → R eine Abbildung von einer endlichen Menge A 6= ∅ in die reellen Zahlen. Dann existiert
eine Bijektion g : {1, . . . , k} → A, wobei k ∈ N. Wir definieren die Summe
X
f (a) = f (g(1)) + f (g(2)) + . . . + f (g(k))
a∈A
und das Produkt
Y
f (a) = f (g(1)) · f (g(2)) · · · f (g(k)).
a∈A
Falls A die leere Menge ist, interpretieren wir die Summe als 0 und das Produkt als 1.
Wir benötigen die Beweismethode der Induktion. Die Grundlage des Induktionsprinzip ist folgende
Tatsache.
Jede nicht-leere Menge natürlicher Zahlen enthält eine kleinste Zahl.
Aus dieser Tatsache folgt
Lemma 1.3.2 (“Induktionsprinzip”). Angenommen eine Menge A ⊂ N hat die beiden folgenden
Eigenschaften.
i. 1 ∈ A
ii. Wenn 1, . . . , n ∈ A, dann gilt auch n + 1 ∈ A.
Dann gilt A = N.
Beweis. Angenommen A 6= N. Dann ist die Menge B = N\A nicht leer. Folglich gibt es eine kleinste
Zahl x ∈ B. Aufgrund von i. ist x 6= 1. Ferner gilt 1, . . . , x − 1 ∈ A, weil x ja die kleinste Zahl in B
ist. Nach ii. gilt also x ∈ A, im Widerspruch zu unserer Annahme, dass x ∈ B.
Das Induktionsprinzip ermöglicht es uns, Beweise nach folgendem Schema zu führen.
i. Zeige, dass die Behauptung für n = 1 stimmt.
ii. Weise ferner nach, dass die Behauptung für n + 1 gilt, wenn sie für 1, . . . , n gilt.
16
1.4. Beweis von Lemma 1.2.4
Dann folgt die Behauptung für alle n ∈ N. Als Beispiel zeigen wir die gaußsche Summenformel (auch
kleiner Gauß genannt).
Lemma 1.3.3 (“Kleiner Gauß”). Die Summe der ersten n natürlichen Zahlen ist
1 + 2 + ... + n =
n
X
i=
i=1
n(n + 1)
.
2
Beweis. Wir führen die Induktion über n.
Induktionsverankerung: Im Fall n = 1 ist die rechte Seite
1(1 + 1)
=1
2
was tatsächlich der Summe der ersten 1 vielen natürlichen Zahlen entspricht.
Induktionsannahme: Wir nehmen als Induktionsvoraussetzung nun an, dass die Formel für n ∈ N
gilt, also dass
n
X
i=
i=1
n(n + 1)
.
2
(1.5)
Induktionsschluss: Für den Induktionsschluss berechnen wir nun die Summe der ersten n + 1 vielen
natürlichen Zahlen
n+1
X
i = (n + 1) +
i=1
n
X
i
i=1
= (n + 1) +
=
n(n + 1)
2
[nach Induktionsannahme (1.5)]
(n + 1)((n + 1) + 1)
2n + 2 + n2 + n
=
2
2
wie behauptet.
1.4. Beweis von Lemma 1.2.4
Wie schon angekündigt beweisen wir Lemma 1.2.4 auf zwei unterschiedliche Wege.
Beweis von Lemma 1.2.4 - Variante 1
17
1. Grundbegriffe und -lagen
Sei A eine Menge mit n Elementen. Sei Wn die Menge aller “Worte” bestehend aus den Buchstaben
i und d mit genau n Buchstaben.
Es sei f eine bijektive Abbildung der Elemente in A in die Menge der natürlichen Zahlen 1 bis n.
Diese Abbildung ordnet die Elemente in A. Für jedes a ∈ A existiert also eine eindeutiges 1 ≤ j ≤ n
sodass f (a) = j.
Sei g eine Abbildung die jedem B ∈ P(A) das Wort w ∈ Wn zuordnet, sodass für alle a ∈ A gilt
I der f (a)-te Buchstabe von w ist i, wenn a ∈ B und
I der f (a)-te Buchstabe von w ist d, wenn a ∈
/ B.
Diese Abbildung ist bijektiv.
I Surjektivität
Zu zeigen: Für jedes Wort w ∈ Wn lässt sich eine Menge B ∈ P(A) finden, sodass g(B) = w.
∀ w ∈ Wn ∃ B ∈ P(A) : g(B) = w.
Sei Q die Menge der Positionen von w, an welchen ein i steht. Sei B = f −1 (Q). Es ist nun der
f (a)-te Buchstabe von w ein i, wenn a ∈ B und ein d, wenn a ∈
/ B. Demnach wird B von g
auf w abgebildet.
I Injektivität
Zu zeigen: Es gibt keine zwei verschiedenen Mengen B, B 0 ∈ P(A) mit g(B) = g(B 0 ).
@B, B 0 ∈ P(A) : [B 6= B 0 ∧ g(B) = g(B 0 )].
Angenommen, es gibt zwei verschiedene Mengen B, B 0 ∈ P(A) sodass g(B) = g(B 0 ). Dann
gibt es ohne Beschränkung der Allgemeinheit ein Element a ∈ B, dass nicht in B 0 enthalten
ist (sonst wäre B eine Teilmenge von B 0 - aber beide Mengen sind verschieden und somit gäbe
es dann ein Element a ∈ B 0 , dass nicht in B enthalten ist - Umbenennung der Mengen liefert die
Behauptung). Dann ist aber der f (a)-te Buchstabe von g(B) ein i und der f (a)-te Buchstabe
von g(B 0 ) ein d und somit ist g(B) 6= g(B 0 ) - ein Widerspruch zu unserer Annahme.
Wie wir schon beobachteten, haben zwei endliche Mengen genau dann die gleiche Kardinalität, wenn
es eine bijektive Abbildung zwischen ihnen gibt.
Wir müssen also nur noch zählen, wie viele Wörter bestehend aus zwei Buchstaben und von der Länge
n es gibt. Für jede Position gibt es 2 Möglichkeiten: Entweder steht dort ein i oder ein d. Insgesamt
gibt es also 2n unterschiedliche Wörter und somit hat die Potenzmenge einer endlichen Menge mit
Kardinalität n selbst Kardinalität 2n .
Beweis von Lemma 1.2.4 - Variante 2 Wir führen die Induktion über n.
18
1.4. Beweis von Lemma 1.2.4
Induktionsverankerung: Im Fall n = 1 ist die Aussage einfach zu Prüfen. Die Potenzmenge besteht
in diesem Fall aus den beiden Mengen ∅ und A selbst.
Induktionsannahme: Wir nehmen als Induktionsvoraussetzung an, dass die Potenzmenge einer Menge mit n Elementen Kardinalität 2n habe.
Induktionsschluss: Für den Induktionsschluss nehmen wir an A habe n + 1 Elemente. Nun zeichnen wir ein Element a ∈ A aus und betrachten die Menge A0 = A \ {a}. Es gilt |A0 | = n. Nach
Induktionsvoraussetzung ist |P(A0 )| = 2n .
Wir beobachten, dass jede Teilmenge B von A entweder eine Teilmenge von A0 ist oder das Element
a enthält (in diesem Fall ist aber B \ {a} eine Teilmenge von A0 ). Also können wir jeder Teilmenge
B ⊂ A genau eine Teilmenge von A0 zuordnen, nämlich B \ {a}. Dabei wird jede Teilmenge von
A0 genau zwei Teilmengen von A zugeordnet. Es gibt also zweimal soviele Mengen in P(A) als in
P(A0 ). Demnach ist
|P(A)| = |P(A0 )| · 2 = 2n · 2 = 2n+1 .
Anmerkung:
Mit der Formulierung ohne Beschränkung der Allgemeinheit (o. B. d. A.) wird zum Ausdruck gebracht, dass eine Einschränkung (z. B. des Wertebereichs einer Variablen) nur zur Vereinfachung der
Beweisführung vorausgesetzt wird (insbesondere zur Verringerung der Schreibarbeit), ohne dass die
Gültigkeit der im Anschluss getroffenen Aussagen in Bezug auf die Allgemeinheit darunter leidet.
Der Beweis wird nur für einen von mehreren möglichen Fällen geführt. Dies geschieht unter der Bedingung, dass die anderen Fälle in analoger Weise bewiesen werden können (z. B. bei Symmetrie).
Durch o. B. d. A. können auch triviale Sonderfälle ausgeschlossen werden.
Abschließend noch ein Wort zu Beweistechniken. Mathematische Aussagen zu beweisen erfordert
neben Fleiß und Sorgfalt in der Darstellung ein hohes Maß an Kreativität. In der Beschäftigung mit
mathematischen Beweisen wird man feststellen, dass es allerdings Prinzipien gibt, die immer wieder
angewendet werden. Wir haben schon das Induktionsprinzip kennen gelernt. An dieser Stelle noch
der Hinweis auf zwei weitere Beweisprinzipien, die zunächst ähnlich aussehen, aber zu unterscheiden
sind und schon unbemerkt in obigen Beweisen auftauchten.
I Beweis durch Kontraposition Das logische Prinzip hinter diesem Beweisprinzip haben wir
schon in Bemerkung 1.1.3 beobachtet. Um zu zeigen, dass A ⇒ B kann man auch zeigen, dass
¬B ⇒ ¬A.
19
1. Grundbegriffe und -lagen
Beispiel 1.4.1. Sei n eine gerade Quadratzahl, dann ist
√
n ebenfalls gerade.
Beweis. Wir möchten zeigen:
√
“n ist gerade Quadratzahl” ⇒ “ n ist gerade”.
Die Kontraposition ist
√
¬(“ n ist gerade”) ⇒ ¬(“n ist gerade Quadratzahl” )
also
√
“ n ist ungerade” ⇒ “n ist ungerade”
Sei also
√
n eine ungerade, natürliche Zahl, also gibt es ein k1 ∈ N sodass
√
n = 2 · k1 + 1.
Dann ist
√
n = ( n)2
= (2k1 + 1)2
= 4k12 + 4k + 1
= 2(2k12 + 2k1 ) + 1
Setzte k2 = 2k12 + 2k1 . Dann ist n = 2k2 + 1 also ungerade, was zu zeigen war.
I Beweis durch Widerspruch Dabei möchte man die Wahrheit einer Aussage A beweisen und
nimmt die Negation von A, nämlich ¬A als wahr an und führt dies über logische Schlüsse zu
einem Widerspruch. Also kann ¬A nicht wahr sein, also muss A wahr sein.
Beispiel 1.4.2. Ein Beispiel findet man in der Variante 1 des Beweises von Lemma 1.2.4: Nachweis der Injektivität von g.
20
2
Gruppen - Abstraktes Rechnen mit einem Operator
Eine Gruppe ist die mathematische Abstraktion von Rechnen mit einer einzelnen umkehrbaren Operation wie zum Beispiel die “Addition in Z” oder die “Multiplikation in Q \ {0}”.
Eine Gruppe (G, ◦) besteht stets aus einer Menge (oft “G” genannt) auf der mit einer einzelnen Operation (oft mit “◦” bezeichnet) gerechnet werden kann. Ein typisches Beispiel ist die Gruppe (Z, +)
der Ganzen Zahlen zusammen mit der Addition.
2.1. Axiomatische Definition einer Gruppe
Gruppen mittels Gruppen-Axiome einzuführen liefert eine sehr knappe Formulierung für eine Menge
in der man lineare Gleichungen lösen kann:
Definition 2.1.1. Eine Gruppe (G, ◦) ist ein Tupel aus
I einer Menge G und
I einer Verknüpfung ◦ : G × G → G,
so dass gelten:
G1.
a◦b∈G
∀a, b ∈ G
G2.
a ◦ (b ◦ c) = (a ◦ b) ◦ c
G3.
∃ e ∈ G : ∀a ∈ G : e ◦ a = a
(Neutrales Element)
G4.
∀a ∈ G : ∃ ā ∈ G : ā ◦ a = e
(Inverses Element)
∀a, b, c ∈ G
(Abgeschlossenheit)
(Assoziativität)
Anmerkung:
Das Neutrale Element e ist dasjenige Element e ∈ G, das jedes Element a ∈ G unverändert lässt,
wenn man e mit a verknüpft. In einer Gruppe mit einer additiven Verknüpfung übernimmt e die Rolle
der Null, in einer Gruppe mit einer multiplikativen Verknüpfung übernimmt e die Rolle der 1.
Beispiel 2.1.2. Das Tupel (Z, +) aus der Menge Z zusammen mit der gewöhnlichen Addition bildet
eine Gruppe:
21
2. Gruppen - Abstraktes Rechnen mit einem Operator
G1 Für alle m, n ∈ Z gilt m + n ∈ Z.
G2 Für alle m, n, k ∈ Z gilt m + (n + k) = (m + n) + k.
G3 Das Neutrale Element ist hier die Zahl e = 0, sie erfüllt: 0 + x = x für alle x ∈ Z.
G4 Das Inverse zu einer Zahl m ∈ Z ist die zugehörige Zahl −m mit entgegengesetztem Vorzeichen.
Beispiel 2.1.3. Die Menge Q\{0} bildet zusammen mit der gewöhnlichen Multiplikation eine Gruppe:
G1 Für alle x, y ∈ Q \ {0} gilt x · y ∈ Q \ {0}.
G2 Für alle x, y, z ∈ Z gilt x · (y · z) = (x · y) · z.
G3 Das Neutrale Element ist hier die Zahl e = 1, sie erfüllt: 1 · x = x für alle x ∈ Q \ {0}.
G4 Das Inverse zu einer Zahl x ∈ Q \ {0} ist die zugehörige Zahl
1
x
∈ Q \ {0}.
Für das nächste Beispiel brauchen wir die folgenden Definitionen.
Definition 2.1.4. Für eine Zahl n ∈ N sei Restj (n) der Rest, der beim Teilen von n durch j ∈ N
entsteht: Restj (n) ist definiert als die kleinste (nicht-negative) Zahl r ∈ N0 für die es ein k ∈ N0 gibt
mit n = j · k + r.
Definition 2.1.5. Für Zahlen n, m, j ∈ N sei
n j m :=Restj (n · m)
n ⊕j m :=Restj (n + m).
Definition 2.1.6. Für eine Zahl j ∈ N seien die Mengen
Zj :={0, 1, 2 . . . , j − 1}
Z∗j :={k ∈ N : k < j und ggT(k, j) = 1}
definiert, wobei ggT(k, j) der größte gemeinsame Teiler von k und j sei.
Beispiel 2.1.7. Die Menge (Z∗5 , 5 ) bildet eine Gruppe (wobei Z∗5 = {1, 2, 3, 4}):
G1 Für alle a, b ∈ {1, 2, 3, 4} gilt a 5 b ∈ {1, 2, 3, 4}, dies kann man der unten angefügten
Verknüpfungstabelle entnehmen.
G2 Muss man nachrechnen - geht auf die Assozitivität der natürlichen Zahlen zurück.
G3 Das Neutrale Element ist hier die Zahl e = 1, sie erfüllt: 1 5 b = b für alle b ∈ {1, 2, 3, 4}.
22
2.2. Rechenregeln in Gruppen
b=
a 5 b
a= 1
2
3
4
1
1
2
3
4
2
2
4
1
3
3
3
1
4
2
4
4
3
2
1
Abbildung 2.1.: Verknüpfungstabelle der Gruppe aus Beispiel 2.1.7
G4 Das Inverse zu den Zahlen b ∈ {1, 2, 3, 4} liest man aus der Verknüpfungstabelle ab:
b= 1 2 3 4
Inverses b = 1 3 2 4
2.2. Rechenregeln in Gruppen
In jeder Gruppe gelten die folgenden Regeln:
Lemma 2.2.1. Es sei (G, ◦) eine Gruppe.
i. Es gibt in (G, ◦) genau ein neutrales Element e.
ii. Es gilt e ◦ a = a ◦ e für alle a ∈ G.
iii. Für jedes a ∈ G gibt es genau ein Inverses a.
iv. Es gilt a ◦ a = a ◦ a für alle a ∈ G.
v. Das Inverse zu a ist a, d.h. es gilt (a) = a für alle a ∈ G.
Beweis. Exemplarisch führen wir hier die Beweise für i. und ii. sowie iv..
I Zu iv. Es sei a ∈ G beliebig.
Nach Axiom G4 hat a ein Inverses a mit a ◦ a = e. Das Element a hat wiederum ein Inverses
e
a := (a) Es gilt dann für a ◦ a:
G3
G4
G2
a ◦ a = e ◦ (a ◦ a) = (e
a ◦ a) ◦ (a ◦ a) = e
a◦
G4
G3
G4
(a
◦ a}) ◦ a = e
a ◦ (e ◦ a) = e
a◦a = e
| {z
e
Es gilt also a ◦ a = e. Wegen a ◦ a = e gilt also a ◦ a = a ◦ a.
I Zu ii. Es sei a ∈ G beliebig.
23
2. Gruppen - Abstraktes Rechnen mit einem Operator
Nach Axiom G2 hat a ein Inverses a mit a ◦ a = e. Es gilt dann:
G3
G2
iv.
a ◦ e = a ◦ (a ◦ a) = (a ◦ a) ◦a = e ◦ a
| {z }
=e
I Zu i. Es seien e, ee ∈ G zwei neutrale Elemente, d.h. sie erfüllen
e◦a=a
ee ◦ a = a
(2.1)
ii.
G4
für alle a ∈ G. Dann gilt ee ◦ e = e nach (2.1) für a = e, sowie ee ◦ e = e ◦ ee = ee. Insgesamt gilt
also ee = e.
2.2.1. Lösen von Gleichungen
Die Gruppe ist die kleinste Recheneinheit der Mathematik, in der lineare Gleichungen stets lösbar
sind:
In einer Gruppe (G, ◦) sind Gleichungen der Form a ◦ x = b bei gegebenem a, b ∈ G
lösbar mit einem x ∈ G.
Um dies garantieren zu können, muss der Vorgang “a mit x mittels ◦ verknüpfen” rückgängig zu
machen sein. Rechnet man zum Beispiel in Q \ {0} mit der Verknüpfung · so kann man die Gleichung
2 · x = 7 durch Multiplikation mit 1/2 bzw. 0, 5 ∈ Q wie folgt lösen:
2· x = 7
⇔ (0, 5)· 2 · x = 0, 5 · 7
⇔
x = 3, 5
Die Zahl 0, 5 ∈ Q \ {0} nennt man das “multiplikative Inverse zu 2”. Die Zahl 0, 5 kann also das
ungeschehen machen, was die Multiplikation mit 2 “angerichtet hat”, denn es gilt: 0, 5 · 2 = 1 und die
Zahl 1 benimmt sich bei der Multiplikation neutral.
Lemma 2.2.2. Es sei (G, ◦) eine Gruppe und a, b ∈ G.
Die Gleichung der Form a ◦ x = b hat stets eine Lösung x ∈ G, nämlich x = a ◦ b.
Beweis. In der Gruppe G gibt es ein zu a inverses Element a. Verknüpfung mit a “entfernt ” a auf
24
2.2. Rechenregeln in Gruppen
der linken Seite der Gleichung. Beachten Sie, dass beim Umformen der Gleichung a ◦ x = b alle
Gruppenaxiome G1 bis G4 verwendet werden müssen:
a◦ x
⇔
a◦
(a ◦ x) = a ◦ b
G2
⇔ (a ◦ a) ◦ x
G4
⇔
= b
e
G3
⇔
= a◦b
Assoziativität: G2
◦ x
= a◦b
Eigenschaften des Inversen: G4
x
= a◦b
Eigenschaften des Neutralen: G3
Dass die Lösung x = a ◦ b wieder in G ist, liegt an Axiom G1.
Beispiel 2.2.3 (Rechnen in der Gruppe (Q \ {0}, ·)).
Eine Gleichung der Form a · x = b mit a, b ∈ Q \ {0} hat immer eine Lösung x =
Hier ist
1
a
das Multiplikativ-Inverse zu a ∈ Q \ {0}, das Inverse
1
a
1
a
· b.
zu bilden ist immer möglich, da
a 6= 0 gilt.
Beispiel 2.2.4 (Rechnen in der Gruppe (Z, +)).
Eine Gleichung der Form a + x = b mit a, b ∈ Z hat immer eine Lösung x = (−a) + b.
Hier ist −a das Additiv-Inverse zu a ∈ Z.
Beispiel 2.2.5 (Rechnen in (N0 , +)).
Das Paar (N0 , +) ist keine Gruppe. Es gibt also Gleichungen der Form a + x = b mit a, b ∈ N0 , die
keine Lösung in N0 besitzen:
Ein Beispiel für eine solche Gleichung ist 5 + x = 0 die “Lösung” x = −5 liegt nicht in N0 , d.h. man
verlässt beim Lösen der Gleichung die vorgegbene Menge.
Beispiel 2.2.6 (Rechnen in (Q, ·)).
Das Paar (Q, ·) ist keine Gruppe. Es gibt also Gleichungen der Form a · x = b mit a, b ∈ Q, die keine
Lösung in N besitzen:
Ein Beispiel für eine solche Gleichung ist 0 · x = 5, diese Gleichung besitzt keine Lösung in Q.
25
2. Gruppen - Abstraktes Rechnen mit einem Operator
2.2.2. Abelsche Gruppen
Für die meisten bisher betrachteten Gruppen ist die Verknüpfungsreihenfolge in a ◦ b gleichgültig. Das
gilt aber nicht allgemein für Grupppen:
Definition 2.2.7. Eine Gruppe (G, ◦) heißt abelsch, wenn zusätzlich zu den Gruppenaxiomen G1 bis
G4 gilt:
GS.
a◦b=b◦a
∀a, b ∈ G
(Kommutativität (Symmetrie))
Abelsche Gruppen sind beispielsweise (Z, +) und (Q \ {0}, ·) (s. Beispiel 2.1.2, 2.1.3 und 2.1.7).
Beispiel 2.2.8. Die Menge O(n) der orthogonalen Matrizen (s. Kapitel “Lineare Abbildungen”) bildet zusammen mit der Matrix-Multiplikation eine nicht-abelsche Gruppe.
2.3. Isomorphe Gruppen
Es ist möglich, ein und dieselbe Gruppe auf verschiedene Arten und Weisen zu notieren:
Die Gruppe ({0, 1}, ⊕2 ) kann man abstrakt auffassen als eine Gruppe mit zwei Elementen, dem neutralen Element e = 0 und einem weiteren Element x = 1 mit den Rechenregeln e ⊕2 x = x ⊕2 e = x
und e ⊕2 e = x ⊕2 x = e.
Beispiel 2.3.1. Augenscheinlich sind die Gruppen
I ({0, 1}, ⊕2 )
I ({1, 2}, 3 )
˙
I ({Falsch, Wahr}, ∨)
“strukturell gleich”, wenn man die jeweiligen Verknüpfungstabelle anschaut:
b=
a ⊕2 b
26
0 1
b=
a 3 b
1 2
a= 0 0 1
a= 1 1 2
1 1 0
2 2 1
b=
˙
a∨b
F
W
a= F
F
W
W W F
2.3. Isomorphe Gruppen
Ersetzt man in einer Gleichung a ⊕2 b = c in ({0, 1}, ⊕2 ) . . .
I jede 0 durch F,
I jede 1 durch W
I und ⊕2 durch ∨˙
so erhält man wieder eine korrekte Gleichung.
Diesen Umstand wollen wir mathematisch formalisieren. Um zwei Gruppen (G, ◦) und (H, ∗), die
prinzipiell gleich (also “isomorph1 ”) sind als solche auszuweisen, muss angegeben werden, welche
Elemente der beiden Gruppen einander entsprechen:
Hierzu verwendent man eine bijektive Abbildung, d.h. eine Abbildung f : G → H, die jedem g ∈ G
ein h ∈ H zuordnet, so dass
I je zwei verschiedene g, ge ∈ G auch verschiedene Bilder f (g) 6= f (e
g ) ∈ H haben und
I es für jedes h ∈ H ein g ∈ G gibt mit f (g) = h.
Mit dieser Zuordnung f wird nun einem g ∈ G sein Gegenstück h := f (g) in H zugeordnet, so dass
sich h in (H, ∗) genauso verhält wie g sich in (G, ◦) verhält.
Definition 2.3.2 (Isomorphe Gruppen). Zwei Gruppen (G, ◦) und (H, ∗) heißen isomorph,
wenn es eine bijektive Abbildung f : G → H gibt, so dass gilt:
f (g) ∗ f (e
g ) = f (g ◦ ge) ∀g, ge ∈ G
Die Gleichung in der Definition lässt sich wie folgt lesen:
Für das Element g ◦ ge = c ∈ G müssen die zu g, ge und c zugeordneten Elemente f (g), f (e
g ), f (c) ∈ H
folgende Identität erfüllen:
f (g) ∗ f (e
g ) = f (c)
Kurz gesagt, f (g), f (e
g ) verhalten sich innerhalb von H = f (G) wie g, ge innerhalb von G. Es gilt:
g ◦ ge = c
⇒
f (g) ∗ f (e
g ) = f (c)
Beispiel 2.3.3. Die Gruppen ({0, 1}, ⊕2 ) und ({1, 2}, 3 ) sind isomorph.
1
“gleich geformt”
27
2. Gruppen - Abstraktes Rechnen mit einem Operator
Mit f : {0, 1} → {1, 2} definiert durch f (0) := 1 und f (1) := 2 erhält man:
a ⊕2 b = c für a, b, c ∈ {0, 1}
=⇒
f (a) 3 f (b) = f (c)
0 ⊕2 0 = 0
=⇒
1 3 1
=
1
0 ⊕2 1 = 1
=⇒
1 3 2
=
2
1 ⊕2 0 = 1
=⇒
2 3 1
=
2
1 ⊕2 1 = 0
=⇒
2 3 |{z}
2
= |{z}
1
|{z}
f (1)
f (1)
f (0)
2.4. Die Gruppenordnung
Im Folgenden werden wir zeigen, was beim mehrfachen Verknüpfen ein und desselben Gruppenelements passiert. Interessanterweise kommt man in einer abelschen Gruppe immer wieder am neutralen
Element “vorbei”. Um dies zu zeigen benötigen wir die Eigenschaften einer Funktion fa : G → G, die
ein Element x ∈ G einfach mit einem (festen!) Element a verknüpft: fa (x) = a ◦ x.Diese Abbildung
wird Translation um das Element a genannt.
Für eine Gruppe (G, ◦) kann man die Mehrfach-Verknüfung eines Elementes mit an abkürzen:
Definition 2.4.1. Für ein Element a ∈ G einer Gruppe (G, ◦) und eine natürliche Zahl n ∈ N ist
definiert:
an = a
| ◦ a ◦{z. . . ◦ a} ◦ e
n−oft
Es gilt also
a0 = e , a1 = a , a2 = a ◦ a etc.
Die Gruppenordnung zählt die Elemente der Gruppe:
Definition 2.4.2 (Ordnung einer Gruppe). Für eine Gruppe (G, ◦) ist die Anzahl |G| der Elemente in
G die Ordnung von G.
Hat G
endlich
unendlich
viele Elemente,
so nennt man (G, ◦) eine endliche Gruppe.
so sagt man: Die Gruppenordnung von (G, ◦) ist ∞.
Satz 2.4.3. Es sei (G, ◦) eine endliche abelsche Gruppe mit neutralem Element e.
Für alle a ∈ G gilt dann: a|G| = e
28
(|G| = Anzahl der Elemente von G).
2.4. Die Gruppenordnung
Um diesen Satz zu beweisen benötigen wir das folgende Lemma:
Lemma 2.4.4. Es sei (G, ◦) eine Gruppe und a ∈ G sei ein fest gewähltes Element. Dann ist die
Abbildung fa : G → G mit fa (x) := a ◦ x bijektiv.
Beweis.
I Surjektivität: Zu zeigen ist: für jedes y ∈ G gibt es ein x ∈ G mit fa (x) = y.
G1
Sei y ∈ G beliebig. Wähle x := a ◦ y, dann gilt: fa (x) = a ◦ (a ◦ y) = (a ◦ a) ◦ y = y.
I Injektivität: Zu zeigen ist: für jedes Paar x, x0 ∈ G mit x 6= x0 gilt: fa (x) 6= fa (e
x0 ).
Es seien x, x0 ∈ G beliebig mit x 6= x0 . Annahme es gelte: fa (x) = fa (x0 ). Dann gilt:
fa (x) = fa (x0 ) ⇔
a◦x
=
a ◦ x0
a ◦ (a ◦ x)
=
a ◦ (a ◦ x0 )
⇔ ( a ◦ a) ◦ x
=
( a ◦ a) ◦ x0 ⇔
⇔
|a ◦
x = x0
Die letzte Gleichung ist ein Widerspruch zu x 6= x0 .
Nun können wir mit Lemma 2.4.4 den Satz 2.4.3 beweisen:
Beweis. (Satz 2.4.3) Es sei (G, ◦) eine endliche abelsche Gruppe mit n := |G| Elementen g1 , . . . , gn ∈
G. Weiter sei a ∈ G beliebig (d.h. es gilt a = gi für ein i).
Da fa : G → G mit fa (x) = a ◦ x nach Lemma 2.4.4 eine bijektive Abbildung ist, gilt:
G = {g1 , g2 , . . . , gn }
= {a ◦ g1 , a ◦ g2 , . . . , a ◦ gn }
Die Gruppe (G, ◦) ist abelsch. Bildet man also die Verknüpfung aller Elemente in G, so spielt die
Reihenfolge keine Rolle. Es gilt also
Verknüpfung aller gj sortiert
z
}|
{
g1 ◦ · · · ◦ gn
Verknüpfung aller gj “durcheinander”
z
}|
{
= (a ◦ g1 ) ◦ (a ◦ g2 ) ◦ · · · ◦ (a ◦ gn )
Da (G, ◦) abelsch ist, dürfen wir umsortieren, es gilt zum Beispiel a◦Rg1 ◦ a ◦ g2 = g1 ◦ a ◦ a ◦ g2 .
Wiederholt man dies immer wieder, so erhält man aus der letzen Gleichung schließlich:
g1 ◦ · · · ◦ gn
= g1 ◦ · · · ◦ gn ◦ a
| ◦ a ◦{z· · · ◦ a}
g1 ◦ · · · ◦ gn
= g1 ◦ · · · ◦ gn ◦ an
n Stück
Nun “kürzt” man durch sukzessives Multiplizieren auf beiden Gleichungsseiten mit ḡ1 , ḡ2 , . . . , ḡn .
29
2. Gruppen - Abstraktes Rechnen mit einem Operator
Dieses Kürzen liefert: e = an bzw. a|G| = e.
Eine zweite Möglichkeit dies einzusehen, folgt aus G1, der Abgeschlossenheit der Gruppenoperation.
Die Verknüpfung aller Gruppenelemente ist wieder in G, es gibt also ein g 0 ∈ G mit g 0 = g1 ◦ · · · ◦ gn .
Somit ist
g1 ◦ · · · ◦ gn = g1 ◦ · · · ◦ gn ◦ an
⇔
g 0 = g 0 ◦ an
⇔
ḡ 0 ◦ g 0 = ḡ 0 ◦ g 0 ◦ an
⇔
e = e ◦ an
⇔
e = an
was zu zeigen war.
Beispiel 2.4.5 (Lemma 2.4.4). Dass die Abbildung fa : x 7→ a ◦ x bijektiv ist, hat zur Folge, dass die
Verknüpungstabelle einer Gruppe (G, ◦) immer ein kleines “Sudoku” ist:
In jeder Zeile (und in jeder Spalte) kommt jedes Element aus G genau einmal vor.
Dies veranschaulichen wir am Beispiel der Gruppe (Z∗9 , 9 ). Es gilt für a := 5:
g
Element
1 2 4 5 7 8
f5 (g) = 5 9 g
Bild
5 1 2 7 8 4 ← Jedes Element taucht genau einmal auf.
Hier ist die zweite Zeile “f5 (g)” eine Zeile aus der Verknüpfungstabelle von 9 :
b=
a 9 b
1
2
4
5
7
8
a=
1
1
2
4
5
7
8
2
2
4
8
1
5
7
4
4
8
7
2
1
5
5
5
1
2
7
8
4
7
7
5
1
8
4
2
8
8
7
5
4
2
1
Beispiel 2.4.6 (Satz 2.4.3). Wir untersuchen die Aussage a|G| = e am Beispiel der Gruppe (Z∗5 , 5 ).
30
2.4. Die Gruppenordnung
Hier gelten Z∗5 = {1, 2, 3, 4} und für zwei Elemente a, b ∈ Z∗5 ist a 5 b := Rest5 (a · b), d.h a 5 b
ist der Rest der beim Teilen von a · b durch 5 entsteht .
Das Paar (Z∗5 , 5 ) bildet eine Gruppe, dies wurde in Beispiel 2.1.7 gezeigt.
Hier ist e = 1. Weiter gilt |G| = 4 wegen Z∗5 = {1, 2, 3, 4}. Wir untersuchen also nun a4 für a ∈
{1, 2, 3, 4}:
14 = Rest5 (14 ) = Rest5 (1)
= 1
24
34
= Rest5
(24 )
= Rest5 (16)
= 1
= Rest5
(34 )
= Rest5 (81)
= 1
44 = Rest5 (44 ) = Rest5 (256) = 1
Berechnet man alle Werte von 2k in Z∗5 durch sukzessive Multiplikation “5 2”, so erhält man nach
und nach alle Elemente aus Z∗5 : Man startet bei 1 = 20 und nach einem Zyklus von 4 = |Z∗5 |-oft
1
20
2
5
−→
2
21
2
5
−→
4
22
2
5
−→
3
23
= Rest(2 · 3, 5)
= Rest(2 · 4, 5)
= Rest(2 · 2, 5)
= Rest(2 · 1, 5)
“mal-zwei-nehmen” erreicht man zwangsläufig wieder die 1:
2
5
−→
1
24
2
5
−→
2
25
2
5
−→
4
26
...
...
31
Teil I.
Lineare Algebra
33
3
Vektorräume
Das Hauptziel der ersten Hälfte dieser Vorlesung ist das Verständnis linearer Abbildungen. Dies ist
ein Typ von Abbildungen, den wir in der Tat sehr gut verstehen. Deshalb befasst sich die zweite Hälfte
der Vorlesung in etwa damit, wie man Abbildungen, die nicht linear sind, durch lineare Abbildungen
annähern kann.
Um den Begriff der linearen Abbildung einzuführen, müssen wir beschreiben, was sie wohin abbildet.
Diese Objekte sind “Vektoren”.
3.1. Die Vektorräume Rn
In diesem Skript erinnern wir zunächst an die aus der Schule bekannten Vektoren aus dem Rn . Eine
genaue Definition dafür, was ein allgemeiner Vektor ist, findet sich im nachfolgenden Abschnitt. Ein
Vektor in der Schulmathematik ist zunächst einmal ein Vektor aus R3 oder R2 , d.h. eine Spalte mit
Zahleneinträgen. Diese Vektoren haben eine geometrische Bedeutung, die sich auf zwei verschiedene
Weisen verstehen lässt:
I Ein Vektor kann als Punkt in einem Raum aufgefasst werden. Wählt man beispielsweise einen
festen Bezugspunkt im uns umgebenden dreidimensionalen Raum, so lässt sich jeder Punkt in
unserem Universum durch einen Vektor mit drei Einträgen (Höhe, Breite, Länge) relativ zu
diesem Punkt beschreiben.
I Andererseits repräsentieren Vektoren in der Physik Kräfte, also eine Messgröße die mit einer
Richtung einhergeht: Im Gegensatz zu skalaren Messgrößen wie Temperatur oder Masse, muss
man um eine Kraft vollständig zu beschreiben nicht nur angeben wie groß die Kraft ist, sondern
auch in welche Richtung sie wirkt.
Konkret wurde ein mehrdimensionaler reeller Vektor definiert wie im Folgenden:
Erinnerung:
Für ein festes n ∈ N ist Rn ein n-dimensionaler Vektorraum.
35
3. Vektorräume
Ein Vektor ~x ∈ Rn ist ein Tupel mit n reellen Zahleneinträgen x1 , x2 , . . . xn ∈ R. Die allgemeine
Form eines solchen Vektors ~x lautet:

x1

 
 x2 

~x = 
 ..  .
 . 
xn
Die Zahlen x1 , . . . , xn heißen die Komponenten des Vektors.
Es ist zwischen dem Rn als Vektorraum und dem n-dimensionalen Raum, der mit Koordinaten
(zum Beispiel den kartesischen Koordinaten (x1 , . . . , xn )) beschrieben wird, zu unterscheiden. Im
n-dimensionalen Raum wird jeder Punkt eindeutig durch seine Koordinaten beschrieben. Bettet man
den Vektorraum Rn in den n-dimensionalen Raum ein, dann gibt es für jeden Punkt im Raum einen
Stützvektor, der vom Ursprung auf diesen Punkt deutet (die entsprechende Einbettung diskutieren
wir nachdem wir das Konzept der Basis eines Vektorraums kennengelernt haben). Die Komponenten
dieses Stützvektors entsprechen den kartesischen Koordinaten des Punktes.
3.1.1. Rechnen im Rn
Wir führen zwei Rechenregeln für Vektoren ein:
Definition 3.1.1. Es sei n ∈ N. Für zwei Vektoren ~a, ~b ∈ Rn und λ ∈ R gelten:

 
a1
 .  
.  
~a + ~b = 
 . +
an


b1
a1 + b1

.. 
..

. 
.
 := 
bn
an + bn







a1
λ · a1
 . 

..

. 
λ · ~a = λ · 
.
 .  := 
an
λ · an




Bemerkung:
Man kann Vektoren mit gleich vielen Einträgen addieren oder voneinander abziehen (Dies geht mit
Vektoren mit verschieden vielen Einträgen nicht!).
Für die Addition von Vektoren und die Multiplikation mit einer Zahl gelten die selben Rechenregeln,
die man schon von “normalen Zahlen” kennt:
Korollar 3.1.2. Für ~a, ~b, ~c ∈ Rn und λ, µ ∈ R gelten:
36
3.1. Die Vektorräume Rn
~a + ~b
~a + ~b + ~c
(λ + µ) · ~a
= ~b + ~a
= ~a + ~b + ~c
(Kommutativgesetz)
(Assoziativgesetz)
λ · ~a + µ · ~a
=
und
λ · ~a + ~b
λ · ~a + λ · ~b
=
(Distributivgesetze)
Geometrische Interpretation des Rechnens im Rn
Sei n ∈ N und seinen ~a, ~b, ~c ∈ Rn .
I Addition Die Addition zweier Vektoren ~a und ~b entspricht geometrisch dem Aneinanderhängen der
entsprechenden Vektoren. In der folgenden Abbildung für n = 2:
x2
3
7=3+4
!
5
+
4
1
!
=
7
!
6
!
4
1
1
4
!
3
5
6=5+1
5
3
x1
I Subtraktion Die Subtraktion zweier Vektoren, ~a − ~b, wird einfach als Addition von ~a und −~b
aufgefasst. Geometrisch kann man dies als das umgekehrte Anhängen des Vektors ~b an den Vektor ~a
verstehen.
Eine deutlich bessere Anschauung erhält man jedoch, wenn man ~c = ~a − ~b liest als “~c ist derjenige
Vektor, der von ~b zu ~a führt”. Denn es gilt:
~c = ~a − ~b
⇔
~b + ~c = ~a
Dies liefert dann das folgende Bild:
37
3. Vektorräume
x2
~b + (~a − ~b) = ~a
~a
b~
~
~a − b
x1
~a − ~b =
7
!
3
−
6
5
!
=
4
!
1
I Multiplikation mit einer Zahl Die Multiplikation eines Vektors mit einer Zahl ist verträglich mit
der Vektor-Addition. Dies bedeutet, dass beispielsweise 2 · ~a = ~a + ~a gilt:

 
a1
2 · a1
 .   .
.   .
2 · ~a = 2 · 
 . = .
an
2 · an



a1 + a1
 

..
=
 = ~a + ~a.
.
 

an + an
Geometrisch entspricht die Multiplikation eines Vektors mit einer Zahl λ ∈ R also einer Streckung
bzw. einer Stauchung von ~a um den Faktor λ,
für 0 < |λ| < 1 ist λ · ~a kürzer als ~a.
für 1 < |λ| ist λ · ~a länger als ~a.
Ist λ negativ, so kehrt sich die Richtung eines Vektors ~a beim Multiplizieren mit λ um, der Vektor
−~a = (−1) · ~a zeigt also genau entgegengesetzt zu ~a.
3.2. Allgemeine Vektorräume
Im weiteren Verlauf werden wir uns nun zunächst mit abstrakteren Vektorräumen beschäftigen zum
Beispiel dem Vektorraum der Polynome. Die bereits bekannten Rechengesetze aus dem Rn wollen
wir dabei “mitnehmen” also auf ein abstrakteres Niveau anheben. Im Wesentlichen verlangen wir
also einfach, dass die beiden Rechenoperationen “Addition von Vektoren” und “Multiplikation eines
Vektors mit einer Zahl” sinnvoll funktionieren:
38
3.2. Allgemeine Vektorräume
Bei genauerem Hinsehen entdeckt man, dass (Rn , +) eine Gruppe ist, dass also die Elemente aus
Rn beliebig addiert und subtrahiert werden können, und dass es ein Neutrales Element (eine Null, in
diesem Fall der Nullvektor) gibt. Die Multiplikation mit Zahlen λ ∈ R kommt dann als “Extra” hinzu.
Die Addition innerhalb der Gruppe und die Multiplikation mit Elementen “von außen” aus R müssen
bestimmte Verträglichkeitsregeln erfüllen.
Wiederholung - Eigenschaften des Rn
In der Menge V := Rn sind die folgenden Eigenschaften erfüllt:
I (V, +) ist eine abelsche Gruppe. Also gelten
RA1. ~v + w
~ ∈V
∀~v , w
~ ∈V
(Abgeschl. der Addition)
∀~v , w,
~ ~x ∈ V
(Assoziativität)
RA2.
~v + (w
~ + ~x) = (~v + w)
~ + ~x
RA3.
∃ ~e ∈ V : ∀~v ∈ V : ~e + ~v = ~v
(Neutrales Element)
RA4.
∀~v ∈ V : ∃ − ~v ∈ V : −~v + ~v = e
(Inverses Element)
RA5. ~v + w
~ =w
~ + ~v
∀~v , w
~ ∈V
(Kommutativität)
I Abgeschlossenheit bezüglich der Multiplikation mit Elementen in R:
RM1. λ · ~v ∈ V
∀λ ∈ R, ~v ∈ V
(Abgeschl. der Multiplikation)
I Es gelten Verträglichkeitsregeln für alle ~v , w
~ ∈ V und λ, µ ∈ R:
RV1.
λ · (µ · ~v ) = (λ · µ) · ~v
(Assoziativität)
RV2.
(λ + µ) · ~v
=
λ · ~v + µ · ~v
(Distributivgesetz I)
RV3.
λ · (~v + w)
~
=
λ · ~v + λ · w
~
(Distributivgesetz II)
RV4.
1 · ~v
=
~v
(Neutralität der 1)
Diese Eigenschaften wollen wir verallgemeinern, doch zunächst noch ein Hinweis bezüglich der Notation.
Verwendung der Operatoren
Um dabei die Definition korrekt und so allgemein wie möglich zu halten, verwenden wir für die
“neuen” Operationen (Vektoraddition & skalare Multiplikation) hervorgehobene Symbole + und
· . Im normalen mathematischen Alltag schreibt man aber statt dessen einfach “+” und “·”. Dies
werden wir nach diesem Abschnitt auch so tun und haben wir bisher
! für die Vektorräume
! auch schon
2
1
+
und 1 + 2 tatsächlich
Rn gentan. Im Prinzip sind nämlich die beiden Additionen
2
1
unterschiedliche Operationen.
Um die Vektorräume in ihrer allgemeinsten Form nun definieren zu können brauchen wir noch das
Konzept eines Körpers.
39
3. Vektorräume
Körper
Ein Körper ist eine Menge K auf welcher zwei Verknüpfungen “◦” (eine Addition) und “?” (eine
Multiplikation) definiert sind, so dass sowohl (K, ◦) als auch (K, ?) eine ablesche Gruppe bilden und
zusätzlich die beiden Distributivgesetzte gelten. Sowohl die rationalen Zahlen R als auch die reelen
Zahlen Q sind ein Körper. Auch die komplexen Zahlen C aus Kapitel 8 sind ein Körper. An dieser
Stelle wollen wir nicht weiter in die Tiefe gehen. Für unsere Zwecke reicht es zu verstehen, dass wir
Elemente aus einem Körper multiplizieren und addieren können. Wir bezeichnen das neutrale Element
der Multiplikation mit 1 und das neutrale Element der Addition mit 0. Außerdem sei für λ ∈ K das
additive Inverse mit −λ und das multiplikative Inverse mit
1
λ
oder λ−1 bezeichnet.
Wir definieren nun allgemeine Vektorräume.
Definition 3.2.1. Eine Menge V zusammen mit
I einer inneren Verknüpfung + : V × V → V (“Vektor-Addition”)
I einer äußeren Verknüpfung · : K × V → V (“Multiplikation mit einem Skalar”)
nennt man einen Vektorraum über K, falls gelten
I (V, + ) ist eine abelsche Gruppe. Also gelten
VA1. ~v + w
~ ∈V
∀~v , w
~ ∈V
VA2. ~v + (w
~ + ~x) = (~v + w)
~ + ~x
∀~v , w,
~ ~x ∈ V
VA4.
∃ ~e ∈ V : ∀~v ∈ V : ~e + ~v = ~v
∀~v ∈ V : ∃ −~v ∈ V : −~v + ~v = ~e
VA5.
~v + w
~ =w
~ + ~v
VA3.
(Abgeschl. der Addition)
(Assoziativität)
(Neutrales Element)
(Inverses Element)
∀~v , w
~ ∈V
(Kommutativität)
I Abgeschlossenheit bezüglich der Multiplikation mit Elementen in K:
VM1. λ · ~v ∈ V
∀λ ∈ K, ~v ∈ V (Abgeschl. der Multiplikation)
I Es gelten Verträglichkeitsregeln für alle ~v , w
~ ∈ V und λ, µ ∈ K:
VV1.
VV2.
VV3.
VV4.
λ · (µ · ~v )
(λ + µ) · ~v
λ · (~v + w)
~
1 · ~v
(Assoziativität)
=
(λ · µ) · ~v
λ · ~v + µ · ~v
λ · ~v + λ · w
~
=
~v
(Neutralität der 1)
=
=
In der Gruppe (V, + ) bezeichnet man . . .
I das neutrale Element mit ~0.
I das zu ~v ∈ V inverse Element mit −~v .
40
(Distributivgesetz I)
(Distributivgesetz II)
3.2. Allgemeine Vektorräume
Beobachtung
Ein Vektorraum ist eine abelsche, additive Gruppe (V, + ) zusammen mit einer äußeren Multiplikation “ · ” mit Elementen aus einem Körper K. Die Addition innerhalb der Gruppe und die Multiplikation mit Elementen “von außen” aus K müssen bestimmte Verträglichkeitsregeln erfüllen.
Aus der Definition des Vektorraumes ergeben sich sofort Konsequenzen:
Korollar 3.2.2. In einem Vektorraum V gelten:
a) Die Menge V ist nicht leer.
b) Für λ ∈ K und ~v ∈ V
i.
0 · ~v =
ii. (−1) · ~v =
iii.
λ · ~0
=
iv.
λ · ~v
=
gelten die Rechenregeln:
~0
−~v
~0
~0
⇐⇒
(λ = 0)
∨
(~v = ~0)
Beweis.
zu a) Folgt direkt aus der Definition einer Gruppe, also aus Axiom VA3.
Trick
VV2
zu b) zu i. Wegen ~v = (0 + 1) · ~v = 0 · ~v + ~v folgt: 0 · ~v ist das neutrale Element
~0 in (V, + ).
zu ii. Für λ = 0 gilt wegen i. sofort λ · ~0 = ~0.
Es sei nun λ 6= 0 und ~v ∈ V beliebig. Dann gilt:
Trick
~v = 1 · ~v = (λ · λ1 ) · ~v
VV1
λ · ( λ1 · ~v )
Trick
=
λ · ( λ1 · ~v
+ ~0)
VV3
(λ · λ1 ) · ~v
+ λ · ~0 = ~v + λ · ~0
=
=
Wegen ~v
=
λ · ~0 +
~v folgt: λ · ~0 ist das neutrale Element ~0 der Gruppe
(V, + ).
zu iii. Den Beweis für iii. überlassen wir dem Leser.
zu iV. Die Richtung “⇐” folgt direkt aus i. und ii..
“⇒”: Sei λ · ~v = ~0 und gelte λ 6= 0 zu zeigen ist: Dann gilt ~v = ~0.
Trick
~v = 1 · ~v = (
1
· λ) · ~v
λ
VV1
=
1
1 ~ ~
· (λ · ~v ) =
· 0=0
λ
λ
41
3. Vektorräume
Begründung der scheinbar trivial-offensichtlichen Bedingung VV4
Wieso steht in VV4 die scheinbar offensichtliche Bedingung “1 · ~v = ~v ”?
Lässt man VV4 weg, so bilden Vektor-Addition und Multiplikation mit einem Skalar auf V zwei völlig
voneinander losgelöste Operationen. Es wäre zum Beispiel denkbar, den uns bekannten R2 mit einer
“y-weglassen-Multiplikation” der Form
!
x
λ
!
=
λ·x
0
y
zu versehen. Diese Form der Multiplikation erfüllt alle Regeln VM1 und VV1 bis VV3 nur nicht VV4.
Diese Dann ist aber
2
x
y
!
=
2x
!
6=
0
x
y
!
+
x
y
!
.
Die Bedingung VV4 stellt also sicher, dass Vektoraddition + in V und äußere Multiplikation “sinnvoll” mit einander funktionieren.
Dank 1 · ~v = ~v kann man zum Beispiel auf 2 · ~v = ~v + ~v schließen und entdeckt, dass die Multiplikation λ · ~v tatsächlich das tut was man erwartet:
VV2
VV4
2 · ~v = (1 + 1) · ~v = 1 · ~v + 1 · ~v = ~v + ~v
Beispiel 3.2.3.
I Die bekannte Menge

 



 a

3
R :=  b : a, b, c ∈ R



 c
bildet mit der üblichen Vektor-Addition und Skalarmultiplikation einen Vektrorraum.
I Die Menge R[x]2 := ax2 + bx + c : a, b, c ∈ R aller Polynome vom Grad höchstens 2
bildet einen Vektorraum zusammen mit der üblichen Addition von Polynomen und der üblichen Multiplikation mit einer Zahl. Der Nullvektor ist hier das Polynom 0 (bzw. das Polynom
0x2 + 0x1 + 0).
I Die Menge aller reellen Polynome R[x] bildet einen Vektorraum mit der üblichen Addition von
Polynomen und der üblichen Multiplikation mit einer Zahl. Der Nullvektor ist hier das Polynom
42
3.3. Untervektorräume
p(x) := 0.
I Die Menge aller reellen Funktionen C := {f : R → R} ist ein Vektorraum mit der üblichen
Addition von Funktionen und der üblichen Multiplikation mit einer Zahl.
Notation
In den folgenden Kapiteln werden wir den Vektorpfeil, der bisher Variablen aus einem Vektorraum
kennzeichnete, einsparen. Wir schreiben also für einen Vektor aus einem Vektorraum V in Zukunft
v ∈ V statt ~v ∈ V .
3.3. Untervektorräume
Der Vektorraumbegriff gibt Anlaß zur folgenden Kennzeichung besonderer Teilmengen eines Vektorraumes V , die ebenfalls mit den Operationen + und · verträglich sind.
Definition 3.3.1. Es sei V ein Vektorraum. Wir nenne eine Teilmenge W ⊂ V Untervektorraum von
V , falls gelten:
UV0.
∅=
6 W ⊂V
UV1.
v+w ∈W
∀v, w ∈ W
(Abgeschl. bez. der Addition)
UV2.
λ·v ∈W
∀λ ∈ K, ∀v ∈ W
(Abgeschl. bez. der Skalarmultiplikation)
Korollar 3.3.2. Für einen Untervektorraum W ⊂ V des Vektrorraums V gelten:
i. Es ist 0 ∈ W .
ii. Für alle v ∈ W ist auch −v ∈ W .
Beweis.
zu i. Da W nach UV0 nicht leer ist, gibt es ein Element v ∈ W . Da ebenfalls nach UV0 W ⊂ V ist
auch v ∈ V . Da V ein Vektorraum ist, gilt nach Korollar 3.2.2 b) i., dass 0 · v = 0. Also ist nach
UV2 auch 0 ∈ W .
ii. Sei v ∈ W beliebig gewählt. Dann gilt nach UV0 W ⊂ V ist auch v ∈ V . Da V ein Vektorraum
ist, gilt nach Korollar 3.2.2 b) i., dass −1 · v = −v. Also ist nach UV2 auch −v ∈ W .
Eine Teilmenge W ⊂ V “erbt” vom Vektorraum V (automatisch) die Rechenregeln.
43
3. Vektorräume
Dies bedeutet, dass in W zum Beispiel weiterhin das Assoziativgesetz gilt, d.h. (v + w) + z = v +
(w + z) gilt für alle v, w, z ∈ W . Ebenso gelten auch weiterhin alle Verträglichkeitsregeln VV1 bis
VV4 aus den Vektorraumaxiomen in W .
Bleibt nur noch die Existenz des neutralen Elements der Addition und der additiven Inversen Elemente
zu zeigen. Beides folgt jedoch direkt aus Korollar 3.3.2 und es gilt
Korollar 3.3.3. Jeder Untervektorraum ist ein Vektorraum.
Bemerkung:
Zu erkennen, ob eine Teilmenge W ⊂ V ein Untervektorraum eines Vektorraumes V ist, erfordert
also per Definition zu prüfen, ob W abgeschlossen ist unter Addition und skalarer Multiplikation. Ein
erster Anhaltspunkt ist das “Enthaltensein der Null”:
Gilt 0 6∈ W so ist W kein Vektorraum und damit auch kein Untervektorraum.
Beispiel 3.3.4.
I Der Vektorraum R = R1 hat nur zwei Untervektorräume: sich selbst und die Menge {0}, die
nur den Nullvektor enthält.
I Die Untervektorräume von R2 sind genau
– die Menge {0},
(
– alle Mengen der Form Va =
( !
– die Menge V∞ =
0
y
!
x
)
∈
y
R2
: y =a·x
mit a ∈ R,
)
: y∈R
und
– der gesamte Vektorraum R2 selbst.
!
Geometrisch ist eine Menge Va mit festem a eine Gerade durch den Ursprung 0 =
0
(genau-
0
so auch V∞ ).
I Die Untervektorräume des R3 sind entsprechend die Mengen {0} und R3 selbst sowie die Geraden und Ebenen durch 0.
44
4
Lineare Abbildungen
Wir kommen nun zum Hauptbegriff, um den sich der erste Teil der Vorlesung dreht.
Die Beispiele in 3.2.3 sehen sich überraschend ähnlich und auch die Operationen (Addition und skalare Multiplikation) laufen weitestgehend gleich ab:
+
(ax2
+bx
+c)

(αx2
+βx
+γ)
    

 b + β = b+β 
c
γ
c+γ
+ ((a + α)x2 +(b + β)x +(c + γ))
a


α


a+α

Der Vektorraum R[x]2 ist also quasi nichts anderes als ein “hingelegter” R3 , die Koeffizienten der Polynome benehmen sich identisch zu den Koeffizienten der Vektoren des R3 . Den R[x]2 als Vektorraum
zu betrachten bringt also auch im Sinne von Vektorräumen nichts wirklich neues. Den Umstand, dass
diese Vektorräume die gleiche Form haben, werden wir in Definition 4.0.9 abstrakt fassen, nachdem
wir in diesem Kapitel Abbildungen zwischen Vektorräumen eingeführt haben.
Definition 4.0.5. Seien V, V 0 Vektorräume. Eine Abbildung f : V → V 0 heißt linear, falls sie die
folgenden Bedingungen erfüllt.
L1.
f (v + w)
=
f (v) + f (w)
L2.
f (λ · v)
=
λ · f (v)
∀v, w ∈ V
∀v ∈ V, λ ∈ K
Salopp gesagt ist eine Abbildung f also linear, wenn man f mit + und · “vertauschen kann”. Es gibt
einige offensichtliche Beispiele linearer Abbildungen. Für je zwei Vektorräume V, V 0 ist die Abbildung f : V → V 0 , v 7→ 0, die also alle Vektoren auf den Nullvektor abbildet, linear. Außerdem ist für
jeden Vektorraum V die Abbildung id : V → V, v 7→ v, die einfach v auf sich selbst abbildet, linear.
Ist allgemeiner λ eine reelle Zahl, so ist die Abbildung fλ : V → V : v 7→ λ · v linear. Kommen wir
zu einigen vielleicht weniger offensichtlichen Beispielen.
Beispiel 4.0.6.
!
I Die Abbildung f : R2 → R2 ,
x
y
!
7→
x
−y
ist, geometrisch gesprochen, die Spiegelung an
45
4. Lineare Abbildungen
der x-Achse.
!
I Die Abbildung f : R2 → R2 ,
x
I Allgemeiner ist f : R2 → R2 ,
x
!
7→
y
−y
x
!
7→
y
ist die Rotation um 90◦ .
!
cos(α)x−sin(α)y
die Rotation um den Winkel α.
sin(α)x+cos(α)y
Aus gegebenen linearen Abbildungen kann man neue basteln. Für eine lineare Abbildung f : V → V 0
und λ ∈ K definieren wir eine neue Abbildung λ · f : V → V 0 durch x 7→ λ · f (x). Außerdem
definieren wir für lineare f, g : V → V 0 die Abbildung f + g : V → V 0 durch x 7→ f (x) + g(x).
Korollar 4.0.7. Seien f, g : V → V 0 und h : V 0 → V 00 lineare Abbildungen.
i. Für jede Zahl λ ∈ K ist λ · f linear.
ii. Die Abbildung f + g ist linear.
iii. Die Abbildung h ◦ f : V → V 00 ist linear.
Beweis. Man rechnet die Eigenschaften L1 und L2 nach. Details werden dem Leser überlassen.
Proposition 4.0.8. Sei f : V → V 0 eine bijektive lineare Abbildung. Dann ist auch ihre Umkehrabbildung f −1 : V → V 0 linear.
Beweis. Seien v 0 , w0 ∈ V 0 Vektoren. Dann gibt es v, v ∈ V mit v 0 = f (v) und w = f (w). Weil f
linear ist, gilt also v 0 + w0 = f (v + w). Weil f außerdem bijektiv ist, folgt
f −1 (v 0 + w0 ) = f −1 (f (v + w)) = v + w = f −1 (v) + f −1 (w).
Ist ferner λ ∈ K, so gilt
f −1 (λ · v 0 ) = f −1 (λ · f (v)) = λ · v = λ · f −1 (v).
Also erfüllt f −1 die Bedingungen L1 und L2.
Lineare Abbildungen werden auch oft als Homomorphismen bezeichnet. Eine bijektive lineare Abbildung heißt ein Isomorphismus.
Definition 4.0.9. Zwei Vektorräume V und V 0 heißen isomorph2 , wenn es eine bijektive linear Abbildung (Isomorphismus) von V nach V 0 gibt.
2
gleich-geformt
46
Beispiel 4.0.10. Die Vektorräume (R3 , +, ·) und (R[x]2 , + , · ) sind isomorph, der Isomorphismus
lautet:

a

 
f :  b  7→ ax2 + bx + c
c
47
5
Basen und Dimension
Bis auf weiteres sprechen wir von einem Vektorraum über einem Körper K, wenn nicht anders angegeben.
5.1. Lineare Unabhängigkeit
Wir führen ein Maß für die Größe eines Vektorraums ein, die Dimension. Die Dimension ist grob
gesagt ein Maß für die Bewegungsmöglichkeiten in einem Vektorraum, sogenannte Freiheitsgrade.
Es ist leicht zu sehen, dass man für die Wahl eines Punktes im R3 drei Freiheitsgrade hat, während
es für einen Punkt im R2 nur zwei Freiheitsgrade sind. Dies hat direkte Konsequenzen beim Bau von
ferngesteuertem Spielzeug:
I Eine Spielzeugeisenbahn muss nur vor oder zurück fahren. Mathematisch gesehen fährt die
Lok auf einer Geraden, hat also nur einen Freiheitsgrad und benötigt deswegen auch nur einen
Motor.
I Ein Modellauto dagegen benötigt mindestens zwei Kontrollmöglichkeiten, weil es sich abstrakt
gesehen im R2 (alias “der Fußboden”) frei bewegen können muss.
I Ein Modellflugzeug muss mindestens drei Kontrollmöglichkeiten besitzen, weil es sich frei im
R3 bewegen können muss.
Um die Dimension definieren zu können müssen wir zunächst definieren, was es bedeutet “mit bestimmten Laufrichtungen mittels Vektoren durch einen von den Vektoren aufgespannten Raum zu
laufen”. Dazu definieren wir:
Definition 5.1.1. Es seien v1 , . . . , vk ∈ V Vektoren in einem Vektorraum V .
Eine Summe der Form µ1 · v1 + . . . + µk · vk mit µ1 , . . . , µk ∈ K nennt man eine Linearkombination
der Vektoren vi , . . . , vk . Die Menge aller Linearkombinationen dieser Vektoren nennt man den Spann
von v1 , . . . , vk bezeichnet mit
span(v1 , . . . , vk ) :=
( k
X
)
µ i v i : µ1 , . . . , µ k ∈ R .
i=1
49
5. Basen und Dimension
Es ist span(∅) = {0}.
Anschauung:
Die Addition von Vektoren entspricht dem “Hintereinanderhängen” der entsprechenden Vektoren.
Geometrisch ist eine Linearkombination µ1 · v1 + . . . + µk · vk also eine “Laufanweisung” der Form
“Folge dem Vektor v1 , dann v2 etc. ”. Dabei geben die µi jeweils (grob gesagt) an, wie weit jeweils zu
laufen ist.
Der Spann ist dann die Menge an Punkten, die über solche Laufwege erreichbar ist.
Beispiel 5.1.2.


1
0
I Für die Vektoren v1 := 0 , v2 := 1 ist der Spann:
0
0
 






1
0
span(v1 , v2 ) := µ1 0 + µ2 1 : µ1 , µ2 ∈ R




0
0
=
 



 µ1

 
:
µ
,
µ
∈
R
µ2
1 2


 0


1
I Fügt man den Vektor v3 = 1 hinzu, ändert sich der Spann nicht, da sich v3 bereits als Summe
0
von v1 und v2 schreiben lässt (Die “Zutat” v3 liefert also keine “echt neue” Laufrichtung, das
Verwenden von v3 lässt sich durch das Verwenden von v1 und v2 ersetzen:
 







1
0
1



span(v1 , v2 , v3 ) :=
µ1 0 + µ2 1 + µ3 1 : µ1 , µ2 , µ3 ∈ R




0
0
0





 µ1 +µ3



=
µ2 +µ3 : µ1 , µ2 , µ3 ∈ R




0
 



 x


=
y : x, y ∈ R


 0

Um das letzte Gleichheitszeichen einzusehen macht man sich klar, dass hier “⊂” stets gilt: Die
letzte Menge enthält alle Vektoren mit drittem Eintrag 0 (und jeder Vektor der vorletzten Menge
ist ein solcher).
50
5.1. Lineare Unabhängigkeit

x
Umgekehrt gilt: Ist w := y ein beliebiger Vektor mit x, y ∈ R, so ist w auch ein Element
0


µ1 +µ3
der vorletzten Menge: Setze im Vektor µ2 +µ3 einfach µ1 = x, µ2 = y, µ3 = 0 und erhalte
0
w.
Das letzte Beispiel zeigt: Geht es darum eine Menge als Spann von Vektoren zu beschreiben, so ist es
nicht hilfreich “überflüssige” Vektoren zu verwenden. Um solche Mengen von Vektoren zu vermeiden,
führen wir den folgenden Begriff ein (das Lemma 5.1.5 klärt dann, was dieser für den Spann bedeutet):
Definition 5.1.3. Eine Menge von Vektoren {v1 , . . . , vk } ⊂ V in einem Vektorraum V heißt linear
unabhängig falls gilt:
µ 1 · v 1 + . . . + µk · v k = 0
⇒
µ1 = µ2 = . . . = µ k = 0
Gilt dies nicht, nennt man die Vektoren linear abhängig (oder auch kurz abhängig).
Bemerkung:
Für die Gleichung µ1 · v1 + . . . + µk · vk = 0 ist µ1 = . . . = µk = 0 immer eine Lösung, es kann
aber noch weitere Lösungen geben. Die Vektoren {v1 , . . . , vk } sind also linear unabhängig, wenn
µ1 = µ2 = . . . = µk = 0 die einzige Lösung der Gleichung µ1 · v1 + . . . + µk · vk = 0 ist.
Beispiel 5.1.4.
     


 1

  0 0
I Die Vektoren 0 , 1 , 0 ⊂ R3 sind linear unabhängig, denn:


 0
0
1 


1
0
0
µ1 ·0+µ2 ·1+µ3 ·0 = 0
0
0
 

1
⇔

µ1 0
µ2 = 0
µ3
⇔
µ1 = µ2 = µ3 = 0
0
51
5. Basen und Dimension



1
0
1
I Die Vektoren v1 := 0 , v2 := 1 , v3 := 1 ∈ R3 sind linear abhhängig, denn es gilt:
0
0

0



1
0
1 0
1 · 0 + 1 · 1 + (−1) · 1 = 0
0
0
0
0
I In jedem Vektorraum V gilt:
Die Menge {0} ⊂ V ist linear abhängig, denn für λ1 · 0 = 0 ist jedes λ1 ∈ R eine Lösung.
Ganz genauso ist jede andere Menge der Form {0, v1 , . . . , vk } ⊂ V linear abhängig.
In einer Menge von linear abhängigen Vektoren ist beim Bilden des Spanns immer (mindestens) ein
Vektor überflüssig, weil er sich aus den anderen herstellen lässt:
Lemma 5.1.5. Die Vektoren {v1 , . . . , vk } sind genau dann linear abhängig, wenn es einen Vektor
vj ∈ {v1 , . . . , vk } gibt, der sich als Linearkombination der anderen Vektoren schreiben lässt, wenn
also gilt:
∃µ1 , . . . , µj−1 , µj+1 , . . . µk ∈ K : vj =
n
X
µi v i
(5.1)
i=1
i6=j
Beweis.
“⇒” Annahme: Die Vektoren v1 , . . . , vk seien linear abhängig. Dann hat
k
P
λi vi = 0 mehr als nur
i=1
die triviale Lösung λ1 = . . . = λk = 0, d.h. eine Lösung mit mindestens einem λj 6= 0. Es gilt
also:
λj · vj +
k
X
λ i vi = 0
=⇒
vj =
i=1
i6=j
Setzt man nun µi :=
−λi
λj
k
X
−λi
i=1
i6=j
λj
· vi
für alle i ∈ {1, . . . , k} \ {j}, so hat man die gewünschte Darstellung
von vj .
“⇐” Annahme: Es gilt (5.1), d.h. vj =
k
P
µi · vi mit µi ∈ K. Setzt man zusätzlich µj := −1 so gilt:
i=1
i6=j
vj =
k
X
µi ·vi
=⇒
i=1
i6=j
Die Gleichung
52
0 = −vj +
k
X
i=1
i6=j
Pk
i
µi ·vi
=⇒
0=
k
X
µi ·vi
mit µj 6= 0
i=1
µi vi = 0 hat also mehr als nur die Lösung µ1 = . . . = µk = 0, die Vektoren
5.2. Basis
sind also linear abhängig.
Beispiel 5.1.6.




1
0
0
5
I Die Vektoren v1 := 0 , v2 := 1 , v3 := 0 , v4 := 7 aus R3 sind linear abhängig,
0
0
1
0
denn es gilt v4 = 5 · v1 + 7 · v2 .
I Es sei R[x] der Vektorraum aller Polynome. Die Vektoren p1 := x, p2 := x2 + x, p3 := x2 + 5x
aus R[x] sind linear abhängig, denn es gilt p3 = 4 · p1 + p2 .
Exkurs: Lineare Unabhängigkeit
Betrachtet man Lemma 5.1.5 so bedeutet “v1 , . . . vk sind linear unabhängig”, dass kein Vektor aus der
Menge {v1 , . . . , vk } durch die anderen “hergestellt” werden kann.
Frage: Wieso verwendet man dies nicht als Definition für den Begriff “linear unabhängig”?
Antwort: Man verwendet dies nicht als Definition, weil diese Aussage kein praktisches Prüfkriterium
bietet: Um zu Zeigen, dass v1 , . . . vk linear unabhängig sind, müsste man für jeden der k Vektoren ein
eigenes lineares Gleichungssystem aufstellen und zeigen, dass jedes davon unlösbar ist.
5.2. Basis
Der Kernbegriff den wir benötigen, um die Dimension eines Vektorraums zu definieren ist der einer
Basis.
Definition 5.2.1. Seien v1 , . . . , vn ∈ V Vektoren in einem Vektorraum V . Wir nennen {v1 , . . . , vn }
eine Basis von V , wenn erfüllt sind:
B1.
Die Vektoren {v1 , . . . , vn } sind linear unabhängig.
B2.
V = span(v1 , . . . , vn ).
Geometrisch bedeutet dies: Mit den “Laufrichtungen” vi kann man jeden Punkt in V erreichen, und
die “Wegbeschreibung” ist eindeutig:
Proposition 5.2.2. Ist {v1 , . . . , vn } eine Basis des Vektorraums V , so gibt es zu jedem Vektor w ∈ V
P
genau ein n-tupel λ1 , . . . , λn ∈ R mit w = ni=1 λi · vi .
53
5. Basen und Dimension
Beweis. Es sei {v1 , . . . , vn } eine Basis des Vektorraums V und sei w ∈ V beliebig. Wegen V =
span(v1 , . . . , vn ) gibt es (mindestens) ein Tupel λ1 , . . . , λn ∈ K mit
w=
n
X
λ i · vi .
i=1
Nehmen wir nun an, es gäbe noch ein anderes n-Tupel µ1 , . . . , µn ∈ K für welches w =
ist, dann gilt:
Pn
i=1 µi
· vi
n
X
0=w−w =
(λi − µi ) · vi
i=1
Weil nach B1 die Vektoren v1 , . . . , vn linear unabhängig sind, muss λi − µi = 0 für alle i ∈ {1, . . . n}
gelten, d.h. die beiden n-Tupel sind identisch, ein Widerspuch zur Annahme, dass µ1 , . . . , µn ein
anderes n-Tupel als λ1 , . . . , λn sei.
Proposition 5.2.3. Seien v1 , . . . , vn ∈ V Vektoren in einem Vektorraum V . Dann ist span(v1 , . . . , vn )
ein Vektorraum.
Beweis. Übungsaufgabe.
Definition 5.2.4. Es sei Kn der Vektorraum, der von den n Einheitsvektoren
 
1
e(1)
 
0
 
0
 
 
 
0
1
0
 
 
 
  (2)  
 
(n)
=  0 ,e =  0 ,...,e =  0 
.
.
.
.
.
.
.
.
 
 
.
0
0
1
aufgespannt wird.
5.2.1. Dimension
Wir würden gerne die Dimension eines Vektorraums V definieren als die Anzahl der Vektoren in einer
Basis von V . Dazu müssen wir uns allerdings noch zwei Dinge überlegen:
I Jeder Vektorraum hat eine Basis.
I Alle Basen bestehen aus gleichvielen Vektoren.
Dazu benötigen wir die beiden Sätze
54
5.2. Basis
Satz 5.2.5. Sind v1 , . . . , vn und w1 , . . . , vk Basen des Vektorraums V , so gilt: k = n.
Satz 5.2.5 folgt direkt aus Lemma 5.2.10, dessen Beweis ist allerdings etwas technisch, weswegen wir
ihn am Ende dieses Abschnittes führen. Satz 5.2.5 motiviert die folgende Definition:
Definition 5.2.6. Hat ein Vektorraum V eine Basis B = {v1 , . . . , vn } mit n ∈ N so sagt man die
Dimension von V ist n. Ist es nicht möglich, eine (endliche) Basis von V zu finden, so sagt man die
Dimension von V ist unendlich.
Beispiel 5.2.7.
I Die Menge
     


 1

  0 0
,
,
0 1 0


 0
0
1 
ist eine Basis des R3 ,
d.h. der Vektorraum R3 hat die Dimension 3.
I Die Menge 1, x, x2 ist eine Basis von R[x]2 := ax2 + bx + c : a, b, c ∈ R ,
d.h. der Vektorraum R[x]2 hat die Dimension 3.
I Die Menge R[x] aller Polynome ist ein Vektorraum, der keine endliche Basis besitzt,
d.h. der Vektorraum R[x] hat die Dimension unendlich.
Satz 5.2.8. Jeder n-dimensionale Vektorraum ist isomorph zu Rn (wobei n ∈ N).
Beweis. Es sei V ein n-dimensionaler Vektorraum, dann besitzt V eine Basis {v1 , . . . , vn }. Zu jedem
Vektor w ∈ V gibt es genau ein n-Tupel (aw,1 , . . . , aw,n ) ∈ Rn mit w = a1,w v1 + . . . + an,w vn .
Die Abbildung f : V → Rn mit w 7→ f (w) := (aw,1 , . . . , aw,n ) ist bijektiv:
Injektivität:
Klar ist - Für w 6= w
e ist (aw,1 , . . . , aw,n ) 6= (aw,1
e , . . . , aw,n
e ).
Surjektivität:
Umgekehrt gilt - Für jeden Vektor a ∈ Rn ist u := a1 v1 + . . . + an vn ein Vektor
mit u ∈ V und f (u) = a.
Basis des Nullvektorraums”:
Der Nullvektorraum besteht nur aus dem Nullvektor 0 und hat eine leere Basis. Nach Beispiel 5.1.4
ist nämlich die Menge bestehend alleine aus dem Nullvektor {0} nicht linear unabhängig. Nach der
55
5. Basen und Dimension
Definition gilt span(∅) = {0}.
5.2.2. Basisaustauschsätze
Die folgenden zwei Lemmata sind von Ihren Aussagen nur scheinbar rein technische Hilfssätze. Das
Lemma 5.2.10 zeigt insbesondere:
I dass es Sinn macht von “n-dimensionalen” Vektorräumen zu sprechen und
I dass im n-dimensionalen Vektorraum eine Menge von linear unabhängigen Vektoren höchstens
n Elemente haben kann.
Insgesamt beweist Lemma 5.2.10 den Satz 5.2.5.
Lemma 5.2.9. Sei {v1 , . . . , vk } eine Basis des Vektorraumes V , und z = a1 v1 + . . . + ak vk eine
Linearkombination mit aj 6= 0. Dann ist auch {v1 , . . . , vj−1 , z , vj+1 , . . . , vn } eine Basis von V .
Beweis. Nach Umnummerierung der vi dürfen wir annehmen, dass in z = a1 v1 + . . . + ak vk gilt:
a1 6= 0.
Wir zeigen, dass in diesem Fall {z, v2 , . . . , vk } eine Basis von V ist:
I Lineare Unabhängigkeit: Angenommen es gäbe Zahlen λ1 , . . . , λk ∈ K so dass gilt
λ1 z + λ2 v2 + . . . + λk vk = 0.
Setzt man hier λ1 z = λ1 a1 v1 + . . . + λ1 ak vk ein, so erhält man
λ1 a1 v1 + (λ2 + λ1 a2 )v2 + . . . + (λk + λ1 ak )vk = 0.
Da {v1 , . . . vk } linear unabhängig sind, sind hier alle Koeffizienten Null, d.h. insbesondere gilt
λ1 a1 = 0. Wegen der Annahme a1 6= 0 folgt sofort λ1 = 0, und dies liefert
λ2 v2 + . . . + λk vk = 0.
und damit λ2 = . . . = λk = 0, da {v1 , . . . vk } linear unabhängig sind. Folglich sind {z, v1 , . . . , vk }
linear unabhängig.
I Spann ist ganz V : Es gibt Zahlen c1 , . . . , ck ∈ K mit v1 = c1 z + c2 v2 + . . . + ck vk , denn
56
5.2. Basis
löst man z = a1 v1 + a2 v2 + . . . ak vk nach v1 auf, so erhält man
v1 =
1
a2
ak
z − v2 − . . . − vk .
a1
a1
a1
Da {v1 , . . . , vk } eine Basis von V ist, lässt sich jedes w ∈ V darstellen als Linearkombination:
w = µ1 v1 + µ2 v2 . . . + µk vk
mit µ1 , . . . µk ∈ K
Ersetzt man hier v1 = c1 z + c2 v2 + . . . + ck vk , so erhält man für w eine Linearkombination aus
z, v2 , . . . vk , nämlich
w = µ1 (c1 z + c2 v2 + . . . + ck vk ) + µ2 v2 . . . + µk vk .
Es gilt also w ∈ span(z, v2 , . . . vk ).
Lemma 5.2.10 (Basisaustasuchsatz von Steinitz). Es seien {w1 , . . . , wk } ⊂ V linear unabhängig
und es sei {v1 , . . . , vn } eine Basis von V .
Dann gilt k ≤ n, und es gibt n − k paarweise verschiedene vek+1 , . . . , ven ∈ {v1 , . . . , vk }, so dass gilt:
{ w1 , . . . , wk , vek+1 , . . . , ven }
ist eine Basis von V
Beweis. Wir führen eine Induktion über k, beginnend bei k = 1.
Induktionsverankerung: Es sei {w1 } linear unabhängig. Der Vektor w1 lässt sich darstellen als w1 =
a1 v1 + . . . + an vn mit a1 , . . . , an ∈ R. Es gilt w1 6= 0, weil {w1 } linear unabhängig ist. Also gibt es
ein ai 6= 0. Lemma 5.2.9 beweist: {v1 , . . . , vi−1 , w1 , vi+1 , . . . vk } ist eine Basis.
Induktionsannahme: Die Aussage gelte für ein ` mit 1 ≤ `.
Induktionsschluss: Es sei {w1 , . . . , w` , w`+1 } linear unabhängig, entsprechend sind {w1 , . . . , w` } linear unabhängig. Nach Induktionsannahme gibt es ui ∈ {v1 , . . . , vn }, so dass {w1 , . . . w` , u`+1 , . . . , un }
eine Basis von V ist. Insbesondere lässt sich der Vektor w`+1 darstellen als
w`+1 = a1 w1 + . . . + a` w` + b`+1 u`+1 + . . . + bn un
Da {w1 , . . . , w` , w`+1 } linear unabhängig sind, ist w`+1 keine Linearkombination der restlichen wi
nach Lemma 5.1.5. D.h. es gibt ein j ≥ ` + 1 mit bj 6= 0.
57
5. Basen und Dimension
Nummeriert man die Vektoren ui so, dass bk+1 6= 0 gilt, so zeigt Lemma 5.2.9, dass
{w1 , . . . w` , w`+1 , u`+2 , . . . , un }
eine Basis von V ist.
Es bleibt zu zeigen: k ≤ n. Dazu nehmen wir an, es seien W := {w1 , . . . , wk } ⊂ V linear unabhängig. Per Induktion haben wir bewiesen: Weil die Vektoren in W linear unabhängig sind, lässt sich W
zu einer Basis der Länge n auffüllen3 . Es folgt also insbesondere |W | ≤ n, d.h. es folgt k ≤ n.
Frage: Eine Induktion über k welches beschränkt wird?!
Eine Induktion über k beweist doch eine Aussage für alle k ∈ N. Hier kommt im zweiten Teil des
Beweises aber eine Einschränkung k < n. Geht das überhaupt?
Antwort: Die Induktion beweist eine “Wenn-Dann-Aussage”, deren “Wenn-Teil” für k > n einfach
nicht mehr eintritt:
“Wenn W := {w1 , . . . wk } linear unabhängig sind,
dann lässt sich W zu einer Basis der Länge n ergänzen.”
Diese “Wenn-Dann-Aussage” ist tatsächlich richtig für alle k ∈ N, und das beweist die Induktion.
Allerdings gibt es einen kleinen “Twist”: Die Aussage gilt ab k > n trivialerweise, weil die Voraussetzung “{w1 , . . . wk } ist linear unabhängig” unerfüllbar (also immer falsch) ist. Dies ist dann die
Aussage des zweiten Teils des Beweises:
Ab k > n gilt für eine Menge mit k-vielen Vektoren: Die Vektoren sind nicht linear unabhängig.
Lemma 5.2.10 beweist also:
I für 1 ≤ k ≤ n − 1:
Eine (tatsächlich) linear unabhängige Menge W = {w1 , . . . wk } lässt sich tatsächlich zu einer
Basis der Länge n auffüllen.
I für k = n:
Eine (tatsächlich) linear unabhängige Menge W = {w1 , . . . wn } ist bereits eine Basis der Länge
n,
3
(mit Vektoren aus B := {v1 , . . . , vn })
58
5.2. Basis
denn “zu einer Basis der Länge n auffüllen” bedeutet hier: keinen Vektor aus {v1 , . . . , vn }
dazufügen, weil die Länge n bereits erreicht ist.
I für k > n:
Jede hypothetisch linear unabhängige Menge W = {w1 , . . . wk }, ließe sich zu einer Basis der
Länge n auffüllen. Da W aber schon mehr als n Elemente hat, kann dies nicht gehen, d.h. es
gibt solche Mengen W nicht.
59
6
Matrizen
6.1. Einführung
Im den vorherigen Abschnitten haben wir gezeigt, dass ein endlich-dimensionaler K-Vektorraum V
stets isomorph ist zu einem Kn . Außerdem verlassen wir nun die Welt der allgemeinen Vektorräume
und werden von nun an nur noch Vektorräume über den reelen Zahlen R betrachten. Im Folgenden
werden wir uns daher vorerst mit linearen Abbildungen der Form f : Rn → Rm beschäftigen. Diese
linearen Abbildungen lassen sich sehr kurz und knapp durch eine Matrix beschreiben.
Definition 6.1.1 (Allgemeine Form einer Matrix). Eine m × n-Matrix (sprich „m-Kreuz-n-Matrix“)
A ist eine Abbildung
A : {1, . . . , m} × {1, . . . , n} → R,
I Wir schreiben eine Matrix in der Form

A1,1

 A2,1


A =  A3,1
 .
 ..

Am,1
(i, j) 7→ Aij .

A1,2
A1,3
···
A2,2
A2,3
A3,2
..
.
A3,3
..
.

A2,n 

· · · A3,n 
.
.. 
..
.
. 

· · · Am,n
Am,2 Am,3
A1,n
···
I Wir nennen das n-Tupel A(i) = (Ai1 , . . . , Ain ) die i-te Zeile von A.
I Entsprechend heißt der Vektor

A1j

 . 
A(j) =  .. 
Amj
die j-te Spalte von A.
I Die einzelnen Zahlen Aij heißen die Einträge von A.
I Falls m = n, nennen wir M eine quadratische Matrix.
Matrizen (Einzahl: Matrix):
Matrizen sind ein Schlüsselkonzept der linearen Algebra und tauchen in fast allen Gebieten der Ma-
61
6. Matrizen
thematik auf. Dabei stellen sie Zusammenhänge, in denen Linearkombinationen eine Rolle spielen,
übersichtlich dar und werden insbesondere benutzt, um lineare Abbildungen darzustellen.
Eine Matrix A ∈ Rm×n ist grob gesagt eine Tabelle von m mal n Zahlen, die in einem rechteckigen
Schema von m Zeilen und n Spalten angeordnet sind. In A ∈ Rm×n steht die erste DimensionsVariable „m“ für die Höhe der Matrix. Dies kann man sich merken, indem man sich vorstellt, dass ein
(virtueller) Leser, der von links nach rechts „angelaufen kommt“ immer zuerst die Höhe der Matrix
wahrnimmt.
Eine m × n-Matrix A ∈ Rm×n ist also ein Zahlenschema mit m Zeilen und n Spalten. Dabei ist
Aij ∈ R jeweils den Eintrag in der i-ten Zeile und der j-ten Spalte:
i
B
B

Breite n
A1,3 · · ·
A1,n


 A2,1 A2,2 A2,3 · · · A2,n


A =  A3,1 A3,2 A3,3 · · · A3,n
 .
..
..
..
..
 ..
.
.
.
.

Am,1 Am,2 Am,3 · · · Am,n








A1,1
A1,2
Höhe m
Der Leser nimmt immer
zuerst die Höhe der Matrix wahr, deswegen steht
m vorne.
Die Einträge Aij ∈ R einer Matrix können beliebige Zahlen aus R sein, es ist aber unzulässig eine
Position leer zu lassen.

1 2



Beispiel 6.1.2. Sei A = 5 3. Dann ist A eine 3 × 2-Matrix (d.h. A ∈ R3×2 ) und es gilt
7 4
A1,1 = 1
A1,2 = 2
A2,1 = 5
A2,2 = 3
A3,1 = 7
A3,2 = 4
Matrizen sind sehr nützliche Hilfsmittel in einer Vielzahl von Anwendungen. Sie eignen sich als Kurzschreibweise für größere Mengen von Daten. Die wahrscheinlich wichtigste solcher Anwendungen
sind lineare Gleichungssyteme.
Beispiel 6.1.3. Betrachten wir die folgenden beiden linearen Gleichungen:
4x1 +6x2 −8x3 = 0
−2x2 −8x3 = 0
62
6.2. Rechnen mit Matrizen
Die wichtige Information dieses Systems steckt lediglich in den Koeffizienten der beiden Gleichungen.
Wir können diese in einer Matrix A zusammenfassen, indem wir im Eintrag Aij den Koeffizienten von
xj in der i-ten Gleichung schreiben. Taucht xj in der i-ten Gleichung nicht auf, so setzten wir Aij = 0.
Hier lautet die Matrix A also
4
A=
6 −8
0 −2 −8
!
.
Mit den Rechenregeln, die wir in Kürze lernen werden, können wir das Gleichungssystem dann folgendermaßen schreiben:
!
0
0
=
6 −8
4
!
0 −2 −8
 
x1
 
· x2  .
x3
6.2. Rechnen mit Matrizen
I Addition Matrizen mit gleichen Dimensionen lassen sich addieren. Die Addition funktioniert
komponentenweise:
Definition 6.2.1. Es seien A, B ∈ Rm×n . Die Matrix C := A + B ist die Matrix mit den
Einträgen Cij = Aij + Bij .
Beispiel 6.2.2.

0
6


1
7


0+1
6+7


1 13


 
 
 

2 8  +  3 9  = 2 + 3 8 + 9  = 5 17
4 10
5 11
4 + 5 10 + 11
9 21
Beispiel 6.2.3.
3 5 1
2 1 7
!
+
2 6
1 2
!
ist nicht definiert.
Ganz analog definieren wir natürlich die Subtraktion A − B ganz einfach als die komponentenweise Subtraktion aller Einträge. Die Addition von zwei Matrizen ist nur definiert, wenn sie
beide die gleiche Anzahl von Zeilen und auch die gleiche Anzahl von Spalten haben.
I Multiplikation mit Skalaren Die Multiplikation einer Matrix A mit einem Skalar λ ∈ R funktioniert genauso wie bei Vektoren: Man multipliziert jeden Eintrag von A mit λ.
Definition 6.2.4. Es sei A ∈ Rm×n und λ ∈ R. Dann ist B := λ · A ∈ Rm×n die Matrix mit
63
6. Matrizen
den Einträgen Bij = λ · aij .
Beispiel 6.2.5.
5·
!
1 2 3
4 5 6
=
!
5·1 5·2 5·3
5·5 5·5 5·6
=
5
10 15
!
20 25 30
Bei der Multiplikation einer Matrix mit einem Skalar müssen wir uns keine Gedanken um passende Zeilen- und Spaltenanzahl machen. Diese Multiplikation ist immer definiert. Es gelten
die folgenden Rechenregeln.
Lemma 6.2.6. Seien A, B, C ∈ Rm×n drei m × n-Matrizen und seien λ, µ ∈ R Skalare. Dann
gelten:
A+B =B+A
(Kommutativgesetz der Addition)
(A + B) + C = A + (B + C)
(Assoziativgesetz der Addition)
λ(µ · A) = (λ · µ)A = µ(λ · A)
(Assoziativgesetz der Multiplikaton)
(λ + µ)A) = λ · A + µ · A
(Distributivgesetze)
λ · (A + B) = λ · A + λ · B
Beweis. Folgt aus der Definition und den Rechenregeln der reellen Zahlen.
Die Menge Rn×m bildet zusammen mit der Addtition und der skalaren Multiplikation einen
Vektorraum.
I Transposition
Definition 6.2.7 (Transposition). Es sei A ∈ Rm×n eine Matrix.
Die zu A transponierte Matrix AT ∈ Rn×m ist die Matrix, mit den Einträgen (AT )k` = A`k .
Die Spalten der Matrix A (von oben nach unten gelesen) werden zu
Zeilen der Matrix AT (von links nach rechts gelesen)
Beispiel 6.2.8. Aus A ∈ R3×2 wird wie folgt eine Matrix AT ∈ R2×3

1

A= 2
3
64
7


8 
9

⇒
AT = 
1 2 3


7 8 9
6.2. Rechnen mit Matrizen
Liest man einen Vektor als eine Rn×1 -Matrix so kann man diesen auch Transponieren.
Aus einem “stehenden” Vektor v ∈ R3 wird so ein “liegender Vektor”:


1
⇒
 
v= 2 
3
vT =
1 2 3
I Multiplikation mit Vektoren Die Multiplikation einer Matrix A mit einem Vektor v ist so
definiert, dass die in A gespeicherten Koeffizienten wieder an die entsprechenden Einträge von
v multipliziert werden. Das Berechnen von A · v erfolgt also zeilenweise, für jede Zeile von A
wird eine Summe berechnet:
Matrix-Vektor-Multiplikation Für eine Matrix A ∈ Rm×n mit n Spalten und einen Vektor
v ∈ Rn mit n Einträgen gilt:

A11 A12 · · · A1n


A
 21 A22 · · · A2n
A·~v = 
 .
.. . .
..
 .
.
 .
.
.

Am1 Am2 · · · Amn

A11 · v1 + A12 · v2 + · · · +A1n · vn



  A21 · v1 + A22 · v2 + · · · +A2n · vn
 
=
 
..
..
..
..
 
.
.
.
.


Am1 · v1 + Am2 · v2 + · · · +Amn · vn















·




v1
v2
..
.
vn

Das Ergebnis der Multiplikation A · v ist also ein Vektor aus Rm .
In Beispiel 6.1.3 haben wir bereits eine Multiplikation von einer Matrix A mit einem Vektor x
gesehen. Dort wurde die Multiplikation verwendet, um die linke Seite eines Gleichungssystems
in Kurzschreibweise zu notieren.
Beispiel 6.2.9.


1



 
9
·
1
+7
·
2
+5
·
3
 

· 2 =
=
 
 
8 6 4
8 · 1 +6 · 2 +4 · 3
3
9 7 5

38
!
32
Interpretation der Matrix-Vektor-Multiplikation
Die Multiplikation einer Matrix A mit einem Vektor v lässt sich auf zwei Weisen verstehen:
I Skalarprodukt mit den Zeilen von A:
Es wird zeilenweise das Skalarprodukt (siehe Kapitel ??) der i-ten Zeile von A mit v berechnet.
65
6. Matrizen

*

  
x
a b c


· y 

1 2 3
z

=
a · x +b · y
+c · z

 =

1 · x +2 · y +3 · z
 
+
a x
 b , y




c
z



 *    +


1 x

2 , y

3
z













I Linearkombination der Spalten von A:
Es werden Vielfache der Spalten von A addiert – mit Vorfaktoren aus ~v . Der Vektor ~v ist also
eine Linearkombinations-Anweisung
für die Spalten von A.
 
x




 
a
b
c
a
·
x
+b
·
y
+c
·
z
 
· y  = 


 
 
1
2
3
1 · x +2 · y +3 · z
z
!
!
a
b
= x ·
+ y ·
+ z ·
1
2
b
!
2
6.3. Matrix-Matrix-Multiplikation
Üblicherweise wird die Multiplikation A · B einer Matrix A ∈ Rk×m mit einer Matrix B ∈ Rm×n
„von rechts nach links“ durchgeführt. D.h. die Matrix B wird als Liste von Spalten aufgefasst, die
jeweils mit A multipliziert werden:
Definition 6.3.1.
Es sei
und
A ∈ Rk×m
B∈
Rm×n
mit “Inputdimension” m
mit n Spalten B (1) , B (2) , . . . , B (1) ∈ Rm :
Breite m


A=


66
A11 . . . A1m
..
..
.
.
Ak1 . . . Akm






Höhe m




B=



B11 . . . B1n
..
..
.
.
Bm1 . . . Bmn





6.3. Matrix-Matrix-Multiplikation
Die Matrix C := A · B ist die k × n-Matrix mit den Einträgen
Ci,j :=
m
X
Ais · Bsj .
s=1
Das heißt die Matrix C hat n-viele Spalten der Form C (j) = A · B (j) ∈ Rk . Also ist
A · B = A · B (1) , A · B (2) , . . . , A · B (n) .
Achtung:
I Das Produkt A · B zweier Matrizen A und B kann nur dann gebildet werden, wenn die Spaltenanzahl von A gleich der Zeilenanzahl von B ist.
I Die Matrix A · B “erbt” von A die “Output-Dimension” und von B die “Input-Dimension”.
Die Zwischen-Dimension m geht bei der Matrixmultiplikation verloren:
Ist
A ∈ Rk×m mit “Output-Dimension” k
und “Input-Dimension” m
und
So ist
B ∈ Rm×n
A · B ∈ Rk×n
mit “Output-Dimension” m
und “Input-Dimension” n
mit “Output-Dimension” k
und “Input-Dimension” n
Beispiel 6.3.2. Sei

1 5 9
A := 



1

B :=  0
und
2 6 9
1
1


1  .
0
Die Matrix A hat 3 Spalten und B hat 3 Zeilen.
Da diese Zahlen gleich sind, können wir das Produkt A · B berechnen:

 

1
1
A·B =
A
·
,
A
·


1
0



1
=
0
10
6
11
8
!
Korollar 6.3.3. Es seien A ∈ Rk×m , B ∈ Rm×n und x ∈ Rn . Dann ist
A · (B · x) = (A · B) · x.
Beweis.
67
6. Matrizen
A ∈ Rk×m
Es sei
B∈
und
Rm×n
mit “Inputdimension” m
mit n Spalten B (1) , B (2) , . . . , B (1) ∈ Rm
Weiter sei x ∈ Rn .
Dann gilt B · x = x1 · B (1) + . . . + xn · B (n) ∈ Rm .
A · (B · x) = A· x1 · B (1)
?
+ . . . + xn · B (n)
x1 · A · B (1) + . . . + xn · A · B (n)
(? Linearität von A · y)
A · B (1) + . . . + A · B (n) · x = (A · B) · x
|
{z
}
=
=
Matrix mit Spalten A·B (i)
Die Rechenregeln für die Multiplikation (Lemma 6.3.4) von Matrizen sehen im Prinzip aus, wie Rechnen mit Zahlen aus R. Allerdings gilt für Matrizen das Kommutativgesetz nicht! D.h. im Allgemeinen
ist A · B 6= B · A. Selbst wenn beide Produkte definiert sind, gilt nicht immer die Gleichheit.
e B, B,
e C Matrizen mit
Lemma 6.3.4 (Rechenregeln für die Matrix-Multiplikation). Es seien A, A,
passenden Dimensionen, d.h.
e ∈ Rm×n ,
A, A
e ∈ Rn×k
B, B
und C ∈ Rk×`
Dann gelten:
1)
(A · B) · C
=
A · (B · C)
(Assoziativgesetz)
2)
e
A · (B + B)
=
e
A·B+A·B
(Distributivgesetz)
e ·B
(A + A)
=
e·B
A·B+A
A · (λ · B)
=
λ·A·B
gilt für alle λ ∈ R
6=
B·A
(Kommutativgesetz gilt im Allgemeinen nicht)
3)
Im Allgemeinen gilt:
A·B
Beweis. Die Aussagen in 2) und 3) lassen sich direkt aus der Definition der Matrixmultiplikation
ableiten.
68
6.3. Matrix-Matrix-Multiplikation
Zu 1) Es sei C = (c1 , . . . , c` ) mit Spalten ci ∈ Rk .
A · (B · C) = A · ( B · c1 . . . B · c` ) =
A · (B · c1 ) . . . A · (B · c` )
?
(A · B) · ~c1 . . . (A · B) · c`
=
= (A · B) · C
Denn bei (?) gilt nach Korollar 6.3.3 Assoziativität: A · (B · x) = (A · B) · x gilt für alle x ∈ Rk .
Beispiel 6.3.5 (Kommutativgesetz gilt nicht). Für die Matrizen A :=
3 5
0 0
!
und B :=
0 1
!
0 0
gilt A · B 6= B · A, denn:
!
A·B =
A·
0
0
!!
A·
1
0
=
0 3
!
0 0
!
und
B·A =
B·
3
0
!!
B·
5
0
=
0 0
!
0 0
Wir haben jetzt gelernt wie man Matrizen addieren und auch miteinander multiplizieren kann, kann
man sie dann auch durcheinander “dividieren”? Die Antwort auf diese Frage geben wir in Kapitel 7
nachdem wir uns zunächst mit Linearen Gleichungssystemen beschäftigt haben, welche durch Matrizen eine elegante Darstellungsform erhalten.
69
7
Matrizen und lineare Abbildungen
7.1. Einführung
Wir haben das vorherige Kapitel 6 begonnen mit dem Versprechen, lineare Abbildungen der Form
f : Rn → Rm mit Hilfe von Matrizen beschreiben zu können. Diese Abbildungen bilden jeden
Vektor aus dem Vektorraum Rn auf einen Vektor im Vektorraum Rm ab. Wir erinnern zunächst, was
die uns geläufige Schreibweise von Vektoren aus reellen Vektorräumen der Form Rn letzlich bedeutet.
Dazu erinnern wir an die Definition 5.2.4 des Vektorraums Rn - er wird aufgespannt von den n Einheitsvektoren. Die Komponenten v1 , . . . vn eines Vektors





v=



v1


v2 


v3  ∈ Rn
.. 

. 
vn
indizieren die Koeffizienten seiner eindeutigen Linearkombination der Basisvektoren alias den Einheitsvektoren e(1) , . . . e(n) . Denn es ist





v=



v1


1


0


0

 
 
 

0
1
0
v2 
n
 
  X

 

 
 
 
vk e(k) .
v3  = v1 ·  0  + v2 ·  0  + . . . + vn ·  0  =







.. 
 .. 
 .. 
 ..  k=1
. 
 . 
 . 
 . 
vn
0
0
1
Ist f : Rn → Rm eine lineare Abbildung, dann ist also
f (v) = f
n
X
k=1
!
vk e
(k)
=
n
X
vk f (e(k) ).
k=1
Wenn wir nun die n Vektoren f (e(1) ), . . . , f (e(n) ) ∈ Rm kennen, kennen wir auch das Bild f (x) für
alle x ∈ Rn unt er der linearen Abbildung f . Mit anderen Worten: f ist vollständig durch die bilder
der Vektoren e(1) , . . . e(n) bestimmt. Wir fassen diese n Vektoren in einer Matrix zuammen. Genauer
71
7. Matrizen und lineare Abbildungen
sei M (f ) die m × n-Matrix mit Spalten
M (f )(1) = f (e(1) ), M (f )(2) = f (e(2) ), . . . , M (f )(n) = f (e(n) ).
Diese Matrix heißt die darstellende Matrix (oder Darstellungsmatrix) von f .
Erinnert an die Multiplikation einer Matrix mit einem Vektor finden wir
f (v) = M (f ) · v.
Die lineare Abbildung f ist also nichts anderes als Multiplikation mit der Matrix M (f ). Umgekehrt
stellt unsere Definition von “Matrix mal Vektor” sicher, daß für jede m × n-Matrix A die Abbildung
f : Rn → Rm , v 7→ A · x linear ist.
Beispiel 7.1.1.
I Abbildungen R → R: Alle linearen Abbildung von R nach R sind von der Form fa (x) = a · x.
Fassen wir die reellen Zahlen als Vektorraum auf, wird dieser von dem einzigen und in diesem
Fall eindimensionalen Einheitsvektor (1) aufgespannt. Das Bild dieses Vektor ist f ((1)) = (a)
und die Darstellungsmatrix ist also die 1 × 1-Matrix M (fa ) = (a). Sowohl die Vektoren als
auch die Matrizen sind in diesem Fall einfach reelle Zahlen.
I Eine Abbildung von R2 nach R2 : Wir wählen konkret die Abbildung die durch die folgenden
Bilder der Einheitsvektoren des R2 bestimmt ist:
!!
!
1
1
f
=
und
0
− 21
0
f
1
!!
=
− 12
!
1
Dann ist die Darstellungsmatrix von f gleich
M (f ) =
1
− 12
− 12
1
!
Um zu verdeutlichen, was geometrisch bei dieser linearen
Abbildung
geschieht,!betrachte das
!
!
1
2
1
Dreieck, dessen Ecken die Stützvektoren a1 =
, a2 =
und a3 =
haben, wird
1
1
2
72
7.1. Einführung
abgebildet auf:
1
1
− 12
− 21
1
1
− 12
− 21
1
·
1
!
2
!
·
1
!
1
!
·
2
1
1
a1
f (e
e(2)
(2)
a2
)
e(1)
1
f (a3 )
x2
a3
x2
=
=
1
2
1
2
!
3
2
!
0
0
=
!
3
2
)
f (a3 ) = M (f ) · a3 =
− 21
!
1
!
a1
f (a2 ) = M (f ) · a2 =
− 12
f(
f (a1 ) = M (f ) · a1 =
1
x1
f (e (
f (a2 )
1
x1
1)
)
→
Proposition 7.1.2. Sind f, g : Rn → Rm lineare Abbildungen und ist λ ∈ R, so ist
I M (f + g) = M (f ) + M (g)
I M (λ · f ) = λ · M (f )
I M (g ◦ f ) = M (g) · M (f ).
Beweis. Übungsaufgabe.
Notation:
Für quadratische Matrizen benutzen wir auch die Potenzschreibweise. Mit Ak für k ∈ N bezeichnen
wir also das Produkt
Ak = A
· . . . · A}
| · A {z
kmal
73
7. Matrizen und lineare Abbildungen
Einige Matrizen spielen eine besondere Rolle. Für jede Größe m × n bezeichnen wir mit 0 die Matrix,
deren Einträge alle gleich 0 sind. Diese Matrix hat die Eigenschaft, dass A + 0 = 0 + A = A für alle
A.
Außerdem bezeichnet id die n×n-Matrix, deren Diagonaleinträge gleich 1 sind, während alle anderen
Einträge gleich 0 sind. Für jede n × n-Matrix A gilt id · A = A · id = A. Ferner gilt id · x = x für jeden
Vektor x ∈ Rn . Allgemeiner bezeichnen wir für einen Vektor a ∈ Rn mit diag(a) die n × n-Matrix,
deren Diagonale gerade der Vektor a ist, während alle anderen Einträge gleich 0 sind. Für jeden Vektor
x ∈ Rn gilt dann

a1 x1

a x
 2 2
diag(a) · x =  .
 ..

an xn




.


Schließlich sagen wir, dass eine m × n-Matrix D Diagonalform hat, wenn aus Dij 6= 0 folgt, dass
i = j(i = 1, . . . , m; j = 1, . . . , n). Mit anderen Worten: nur die Diagonaleinträge Dii dürfen von
Null verschieden sein.
Definition 7.1.3. Seien A, B n×n-Matrizen. Wir sagen, dass B zu A invers ist, wenn A·B = B ·A =
id. Falls es eine Matrix B gibt, die zu A invers ist, heißt A invertierbar oder regulär, andernfalls
heißt A singulär.
Proposition 7.1.4. Eine n × n-Matrix A ist genau dann invertierbar, wenn die lineare Abbildung
v ∈ Rn → A · v ein Isomorphismus ist.
Beweis. ...
7.1.1. Einige weitere Beispiel
Wir führen jetzt noch einige konkrete lineare Abbildungen beispielhaft auf.
Beispiel 7.1.5.
!
I Die Abbildung f : R2 → R2 ,
x = y.
74
x
y
!
7→
y
x
entspricht der Spiegelung des R2 an der Geraden
7.2. Dimensionssatz
!
Die darstellende Matrix hat die Spalten f (e1 ) =
M (f ) =
!
I Die Abbildung h : R2 → R2 ,
x
y
0
!
, f (e2 ) =
1
1
, d.h.
0
!
0 1
1 0
!
7→
−x
y
entspricht einer Spiegelung des R2 an der y-Achse.
!
!
Die darstellende Matrix hat die Spalten h(e1 ) =
M (h) =
−1
0
, f (e2 ) =
−1 0
0
, d.h.
1
!
0 1
2 → R2 , entspricht der Hintereinanderausführung beider Spiegelungen:
I Die Abbildung
! h◦f : R !
!
x
y
−y
) = h(
)=
h ◦ f(
y
x
x
!
!
Die darstellende Matrix hat also Spalten h ◦ f (e1 ) =
M (h ◦ f ) =
0
1
0 −1
1
, h ◦ f (e2 ) =
−1
, d.h.
0
!
0
2 → R2 , entspricht der Hintereinanderausführung beider Spiegelungen:
I Die Abbildung
! h◦f : R !
!
x
y
−y
) = h(
)=
h ◦ f(
y
x
x
!
!
Die darstellende Matrix hat also Spalten h ◦ f (e1 ) =
M (h ◦ f ) =
0
1
0 −1
1
, h ◦ f (e2 ) =
−1
, d.h.
0
!
0
7.2. Dimensionssatz
Definition 7.2.1. Für eine Matrix A ∈ Rm×n definieren wir den Kern der Matrix und das Bild der
Matrix als:
Kern(A) := {~x ∈ Rn : A · ~x = 0}
Bild(A) := {A · ~x : ~x ∈ Rn }
75
7. Matrizen und lineare Abbildungen
Bemerkung:
I Für A = (~a1 . . . ~an ) mit Spalten ~ai ∈ Rm gilt: Bild(A) = span ( {~a1 , . . . , ~an })
I Für die Abbildung F : Rn → Rm , x 7→ A · x gilt:
– Der Kern ist Teilmenge der Urbildmenge Rn der Abbildung F
– Das Bild ist Teilmenge des Bildmenge Rm der Abbildung F
Lemma 7.2.2. Für jede Matrix A ∈ Rm×n sind Kern(A) ⊆ Rn und Bild(A) ⊆ Rm Vektorräume.
Beweis. Hat A ∈ Rm×n die Spalten ~a1 , . . . , ~an ∈ Rm , d.h. A = (~a1 , . . . , ~an ) so gilt Bild(A) =
span ( {~a1 , . . . , ~an }):
Bild(A) = {A · ~x : ~x ∈ Rn }
= {x1 · ~a1 + . . . + xn~an : x1 , . . . xn ∈ R} = span ({~a1 , . . . , ~an })
Der Spann von endlich vielen Vektoren ist stets ein Vektorraum, d.h. Bild(A) ist ein Vektorraum.
Kern(A) ⊆ Rn , “erbt” als Teilmenge von Rn fast alle Eigenschaften des Rn . Deswegen genügt es
nach Lemma 3.3.3 zu zeigen: Kern(A) ist abgeschlossen unter Addition und skalarer Multiplikation.
I z.z.: ∀~x, ~y ∈ Kern(A) : ~x + ~y ∈ Kern(A).
Seien x, y ∈ Kern(A), dann gilt A·(~x +~y ) = A
· ~y = 0 und das heißt: ~x +~y ∈ Kern(A).
| {z· ~x} + A
|{z}
=0
=0
I z.z.: ∀~x ∈ Kern(A), λ ∈ R : λ · ~x ∈ Kern(A).
Seien x ∈ Kern(A) und λ ∈ R, dann gilt A·(λ~x) = λ·A
| {z· ~x} = 0 und das heißt: λ·~x ∈ Kern(A).
=0
Lemma 7.2.3. Es sei A ∈ Rm×n dann gilt für die Vektorräume Kern und Bild:
dim (Kern(A)) + dim (Bild(A)) = n
Beweis. Wir konstruieren aus einer Basis von Kern(A) und (den Urbildern von) einer Basis von
Bild(A) eine Basis von Rn :
Es sei {u1 , . . . , uk } ⊂ Rn eine Basis von Kern(A), d.h. dim(Kern(A)) = k.
76
7.2. Dimensionssatz
Es sei {w1 , . . . , w` } ⊂ Rm eine Basis von Bild(A), d.h. dim(Bild(A)) = `.
Nach Definition von Bild(A) ist jeder der Vektoren wi von der Form wi = A · vi .
Es sei {v1 , . . . , v` } ⊂ Rn so dass für jedes i = {1, . . . `} gilt: A · vi = wi .
Wir zeigen nun, dass u1 , . . . , uk , v1 , . . . v` linear unabhängig sind: Es seien µ1 , . . . , µk , λ1 , . . . , λ` ∈
R
(∗)
µ1 · u1 + . . . + µk · uk
=⇒ A· µ1 · u1 + . . . + µk · uk
+λ1 · v1 + . . . + λ` · v`
+λ1 · v1 + . . . + λ` · v`
= 0
= A·0
=⇒ µ1 A · u1 + . . . + µk A · uk +λ1 · A · v1 + . . . + λ` · A · v` = 0
| {z }
| {z }
| {z }
| {z }
=0
=w1
=0
?
=w`
⇒ λ1 = λ2 = . . . = λ` = 0
? w1 , . . . , w` sind linear unabhängig
Setzt man λ1 = λ2 = . . . = λ` = 0 in (∗) ein, so erhält man
µ1 · u1 + . . . + µk · uk + 0 · v1 + . . . + 0 · v` = 0
=⇒ µ1 = . . . = µk = 0
weil u1 , . . . , u` linear unabhängig sind
Aus (∗) folgt also µ1 = . . . = µk = 0 und λ1 = λ2 = . . . = λ` = 0, d.h. die Vektoren sind linear
unabhängig.
Wir haben k + `-viele linear unabhängige Vektoren im Rn gefunden. Damit gilt nun: k + ` ≤
dim(Rn ) = n
Es bleibt zu zeigen: Für V := span ({u1 , . . . , uk , v1 , . . . v` }) gilt Rn ⊆ V .
Es sei x ∈ Rn beliebig und ye := A · x. Wegen ye ∈ Bild(A) gilt ye = λ1 w1 + . . . + λ` w` .
Es gibt damit also x
e ∈ span(v1 , . . . v` ) mit Ae
x = ye nämlich x
e := λ1 v1 + . . . + λ` v` .
Wegen Ax = Ae
x folgt A(x − x
e) = 0, d.h. ze := x − x
e ∈ Kern(A).
Insgesamt folgt: x = ze + x
e mit ze ∈ span(u1 , . . . , uk ) und x
e ∈ span(v1 , . . . , v` ).
Weil x ∈ Rn beliebeig gewählt wurde, gilt also Rn ⊆ V .
77
7. Matrizen und lineare Abbildungen
7.3. Allgemeine lineare Abbildungen zwischen Vektorräumen
Wir haben gelernt, lineare Abbildungen g : Rn → Rm durch Matrizen darzustellen. Erlauben auch
lineare Abbildungen g : V → V 0 zwischen anderen Vektorräumen V, V 0 eine solche Darstellung?
Das geht tatsächlich, allerdings müssen wir zuvor Basen von V und V 0 festlegen. Sei also A =
(x1 , . . . , xn ) eine Basis von V und B = (y1 , . . . , yn ) eine Basis von V 0 . Wir definieren einen Isomorphismus f um g als Matrix darzustellen. Es sei

a1
m
X
 . 
 . →
7
ai xi .
 . 
i=1
an

f : Rn → V,
Analog definieren wir den Isomorphismus

h : Rm → V 0 ,

b1
m
X
 . 
 . →
7
bi yi .
 . 
i=1
bn
(Dass es sich dabei um Isomorphismen handelt, ist klar, denn die Bilder sind Linearkombinationen
von Basisvektoren (Injektivität) und das Bild ist gleich span(A) bzw. span(B) (Surjektivität)).
Dann ist h−1 ◦ g ◦ f : Rn → Rm eine lineare Abbildung. Ihre darstellende Matrix M (h−1 ◦ g ◦ f )
bezeichnen wir mit MA,B (g). Explizit können wir ihre Einträge wie folgt beschreiben. Das Bild f (xj )
des jten Basisvektors von A lässt sich schreiben als
g(xj ) =
m
X
cij yi .
i=1
Ein wichtiger Spezialfall ergibt sich, wenn V = Rn und V 0 = Rm . In diesem Fall erhalten wir also
zu je zwei Basen A von Rn und B von Rm eine darstellende Matrix MA,B (g) der linearen Abbildung
g. Wie verhält sich diese Matrix zu der “natürlichen” Matrix M (g)? Die beiden Isomorphismen f :
Rn → Rn und h : Rm → Rm können ebenfalls durch Matrizen dargesellt werden, und nach der
Definition gilt
MA,B (g) = M (h−1 ◦ g ◦ f ) = M (h−1 ) · M (g) · M (f ) = M (h)−1 · M (g) · M (f ).
Anhand der Definition von f und g sieht man ferner, dass M (f ) die Matrix ist, deren Spalten die
Basisvektoren A sind. Entsprechend ist M (h) die Matrix, deren Spalten die Basisvektoren B sind.
Ein wesentliches Ziel der folgenden Abschnitte wird sein, Basen A, B zu finden, so dass die Matrix
MA,B (f ) eine möglichst einfache Gestalt hat.
78
7.4. Lineare Gleichungssysteme
7.3.1. Lineare Selbstabbildungen: Die Welt der quadratischen Matrizen
Eine Matrix A ∈ Rn×n bei der die Anzahl der Zeilen mit der Anzahl der Spalten übereinstimmt heißt
quadratisch (“Input-” gleich “Output-Dimension”).
Quadratische Matrizen stehen für lineare Selbstabbildungen, d.h. eine Matrix A ∈ Rn×n liefert eine
Abbildung f (x) := A(x) mit f : Rn → Rn . Für solche “Automorphismen4 ” gibt es viele Anwendungen und deswegen eine reichhaltige Theorie.
3 7
Beispiel 7.3.1. Für A :=
A
−1
·A=
!
gilt
2 5
5 −7
−2
3
!
·
A−1
=
3 7
!
5 −7
−2
=
2 5
!
3
!
5·3−7·2
0
0
−2 · 7 + 3 · 5
a
Beispiel 7.3.2 (Formel für das Invertieren in R2×2 ). Es sei A :=
c
= id
!
mit Einträgen a, b, c, d ∈
b d
R so dass ad − cb 6= 0 gilt.
Es gilt dann:
A−1
A
−1
1
·A=
·
ad − cb
d −c
−b
a
1
=
·
ad − cb
!
·
a
c
b d
!
d −c
−b
!
a
1
=
·
ad − cb
ad − cb
0
0
ad − cb
!
= id
7.4. Lineare Gleichungssysteme
Definition 7.4.1. Ein lineares Gleichungssystem ist ein System von Gleichungen der Form
A1,1 · x1
+A1,2 · x2
+...+
A1,n · xn
=
b1
A2,1 · x1
..
.
+A2,2 · x2
..
.
+...+
A2,n · xn
..
.
=
b2
Am1 · x1 +Am,2 · x2 + . . . + Am,n · xn = bm
4
Automorphismus= Strukturerhaltende Selbstabbildungen, von ’auto’ selbst & ’morphismus’ Verformung
79
7. Matrizen und lineare Abbildungen
mit A1,1 , . . . , Am,n ∈ R und b1 , . . . bm ∈ R.
Jedes Lineare Gleichungssystem lässt sich äquivalent schreiben als A · ~x = ~b mit A ∈ Rm×n und
~b ∈ Rm .
Das Lösen eines Linearen Gleichungssystems kann per Gauß’schem Eliminationsverfahren erfolgen.
Dabei wird eine Gleichung der Form A · ~x = ~b durch ein Tableau der Form A|b ersetzt, auf dem
Umformungen durchgeführt werden (sog. Gaussschritte), bis ein Tableau entsteht, das eine Matrix in
Zeilen-Stufen-Form enthält:
Eine Matrix A ∈ Rm×n hat Zeilen-Stufen-Form, wenn in jeder Zeile z > 2 mehr führende Nullen
stehen als in der vorherigen Zeile z −1 (es sei denn die Zeile z −1 bestand schon komplett aus Nullen).
Definition 7.4.2. Eine Matrix A ∈ Rm×n hat Zeilen-Stufen-Form, wenn es einen Zeilen-Index ` ∈
{1, . . . , m + 1} gibt mit:
I Jede Zeile mit Index in {2, . . . , ` − 1} enthält mindesten eine führende Null mehr als die Zeile
davor.
I Jede Zeile mit Index in {`, . . . , m} enthält nur Nullen (falls ` = m + 1 gibt es keine solchen
Zeilen).
Beispiel 7.4.3. Die folgenden Matrizen haben jeweils Zeilen-Stufen-Form mit ` = 4:



1 2 3 4 5




A= 0 3 5 7 9 


0 0 0 2 4
1 2 3 4 5


 0 3 5


B=
 0 0 0


 0 0 0

0 0 0



7 9  Anzahl führender Nullen

 steigt bis Zeile 3 = ` − 1
2 4 

 Anzahl führender Nullen

0 0  ist maximal ab Zeile 4 = `

0 0
Beispiel 7.4.4. Die folgende Matrix ist nicht in Zeilen-Stufen-Form, den Zeile 2 enthält genauso viele
führende Nullen wie Zeile 3, obwohl beide nicht maximal viele Nullen enthalten:

1 2 3 4 5



A= 0 0 5 7 9 
0 0 2 4 6
Ein Gleichungssytem A · ~x = ~b mit einer Matrix in Zeilen Stufen-Form zu lösen ist leicht rekursiv
80
7.4. Lineare Gleichungssysteme
möglich.
Definition 7.4.5. Für eine Gleichung A · ~x = ~b mit A ∈ Rm×n und ~b ∈ Rm ist das zugehörige
Tableau
A1,1
..
.
...
A1,n
..
.
b1
..
.
Am,1 . . . Am,n bm
Die Lösungen eines Tableaus sind die Lösungen der zugehörigen Gleichung A · ~x = ~b.
Zwei Tableaus heißen äquivalent, wenn sie dieselben Lösungen haben.
Im Gaußverfahren sind folgende Schritte Zulässig auf einem Tabeau:
Lemma 7.4.6. Die Lösungen eines Tableaus verändern sich nicht, wenn man einen der folgenden
folgenden Schritte anwendet:
Typ I)
Addiere eine das Vielfache einer Zeile zu einer anderen Zeile.
Typ II)
Multipliziere eine Zeile des Tableaus mit einer Zahl.
Typ III)
Vertausche zwei Zeilen des Tableaus.
Typ IV)
Streiche eine Nullzeile (eine Zeile deren Einträge alle Null sind).
. . . wobei jeweils die anderen Zeilen des Tableaus unberührt bleiben.
Der Beweis für Schritte vom Typ I)-III) ergibt sich direkt aus den Eigenschaften von Gleichungen.
Beispiel 7.4.7.


Gegeben sei A := 
2
1
1
1
4
3
3
3
−6
−5
−5
−5
2
1
1
4
3
3
−6
−5
−5





b := 
und
1


3
gesucht ist die Lösung ~x von A~x = ~b
−5
2
1
1
1
2
1
1
1
II − (2) · I
0
1
1
1
0
1
1
1
III + (3) · I
0
−2
−2
−2
0
0
0
0
III + (2) · II
Das letzte Tableau hat bereits Zeilen-Stufen-Form. Die letzte Zeile übersetzt sich zu der Gleichung
0 = 0, die die Lösungsmenge nicht einschränkt. Diese Gleichung kann also gestrichen werden. Nach
81
7. Matrizen und lineare Abbildungen
Streichen der letzten Nullzeile erhält man aus dem Resultierenden Tableau die Gleichungen:
I 2x1 +x2 +x3 = 1
II 0x1 +x2 +x3 = 1
Setzt man x3 := λ mit λ ∈ R so erhält man nach umstellen:
I 2 · x1 = 1 −x2 −x3
II
x2 = 1 −x3

= 1 − (1 − λ) − λ = 0 

II
= 1−λ
=⇒

0



~x =  1 − λ  mit λ ∈ R
λ
 

 


 0

0

 
Die Lösungsmege lautet also: L := 1 + λ · −1 : λ ∈ R


 0

1
7.4.1. Interpretation eines Tableaus mit Nullzeilen
Das Interpretieren eines Tableaus mit Nullzeile ist üblicherweise anfänglich etwas schweirig, aber
im Grunde genommen einfach: Eine Nullzeile entspricht einer Gleichung 0 = 0, und weil diese
Gleichung immer wahr ist, schränkt sie die Startmenge Rn nicht ein.
I “Fragt” man alle x ∈ R, ob sie x2 = 4 erfüllen, so “antworten” nur 2 und −2 mit ja:
{x ∈ R : x2 = 4} = {−2, 2}
I “Fragt” man alle x ∈ R, ob sie 0 = 0 erfüllen, so “antworten” alle mit ja, denn diese Gleichung
ist stets erfüllt! Es gilt also:
{x ∈ R : 0 = 0} = R
I “Fragt” man alle x ∈ R, ob sie 0 = 1 erfüllen, so “antworten” alle mit nein, denn diese Gleichung ist immer falsch! Es gilt also:
{x ∈ R : 0 = 1} = ∅
Nullzeilen Hat man ein Tableau, dass (am Ende) eine Nullzeile enthält, so entspricht dies der folgenden
Situation:
82
7.4. Lineare Gleichungssysteme
Das Tableau hat einen “Vorspann” aus einer Matrix A ∈ Rm×n und ~b ∈ Rm , gefolgt von einer
Nullzeile. Dieses Tableau hat dann die selben Lösungen wie A · ~x = ~b:
Tableau:
~ 1,1
A
..
.
...
A1,n
..
.

b1
..
.
A1,n xn = b1

..

.

Gleichungssystem 
~ m,1 x1 + . . . + Am,n xn = bm−1
 A
0 = 0
~ m,1 . . . Am,n bm
A
0
...
0
~ 1,1 x1 + . . . +
A
0
Die Lösungen dieses Systems sind:
{~x ∈ Rn : A~x = ~b}
\
{~x ∈ Rn : 0 = 0} = {~x ∈ Rn : A~x = ~b}
{z
}
|
=Rn
Fast-Nullzeilen Hat man ein Tableau, dass (am Ende) eine Nullzeile mit Rechter Seite ungleich Null
enthält, so hat das zugehörige Gleichungssytem keine Lösung
Allgemein sieht dies wie folgt aus: Nach umsortieren der Zeilen, hat das Tableau hat einen “Vorspann”
aus einer Matrix A ∈ Rm×n und ~b ∈ Rm , gefolgt von einer weiteren Zeile:
Tableau:
~ 1,1
A
..
.
...
A1,n
..
.
b1
..
.
~ m,1 . . . Am,n bm
A
0
...
0
1
~ 1,1 x1 + . . . + A1,n xn = b1
A

..

.

Gleichungssystem 
~ m,1 x1 + . . . + Am,n xn = bm−1
 A
0 = 1

Die Lösungen dieses Systems sind:
{~x ∈ Rn : A~x = ~b}
\
{~x ∈ Rn : 0 = 1} = ∅
|
{z
}
=∅
7.4.2. Interpretation eines Tableaus mit Sprüngen
Hat in einem Tableau eine Zeile z + 1 mehr als eine führende Nullen mehr als die vorhergehende Zeile
so bezeichnet man dies als einen “Sprung”. Die folgende Matrix hat zwei Sprünge:
I einen Sprung der Länge 3 von Zeile 2 zu Zeile 3
I einen Sprung der Länge 2 von Zeile 4 zu Zeile 5
83
7. Matrizen und lineare Abbildungen
1 2 3 4 5 6 7
0 2 3 4 5 6 7
0 0 0 0 5 6 7
0 0 0 0 0 6 7
0 0Länge
0 03 0 Länge
0 02
Hat ein Tableau in Zeilen-Stufen-Form einen Sprung der Länge k, so bedeutet dies, dass sich k − 1
der gegebenen Variablen nicht konkret festlegen lassen (s. Beispiel 7.4.7). Diese Variablen bleiben
als Variablen in der Lösung erhalten, man drückt dies durch ersetzen der Variable mit einer weiteren,
neuen Variable (meist Griechische Lettern) aus.
Beispiel 7.4.8.
1 0 1 0 1 9
−x3
−x5
x2 = 7 −2x3
−4x5
x1 = 9
0 1 2 0 4 7 −→
0 0 0 1 1 5
x4 = 5
−x5
Hier lässt sich
I x1 nur ausdrücken in Abhängigkeit von x3 und x5 (oder umgekehrt).
I x2 nur ausdrücken in Abhängigkeit von x3 und x5 (oder umgekehrt).
I x4 nur ausdrücken in Abhängigkeit von x5 (oder umgekehrt).
Hat man dies getan (s. Gleichungen oben), und legt man x5 und x3 fest, so lassen sich alle weiteren
Variablen aus x5 und x3 berechnen. D.h. für alle Werte von x5 und x3 gibt es eine Lösungsvektor ~x.
Die Lösung hat also 2 Freiheitsgrade, bzw. ist 2 dimensional. Konkret erhält man mit x3 := λ und
x5 := µ ist die Lösungsmege:

9
−λ
−µ



 7 −2λ −4µ 


 : λ, µ ∈ R}
L = {
λ




5 −µ 

µ
84
Teil II.
Ausgewählte Themen der Analysis
85
8
Komplexe Zahlen
8.1. Warum imaginäre Zahlen so heißen wie sie heißen
Dieses Kapitel widmet sich den komplexen Zahlen, einer Zahlenmenge, die zusammen mit Addition
und Multiplikation einen Zahlkörper bildet. Die folgenden Zahlenmengen sind bereits bekannt:
I
die natürlichen Zahlen
N = {1, 2, 3, 4, . . .}
I
die ganzen Zahlen
Z = {0, 1, −1, 2, −2, 3, −3, . . .}
I
die rationalen Zahlen
Q = { pq : p, q ∈ Z, q 6= 0}
I
die reellen Zahlen
R = {a + 0, d1 d2 d3 . . . : a ∈ Z und (dn )n∈N mit dk ∈ {0, 1, . . . 9} }
|
{z
}
Nachkomma-Ziffern
Diese Mengen von Zahlen haben Entsprechungen in der echten Welt:
I Die natürlichen Zahlen entsprechen der Anzahl zählbarer Gegenstände.
I Brüche (rationale Zahlen) stehen für “Anteile eines geteilten Ganzen” (Pizza).
√
I Auch reelle Zahlen treten im Alltage auf. Zum Beispiel ist 2 die Länge der Diagonale in
einem 1-mal-1 großen Quadrat (Fliese). Auch das Verhältnis der Seiten eines Blatt Papiers im
√
DinA4-Format ist 1 zu 2.
Alle diese Zahlen bis hin zu den reellen Zahlen lassen sich also in der Umwelt anschaulich darstellen. Nicht so die imaginäre Einheit bzw. die komplexen Zahlen: Sie entsprechen den nicht ganz so
greifbaren, abstrakten Lösungen von Polynomgleichungen. Man kann sich diese Zahlen zwar veranschaulichen, also auf ein Blatt Papier zeichnen, man findet Sie jedoch in der Natur nur hinter den
Kulissen, im Wirken von physikalischen Gesetzen.
8.2. Definition
Die Klasse der reellen Zahlen ist sehr groß, trotzdem lernt man in der Schule, dass a · x2 + b · x + c = 0
nur dann lösbar ist, falls ihre Diskriminante ∆ = b2 − 4ac nicht-negativ ist, da aus einer negativen
Zahl keine Wurzel gezogen werden kann.
Beispielsweise hat die Gleichung x2 = −1 keine reelle Lösung, was etwas unbefriedigend ist. Lässt
87
8. Komplexe Zahlen
sich nicht vielleicht doch irgendwie eine Zahl
es keine reelle Zahl x ∈ R mit
x2
√
−1 definieren? Die Antwort ist jein. Tatsächlich gibt
= −1, hier wurde Ihnen also nichts vorenthalten, trotzdem konstru-
ieren wir nun eine Lösung, indem wir uns eine entsprechende Zahl definieren.
8.2.1. Die imaginäre Einheit
Definition 8.2.1. Wir definieren eine Zahl i (genannt die imaginäre Einheit) so, dass i2 = −1 gilt.
Die Zahl i ist in sofern imaginär, als dass sie keine reelle Zahl ist, und keine direkt greifbare Entsprechung in der “echten” Welt besitzt. Mit dieser neuen, zusätzlichen Zahl können nun die Lösungen für
x2 = −1 angeben, dies sind nämlich i und −i.
Aus der Regel i2 = −1 lässt sich folgern, dass sich Potenzen von i wieder als ±1 oder ±i schreiben
lassen:
k
0
1
2
3
4
ik
i0
i1
i2
i3
i4
...
Wert
1
i
−1
−i
1
...
·i
·i
·i
·i
·i
Definition 8.2.2. Eine Komplexe Zahl z hat die Form z = a + i · b dabei sind a, b ∈ R und i ist die
imaginäre Einheit.
Für z = a + i · b ist Re(z) := a der Realteil von z und Im(z) := b der Imaginärteil von z.
Die Menge aller Komplexen Zahlen kürzt man ab mit C := {a + i · b : a, b ∈ R}
Typischer Fehler:
Der Imaginärteil von z = a + i · b ist die reelle Zahl b und nicht i · b.
Mit i können wir nun Lösungen für alle Polynomgleichungen angeben – nicht nur eine Lösung für
x2 = −1.
Satz 8.2.3. Für das Polynom x2 + px + q mit p, q ∈ R sei
88
p 2
2
− q < 0.
8.2. Definition
Dann hat die Gleichung x2 + px + q = 0 die komplexen Lösungen
p
z1 := − + i ·
2
s
p 2
2 − q
p
z2 = z 1 := − − i ·
2
und
s
p 2
2 − q
Den Beweis führt man durch einfaches Einsetzen und Nachrechnen unter Beachtung, dass hier gilt:
p 2
2
−q <0
⇒
2
p 2
=q− p
−
q
2
2
Beispiel 8.2.4. Gesucht sind die Lösungen von x2 + 2x + 10 = 0 mit der p-q-Formel ergibt sich:
x1,2 = −1 ±
√
1 − 10 = −1 ±
p
√
(−1) · 9 = −1 ± 3 · −1.
In reellen Zahlen gibt es hier keine Lösung, in komplexen Zahlen lauten die Lösungen x1/2 = −1±3·i.
√
Typischer Fehler: i ist nicht “ −1”
√
Obwohl es verführerisch aussieht, ist es nie richtig “ i = −1 ” zu schreiben. In Beispiel 8.2.4 sieht
√
√
es zwar so aus als hätte man “ −1” durch i ersetzt, trotzdem gilt nicht “i = −1”.
Die Wurzelfunktion
√
x liefert für x ∈ R mit x ≥ 0 das nicht-negative y, für dass y 2 = x gilt. Wegen
der Einschränkung “nicht-negativ” funktioniert die Wurzelfunktion nicht bei −1:
I Die Lösungen für y 2 = 16 sind zum Beispiel 4 und −4,
√
die Wurzelfunktion liefert aber nur die postive Lösung 16 = 4.
I Die Lösungen für y 2 = −1 sind i und −i,
aber hier ist (und bleibt!) unklar, wer “die positive” Lösung ist.
Sowohl i als auch −i sind weder positiv noch negativ!
Auch das Argument “i hat kein Vorzeichen” zieht hier nicht, denn: Bei der Definition von C hätte man
(statt die Zahl i zu wählen) ebenso gut die komplexen Zahlen über j := (−i) definieren können! Dann
hätte die Zahl j (also eigentlich −i) “kein Vorzeichen”.
Ein anderes, etwas schwierigeres Argument für i 6=
√
−1 ist das Folgende:
√
Wḧre −1 eine echte Zahl, so dürfte man also aus −1 die Wurzel ziehen, d.h. für die entstehende
√
√
√ √
Zahl −1 müsste dann die übliche Wurzelrechenregel a · b = a · b gelten.
√
−1.
(?)
Annahme: Es gelte i =
(??)
Dann gilt die Wurzelrechenregel
√
a·b=
√ √
a · b auch für a = b = −1.
89
8. Komplexe Zahlen
2)
p
(−1) · (−1)
p
p
??
⇔ 1 =
(−1) · (−1)
3)
⇔ 1 = i·i
4)
⇔ 1 = −1
Es gilt dann also: 1)
1 =
?
Während hier 1) unstrittig wahr ist, ist 4) unstrittig falsch, d.h. die Annahme i =
√
Widerspruch (und zwar durch (??), das direkt aus i = −1 folgt).
√
−1 führt zu einem
8.2.2. Rechnen mit komplexen Zahlen
Das Rechnen mit komplexen Zahlen folgt im Wesentlichen den Rechenregeln für reele Zahlen, d.h.
auch hier gilt beispielsweise die Regel “Punkt- vor Strichrechnung”. Für das Multiplizieren von komplexen Zahlen benötigt man zum einen ein gutes Verständnis der Binomischen Formeln und zum
anderen die einfache Einsicht, dass sich Potenzen von i wieder als ±1 oder ±i schreiben lassen:
Addition in C
+
=
Addition von Polynomen
a+
b·i
c+
d·i
+
(a + c) + (b + d) · i
=
Multiplikation in C
b·x
c+
d·x
(a + c) + (b + d) · x
Multiplikation von Polynomen
(a + b · i) · (c + d · i)
=
a+
(a + b · x) · (c + d · x)
a · c + (a · d + c · b) i + b · d ·|{z}
i2
=
a · c + (a · d + c · b) x + b · d · x2
=−1
=
a · c − b · d + (a · d + c · b) i
8.3. Komplexe Zahlen als kartesische Vektoren
Die Menge der komplexen Zahlen C lässt sich auffassen als ein zwei-dimensionaler reeller Vektorraum.
90
8.3. Komplexe Zahlen als kartesische Vektoren
!
Re(z)
Jeder Zahl z = a + i · b kann man einen Vektor
!
=
Im(z)
a
b
zuordnen.
3
Im zugehörigen R2 bezeichnet man die x1 -Achse mit Re und die
2
x2 -Achse mit Im. Den entstehenden besonderen R2 nennt man die
1
“komplexe Zahlenebene” oder auch die “Gaussche Zahlenebene”.
0
3+i·2
0
Beide Koordinaten-Achsen (auch die Im-Achse!) werden mit Zahlen
aus R beschriftet.
Im
1
2
3
4
Re
!
0
(Die Zahl z := 2i liegt beispielsweise als Vektor
auf der Im-
2
Achse bei Achsenabschnitt “2” (d.h. bei Im(2i) = 2). Der Wert der
komplexen Zahl z ist aber weiterhin 2i und damit komplex.)
Die Addition von zwei Komplexen Zahlen durch getrenntes Addieren von jeweils zwei Realteilen und
zwei Imaginärteilen läuft ganz analog zur Addition von Vektoren im R2 ab. Wie dort so entspricht
auch in C die Addition dem Aneinanderhängen der Zahlen bzw. Vektoren:
Addition in C
+
a+
b·i
c+
d·i
Im
4
3 + 1 ·i
3
(a + c) + (b + d) · i
=
z+
2
Addition von Vektoren
a
b
!
+
c
d
!
=
a+c
w
+
w
1
!
5 + 4 ·i
z
0
0
1
2
2 + 3 ·i
Re
3
4
5
b+d
Jede Zahl z ∈ C hat als Vektor eine Länge und einen Winkel (zur Re-Achse):
!
Definition 8.3.1. Der Betrag einer komplexen Zahl z = a + b · i ist die Länge des Vektors
√
gilt |z| := a2 + b2 .
a
, es
b
Das Argument arg(z) ∈ [0, 2π) einer komplexen Zahl z ∈ C ist der Winkel, der zwischen der ReAchse und der Strecke von 0 nach z eingeschlossen wird.
Beispiel 8.3.2.
91
8. Komplexe Zahlen
√
√
2 und arg(z) = 43 π.
√
√
7
I Für die Zahl w = 2 − 2i ist |z| = 22 + 22 = 2 · 2 und arg(z) = 2π − π
4 = 4 π.
I Für die Zahl z = −2 + 2i ist |z| =
z = −2 + 2i
Im
22 + 22 = 2 ·
Im
arg(z)
arg(w)
|z
|
Re
Re
|w
|
w = 2 − 2i
Achtung: Winkel vs. Argument
Man beachte, dass nach obiger Definition für arg(z) stets 0 ≤ arg(z) < 2π gilt.
Gibt man jedoch Winkel an, so sind zwei Winkel äquivalent, wenn sie sich nur um ein Vielfaches von
2π unterscheiden.
Das Bogenmaß ordnet dem vollen Kreis den Wert 2π zu, weil der Kreisumfang des Einheitskreises
(der Kreis mit Radius r = 1) Umfang 2πr = 2π hat.
8.4. Konjugiert komplexe Zahlen und Division
Definition 8.4.1. Für eine komplexe Zahl z = a + b · i, bezeichnet man mit z = a − b · i die zu z
konjugiert komplexe Zahl, die aus z durch Spiegelung an der reellen Achse hervorgeht.
Offensichtlich haben z und z die selbe Länge, aber entgegenge-
Im
z =3+i·2
2
1
|z| = |z|
0
0
α
−α1
und
arg(z) = 2π − arg(z).
Re
2
3
4
−1
z = 3−i · 2
−2
setzte Winkel. Es gelten:
Konjugieren und rechnen mit komplexen Zahlen ist vertauschbar.
Bei Summen und Produkten kann das Konjugieren also vor oder
nach dem Addieren bzw. Multiplizieren geschehen. Genauer gelten für z, w ∈ C:
(z + w) = z + w
92
und
(z · w) = z · w
8.4. Konjugiert komplexe Zahlen und Division
8.4.1. Verwendung
Das Konjugieren einer komplexen Zahl z wird “beim Berechnen von reellen Zahlen aus z” genutzt.
Mit Hilfe der dritten Binomischen Formel gilt für z = a + b · i:
z · z = (a + b · i) · (a − b · i) = a2 − (i · b)2 = a2 + b2
Dies kannn beim Teilen durch komplexe Zahlen verwendet werden: Um auf einen reellen Nenner
zu kommen, erweitert man einen komplexwertigen Bruch
w
z
mit z, dem komplex Konjugietrten des
Nenners.
Beispiel 8.4.2. Für z = 4 + 3i und w = 1 + i gilt:
w·z
(1 + i) · (4 − 3 · i)
7+i
7
1
w
=
=
= 2
=
+
·i
2
z
z·z
(4 + 3 · i) · (4 − 3 · i)
4 +3
25 25
Lemma 8.4.3. Für z = a + b · i und w = c + d · i gelten:
w
ca + db ad − bc
= 2
+ 2
·i
z
a + b2
a + b2
Das Ergebnis der Division
w
z
ist also stets wieder eine komplexe Zahl.
Beweis. Man rechnet nach
w
w·z
(c + d · i) · (a − b · i)
ca + db ad − bc
=
=
= 2
+ 2
· i.
z
z·z
(a + b · i) · (a − b · i)
a + b2
a + b2
Die zu z konjugierte Zahl wird benötigt, um aus z die Größen Re(z), Im(z) und |z| zu berechnen.
Lemma 8.4.4 (Berechnungen mittels z). Für z = a + ib gelten:
Re(z) =a,
Im(z) =b
und
|z| = =
p
a2 + b2 .
93
8. Komplexe Zahlen
Beweis. Man rechnet nach
Re(z) =
z+z
2
=
(a +i · b) + (a −i · b) 2a
=
=a
2
2
Im(z) =
z−z
2i
=
(a +i · b) − (a −i · b) 2bi
=
=b
2i
2i
|z| =
√
z·z =
p
p
√
(a +i · b)·(a −i · b) = a2 − (i · b)2 = a2 + b2 .
8.5. Polardarstellung komplexer Zahlen
Anstatt Real- und Imaginärteil einer komplexen Zahl z zu kennen, reicht es auch ihren Betrag r, d.h.
den Abstand vom Ursprung und den Winkel α, den die Strecke vom Ursprung zu z mit der reellen
Achse einschließt, zu kennen.
Definition 8.5.1. Die Polarkoordinaten einer komplexen Zahl z ∈ C \ {0} bestehen aus dem Paar
(r, α) ∈ R2 mit
I Länge r ≥ 0, d.h. r := |z| und
I Winkel α ∈ R so dass α äquivalent zu arg(z) ist, d.h. α = arg(z) + k · 2π mit k ∈ Z.
Für z = 0 sind die Polarkoordinaten von der Form (0, α), dabei ist der Winkel α beliebig.
√
2 und arg(z) = 2π − π
4.
√
√
π
Als Polarkoordinaten kommen beispielsweise in Frage: (2 2 , 2π − π
4 ) aber auch (2 2 , − 4 )
Beispiel 8.5.2. Für die Zahl z = 2 − 2i ist |z| = 2 ·
Im
2π −
Im
π
4
Re
− π4
Re
|
|
|z
|z
z = 2 − 2i
z = 2 − 2i
Lemma 8.5.3 (Umrechnen von Polarkoordinaten in kartesische Koordinaten). Liegt z in Polarkoor-
94
8.5. Polardarstellung komplexer Zahlen
Im
Im
z=
b (r, α)
r
z =a+b·i
b
a
α
Re
Re
Abbildung 8.1.: Kartesische vs. Polarkoordinaten Darstellung einer komplexen Zahl
dinaten z =
b (r, α) vor, so gilt z = r · cos(α) + r · sin(α) · i, d.h.
Re(z) = r · cos(α)
Im(z)
= r · sin(α)
Schulwissen: rechtwinkliges Dreieck
Komplexe Zahlen
Im
z = a + ib
c
r=
b
α
|z |
b
α
a
a
Ankathete
cos(α) = Hypothenuse
= ac
⇒
Gegenkathete
sin(α) = Hypothenuse = cb
⇒ b = c · sin(α)
a = c · cos(α)
Re
Re(z) = a = r · cos(α)
Im(z) =
b = r · sin(α)
Lemma 8.5.4 (Umrechnen von kartesischen Koordinaten in Polarkoordinaten). Sind die kartesischen
Koordinaten z = a + b · i 6= 0 bekannt, so können die zugehörigen Polarkoordinaten (r, α) wie folgt
berechnet werden:
√
r = |z| = a2 + b2
arccos a
r
α =
 − arccos a
r


falls b ≥ 0
falls b < 0
dabei ist arccos(x) die Umkehrfunktion des Cosinus.
95
8. Komplexe Zahlen
8.6. Multiplizieren und Dividieren in Polarkoordinaten
Für zwei komplexe Zahlen ist die Multiplikation in Polarkoordinatendarstellung erheblich einfacher
als in kartesischen Koordianten. Kurz gesagt gilt:
Längen werden multipliziert
und
Winkel werden addiert.
Lemma 8.6.1. Es seien z, w ∈ C mit z =
b (r, α) und w =
b (R, β). Dann gilt für das Produkt und den
Quotienten:
z·w =
b (r · R , α + β)
und
w
=
b
z
R
, β−α
r
Beispiel 8.6.2.
z=
b 1.5 , 2 ·
2π
12
2 , 3·
2π
12
2π
12
w=
b
Im
z·w =
b
w
|
|
⊕
↓
↓
3 , 5·
z·w
z
α+
β β
α
0.5
1
1.5
2
2.5
3
Re
Den Beweis werden wir mit der Eulerschen Darstellung einer komplexen Zahl führen, dafür benötigen
wir das Verhalten der Funktion ex beim Einsetzen von rein komplexen Zahlen i · α:
Lemma 8.6.3. Für α ∈ R gilt stets ei·α = cos(α) + i · sin(α).
und
e
i· π2
=i
Die Zahl eiα ist die Zahl auf dem Einheitskreis mit Winkel α:
96
Insbesondere gelten: ei·π = −1
8.6. Multiplizieren und Dividieren in Polarkoordinaten
1
Imπ
ei· 2
Im
π
ei· 4
z = eiα = cos(α) + i · sin(α)
|e iα
|=
−1
Re
1
π
α
7
e−i· 4 = ei· 4 π
−1
sin(α)
1
ei·π
0
Re
cos(α)
1
Beweis. Die Taylorreihentwicklungen von ex , cos(x) und sin(x) lauten:
2
ex = 1 +x + x
2!
2
4
+x
4!
+x
4!
3
+...
±...
5
−x
3!
x
5
+x
5!
4
−x
2!
cos(x) = 1
sin(x) =
3
+x
3!
+x
5!
±...
Setzt man in ex die Zahl i · α ein so erhält man (wegen i1 = i, i2 = −1, i3 = −i, i4 = 1, i5 = i, . . . ):
2
eiα = 1 +i · α +i2 · α
2!
= 1
3
+i3 · α
3!
4
+i4 · α
4!
3
+α
4!
2
−α
2!
+i · α
5
+i5 · α
5!
+...
5
+i · α
5!
±...
4
−i · α
3!
=
cos(α)
+i · sin(α)
Es gilt also ei·α = cos(α) + i · sin(α)
Satz 8.6.4 (Eulerdarstellung). Für eine komplexe Zahl z ∈ C mit Polarkoordinaten z =
b (r, α) gilt:
z = r · ei·α
Umgekehrt gilt r · ei·α =
b (r, α), d.h. r · ei·α hat die Länge r und den Winkel α.
Beweis. Die Zahl z =
b (r, α) lässt sich nach Lemma 8.5.3 schreiben als
z = r · cos(α) + i · r · sin(α) = r · (cos(α) + i · sin(α)) ,
|
{z
}
eiα
d.h. es gilt z = r · eiα .
97
8. Komplexe Zahlen
Für die Zahl r · ei·α gilt:
p
r · ei·α = r · | cos(α) + i sin(α)| = r · cos(α)2 + sin(α)2
{z
}
|
=1
Darüberhinaus hat ei·α nach Lemma 8.6.3 den Winkel α, und entsprechend hat r · ei·α den Winkel
α.
Jetzt können wir Lemma 8.6.1 beweisen.
Beweis von Lemma 8.6.1. Es gelten z = r · ei·α und w = R · ei·β und es folgt:
z · w = r · ei·α · R · ei·β = r · R · ei·(α+β)
Die letzte Zahl hat offensichtlich den Betrag (Länge) r · R und den Winkel α + β. Es gilt also
z·w =
b (r · R, α + β).
Für den Quotienten gilt aber
w
R · ei·β
R · ei·β −iα R i(β−α)
=
=
·e
= ·e
.
z
r · ei·α
r
r
Die letzte Zahl hat offensichtlich den Betrag (Länge)
w
z
=
b
( Rr
R
r
und den Winkel β − α. Demnach gilt
, β − α).
8.6.1. Einheitswurzeln
Definition 8.6.5 (Einheitswurzeln). Es sei n ∈ N \ {0}. Die Lösungen von z n = 1 mit z ∈ C heißen
die n-ten Einheitswurzeln.
Satz 8.6.6. Für n ∈ N \ {0} sind die Lösungen von z n = 1 die folgenden Punkte auf dem Einheitskreis:
2π
iα
L := e ∈ C : α = k ·
mit k = 0, 1, 2, . . . n − 1
n
Eine Lösung ist (bei k = 0) die Zahl z = 1, alle Lösungen liegen auf einem symmetrischen n-Eck.
Beispiel 8.6.7.
98
8.6. Multiplizieren und Dividieren in Polarkoordinaten
Für n = 3 sind die Lösungen von z 3 = 1 die drei komplexen Zahlen
i·0· 2π
3
z1 = e
z2 = e
i·1· 2π
3
z3 = e
z2
i·2· 2π
3
Im
Diese Zahlen liegen gleichmäßig über den Einheitskreis verteilt mit Winkeln
0=
b 0◦
1·
2π
=
b 120◦
3
und
2·
2π
=
b 240◦
3
z1
Re
z3
Ausrechnen der trigonometrischen Funktionen mittels “z = r cos(α) + i · r sin(α)” führt zu den
kartesischen Koordinaten:
√
1
3
z2 = − + i ·
2
2
z1 = 1
√
3
1
z4 = − − i ·
2
2
Satz 8.6.6 lässt sich mit den Multiplikationsregeln (Längen multiplizieren, Winkel addieren) für Polarkoordinaten veranschaulichen. Wir betrachten das Beispiel z 5 = 1:
Die Zahl z = r·eiα hat Polarkoordinaten (r, α), d.h. z 5 = r5 ·ei5α hat die Polarkoordinaten (r5 , 5 · α).
Die Zahl 1 hat Polarkoordinaten (1, β) mit möglichen Winkeln β ∈ {. . . , −2π, 0, 2π, 2 · 2π, . . .}.
Damit z 5 = 1 gelten kann, muss also gelten: r5 = 1 und
5 · α = k · 2π mit k ∈ Z.
I Radius: Aus r5 = 1 folgt sofort r = 1, denn es gelten r ∈ R und r ≥ 0 (r ist eine Längenangabe) und in R≥0 gibt es nur eine Lösung von x5 = 1, nämlich x = 1
I Winkel: Wegen den Multiplikationsregeln (Winkel addieren!) folgt: z =
b (1, α) ⇒ z 5 =
b (1, 5α)
Die Zahl 1 hat Polarkoordinaten (1, β) mit möglichen Winkeln β ∈ {. . . , −2π, 0, 2π, 2 ·
2π, . . .}.
Es folgt also
. . . 5α = −1 · 2π
oder 5α = 0 · 2π
oder
5α = 1 · 2π
d.h. es gilt 5α = k · 2π mit k ∈ Z beziehungsweise α = k ·
2π
5
oder 5α = 2 · 2π
oder . . .
mit k ∈ Z
– Für k = 0, 1, 2, 3, 4 ergeben sich Punkte auf dem Einheitskreis mit Winkelabstand 2π/5
zueinander (die Ecken eines symmetrischen 5-Ecks!) z.B. ergibt k = 0 die Lösung z = 1,
d.h. die Zahl mit Winkel α = 0 ·
2π
5
= 0.
– Für k ∈ Z \ {0, 1, 2, 3, 4} ergeben sich zwar neue Zahlen α, aber nicht neue Lösungen
z ∈ C, denn ab k = 5 wiederholen sich die Ergebniszahlen z, weil sich immer Winkel
der Form “echtes-2π-Fünftel plus Vielfaches-von-2π” ergeben. Die Punkte mit Winkel
“echtes-2π-Fünftel” sind mit k = 0, 1, 2, 3, 4 schon entdeckt, während “Vielfaches-von2π” für Winkelangaben unbedeutend ist! Zum Beispiel gilt wegen 5 · 2π/5 = 2π:
99
8. Komplexe Zahlen
100
k=5
heißt
α = 5 · 2π/5
k=6
heißt
α = (5 + 1) · 2π/5 = 2π + 1 · 2π/5
ergibt selbes z wie für k = 1.
k=7
..
.
heißt
α = (5 + 2) · 2π/5 = 2π + 2 · 2π/5
ergibt selbes z wie für k = 2.
= 2π + 0
ergibt selbes z wie für k = 0.