Bonusmaterial Eigenwerte und Eigen- vektoren – oder wie man

18
Bonusmaterial
Eigenwerte und Eigenvektoren – oder wie man
Matrizen diagonalisiert
18.1
x2
Der Satz von Gerschgorin
Mit dem Satz von Gerschgorin lassen sich die
Eigenwerte einer komplexen Matrix
abschätzen
K3
K2
K1
−5
2
x1
4
Cn×n .
Gegeben ist eine quadratische Matrix A = (aij ) ∈
Wir betrachten zu dieser Matrix A die n Kreisscheiben
n
Ki := {z ∈ C | |z − aii | ≤
|aij |},
i = 1, . . . , n .
j =1
j =i
Der Satz von Gerschgorin
Die n Eigenwerte der komplexen Matrix A liegen in der
n
Vereinigung
i=1
Ki dieser n Kreisscheiben.
Bevor wir den Satz von Gerschgorin beweisen, geben wir ein
Beispiel an.
Beispiel
Wir geben die drei Kreisscheiben K1 , K2 , K3 für die Matrix
⎛
−5
A=⎝ 2
3
0
2
−5
⎞
0
1⎠ ∈ C3×3 .
4
Abbildung A18.1 Die Eigenwerte der Matrix A liegen innerhalb der drei Kreise.
Beweis: Wir beweisen nun den Satz von Gerschgorin. Zu
einem Eigenwert λ ∈ C von A = (aij ) mit Eigenvektor
⎛ ⎞
v1
⎜ .. ⎟
v = ⎝ . ⎠ zum Eigenwert λ wählen wir ein r ∈ {1, . . . , n}
vn
mit |vr | ≥ |vi | für alle i ∈ {1, . . . , n}. Es gilt vr = 0, da
v = 0 gilt. Dann ist v := |vr |−1 v auch ein Eigenvektor zum
Eigenwert λ, aber v hat die Eigenschaft, dass jede Komponente von v einen Betrag kleiner als 1 hat.
Daher
⎛ ⎞ können wir nun gleich einen solchen Eigenvektor v =
v1
⎜ .. ⎟
⎝ . ⎠ wählen mit der Eigenschaft
vn
max {|vi |} = |vr | = 1 für ein r ∈ {1, . . . , n} .
i=1,...,n
an. Man erhält
K1 = {−5} ,
Weil v ein Eigenvektor zum Eigenwert λ ist, gilt
K2 = {z ∈ C | |z − 2| ≤ 3} ,
K3 = {z ∈ C | |z − 4| ≤ 8} .
Tatsächlich hat die Matrix A die Eigenwerte −5, 3+2i sowie
3−2i. Hierbei folgt aber die Tatsache, dass −5 ein Eigenwert
ist, nicht aus dem Satz von Gerschgorin – jedoch aus der
verschärften Version, die wir nach dem Beweis des Satzes
von Gerschgorin bringen.
(A − λ En ) v = 0 .
Die r-te Zeile dieses Gleichungssystems lautet:
n
(arr − λ) vr = −
ari vi .
i=1
i=r
2
18 Eigenwerte und Eigenvektoren – oder wie man Matrizen diagonalisiert
Es folgt mit der Dreiecksungleichung in C
Verschärfte Version des Satzes von Gerschgorin
Es seien M1 , . . . , Mr verschiedene Kreisscheiben
{K1 , . . . , Kn } und Mr+1 , . . . , Mn die restlichen der
n Kreisscheiben.
Gilt
⎞
⎛
n
|arr − λ | = |(arr − λ) vr | =
ari vi
i=1
i=r
n
|ari ||vi | ≤
≤
r
n
i=1
i=r
|ari |.
i=1
i=1
i=r
r
Und damit gilt λ ∈ Kr = {z ∈ C | |z − arr | ≤
n
i=1
i=r
so enthält
|ari |}.
Damit haben wir die Aussage bewiesen: Jeder Eigenwert
der Matrix A liegt in der Vereinigung der Kreisscheiben
K1 , . . . , Kn .
i=1
n
∩⎝
Mi
Mi ⎠ = ∅ ,
i=r+1
Mi genau r Eigenwerte und
nau n − r Eigenwerte.
Beispiel
n
i=r+1
Mi ge-
Wir betrachten erneut obiges Beispiel:
x2
K3
K2
Kommentar: Man kennt die Eigenwerte also umso genauer, je kleiner diese Kreisscheiben sind. Im Extremfall einer
Diagonalmatrix gibt der Satz von Gerschgorin die Eigenwerte sogar exakt an. Ansonsten liefert der Satz von Gerschgorin
eine gute Näherungslösung, wenn die Matrix A diagonaldominant ist, d. h., die Komponenten aij mit i = j der Matrix
A haben einen kleinen Betrag |aij | – es sind in diesem Fall
dann die Kreisscheiben klein.
K1
−5
2
4
x1
Abbildung A18.3 Die Eigenwerte der Matrix A liegen innerhalb der drei Kreise.
x2
Der Kreis K1 enthält wegen K1 ∩ (K2 ∪ K2 ) = ∅ genau
einen Eigenwert. Dieser kann nur −5 sein.
18.2
x1
Abbildung A18.2 Bei diagonaldominanten Matrizen sind die Kreise klein, die
Eigenwerte also gut zu schätzen.
Disjunkte Vereinigungen verbessern die
Schätzungen
Wir bringen zuerst die Verschärfung des Satzes von
Gerschgorin. Dabei ist wieder eine quadratische Matrix A =
(aij ) ∈ Cn×n mit den zugehörigen n Kreisscheiben
n
Ki := {z ∈ C | |z − aii | ≤
|aij |},
j =1
j =i
gegeben.
i = 1, . . . , n
Eigenwerte und
Eigenvektoren von
Endomorphismen
Ist V ein K-Vektorraum, so nennt man eine lineare Abbildung ϕ von V in sich auch einen Endomorphismus. Weil
ϕ(v) ∈ V für jedes v ∈ V gilt, ist es auch sinnvoll, zu hinterfragen, ob ϕ(v) = λ v für ein λ ∈ K gilt. Wir werden solche
Vektoren v Eigenvektoren und die Skalare Eigenwerte des
Endomorphismus ϕ nennen.
Eigenwerte und Eigenvektoren von
Endomorphismen werden analog zu jenen von
Matrizen definiert
Wir betrachten einen Endomorphismus ϕ eines endlichdimensionalen K-Vektorraumes V , d. h., ϕ ist eine lineare Abbildung von V nach V . Nach Wahl einer geordneten Basis
B = (b1 , . . . , bn ) können wir zu diesem Endomorphismus
die Darstellungsmatrix bezüglich dieser Basis B ermitteln:
B M(ϕ)B
Arens et al., Mathematik, ISBN: 978-3-8274-1758-9, © Spektrum Akademischer Verlag, 2008
= ((B ϕ(b1 ), . . . , B ϕ(b1 )))
18.2 Eigenwerte und Eigenvektoren von Endomorphismen
– die i-te Spalte der Darstellungsmatrix ist der Koordinatenvektor des Bildes des i-ten Basisvektors.
Mithilfe dieser Darstellungsmatrix erhalten wir nun den Koordinatenvektor B ϕ(v) des Bilder ϕ(v) eines Vektors v ∈ V
durch eine Multiplikation der Matrix mit einer Spalte:
B ϕ(v) = B M(ϕ)B B v .
Beispiel Wir betrachten den R-Vektorraum V aller beliebig oft differenzierbaren Funktionen f : R → R und
d
:
dx
V
f
→
→
V
f
das Ableiten. Für λ ∈ R und
gλ : R → R , x → eλ x
Diese Multiplikation ist sehr einfach auszuführen, wenn die
Elemente b1 , . . . , bn der Basis B die Eigenschaft
gilt bekanntlich gλ (x) = λ eλ x für x ∈ R, also
d
(gλ ) = gλ = λ gλ .
dx
ϕ(b1 ) = λ1 b1 , . . . , ϕ(bn ) = λn bn
haben, denn in diesem Fall ist die Darstellungsmatrix eine
Diagonalmatrix
⎞
⎛
λ1 · · · 0
⎜ . ..
.⎟
B M(ϕ)B = ((B ϕ(b1 ), . . . , B ϕ(b1 ))) = ⎝ ..
. .. ⎠ .
0 · · · λn
Demnach ist jede reelle Zahl λ Eigenwert des Endomorphisd
mus dx
, und die Funktion gλ : R → R, x → eλ x ist ein
d
Eigenvektor von dx
zum Eigenwert λ. Der Eigenraum von
d
dx zum Eigenwert λ ist
Eig d (λ) = {g : R → R | g = λ g} ,
dx
also gerade die Lösungsmenge der linearen Differenzialgleichung
y = λy .
Die folgende Definition ist naheliegend:
Eigenwerte und Eigenvektoren von Endomorphismen
Ist ϕ ein Endomorphismus eines K-Vektorraumes V , so
nennt man ein Element λ ∈ K einen Eigenwert von ϕ,
wenn ein Vektor v ∈ V \ {0} existiert mit ϕ(v) = λ v.
Der Vektor v heißt in diesem Fall Eigenvektor von ϕ
zum Eigenwert λ.
Der Zusammenhang zur Definition von Eigenwerten und Eigenvektoren einer Matrix ist folgender. Jede quadratische
Matrix A ∈ Kn×n bestimmt einen Endomorphismus
ϕA :
Kn
v
→
→
Kn
Av
,
der die gleichen Eigenwerte und Eigenvektoren wie A hat
ϕ(v) = λ v ⇔ A v = λ v .
Mit obiger Betrachtung zur Darstellungsmatrix eines Endomorphismus folgt mit diesen Begriffen sofort:
Diagonalisierbarkeit von Endomorphismen
Die Darstellungsmatrix eines Endomorphismus ϕ eines
n-dimensionalen K-Vektorraumes V bezüglich einer Basis B = (b1 , . . . , bn ) ist genau dann eine Diagonalmatrix, wenn die Elemente von B Eigenvektoren des Endomorphismus ϕ sind.
In dieser Situation sagen wir, der Endomorphismus ϕ ist
diagonalisierbar.
Während Matrizen Endomorphismen in endlichdimensionalen Vektorräumen definieren, können wir im Falle von allgemeinen Endomorphismen auch Eigenvektoren unendlichdimensionaler Vektorräume betrachten.
Das charakterische Polynom von ϕ ist jenes
einer Darstellungsmatrix
Sind A und B aus Kn×n zwei Darstellungsmatrizen ein und
desselben Endomorphismus ϕ eines n-dimensionalen Vektorraumes V , so gibt es eine invertierbare Matrix S mit
B = S−1 A S .
Wir berechnen nun die charakteristischen Polynome von A
und B.
Wegen S X En S−1 = X En für die Unbestimmte X gilt wegen des Determinantenmultiplikationssatzes
χB = |B − X En | = |S−1 A S − S X En S−1 |
= |S−1 (A − X En ) S| = |A − X En | = χA ,
also haben alle Darstellungsmatrizen eines Endomorphismus
dasselbe charakteristische Polynom. Daher ist es sinnvoll, das
charakteristische Polynom für einen Endomorphismus als jenes einer Darstellungsmatrix zu definieren, es ist dann das
charakteristische Polynom jeder Darstellungsmatrix dieses
Endomorphismus.
Wir stellen in der folgenden Übersicht alle wesentlichen Begriffe und Eigenschaften für Eigenwerte und Eigenvektoren
zu Endomorphismen zusammen.
?
Welche Endomorphismen haben den Eigenwert 0 ? Unter
welchem anderen Namen ist Ihnen der Vektorraum Eigϕ (0)
noch bekannt ?
Arens et al., Mathematik, ISBN: 978-3-8274-1758-9, © Spektrum Akademischer Verlag, 2008
3
4
18 Eigenwerte und Eigenvektoren – oder wie man Matrizen diagonalisiert
Übersicht: Eigenwerte und Eigenvektoren von Endomorphismen
Wir betrachten einen Endomorphismus ϕ : V → V eines n-dimensionalen K-Vektorraumes V .
Das Polynom χϕ := χA für eine (und damit jede) Darstellungsmatrix A von ϕ heißt das charakteristische
Polynom von ϕ.
Die Eigenwerte von ϕ sind die Nullstellen des charakteristischen Polynoms von ϕ.
Ist λ ∈ K ein Eigenwert von ϕ, so nennt man den Untervektorraum Eigϕ (λ) := {v ∈ V | ϕ(v) = λ v} = {0}
den Eigenraum von ϕ zum Eigenwert λ.
Ist λ ein Eigenwert von ϕ, so nennt man die Vielfachheit der Nullstelle λ im charakteristischen Polynom die
algebraische Vielfachheit und die Dimension des Eigenraumes Eigϕ (λ) die geometrische Vielfachheit des
Eigenwertes λ von ϕ.
Ein Vektor v ∈ V \ {0} ist genau dann Eigenvektor
von ϕ zu einem Eigenwert λ = 0, wenn ϕ die von v
erzeugte Gerade K v festhält: ϕ(K v) = K v.
Man nennt ϕ : V → V diagonalisierbar, wenn es eine
geordnete Basis B von V gibt, so dass B M(ϕ)B eine
Diagonalmatrix ist.
Der Endomorphismus ϕ : V → V ist genau dann diagonalisierbar, wenn es eine Basis von V aus Eigenvektoren von ϕ gibt.
Der Endomorphismus ϕ : V → V ist genau dann diagonalisierbar, wenn das charakteristische Polynom von
ϕ in Linearfaktoren zerfällt und für jeden Eigenwert die
algebraische gleich der geometrischen Vielfachheit ist.
Antworten der Selbstfragen
S. 3
Nichtinjektive Endomorphismen haben den Eigenwert 0.
Der Eigenraum zum Eigenwert 0 ist der Kern von ϕ.
Arens et al., Mathematik, ISBN: 978-3-8274-1758-9, © Spektrum Akademischer Verlag, 2008