18 Bonusmaterial Eigenwerte und Eigenvektoren – oder wie man Matrizen diagonalisiert 18.1 x2 Der Satz von Gerschgorin Mit dem Satz von Gerschgorin lassen sich die Eigenwerte einer komplexen Matrix abschätzen K3 K2 K1 −5 2 x1 4 Cn×n . Gegeben ist eine quadratische Matrix A = (aij ) ∈ Wir betrachten zu dieser Matrix A die n Kreisscheiben n Ki := {z ∈ C | |z − aii | ≤ |aij |}, i = 1, . . . , n . j =1 j =i Der Satz von Gerschgorin Die n Eigenwerte der komplexen Matrix A liegen in der n Vereinigung i=1 Ki dieser n Kreisscheiben. Bevor wir den Satz von Gerschgorin beweisen, geben wir ein Beispiel an. Beispiel Wir geben die drei Kreisscheiben K1 , K2 , K3 für die Matrix ⎛ −5 A=⎝ 2 3 0 2 −5 ⎞ 0 1⎠ ∈ C3×3 . 4 Abbildung A18.1 Die Eigenwerte der Matrix A liegen innerhalb der drei Kreise. Beweis: Wir beweisen nun den Satz von Gerschgorin. Zu einem Eigenwert λ ∈ C von A = (aij ) mit Eigenvektor ⎛ ⎞ v1 ⎜ .. ⎟ v = ⎝ . ⎠ zum Eigenwert λ wählen wir ein r ∈ {1, . . . , n} vn mit |vr | ≥ |vi | für alle i ∈ {1, . . . , n}. Es gilt vr = 0, da v = 0 gilt. Dann ist v := |vr |−1 v auch ein Eigenvektor zum Eigenwert λ, aber v hat die Eigenschaft, dass jede Komponente von v einen Betrag kleiner als 1 hat. Daher ⎛ ⎞ können wir nun gleich einen solchen Eigenvektor v = v1 ⎜ .. ⎟ ⎝ . ⎠ wählen mit der Eigenschaft vn max {|vi |} = |vr | = 1 für ein r ∈ {1, . . . , n} . i=1,...,n an. Man erhält K1 = {−5} , Weil v ein Eigenvektor zum Eigenwert λ ist, gilt K2 = {z ∈ C | |z − 2| ≤ 3} , K3 = {z ∈ C | |z − 4| ≤ 8} . Tatsächlich hat die Matrix A die Eigenwerte −5, 3+2i sowie 3−2i. Hierbei folgt aber die Tatsache, dass −5 ein Eigenwert ist, nicht aus dem Satz von Gerschgorin – jedoch aus der verschärften Version, die wir nach dem Beweis des Satzes von Gerschgorin bringen. (A − λ En ) v = 0 . Die r-te Zeile dieses Gleichungssystems lautet: n (arr − λ) vr = − ari vi . i=1 i=r 2 18 Eigenwerte und Eigenvektoren – oder wie man Matrizen diagonalisiert Es folgt mit der Dreiecksungleichung in C Verschärfte Version des Satzes von Gerschgorin Es seien M1 , . . . , Mr verschiedene Kreisscheiben {K1 , . . . , Kn } und Mr+1 , . . . , Mn die restlichen der n Kreisscheiben. Gilt ⎞ ⎛ n |arr − λ | = |(arr − λ) vr | = ari vi i=1 i=r n |ari ||vi | ≤ ≤ r n i=1 i=r |ari |. i=1 i=1 i=r r Und damit gilt λ ∈ Kr = {z ∈ C | |z − arr | ≤ n i=1 i=r so enthält |ari |}. Damit haben wir die Aussage bewiesen: Jeder Eigenwert der Matrix A liegt in der Vereinigung der Kreisscheiben K1 , . . . , Kn . i=1 n ∩⎝ Mi Mi ⎠ = ∅ , i=r+1 Mi genau r Eigenwerte und nau n − r Eigenwerte. Beispiel n i=r+1 Mi ge- Wir betrachten erneut obiges Beispiel: x2 K3 K2 Kommentar: Man kennt die Eigenwerte also umso genauer, je kleiner diese Kreisscheiben sind. Im Extremfall einer Diagonalmatrix gibt der Satz von Gerschgorin die Eigenwerte sogar exakt an. Ansonsten liefert der Satz von Gerschgorin eine gute Näherungslösung, wenn die Matrix A diagonaldominant ist, d. h., die Komponenten aij mit i = j der Matrix A haben einen kleinen Betrag |aij | – es sind in diesem Fall dann die Kreisscheiben klein. K1 −5 2 4 x1 Abbildung A18.3 Die Eigenwerte der Matrix A liegen innerhalb der drei Kreise. x2 Der Kreis K1 enthält wegen K1 ∩ (K2 ∪ K2 ) = ∅ genau einen Eigenwert. Dieser kann nur −5 sein. 18.2 x1 Abbildung A18.2 Bei diagonaldominanten Matrizen sind die Kreise klein, die Eigenwerte also gut zu schätzen. Disjunkte Vereinigungen verbessern die Schätzungen Wir bringen zuerst die Verschärfung des Satzes von Gerschgorin. Dabei ist wieder eine quadratische Matrix A = (aij ) ∈ Cn×n mit den zugehörigen n Kreisscheiben n Ki := {z ∈ C | |z − aii | ≤ |aij |}, j =1 j =i gegeben. i = 1, . . . , n Eigenwerte und Eigenvektoren von Endomorphismen Ist V ein K-Vektorraum, so nennt man eine lineare Abbildung ϕ von V in sich auch einen Endomorphismus. Weil ϕ(v) ∈ V für jedes v ∈ V gilt, ist es auch sinnvoll, zu hinterfragen, ob ϕ(v) = λ v für ein λ ∈ K gilt. Wir werden solche Vektoren v Eigenvektoren und die Skalare Eigenwerte des Endomorphismus ϕ nennen. Eigenwerte und Eigenvektoren von Endomorphismen werden analog zu jenen von Matrizen definiert Wir betrachten einen Endomorphismus ϕ eines endlichdimensionalen K-Vektorraumes V , d. h., ϕ ist eine lineare Abbildung von V nach V . Nach Wahl einer geordneten Basis B = (b1 , . . . , bn ) können wir zu diesem Endomorphismus die Darstellungsmatrix bezüglich dieser Basis B ermitteln: B M(ϕ)B Arens et al., Mathematik, ISBN: 978-3-8274-1758-9, © Spektrum Akademischer Verlag, 2008 = ((B ϕ(b1 ), . . . , B ϕ(b1 ))) 18.2 Eigenwerte und Eigenvektoren von Endomorphismen – die i-te Spalte der Darstellungsmatrix ist der Koordinatenvektor des Bildes des i-ten Basisvektors. Mithilfe dieser Darstellungsmatrix erhalten wir nun den Koordinatenvektor B ϕ(v) des Bilder ϕ(v) eines Vektors v ∈ V durch eine Multiplikation der Matrix mit einer Spalte: B ϕ(v) = B M(ϕ)B B v . Beispiel Wir betrachten den R-Vektorraum V aller beliebig oft differenzierbaren Funktionen f : R → R und d : dx V f → → V f das Ableiten. Für λ ∈ R und gλ : R → R , x → eλ x Diese Multiplikation ist sehr einfach auszuführen, wenn die Elemente b1 , . . . , bn der Basis B die Eigenschaft gilt bekanntlich gλ (x) = λ eλ x für x ∈ R, also d (gλ ) = gλ = λ gλ . dx ϕ(b1 ) = λ1 b1 , . . . , ϕ(bn ) = λn bn haben, denn in diesem Fall ist die Darstellungsmatrix eine Diagonalmatrix ⎞ ⎛ λ1 · · · 0 ⎜ . .. .⎟ B M(ϕ)B = ((B ϕ(b1 ), . . . , B ϕ(b1 ))) = ⎝ .. . .. ⎠ . 0 · · · λn Demnach ist jede reelle Zahl λ Eigenwert des Endomorphisd mus dx , und die Funktion gλ : R → R, x → eλ x ist ein d Eigenvektor von dx zum Eigenwert λ. Der Eigenraum von d dx zum Eigenwert λ ist Eig d (λ) = {g : R → R | g = λ g} , dx also gerade die Lösungsmenge der linearen Differenzialgleichung y = λy . Die folgende Definition ist naheliegend: Eigenwerte und Eigenvektoren von Endomorphismen Ist ϕ ein Endomorphismus eines K-Vektorraumes V , so nennt man ein Element λ ∈ K einen Eigenwert von ϕ, wenn ein Vektor v ∈ V \ {0} existiert mit ϕ(v) = λ v. Der Vektor v heißt in diesem Fall Eigenvektor von ϕ zum Eigenwert λ. Der Zusammenhang zur Definition von Eigenwerten und Eigenvektoren einer Matrix ist folgender. Jede quadratische Matrix A ∈ Kn×n bestimmt einen Endomorphismus ϕA : Kn v → → Kn Av , der die gleichen Eigenwerte und Eigenvektoren wie A hat ϕ(v) = λ v ⇔ A v = λ v . Mit obiger Betrachtung zur Darstellungsmatrix eines Endomorphismus folgt mit diesen Begriffen sofort: Diagonalisierbarkeit von Endomorphismen Die Darstellungsmatrix eines Endomorphismus ϕ eines n-dimensionalen K-Vektorraumes V bezüglich einer Basis B = (b1 , . . . , bn ) ist genau dann eine Diagonalmatrix, wenn die Elemente von B Eigenvektoren des Endomorphismus ϕ sind. In dieser Situation sagen wir, der Endomorphismus ϕ ist diagonalisierbar. Während Matrizen Endomorphismen in endlichdimensionalen Vektorräumen definieren, können wir im Falle von allgemeinen Endomorphismen auch Eigenvektoren unendlichdimensionaler Vektorräume betrachten. Das charakterische Polynom von ϕ ist jenes einer Darstellungsmatrix Sind A und B aus Kn×n zwei Darstellungsmatrizen ein und desselben Endomorphismus ϕ eines n-dimensionalen Vektorraumes V , so gibt es eine invertierbare Matrix S mit B = S−1 A S . Wir berechnen nun die charakteristischen Polynome von A und B. Wegen S X En S−1 = X En für die Unbestimmte X gilt wegen des Determinantenmultiplikationssatzes χB = |B − X En | = |S−1 A S − S X En S−1 | = |S−1 (A − X En ) S| = |A − X En | = χA , also haben alle Darstellungsmatrizen eines Endomorphismus dasselbe charakteristische Polynom. Daher ist es sinnvoll, das charakteristische Polynom für einen Endomorphismus als jenes einer Darstellungsmatrix zu definieren, es ist dann das charakteristische Polynom jeder Darstellungsmatrix dieses Endomorphismus. Wir stellen in der folgenden Übersicht alle wesentlichen Begriffe und Eigenschaften für Eigenwerte und Eigenvektoren zu Endomorphismen zusammen. ? Welche Endomorphismen haben den Eigenwert 0 ? Unter welchem anderen Namen ist Ihnen der Vektorraum Eigϕ (0) noch bekannt ? Arens et al., Mathematik, ISBN: 978-3-8274-1758-9, © Spektrum Akademischer Verlag, 2008 3 4 18 Eigenwerte und Eigenvektoren – oder wie man Matrizen diagonalisiert Übersicht: Eigenwerte und Eigenvektoren von Endomorphismen Wir betrachten einen Endomorphismus ϕ : V → V eines n-dimensionalen K-Vektorraumes V . Das Polynom χϕ := χA für eine (und damit jede) Darstellungsmatrix A von ϕ heißt das charakteristische Polynom von ϕ. Die Eigenwerte von ϕ sind die Nullstellen des charakteristischen Polynoms von ϕ. Ist λ ∈ K ein Eigenwert von ϕ, so nennt man den Untervektorraum Eigϕ (λ) := {v ∈ V | ϕ(v) = λ v} = {0} den Eigenraum von ϕ zum Eigenwert λ. Ist λ ein Eigenwert von ϕ, so nennt man die Vielfachheit der Nullstelle λ im charakteristischen Polynom die algebraische Vielfachheit und die Dimension des Eigenraumes Eigϕ (λ) die geometrische Vielfachheit des Eigenwertes λ von ϕ. Ein Vektor v ∈ V \ {0} ist genau dann Eigenvektor von ϕ zu einem Eigenwert λ = 0, wenn ϕ die von v erzeugte Gerade K v festhält: ϕ(K v) = K v. Man nennt ϕ : V → V diagonalisierbar, wenn es eine geordnete Basis B von V gibt, so dass B M(ϕ)B eine Diagonalmatrix ist. Der Endomorphismus ϕ : V → V ist genau dann diagonalisierbar, wenn es eine Basis von V aus Eigenvektoren von ϕ gibt. Der Endomorphismus ϕ : V → V ist genau dann diagonalisierbar, wenn das charakteristische Polynom von ϕ in Linearfaktoren zerfällt und für jeden Eigenwert die algebraische gleich der geometrischen Vielfachheit ist. Antworten der Selbstfragen S. 3 Nichtinjektive Endomorphismen haben den Eigenwert 0. Der Eigenraum zum Eigenwert 0 ist der Kern von ϕ. Arens et al., Mathematik, ISBN: 978-3-8274-1758-9, © Spektrum Akademischer Verlag, 2008
© Copyright 2024 ExpyDoc