Modul 1337 Baudynamik und Erdbebeningenieurwesen Vorlesung Mathematische Methoden in der Dynamik Vorlesungsskript: Prof. Thomas Apel Institut für Mathematik und Bauinformatik Fakultät für Bauingenieurwesen und Umweltwissenschaften Februar 2016 Vorwort Das Modul 1623, Baudynamik und Erdbebeningenieurwesen, wird für Studierende des Master-Studiengangs Bauingenieurwesen und Umweltwissenschaften und des Master-Studiengangs Mathematical Engineering gelesen. Die Vorlesung Mathematische Methoden in der Dynamik bildet einen Modulbestandteil im Umfang von zwei Trimesterwochenstunden. Das Skript wurde im Frühjahrstrimester 2010 neu erstellt und seither jedes Jahr überarbeitet. Für ihre Hilfe bei der Texterfassung und beim Rechnen von Beispielen sei an dieser Stelle Leonid Blank und Bernhard Gehrmann gedankt. Das Skript ist kein Lehrbuch. Es ist an vielen Stellen knapper gehalten als es Lehrbücher sind, deshalb wird die gleichzeitige Verwendung von Lehrbüchern empfohlen; Tipps gibt die Literaturliste auf Seite 4. Das Skript gibt die Stoffauswahl des Vorlesenden wieder, so dass klar wird, welcher Stoff prüfungsrelevant ist. Außerdem erspart das Vorliegen des Skripts, dass während der Vorlesungen alles angeschrieben werden muss. In den Vorlesungen werden Herleitungen und Beispiele meist ausführlicher besprochen; Sie sollten das Skript selbständig um Bemerkungen ergänzen, die Ihnen zum Verständnis des Stoffes notwendig erscheinen. Wichtige Webseiten • https://dokumente.unibw.de/pub/bscw.cgi/6070897 Dokumente zur Vorlesung 2 24. März 2016 Inhaltsverzeichnis Literatur 4 1. Einführende Beispiele und Erklärungen 5 1.1. Der Feder-Masse-Schwinger . . . . . . . . . . . . . . . . . . . . . 5 1.2. Schwingungen mehrerer Massen . . . . . . . . . . . . . . . . . . . 9 1.3. Systeme erster Ordnung . . . . . . . . . . . . . . . . . . . . . . . 15 2. Numerische Verfahren für Differentialgleichungen erster 2.1. Allgemeine Herangehensweise . . . . . . . . . . . . . 2.2. Einschrittverfahren . . . . . . . . . . . . . . . . . . . 2.3. A-Stabilität, absolute Stabilität . . . . . . . . . . . . 2.4. A-Stabilität für die Schwingungsgleichung . . . . . . 2.5. Mehrschrittverfahren . . . . . . . . . . . . . . . . . . Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 16 17 21 25 28 3. Numerische Verfahren für Schwingungsprobleme 3.1. Allgemeine Herangehensweise . . . . . . . . . 3.2. Newmark-Verfahren . . . . . . . . . . . . . . 3.3. Houbolt-Verfahren . . . . . . . . . . . . . . . 3.4. Kollokationsverfahren . . . . . . . . . . . . . 3.5. Hilber-Hughes-Taylor-Verfahren . . . . . . . . 3.6. Diskussion der Verfahren . . . . . . . . . . . . . . . . . . . . . . . . 31 31 31 37 38 40 42 . . . . . . . 50 50 53 54 60 64 66 68 . . . . . . . . . . . . . . . . . . 4. Numerische Lösung von Eigenwertproblemen 4.1. Matrizen mit spezieller Struktur . . . . . . . . . . 4.2. Eigenwertberechnung und Nullstellensuche . . . . . 4.3. Der QR-Algorithmus . . . . . . . . . . . . . . . . . 4.4. Die Potenzmethode und verwandte Verfahren . . . 4.5. Das Lanczos-Verfahren . . . . . . . . . . . . . . . . 4.6. Symmetrische verallgemeinerte Eigenwertprobleme 4.7. Zusammenfassung . . . . . . . . . . . . . . . . . . A. Grundlagen Eigenwertprobleme 24. März 2016 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 3 Literatur [Bat02] Bathe, K.-J.: Finite-Elemente-Methoden. Springer, Berlin, 1986, 1990, 1995, 2002. [GvL07] Golub, G. H. und Ch. F. van Loan: Matrix Computations. The Johns Hopkins University Press, Baltimore, Maryland, 1983, 1989, 1996, 2007. [Hug00] Hughes, T. J. R.: The finite element method. Linear static and dynamic finite element analysis. Dover Publications., Mineola, NY, 2000. Reprint of the 1987 original ed. [HW96] Hairer, E. und G. Wanner: Solving ordinary differential equations II. Stiff and differential-algebraic problems. Springer, Berlin, 1996. [MV03] Meyberg, K. und P. Vachenauer: Höhere Mathematik, Band 1. Springer, Berlin, . . . , 1999, 2001, 2003. [QSS02] Quarteroni, A., R. Sacco und F. Saleri: Numerische Mathematik 2. Springer, Berlin, 2002. [SK91] Schwetlick, H. und H. Kretzschmar: Numerische Verfahren für Naturwissenschaftler und Ingenieure – eine computerorientierte Einführung. Fachbuchverlag, Leipzig, 1991. [TB00] Trefethen, L. N. und D. Bau: Numerical linear algebra. SIAM, Philadelphia, 2000. [Wat10] Watkins, D. S.: Fundamentals of matrix computations. Wiley, Hoboken, NJ, 1991, 2002, 2010. [ZTZ05] Zienkiewicz, O. C., R. L. Taylor und J.Z. Zhu: The Finite Element Method: Its Basis and Fundamentals. Elsevier, Oxford, 2005. 4 24. März 2016 1. Einführende Beispiele und Erklärungen 1.1. Der Feder-Masse-Schwinger Bsp 1.1 (Feder-Masse-Schwinger) X XXX XX XX XXX X X XXX elastische Feder Gleichgewichtslage u(t) u̇(t) ü(t) ... ... ... Auslenkung Geschwindigkeit Beschleunigung ~ ?u(t) HH Pendelmasse Dämpfungsvorrichtung (zähe Flüssigkeit) Zur mathematischen Modellierung dieses Systems betrachten wir die Kräfte, die auf die Masse m wirken. Nach dem Hookeschen Gesetz gilt für die Rückstellkraft der Feder F1 = −ku mit der Federkonstanten k. Die Reibung ist proportional zur Geschwindigkeit, also wirkt eine Kraft F2 = −cu̇. Zusätzlich kann noch eine äußere Kraft F3 = F (t) wirken. Nach dem Newtonschen Gesetz gilt folglich mü = F1 + F2 + F3 = −ku − cu̇ + F (t), also die gewöhnliche Differentialgleichung 2. Ordnung mü + cu̇ + ku = F (t). (1.1) Dabei sind die Sonderfälle • freie Schwingung: F (t) = 0 • ungedämpfte Schwingung: b=0 eingeschlossen. Zur vollständigen Modellierung gehören noch die Anfangsbedingungen u(0) = u0 , u̇(0) = v0 , (1.2) also die Vorgabe einer Anfangsauslenkung und einer Anfangsgeschwindigkeit. E 1.2 In Beispiel 1.1 haben wir die Schwingungsgleichung (1.1) hergeleitet. Manchmal ist es sinnvoll, die Gleichung so zu skalieren, dass der Koeffizient vor der zweiten Ableitung Eins ist. Wir dividieren also durch m und erhalten mit 2δ = c/m ≥ 0, ω02 = k/m und f (t) = F (t)/m die Gleichung ü + 2δ u̇ + ω02 u = f (t). Dann ist ω0 die Eigenfrequenz des ungedämpften Systems, siehe E 1.3, und p 2 ω0 − δ 2 die Eigenfrequenz des schwach gedämpften Systems, siehe E 1.4. 24. März 2016 5 E 1.3 (Freie ungedämpfte Schwingung) Wir betrachten den Fall δ = 0, f (t) ≡ 0, das heißt die Schwingungsgleichung ü(t) + ω02 u(t) = 0 mit den Anfangsbedingungen (1.2). Durch Einsetzen der allgemeinen Lösung u(t) = C1 cos(ω0 t) + C2 sin(ω0 t) in die Anfangsbedingungen werden die freien Parameter C1 und C2 berechnet. Unter Berücksichtigung von u̇(t) = ω0 (−C1 sin(ω0 t) + C2 cos(ω0 t)) erhält man ! u(0) = C1 = u0 , ! u̇(0) = C2 ω0 = v0 , also C1 = u0 und C2 = v0 /ω0 , so dass die Lösung u(t) = u0 cos(ω0 t) + v0 sin(ω0 t) ω0 (1.3) lautet. E 1.4 (Freie gedämpfte Schwingung: schwache Dämpfung) Wir wollen nun δ > 0 voraussetzen. Die zur homogenen Gleichung gehörende charakteristische Gleichung lautet λ2 + 2δλ + ω02 = 0. Ist δ < ω0 , dann erhalten wir mit Hilfe des Parameters ωd := p ω02 − δ 2 > 0 λ1,2 = −δ ± iωd . Die allgemeine Lösung der homogenen Gleichung (freie Schwingung) lautet also u(t) = e−δt [C1 cos(ωd t) + C2 sin(ωd t)]. Gegenüber der ungedämpften Schwingung verkleinert sich die Kreisfrequenz, denn es ist ωd < ω0 . Außerdem verkleinert sich die Amplitude der Schwingung im Laufe der Zeit. Die Konstanten C1 und C2 können aus den Anfangsbedingungen (1.2) bestimmt werden. Man erhält C1 = u0 und C2 = (v0 + δu0 )/ωd , also v0 + δu0 u(t) = e−δt u0 cos(ωd t) + sin(ωd t) . ωd (1.4) Die rote Kurve in Abbildung 1 stellt die Lösung im Fall ω0 = 1, δ = 0.2, u0 = 1, v0 = 0 dar. 6 24. März 2016 E 1.5 (Freie gedämpfte Schwingung: Kriechfall) Bei starker Dämpfung, δ > ω0 , erhalten wir zwei negative reelle Lösungen der charakteristischen Gleichung, q λ1,2 = −δ ± δ 2 − ω02 < 0. Die allgemeine Lösung der homogenen Gleichung ist dann eine Linerkombination zweier monoton fallender Exponentialfunktionen, u0 (t) = C1 eλ1 t + C2 eλ2 t . Das mechanische System ist infolge zu starker Dämpfung (Reibung) zu keiner echten Schwingung mehr fähig. Die Konstanten C1 und C2 können wieder aus den Anfangsbedingungen (1.2) bestimmt werden. Man erhält als Lösung u(t) = (v0 − u0 λ2 )eλ1 t − (v0 − u0 λ1 )eλ2 t . λ1 − λ2 (1.5) Die grüne Kurve in Abbildung 1 stellt die Lösung im Fall ω0 = 1, δ = 1.8, u0 = 1, v0 = 0 dar. 1,0 w 0,8 = 1, 0 x 0 = 1, v 0 = 0 0,6 d = 1.8 0,4 0,2 d=1 0 2 4 6 8 10 12 t K 0,2 d = 0.2 Abbildung 1: Freie gedämpfte Schwingungen E 1.6 (Freie gedämpfte Schwingung: aperiodischer Grenzfall) Im Grenzfall δ = ω0 erhalten wir zwei gleiche negative reelle Lösungen der charakteristischen Gleichung, λ1,2 = −δ < 0. Die allgemeine Lösung der homogenen Gleichung besitzt somit die Form u0 (t) = (C1 t + C2 )e−δt . Das mechanische System verhält sich ähnlich zum Kriechfall, wie die blaue Kurve in Abbildung 1 illustriert. Bei stärkerer Dämpfung, δ > ω0 , klingt die Lösung langsamer ab, bei geringerer Dämpfung, δ < ω0 , kommt es zum Durchschwingen. Bestimmt man die Konstanten C1 und C2 aus den Anfangsbedingungen (1.2), erhält man die Lösung u(t) = (u0 + v0 t + δu0 t)e−δt . 24. März 2016 (1.6) 7 E 1.7 (Erzwungene Schwingung) Erzwungene Schwingungen entstehen durch eine mit einer Erregerfrequenz ω periodisch wirkende Kraft, die in der rechten Seite der Differentialgleichung modelliert wird, ü + 2δ u̇ + ω02 u = f (t) := K0 sin(ωt). Die allgemeine Lösung u(t) = uhom (t) + uinh (t) der inhomogenen Differentialgleichung ergibt sich als Summe der allgemeinen Lösung uhom (t) der homogenen Differentialgleichung (siehe (1.4), (1.5) oder (1.6)) und einer speziellen Lösung uinh (t) der inhomogenen Gleichung. Letztere hat die Form einer ungedämpften Schwingung mit der Erregerfrequenz ω, uinh (t) = A sin(ωt − φ), wobei die Amplitude A zu K0 A= p 2 (ω0 − ω 2 )2 + 4δ 2 ω 2 berechnet werden kann (Übung). Im Fall δ > 0 klingt der Lösungsanteil uhom (t) mit der Zeit ab, so dass das mechanische System nach einer Einschwingphase ungedämpft schwingt. Dabei wird die von der Erregerfrequenz ω abhängige Amplitude A besonders groß (d. h. maximal), wenn ω gleich der Resonanzkreisfrequenz q (1.7) ωr = ω02 − 2δ 2 ist (Übung). Diesen Sonderfall bezeichnet man als Resonanzfall, die Schwingungsamplitude A beträgt dann A= K p 0 . 2δ ω02 − δ 2 Bei kleiner Dämpfung, δ 1, kommt es bei einer Erregung mit der Resonanzfrequenz des Systems, ω = ωr ≈ ω0 , zu riesigen Amplituden, der Resonanzkatastrophe. Diese kann zur Zerstörung des Systems führen, siehe zum Beispiel die Zerstörung verschiedener Brücken (Tacoma: http:// www.youtube.com/watch?v=3mclp9QmCGs, Ibáñez: http://www.youtube.com/ watch?v=t9kR9T9wZsM oder Wolgograd: http://www.youtube.com/watch?v= WEQrt_w7gN4). 8 24. März 2016 ungedaempft gedaempft Kriechfall 1 0.5 0 −0.5 −1 −1 −0.5 0 0.5 1 Abbildung 2: Phasendiagramm für verschiedene Schwingungen E 1.8 (Phasendiagramm) Man kann die Funktionen u(t) und u̇(t)/ω als Kurven mit dem Kurvenparameter t in einem Phasendiagramm darstellen. Bei einer freien, ungedämpften Schwingung erhält man einen Kreis. Bei freien, (schwach) gedämpften Schwingungen ergibt sich eine Spirale. Abbildung 2 zeigt das Phasendiagramm für u0 = 1, v0 = 0, ω0 = 1, t ∈ [0, 5π] in den Fällen δ = 0 (ungedämpfte Schwingung), δ = 0,1 (schwache Dämpfung) und δ = 1,1 (Kriechfall). 1.2. Schwingungen mehrerer Massen Bsp 1.9 Wir betrachten ein System aus N Massepunkten, die mit Federn/Dämpfern verbunden sind. Gesucht sind die Auslenkungen xi,1 (t) xi (t) = xi,2 (t) , i = 1, . . . , N, xi,3 (t) dieser Massepunkte aus der Ruhelage, die man zu einem Vektor x1 x = x(t) = ... ∈ R3N xN zusammenfassen kann. Das Kräftegleichgewicht lautet M ẍ + C ẋ + Kx = f (t). (1.8) Dabei bedeuten M eine Massenmatrix (Diagonalmatrix), C eine Dämpfungsmatrix, K eine Steifigkeitsmatrix und f (t) eine Erregerfunktion. 24. März 2016 9 E 1.10 (Wellengleichung) Wir betrachten die longitudinale Bewegung eines elastischen Stabes. 0 - x L Bezeichne L [m] die Länge des Stabes, A [m2 ] die konstante Querschnittsfläche des Stabes, ρ [kg/m3 ] die Dichte, [m] die Verschiebung des Querschnittselements, das sich ursprünglich an der Stelle x ∈ (0, L) befand = Auslenkung aus dem Ruhezustand, 1 die Dehnung, [N/m2 ] den Elastizitätsmodul, [N/m2 ] die Spannung nach dem Hookeschen Gesetz, [ mkg2 s ] die Impulsdichte, u(x, t) = ∂u ∂x E σ = Eε ∂u ρ ∂t dann lautet die Newtonsche Bewegungsgleichung (das Kräftegleichgewicht) in einem beliebigen Intervall (a, b) ⊂ (0, L) Z Z b ∂u ∂σ d b ρA dx = [σ(b) − σ(a)] A = A dx. | {z } dt a ∂t a ∂x | {z } Spannungen | {z } Gesamtimpuls | {z } Kraft Kraft Da das Integrationsgebiet (a, b) beliebig ist, gilt folglich ∂ ∂u ∂σ ρA = A ∂t ∂t ∂x ∂2u ∂σ ∂ ∂u ρ 2 = = E ∂t ∂x ∂x ∂x Ist E 6= E(x), dann gilt die Wellengleichung 2 ∂2u 2∂ u − a = 0, ∂t2 ∂x2 a2 = E . ρ Zur vollständigen Beschreibung benötigt man zwei Anfangsbedingungen u(x, 0) = u0 (x) ut (x, 0) = v0 (x) (Anfangsauslenkung) (Anfangsgeschwindigkeit) und an jedem Rand eine Randbedingung. Möglichkeiten sind: oder oder E 10 u(0, t) = 0 ∂u (0, t) = 0 ∂x ∂u (0, t) + ku(0, t) = 0 ∂x (feste Einspannung) (freies Ende, entspricht σ(0, t) = 0) (elast. Aufhängung, σ(0, t) = −ku(0, t)) 24. März 2016 Bsp 1.11 (Schwingende Saite) Wir suchen die Auslenkung u(x, t) bei einer schwingenden Saite. Saite u x 0 1 Sie wird durch die dieselbe Anfangs-Randwertaufgabe 2 ∂2u 2∂ u − a = 0, ∂t2 ∂x2 u(x, 0) = u0 (x) ut (x, 0) = v0 (x) u(0, t) = u(1, t) = 0 (1.9) Anfangsauslenkung, Anfangsgeschwindigkeit, Randbedingung, beschrieben, wobei der Parameter a2 das Verhältnis aus Steifigkeit (E-Modul, Vorspannung) und Masse (Dichte) beschreibt. E 1.12 (Diskretisierung der Wellengleichung) Wir diskretisieren diese partielle Differentialgleichung in der Ortsvariablen mit Hilfe der Methode der finiten Differenzen (Finite Elemente können analog verwendet werden). Dazu definieren wir ein Ortsgitter mit der Schrittweite h = N1 , xj = jh, j = 0, . . . , N, und approximieren die Lösung u durch die Vektorfunktion u(t) mit den Komponenten uj (t) ≈ u(xj , t). Die zweite partielle Ableitung im Ort wird durch eine zweite Differenz ersetzt, ∂2u 1 ≈ 2 (uj+1 − 2uj + uj−1 ), 2 ∂x h so dass die Differentialgleichung (1.9) im Punkt (xj , t) durch die Differenzengleichung a2 üj − 2 (uj+1 − 2uj + uj−1 ) = 0, j = 1, . . . , N − 1, h approximiert wird. Dieses System gewöhnlicher Differentialgleichungen kann in der Form M ü + Ku = 0. (1.10) geschrieben werden, wobei die Massematrix M hier die Einheitsmatrix ist, aber bei Verwendung der Finite-Elemente-Methode keine Diagonalmatrix ist. Man beachte, dass das System dieselbe Form hat, wie das Schwingungsproblem bei mehreren Punktmassen. Ähnliche Modelle erhält man auch in der Akustik, bei Schwingungen elastischer Membranen und elastischer dreidimensionaler Körper, sowie bei elektromagnetischen Schwingungen. 24. März 2016 11 E 1.13 (Zusammenhang mit Eigenwertproblemen) Zur Lösung der Saitenschwingungsgleichung (1.9) wählen wir den Ansatz u(x, t) = u(x)e iωt , wobei u(x) die Amplitude und ω = 2π T die Kreisfrequenz zur Periodendauer T 1 beschreibt . Einsetzen in (1.9) liefert u(x)( iω)2 e iωt − a2 u00 (x)e iωt = 0, was mit ω 2 = λ zur Rand-Eigenwertaufgabe −a2 u00 (x) = λu(x), u(0) = u(1) = 0, (1.11) führt. Die Problemstellung lautet also: Finde Zahlen λ ∈ C und Funktionen u(x) 6≡ 0, so dass (1.11) erfüllt ist. In diesem einfachen Fall kann man die Lösungen exakt angeben, λ k = a2 k 2 π 2 , uk (x) = sin(kπx), k = 1, 2, 3, . . . Die Lösung der Ausgangsaufgabe (1.9) kann man durch die Reihe u(x, t) = ∞ X Ck sin(kπx)e iakπt k=−∞ darstellen, wobei die komplexen Koeffizienten Ck so ermittelt werden, dass sie die Anfangsbedingungen u(x, 0) = u0 (x), ut (x, 0) = v0 (x) erfüllen. Aufg 1.14 Wiederholen Sie Ihre Kenntnisse zu Matrx-Eigenwertproblemen aus dem 1. Trimester. Als Hilfe kann der Anhang dieses Skripts dienen, siehe Seiten 69 ff. E 1.15 (Diskretisierung des Rand-Eigenwertproblems) Wenn wir das Differenzenverfahren zur näherungsweisen Lösung der Rand-Eigenwertaufgabe (1.11) verwenden, erhalten wir das Matrix-Eigenwertproblem 2 − h12 u1 u1 h2 2 u2 − 12 u2 − h12 h2 h 1 2 1 u3 − h2 − h2 u3 h2 2 a .. = λ .. , .. .. .. . . . . . 2 1 1 uN −2 − h2 − h2 uN −2 h2 1 2 uN −1 uN −1 − h2 h2 | {z } | {z } u K kurz Ku = λM u. 1 Dieser Ansatz ist schön kompakt aufschreibbar. Man kann auch u(x, t) = u1 (x) cos(ωt) + u2 (x) sin(ωt) ansetzen und erhält, dass u1 und u2 Lösungen der gleichen RandEigenwertaufgabe (1.11) sind. 12 24. März 2016 Eigenfunktionen, h=1/40 0.25 0.2 0.15 0.1 0.05 0 −0.05 −0.1 −0.15 −0.2 −0.25 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Abbildung 3: Näherungen der ersten drei Eigenfunktionen Lösen wir dieses, erhalten wir N − 1 Näherungen für die unendlich vielen Eigenwerte des kontinuierlichen Eigenwertproblems (1.11). Dabei werden die kleinsten Eigenwerte recht gut angenähert, die großen nicht. Für den Fehler in der Eigenwertnäherung kann man |λ − λh | ≤ Ch2 λ2 zeigen. Bsp 1.16 (Anwendung des Differenzenverfahrens) Sei a = 1. In folgender Tabelle sind die Fehler bei der Approximation der drei kleinsten Eigenwerte λ1 = π 2 , λ2 = 4π 2 und λ3 = 9π 2 für verschiedene Schrittweiten angegeben. Welche Konvergenzordnung lesen Sie ab? Wie beeinflusst die Größe des Eigenwerts den Approximationsfehler? N = h−1 |λ1 − λ1,h | |λ2 − λ2,h | |λ3 − λ3,h | 10 20 40 8,0908 e−2 2,0277 e−2 5,0723 e−3 1,2818 e+0 3,2363 e−1 8,1108 e−2 6,3835 e+0 1,6317 e+0 4,1018 e−1 Die Näherungen der ersten drei Eigenfunktionen sind in Abbildung 3 dargestellt. E 1.17 (Entkopplung des Systems) Wir haben gesehen, dass sich die Bewegung von Mehrkörpersystemen durch das Differentialgleichungssystem M ü + C u̇ + Ku = F (t). darstellen lassen. Diskretisiert man die Wellengleichung nur im Ort ergibt sich ein Differentialgleichungssystem mit derselben Struktur. 24. März 2016 13 Im Fall von Rayleigh-Dämpfung , C = aM + bK, erhalten wir M ü + (aM + bK)u̇ + Ku = F (t). (1.12) Seien nun λi = ωi2 > 0 die Eigenwerte und die Spalten der Matrix V die zugehörigen Eigenvektoren des verallgemeinerten Eigenwertproblems Kv = λM v, dann erhält man mit der Diagonalmatrix Λ, die auf der Hauptdiagonale die Eigenwerte enthält, die Beziehung KV = M V Λ. Außerdem benutzen wir die Matrix V für eine Transformation der gesuchten Vektorfunktion u auf die neue Unbekannte y durch die Gleichung u = V y. Eingesetzt in das Differentialgleichungssystem (1.12), erhält man M V ÿ + (aM + bK)V ẏ + KV y = F (t) M V ÿ + (aM V + bM V Λ)ẏ + M V Λy = F (t) ÿ + (aI + bΛ)ẏ + Λy = V −1 M −1 F (t), welches ein System von nicht gekoppelten Differentialgleichungen darstellt. Seien nun fi (t) die Komponenten der Vektorfunktion V −1 M −1 F (t), dann kann man dieses System in der Ein-Freiheitsgrad-Form“ ” ÿi + (a + bλi )ẏi + λi yi = fi schreiben. Mit λi = ωi2 und δi = 12 (a + bλi ) ergibt sich die aus Erklärung 1.2 bekannte Form ÿi + 2δi ẏi + ωi2 yi = fi . Es ist aber auch die Form ÿi + 2ξi ωi ẏi + ωi2 yi = fi . mit dem Dämpfungsverhältnis ξi = 12 (aωi−1 + bωi ) gebräuchlich. Später werden wir auch wieder u statt y für die gesuchte Auslenkung schreiben. Man kann also ein numerisches Verfahren zur Lösung des Differentialgleichungssystems (1.12) anhand der skalaren Schwingungsgleichung analysieren. Man beachte dabei, dass für den Fall, dass das System (1.12) durch eine Diskretisierung der räumlichen Variablen entstanden ist, und dass die Frequenzen ωi die Eigenfrequenzen des diskretisierten Systems sind. Da nur die niedrigen Frequenzen auch etwas mit dem kontinuierlichen System zu tun haben, siehe Beispiel 1.16, sollten die durch die hohen Frequenzen entstehenden Lösungsanteile vom Verfahren gedämpft werden. Die zeitliche Veränderung der niederfrequenten Anteile sollte aber gut approximiert werden. Bem 1.18 Verfahren zur numerischen Berechnung von Eigenwerten von Matrizen lernen wir in Kapitel 4 kennen. 14 24. März 2016 1.3. Systeme erster Ordnung E 1.19 (Überführung in ein System 1. Ordnung) Wir betrachten das Modell des Einmassenschwingers beziehungsweise die Schwingungsgleichung für eine einzelne Schwingform, ü + 2δ u̇ + ω 2 u = f, u(0) = u0 , u̇(0) = v0 . Die Differentialgleichung 2. Ordnung kann mit Hilfe der neuen Variablen v = u̇ in ein System 1. Ordnung umgeformt werden, u̇ = v, u(0) = u0 , v̇ = −2δv − ω 2 u + f, v(0) = v0 , beziehungsweise in vektorieller Schreibweise u̇ 0 1 u 0 = + , v̇ −ω 2 −2δ v f u(0) v(0) (1.13) = u0 v0 . E 1.20 Es gibt zwei Zugänge zur numerischen Lösung von Anfangswertaufgaben. • Man kann jede Anfangswertaufgabe als Spezialfall des allgemeinen Anfangswertproblems ẏ(t) = f (t, y(t)), y(0) = y0 , auffassen und Allzweck-Methoden mit sorgfältiger Fehlerkontrolle verwenden. Es stehen sehr leistungsfähige Software-Pakete zur Verfügung. Nicht beachtet wird dabei die Struktur der Aufgabe, z. B., dass ein Teil der Unbekannten Positionen/Auslenkungen und ein anderer Teil Geschwindigkeiten darstellen. • Man kann spezielle Eigenschaften des betrachteten Problems identifizieren (z. B., dass hohe Frequenzen durch die Diskretisierung ohnehin nicht vernünftig abgebildet werden und deshalb herausgedämpft werden sollten) und spezielle numerische Methoden entwickeln, die diese Eigenschaften ebenfalls besitzen bzw. im Diskreten nachbilden. Wir werden beide Zugänge diskutieren. 24. März 2016 15 2. Numerische Verfahren für Differentialgleichungen erster Ordnung 2.1. Allgemeine Herangehensweise E 2.1 (Häufige Vorgehensweise bei der numerischen Lösung) der Anfangswertaufgabe ẏ = f (t, y), Zur Lösung y(0) = y0 , diskretisiert man die Zeit t ∈ R+ durch die Einführung eines Gitters ωτ = {t0 , t1 , t2 , . . .} (Menge von Stützstellen) mit der lokalen Schrittweite τk = tk+1 − tk . Die numerische Lösung sucht man in Form einer Gitterfunktion uτ : ωτ → Rn , wobei uk := uτ (tk ) ≈ y(tk ), k = 0, 1, 2, . . . , gelten soll. Wir bezeichnen mit τ := max τk k die maximal verwendete Schrittweite. E 2.2 (Diskretisierungsfehler) In der Regel werden in jedem Zeitschritt lokale Fehler erzeugt, die sich in komplizierter Weise übertragen und den globalen Diskretisierungsfehler eτ (tk ) = y(tk ) − uτ (tk ) bilden. Gilt für τ ≤ τ∗ und für alle tk ∈ ωτ |eτ (tk )| ≤ Cτ p , dann heißt das entsprechende Diskretisierungsverfahren konvergent mit der Ordnung p. E 2.3 (Wahl der Schrittweite) Die Schrittweite muss so gewählt werden, dass der Fehler innerhalb einer vorgegebenen Toleranz liegt. Dazu verwendet man in jedem Zeitschritt einen Fehlerschätzer. Liegt der geschätzte Fehler innerhalb der Toleranz, wird der Zeitschritt akzeptiert, andernfalls wird der Schritt mit einer kleineren Schrittweite wiederholt. Liegt der geschätzte Fehler deutlich unterhalb der Toleranz, kann im nächsten Zeitschritt eine größere Schrittweite gewählt werden. Dieses Vorgehen wird als adaptive Schrittweitensteuerung bezeichnet. Wir werden darauf jedoch im Rahmen dieser Vorlesung nicht weiter eingehen. Der Einfachheit halber beschränken wir uns hier auf eine konstante Schrittweite τ , d. h., es gilt tk = kτ , k = 1, 2, . . . 16 24. März 2016 2.2. Einschrittverfahren Def 2.4 Explizite Einschrittverfahren sind Verfahren der Form u0 = y0 uk+1 = uk + τ Φ(tk , uk , τ, f ), k = 0, 1, 2, . . . zur Lösung von Anfangswertaufgaben. Die Funktion Φ heißt Inkrement- bzw. Zuwachsfunktion. Bsp 2.5 (Eulerschen Polygonzugverfahren) Beim Eulerschen Polygonzugverfahren (auch explizites Euler-Verfahren) approximiert man die Differentialgleichung ẏ(t) = f (t, y(t)) im Punkt t = tk durch die Differenzengleichung uk+1 − uk = f (tk , uk ). τ Äquivalent umgeformt bedeutet das u0 = y0 uk+1 = uk + τ f (tk , uk ), k = 0, 1, 2, . . . Das Eulersche Polygonzugverfahren ist das einfachste Beispiel eines expliziten Einschrittverfahrens und konvergiert mit erster Ordnung. Bsp 2.6 Wir lösen die Anfangswertaufgabe ÿ(t) + ω 2 y(t) = 0, y(0) = 1, ẏ(0) = 0, mit dem expliziten Euler-Verfahren. Die Abbildung 4 zeigt das Phasendiagramm und das t, y-Diagramm. Man erkennt, dass nur mit sehr kleinen Schrittweiten halbwegs brauchbare Ergebnisse erzielt werden. Bsp 2.7 (Verfahren zweiter Ordnung) Beispiele für explizite Einschrittverfahren zweiter Ordnung sind das zweistufige Verfahren von Heun (1900), uk+1 = uk + τ 21 f1,k + 12 f2,k , f1,k = f (tk , uk ), f2,k = f (tk + τ, uk + τ f1,k ), und das Halbschrittverfahren von Collatz (1969), uk+1 = uk + τ f2,k , f1,k = f (tk , uk ), f2,k = f tk + 12 τ, uk + 12 τ f1,k . Bsp 2.8 Das klassische Runge-Kutta-Verfahren uk+1 = uk + τ 1 6 f1,k + 31 f2,k + 13 f3,k + 16 f4,k , f1,k = f (tk , uk ), f2,k = f tk + 12 τ, uk + 12 τ f1,k f3,k = f tk + 21 τ, uk + 12 τ f2,k f4,k = f (tk + τ, uk + τ f3,k ) hat die Ordnung 4. 24. März 2016 17 Phasendiagramm, t ∈ [0, 2π] 2 1.5 1 v/ω 0.5 exact, ω beliebig Euler explizit, τ=2π/40 Euler explizit, τ=2π/20 0 −0.5 −1 −1.5 −2 −2 −1.5 −1 −0.5 0 u 0.5 1 1.5 2 Auslenkung, t ∈ [0, 10π] 2 1 u 0 exact, omega=1 Euler explizit, ω=1, τ=2π/40 Euler explizit, ω=1, τ=2π/20 −1 −2 0 5 10 15 20 25 30 t Abbildung 4: Phasendiagramm und t, u-Diagramm für das explizite EulerVerfahren Def 2.9 (Verfahren vom Runge-Kutta-Typ) Ein r-stufiges Einschrittverfahren vom Runge-Kutta-Typ ist ein Verfahren der Form uk+1 = uk + τ r X βi fi,k i=1 Man unterscheidet explizite, semi-implizite und implizite Verfahren. Für ein explizites Verfahren gilt fi,k = f tk + γi τ, uk + τ i−1 X βi,s fs,k βi,s fs,k βi,s fs,k s=1 Für ein semi-implizites Verfahren gilt fi,k = f tk + γi τ, uk + τ i X s=1 Für ein implizites Verfahren gilt fi,k = f tk + γi τ, uk + τ r X s=1 Ü 2.10 Was bedeuten diese kleinen Unterschiede für den Rechenaufwand? (Beachten Sie, dass die Funktion f vektorwertig sein kann.) 18 24. März 2016 Phasendiagramm, t ∈ [0, 2π] 1 0.8 0.6 0.4 exact, ω beliebig Euler implizit, τ=2π/40 Euler implizit, τ=2π/20 Euler implizit, τ=2π/10 Euler implizit, τ=2π/3 v/ω 0.2 0 −0.2 −0.4 −0.6 −0.8 −1 −1 −0.5 0 u 0.5 1 Auslenkung, t ∈ [0, 10π] 1 u 0.5 exact, ω=1 Euler implizit, ω=1, τ=2π/40 Euler implizit, ω=1, τ=2π/20 Euler implizit, ω=1, τ=2π/10 Euler implizit, ω=1, τ=2π/3 0 −0.5 −1 0 5 10 15 20 25 30 t Abbildung 5: Phasendiagramm und t, u-Diagramm für das implizite EulerVerfahren Bsp 2.11 (Implizites Eulerverfahren) Mit uk+1 = uk + τ f1,k f1,k = f (tk + τ, uk + τ f1,k ) = f (tk+1 , uk+1 ) erhält man das implizite Eulerverfahren (Euler rückwärts). Es kann auch durch die Vorschrift u0 = y0 , uk+1 = uk + τ f (tk+1 , uk+1 ), k = 0, 1, 2, . . . beschrieben werden. Bsp 2.12 Wir betrachten wie in Beispiel 2.6 die Anfangswertaufgabe ü(t) + ω 2 u(t) = 0, u(0) = 1, u̇(0) = 0, lösen dieses Mal aber mit dem impliziten Euler-Verfahren. Die Abbildung 5 zeigt das Phasendiagramm und das t, u-Diagramm. Man erkennt, dass die eigentlich ungedämpfte Schwingung stark gedämpft wird. Bsp 2.13 Durch die größere Zahl von Koeffizienten ist es möglich, ein einstufiges Verfahren zweiter Ordnung zu konstruieren. uk+1 = uk + τ f1,k 1 1 f1,k = f (tk + τ, uk + τ f1,k ) 2 2 Zur Berechnung von f1,k ist die Lösung einer im Allgemeinen nichtlinearen Gleichung nötig. 24. März 2016 19 Phasendiagramm, t ∈ [0, 2π] 1 0.8 0.6 0.4 v/ω 0.2 exact, ω beliebig Trapezregel, ω=1, τ=2π/20 Trapezregel, ω=1, τ=2π/10 Trapezregel, ω=1, τ=2π/3 0 −0.2 −0.4 −0.6 −0.8 −1 −1 −0.5 0 u 0.5 1 Auslenkung, t ∈ [0, 10π] 1 0.5 u 0 exact, ω=1 Trapezregel, ω=1, τ=2π/20 Trapezregel, ω=1, τ=2π/10 Trapezregel, ω=1, τ=2π/3 −0.5 −1 0 5 10 15 20 25 30 t Abbildung 6: Phasendiagramm und t, u-Diagramm für die Trapezregel E 2.14 (Trapezregel) Das semi-implizite Einschrittverfahren mit γ1 = β1,1 = β1,2 = 0, γ2 = 1, β2,1 = β2,2 = β1 = β2 = 12 , uk+1 = uk + τ [f (tk , uk ) + f (tk+1 , uk+1 )] 2 ist von 2. Ordnung. Es wird als Trapezregel bezeichnet. (Warum?) Bsp 2.15 Wir betrachten wie in Beispiel 2.6 die Anfangswertaufgabe ü(t) + ω 2 u(t) = 0, u(0) = 1, u̇(0) = 0, also u̇ v̇ = 0 1 −ω 2 0 u v , u(0) v(0) = u0 v0 , und lösen dieses Mal aber mit der Trapezregel, uk+1 vk+1 = uk vk τ + 2 0 1 −ω 2 0 uk vk + uk+1 vk+1 Im Phasendiagramm in Abbildung 6 erkennt man auf den ersten Blick gar keine Fehler, das liegt daran, dass das Verfahren unabhängig von ω frei von numerischer Dämpfung ist. Fehler treten trotzdem auf, sie äußern sich in einer geringfügigen Phasenverschiebung, wie im t, u-Diagramm gut zu sehen ist. 20 24. März 2016 2.3. A-Stabilität, absolute Stabilität E 2.16 Wir betrachten die Dahlquistsche Testgleichung ẏ = λy, y(0) = 1, (2.14) mit einem Parameter λ ∈ C. Für die exakte Lösung y(t) = eλt gilt 0 für Re λ < 0, lim |y(t)| = t→∞ ∞ für Re λ > 0. Für Re λ = 0 gilt |y(t)| = 1. Eine wünschenswerte Eigenschaft ist also, dass für Re λ ≤ 0 |uk | ≤ 1 ∀k (2.15) gilt. Man beweist die Eigenschaft (2.15) im Allgemeinen über die Beziehung |uk+1 | ≤ |uk |. Def 2.17 Ein numerisches Verfahren zur Approximation von (2.14) heißt für z := τ λ absolut stabil (A-stabil), wenn (2.15) gilt. Der Bereich der absoluten Stabilität ist die Menge A = {z = τ λ ∈ C : (2.15) ist erfüllt}, d. h., A ist die Menge der Werte des Produktes τ λ, für die die numerische Methode Lösungen liefert, die für tn → ∞ beschränkt bleiben. Ein numerisches Verfahren zur Approximation von (2.14) heißt unbedingt absolut stabil, wenn (2.15) für beliebige Re λ ≤ 0 und beliebige Schrittweiten τ > 0 gilt. Folgerung 2.18 Eine Methode ist unbedingt absolut stabil, wenn C− ⊂ A gilt, wobei C− = {z ∈ C : Re z ≤ 0}. Bsp 2.19 Wir untersuchen das explizite Eulerverfahren. Es gilt uk+1 = uk + τ f (tk , uk ) = uk + τ λuk = uk (1 + τ λ) Das Verfahren ist nur dann absolut stabil, wenn |1 + τ λ| ≤ 1 bzw., nach kurzer Rechnung, wenn die Stabilitätsbedingung für das explizite Eulerverfahren 0<τ ≤− 2 Re λ |λ|2 erfüllt ist. In Abbildung 7 ist der Stabilitätsbereich illustriert. Man sieht, dass die Stabilitätsbedingung besonders ungünstig ist, wenn Im λ Re λ oder |λ| 1. 24. März 2016 21 Im A −1 1 Re Abbildung 7: Stabilitätsbereich des expliziten Euler-Verfahrens Euler vorwaerts, t ∈ [0, 10] 3 τ=0.41 τ=0.40 τ=0.39 τ=0.15 exakt 2 1 u 0 −1 −2 −3 0 1 2 3 4 5 t 6 7 8 9 10 Abbildung 8: t, u-Diagramm für Beispiel 2.20 Bsp 2.20 (Numerischer Test) Sei λ = −5, T = 10. Dann lautet die Stabilitätsbedingung τ < 0,4. Im numerischen Test beobachtet man folgendes Verhalten: τ τ τ τ = 0,41 = 0,40 = 0,39 = 0,15 ⇒ ⇒ ⇒ ⇒ Lösung schaukelt sich auf, Lösung oszilliert unverändert, Lösung fällt betragsmäßig, monoton fallende Lösung, siehe Abbildung 8. Bsp 2.21 (Explizite Einschrittverfahren) Die Grafik in Abbildung 9 stellt die Ränder der Stabilitätsbereiche für explizite Einschrittverfahren 1. (grün), 2. (türkis), 3. (blau) und 4. Ordnung (rot) dar. Von unbedingter Stabilität ist man weit entfernt, hier helfen nur implizite Verfahren. 22 24. März 2016 3 2 1 0 −1 −2 −3 −3 −2.5 −2 −1.5 −1 −0.5 0 0.5 Abbildung 9: Stabilitätsbereiche für explizite Einschrittverfahren 1. (grün), 2. (türkis), 3. (blau) und 4. Ordnung (rot) Im A −1 1 Re Abbildung 10: Stabilitätsbereich das implizite Euler-Verfahren Bsp 2.22 (Implizites Euler-Verfahren) Zur Analyse der absoluten Stabilität rechnen wir uk+1 = uk + τ λuk+1 (1 − τ λ)uk+1 = uk uk+1 = ⇒ uk = uk 1 − τλ 1 u0 = k (1 − τ λ) (1 − τ λ)k für u0 = 1. Damit ist (2.15) äquivalent zu |1 − τ λ| ≥ 1. Der Bereich ist in Abbildung 10 illustriert. Das Verfahren ist unbedingt absolut stabil. 24. März 2016 23 Euler implizit, t ∈ [0, 0.5] 15 τ=0.5 τ=0.25 τ=0.15 τ=0.05 exakt 10 u 5 0 −5 0 0.05 0.1 0.15 0.2 0.25 t 0.3 0.35 0.4 0.45 0.5 Abbildung 11: t, u-Diagramm für das Beispiel in Bemerkung 2.23 E 2.23 Für ẏ = 5y, y(0) = 1 wächst die Lösung y = e5t für t → ∞. Für τ > 0,4 berechnet das implizite Eulerverfahren eine betragsmäßig fallende Lösung. Man sieht, dass A-Stabilität eine sinnvolle Eigenschaft für Aufgaben mit Re λ < 0 ist, aber nicht für Aufgaben mit Re λ > 0. Das Diagramm in Abbildung 11 zeigt die numerische Lösung für die Schrittweiten τ = 0,05 (sinnvolle Lösung), τ = 0,15 (monoton wachsende Lösung mit großem Fehler), τ = 0,25 (betragsmäßig exponentiell wachsende, aber alternierende Lösung) und τ = 0,5 (betragsmäßig monoton fallende Lösung). E 2.24 Explizite Verfahren benötigen wegen des kleinen Bereichs absoluter Stabilität typischerweise sehr kleine Schrittweiten. Sie sind im Allgemeinen nur konkurrenzfähig, wenn das bei impliziten Verfahren zu lösende Gleichungssystem großdimensioniert und nichtlinear ist. So etwas kommt zum Beispiel bei der Crashsimulation vor. Bsp 2.25 Für das einstufige Verfahren zweiter Ordnung aus Beispiel 2.13 gilt R(z) = 1 + z 1− z 2 = 1 + z/2 . 1 − z/2 (2.16) Damit gilt |R(z)| ≤ 1 genau dann wenn z z 1 + ≤ 1 − . 2 2 Mit z = x + iy erhält man die äquivalenten Ungleichungen 1 + z 2 ≤ 1 − z 2 2 2 2 2 2 2 1 + x2 + y2 ≤ 1 − x2 + y2 x ≤ −x, d. h., |R(z)| ≤ 1 gilt für alle z mit Re z ≤ 0. Das Verfahren ist unbedingt absolut stabil. Ü 2.26 Analysieren Sie die absolute Stabilität der Trapezregel (Beispiel 2.14). 24 24. März 2016 2.4. A-Stabilität für die Schwingungsgleichung E 2.27 Wir betrachten die Schwingungsgleichung ü + 2δ u̇ + ω 2 u = f, u(0) = u0 , u̇(0) = v0 . In Erklärung 1.19 haben wir diese mit Hilfe der neuen Variablen v = u̇ in ein System 1. Ordnung umgeformt, u̇ 0 1 u 0 u(0) u0 = + , = . v̇ −ω 2 −2δ v f v(0) v0 Dieses können wir nun mit einem Verfahren für Systeme erster Ordnung numerisch lösen. Was bedeutet A-Stabilität in diesem Zusammenhang? • Wir können das System erster Ordnung entkoppeln und so die Werte des Parameters λ in der Dahlquistschen Testgleichung herausfinden, die zur angebenenen Gleichung gehören. • Wir können die Analyse der A-Stabilität auf den Fall eines Systems aus zwei Differentialgleichungen 1. Ordnung anpassen. Wir werden nun beide Zugänge diskutieren. E 2.28 (Diagonalisierung des Systems erster Ordnung) Wir diagonalisieren die im √ System auftretende Matrix. Die Eigenwerte λ1,2 = −δ ± iωd mit ωd = ω 2 − δ 2 sind echt komplex und die zugehörigen Eigenvektoren 1 1 und λ1 λ2 sind nicht orthogonal. Mit den Bezeichnungen λ1 1 1 Λ= , V = λ1 λ2 λ2 z1 z2 =V −1 u v erhält man V u̇ v̇ = V ΛV −1 u v + 0 f , 0 u = ΛV + V −1 f v ż1 z1 0 =Λ , + V −1 ż2 z2 f −1 u̇ v̇ −1 , also zwei entkoppelte Gleichungen. Im homogenen Fall, f = 0, sind das die Dahlquistschen Gleichungen żi = λi zi . Wir merken uns, dass uns die Dahlquistsche Testgleichung für λ = −δ ± iωd interessiert. Der Vorteil der Diagonalisierung besteht darin, dass wir das Verhalten von Näherungsverfahren zur Lösung der Anfangswertaufgabe nur noch für eine skalare Differentialgleichung (allerdings komplexwertig) analysieren müssen. Der Nachteil besteht drin, dass die unterschiedliche physikalische Bedeutung der Variablen u und v nicht mehr gesehen wird, denn die zi sind Linearkombinationen aus u und v. 24. März 2016 25 Satz 2.29 (A-Stabilität nach Hughes) Ein numerisches Verfahren der Form uj+1 vj+1 =A uj vj + cj ist stabil, wenn die Eigenwerte der Matrix A betragsmäßig kleiner oder gleich Eins sind. Dabei reicht es aus, den skalaren Fall uj , vj ∈ R1 zu betrachten. Falls A einen doppelten Eigenwert2 hat, so muss dieser echt kleiner als Eins sein. [Hug00, S. 497] E 2.30 Die Erklärung von Hughes ist etwa die Folgende. Wir bezeichnen yj := uj vj , so dass das Verfahren in der Form yj+1 = Ayj + cj geschrieben werden kann. Nun betrachten wir eine Störung in den Anfangsdaten, d. h., statt mit dem exakten Anfangswert y0 wird mit dem gestörten Anfangswert ỹ0 = y0 + ε gerechnet. Wir erhalten ỹ1 = Aỹ0 + c0 = A(y0 + ε) + c0 = y1 + Aε, ỹ2 = Aỹ1 + c1 = A(y1 + Aε) + c1 = y2 + A2 ε, .. . ỹn = yn + An ε. Sei nun A diagonalisierbar, A = V ΛV −1 , dann ist An = V Λn V −1 , und es gilt wegen kΛn k = max{|λ1 |n , |λ2 |n } die Abschätzung kAn εk = kV Λn V −1 εk ≤ kV kkΛn kkV −1 εk = C(V, ε) max{|λ1 |n , |λ2 |n }, wobei ( ≤C wenn max{|λ1 |, |λ2 |} ≤ 1, C max{|λ1 | , |λ2 | } → ∞ sonst. n n Damit kleine Störungen in den Anfangsdaten nur kleine Änderungen in der Lösung verursachen, fordern wir also, dass die Eigenwerte der Matrix A betragsmäßig kleiner oder gleich Eins sind. Das gleiche Argument kann verwendet werden, wenn man den lokalen Diskretisierungsfehler analysiert. Im Fall, dass die Matrix A nicht diagonalisierbar ist, muss für das gleiche Argument vorausgesetzt werden, dass die Eigenwerte von A echt kleiner als Eins sind. 2 Eigentlich muss nur ein doppelter defektiver Eigenwert echt kleiner als Eins sein, siehe die Begründungen in [Hug00, S. 497]. Defektive Eigenwerte sind solche, bei denen die geometrische Vielfachheit kleiner als die algebraische Vielfachheit ist. 26 24. März 2016 E 2.31 Die Erklärung kann aber auch anders interpretiert werden. Wir wollen, dass (insbesondere hochfrequente) Lösungsanteile, die durch die allgemeine Lösung der homogenen Differentialgleichung in der Lösung auftreten, nicht durch das numerische Verfahren verstärkt werden, sondern eher gedämpft werden. Solche Lösungsanteile erfüllen in der numerischen Lösung die Beziehung yj+1 = Ayj . Ist A diagonalisierbar, A = V ΛV −1 , dann gilt V −1 yj+1 = ΛV −1 yj und somit die Abschätzung kV −1 yj+1 k = kΛV −1 yj k ≤ kΛkkV −1 yj k = max{|λ1 |, |λ2 |}kV −1 yj k. Stabilität im Sinne von Hughes bedeutet also, dass die Norm von V −1 yj für alle j beschränkt bleibt. Bsp 2.32 Wir diskretisieren die Schwingungsgleichung u̇ 0 1 u = v̇ −ω 2 −2δ v mit dem impliziten Euler-Verfahren, uk+1 = vk+1 1 −τ uk+1 = ω 2 τ 1 + 2δτ vk+1 uk vk uk vk +τ 0 1 −ω 2 −2δ uk+1 vk+1 , und untersuchen die Stabilität. Das Verfahren ist stabil, wenn die Eigenwerte der Matrix auf der linken Seite betragsmäßig größer oder gleich Eins sind. Es gilt für δ ∈ [0, ω] 1−λ −τ 0 = 2 ω τ 1 − λ + 2δτ = (1 − λ)(1 − λ + 2δτ ) + ω 2 τ 2 = (1 − λ)2 + 2δτ (1 − λ) + ω 2 τ 2 p 1 − λ± = −δτ ± i ω 2 τ 2 − δ 2 τ 2 p λ± = 1 + δτ ∓ i ω 2 τ 2 − δ 2 τ 2 |λ± |2 = (1 + δτ )2 + ω 2 τ 2 − δ 2 τ 2 = 1 + 2δτ + ω 2 τ 2 ≥ 1. Für δ ≥ ω gilt λ± = 1 + δτ ± p p δ 2 τ 2 − ω 2 τ 2 = 1 + τ δ ± δ 2 − ω 2 ≥ 1. Das Verfahren ist also für alle δ ≥ 0 unbedingt stabil. 24. März 2016 27 2.5. Mehrschrittverfahren E 2.33 Einschrittverfahren haben gewisse Nachteile: • hohe Anzahl von Funktionswertauswertungen, die man für eine hohe Konsistenzordnung benötigt, • Funktionswertauswertungen aus einem früheren Schritt werden nicht mehrmals benutzt. Abhilfe bringen Mehrschrittverfahren. Wir besprechen hier einige Klassen solcher Verfahren, wobei wir der Einfachheit halber wieder voraussetzen wollen, dass die Schrittweite konstant gleich τ ist. Def 2.34 Bei einem r-Schritt-Verfahren werden zur Berechnung von uk+1 die bereits berechneten Größen uk , uk−1 , . . . , uk−r+1 verwendet. Sie haben die allgemeine Form: uk+1 + αr−1 uk + . . . + α0 uk−r+1 = = τ [βr f (tk+1 , uk+1 ) + βr−1 f (tk , uk ) + . . . + β0 f (tk−r+1 , uk−r+1 )] bzw. uk+1 + r−1 X i=0 αr−1−i uk−i = τ r−1 X βr−1−i f (tk−i , uk−i ). i=−1 mit |α0 | + |β0 | > 0. Für βr = 0 ist das Verfahren explizit, sonst implizit. Bem 2.35 (Anlaufrechnung) Für k = 0, . . . , r − 2 muss man sich zunächst Startwerte verschaffen, z. B. mit einem Einschrittverfahren. Satz 2.36 (2. Dahlquist-Barriere) Es gilt: • Kein explizites lineares Mehrschrittverfahren ist unbedingt A-stabil. • Kein implizites lineares Mehrschrittverfahren ist unbedingt A-stabil, wenn seine Konsistenzordnung größer als 2 ist. Bsp 2.37 Ein explizites Zweischrittverfahren zweiter Ordnung ist die Mittelpunktregel uk+1 = uk−1 + 2τ f (tk , uk ). Wir testen das Verfahren am Beispiel aus 2.15. Das Phasendiagramm in Abbildung 12 zeigt Instabilitäten für im Vergleich zur Periode großen Schrittweiten. Außerdem ist die Periodenverkürzung gut zu erkennen. Bsp 2.38 Ein implizites Zweischrittverfahren vierter Ordnung ist uk+1 = uk−1 + τ [f (tk−1 , uk−1 ) + 4f (tk , uk ) + f (tk+1 , uk+1 )] . 3 Haben Sie einen Wiedererkennungserfolg? Wir testen das Verfahren ebenfalls am Beispiel aus 2.15. Man sieht in Abbildung 13 die hohe Genauigkeit im Fall, dass die Schrittweite die Stabilitätsbedingung einhält. Für zu große Schrittweiten wird das Verfahren jedoch instabil. 28 24. März 2016 Phasendiagramm, t ∈ [0, 2π] 1 0.8 0.6 0.4 v/ω 0.2 exact, ω beliebig Mittelpunktregel, ω=1, τ=2π/20 Mittelpunktregel, ω=1, τ=2π/10 Mittelpunktregel, ω=1, τ=2π/3 0 −0.2 −0.4 −0.6 −0.8 −1 −1 −0.5 0 u 0.5 1 Auslenkung, t ∈ [0, 2π] 1 u 0.5 0 exact, ω=1 Mittelpunktregel, ω=1, τ=2π/20 Mittelpunktregel, ω=1, τ=2π/10 Mittelpunktregel, ω=1, τ=2π/3 −0.5 −1 0 5 10 15 20 25 30 t Abbildung 12: Phasendiagramm und t, u-Diagramm zur Mittelpunktregel Phasendiagramm, t ∈ [0, 2π] 1 v/ω 0.5 exact, omega beliebig Zweischrittverfahren 4. Ordnung, ω=1, τ=2π/20 Zweischrittverfahren 4. Ordnung, ω=1, τ=2π/10 Zweischrittverfahren 4. Ordnung, ω=1, τ=2π/3 0 −0.5 −1 −1 −0.5 0 u 0.5 1 Auslenkung, t ∈ [0, 10π] 1 u 0.5 0 exact, omega beliebig Zweischrittverfahren 4. Ordnung, ω=1, τ=2π/20 Zweischrittverfahren 4. Ordnung, ω=1, τ=2π/10 Zweischrittverfahren 4. Ordnung, ω=1, τ=2π/3 −0.5 −1 0 5 10 15 20 25 30 t Abbildung 13: Phasendiagramm und t, u-Diagramm zum Zweischrittverfahren vierter Ordnung 24. März 2016 29 Phasendiagramm, t ∈ [0, 2π] 1 0.8 0.6 0.4 v/ω 0.2 exact, ω beliebig BDF2, ω=1, τ=2π/20 BDF2, ω=1, τ=2π/10 BDF2, ω=1, τ=2π/3 0 −0.2 −0.4 −0.6 −0.8 −1 −1 −0.5 0 u 0.5 1 Auslenkung, t ∈ [0, 2π] 1 0.5 u 0 exact, ω=1 BDF2, ω=1, τ=2π/20 BDF2, ω=1, τ=2π/10 BDF2, ω=1, τ=2π/3 −0.5 −1 0 5 10 15 20 25 30 t Abbildung 14: Phasendiagramm zum BDF2-Verfahren Bsp 2.39 (BDF-Verfahren) Man approximiert die linke Seite der Gleichung ẏ(tk+1 ) = f (tk+1 , y(tk+1 )) durch einen Differenzenquotient möglichst hoher Konsistenzordnung auf der Basis der Stützstellen tk+1 , tk , tk−1 , . . . , tk−r+1 . Es ergeben sich die impliziten BDF (backward differentiation formulae), die besonders für steife Differentialgleichungen geeignet sind. Für r = 1 ergibt sich das implizite Euler-Verfahren (erster Ordnung) 1 [uk+1 − uk ] = f (tk+1 , uk+1 ). τ Für r = 2 ergibt sich das BDF2-Verfahren (zweiter Ordnung) 3 1 uk+1 − 2uk + uk−1 = τ f (tk+1 , uk+1 ). 2 2 Wir testen das Verfahren am Beispiel aus 2.15. Das Phasendiagramm in Abbildung 14 zeigt deutlich die Dämpfung bei großer Schrittweite. 30 24. März 2016 3. Numerische Verfahren für Schwingungsprobleme Das Kapitel basiert auf [Hug00, Kapitel 9]. 3.1. Allgemeine Herangehensweise E 3.1 (Aufgabenstellung) Zu lösen ist das System gewöhnlicher Differentialgleichungen 2. Ordnung M ẍ + C ẋ + Kx = f mit den Anfangsbedingungen x(0) = x0 , ẋ(0) = v0 , wobei x(t) die Auslenkung des schwingenden Systems, M die Massenmatrix, C die Dämpfungsmatrix, K die Steifigkeitsmatrix und f den Vektor der äußeren Kräfte (Kraftvektor) bedeuten. Die Massenmatrix ist positiv definit, die Dämpfungsmatrix und die Steifigkeitsmatrix sind zumindest positiv semidefinit. E 3.2 (Allgemeines zur Diskretisierung) Wir diskretisieren die Zeitachse der Einfachheit halber uniform mit der Schrittweite τ , tj = jτ, j = 0, 1, 2, . . . und bestimmen für diese Zeitpunkte Näherungslösungen uj ≈ x(tj ), vj ≈ ẋ(tj ), aj ≈ ẍ(tj ). 3.2. Newmark-Verfahren E 3.3 (Herleitung des Verfahrens) Wir betrachten zum Zeitpunkt tj+1 = tj +τ das Gleichungssystem M ẍ(tj+1 ) + C ẋ(tj+1 ) + Kx(tj+1 ) = f (tj+1 ), x(tj+1 ) = x(tj ) + τ ẋ(tj ) + τ2 ẍ(ξ1 ), 2 ẋ(tj+1 ) = ẋ(tj ) + τ ẍ(ξ2 ), mit ξ1 , ξ2 ∈ (tj , tj+1 ) und diskretisieren es durch M aj+1 + Cvj+1 + Kuj+1 = fj+1 := f (tj+1 ), uj+1 = uj + τ vj + τ 2 21 − β aj + βaj+1 , vj+1 = vj + τ [(1 − γ)aj + γaj+1 ]. (3.17) (3.18) (3.19) Die Parameter β und γ bestimmen die Genauigkeit und Stabilität des Verfahrens. 24. März 2016 31 E 3.4 (Implementierung) Für die Implementierung stellt man das Gleichungssystem nach einer der drei Variablen uj+1 , vj+1 oder aj+1 um und löst dieses. Bathe [Bat02] stellt mit Hilfe von (3.18) den Vektor aj+1 als Funktion von uj+1 dar, mit dessen Hilfe folgt aus (3.19) eine Darstellung von vj+1 als Funktion von uj+1 und aus diesen beiden Beziehungen und (3.17) ein Gleichungssystem für uj+1 , das dann zu lösen ist. Im Gegensatz dazu setzt Hughes (3.18) und (3.19) in (3.17) ein und bezieht alles auf aj+1 . Zu lösen ist dann in jedem Zeitschritt das lineare Gleichungssystem (M + γτ C + βτ 2 K) aj+1 = f˜j+1 (3.20) τ2 = fj+1 − C(vj + (1 − γ)τ aj ) − K uj + τ vj + (1 − 2β)aj . 2 (3.21) mit f˜j+1 E 3.5 (Stabilität des Newmark-Verfahrens) Die Matrix A (vgl. Satz 2.29) ist für das Newmark-Verfahren nicht leicht herzuleiten; sie hängt von der höchsten auftretenden Frequenz ω des ungedämpften Systems ab. Es ergeben sich aber folgende Resultate [Hug00, 9.1.2]: • Für 2β ≥ γ ≥ 1 2 (3.22) ist das Verfahren unbedingt stabil. • Für γ ≥ 12 und 2β < γ ist das Verfahren stabil unter einer Beschränkung der Schrittweite, τ ≤ τ0 (ω, β, γ). E 3.6 (Konsistenzfehler) Der Konsistenzfehler ist von der Ordnung 2 für γ = und von der Ordnung 1 für γ 6= 21 . 1 2 Werte γ = 6 12 haben nur deshalb eine Bedeutung, weil man damit hohe FehlerFrequenzen, die aus der Diskretisierung im Ort entstehen, dämpfen kann. Um stets eine Dämpfung großer Frequenzen zu erzielen, fordert man eine strengere Stabilitätsbedingung als (3.22), nämlich γ ≥ 12 , β≥ 1 4 γ+ 1 2 . 2 Man sieht aus β ≥ 14 (γ + 12 )2 = 1 4 (γ − 12 )2 + 2γ ≥ 21 γ, dass diese Bedingung tatsächlich strenger ist. E 3.7 (Konvergenz) Konvergenz folgt aus Konsistenz und Stabilität. 32 24. März 2016 E 3.8 (Methode der konstanten mittleren Beschleunigung) Ein Spezialfall entsteht durch die Wahl γ = 12 und β = 14 : wichtiger M aj+1 + Cvj+1 + Kuj+1 = fj+1 , uj+1 = uj + τ vj + 14 τ 2 (aj + aj+1 ), vj+1 = vj + 21 τ (aj + aj+1 ). Dieses Verfahren ist implizit, unbedingt stabil und konvergent von 2. Ordnung. Das Verfahren entsteht auch, wenn man annimmt, dass im Intervall (tj , tj+1 ) die Beschleunigung konstant gleich 12 (aj + aj+1 ) ist. Deshalb wird es auch als Methode der konstanten mittleren Beschleunigung bezeichnet. E 3.9 (Trapezregel) Das Newmark-Verfahren mit γ = 12 und β = 14 wird auch als Trapezregel bezeichnet. Wir wollen im Folgenden die Beziehung zu dem in Erklärung 2.14 besprochenen impliziten Einschrittverfahren aufzeigen. Wir betrachten die Differentialgleichung M ẍ + C ẋ + Kx = f als System erster Ordnung für die Variable y = [x, ẋ]T , ẏ = ẋ ẍ = ẋ −1 M (f − C ẋ − Kx) und approximieren dieses mit der Trapezregel aus 2.14, uj+1 uj = + vj+1 vj τ vj vj+1 + + M −1 (fj − Cvj − Kuj ) M −1 (fj+1 − Cvj+1 − Kuj+1 ) 2 (3.23) Dann definieren wir aj = M −1 (fj − Cvj − Kuj ), das ist die erste Formel des Newmark-Verfahrens, und vereinfachen (3.23) zu uj+1 vj+1 = uj vj + τ 2 vj aj + vj+1 aj+1 . Die zweite Zeile ist die dritte Formel des Newmark-Verfahrens. Durch Einsetzen der zweiten Zeile in die erste, uj+1 = uj + 12 τ vj + 12 τ vj+1 = uj + 12 τ vj + 12 τ [vj + 12 τ (aj + aj+1 )] = uj + τ vj + 41 τ 2 (aj + aj+1 ), erhält man die zweite Formel des Newmark-Verfahrens. 24. März 2016 33 E 3.10 (Störmer-Verlet-Verfahren, Zentrales Differenzenverfahren) Ein zweiter wichtiger Spezialfall des Newmark-Verfahrens entsteht durch die Wahl von γ = 12 und β = 0: M aj+1 + Cvj+1 + Kuj+1 = fj+1 , uj+1 = uj + τ vj + 21 τ 2 aj , vj+1 = vj + 1 2 τ (aj + aj+1 ). (3.24) (3.25) Löst man dieses System nach aj+1 auf, vergleiche (3.20), dann erhält man (M + 1 τ C) aj+1 = f˜j+1 . 2 Damit ist das Störmer-Verlet-Verfahren3 ein explizites Verfahren, wenn M und C Diagonalmatrizen sind. Das Verfahren ist nur bedingt stabil. Man kann zeigen, dass die Stabilitätsbedingung 2 τ≤ ω lautet, wobei ω die höchste auftretende Frequenz ist. E 3.11 (Zentrales Differenzenverfahren) Der Name zentrales Differenzenverfahren kommt daher, dass man aus (3.24) und (3.25) auch uj+1 − uj−1 uj+1 − 2uj + uj−1 , aj = vj = 2τ τ2 schlussfolgern kann [Hug00, S. 495]. (Übung) E 3.12 (Einschritt- oder Mehrschrittverfahren) Das Newmark-Verfahren, wie wir es hier eingeführt haben, entspricht einem Einschrittverfahren. Man kann es aber auch als Zweischrittverfahren (M + γτ C + βτ 2 K)uj+1 + −2M + (1 − 2γ)τ C + ( 21 − 2β + γ)τ 2 K uj + + M − (1 − γ)τ C + ( 1 + β − γ)τ 2 K uj−1 = τ 2 f¯j 2 mit der einzigen Variablen u formulieren. Man beachte aber, dass das Newmarkverfahren nicht für beliebige Differentialgleichungen 1. Ordnung angewendet werden kann. Es werden nicht alle Komponenten der Verktorfunktion y = [x, ẋ]T gleich behandelt. Deshalb passt das Verfahren auch nicht in die Theorie von Dahlquist, vergleiche Satz 2.36. Ü 3.13 Man bestimme f¯j als Funktion von fj−1 , fj und fj+1 [Hug00, S. 527]. E 3.14 Man kann das Newmark-Verfahren auch auf 3. Ordnung verallgemeinern [ZTZ05, 17.3.3]: M aj+1 + Cvj+1 + Kuj+1 = fj+1 1 uj+1 = uj + τ vj + 12 τ 2 aj + τ 3 [β3 bj+1 + (1 − β3 )bj ] 6 1 2 vj+1 = vj + τ aj + τ [β2 bj+1 + (1 − β2 )bj ] 2 aj+1 = aj + τ (β1 bj+1 + (1 − β1 )bj ) Erkennen sie das Konstruktionsprinzip? 3 nach Carl Størmer (1874–1957, norwegischer Mathematiker und Geophysiker) und Loup Verlet (geb. 1931, französischer Physiker), erste Beschreibung des Verfahrens aber schon 1687 durch Isaac Newton (1642–1726, englischer Naturforscher und Philosoph) 34 24. März 2016 Phasendiagramm, t ∈ [0, 2π] 1 0.8 0.6 0.4 exact, ω beliebig Newmark, γ=0.5, β=0.25, ω=1, τ=2π/20 Newmark, γ=0.5, β=0.25, ω=1, τ=2π/10 Newmark, γ=0.5, β=0.25, ω=1, τ=2π/3 v/ω 0.2 0 −0.2 −0.4 −0.6 −0.8 −1 −1 −0.5 0 u 0.5 1 Auslenkung, t ∈ [0, 10π] 1 u 0.5 0 exact, ω=1 Newmark, γ=0.5, β=0.25, ω=1, τ=2π/20 Newmark, γ=0.5, β=0.25, ω=1, τ=2π/10 Newmark, γ=0.5, β=0.25, ω=1, τ=2π/3 −0.5 −1 0 5 10 15 20 25 30 t Abbildung 15: Phasendiagramm und t, u-Diagramm zum Newmark-Verfahren mit γ = 0.5, β = 0.25 (Trapezregel) Bsp 3.15 Wir testen das Newmark-Verfahren mit verschiedenen Parametern am Beispiel aus 2.15, ü(t) + ω 2 u(t) = 0, u(0) = 1, u̇(0) = 0, mit ω = 1. • Für die Trapezregel (γ = 0.5, β = 0.25) erkennen wir in Abbildung 15 die nicht vorhandene Dämpfung, die unbedingte Stabilität und eine Periodenverlängerung. • Für das Störmer-Verlet-Verfahren (γ = 0.5, β = 0) erhalten wir ebenfalls geringe Dämpfung, aber fehlende Stabilität für zu große Schrittweite (τ = 2π/3 ist schon instabil) und eine Periodenverkürzung, siehe Abbildung 16. • Beim gedämpften Newmark-Verfahren (γ = 0.6) unter Einhaltung der Stabilitätsbedingung (β = 0.3025) sehen wir in Abbildung 17 deutlich die Dämpfung, aber auch die unbedingte Stabilität. 24. März 2016 35 Phasendiagramm, t ∈ [0, 2π] 1 0.8 0.6 0.4 exact, omega beliebig Newmark, γ=0.5, β=0.0, ω=1, h=2π/20 Newmark, γ=0.5, β=0.0, ω=1, h=2π/10 Newmark, γ=0.5, β=0.0, ω=1, h=2π/3 v/ω 0.2 0 −0.2 −0.4 −0.6 −0.8 −1 −1 −0.5 0 u 0.5 1 Auslenkung, t ∈ [0, 10π] 1 0.5 u 0 exact, omega=1 beliebig Newmark, γ=0.5, β=0.0, ω=1, h=2π/20 Newmark, γ=0.5, β=0.0, ω=1, h=2π/10 Newmark, γ=0.5, β=0.0, ω=1, h=2π/3 −0.5 −1 0 5 10 15 20 25 30 t Abbildung 16: Phasendiagramm und t, u-Diagramm zum Newmark-Verfahren mit γ = 0.5, β = 0.0 (Störmer-Verlet-Verfahren) Phasendiagramm, t ∈ [0, 2π] 1 0.8 0.6 0.4 exact, omega beliebig Newmark, γ=0.6, β=0.3025, ω=1, τ=2π/20 Newmark, γ=0.6, β=0.3025, ω=1, τ=2π/10 Newmark, γ=0.6, β=0.3025, ω=1, τ=2π/3 v/ω 0.2 0 −0.2 −0.4 −0.6 −0.8 −1 −1 −0.5 0 u 0.5 1 Auslenkung, t ∈ [0, 10π] 1 0.5 u 0 exact, omega=1 beliebig Newmark, γ=0.6, β=0.3025, ω=1, τ=2π/20 Newmark, γ=0.6, β=0.3025, ω=1, τ=2π/10 Newmark, γ=0.6, β=0.3025, ω=1, τ=2π/3 −0.5 −1 0 5 10 15 20 25 30 t Abbildung 17: Phasendiagramm und t, u-Diagramm zum Newmark-Verfahren mit γ = 0.6, β = 0.3025 36 24. März 2016 3.3. Houbolt-Verfahren E 3.16 (Houbolt-Verfahren) Das implizite Dreischrittverfahren M aj+1 + Cvj+1 + Kuj+1 = fj+1 1 vj+1 = [11uj+1 − 18uj + 9uj−1 − 2uj−2 ] 6τ 1 aj+1 = 2 [2uj+1 − 5uj + 4uj−1 − uj−2 ] τ ist unbedingt stabil und konvergent von 2. Ordnung, [Hug00, 9.3.3]. Bsp 3.17 Wir testen das Houbolt-Verfahren an unserem Standardbeispiel 2.15 mit ω = 1. In Abbildung 18 erkennen wir starke Dämpfung, die unbedingte Stabilität und eine Periodenverlängerung. Phasendiagramm, t ∈ [0, 2π] 1 0.8 0.6 0.4 v/ω 0.2 exact, ω beliebig Houbolt, τ=2π/20 Houbolt, τ=2π/10 Houbolt, τ=2π/3 0 −0.2 −0.4 −0.6 −0.8 −1 −1 −0.5 0 u 0.5 1 Auslenkung, t ∈ [0, 10π] 1 u 0.5 0 exact, ω=1 Houbolt, τ=2π/20 Houbolt, τ=2π/10 Houbolt, τ=2π/3 −0.5 −1 0 5 10 15 20 25 30 t Abbildung 18: Phasendiagramm und t, u-Diagramm zum Houbolt-Verfahren Ü 3.18 Wir rechnen die Konvergenz zweiter Ordnung nach. Es gilt ... x(t − τ ) = x(t) − τ ẋ(t) + 12 τ 2 ẍ(t) + 16 τ 3 x (t) + O(τ 4 ), ... x(t − 2τ ) = x(t) − 2τ ẋ(t) + 2τ 2 ẍ(t) + 34 τ 3 x (t) + O(τ 4 ), 3 ... x (t) + O(τ 4 ), x(t − 3τ ) = x(t) − 3τ ẋ(t) + 29 τ 2 ẍ(t) + 27 6 τ also 1 [11x(t) − 18x(t − τ ) + 9x(t − 2τ ) − 2x(t − 3τ )] = ẋ(t) + O(τ 2 ), 6τ 1 [2x(t) − 5x(t − τ ) + 4x(t − 2τ ) − x(t − 3τ )] = ẍ(t) + O(τ 2 ). τ2 24. März 2016 37 3.4. Kollokationsverfahren E 3.19 (Rechenvorschrift) [Hug00, S. 530] Das Gleichungssystem M aj+θ + Cvj+θ + Kuj+θ = fj+θ fj+θ = (1 − θ)fj + θfj+1 uj+θ = uj + θτ vj + (θτ )2 [( 12 − β)aj + βaj+θ ] vj+θ = vj + θτ [(1 − γ)aj + γaj+θ ] definiert zunächst aj+θ und mit aj+θ = (1 − θ)aj + θaj+1 die Variable aj+1 . Die Werte für uj+1 und vj+1 erhält man durch die NewmarkFormeln (3.18) und (3.19), uj+1 = uj + τ vj + τ 2 12 − β aj + βaj+1 , vj+1 = vj + τ [(1 − γ)aj + γaj+1 ]. E 3.20 (Kollokations-Parameter) Der Parameter θ heißt Kollokations-Parameter. Typisch sind Werte im Bereich 1,3 bis 1,5. • Für θ = 1 entsteht das Newmark-Verfahren. • Für γ = 1 2 und β = 1 6 entsteht die Wilsonsche θ-Methode . E 3.21 (Eigenschaften des Kollokationsverfahrens) Genau für γ = Verfahren konvergent mit der Ordnung 2. Gilt zusätzlich θ ≥ 1 und 1 2 ist das θ 2θ2 − 1 ≥β≥ 2(θ + 1) 4(2θ3 − 1) dann ist das Verfahren unbedingt stabil. Ü 3.22 (Stabilität der Wilsonschen θ-Methode) Für welche Werte von θ ist die Wilsonsche θ-Methode unbedingt stabil? E 3.23 Die besten Verfahren erhält man für β ∈ [ 16 , 14 ] und ein zugehöriges, in Abhängigkeit von β zu wählendes θ = θ(β), siehe [Hug00, Tabelle 9.3.1]. Beispiele: β 1 6 1 5 1 4 θ(β) 1,42 1,16 1,00 Bsp 3.24 Wir testen das Kollokationsverfahren mit verschiedenen Parametern am Beispiel aus 2.15, ü(t) + ω 2 u(t) = 0, u(0) = 1, u̇(0) = 0, mit ω = 1. • Für die Parameter γ = 12 , β = 15 , θ = 1,16 erkennen wir in Abbildung 19 geringe Dämpfung, die unbedingte Stabilität und eine Periodenverlängerung. • Für die Wilsonsche θ-Methode (γ = 12 , β = 16 ) mit θ = 1,42 sehen wir in Abbildung 20 die etwas stärkere Dämpfung und ebenfalls unbedingte Stabilität sowie Periodenverlängerung. 38 24. März 2016 Phasendiagramm, t ∈ [0, 2π] 1 0.8 0.6 0.4 exact, ω beliebig Kollokation, θ=1.16, ω=1, τ=2π/20 Kollokation, θ=1.16, ω=1, τ=2π/10 Kollokation, θ=1.16, ω=1, τ=2π/3 v/ω 0.2 0 −0.2 −0.4 −0.6 −0.8 −1 −1 −0.5 0 u 0.5 1 Auslenkung, t ∈ [0, 10π] 1 u 0.5 0 exact, ω=1 Kollokation, θ=1.16, ω=1, τ=2π/20 Kollokation, θ=1.16, ω=1, τ=2π/10 Kollokation, θ=1.16, ω=1, τ=2π/3 −0.5 −1 0 5 10 15 20 25 30 t Abbildung 19: Phasendiagramm und t, u-Diagramm zum Kollokationsverfahren mit γ = 0,5, β = 0,2 und θ = 1,16 Phasendiagramm, t ∈ [0, 2π] 1 0.8 0.6 0.4 exact, ω beliebig Kollokation, θ=1.42, ω=1, τ=2π/20 Kollokation, θ=1.42, ω=1, τ=2π/10 Kollokation, θ=1.42, ω=1, τ=2π/3 v/ω 0.2 0 −0.2 −0.4 −0.6 −0.8 −1 −1 −0.5 0 u 0.5 1 Auslenkung, t ∈ [0, 10π] 1 u 0.5 0 exact, ω=1 Kollokation, θ=1.42, ω=1, τ=2π/20 Kollokation, θ=1.42, ω=1, τ=2π/10 Kollokation, θ=1.42, ω=1, τ=2π/3 −0.5 −1 0 5 10 15 20 25 30 t Abbildung 20: Phasendiagramm und t, u-Diagramm zum Wilsonschen θVerfahren mit θ = 1,42 24. März 2016 39 3.5. Hilber-Hughes-Taylor-Verfahren (HHT-Verfahren, α-Verfahren) E 3.25 Es gibt verschiedene Möglichkeiten, das Verfahren darzustellen. Wir verwenden hier, anders als in [Hug00], die Variante aus der Originalarbeit mit α ∈ [0, 1), wobei man für α = 0 das Newmark-Verfahren erhält, M aj+1 + (1 − α)Cvj+1 + αCvj + (1 − α)Kuj+1 + αKuj = f ((1 − α)tj+1 + αtj ). Vervollständigt wird der Formelsatz durch die Newmark-Formeln (3.18) und (3.19), uj+1 = uj + τ vj + τ 2 12 − β aj + βaj+1 , vj+1 = vj + τ [(1 − γ)aj + γaj+1 ]. Wählt man α ∈ 0, 13 , γ = 12 + α und β = 14 (1 + α)2 , so ergibt sich ein unbedingt stabiles Verfahren mit der Konvergenzordnung 2. Je größer α ist, desto größer ist die numerische Dissipation (Dämpfung der Schwingung). Ü 3.26 (Alte Klausuraufgabe) Berechnen Sie für die Anfangswertaufgabe ẍ(t) + 0,1 ẋ(t) + x(t) = 0, x(0) = 1, ẋ(0) = 0 einen Iterationsschritt mit dem Hilber-Hughes-Taylor-Verfahren. Verwenden Sie die Parameter α = 0,1, β = 0,3025, γ = 0,6 sowie die Zeitschrittweite τ = 0,1. Bsp 3.27 Wir testen das HHT-Verfahren mit kleinem (α = 0,05) und großem (α = 0,3) Parameter sowie γ = 12 + α und β = 14 (1 + α)2 an unserem StandardBeispiel aus 2.15 mit ω = 1. • Für α = 0,05 sehen wir in Abbildung 21 Dämpfung, unbedingte Stabilität und Periodenverlängerung. • Für α = 0,3 erkennen wir in Abbildung 22 die etwas stärkere Dämpfung und ebenfalls unbedingte Stabilität sowie Periodenverlängerung. Bem 3.28 (Andere Schreibweise) Analog zu den Kollokationsverfahren kann man das α-Verfahren auch in der Form M aj+1 + Cvj+α + Kuj+α = fj+α , uj+α = (1 − α)uj+1 + αuj , vj+α = (1 − α)vj+1 + αvj , fj+α = f ((1 − α)tj+1 + αtj ), schreiben, wobei zur Vervollständigung des Systems noch die Newmark-Formeln (3.18) und (3.19) hinzugefügt werden müssen. 40 24. März 2016 Phasendiagramm, t ∈ [0, 2π] 1 0.8 0.6 0.4 v/ω 0.2 exact, ω beliebig HHT, α=0.05, ω=1, τ=2π/20 HHT, α=0.05, ω=1, τ=2π/10 HHT, α=0.05, ω=1, τ=2π/3 0 −0.2 −0.4 −0.6 −0.8 −1 −1 −0.5 0 u 0.5 1 Auslenkung, t ∈ [0, 10π] 1 u 0.5 0 exact, ω=1 HHT, α=0.05, ω=1, τ=2π/20 HHT, α=0.05, ω=1, τ=2π/10 HHT, α=0.05, ω=1, τ=2π/3 −0.5 −1 0 5 10 15 20 25 30 t Abbildung 21: Phasendiagramm und t, u-Diagramm zum HHT-Verfahren mit α = 0,05 Phasendiagramm, t ∈ [0, 2π] 1 0.8 0.6 0.4 v/ω 0.2 exact, ω beliebig HHT, α=0.3, ω=1, τ=2π/20 HHT, α=0.3, ω=1, τ=2π/10 HHT, α=0.3, ω=1, τ=2π/3 0 −0.2 −0.4 −0.6 −0.8 −1 −1 −0.5 0 u 0.5 1 Auslenkung, t ∈ [0, 10π] 1 u 0.5 0 exact, ω=1 HHT, α=0.3, ω=1, τ=2π/20 HHT, α=0.3, ω=1, τ=2π/10 HHT, α=0.3, ω=1, τ=2π/3 −0.5 −1 0 5 10 15 20 25 30 t Abbildung 22: Phasendiagramm und t, u-Diagramm zum HHT-Verfahren mit α = 0,3 24. März 2016 41 E 3.29 (Verallgemeinerte α-Verfahren) Die Herausforderung bei der Konstruktion von Verfahren für Schwingungsprobleme besteht darin, dass man hohe Frequenzen im Allgemeinen dämpfen möchte, aber niedrige Frequenzen nicht. Man kann die α-Verfahren als Verallgemeinerung der Newmark-Verfahren auffassen, wobei der neue Parameter α eingeführt wurde, um das Dämpfungsverhalten zu steuern, ohne die Approximation zweiter Ordnung zu verlieren. Bei den Verallgemeinerten α-Verfahren nach Chung und Hubert (1993) wurde dazu noch ein weiterer Parameter αM eingeführt: M aj+αM + Cvj+α + Kuj+α = fj+α , uj+α = (1 − α)uj+1 + αuj , vj+α = (1 − α)vj+1 + αvj , aj+αM = (1 − αM )aj+1 + αM aj , fj+α = f ((1 − α)tj+1 + αtj ), wobei zur Vervollständigung des Systems ebenfalls die Newmark-Formeln (3.18) und (3.19) hinzugefügt werden müssen. Für αM = 0 entsteht die HHT-Methode. 3.6. Diskussion der Verfahren E 3.30 Ein konkurrenzfähiges Verfahren sollte folgende Eigenschaften besitzen [Hug00, S. 535 ff.]: 1. Unbedingte Stabilität, wenn es auf lineare Probleme angewandt wird. Bedingt stabile Verfahren benötigen oft kleine Zeitschritte, die von hohen Frequenzen bestimmt werden, obwohl oft nur niedrige Frequenzen aufgelöst werden sollen. Unbedingte Stabilität erzwingt allerdings implizite Verfahren. 2. Pro Iteration sollte nur ein lineares Gleichungssystem für eine der Variablen u, v, a, . . . gelöst werden müssen und nicht ein gekoppeltes System aus diesen Variablen. Es muss ohnehin schon genug gespeichert und gerechnet werden. Es sind aber Verfahren mit größeren linearen Gleichungssystemen entwickelt worden. 3. Konvergenz 2. Ordnung: Dahlquist hat bewiesen, dass es kein unbedingt A-stabiles lineares Mehrschrittverfahren mit Konvergenzordnung größer als 2 gibt (zweite Dahlquist-Barriere). Die kleinste Fehlerkonstante unter allen unbedingt stabilen Verfahren 2. Ordnung hat die Trapezregel. 4. Steuerbare numerische (algorithmische) Dissipation ist wünschenswert, um unphysikalische, hohe Frequenzen zu dämpfen. Steuerbar ist die numerische Dissipation bei den Kollokationsmethoden und bei den α-Verfahren. Die Trapezregel besitzt hingegen gar keine numerische Dissipation. 5. Keine Anlaufrechnung. Diese benötigt mehr Implementations- und Analyseaufwand, Mehrschrittverfahren benötigen auch mehr Speicheraufwand, [Hug00]. Der beste Algorithmus für Schwingungsprobleme in der Strukturdynamik ist folglich ein unbedingt stabiles Einschrittverfahren 2. Ordnung, das optimal zwischen effektiver numerischer Dissipation und hoher Genauigkeit (kleiner Fehlerkonstante) balanciert. 42 24. März 2016 E 3.31 Alle in 3.1 bis 3.4 behandelten Verfahren sind (ggf. nach Einstellung der richtigen Parameter) • • • • implizit, unbedingt stabil, konvergent von 2. Ordnung, dissipativ (außer Trapezregel) und benötigen etwa den gleichen numerischen Aufwand. E 3.32 (Dämpfung hoher Frequenzen) Der Spektralradius ρ (das ist der Betrag des betragsgrößten Eigenwertes) der Transfer-Matrix ist ein Maß für die Dämpfung; je kleiner dieser ist, desto stärker wirkt die numerische Dämpfung des Verfahrens: für ρ = 1 ist keine Dämpfung vorhanden. In Abbildung 23 ist der Spektralradius gegen τ /T aufgetragen, wobei T = 2π/ω die Periode der exakten Lösung x(t) der Schwingungsdifferentialgleichung ẍ(t) + ω 2 x(t) = 0 (ohne Dämpfung, c = 0) ist. Mit einer gewissen Schrittweite τ kann man niedrige Frequenzen auflösen (τ /T klein), aber hohe Frequenzen (τ /T groß) nicht. Abbildung 23: Spektralradien der Transfer-Matrix im single-frequency-mode für verschiedene Verfahren [Hug00, S. 533], τ := ∆t, α := −α Im Diagramm 23 ist erkennbar, dass der Unterschied der vorgestellten Verfahren im Niederfrequenzbereich nur gering ist, sich die einzelnen Verfahren aber im hochfrequenten Bereich deutlich unterscheiden: • Es wirkt keine Dämpfung für die Trapezregel, d. h. für das NewmarkVerfahren mit γ = 21 , β = 41 . • Starke Dämpfung hoher Frequenzen erhält man für das Houbolt-Verfahren, das Kollokations-Verfahren und für die α-Methode mit großem α. (Man beachte, dass α ∈ [0, 13 ) gewählt werden sollte.) 24. März 2016 43 E 3.33 (Dämpfung niederer Frequenzen) Das Ziel der Rechnung ist, niedere Frequenzen möglichst exakt zu berechnen. Daher ist im niederfrequenten Bereich eine starke Dämpfung nachteilig. Sei T die Periode der exakten Lösung x(t) der Schwingungsdifferentialgleichung ohne Dämpfung (c = 0), uτ (t) die mit der Schrittweite τ berechnete Näherungslösung und Tτ die numerisch bestimmte Periodendauer (was in der Praxis nicht einfach ist), siehe auch die Illustration in Abbildung 24. 1 2 pi xi 0 −1 0 T/2 T T_tau t Abbildung 24: Illustration des Periodenfehlers In der Abbildung 25 ist das algorithmische Dämpfungsverhältnis ξ := [x(T ) − uτ (Tτ )]/2π gegen τ /T aufgetragen. Aus Abbildung 25 erkennt man: • Die Trapezregel ist optimal, sie dämpft überhaupt nicht. • Die starke Dämpfung kleiner Frequenzen ist der Hauptnachteil gedämpfter Newmark-Verfahren (γ > 12 ). • HHT-Verfahren waren schon bei hohen Frequenzen besser als die Kollokationsverfahren. Das gleiche trifft auch bei niedrigen Frequenzen zu. • Bei den HHT-Verfahren ist kleines α besser als großes, bei großen Frequenzen war es genau umgekehrt. • Das Houbolt-Verfahren ist nicht konkurrenzfähig. E 3.34 (Relativer Periodenfehler) Wie schon in Erklärung 3.33 dargestellt, ist die numerisch bestimmte Periode Tτ im Allgemeinen von der exakten Periode T verschieden. Die Größe (Tτ − T )/T bezeichnet man als relativen Periodenfehler. Dieser ist in den Abbildungen 26 und 27 für verschiedene Verfahren gegen die relative Schrittweite τ /T aufgetragen. Aus Abbildung 26 kann man schlussfolgern, dass die Trapezregel oder eine α-Methode mit kleinem α geeignete Verfahren sind, wenn der relative Periodenfehler von Relevanz ist. Diese dämpfen allerdings hohe Frequenzen schlecht. In Abbildung 27 wird der relative Periodenfehler für verschiedene ungedämpfte Newmark-Verfahren (γ = 12 ) verglichen. (Zur Erinnerung: Newmark mit γ = 12 besitzt keine algorithmische Dämpfung. Für γ > 12 wird zwar eine Dämpfung erreicht, jedoch reduziert sich die Konvergenzordnung von 2 auf 1.) Man sieht, dass kleineres β zu kleinerem Periodenfehler führt. Allerdings sind NewmarkVerfahren mit β < 14 nur bedingt stabil. Bei zu großer Schrittweite explodiert der Periodenfehler. 44 24. März 2016 0.14 Houbolt Trapezregel alpha Methode alpha=0.05 Kollokation theta= 1.4, beta= 1/6 Newmark beta=0.3025, gamma=0.6 alpha Methode alpha=0.3 0.12 0.1 Zeta 0.08 0.06 0.04 0.02 0 0 0.1 0.2 0.3 0.4 0.5 Zeitschrittweite 0.6 0.7 0.8 0.9 1 Abbildung 25: Grad der algorithmischen Dämpfung für α-Methoden, Kollokations-Verfahren und die Houbolt-, Park-, und WilsonMethode. Oben: Kopie aus [Hug00, S. 534] (τ := ∆t, α := −α), unten: eigene Rechnung (Blank 2011) 24. März 2016 45 0.9 Houbolt Trapezregel alpha Methode alpha=−0.05 Kollokation theta= 1.4, beta= 1/6 Kollokation theta= 1.215798, beta= 0.19 alpha Methode alpha=0.3 Kollokation theta= 1.420815, beta= 1/6 0.8 0.7 0.6 (Ttau −T)/T 0.5 0.4 0.3 0.2 0.1 0 −0.1 0 0.05 0.1 0.15 0.2 Zeitschrittweite 0.25 0.3 0.35 0.4 Abbildung 26: Relative Periodenfehler für verschiedene Verfahren. Oben: Kopie aus [Hug00, S. 535], (α := −α), unten: eigene Rechnung (Blank 2011) 46 24. März 2016 1.6 Newmark beta=1/12 Newmark beta=1/6 Newmark beta=1/5 Newmark beta=1/4 1.4 1.2 1 (Ttau −T)/T 0.8 0.6 0.4 0.2 0 −0.2 −0.4 0 0.1 0.2 0.3 0.4 0.5 Zeitschrittweite 0.6 0.7 0.8 0.9 1 Abbildung 27: Periodenfehler für ungedämpfte Newmark-Verfahren (γ = 12 ) im Vergleich mit dem Wilson- und Houbolt-Verfahren. Oben: Kopie aus [Hug00, S. 536] , unten: eigene Rechnung (Blank 2011) 24. März 2016 47 E 3.35 (Überschwingen) Wir betrachten hohe Frequenzbereiche, die durch numerische Verfahren mit τ = 10 T nicht aufgelöst werden können. Diese sollten die numerische Lösung möglichst nicht instabil werden lassen. Jeder einzelne Anteil einer Schwingung mit hoher Frequenz sollte sich nicht im Laufe der Zeit “aufschaukeln”. In Abbildung 28 werden verschiedene Verfahren daraufhin untersucht. Abbildung 28: Vergleich des Überschwingens veschiedener Verfahren [Hug00, S. 539] 48 24. März 2016 Folgende Schlussfolgerungen können gezogen werden: • Bei der Trapez-Regel ist kein Überschwingen erkennbar, weder in u noch in v. • Beim gedämpften Newmark- und beim α-Verfahren ist kein Überschwingen in u, jedoch mildes Überschwingen in v erkennbar. 1 100 0.5 50 Auslenkung Auslenkung • Bei den Kollokations-Verfahren und beim Wilson-Verfahren ist ein mildes Überschwingen in v erkennbar, aber für u werden unbrauchbare Ergebnisse berechnet. 0 −0.5 −1 0 −50 0 50 100 150 200 Zeit 250 300 350 −100 400 0 50 100 Trapezregel Geschwindigkeit −0.5 Auslenkung 0 50 100 150 200 Zeit 250 300 350 350 400 0 −1 1 400 0.5 200 0 −0.5 0 50 100 150 200 Zeit 250 300 350 400 0 50 100 150 200 Zeit 250 300 350 400 0 −200 0 50 100 150 200 Zeit 250 300 350 −400 400 Kollokation beta=0.20, theta=1.159772 Newmark gamma=0.6, beta=0.3025 6 Geschwindigkeit 2 Geschwindigkeit 300 1 −2 400 Auslenkung Geschwindigkeit 0 1 0 −1 −2 250 2 0.5 −1 200 Zeit Kollokation beta=0.24, theta=1.021712 1 −1 150 0 50 100 150 200 Zeit 250 300 350 4 2 0 −2 −4 400 0 50 100 150 200 Zeit 250 300 350 400 0 50 100 150 200 Zeit 250 300 350 400 350 400 600 1 400 Auslenkung Auslenkung 0.5 0 200 0 −200 −0.5 −400 −1 −600 0 50 100 150 200 Zeit 250 300 350 400 Wilson = Kollokation beta=1/6, theta=1.4 Hughes alpha=0.1 6 Geschwindigkeit Geschwindigkeit 2 1 0 −1 −2 4 2 0 −2 −4 0 50 100 150 200 Zeit 250 300 350 400 0 50 100 150 200 Zeit 250 300 Abbildung 29: Vergleich des Überschwingens veschiedener Verfahren, eigene Rechnung (Blank 2011) 24. März 2016 49 4. Numerische Lösung von Eigenwertproblemen 4.1. Matrizen mit spezieller Struktur Def 4.1 Eine reelle n-reihige Matrix A heißt orthogonal, wenn A−1 = AT bzw. AAT = AT A = I gilt. Satz 4.2 (Eigenschaften orthogonaler Matrizen) Für jede orthogonale Matrix gilt: 1. 2. 3. 4. Die Spalten bilden ein Orthonormalsystem. Die Zeilen bilden ein Orthonormalsystem. Der Betrag der Eigenwerte ist gleich 1. Der Betrag der Determinante ist gleich 1. Beweis Die ersten beiden Eigenschaften folgen aus AAT = AT A = I. Die dritte Eigenschaft soll im Rahmen von Aufgabe 4.12 selbst bewiesen werden. Die vierte Eigenschaft folgt aus der dritten, da die Determinante gleich dem Produkt der Eigenwerte ist. q.e.d. E 4.3 Günstig für die numerische Praxis sind Ähnlichkeitstransformationen mit orthogonalen Matrizen Y , da dann Y −1 = Y T gilt. Man spricht dann von einer orthogonalen Ähnlichkeitstransformation B = Y T AY . Oft werden orthogonale Matrizen mit Q bezeichnet, so dass man meist B = QT AQ liest, wenn es um eine orthogonale Ähnlichkeitstransformation geht. Satz 4.4 (QR-Faktorisierung) Jede reelle Matrix A kann in das Produkt aus einer orthogonalen Matrix Q und einer rechten oberen Dreiecksmatrix R zerlegt werden, A = Q · R. Die QR-Faktorisierung hat folgende Eigenschaften: 1. Die Überführung von A in R mit Hilfe von orthogonalen Transformationen kann stabiler ausgeführt werden als bei der LU-Faktorisierung. 2. Das Problem ist äquivalent zur Überführung einer Basis a1 , . . . , an in eine Orthonormalbasis q 1 , . . . , q n . A = a1 a2 · · · an , Q = q1 q2 · · · qn 3. Die Faktorisierung ist auch für Rechteckmatrizen möglich: A = = 50 Q R A bzw. = Q R = 24. März 2016 E 4.5 (Gram-Schmidt-Orthogonalisierung) Die Spalten der gegebenen Matrix A und der gesuchten Matrix Q werden wie folgt bezeichnet: Q = q1 q2 · · · qn . A = a1 a2 · · · an , Der Gram-Schmidt-Algorithmus ist vermutlich aus der linearen Algebra bekannt: 1: q = ka1 k a1 1 1 2: for k = 1(1)n − 1 do P 3: q̃ k+1 = ak+1 − kj=1 (q j , ak+1 )q j q k+1 = 4: 1 kq̃ k+1 k q̃ k+1 end for 5: Die Matrix R erhält man aus (q j , ak+1 ) und Normbildung oder aus R = QT A. Weil Rundungsfehler zum Verlust der Orthogonalität führen, ist es besser, den Schritt in Zeile 3 wie folgt auszuführen: 3.1: 3.2: 3.3: 3.4: 3.5: (0) q k+1 = ak+1 for j = 1(1)k do (j) (j−1) (j−1) q k+1 = q k+1 − (q j , q k+1 )q j end for (k) q̃ k+1 = q k+1 Ü 4.6 Für Stabilitätsbetrachtungen studiere man [TB00, Sect. 9, Ex. 3]. Stabilere Algorithmen zur Berechnung der QR-Faktorisierung erhält man mit Hilfe der Givens-Rotation oder Householder-Spiegelung, siehe Literatur. Def 4.7 Eine reelle n-reihige Matrix heißt symmetrisch, wenn A = AT gilt. Satz 4.8 (Eigenschaften symmetrischer Matrizen) trische Matrix gilt: Für jede reelle, symme- 1. Alle Eigenwerte sind reell. 2. Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal. 3. Algebraische und geometrische Vielfachheit jedes Eigenwerts sind gleich. Beweis Sei λ ∈ C ein Eigenwert einer reellen, symmetrischen Matrix A und x der zugehörige Eigenvektor. Wir bezeichnen mit x den Vektor, der aus x entsteht, wenn man bei jedem Element zur konjugiert komplexen Zahl übergeht. Folglich gilt Ax = Ax = λx = λ x und damit λxT x = (Ax)T x = xT AT x = xT Ax = λxT x. Da der Eigenvektor x nicht der Nullvektor ist, gilt X X xT x = xi xi = |xi |2 > 0. i i Also können wir die vorhergehende Gleichung durch xT x teilen und erhalten λ = λ, d. h., λ ist reell. 24. März 2016 51 Seien λ und µ zwei verschiedene Eigenwerte einer reellen, symmetrischen Matrix A und seien x und y die zugehörigen Eigenvektoren, d. h. Ax = λx und Ay = µy. Folglich gilt λxT y = (Ax)T y = xT AT y = xT Ay = µxT y, also (λ − µ)xT y = 0, was wegen λ 6= µ die Orthogonalität xT y = 0 nach sich zieht. Für den Beweis der dritten Eigenschaft verweisen wir auf die Literatur, z. B. [MV03, §6.7, Satz 7.1]. q.e.d. Satz 4.9 Zu einem k-fachen Eigenwert einer reellen, symmetrischen Matrix können k orthogonale Eigenvektoren angegeben werden. Beweis Der Beweis kann konstruktiv über das Schmidtsche Orthogonalisierungsverfahren geführt werden. q.e.d. Folgerung 4.10 1. Werden die (orthogonalen) Eigenvektoren x1 , . . . , xn einer reellen, symmetrischen n × n-Matrix auf die Länge Eins normiert, qi = xi , |xi | und zur Modalmatrix Q= q1 . . . qn zusammengefasst, so ist Q eine orthogonale Matrix. 2. Eine symmetrische Matrix kann mit Hilfe einer orthogonalen Ähnlichkeitstransformation diagonalisiert werden, QT AQ = Λ = diag(λi ). Man bezeichnet diese auch als Hauptachsentransformation. E 4.11 Wenn man von einer Matrix weiß, dass sie symmetrisch ist, kann man gleich mehrere angenehme Eigenschaften benutzen: beliebige Matrix A symmetrische Matrix A Die Eigenwerte sind i. Allg. komplex. Die Eigenwerte sind reell. Die geometrische Vielfachheit kann kleiner als die algebraische Vielfachheit sein. Geometrische und algebraische Vielfachheit stimmen überein. Die Eigenvektoren zu verschiedenen Eigenwerten sind zwar linear unabhängig, aber nicht notwendig orthogonal. Die Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal, d. h., es existiert ein Orthonormalsystem aus Eigenvektoren. Die Ähnlichkeitstransformation hat die Form A = XΛX −1 . Die Ähnlichkeitstransformation hat die Form A = QΛQT mit einer orthogonalen Matrix Q. 52 24. März 2016 Ü 4.12 Eine reelle n-reihige Matrix heißt schiefsymmetrisch, wenn A = −AT gilt. Man zeige analog zum Beweis von Satz 4.8, dass die Eigenwerte einer schiefsymmetrischen Matrix sämtlich rein imaginär sind. Mit der gleichen Beweisidee kann man auch zeigen, dass die Eigenwerte einer orthogonalen Matrix auf dem Einheitskreis in der komplexen Ebene liegen, d. h., sie haben den Betrag 1. Ü 4.13 Versuchen Sie aus dem Plot von Spektren die Eigenschaften der Matrizen zu erkennen. Woran erkennen Sie, dass es sich um eine (a) komplexe, (b) reelle, (c) symmetrische (hermitesche), (d) schiefsymmetrische (schiefhermitesche) bzw. (e) orthogonale (unitäre) Matrix handelt? 4.2. Eigenwertberechnung und Nullstellensuche E 4.14 (Betrachtungen zur Kondition) • Kleine Änderungen von A implizieren kleine Änderungen der λj . Wielandt-Hoffmann-Theorem: Sei A symmetrisch mit Eigenwerten λ1 ≤ · · · ≤ λn . Die gestörte symmetrische Matrix B = A + δA habe die Eigenwerte µ1 ≤ · · · ≤ µn . Dann gilt: n X j=1 (µj − λj )2 ≤ kB − Ak2F := n X (bij − aij )2 i,j=1 Die Voraussetzung der Symmetrie ist wesentlich für diesen Satz. Im Allgemeinen gelten viel schwächere Resultate, siehe Übung 4.15. • Bei richtiger Orientierung ändert sich vj nur wenig mit A, wenn λj einfach und genügend von den übrigen Eigenwerten λi getrennt ist. Gibt es dicht benachbarte Eigenwerte, dann reagiert vj empfindlich auf Störungen in A. • Kleine Änderungen der Koeffizienten an eines Polynoms können zu großen Änderungen in den Nullstellen λj führen, siehe Beispiel 4.16. Folglich sollten Eigenwerte nicht über das charakteristische Polynom berechnet werden. (Das charakteristische Polynom ist nützlich für theoretische Zwecke.) Im Gegenteil, Nullstellen von Polynomen sollten als Eigenwerte der Begleitmatrix (engl. companion matrix ) des Polynoms gesucht werden, siehe Lemma 4.17. 24. März 2016 53 Ü 4.15 Bestimmen Sie Eigenwerte der 10 × 10-Matrix 10 10 9 10 . 8 .. Aε = .. . 10 2 10 ε 1 für ε = 0, eps = 10−6 und eps = 10−5 . Wie hängen die Eigenwerte von der Größe der Störung ε ab? Bsp 4.16 (Kondition der Nullstellensuche) • λn = 0 hat n-fache Nullstelle λ = 0 • λn − 10−n = 0 hat n verschiedene Nullstellen λi mit |λi | = 10−1 . Lem 4.17 Die Nullstellen des Polynoms p(λ) = a0 + a1 λ + · · · + an−1 λn−1 + λn sind die Eigenwerte der Begleitmatrix A= 0 0 1 0 0 1 0 0 .. . ··· ··· .. −a0 −a1 · · · ··· 0 0 . ··· 1 −an−1 . Beweis Durch Nachrechnen von det(λI − A) = p(λ). q.e.d. 4.3. Der QR-Algorithmus 4.3.1. Grundform Alg 4.18 Sei A ∈ Rn×n eine gegebene Matrix. • Initialisierung: Wähle eine orthogonale Matrix Q(0) ∈ Rn×n , zum Beispiel Q(0) = I, und berechne T (0) = (Q(0) )T AQ(0) . • Iteriere bis zur Konvergenz – Berechne QR-Faktorisierung von T (k−1) = Q(k) R(k) . – Setze T (k) = R(k) Q(k) . 54 24. März 2016 Folgerung 4.19 Es gilt also T (k) = (Q(k) )T T (k−1) Q(k) . Das ist eine (orthogonale) Ähnlichkeitstransformation, d. h., die Eigenwerte bleiben erhalten. Satz 4.20 (Konvergenz der QR-Methode) [GvL07] Sei A ∈ Rn×n mit ausschließlich reellen Eigenwerten |λ1 | > |λ2 | > · · · > |λn |. Dann gilt λ1 t12 t13 · · · t1n λ2 t23 · · · t2n .. .. .. lim T (k) = . . . . k→∞ λn−1 tn−1,n λn (k) Die Konvergenz der Subdiagonalelemente ti,i−1 erfüllt für k → ∞ (k) ti,i−1 = O ! λi k λi−1 , i = 2, . . . , n. Bem 4.21 • Ist A symmetrisch, dann auch alle T (k) . Folglich konvergiert T (k) gegen diag (λ1 , . . . , λn ). • Hat A komplexe Eigenwerte kann der Grenzwert keine obere Dreiecksmatrix T sein, denn T ist reell. • Auch bei reellen Eigenwerten λi = −λj entsteht im Allgemeinen keine obere Dreiecksmatrix [QSS02, S. 227, Bsp. 5.9]. Es entsteht aber eine Block-Dreiecksmatrix. Bsp 4.22 [QSS02, Bsp. 5.4, S. 217] Wir wenden den QR-Algorithmus auf die Matrix 4 3 2 1 3 4 3 2 A= 2 3 4 3 1 2 3 4 an. c l e a r ; format s h o r t e ; format compact ; A = [ 4 3 2 1 3 4 3 2 2 3 4 3 1 2 3 4 ; ; ; ] ... ... ... f o r i =1:20 [ Q,R] = qr (A ) ; A = R∗Q end 24. März 2016 55 Nach 20 Iterationen ist die 1,1099 e+01 6,4460 e−10 A= 1,7436 e−21 2,3185 e−25 Matrix 6,4460 e−10 −8,1781 e−16 2,7788 e−16 3,4142 e+00 1,4286 e−11 2,4560 e−15 1,4286 e−11 9,0098 e−01 1,1603 e−04 2,6769 e−15 1,1603 e−04 5,8579 e−01 entstanden. Die tatsächlichen Eigenwerte sind 11,0990195, 3,4142136, 0,9009805 und 0,5857864. E 4.23 (Aufwandsbetrachtungen) • Für A = AT benötigt die QR-Faktorisierung mit Householder rund 23 n3 und das Produkt R · Q rund 23 n3 Operationen. Das ist sehr teuer. • Abhilfe 1: Weniger rechenintensive Iterationen durch Transformation auf Hessenbergform T (0) = (Q(0) )T AQ(0) = @ @ @ @ @ @ (0) (tij = 0 für j ≤ i − 2) bzw. bei symmetrischen Matrizen auf Tridiagonalform (0) (0) T (0) @ @ T = (Q ) AQ = @ @ @ @ , @ @ @ @ siehe Abschnitt 4.3.2. Dann kann die QR-Faktorisierung mit n − 1 GivensRotationen ausgeführt werden. Das ergibt für symmetrische Matrizen rund 10n Operationen pro Iteration. • Abhilfe 2: Schnellere Konvergenz der Iteration durch Spektralverschiebung, siehe Abschnitt 4.3.3. 4.3.2. Ähnlichkeitstransformation auf Hessenberg- bzw. Tridiagonalform E 4.24 (Householder-Reflexion) [Householder 1958] Householder-Matrizen haben die Form vv T H =I −2 T . v v a1 .. Was bewirken diese? Sei a = . ein Vektor. Wählt man an v = a + sgn(a1 )kak 1 0 .. . , 0 56 24. März 2016 dann ist v T v = (a1 + sgn(a1 )kak)2 + n X a2i = 2kak2 + 2sgn(a1 )kak · a1 , i=2 v T a = (a1 + sgn(a1 )kak) · a1 + n X a2i = kak2 + sgn(a1 )kak · a1 , i=2 und man erhält Ha = a − 2 vT a vv T a = a − 2 v = a − v = T T v v v v −sgn(a1 )kak 0 .. . . 0 Desweiteren können wir zeigen, dass H für v ∈ Rn \ {0} eine orthogonale Matrix ist: Mit H = H T gilt vv T vv T T HH = I − 2 T I −2 T v v v v T T T vv vv vv =I −4 T +4 T T =I v v v vv v E 4.25 (Transformation mittels Householder-Spiegelung) Laut Erklärung 4.24 gilt: Für jeden Vektor a gibt es eine orthogonale Matrix Q mit ∗ 0 Qa = . . .. 0 Folglich gibt es eine orthogonale Matrix Q1 = 1 0 0 Q̃1 , so dass bei der Multiplikation mit QT1 von links die erste Zeile erhalten bleibt und das 3. bis letzte Element der ersten Spalte zu Null transformiert wird, a11 a12 · · · a1n ∗ ∗ ··· ∗ ∗ ... ∗ QT1 A = 0 . .. .. .. . . . ∗ 0 ∗ ... Zur Vervollständigung der Ähnlichkeitstransformation multipliziert man nun mit Q1 von rechts, wobei die erste Spalte erhalten bleibt, so dass a11 ∗ ∗ · · · ∗ ∗ QT1 AQ1 = 0 . .. . A 2 0 24. März 2016 57 Wir transformieren nun die Restmatrix A2 analog mit Q2 = 1 0 0 1 0 Q̃2 0 , so dass T Q2 A = a11 a12 · · · a21 a22 · · · 0 ∗ .. . 0 .. .. . . 0 0 ··· ··· a1n a2n T und Q2 AQ2 = ∗ ∗ 0 .. . .. . 0 ∗ ··· ∗ ··· ∗ 0 .. . ··· ··· A3 ∗ ∗ 0 Die Fortsetzung dieses Verfahrens ergibt die Hessenbergform. Bem 4.26 Ist A symmetrisch, dann auch QT AQ. Es werden also auch in den Zeilen Nullen erzeugt, was zu einer Tridiagonalform führt. 4.3.3. Spektralverschiebung E 4.27 (Spektralverschiebung) Die Idee ist, im Algorithmus anstelle von A die Matrix A = A − µI zu verwenden. Es gilt: Ist (λ, v) Eigenpaar von A, dann ist (λ − µ, v) Eigenpaar von A. Sind die Eigenwerte von A berechnet, kennt man auch die Eigenwerte von A. Wozu soll das gut sein? Entsprechend Satz 4.20 spielen für die Konvergenzgeschwindigkeit des QR-Verfahrens die Verhältnisse aufeinander folgender Eigenwerte eine wesentliche Rolle. Durch Spektralverschiebung versucht man diese Verhältnisse so groß wie möglich zu bekommen. Alg 4.28 (QR-Algorithmus mit Spektralverschiebung) Iteriere bis zur Konvergenz • Faktorisiere T (k−1) − µk−1 I = Q(k) R(k) • Berechne T (k) = R(k) Q(k) + µk−1 I Folgerung 4.29 Es gilt T (k) = (Q(k) )T T (k−1) − µk−1 I Q(k) + µk−1 I = (Q(k) )T T (k−1) Q(k) , aber das Q(k) ist anders als bei der Grundform. 58 24. März 2016 E 4.30 (QR-Algorithmus mit Wilkinson-Verschiebung) Man wählt als µk−1 denjenigen Eigenwert von (k−1) (k−1) tn−1,n−1 tn−1,n , (k−1) (k−1) tn,n−1 tn,n (k−1) der am nächsten an tn,n (k−1) liegt. Im Fall A = AT konvergiert tn,n−1 • beweisbar quadratisch, • praktisch kubisch oder schneller gegen Null und tn,n ist eine ausreichend genaue Approximation für einen Eigenwert λj von T . Die Iterierte hat dann das folgende Aussehen: T (k) = T̃ (k) 0 0 λj Man hat einen Eigenwert berechnet und kann den Algorithmus mit der kleineren Matrix T̃ (k) fortsetzen. E 4.31 (Aufwand) Der Aufwand für eine symmetrische Matrix A kann wie folgt geschätzt werden: • Pro Eigenwert sind im Mittel 17 QR-Schritte nötig (experimentell, siehe [SK91, S. 111]. • Die Berechnung aller Eigenwerte von T (0) benötigt etwa 10n2 Operationen. • Der Gesamtaufwand (incl. Tridiagonalisierung) beläuft sich auf etwa 23 n3 Operationen. • Wenn auch Eigenvektoren mit berechnet werden sollen, erhöht sich der 3 Aufwand auf etwa 11 3 n Operationen. Bem 4.32 1. Bei Paaren konjugiert-komplexer Eigenwerte einer reellen Matrix gilt: • Mit einem reellen Shift bleibt die Rechnung reell, konvergiert aber nicht gegen eine Tridiagonalmatrix. • Mit einem echt komplexen Shift konvergiert das Verfahren gegen eine Tridiagonalmatrix, der Preis ist das Rechnen mit komplexer Arithmetik (höherer Aufwand). • Bei der Doppel-Verschiebungsstrategie nach Francis verschiebt man abwechslend mit den Shifts µk und µk . Man kann zwei Iterationsschritte zusammenfassen und mit reeller Artihmetik implementieren, siehe Literatur. 2. Die effektive Implementierung des QR-Algorithmus ist aufwendig. 24. März 2016 59 E 4.33 (Bewertung) Der QR-Algorithmus mit Tridiagonalisierung und Wilkinson-Spektralverschiebung ist ein gutes Verfahren für Eigenwertprobleme kleiner und mittlerer Dimension, vor allem wenn alle Eigenwerte berechnet werden sollen. Sind nur wenige Eigenwerte von Interesse, gibt es bessere Verfahren. Wenn A eine dünn besetzte Matrix ist, dann ist i. Allg. sowohl die entsprechende Hessenberg-Matrix als auch der Faktor Q einer QR-Zerlegung voll besetzt. Der QR-Algorithmus ist dann nicht empfehlenswert. 4.4. Die Potenzmethode und verwandte Verfahren 4.4.1. Vektoriteration (Potenzmethode, von-Mises-Iteration) E 4.34 Der sehr einfache Grundalgorithmus besteht in fortgesetzter Multiplikation mit der Matrix A, yk+1 = Ayk , k = 1, 2, 3, . . . E 4.35 (Idee des Verfahrens) Seien (λj , uj ), j = 1, . . . , n, die Eigenpaare der Matrix A, wobei |λ1 |>|λ2 | ≥ · · · ≥ |λn |. Wir wollen ferner annehmen, dass es keine defektiven Eigenwerte gibt, so dass die Eigenvektoren uj eine Basis des Rn bilden. Der Startvektor y0 der Iteration kann in dieser Basis dargestellt werden, y0 = α1 u1 + α2 u2 + · · · + αn un Wir benötigen eine weitere Voraussetzung, nämlich α1 6= 0. (Das ist bei einem zufälligen Startvektor mit Wahrscheinlichkeit 1 erfüllt.) Dann ergibt sich yk Ak y 0 α1 λk1 u1 + α2 λk2 u2 + · · · + αn λkn un = = k k λ1 λ1 λk1 = α1 u1 + α2 λk2 λkn k→∞ u + · · · + α un −→ α1 u1 2 n λk1 λk1 und damit yk −→ (λk1 α1 )u1 Die Iteration konvergiert gegen den Eigenvektor zum betragsgrößten Eigenwert, und die Konvergenzgeschwindigkeit wird durch den Faktor λλ12 bestimmt. Wegen kyk k ≈ α1 λk1 ( →0 falls |λ1 | < 1 → ∞ falls |λ1 | > 1 muss bei dieser Grundvariante des Algorithmus mit Unter- order Überlauf gerechnet werden. Abhilfe schafft die Normierung des Vektors in jedem Schritt. 60 24. März 2016 Bem 4.36 Die Matrix A wird nicht explizit benötigt. Es genügt ein Unterprogramm, das die Multiplikation mit einem Vektor ausführt. E 4.37 (Eigenwerte) Die besten Eigenwertnäherungen ρk erhält man bei einer symmetrischen (hermiteschen) Matrix A über den Rayleigh-Quotienten von yk , ρk = (yk )T Ayk , (yk )T yk denn dieser minimiert kAyk − ρyk k2 : Es gilt kAy − ρyk2 = (Ay − ρy)T (Ay − ρy) = y T AT Ay − 2ρy T Ay + ρ2 y T y ∂ ! kAy − ρyk2 = −2y T Ay + 2ρy T y = 0 ∂ρ und folglich ρ = y T Ay/y T y. Ist die Matrix A nicht symmetrisch, muss der Rayleigh-Quotient anders definiert werden, wobei auch die Linkseigenvektor(näherung)en benötigt werden. Alg 4.38 (Potenzmethode) 1: Wähle y0 mit ky0 k = 1 2: for k = 0(1)maxiter do 3: wk+1 = Ayk 4: ρk = (yk )T wk+1 {neue Eigenwertnäherung} 5: yk+1 = wk+1 /kwk+1 k {neue Eigenvektornäherung} 6: end for Bsp 4.39 [SK91, S. 113] Wir 2 −1 A= wenden die Potenzmethode auf die Matrix −1 .. .. . . , n = 10, .. .. . . −1 −1 2 an, wobei wir zwei verschiedene Startvektoren testen. Die Ergebnisse sind in den folgenden Tabellen zusammengefasst, wobei yk,1 die erste Komponente der k-ten Eigenvektornäherung bezeichnet: k 1 2 3 5 10 20 35 50 65 80 110 yk,1 0.316 227 766 0.248 281 767 0.213 882 337 0.177 816 820 0.142 512 794 0.124 216 323 0.120 405 213 0.120 156 902 0.120 133 207 0.120 131 328 0.120 131 167 y0 = %k 3.0 3.863 013 70 3.896 138 48 3.907 840 65 3.916 112 28 3.918 887 69 3.918 985 33 3.918 985 94 3.918 985 94 3.918 985 95 3.918 985 95 √1 [1, −1, . . . , 1, −1]T 10 24. März 2016 k 1 2 60 75 90 150 300 400 500 600 700 yk,1 0.316 227 766 0.707 106 781 0.230 530 174 0.230 530 022 0.230 530 018 0.230 529 983 0.230 115 837 0.011 083 507 −0.119 867 700 −0.120 130 644 −0.120 131 165 y0 = %k 0.2 2.0 3.682 507 06 3.682 507 06 3.682 507 07 3.682 507 07 3.682 509 86 3.859 980 42 3.918 985 64 3.918 985 95 3.918 985 95 √1 [1, 1, . . . , 1, 1]T 10 61 Im ersten Fall hat ρk bereits nach ca. 35 Iterationen 6 genaue Stellen erreicht, yk erst nach etwa 80 Schritten. Im zweiten Fall ist der Startvektor orthogonal zu u1 ist. Folglich übernimmt λ2 die Rolle von λ1 . Das Verfahren hat nach ca. 60 Schritten konvergiert; ρk approximiert λ2 , yk approximiert u2 . Wird das Verfahren fortgesetzt, beginnt allmählich der Einfluss von Rundungsfehlern wirksam zu werden. Nach 300 bis 400 Iterationen kippt“ das Verfahren ” und konvergiert schließlich gegen λ1 und u1 . 4.4.2. Teilraumiteration und Rayleigh-Ritz-Prozess E 4.40 (wesentliche Merkmale der Teilraumiteration) • Die Teilraumiteration ist die natürliche Verallgemeinerung der Vektoriteration wobei p Vektoren simultan iteriert werden. Die p (1 ≤ p ≤ n) orthonormal en Startvektoren werden in eine Matrix V (0) ∈ Rn×p zusammengefasst. • Die p Vektoren müssen aber nicht nur normiert, sondern auch orthogonalisiert werden, da sie sonst alle gegen u1 konvergieren. Alg 4.41 (Teilraumiteration) 1: Wähle p ∈ {1, . . . , n} und V0 ∈ Rn×p 2: for k = 0(1)maxiter do 3: W (k+1) = AV (k) 4: W (k+1) = Q(k+1) R(k+1) {Orthogonalisierung} 5: V (k+1) = Q(k+1) 6: end for Dabei ist Q(k+1) ∈ Rn×p und R(k+1) ∈ Rp×p . E 4.42 Ist |λ1 | > |λ2 | > · · · > |λp | > |λp+1 | ≥ · · · ≥ |λn |, dann konvergieren die Spalten von V (k) gegen die Eigenvektoren zu λ1 , . . . , λp . Gilt nur |λ1 | ≥ |λ2 | ≥ · · · ≥ |λp | > |λp+1 | ≥ · · · ≥ |λn |, so konvergiert das Verfahren in dem Sinne, dass der durch die Spalten von V (k) aufgespannte Teilraum gegen den Teilraum geht, der durch die Eigenvektoren zu den dominanten Eigenwerten aufgespannt wird. E 4.43 Zur Berechnung der Eigenwerte wird der Rayleigh-Quotient verallgemeinert. Gute Eigenwertnäherungen sind die Eigenwerte der Matrix P (k+1) = (Q(k+1) )T AQ(k+1) ∈ Rp×p (4.26) Da p klein ist, können diese zum Beispiel mit dem QR-Verfahren berechnet werden. Wir erhalten die Matrizen X (k+1) , Λ̃(k+1) ∈ Rp×p , und es gilt P (k+1) = (X (k+1) )T Λ̃(k+1) X (k+1) . 62 24. März 2016 E 4.44 Bessere Näherungen für die Eigenwerte ergeben sich durch die Modifikation V (k+1) = Q(k+1) X (k+1) , so dass das folgende Verfahren entsteht. Dabei berechnet man die auch für P (k+1) benötigte Hilfsgröße Z (k+1) := AQ(k+1) und kann statt mit V (k+1) = Q(k+1) X (k+1) die Berechnung von W (k+2) über W (k+2) = AV (k+1) = AQ(k+1) X (k+1) = Z (k+1) X (k+1) mit Z (k) := AQ(k) durchführen, wodurch pro Iteration eine Matrix-Multiplikation gespart werden kann. Alg 4.45 (Teilraumiteration) 1: Wähle V (0) ∈ Rn×p und initialisiere Z (0) = AV (0) , X (0) = I. 2: for k = 0(1)maxiter do 3: W (k+1) = Z (k) X (k) 4: W (k+1) = Q(k+1) R(k+1) 5: Z (k+1) = AQ(k+1) 6: P (k+1) = (Q(k+1) )T Z (k) 7: P (k+1) = (X (k+1) )T Λ̃(k+1) X (k+1) 8: end for Λ̃(k+1) enthält die Eigenwertnäherungen; die Eigenvektornäherungen erhält man durch V (k+1) = Q(k+1) X (k+1) im Postprocessing. 4.4.3. Inverse Iteration und Rayleigh-Quotienten-Iteration E 4.46 (Inverse Iteration) Seien λ1 , . . . , λn die Eigenwerte der Matrix A und u1 , . . . , un die zugehörigen Eigenvektoren. Weil Auj = λj uj ⇔ −1 λ−1 j uj = A uj ist, hat die Matrix A−1 die Eigenwerte λ−1 j und dieselben Eigenvektoren uj . Der betragskleinste Eigenwert von A kann durch Vektoriteration mit A−1 ermittelt werden, sofern |λ1 | < |λ2 | ≤ · · · ≤ |λn |. Das bedeutet, dass die Anweisung wk+1 = Ayk durch wk+1 = A−1 yk zu ersetzen ist, d. h., wk+1 ist die Lösung des Gleichungssystems Awk+1 = yk . Das so modifizierte Verfahren heißt Inverse Iteration . E 4.47 (Inverse Teilraum-Iteration) Analog ist bei der inversen TeilraumIteration die neue Matrix W (k+1) die Lösung des Gleichungssystems AW (k+1) = V (k) . 24. März 2016 63 Bem 4.48 Man beachte, dass bei inverser (Teilraum-)Iteration die Matrix des zu lösenden Gleichungssystems in jeder Iteration diesselbe ist. Es kann also aus Varianten einer LU-Faktorisierung Nutzen gezogen werden. E 4.49 (Spektralverschiebung) Für die Spektralverschiebung gilt: à = A − µI hat die Eigenwerte λ̃j = λj − µ, j = 1, . . . , n. Ist µ eine gute Näherung für λj , dann ist λ̃j betragskleinster Eigenwert von Ã. Der verschobene Eigenwert λ̃j kann dann durch inverse Iteration mit à bestimmt werden. ˜ ˜ E 4.50 (Rayleigh-Quotienten-Iteration) Seien λ̃1 und λ̃2 die beiden betragskleinsten Eigenwerte von Ã. Die Konvergenzgeschwindigkeit der inversen Itera˜ tion hängt von λ̃1 ab. D.h., je besser µ den Eigenwert λj approximiert, desto ˜ λ̃2 ˜ kleiner λ̃˜ 1 , desto besser die Konvergenz. λ̃2 Daraus ergibt sich folgende Idee: Wir arbeiten nicht mit fester Verschiebung µ, sondern mit dem Rayleigh-Quotienten ρk als aktuell bester Eigenwertnäherung. Diese Variante wird als Rayleigh-Quotienten-Iteration bezeichnet: 1: 2: 3: 4: 5: 6: Wähle y1 mit ky1 k = 1 for k=1(1)maxiter do ρk = ykT Ayk {siehe Erklärung 4.37} Berechne wk+1 aus (A − ρk I)wk+1 = yk yk = wk+1 /kwk+1 k end for Das Verfahren hat folgende Eigenschaften: • Die Systemmatrix ändert sich bei jeder Iteration. • Das Verfahren konvergiert sogar kubisch. • Es ist nicht klar, welches Eigenpaar approximiert wird. Besser ist es, zunächst einige Schritte inverse Iteration mit fester Spektralverschiebung auszuführen. 4.5. Das Lanczos-Verfahren E 4.51 (wesentliche Merkmale des Lanczos-Verfahrens) • Das Verfahren setzt eine symmetrische (hermitesche) Matrix A voraus. Die Erweiterung auf den nichtsymmetrischen Fall heißt Arnoldi-Verfahren. • Das Lanczos-Verfahren ist zunächst ein Verfahren zur Tridiagonalisierung, A = QT QT , wobei im k-ten Iterationsschritt die Matrix α1 β1 β1 α2 . . . (k) ∈ Rk×k . T = . . . . . . βk−1 βk−1 αk entsteht und T = T (n) ist. 64 24. März 2016 • Die Bedeutung des Verfahrens liegt darin, dass die extremalen (d.h. die kleinsten und größten, die am Rand des Spektrums) Eigenwerte von A bereits für kleine k überraschend gut durch die extremalen Eigenwerte von T (k) approximiert werden. Da außerdem zur Berechnung der T (k) nur Matrixmultiplikationen benötigt werden, ist das Verfahren vor allem für große, schwach besetzte Matrizen gut geeignet. E 4.52 (Herleitung des Algorithmus) • Wir schreiben die Zerlegung in der Form AQ = QT mit α1 β1 .. β1 α2 . Q = q1 q2 · · · qn , T = .. .. . . βn−1 βn−1 αn . Diese Zerlegung bedeutet spaltenweise: Aqk = βk−1 qk−1 + αk qk + βk qk+1 , k = 1, . . . , n (4.27) wobei β0 = βn = 0 und q0 = qn+1 = 0 gesetzt wird, damit (4.27) auch für k = 1 und k = n gilt. • Anschließend multiplizieren wir von links mit qkT . Das liefert wegen der vorausgesetzten Orthonormalität der Vektoren qk die Beziehung qkT Aqk = αk . • Wir lösen dann (4.27) nach βk qk+1 auf: βk qk+1 = Aqk − βk−1 qk−1 − αk qk =: rk . Mit dieser Definition von rk gilt krk k = kβk qk+1 k = |βk |. • Falls rk 6= 0 ist βk = ±krk k = 6 0 und damit qk+1 = 1 rk . βk Beim Lanczos-Verfahren entscheidet man sich für βk = +krk k. Damit ergibt sich folgender Algorithmus. 24. März 2016 65 Alg 4.53 1: Setze q0 = 0, β0 = 0 2: Wähle q1 mit kq1 k = 1 3: for k = 1(1)n do 4: pk = Aqk 5: αk = qkT pk 6: rk = pk − αk qk − βk−1 qk−1 7: if k = n then stop 8: βk = krk k 9: if βk = 0 then stop 10: qk+1 = β1k rk 11: end for E 4.54 Zweckmäßig ist die Kopplung mit dem Rayleigh-Ritz-Algorithmus. Man beachte, dass T (k) = (Q(k) )T AQ(k) gerade die Matrix P aus (4.26) ist. Die Matrix T (k) kann nach Zeile 5 des Algorithmus aus T (k−1) , αk und βk−1 aufgebaut werden. Mit dem QR-Verfahren können die Eigenwerte von T (k) und damit Eigenwertnäherungen von A berechnet werden. Bem 4.55 In Computerarithmetik können die Spalten qj von Q stark von der Orthogonalität abweichen, und das Verfahren kann zusammenbrechen. Für Stabilisierungen siehe Spezialliteratur. 4.6. Symmetrische verallgemeinerte Eigenwertprobleme Def 4.56 (verallgemeinertes Eigenwertproblem) Ein vom Nullvektor verschiedener Vektor x heißt Eigenvektor des geordneten Paares (A, B), wenn es eine (reelle oder komplexe) Zahl λ gibt, so dass Ax = λBx. Die Zahl λ heißt Eigenwert. Ü 4.57 Man überlege sich, dass die Eigenwerte des verallgemeinerten Eigenwertproblems gerade die Nullstellen des charakteristischen Polynoms p(A,B) (λ) := det(λB − A) sind. Satz 4.58 Seien A, B ∈ Rn×n symmetrische Matrizen und sei B zusätzlich positiv definit. Dann hat das Paar (A, B) nur reelle Eigenwerte und die zugehörigen Eigenvektoren sind B-orthogonal, xTi Bxj = 0 für i 6= j. Beweis Weil die Matrix B symmetrisch und positiv definit ist, existiert die Cholesky-Faktorisierung, B = LLT . Wir können nun das verallgemeinerte 66 24. März 2016 Eigenwertproblem Axj = λj Bxj in ein spezielles Eigenwertproblem für eine symmetrische Matrix umformen: Axj = λj LLT xj ⇔ L−1 Axj = λj LT xj ⇔ L−1 AL−T LT xj = λj LT xj ⇔ Ãx̃j = λj x̃j mit à = L−1 AL−T und x̃j = LT xj . Wegen ÃT = (L−1 AL−T )T = L−1 AT L−T = L−1 AL−T = à ist die Matrix à symmetrisch. Daraus folgt, dass die Eigenwerte λj reell sind und die zugehörigen Eigenvektoren x̃j orthogonal zueinander, das heißt, es gilt für i 6= j 0 = x̃Ti x̃j = (LT xi )T LT xj = xTi LLT xj = xTi Bxj . Damit ist alles gezeigt. q.e.d. Bem 4.59 (Diskussion der Voraussetzungen von Satz 4.58) 1. In den Anwendungen in der Dynamik ist A häufig eine Steifigkeitsmatrix und B eine Massematrix. Diese erfüllen die Voraussetzungen des Satzes 4.58, es sind sogar beide symmetrisch und positiv definit. 2. Die positive Definitheit von B ist wesentlich für die Aussage des Satzes 4.58. Parlett hat gezeigt, dass es zu jeder beliebigen Matrix C ∈ Rn×n symmetrische Matrizen A, B ∈ Rn×n gibt, so dass C = AB −1 gilt. Damit gilt Cx = λx ⇔ ⇔ AB −1 x = λx = λBB −1 x Ax̂ = λB x̂ mit x̂ = B −1 x. Die Matrizen A und B sind symmetrisch, aber die Eigenwerte können komplex sein. 3. Unter den Voraussetzungen des Satzes 4.58 hat das verallgemeinerte Eigenwertproblem genau n Eigenwerte. Wenn die Matrix B nicht invertierbar ist, gilt dies nicht mehr. So ist für 1 0 1 0 A= , B= 0 −1 0 0 das charakteristische Polynom p(A,B) (λ) = λ − 1, und λ = 1 ist der einzige Eigenwert. Für A=B= 1 0 0 0 ist p(A,B) (λ) ≡ 0, und alle λ ∈ C sind Eigenwerte. 24. März 2016 67 E 4.60 Wenn B invertierbar ist, dann ist das verallgemeinerte Eigenwertproblem Ax = λBx äquivalent zum speziellen Eigenwertproblem B −1 Ax = λx und auch zum speziellen Eigenwertproblem AB −1 x̃ = λx̃ mit x̃ = Bx. Es gibt aber Gründe, diese Umformung nicht auszuführen: • Wenn A und B symmetrisch sind, dann ist AB −1 bzw. B −1 A nicht symmetrisch. • Wenn A und B dünn besetzt sind, dann ist AB −1 bzw. B −1 A im Allgemeinen nicht dünn besetzt. • Wenn B schlecht konditioniert ist, aber die Eigenwerte von Ax = λBx gut konditioniert sind, dann sind die Eigenwerte von AB −1 bzw. B −1 A schlecht konditioniert [Wat10]. Zum Glück ist die Massematrix bei einer Finite-Elemente-Diskretisierung gut konditioniert, so dass die dritte Eigenschaft nicht ins Gewicht fällt. Die erste Eigenschaft kann man umgehen, indem man die Cholesky-Faktorisierung B = LLT benutzt und wie im Beweis von Satz 4.58 zum speziellen Eigenwertproblem Ãx̃ = λx̃ mit à = L−1 AL−T und x̃ = LT x. übergeht. Der Nachteil des Auffüllens des Bandes (“Fill-In”) bei den CholeskyFaktoren bleibt aber bestehen. Um die Matrix à nicht berechnen zu müssen, arbeitet man mit den einzelnen Faktoren, was besonders gut bei Verfahren wie der Potenzmethode oder dem Lanczos-Verfahren geht, bei denen in jeder Iteration nur mit der Matrix multipliziert wird. 4.7. Zusammenfassung E 4.61 (Wahl des Algorithmus) • Wenn die Matrix voll besetzt ist und kleine bis mittlere Dimension hat: – Sind mehr als ein Viertel aller Eigenwerte zu berechnen, verwendet man eine Variante des QR-Verfahrens. – Sind nur wenige Eigenwerte zu berechnen, kann inverse Iteration empfohlen werden. • Wenn die Matrix schwach besetzt ist und hohe Dimension hat, greift man zu Iterationsverfahren. Bem 4.62 Eigenwertprobleme für nichtsymmetrische Matrizen unterscheiden sich in verschiedenen Punkten vom symmetrischen Eigenwertprobem: • • • • 68 Statt einer Tridiagonalisierung entsteht die Hessenbergform. Beim Lanczos-Verfahren entsteht keine 3-stufige Rekursion mehr. Es können komplexe Eigenwerte und Eigenvektoren auftreten. Es können defektive Eigenwerte (Eigenwerte, bei denen die geometrische Vielfachheit kleiner als die algebraische Vielfachheit ist, also keine vollständige Basis aus Eigenvektoren existiert) auftreten. Mir ist kein Algorithmus bekannt, der damit gut zurechtkommt. 24. März 2016 A. Grundlagen Eigenwertprobleme Def A.1 Ein vom Nullvektor verschiedener Vektor x heißt Eigenvektor der Matrix A, wenn es eine (reelle oder komplexe) Zahl λ gibt, so dass Ax = λx. Die Zahl λ heißt der zum Eigenvektor x gehörende Eigenwert von A, das Paar (λ, x) heißt Eigenpaar von A. E A.2 Nehmen wir an, ein Eigenwert λ der Matrix A wäre bekannt. Wegen Ax = λIx ⇐⇒ (A − λI)x = 0 ist der zugehörige Eigenvektor x Lösung des homogenen Gleichungssystems mit der Systemmatrix A − λI. Ist die Determinante det(A − λI) 6= 0, dann hat das LGS nur die triviale Lösung x = 0. Eigenvektoren sind jedoch nichttriviale Lösungen, die genau dann existieren, wenn die Beziehung pA (λ) := det(A − λI) = 0 gilt. Ist A eine n × n-Matrix, dann ist pA (λ) ein Polynom n-ten Grades in λ. Def A.3 Sei A eine n × n-Matrix. Das Polynom n-ten Grades pA (λ) := det(A − λI) heißt charakteristisches Polynom von A. Die Gleichung pA (λ) = 0 heißt charakteristische Gleichung. Satz A.4 Die Eigenwerte von A sind genau die Nullstellen des charakteristischen Polynoms bzw. die Lösungen der charakteristischen Gleichung. Zählt man jede Nullstelle mit ihrer Vielfachheit, so besitzt pA (λ) genau n Nullstellen (reelle und konjugiert komplexe Paare) und damit besitzt A genau n Eigenwerte. E A.5 (Berechnung von Eigenpaaren aus der Definition) Eine mögliche Vorgehensweise zur Lösung des speziellen Eigenwertproblems besteht in der Ausführung folgender Schritte: Schritt 1 Bestimmen der Eigenwerte durch Lösen der charakteristischen Gleichung pA (λ) = 0, Schritt 2 Bestimmen der zugehörigen Eigenvektoren durch Lösen des Gleichungssystems (A − λI)x = 0 der Reihe nach für alle Eigenwerte λ. Dieser Algorithmus mag für Matrizen bis zur Ordnung 4 brauchbar sein. Für größere Matrizen verwendet man jedoch numerische Verfahren. 24. März 2016 69 Satz A.6 (Eigenwerte und Eigenvektoren spezieller Matrizen) 1. Ist A eine Diagonalmatrix oder eine obere bzw. untere Dreiecksmatrix, a11 0 a11 0 a21 a22 . .. A= oder A= . . . . . . . . . 0 ann an1 an2 · · · ann dann sind die Eigenwerte die Elemente in der Hauptdiagonalen, λi = aii , i = 1, . . . , n. 2. Ist (λ, x) ein Eigenpaar einer invertierbaren Matrix A, dann ist ( λ1 , x) ein Eigenpaar von A−1 . 3. Ist (λ, x) ein Eigenpaar einer Matrix A, dann ist (λk , x) ein Eigenpaar von Ak , k ∈ N. 4. AT hat dieselben Eigenwerte wie A, aber im Allgemeinen andere Eigenvektoren. Beweis 1. In den genannten Fällen gilt pA (λ) = (a11 − λ)(a22 − λ) · · · (ann − λ), woraus sofort die Behauptung folgt. 2. Wir multiplizieren Ax = λx mit A−1 von links und erhalten x = A−1 (λx) = λA−1 x und damit die Behauptung A−1 x = 1 x. λ 3. Es gilt Ax = λx A2 x = A · Ax = A · λx = λAx = λ2 x, womit wir den Fall k = 2 bewiesen hätten. Für allgemeines k ∈ N verwendet man vollständige Induktion. 4. Wegen I = I T gilt det(AT −λI) = det(A−λI)T . Die Behauptung folgt, weil die Determinante einer Matrix gleich der Determinante der Transponierten ist. q.e.d. Ü A.7 Man überlege sich, dass die dritte Eigenschaft sogar für alle k ∈ Z gilt. Wie müsste A0 definiert sein, damit diese Eigenschaft für k = 0 gilt? Ü A.8 Beweisen Sie: Ist (λ, x) ein Eigenpaar einer Matrix A, dann ist (αλ, x) ein Eigenpaar von αA, α ∈ C. 70 24. März 2016 Entsprechend der Definition gehört zu jedem Eigenwert mindestens ein Eigenvektor. Wir wollen nun die Menge aller Eigenvektoren zu einem Eigenwert charakterisieren. Satz A.9 Sind x und y Eigenvektoren zum Eigenwert λ, dann auch jede Linearkombination αx + βy, wobei α und β beliebige komplexe Zahlen sind. Damit spannen die Eigenvektoren zu einem Eigenwert λ einen linearen Raum auf, den Eigenunterraum. Beweis Der Beweis erfolgt durch Ausnutzen der Rechenregeln für Matrizen: A(αx + βy) = αAx + βAy = αλx + βλy = λ(αx + βy). q.e.d. Def A.10 (Algebraische und geometrische Vielfachheit) Ist die Zahl λ eine kfache Nullstelle des charakteristischen Polynoms, dann sagt man, der Eigenwert λ hat die algebraische Vielfachheit k. Die maximale Anzahl linear unabhängiger Eigenvektoren zum Eigenwert λ (die Dimension des Eigenunterraums) heißt geometrische Vielfachheit von λ. Satz A.11 Die geometrische Vielfachheit ist stets kleiner oder gleich der algebraischen Vielfachheit. Bsp A.12 (ungleiche geometrische und algebraische Vielfachheit) Die Matrix A= 0 1 0 0 besitzt den Eigenwert λ = 0 mit der algebraischen Vielfachheit 2. Wir berechnen nun die zugehörigen Eigenvektoren. Es gilt (A − λI) x1 x2 = 0 1 0 0 x1 x2 = x2 0 ! = 0 0 . Folglich ist x2 = 0 und x1 beliebig, d. h., es gibt nur den eindimensionalen Eigenunterraum Span 1 0 := α 0 , α ∈ C beliebig . Def A.13 Die Spur Sp(A) einer Matrix A ist als die Summe ihrer Hauptdiagonalelemente definiert, Sp(A) := n X aii = a11 + a22 + . . . + ann . i=1 24. März 2016 71 Satz A.14 (Eigenschaften von Eigenwerten und Eigenvektoren) 1. Die Summe aller Eigenwerte einer Matrix A ist gleich der Spur von A, n X λi = λ1 + λ2 + λ3 + . . . + λn = Sp(A). i=1 2. Das Produkt aller Eigenwerte ist gleich der Determinante von A, n Y λi = λ1 · λ2 · . . . · λn = det A. i=1 3. Die zu verschiedenen Eigenwerten λi von A gehörenden Eigenvektoren xi sind linear unabhängig. Beweis Als Beweisskizze für die ersten beiden Eigenschaften sei angegeben, dass pA (λ) = det(A − λI) = (−λ)n + (a11 + a22 + . . . + ann )(−λ)n−1 + . . . + det A und andererseits aber auch pA (λ) = (λ1 − λ)(λ2 − λ) · · · (λn − λ) = (−λ)n + (λ1 + λ2 + λ3 + . . . + λn )(−λ)n−1 + . . . + λ1 λ2 · · · λn gilt. Durch Koeffizientenvergleich erhält man die Behauptung. Einen Beweis der dritten Eigenschaft findet man z. B. in [MV03, Kap. 6, Satz 6.7]. q.e.d. Folgerung A.15 Sind alle Eigenwerte von A voneinander verschieden, so gehört zu jedem Eigenwert (bis auf eine multiplikative Konstante) genau ein Eigenvektor. Die n Eigenvektoren sind linear unabhängig und spannen den Rn auf. Allgemein gilt: Stimmen algebraische und geometrische Vielfachheit aller Eigenwerte einer Matrix überein, dann gibt es n linear unabhängige Eigenvektoren, die den Raum Rn aufspannen. Def A.16 (Ähnlichkeitstransformation) Sei A eine gegebene Matrix. Die mit einer beliebigen regulären (invertierbaren) Matrix Y gebildete Transformation B = Y −1 AY (A.28) heißt Ähnlichkeitstransformation. Eine Matrix B heißt ähnlich zu A, wenn es eine reguläre Matrix Y gibt, so dass die Gleichung (A.28) gilt. Satz A.17 Ähnliche Matrizen haben dieselben Eigenwerte. (Die Eigenwerte sind invariant unter einer Ähnlichkeitstransformation.) 72 24. März 2016 Beweis Ist λ Eigenwert von B und x der zugehörige Eigenvektor, dann ist Bx = λx Y x = λx A(Y x) = λ(Y x) −1 AY d. h., λ ist ein Eigenwert von A mit dem Eigenvektor Y x. q.e.d. Satz A.18 (Schur) Jede quadratische Matrix ist ähnlich zu einer oberen Dreiecksmatrix. E A.19 Die Bedeutung dieses Satzes liegt darin, dass es numerische Verfahren gibt (den QR-Algorithmus, siehe Abschnitt 4.3), die diese obere Dreiecksmatrix (näherungsweise) bestimmt. Die Eigenwerte stehen dann (näherungsweise) auf der Hauptdiagonale dieser Dreiecksmatrix. Wenn algebraische und geometrische Vielfachheit aller Eigenwerte übereinstimmen, kann man das bessere Resultat aus den nächsten Satz zeigen. Satz A.20 (Diagonalisierung einer Matrix) Stimmen algebraische und geometrische Vielfachheit aller Eigenwerte einer Matrix überein, dann ist A ähnlich zur Diagonalmatrix λ1 .. Λ := diag (λ1 , . . . , λn ) = . . λn Dabei sind die Spalten der Transformationsmatrix die Eigenvektoren von A: Sei X := x1 . . . xn mit Axi = λi xi . Dann ist AX = XΛ, d.h. Λ = X −1 AX. Beweis Es bleibt nachzurechnen, dass AX = XΛ. Dies ist eine Matrixgleichung und man überprüft leicht die Gleichheit der i-ten Spalte, i = 1, . . . , n. Die i-te Spalte von AX ist Axi = λi xi und die i-te Spalte von XΛ ist ebenfalls xi λi . q.e.d. E A.21 Die Diagonalisierung eignet sich z. B. zum Berechnen von Matrixfunktionen. Ist die Zerlegung A = XΛX −1 mit Λ = diag (λ1 , . . . , λn ) bekannt, dann kann man Ak über Ak = XΛX −1 · XΛX −1 · · · XΛX −1 = XΛk X −1 berechnen, wobei Λk = diag (λk1 , . . . , λkn ) wieder eine Diagonalmatrix ist. Eine andere Anwendung der Diagonalisierung ist die Hauptachsentransformation. 24. März 2016 73
© Copyright 2024 ExpyDoc