Modul 1343 Schalentragwerke Vorlesung Variationsrechnung Vorlesender: Prof. Thomas Apel Institut für Mathematik und Bauinformatik Fakultät für Bauingenieurwesen und Umweltwissenschaften Herbsttrimester 2015 Vorwort Variationsaufgaben sind Extremwertaufgaben, bei denen Funktionen gesucht sind. Im Rahmen dieser Lehrveranstaltung sollen Sie sich Fähigkeiten zur Modellierung praktischer Probleme als Variationsprobleme und zur Lösung dieser mit Hilfe der Variationsrechnung aneignen. Die Vorlesung wird innerhalb des Moduls Schalentragwerke für Studierende des Master-Studiengangs Bauingenieurwesen und Umweltwissenschaften gelesen. Für ihre Hilfe bei der Erstellung des Skripts sei an dieser Stelle Manuela Winkler gedankt. Hinweise auf Druckfehler und Verbesserungsmöglichkeiten nehme ich gern entgegen, um das Skript weiter zu verbessern. Das Skript ist kein Lehrbuch. Es ist an vielen Stellen knapper gehalten als es Lehrbücher sind, deshalb wird die gleichzeitige Verwendung von Lehrbüchern empfohlen; Tipps gibt die Literaturliste auf Seite 4. Das Skript gibt die Stoffauswahl des Vorlesenden wieder, so dass klar wird, welcher Stoff prüfungsrelevant ist. Außerdem erspart das Vorliegen des Skripts, dass während der Vorlesungen alles angeschrieben werden muss. In den Vorlesungen werden Herleitungen und Beispiele meist ausführlicher besprochen; Sie sollten das Skript selbständig um Bemerkungen ergänzen, die Ihnen zum Verständnis des Stoffes notwendig erscheinen. Wichtige Webseiten http://www.unibw.de/bauv1/personen/apel/ Homepage von Prof. Thomas Apel mit Telefonnummer, Büroadresse, . . . http://www.unibw.de/rz/dokumente/fakultaeten?id=306853&tid=fakultaeten Dokumente zur Vorlesung 2 HT 2015 Inhaltsverzeichnis Literatur 1 Variationsprobleme mit festen Randbedingungen 1.1 Extremalprobleme . . . . . . . . . . . . . . . . . . . . . . 1.2 Gâteaux-Variation, Variationsgleichung . . . . . . . . . . 1.3 Fundamentalsatz der Variationsrechnung . . . . . . . . . . 1.4 Herleitung der Euler-Lagrange-Differentialgleichung . . . . 1.5 Analyse von Spezialfällen . . . . . . . . . . . . . . . . . . 1.5.1 F hängt nicht von y 0 ab . . . . . . . . . . . . . . . 1.5.2 F ist linear in y 0 . . . . . . . . . . . . . . . . . . . 1.5.3 F hängt nicht explizit von y ab . . . . . . . . . . . 1.5.4 F hängt nicht explizit von x ab . . . . . . . . . . . 1.6 Variationsaufgaben mit höheren Ableitungen . . . . . . . 1.7 Variationsaufgaben mit Funktionen in mehreren Variablen 2 Variationsprobleme mit freien Randbedingungen 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 9 12 13 16 16 17 19 20 23 26 29 3 Das Hamilton-Prinzip 33 3.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.2 Das Hamilton-Prinzip bei Schwingungsproblemen . . . . . . . . . 35 4 Querbezüge zur Numerik 40 4.1 Ritz-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 4.2 Galerkin-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 44 4.3 Finiten Differenzen . . . . . . . . . . . . . . . . . . . . . . . . . . 46 5 Variationsaufgaben mit Nebenbedingungen 48 5.1 Isoperimetrische Probleme . . . . . . . . . . . . . . . . . . . . . . 48 5.2 Nebenbedingungen in Gleichungsform . . . . . . . . . . . . . . . 54 6 Einführung in die optimale Steuerung (freiwilllig) HT 2015 56 3 Literatur [Ger13] M. Gerdts. Mathematische Methoden in den Ingenieurwissenschaften. Vorlesungsskript, Universität der Bundeswehr München, WT 2013. [Kie10] H. Kielhöfer. Variationsrechnung. Vieweg + Teubner, Wiesbaden, 2010. [MV01] K. Meyberg und P. Vachenauer. Höhere Mathematik, Jgg. 2. Springer, Berlin, 1991, 1997, 1999, 2001. 4 HT 2015 1 Variationsprobleme mit festen Randbedingungen 1.1 Extremalprobleme E 1.1 Variationsprobleme sind Optimierungsprobleme. Jedoch ist die Optimierungsvariable kein Vektor des Rn , sondern eine Funktion. Wir suchen eine Funktion y∗ , die in einem gewissen Sinne optimal ist. Wie gut die Funktion ist, wird durch ein Funktional J(y) ausgedrückt. Eine Abbildung, die einer Funktion eine Zahl zuordnet, bezeichnet man als Funktional.1 Die Minimierungsaufgabe lautet also Finde y∗ : J(y∗ ) ≤ J(y) ∀y. Das einfachste Variationsproblem besteht darin, eine Funktion y : [a, b] ⊂ R → R zu finden, die das Funktional Z b J(y) = F (x, y, y 0 ) dx a unter den Nebenbedingungen y(a) = ya , y(b) = yb minimiert, wobei die hinreichend oft stetig differenzierbare Funktion F sowie die Randdaten ya und yb gegeben sind. Bei allgemeineren Aufgabenstellungen • • • • können höhere Ableitungen von y auftreten, kann y eine Vektorfunktion sein, kann y eine Funktion mehrerer Veränderlicher sein, können Nebenbedingungen auftreten. Zur Präzisierung der Aufgabenstellung muss man jeweils angeben, welche Menge von Funktionen man in die Minimierung einbezieht; man bezeichnet diese Menge auch als zulässigen Bereich . Von der Formulierung des zulässigen Bereichs hängt unter anderem ab, ob die Variationsaufgabe eine Lösung besitzt.2 Beispiele für Funktionenmengen sind C[a, b] Raum der über [a, b] stetigen Funktionen C 1 [a, b] Raum der über [a, b] einmal stetig differenzierbaren Funktionen W 1,2 [a, b] Raum der Funktionen mit beschränkter Energie, d.h., Z b 1,2 2 0 2 W [a, b] := v: v(x) + v (x) dx < ∞ . a Mit Raum meint man hier einen linearen Raum von Funktionen, also insbesondere die Eigenschaft, dass man Funktionen addieren und mit einer Zahl multiplizieren kann, ohne die betrachtete Funktionenmenge zu verlassen. Rb Einfachste Beispiele sind das bestimmte Integral J(f ) = a f (x) dx und das DeltaFunktional δx0 (v) = v(x0 ). 2 Wir werden in dieser Vorlesung auf die Frage nach der Existenz einer Lösung nicht weiter eingehen, sondern stets voraussetzen, dass die betrachteten Variationsprobleme sinnvoll formuliert sind. 1 HT 2015 5 Bsp 1.2 (Kürzeste Verbindung) Gegeben seien zwei Punkte in der Ebene mit den Koordinaten (x0 , y0 ) und (x1 , y1 ). Gesucht ist die kürzeste Verbindung zwischen den beiden Punkten, also diejenige Funktion y(x) mit y(x0 ) = y0 und y(x1 ) = y1 , für die die Bogenlänge Z y0 p J(y) = 1 + y 0 (x)2 dx x0 minimal ist. Bsp 1.3 (Brachistochrone-Problem, Johann Bernoulli 1696) Gesucht ist in einer vertikalen Ebene die Bahn von A = (0, 0) nach B = (a, b), längs der ein Massepunkt M reibungsfrei unter Einwirkung der Schwerkraft in minimaler Zeit gleitet. a A x y(x) b B y Zur Modellierung bezeichnen wir mit y(x) die gesuchte Bahnkurve und mit T (y) die Zeit, die der Massepunkt auf der Bahn y(x) benötigt. Sei nun Z x s(x) = ds 0 die Bogenlänge entlang der Bahnkurve. Für die Geschwindigkeit des Massepunkts gilt v= ds dt und 2 1 2 mv = mgy ⇔ v = Benutzt man außerdem die Formel ds = genelement, erhält man Z T (y) = T Z dt = 0 0 L p 2gy(x). p 1 + (y 0 (x))2 dx für das skalare Bo- 1 ds = v Z 0 a s 1 + (y 0 (x))2 dx. 2gy(x) In der Funktionenmenge3 V∗ = {y ∈ C 1 (0, a) ∩ C[0, a] : y(0) = 0, y(a) = b} ist also diejenige Funktion y∗ ∈ V∗ zu bestimmen, für die T (y∗ ) ≤ T (y) ∀y ∈ V∗ gilt. Die entsprechende Kurve heißt Brachistochrone (griechisch: brachýs – kurz, chrónos – Zeit). 3 6 Dabei ist C 1 (0, a) die Menge aller im Intervall (0, a) stetig differenzierbaren Funktionen und C[0, a] die Menge aller im Intervall [0, a] stetigen Funktionen. HT 2015 Bsp 1.4 (Gleichgewichtslage einer Saite) Wir betrachten eine Saite, die bei x = 0 und x = ` in der Höhe Null festgehalten wird und auf die transversal eine Linienkraft f (x) wirkt. Unter allen Auslenkungen u(x) ist diejenige Auslenkung u∗ (x) zu bestimmen, für die die potentielle Energie E(u) minimal wird. u f (x) 0 ` x Bezeichne AF die Formänderungsarbeit und Z ` f (x)u(x) dx Af = 0 die Arbeit der äußeren Kraft f , dann gilt E(u) = AF − Af . Für die Formänderungsarbeit gilt AF = S∆`, wobei S die Vorspannung der Saite und Z `p ∆` = 1 + (u0 (x))2 dx − ` 0 die Längenänderung der Saite sind. Mit der Taylorreihe bzw. Linearisierung √ 1+z =1+ z z2 z − ± ··· ≈ 1 + 2 8 2 folgt weiter ` Z 1 + 21 (u0 (x))2 dx − ` ∆` ≈ 0 1 2 = Z ` u0 (x)2 dx. 0 Damit ergibt sich E(u) = 12 S Z ` u0 (x)2 dx − 0 Z ` f (x)u(x) dx. 0 Die gesuchte Variationsaufgabe ist: Finde u∗ ∈ V0 : E(u∗ ) ≤ E(u) ∀u ∈ V0 wobei V0 = {u ∈ C 1 [0, `] : u(0) = 0, u(`) = 0}. Wir verwenden die Bezeichnung V0 , wenn die Summe aus zwei Funktionen aus der Menge wieder in der Menge liegt, und V∗ wenn dies wegen der Randbedingungen nicht der Fall ist. HT 2015 7 Ü 1.5 (Rotationsminimalfläche) Unter allen C 1 -Kurven, die die beiden Punkte A = (x0 , y0 ) und B = (x1 , y1 ) in der (x, y)-Ebene verbinden, wird diejenige gesucht, die bei Rotation um die x-Achse eine Fläche mit kleinstmöglichem Flächeninhalt erzeugt. y y1 y0 | x1 x0 x y(t) Man kann diese Fläche experimentell mit einem Seifenfilm zwischen Drahtschleifen erzeugen. Ü 1.6 Das Fermat-Prinzip besagt, dass ein Lichtstrahl denjenigen Weg sucht, den er in kürzester Zeit zurücklegen kann. Gegeben sei ein ebenes anisotropes Medium mit der Lichtgeschwindigkeit v = v(x, y) bzw. dem Brechnungsindex n(x, y) = c0 /v(x, y), wobei die Konstante c0 die Lichtgeschwindigkeit im Vakuum bezeichnet. Wie lautet das Zeitfunktional für den Lichtweg von (x0 , y0 ) nach (x1 , y1 )? Ü 1.7 Wiederholen Sie die Bestimmung der Extremstellen von Funktionen mehrerer Veränderlicher. 8 HT 2015 1.2 Gâteaux-Variation, Variationsgleichung E 1.8 Wir betrachen das Minimierungsproblem: Gesucht ist y∗ ∈ V∗ : J(y∗ ) = Extr (1.1) mit V∗ = {y ∈ C 1 [a, b] : y(a) = ya , y(b) = yb }. Euler hat die Lösung dieser Aufgabe auf eine Extremwertaufgabe einer reellen Veränderlichen zurückgeführt. Dazu betrachten wir eine einparametrische Schar von Vergleichsfunktionen, y∗ + εv, mit dem Parameter ε ∈ R und einer Funktion v. Damit y∗ + εv zulässig, d. h. in V∗ enthalten ist, muss v homogene Randbedingungen erfüllen, v ∈ V0 = {y ∈ C 1 [a, b] : y(a) = 0, y(b) = 0}. Wenn nun das Funktional J in y∗ einen Extremwert besitzt, dann besitzt h(ε) = J(y∗ + εv) in ε = 0 ein Extremum, das heißt, es muss dh d 0= = J(y∗ + εv) dε ε=0 dε ε=0 gelten. Def 1.9 Die Zahl d δJ(y; v) := J(y + εv) dε ε=0 heißt erste Variation oder Gâteaux-Variation von J in y in Richtung v (vorausgesetzt, die Ableitung existiert). Bsp 1.10 Sei X = C[a, b] und Z J(y) = b y(x)2 dx. a Dann ist Z b Z b d d 2 2 (y(x) + εv(x)) dx δJ(y; v) = (y(x) + εv(x)) dx = dε a a dε ε=0 ε=0 Z b Z b = 2(y(x) + εv(x))v(x)|ε=0 dx = 2 y(x)v(x) dx. a a Aus der Überlegung in Erklärung 1.8 erhält man den folgenden Satz. Satz 1.11 Für eine Lösung y∗ ∈ V∗ des Variationsproblems (1.1) gilt für alle zulässigen v ∈ V0 δJ(y∗ ; v) = 0, sofern diese erste Variation existiert. HT 2015 9 Bem 1.12 Mit diesem Satz werden stets nur Kandidaten für ein Extremum bestimmt. Es ist zu prüfen, ob sie die gewünschte Extremaleigenschaft besitzen. (Das ist mühsam, aber manchmal aus physikalischen Gründen klar.) Bsp 1.13 (Gleichgewichtslage einer Saite) Es ist V∗ = V0 = u ∈ W 1,2 (0, `) : u(0) = u(`) = 0 . In Beispiel 1.4 wurde bereits hergeleitet, dass die Auslenkung u(x) der Saite in der Gleichgewichtslage das Funktional Z ` Z ` E(u) = 21 S u0 (x)2 dx − f (x)u(x) dx 0 0 minimiert. Die Funktion h(ε) := E(u∗ + εv) nimmt folglich für beliebiges v ∈ V0 ihr Minimum bei ε = 0 an, d. h., es gilt d 0 0 = h (ε) = E(u∗ + εv) = δE(u; v). dε ε=0 Bestimmen wir also die erste Variation des Funktionals E(u). Es gilt Z ` Z ` d 1 0 0 2 S (u (x) + εv (x)) dx − f (x)(u(x) + εv(x)) dx δE(u; v) = 2 dε 0 0 ε=0 Z ` Z ` f (x)v(x) dx 2(u0 (x) + εv 0 (x))v 0 (x) dx − = 21 S 0 0 ` Z u0 (x)v 0 (x) dx − =S 0 Z ε=0 ` f (x)v(x) dx. 0 Die Gleichgewichtslage der Saite wird folglich auch beschrieben durch Z ` Z ` S u0 (x)v 0 (x) dx = f (x)v(x) dx ∀v ∈ V0 . 0 0 Da u∗ + εv ∈ V0 verlangt wird, muss auch v ∈ V0 sein, d.h. v(0) = v(`) = 0. E 1.14 (Verallgemeinerung) Für allgemeine Funktionale Z b J(y) = F (x, y, y 0 ) dx a und y ∈ V∗ = {y ∈ C 1 [a, b] : y(a) = ya , y(b) = yb } ist die erste Variation Z b d 0 0 δJ(y; v) = F (x, y + εv, y + εv ) dx dε a ε=0 Z b ∂F ∂F 0 = v + 0 v dx ∂y ∂y a wobei v ∈ V0 = {y ∈ C 1 [a, b] : y(a) = y(b) = 0}. 10 HT 2015 Bsp 1.15 (Rotationsminimalfläche) In der Übung 1.5 wurde bereits Z x1 p y(x) 1 + y 0 (x)2 dx, M (y) = 2π x0 V∗ = y(x) ∈ C 1 [x0 , x1 ] : y(x0 ) = y0 , y(x1 ) = y1 , V0 = y(x) ∈ C 1 [x0 , x1 ] : y(x0 ) = y(x1 ) = 0 hergeleitet. Daraus ergibt sich für den Integranden p F (x, y, y 0 ) = y 1 + y 02 p ∂F = 1 + y 02 ∂y ∂F 02 −1/2 1 = y · 1 + y · 2y 0 2 ∂y 0 und folglich für die erste Variation # Z x1 "p 0 yy 0 1 + y 02 v + p δM (y; v) = 2π v dx. 1 + y 02 x0 Bsp 1.16 (Brachistochrone-Problem) In Beispiel 1.3 wurde Z as 1 + (y 0 (x))2 dx, T (y) = 2gy(x) 0 V∗ = {y ∈ C 1 (0, a) ∩ C[0, a] : y(0) = 0, y(a) = b}, V0 = {y ∈ C 1 (0, a) ∩ C[0, a] : y(0) = y(a) = 0} hergeleitet.4 Daraus ergibt sich für den Integranden i 1 h 2 1/2 −1/2 y 1 + y0 F (x, y, y 0 ) = √ 2g i ∂F 1 h 2 1/2 =√ 1 + y0 − 12 y −3/2 ∂y 2g i−1/2 ∂F 1 1h 02 √ = 1 + y 2y 0 y −1/2 ∂y 0 2g 2 und folglich für die erste Variation Z a i1/2 i−1/2 h h 1 −3/2 0 −1/2 0 02 02 1 1 δT (y; v) = √ −2 1 + y y v+ 2 1+y 2y y v dx 2g 0 Z i 1 1 ah 2 −1/2 −3/2 2 √ = 1 + y0 y −(1 + y 0 )v + 2yy 0 v 0 dx. 2g 2 0 Die Variationsaufgabe lautet demnach: Z a −(1 + y 0 2 )v + 2yy 0 v 0 dx = 0 ∀v ∈ V0 . Gesucht is y ∈ V∗ : (1 + y 0 2 )1/2 y 3/2 0 Ü 1.17 Bestimmen Sie die erste Variation des Zeitfunktionals des Fermat-Prinzips aus Aufgabe 1.6. 4 Der Integrand besitzt am linken Intervallende eine Polstelle, alle hier angesprochenen Umformungen können aber dennoch durchgeführt werden. HT 2015 11 1.3 Fundamentalsatz der Variationsrechnung Satz 1.18 Sei f ∈ C[a, b]. Wenn für alle g ∈ {v ∈ C 2 [a, b] : v(a) = v(b) = v 0 (a) = v 0 (b) = 0} (oder g ∈ C0∞ (a, b), was eine kleinere Anzahl von Funktionen ist) die Gleichung Z b f (x)g(x) dx = 0 a gilt, dann ist f (x) ≡ 0. Der Satz gilt entsprechend, wenn das Integrationsgebiet mehrdimensional ist. Beweis Wir beweisen den Satz indirekt. Dazu nehmen wir an, es gäbe ein x0 ∈ (a, b) mit f (x0 ) 6= 0, o.B.d.A. f (x0 ) > 0. y f (x) f (x0 ) — | x0 − ε | x0 | x0 + ε x Da f stetig ist, existiert ein ε > 0 mit f (x) > 0 ∀x ∈ (x0 − ε, x0 + ε). Wählen nun die Funktion ( (x − x0 + ε)4 (x − x0 − ε)4 g(x) = 0 in (x0 − ε, x0 + ε), sonst. Es gilt g(x) > 0 in (x0 − ε, x0 + ε). Außerdem ist g zulässig, g ∈ {v ∈ C 2 [a, b] : v(a) = v(b) = 0}. Für das Integral gilt aber Z b Z x0 +ε f (x)g(x) dx = a f (x)g(x) dx > 0, x0 −ε was im Widerspruch zur Voraussetzung steht. Damit muss die Annahme falsch sein. Es gibt also kein x0 ∈ (a, b) mit f (x0 ) 6= 0. q.e.d. Rb Bem 1.19 Aus a f (x)g(x) = 0 folgt nicht zwingend, dass f (x) ≡ 0 oder g(x) ≡ 0 ist. Es ist wichtig, dass das Integral für alle zulässigen g Null ist. 12 HT 2015 1.4 Herleitung der Euler-Lagrange-Differentialgleichung Bsp 1.20 (Gleichgewichtslage einer Saite) In Beispiel 1.13 wurde die Bedingung Z ` Z ` 0=S u0 (x)v 0 (x) dx − f (x)v(x) dx ∀v ∈ V0 (1.2) 0 0 W 1,2 (0, `) hergeleitet, wobei V0 = u ∈ : u(0) = u(`) = 0 . Integriert man den ersten Term partiell, ergibt sich Z ` Z ` ` 0 0 u (x)v (x) dx = − u00 (x)v(x) dx + u0 (x)v(x) . (1.3) 0 0 | {z }0 0 wegen RB Aus (1.2) und (1.3) folgt Z ` [−Su00 (x) − f (x)] v(x) dx 0= ∀v ∈ V0 . 0 Da V0 ⊃ {v ∈ C 2 [0, `] : v(0) = v(`) = v 0 (a) = v 0 (b) = 0} gilt, ist der Fundamentalsatz der Variationsrechnung anwendbar und liefert die Randwertaufgabe −Su00 (x) − f (x) = 0 (Differentialgleichung) u(0) = u(`) = 0 (Randbedingungen) Für die Differentialgleichungsformulierung brauchen wir höhere Glattheit u ∈ C 2 [0, `]. Satz 1.21 Ist die Lösung y0 (x) der Extremalaufgabe Z b J(y) = F (x, y, y 0 ) dx = Extr a im Raum C 2 [a, b] enthalten, dann erfüllt sie die Euler-Lagrange-Differentialgleichung ∂F d ∂F − = 0 ∀x ∈ (a, b). ∂y dx ∂y 0 Beweis Laut Satz 1.11 gilt Z b 0 = δJ(y; v) = a ∂F ∂F v + 0 v0 ∂y ∂y dx ∀v ∈ V0 Die partielle Integration des zweiten Terms liefert Z b Z b ∂F b d ∂F ∂F 0 v dx = v − v dx. 0 0 0 ∂y a a dx ∂y a ∂y Da v(a) = v(b) = 0 ist, folgt weiter Z b ∂F d ∂F 0= − v dx ∂y dx ∂y 0 a ∀v ∈ V0 . Mit dem Fundamentalsatz 1.18 folgt die Behauptung. HT 2015 q.e.d. 13 d d ∂F ∂ E 1.22 Was bedeutet dx ∂y 0 ? Wegen dx (und nicht ∂x ) handelt es sich um eine totale Ableitung, d. h., es muss die Kettenregel angewandt werden. Ist F = F (x, y(x), y 0 (x)), dann ist dF ∂F ∂F dy ∂F dy 0 = + + 0 dx ∂x ∂y dx ∂y dx bzw. ∂ ∂F ∂ ∂F dy d ∂F ∂ ∂F dy 0 = + + dx ∂y 0 ∂x ∂y 0 ∂y ∂y 0 dx ∂y 0 ∂y 0 dx = F,y0 x + F,y0 y y 0 + F,y0 y0 y 00 . Man kann die Euler-Lagrange-Gleichung also auch in der Form F,y − F,y0 x − F,y0 y y 0 − F,y0 y0 y 00 = 0 schreiben. Wir sind bisher die Schritte vom Minimierungsproblem über die Variationsgleichung zur Randwertaufgabe gegangen. Am Ende dieses Abschnitts wollen wir noch diskutieren, ob wir auch von der Randwertaufgabe zur Variationsgleichung bzw. zu einer Minimierungsaufgabe gelangen können. Bsp 1.23 (Von der Randwertaufgabe zur Variationsgleichung) Wir betrachten die Randwertaufgabe 0 − k(x)u0 (x) + c(x)u(x) = f (x) in (0, 1), (1.4) u(0) = u(1) = 0. Wir setzen V0 = {u ∈ W 1,2 (0, 1) : u(0) = u(1) = 0}, multiplizieren die Differentialgleichung (1.4) mit v ∈ V0 und integrieren über das Interval (0, 1). Wir erhalten Z 1 Z 1 Z 1 0 0 − k(x)u (x) v(x) dx + c(x)u(x)v(x) = f (x)v(x) dx ∀v ∈ V0 . 0 0 0 Partielle Integration und Einsetzen der Randwerte liefert für das erste Integral Z 1 Z 1 1 0 0 0 − k(x)u (x) v(x) dx = −k(x)u (x)v(x) 0 + k(x)u0 (x)v 0 (x) dx 0 0 Z 1 = k(x)u0 (x)v 0 (x) dx. 0 Damit lautet die gesuchte Variationsaufgabe Finde u ∈ V0 : Z 1 Z 0 0 k(x)u (x)v (x) + c(x)u(x)v(x) dx = 0 1 f (x)v(x) dx ∀v ∈ V0 . 0 Das zugehörige Extremalproblem (hier Minimumproblem) lautet Finde u ∈ V0 : Z Z 1 1 1 0 2 2 k(x)u (x) + c(x)u(x) dx − f (x)u(x) dx → Extr, J(u) = 2 0 0 was durch Bilden von δJ(u; v) überprüft werden kann. 14 HT 2015 E 1.24 Für die Randwertaufgabe 0 − k(x)u0 (x) + b(x)u0 (x) + c(x)u(x) = f (x) in (0, 1) u(0) = u(1) = 0 ergibt sich die Variationsgleichung Z Z 1 0 0 0 ku v + bu v + cuv dx = 1 f v dx ∀v ∈ V0 . 0 0 Hierzu gibt es aber kein Extremalproblem. Ü 1.25 Man zeige, dass die Kettenlinie y(x) = c cosh x+a c mit geeigneten a und c die Minimalflächenaufgabe aus Beispiel 1.15 löst. HT 2015 15 1.5 Analyse von Spezialfällen Die Euler-Lagrange-Differentialgleichung ist in einigen Fällen analytisch lösbar bzw. vereinfachbar. 1.5.1 F hängt nicht von y 0 ab E 1.26 Die Funktion F habe die Darstellung F (x, y, y 0 ) = F (x, y) In diesem Fall ist die Euler-Lagrange-Gleichung ∂F =0 ∂y keine Differentialgleichung. Das ist bereits eine implizite Darstellung der Extremalen. Bsp 1.27 Wir suchen die Extremalen des Funktionals Z J(y) = b y 3 + 3y(x2 − 1) dx a mit den Randwerten y(a) = ya und y(b) = yb . Mit F (x, y, y 0 ) = y 3 + 3y(x2 − 1) ergibt sich die Euler-Lagrange-Gleichung 0= ∂F d ∂F ∂F − = = 3y 2 + 3(x2 − 1) 0 ∂y dx ∂y ∂y mit den beiden Lösungen p y1,2 (x) = ± 1 − x2 . Im Fall a = −1, b = 1,√ya = yb = 0 sind beide Funktionen Lösungen der √ Extremalaufgabe. Mit J( 1 − x2 ) = . . . < 0 und J(− 1 − x2 ) = . . . > 0 schließen wir auf ein Minimum und ein Maximum. √ Ist zum Beispiel a = 0, b = 1, ya = 1, yb = 0, dann erfüllt nur y = 1 − x2 die Randbedingungen, es gibt nur eine √ Extremale. √ 2 Wenn ya 6= ± 1 − a oder yb 6= ± 1 − b2 ist, dann erfüllt keine der beiden Funktionen die Randbedingungen und es gibt keine Lösung. 16 HT 2015 1.5.2 F ist linear in y 0 E 1.28 Das bedeutet, dass die Funktion F die Darstellung F (x, y, y 0 ) = P (x, y) + Q(x, y)y 0 hat. Die zugehörige Euler-Lagrange-Differentialgleichung lässt durch ∂F ∂P ∂Q 0 = + y ∂y ∂y ∂y ∂F = Q(x, y) ∂y 0 d ∂F ∂Q ∂Q 0 = + y dx ∂y 0 ∂x ∂y herleiten. Damit ergibt sich weiter ∂F d ∂F − ∂y dx ∂y 0 ∂Q 0 ∂Q ∂Q 0 ∂P + y − + y = ∂y ∂y ∂x ∂y ∂P ∂Q = − . ∂y ∂x 0= Die Euler-Lagrange-Differentialgleichung für die betrachtete Funktion F ist ∂P (x, y(x)) ∂Q(x, y(x)) = ∂y ∂x Folgende Fälle können auftreten: ∂Q ∂P 1. Wenn ∂P ∂y 6= ∂x ist, oder ∂y = hat das Problem keine Lösung. ∂Q ∂x nur in einzelnen Punkten gilt, dann ∂Q 2. Wenn ∂P ∂y = ∂x für einzelne Kurven y = y(x) erfüllt ist, dann sind diese Kurven Lösungen der Euler-Lagrange-Differentialgleichung. (Es ist gegebenenfalls noch auszuwählen, welche der Kurven die richtige Extremaleigenschaft besitzt.) ∂Q 3. Wenn ∂P ∂y = ∂x überall erfüllt ist, dann sind alle y ∈ V∗ Lösung der Variationsaufgabe (vgl. Wegunabhängigkeit eines Integrals). Bsp 1.29 Wir suchen die Extremalen des Funktionals Z b J(y) = y 3 + (12x − x3 )y 0 dx a mit den Randwerten y(a) = ya und y(b) = yb . Mit F (x, y, y 0 ) = y 3 + (12x − x3 )y 0 ergibt sich die Euler-Lagrange-Gleichung ∂F d ∂F d − = 3y 2 − (12x − x3 ) ∂y dx ∂y 0 dx = 3y 2 − (12 − 3x2 ) = 3(y 2 + x2 − 4). 0= HT 2015 17 Dies √ ist keine Differentialgleichung. Die Lösungen dieser Gleichung, y1,2 (x) = ± 4 − x2 , können wie in Beispiel 1.27 in Abhängigkeit von den Randbedingungen diskutiert werden (zwei, eine oder keine Extremalen). Bsp 1.30 Wir suchen die Extremalen des Funktionals Z J(y) = b y 2 + cxyy 0 dx, c ∈ R, a mit den Randwerten y(a) = ya und y(b) = yb . Mit F (x, y, y 0 ) = y 2 + cxyy 0 ergibt sich die Euler-Lagrange-Gleichung ∂F d ∂F d − = (2y + cxy 0 ) − (cxy) ∂y dx ∂y 0 dx = 2y + cxy 0 − (cy + cxy 0 ) = (2 − c)y. 0= Für c = 2 sind alle Funktionen, die die Randbedingungen erfüllen, Extremalen. Für c 6= 2 gibt es nur die Lösung y ≡ 0, falls ya = yb = 0 ist. Es gibt keine Lösung, falls ya 6= 0 oder falls yb 6= 0 ist. Bsp 1.31 Wir suchen die Extremalen des Funktionals b Z J(y) = x2 y + xy 0 dx a mit den Randwerten y(a) = ya und y(b) = yb . Mit F (x, y, y 0 ) = x2 y + xy 0 ergibt sich die Euler-Lagrange-Gleichung 0= ∂F d ∂F d − = x2 − x = x2 − 1. ∂y dx ∂y 0 dx Diese Gleichung ist für x 6= ±1 nicht erfüllt, daher gibt es keine Lösung der Variationsaufgabe. Ü 1.32 Diskutieren Sie analog die Extremalen der Funktionale Z J1 (y) = b yy 0 dx Z und J2 (y) = a b xyy 0 dx a mit den Randwerten y(a) = ya und y(b) = yb . 18 HT 2015 1.5.3 F hängt nicht explizit von y ab E 1.33 Die Funktion F habe die Darstellung F (x, y, y 0 ) = F (x, y 0 ) In diesem Fall ist die Euler-Lagrange-Differentialgleichung d ∂F = 0, dx ∂y 0 was zu ∂F = c = const ∂y 0 äquivalent ist. Bsp 1.34 Wir bestimmen den kürzesten Weg zwischen 2 Punkten in der Ebene, d. h. die kürzeste Kurve y(x) vom Punkt (x0 , y0 ) zum Punkt (x1 , y1 ). Sei o.B.d.A. sei x0 < x1 . Die Bogenlänge berechnet sich als Z x1 p J(y) = 1 + y 0 (x)2 dx x0 mit y ∈ V∗ = {y ∈ C 1 (x : y(x0 ) = y0 , y(x1 ) = y1 }. Wir bemerken, dass p F (x, y, y 0 ) = F (y 0 ) = 1 + y 0 (x)2 0 , x1 ) nicht von y abhängt und folgern mit F,y = 0, y0 F,y0 = p 1 + y 02 und Satz 1.21 die Randwertaufgabe d 0− dx ! y0 p 1 + y 02 = 0, y(x0 ) = y0 , y(x1 ) = y1 . Wie in Erklärung 1.33 dargelegt, folgt hieraus sofort y0 p = c, 1 + y02 wobei man in diesem Beispiel für die Konstante c die Beschränkung c ∈ (−1, 1) folgern kann. Diese Differentialgleichung kann man mit den Schritten q y0 = c 1 + y02, 2 2 y 0 = c2 (1 + y 0 ), 2 (1 − c2 )y 0 = c2 , r c2 =: a = const, 1 − c2 y = ax + b, y0 = ± lösen. Die Extremalkurven sind Geraden. Das Einsetzen der Randbedingungen liefert die Lösung y1 − y0 y0 x1 − y1 x0 y= x+ . x1 − x0 x1 − x0 HT 2015 19 1.5.4 F hängt nicht explizit von x ab E 1.35 Die Funktion F habe die Darstellung F (x, y, y 0 ) = F (y, y 0 ). Angewandt auf die Euler-Lagrange-Differentialgleichung in der Form von Erklärung 1.22 bedeutet das 0 = F,y − F,y0 x −F,y0 y y 0 − F,y0 y0 y 00 |{z} (1.5) =0 Damit ergibt sich die Eigenschaft d (F − y 0 F,y0 ) = F,y y 0 + F,y0 y 00 − y 00 F,y0 − y 0 (F,y0 y y 0 + F,y0 y0 y 00 ) dx = y 0 (F,y − F,y0 y y 0 − F,y0 y0 y 00 ) =0 wegen (1.5), das heißt, aus Gleichung (1.5) folgt das Eulersche Zwischenintegral F − y 0 F,y0 = c = const (1.6) in dem alle Extremalen enthalten sind. Wenn möglich, löst man die Gleichung (1.6) nach y 0 auf: y 0 = Φ(y, c). Trennung der Veränderlichen liefert dann dy = Φ(y, c) dx dy = dx Φ(y, c) Z dy x= . Φ(y, c) Man findet also x = x(y), eine ebenso gute Bahngleichung wie y = y(x). 20 HT 2015 Bsp 1.36 (Brachistochrone-Problem) a A x y(x) b B y Wie in Beispiel 1.3 bereits hergeleitet, lautet das Variationsproblem: Finde dasjenige y ∈ V∗ , das das Funktional T (y) minimiert, wobei V∗ = {y ∈ C 1 (0, a) ∩ C[0, a] : y(0) = 0, y(a) = b}, Z as 1 + y 02 T (y) = dx. 2gy 0 Im folgenden wird das äquivalente Zielfunktional Z as 1 + y 02 dx T (y) = y 0 verwendet. Der Integrand F hat die Form s F (x, y, y 0 ) = 1 + y 02 , y hängt also nicht explizit von x ab. Damit muss F − y 0 F,y0 = c = const gelten. Weiter ergibt sich s 1 + y 02 1 y0 − y0 √ p =c y y 1 + y 02 1 + y 02 − y 02 =c √ p y 1 + y 02 1 y(1 + y 02 ) = 2 c ⇔ ⇒ c2 y = ⇒ (Hauptnenner) (Quadrieren, Reziproke) (1.7) 1 . 1 + y 02 (1.8) Wir suchen nun die Lösungskurve in einer Parameterdarstellung [x(t), y(t)]T , für die t y 0 = cot , t ∈ [0, 2π) (1.9) 2 gilt. Damit ergibt sich zum einen sin2 2t 1 1 2 t = t t = sin 2 = 2 (1 − cos t) 2 t 2 2 1 + cot 2 sin 2 + cos 2 dy t t 1 t t c2 = 2 sin cos · = sin cos . dt 2 2 2 2 2 c2 y = ⇒ HT 2015 (1.10) (1.11) 21 Andererseits gilt auch dy dt = y 0 dx dt . Daraus folgt dx 1 dy = 0 dt y dt t t 1 t = tan · 2 sin cos 2 c 2 2 1 2 t = 2 sin c 2 1 1 x(t) = 2 (t − sin t) + c1 c 2 ⇒ mit (1.9) und (1.11) (1.12) Die Gleichungen (1.10) und (1.12) liefern die Parameterdarstellung der Brachistochrone: 1 1 x(t) (t − sin t) + c1 2 = 2 1 . y(t) c 2 (1 − cos t) Die Konstanten sind so zu bestimmen, dass die Kurve durch (0, 0) und (a, b) geht. Aus y = 0 folgt t = 0, also muss x(0) = 0 gelten, und damit c1 = 0. Zur Bestimmung von c ergibt sich das Gleichungssystem 1 (t − sin t) = a 2c2 1 (1 − cos t) = b, 2c2 welches genau eine Lösung (c, t) hat. Brachistochronen 0.5 0 −0.5 −y −1 −1.5 −2 −2.5 −3 0 1 2 3 4 5 6 7 8 x Ü 1.37 Lösen Sie die Variationsaufgabe zum Fermat-Prinzip mit v = v(y), d.h., mit Brechungsindex n(y) = 1/v(y), vgl. Aufgabe 1.6. √ a) v = v(y) = y b) v = v(y) = y Hinweis zu a) Nach dem Aufschreiben des Eulerschen Zwischenintegrals sollten Sie erst einmal durchatmen und kurz nachdenken, ob Ihnen dieses bekannt vorkommt. Zu b) Hier ist die Lösung etwas länger, kann aber mit derselben Substitution wie in Beispiel 1.36 hergeleitet werden. Ü 1.38 Lösen Sie die Variationsaufgabe aus Beispiel 1.15, um die in Aufgabe 1.25 angegebene Funktion herzuleiten. 22 HT 2015 1.6 Variationsaufgaben mit höheren Ableitungen Bsp 1.39 (Balkenbiegung) Wir betrachten einen fest eingespannten Balken der Länge ` mit der Biegesteifigkeit EI, siehe Bild. f (x) 0 ` x Durch eine Streckenlast f (x) wird die Auslenkung y(x) hervorgerufen. Diese minimiert die Formänderungsarbeit Z ` 1 00 2 W (y) = EIy (x) + f (x)y(x) dx 2 0 über der zulässigen Menge5 V0 = {y ∈ W 2,2 (0, `) : y(0) = y 0 (0) = y(`) = y 0 (`) = 0}. E 1.40 (Herleitung der Variationsformulierung) Die Variationsformulierung erhält man wie folgt: 0 = δW (y, v) Z ` d 1 00 00 2 = EI(y + εv ) + (y + εv)f dx dε 0 2 ε=0 Z ` = EIy 00 v 00 + f v dx ∀v ∈ V0 . 0 E 1.41 (Herleitung der Randwertaufgabe) Wir integrieren nun partiell und erhalten mit den Randbedingungen Z ` Z ` ` d EIy 00 v 00 dx = EIy 00 v 0 0 − EIy 00 v 0 dx 0 0 dx ` Z ` 2 d d = − (EIy 00 )v + (EIy 00 )v dx 2 dx dx 0 0 und somit Z l 0= 0 d2 00 (EIy ) + f v dx dx2 ∀v ∈ V0 . Die Randwertaufgabe lautet somit d2 (EIy 00 ) + f = 0 dx2 y(0) = y 0 (0) = y(`) = y 0 (`) = 0 ∀x ∈ (0, `) Falls EI konstant ist, vereinfacht sich die Differentialgleichung zu EIy (4) + f = 0. 5 Der Funktionenraum W 2,2 (0, `) ist die Menge aller Funktionen v(x), für die R` (v(x)2 + v 0 (x)2 + v 00 (x)2 ) dx < ∞ ist. 0 HT 2015 23 E 1.42 (allgemeines Funktional) Wir wollen nun Funktionale der Form Z J(y) = b F (x, y, y 0 , . . . , y (k) ) dx a über der zulässigen Menge6 V0 = {y ∈ W k,2 (a, b) : y (j) (a) = y (j) (b) = 0, j = 0, . . . , k − 1} minimieren. Die Variationsformulierung erhält man, indem man die erste Variation gleich Null setzt, d J(y + εv) 0 = δJ(y, v) = dε ε=0 Z b ∂F ∂F 0 ∂F (k) dx ∀v ∈ V0 . (1.13) = v + 0 v + . . . + (k) v ∂y ∂y ∂y a Durch partielle Integration und unter Ausnutzung der Randbedingung von v ∈ V0 erhält man Z b Z b Z b ∂F 0 ∂F b d ∂F d ∂F v dx = v − v dx = − v dx, 0 0 0 0 ∂y a a ∂y a dx ∂y a dx ∂y Z b Z b Z b ∂F 0 b d ∂F 0 d ∂F 0 ∂F 00 v dx = v − v dx = − v dx 00 00 00 ∂y ∂y dx ∂y dx ∂y 00 a a a a Z b 2 Z b 2 d ∂F b d ∂F d ∂F = − v + v dx = v dx, 00 2 00 2 00 dx ∂y a a dx ∂y a dx ∂y das heißt allgemein Z a b ∂F (j) v dx = (−1)j ∂y (j) Z b a dj ∂F v dx. dxj ∂y (j) Ist F hinreichend oft differenzierbar, gilt also Z b k ∂F ∂F d ∂F k d 0= − ± . . . + (−1) v dx, ∂y dx ∂y 0 dxk ∂y (k) a woraus mit dem Hauptsatz der Variationsrechnung die Randwertaufgabe k ∂F ∂F d ∂F k d − ± . . . + (−1) ∂y dx ∂y 0 dxk ∂y (k) = 0 y (j) (a) = y (j) (b) = 0 ∀x ∈ (a, b), (1.14) j = 0, . . . , k − 1 (1.15) folgt. 6 Der Funktionenraum W k,2 (a, b) ist die Menge aller Funktionen v(x), für die Rb (v(x)2 + v 0 (x)2 + · · · + v (k) (x)2 ) dx < ∞ ist. a 24 HT 2015 Bsp 1.43 Die Lösung u der Randwertaufgabe −u00 = f in (a, b), u(a) = u(b) = 0, minimiert das Kleinste-Quadrate-Funktional 1 J(u) = 2 Z b (u00 + f )2 dx a über V0 = {v ∈ W 2,2 (a, b) : v(a) = v(b) = 0}. Dabei ist der Funktionenraum W 2,2 (a, b) der Raum der Funktionen, deren sämtliche Ableitungen bis 2. Ordnung quadratisch integrierbar sind, d.h., n o W 2,2 (a, b) := v : kvk2,2 < ∞ , Z b 2 v(x)2 + v 0 (x)2 + v 00 (x)2 dx. kvk2,2 := a Diese Formulierung der Randwertaufgabe als Minimierungsproblem ist Ausgangspunkt für das numerische Lösungsverfahren least squares finite element method, übersetzt etwa Kleinste-Quadrate-Finite-Elemente-Methode. HT 2015 25 1.7 Variationsaufgaben mit Funktionen in mehreren Variablen E 1.44 (Minimierungsproblem) In diesem Abschnitt suchen wir Funktionen u(~x) mit ~x = (x1 , . . . , xd ) ∈ Ω ⊂ Rd , d ≥ 2. Zu minimieren ist das Funktional Z F (~x, u, ∇u) dΩ J(u) = Ω über dem zulässigen Bereich V∗ = v ∈ W 1,2 (Ω) : v = g auf ∂Ω , wobei W 1,2 (Ω) wieder der Raum der Funktionen mit beschränkter Energie ist, Z 1,2 2 2 W (Ω) = v : |v| + |∇v| dΩ < ∞ . Ω E 1.45 (Herleitung der Variationsformulierung) Zur Herleitung der ersten Variation schreiben wir das Funktional besser in der Form Z ∂u ∂u F x1 , . . . , xd , u, J(u) = dΩ ,..., ∂x1 ∂xd Ω und erhalten Z d ∂(u + εv) ∂(u + εv) δJ(u, v) = F x1 , . . . , xd , u + εv, ,..., dΩ dε Ω ∂x1 ∂xd ε=0 Z ∂F ∂F ∂F = v+ v,1 + . . . + v,d dΩ. ∂u ∂u,1 ∂u,d Ω Die Variationsgleichung lautet also Z ∂F ∂F ∂F v+ v,1 + . . . + v,d dΩ = 0 ∀v ∈ V0 . ∂u ∂u,1 ∂u,d Ω E 1.46 (Herleitung der Differentialgleichung) Die Euler-Lagrange-Differentialgleichung erhält man mit Hilfe der Formel Z Z Z ∂v ∂w w wvnj ds − v dΩ = dΩ, j = 1, . . . , d, Ω ∂xj Ω ∂xj ∂Ω (partielle Integration), wobei nj die j-te Komponente des Normalenvektors an ∂Ω bezeichnet. Ist v ∈ V0 = {v ∈ W 1,2 (Ω) : v = 0 auf ∂Ω} dann verschwindet das Randintegral. Bei hinreichender Glattheit von F erhalten wir aus der Variationsgleichung die Gleichung Z ∂ ∂F ∂ ∂F ∂F − − ... − v dΩ = 0 ∀v ∈ V0 ∂u ∂x1 ∂u,1 ∂xd ∂u,d Ω und damit die Differentialgleichung ∂F ∂ ∂F ∂ ∂F − − ... − = 0. ∂u ∂x1 ∂u,1 ∂xd ∂u,d Zusammen mit der entsprechenden Randbedingung ergibt sich eine Randwertaufgabe. 26 HT 2015 Bsp 1.47 (Minimalflächen, das Plateauproblem) (nach J. Plateau, 1801 – 1883) Man sucht unter allen regulären Flächen, die von einer Raumkurve C berandet werden, diejenige(n) Fläche(n) Φ mit minimalen Flächeninhalt (vgl. Seifenblase). C Sei der Einfachheit halber die Fläche im kartesischen Koordinatensystem als Funktion z = z(x, y) darstellbar, Φ = {(x, y, z) ∈ R3 : (x, y) ∈ Ω, z = z(x, y)}, C = {(x, y, z) ∈ R3 : (x, y) ∈ ∂Ω, z = z0 (x, y)}, wobei die den Rand definierende Funktion z0 gegeben ist. Dann ist der Flächeninhalt der gesuchten Fläche Z q 2 + z 2 dx dy. J(z) = 1 + z,x ,y Ω Die Variationsgleichung lautet Z z,x v,x + z,y v,y q δJ(z, v) = dx dy = 0 ∀v ∈ V0 , 2 + z2 Ω 1 + z,x ,y und die zugehörige Differentialgleichung ist z,x ∂ − ∂ q 0=− ∂x ∂y 1 + z2 + z2 ,x ,y z,y p 1 + z,x + z,y ! . Man könnte weiter umformen: z,x z ∂ ∂ ,y + q q 0 = ∂x ∂y 2 2 2 + z2 1 + z,x + z,y 1 + z,x ,y q z,y z,x 2 2 z,xx 1 + z,x + z,y − z,x √ 2 2 z,xx + √ 2 2 z,xy 1+z,x +z,y 1+z,x +z,y = 2 + z2 1 + z,x ,y q z,x z,xy z,y z,yy 2 + z2 − z √ √ z,yy 1 + z,x + ,y ,y 2 +z 2 2 +z 2 1+z,x 1+z,x ,y ,y + 2 2 1 + z,x + z,y 2 2 0 = z,xx 1 + z,x + z,y − z,x (z,x z,xx + z,y z,xy ) 2 2 + z,y +z,yy 1 + z,x − z,y (z,x z,xy + z,y z,yy ) 2 2 = z,xx 1 + z,y − 2z,x z,y z,xy + z,yy 1 + z,x . HT 2015 27 Ü 1.48 (Plattenbiegung (nach Kirchhoff)) Das Funktional für die Auslenkung u(x, y) lautet # 2 Z " 2 ∂ u ∂2u + 2 J(u) = − 2p(x, y)u(x, y) dx dy, ∂x2 ∂y Ω wobei p(x, y) den Druck auf die Platte bezeichnet. Man leite die Euler-LagrangeGleichung her. Es ist zu beachten, dass das der Integrand ∂2u ∂2u F = F u, 2 , 2 ∂x ∂y von zweiten Ableitungen abhängt. Funktionale mit höheren Abteilungen haben wir in Abschnitt 1.6 besprochen. Ü 1.49 (Alte Klausuraufgabe) Die Lösung u der Randwertaufgabe − ∆u = f in Ω, u = 0 auf ∂Ω, (1.16) minimiert das Kleinste-Quadrate-Funktional Z 1 J(u) = (∆u + f )2 dx 2 Ω über V0 = {v ∈ W 2,2 (Ω) : v = 0 auf ∂Ω}. (a) Leiten Sie die Variationsformulierung her. (b) Leiten Sie die daraus entstehende Randwertaufgabe her. (Es ist nicht (1.16).) (c) Wie lauten der Ritz- und der Galerkin-Ansatz für diese Aufgabe? (Im Falle eines Finite-Elemente-Ansatzes spricht man von der least squares finite element method, übersetzt etwa Kleinste-Quadrate-Finite-ElementeMethode.) Hinweis: Es gilt die Integralidentität Z Z Z ∂v w∆v dx = w dS − ∇w · ∇v dx, Ω ∂Ω ∂n Ω ∂v = ∇v · ~n die Normalenableitung bezeichnet, das ist die auf ∂Ω defiwobei ∂n nierte Ableitung der Funktion v in Richtung der äußeren Normalen ~n. 28 HT 2015 2 Variationsprobleme mit freien Randbedingungen Bsp 2.1 (Prinzip der minimalen Formänderungsarbeit) Gegeben ist ein Zylinder aus isotropem Material mit Höhe h, Querschnitt A, Dichte ρ und Elastizitätsmodul E. x Der Zylinder steht senkrecht auf der Unterlage und wird durch sein Eigengewicht und eine Last L auf der Oberseite deformiert. Die Schicht in Höhe x wird um y(x) nach unten verschoben. Die Formänderungsarbeit durch die Lageänderung y(x) und Dehnung y 0 (x) ist Z W (y) = A 0 h 0 2 1 2 E(y (x)) + ρgy dx + Ly(h). Die zugehörige Variationsaufgabe ist W (y) = min!, wobei y(0) = 0. Es gibt keine Bedingung für y(h), denn dort ist nicht die Verschiebung sondern eine Kraft vorgegeben, und diese geht ins Funktional (in die Formänderungsarbeit) ein. E 2.2 (Herleitung der Variationsaufgabe im Beispiel 2.1) Funktionenraum ist hier V0 = v ∈ W 1,2 (0, h) : v(0) = 0 . Der passende Wir leiten nun die Variationsgeichung her. Mit Z h 1 d 0 0 2 δW (y; v) = E(y + εv ) + ρg(y + εv) dx + L[y(h) + εv(h)] A 2 dε 0 ε=0 Z h =A E(y 0 + εv 0 )v 0 + ρgv dx + Lv(h) 0 Z =A ε=0 h Ey 0 v 0 + ρgv dx + Lv(h) 0 folgt die Variationsaufgabe Z Finde y ∈ V0 : EA 0 0 Z y v dx = −gA 0 HT 2015 h h ρv dx − Lv(h) ∀v ∈ V0 . 0 29 E 2.3 (Herleitung der Randwertaufgabe im Beispiel 2.1) Wir betrachten die Variationsaufgabe h Z Z 0 0 h ρv dx − Lv(h) ∀v ∈ V0 . y v dx = −gA Finde y ∈ V0 : EA 0 0 Durch partielle Integration erhält man die Beziehung h Z h Z h 00 ρv dx − Lv(h) EAy v − EA y v dx = −gA 0 0 0 Z h Z h 0 00 EAy (h)v(h) − EA y v dx = −gA ρv dx − Lv(h), 0 0 (2.1) 0 die für alle v ∈ V0 = v ∈ W 1,2 (0, h) : v(0) = 0 gilt. Wir betrachten nun beliebige Funktionen v ∈ v ∈ W 1,2 (0, h) : v(0) = 0, v(h) = 0 ⊂ V0 . Für diese gilt h Z 00 Z y v dx = −gA −EA 0 h ρv dx, 0 also mit dem Fundamentalsatz der Variationsrechnung (Satz 1.18) Ey 00 (x) = gρ ∀x ∈ (0, h). Setzt man diese Beziehung nun wieder in Gleichung (2.1) ein, erhält man EAy 0 (h)v(h) = −Lv(h), also die Neumann-Randbedingung EAy 0 (h) = L. Die vollständige Randwertaufgabe lautet Ey 00 = gρ ∀x ∈ (0, h), y(0) = 0, EAy 0 (h) = −L. Die neue Randbedingung modelliert das Kräftegleichgewicht am Rand: das Gewicht −L ist gleich der Randspannung EAy 0 (h). Wenn keine Last aufliegt (L = 0), dann hält man auf diese Art und Weise die homogene Neumann-Randbedingung y 0 (h) = 0 am freien Rand. Bem 2.4 Man kann einer Differentialgleichung der Form Ey 00 = gρ nicht beidseits eine homogene Neumann-Randbedingung fordern, y 0 (0) = y 0 (h) = 0, denn dann würde nach Integration der Differentialgleichung über das Intervall (0, h) die Gleichung Ey 0 (h) − Ey 0 (0) = ρgh folgen, wobei die linke Seite gleich Null wäre, aber die rechte nicht. 30 HT 2015 E 2.5 (allgemeiner Fall, homogene Neumann-Randbedingung) Wir betrachten das Extremalproblem Finde y ∈ V0 : J(y) = Extr, Z b F (x, y, y 0 ) dx, J(y) = a V0 = y ∈ W 1,2 (a, b) : y(a) = 0 . Die erste Variation kann wie in Erklärung 1.14 hergeleitet werden, so dass die Variationsgleichung δJ(y; v) = 0 die Form Z b 0= a ∂F ∂F v + 0 v0 ∂y ∂y dx ∀v ∈ V0 besitzt. Die zugehörige Euler-Lagrange-Gleichung erhält man wieder durch partielle Integration, wobei dieses Mal nicht alle Randterme verschwinden: Z b ∂F b ∂F d ∂F 0 = δJ(y; v) = 0 v + v dx − ∂y a ∂y dx ∂y 0 a Z b ∂F ∂F d ∂F 0 = 0 (b, y(b), y (b)) · v(b) + − v dx. ∂y ∂y dx ∂y 0 a Diese Gleichung gilt für alle v ∈ V0 , insbesondere auch für alle v ∈ V0 mit v(b) = 0, Z b 0= a d ∂F ∂F − ∂y dx ∂y 0 v dx ∀v ∈ V0 : v(b) = 0. Daraus folgt die Euler-Lagrange-Gleichung ∂F d ∂F − = 0 ∀x ∈ (a, b). ∂y dx ∂y 0 Für alle v ∈ V0 mit v(b) 6= 0 gilt also 0= ∂F (b, y(b), y 0 (b)) · v(b), ∂y 0 woraus die natürliche Randbedingung am Rand b, ∂F (b, y(b), y 0 (b)) = 0, ∂y 0 folgt. Die zugehörige Randwertaufgabe lautet somit Finde y(x) : ∂F d ∂F − = 0 ∀x ∈ (a, b), ∂y dx ∂y 0 y(a) = 0, ∂F (b, y(b), y 0 (b)) = 0. ∂y 0 HT 2015 31 E 2.6 (allgemeiner Fall, Randbedingung 2./3. Art) Sei V = W 1,2 (a, b) (ohne Randbedingungen) und das Funktional Z b J(y) = F (x, y, y 0 ) dx + G(y(a)) − H(y(b)) a zu minimieren, wobei G und H stetig differenzierbare Funktionen einer Veränderlichen seien. Dann ist d 0 = δJ(y, v) = J(y + εv) dε ε=0 Z b ∂F ∂F G0 (y(a))v(a) v + 0 v 0 dx + − H 0 (y(b))v(b) . 0 = | {z } {z } | ∂y ∂y a | {z } = d G(y(a)+εv(a))| = d H(y(b)+εv(b))| dε gewohnter T erm ε=0 dε ε=0 Die Randwertaufgabe erhält man wieder mit partieller Integration und Fundamentalsatz der Variationsrechnung Z b ∂F ∂F b d ∂F v + v dx + G0 (y(a))v(a) − H 0 (y(b))v(b), 0 = − ∂y 0 a ∂y dx ∂y 0 a Z b ∂F d ∂F = − v dx + ∂y dx ∂y 0 a ∂F ∂F 0 0 0 0 + G (y(a)) − 0 (a, y(a), y (a)) v(a) − H (y(b)) − 0 (b, y(b), y (b)) v(b), ∂y ∂y also ∂F d ∂F − ∂y dx ∂y 0 = 0 ∀x ∈ (a, b), ∂F (a, y(a), y 0 (a)) = 0, ∂y 0 ∂F H 0 (y(b)) − 0 (b, y(b), y 0 (b)) = 0. ∂y G0 (y(a)) − Ü 2.7 Sei V0 = {u ∈ W 1,2 (0, 1) : u(0) = 0}, Z 1 (u0 (x)2 − sin πxu(x)) dx + u(1)2 − 4u(1). J(u) = 0 Formulieren Sie die Variationsgleichung und die Randwertaufgabe. Ü 2.8 Wir betrachten noch einmal das Beispiel 1.39, Balkenbiegung, jedoch (a) mit einem freien Rand bzw. (b) gelenkig gelagert. Man leite die Randwertaufgabe (insbesondere die richtige Randbedingung) her. (a) (b) f (x) f (x) 0 0 32 ` ` x x HT 2015 3 Das Hamilton-Prinzip 3.1 Einführung Bsp 3.1 Gesucht ist die Bahnkurve ~x(t) = x1 (t) x2 (t) eines Massepunktes im R2 mit Anfangspunkt ~x(0) = ~x0 und Endpunkt ~x(T ) = ~xT . Die kinetische Energie ist T (~x, ~x˙ ) = 21 m(ẋ21 + ẋ22 ), die potentielle Energie U (~x) = mgx2 . Die freie Energie im System zum Zeitpunkt t ist dann gegeben durch die Lagrange-Funktion L(~x, ~x˙ ) = T (~x, ~x˙ ) − U (~x) = 21 m(ẋ21 + ẋ22 ) − mgx2 . Das Integral Z W = T L(~x, ~x˙ ) dt 0 heißt Wirkung oder das Wirkungsintegral . E 3.2 (Hamilton-Prinzip) Das Hamilton-Prinzip (Prinzip der kleinsten Wirkung) besagt, dass in konservativen Systemen die Bewegung eines Systems zwischen zwei möglichen Lagen mit minimaler Wirkung abläuft [MV01, §13.4.2], W = min! siehe auch http://www.arxiv.org/abs/physics/0504016. Bsp 3.3 (Fortsetzung von Beispiel 3.1) Wir minimieren das Wirkungsintegral Z T 2 2 1 W (~x) = 2 m(ẋ1 + ẋ2 ) − mgx2 dt 0 bezüglich V∗ = {~x ∈ C 1 [0, T ]2 : ~x(0) = ~x0 , ~x(T ) = ~xT }. Mit V0 = {~x ∈ C 1 [0, T ]2 : ~x(0) = ~0, ~x(T ) = ~0} lautet die Variationsgleichung d 0 = δW (~x, ~v ) = W (~x + ε~v ) dε ε=0 Z T d 2 2 1 = m (ẋ1 + εv̇1 ) + (ẋ2 + εv̇2 ) − mg(x2 + εv2 ) dt 2 dε 0 ε=0 Z T 1 = 2 m 2(ẋ1 + εv̇1 )v̇1 + 2(ẋ2 + εv̇2 )v̇2 − mgv2 dt 0 ε=0 Z T = m(ẋ1 v̇1 + ẋ2 v̇2 ) − mgv2 dt ∀~v ∈ V0 . 0 HT 2015 33 Die Randwertaufgabe erhält man wieder über partielle Integration, Z T m(ẋ1 v̇1 + ẋ2 v̇2 ) − mgv2 dt h iT Z T m(ẍ1 v1 + ẍ2 v2 ) + mgv2 dt = mẋ1 v1 + mẋ2 v2 − 0 0 Z T = − m(ẍ1 v1 + ẍ2 v2 ) + mgv2 dt 0 = 0 0 Setzen wir v2 ≡ 0 und variieren v1 , erhalten wir mit dem Fundamentalsatz mẍ1 = 0. Analog setzen wir v1 ≡ 0, variieren v2 und erhalten mẍ2 + mg = 0. Mit den Randbedingungen ~x(0) = ~x0 und ~x(T ) = ~xT ist das System vollständig beschrieben. Bem 3.4 Wir haben hier eine Variationsaufgabe mit Vektorfunktionen analysiert. E 3.5 (Allgemeiner Fall einer Variationsaufgabe mit Vektorfunktionen) Wir suchen eine Vektorfunktion ~x(t), die das Funktional Z J(~x) = b F (t, ~x(t), ~x˙ (t)) dt a minimiert. Durch Nullsetzen der ersten Variation erhält man die Variationsgleichung 0 = δJ(~x, ~v ) Z b d = F (t, ~x(t) + ε~v (t), ~x˙ (t) + ε~v˙ (t)) dt dε a ε=0 # Z b "X n ∂F ∂F = vi (t) + v̇i dt ∂xi ∂ ẋi a i=1 und nach partieller Integration, ( ) # Z b Z b "X n n X ∂F ∂F b ∂F d ∂F ∂F vi (t) + v̇i dt = vi + − vi dt , ∂xi ∂ ẋi ∂ ẋi a ∂xi dt ∂ ẋi a a i=1 i=1 die Euler-Lagrange-Gleichungen ∂F d ∂F − = 0, ∂xi dt ∂ ẋi i = 1, . . . , n. Anfangs- oder Randbedingungen muss man extra diskutieren, siehe Beispiel 3.3, aber auch Erklärung 3.6. 34 HT 2015 3.2 Das Hamilton-Prinzip bei Schwingungsproblemen E 3.6 Das Hamilton-Prinzip ist zunächst für die Bewegung eines Systems zwischen zwei gegebenen Lagen formuliert. Wenn man es für ein System mit vollständig beschriebenen Anfangszustand und beliebigen Endzustand benutzt, kann man damit nur die Differentialgleichung herleiten. Die Anwendung der Technik aus Kapitel 2 würde zu einer falschen Randbedingung am oberen Intervallende führen. Bsp 3.7 (Einmassenschwinger) Eine Masse schwingt um die Ruhelage. Es bezeichne x(t) die Auslenkung, m die Masse und k die Federkonstante. x 0 Dann gilt ⇒ T = U = L = 2 1 2 mẋ(t) 2 1 2 kx(t) 2 1 2 mẋ − kx2 Damit ergibt sich das Wirkungsintegral Z t0 1 (mẋ2 − kx2 ) dt. W (x) = 2 0 Definiert man V∗ = x(t) ∈ C 1 [0, t0 ] : x(0) = x0 , ẋ(0) = v0 , wobei x0 die Anfangsauslenkung und v0 die Anfangsgeschwindigkeit bezeichnen, so lautet die Variationsaufgabe für den dargestellten Massenschwinger Finde x∗ ∈ V∗ : W (x∗ ) = min! Ü 3.8 Leiten Sie die Differentialgleichung her. HT 2015 35 Zur weiteren Übung betrachten wir ein Beispiel mit einem Mehrmassenschwinger. Bsp 3.9 (Mehrmassenschwinger) Wir betrachten ein schwingendes System aus 2 Körpern mit der Masse m und drei Federn mit der Federkonstante k, wie im Bild gezeigt. k m k m x1 k x2 Die Auslenkungen der Massepunkte aus der Ruhelage werden mit x1 (t) und x2 (t) bezeichnet, die zu einem Vektor ~x(t) = x1 (t) x2 (t) zusammengefasst werden. Durch eine vorgegebene Anfangsauslenkung und eine Anfangsgeschwindigkeit ~x(0) = ~x0 , ~x˙ (0) = ~v0 wird das System in Schwingung versetzt. Wir wollen die Bewegungsgleichungen über das Hamiltonprinzip herleiten. Mit der kinetischen Energie T (t) = m ẋ1 (t)2 + ẋ2 (t)2 2 und der potentiellen Energie U (t) = k x1 (t)2 + (x2 (t) − x1 (t))2 + x2 (t)2 2 erhalten wir das Wirkungsfunktional Z τ W (~x) = (T − U ) dt 0 Z τ k m 2 2 2 2 2 = ẋ1 (t) + ẋ2 (t) − x1 (t) + (x2 (t) − x1 (t)) + x2 (t) dt, 2 2 0 für welches wir einen stationären Punkt suchen. 36 HT 2015 Herleitung der Variationsformulierung Dazu bestimmen wir die erste Variation und setzen sie gleich Null: d 0 = δW (~x, ~v ) = W (~x + ε~v ) dε ε=0 Z τn h i d m 2 = (ẋ1 + εv̇1 ) + (ẋ2 + εv̇2 )2 dε 0 2 h io k 2 2 2 − (x1 + εv1 ) + (x2 − x1 + ε(v2 − v1 )) + (x2 + εv2 ) dt 2 ε=0 Z τn h i m = 2 (ẋ1 + εv̇1 ) v̇1 + 2 (ẋ2 + εv̇2 ) v̇2 2 0 i kh − 2(x1 + εv1 )v1 + 2(x2 − x1 + ε(v2 − v1 ))(v2 − v1 ) + 2(x2 + εv2 )v2 dt 2 ε=0 Z τn o = m ẋ1 v̇1 + ẋ2 v̇2 − k x1 v1 + (x2 − x1 )(v2 − v1 ) + x2 v2 dt (3.1) 0 ∀v1 , v2 ∈ V0 = v ∈ C 1 (0, τ ) : v(0) = v̇(0) = v(τ ) = 0 . Wir können nun v2 (t) ≡ 0 setzen und nur v1 variieren bzw. v1 (t) ≡ 0 setzen und v2 variieren. Dann erhalten wir statt der Variationsformulierung (3.1) eine Formulierung mit den beiden Variationsgleichungen Z τ 0 = {mẋ1 v̇1 − k(2x1 − x2 )v1 } dt ∀v1 ∈ V0 0 Z τ {mẋ2 v̇2 − k(2x2 − x1 )v2 } dt ∀v2 ∈ V0 . 0 = 0 Herleitung der Differentialgleichung Wir starten mit einer der beiden Variationsformulierungen, zum Beispiel (3.1), und integrieren partiell, Z τn o 0 = m ẋ1 v̇1 + ẋ2 v̇2 − k x1 v1 + (x2 − x1 )(v2 − v1 ) + x2 v2 dt 0 Z τn o m ẍ1 v1 + ẍ2 v2 + k x1 v1 + (x2 − x1 )(v2 − v1 ) + x2 v2 dt = − 0 ∀v1 , v2 ∈ V0 = v ∈ C 1 (0, τ ) : v(0) = v̇(0) = v(τ ) = 0 Wenn wir v2 (t) ≡ 0 setzen und nur v1 variieren, erhalten wir 0 = mẍ1 + k x1 − (x2 − x1 ) = mẍ1 + 2kx1 − kx2 . Wenn wir andererseits v1 (t) ≡ 0 setzen und v2 variieren, erhalten wir die zweite Gleichung 0 = mẍ2 (t) + k[(x2 − x1 ) + x2 ] = mẍ2 + 2kx2 − kx1 . Damit haben wir das System der Bewegungsgleichungen hergeleitet, ẍ1 2 −1 x1 m +k = 0. ẍ2 −1 2 x2 HT 2015 37 Bsp 3.10 (Schwingende Saite) Wir betrachten eine schwingende Saite, die bei x = 0 und x = ` eingespannt ist. Wir bezeichnen mit N die Spannkraft und mit ρ(x) die lineare Massendichte. Die Saite erhält zum Zeitpunkt t0 eine Anfangsauslenkung u0 (x) und eine Anfangsgeschwindigkeit v0 (x). Gesucht ist die Auslenkung u(x, t) für x ∈ (0, `) und t ∈ (t0 , t1 ]. u | ` 0 x Die zweite unabhängige Variable ist hier die Zeit t, so dass das betrachtete Gebiet Q = (0, `) × (t0 , t1 ] ⊂ R2 ist. Zur Lösung der Aufgabe wollen wir das Hamilton-Prinzip anwenden. Die potentielle Energie entspricht der Formänderungsarbeit und berechnet sich zu Z ` Z ` q Z ` U = N ds − ` = N 1 dx 1 + u2,x dx − 0 0 0 Z ` 1 2 ≈ N 1 + u,x − 1 dx 2 0 Z ` N = u2 dx 2 0 ,x Die kinetische Energie ist Z 1 ` 2 ρ u,t dx, T = 2 0 so dass nach dem Hamilton-Prinzip ein Minimum des Funktionals Z t1 Z Z 1 t1 ` (T − U ) dt = ρ u2,t − N u2,x dx dt 2 t0 0 t0 bezüglich V0 = Z t1 Z v: t0 ` 2 v + u2,x + u2,t dx dt < ∞ 0 zu finden ist. Mit der allgemeinen Theorie für F (x, t, u, u,x , u,t ) = ∂F =0 ∂u ∂F = −N u,x ∂u,x 1 2 ρ u2,t − N u2,x und ∂F = ρ u,t ∂u,t erhalten wir die Differentialgleichung (Schwingungsgleichung) ∂ ∂u ∂ ∂u −N − ρ 0 = − ∂x ∂x ∂t ∂t 2 2 ∂ u ∂ u = N 2 − ρ 2 falls N 6= N (x), ρ 6= ρ(t). ∂x ∂t Analog kann man für eine schwingende Membran die Differentialgleichung 2 ∂u ∂ u ∂2u E + 2 − ρ(x, y) 2 = 0 2 ∂x ∂y ∂t herleiten. 38 HT 2015 Ü 3.11 (Doppelpendel) Für die kinetische und die potentielle Energie gilt: T = U = ψ ` 1 1 M Lϕ̇ + `ψ̇ + m `ψ̇ , 2 2 1 1 2 2 M g Lϕ + `ψ + mg`ψ 2 . 2 2 2 2 Man leite mit dem Hamilton-Prinzip die Bewegungsgleichungen ab. m ϕ L M HT 2015 39 4 Querbezüge zur Numerik 4.1 Das Ritz-Verfahren als Näherungsverfahren auf der Basis des Minimierungsproblems Die meisten Variationsprobleme lassen sich analytisch nicht lösen. Wir wollen deshalb auch grundlegende numerische Verfahren kennen und einordnen lernen. E 4.1 (Grundidee) Ausgangspunkt ist das Minimumproblem Finde u∗ ∈ V∗ : J(u∗ ) = min J(u). (4.1) u∈V∗ Nach W. Ritz (1878–1909) ist die Idee benannt, das Problem (4.1) in einem endlich-dimensionalen Teilraum V∗,n ⊂ V∗ zu behandeln: Finde u∗,n ∈ V∗,n : J(u∗,n ) = min J(un ) (4.2) un ∈V∗,n E 4.2 (Konstruktionsprinzip von V∗,n ) Von der Struktur her ist V0 ein linearer Raum (insbesondere sind Linearkombinationen von Elementen aus V0 wieder in V0 ), aber V∗ ein affiner Raum (auch lineare Mannigfaltigkeit ). Das bedeutet, dass sich jedes Element v ∈ V∗ als Summe v = v∗ + v0 darstellen lässt, wobei v∗ ein festes Element aus V∗ ist und v0 ∈ V0 aus einem linearen Raum stammt. Der affine Raum V∗,n sollte dann die Struktur V∗,n = {v = v∗ + v0,n ∈ V∗ : v0,n ∈ V0,n } haben, wobei V0,n ein endlichdimensionaler Teilraum von V0 ist. Einen n-dimensionalen Teilraum von V0,n ⊂ V0 konstruiert man durch die Angabe von n linear unabhängigen Basisfunktionen ϕ1 , . . . , ϕn , ( ) n X V0,n = span{ϕ1 , . . . , ϕn } = v : v = αi ϕi , αi ∈ R . i=1 Seien v∗ ∈ V∗ und ϕ1 , . . . , ϕn ∈ V0 linear unabhängige Funktionen, dann ist ( ) n X V∗,n = v : v = v∗ + α i ϕi , α i ∈ R (4.3) i=1 = v∗ + span{ϕ1 , . . . , ϕn } ⊂ V∗ . Folgerung 4.3 (Ritz-Gleichungssystem) Mit (4.3) ist (4.2) äquivalent zu Finde α1 , . . . , αn : J v∗ + n X αi ϕi → min . i=1 Man hat folglich das Gleichungssystem n X ∂ J v∗ + αi ϕi = 0, ∂αj j = 1, . . . , n, (4.4) i=1 zu lösen. 40 HT 2015 E 4.4 1. Für zahlreiche interessante Funktionale, z. B. bei der Gleichgewichtslage einer Saite/Membran, ist (4.4) ein lineares Gleichungssystem. 2. Die Funktionen v∗ , ϕ1 , . . . , ϕn sollten so gewählt werden, das u∗ möglichst gut approximiert wird. 3. Die Funktion v∗ ist nur dafür da, dass u∗,n die Randbedingungen erfüllt, kann also z. B. als Polynom 1. Grades gewählt werden (im Eindimensionalen). Bsp 4.5 Gesucht ist u∗ ∈ V∗ = {u ∈ C 1 [−1, 1] : u(−1) = 0, u(1) = 2}, so dass Z 1 2 1 0 J(u∗ ) = min J(u), J(u) = u (x) + 3u(x) sin πx dx 2 u∈V∗ −1 (a) Sei v∗ (x) = 1 + x, ϕ1 (x) = 1 − x2 , ϕ2 (x) = x(1 − x2 ). Für alle u2 (x) = (1 + x) + α1 (1 − x2 ) + α2 x(1 − x2 ) gilt J(u2 ) = 1 + 6 4 2 4 2 36 + α + α + α2 . π 3 1 5 2 π3 Das kann mit dem folgenden matlab-Skript berechnet werden. syms x a l p h a 1 a l p h a 2 u=1+x+a l p h a 1 ∗(1−xˆ2)+ a l p h a 2 ∗x∗(1−x ˆ 2 ) ; u s t r i c h=d i f f ( u , x ) ; J=i n t ( 0 . 5 ∗ u s t r i c h ˆ2+3∗u∗ sin ( pi ∗x ) , x , − 1 ,1) Aus ∂J(u2 ) ∂α1 = 0 und ∂J(u2 ) ∂α2 = 0 folgt α1 = 0, α2 = − 45 . 2π 3 s o l v e ( d i f f ( J , a l p h a 1 ) ) % h a e n g t h i e r n i c h t von a l p h a 2 ab s o l v e ( d i f f ( J , a l p h a 2 ) ) % h a e n g t h i e r n i c h t von a l p h a 1 ab Die Näherungslösung ist also u∗,n = u∗,2 = 1 + x − 45 x(1 − x2 ), 2π 3 wobei J(u∗,2 ) ≈ 2,4886 ist. (b) Sei v∗ (x) = 1 + sin π2 x, ϕ1 (x) = sin πx, ϕ2 (x) = sin 2πx. Für u2 (x) = 1 + sin π2 x + α1 sin πx + α2 sin 2πx gilt J(u2 ) = 3α1 + Aus ∂J(u2 ) ∂α1 = 0 und 8 π2 1 2 2 2 4 + + α1 π + 2π 2 α22 + α1 π − α2 π π 8 2 3 15 ∂J(u2 ) ∂α2 = 0 folgt α1 = − HT 2015 9 + 2π , 3π 2 α2 = 1 . 15π 41 Die Näherungslösung ist also u∗,n = u∗,2 = 1 + sin π2 x − 9 + 2π 1 sin πx + sin 2πx, 3π 2 15π wobei J(u∗,2 ) ≈ 2,4565 ist. Variante (b) liefert die bessere Approximation, da der Funktionalwert kleiner ist. Man kann in diesem einfachen Beispiel die Euler-Differentialgleichung −u00 + 3 sin πx = 0 auch exakt lösen und erhält u∗ = 1 + x − π32 sin πx und J(u∗ ) ≈ 2,4539, was uns eine Vorstellung über die Genauigkeit der Lösung gibt. (c) Sei allgemein 1 Z 2 1 0 2 u (x) J(u) = −1 un (x) = v∗ (x) + n X − f (x)u(x) dx αj ϕj (x). j=1 Dann gilt 2 n n X X 1 αj ϕ0j − f v∗ + αj ϕj dx, J(u) = v∗0 + 2 j=1 j=1 −1 Z1 n X ∂J = v∗0 + αj ϕ0j ϕ0i − f ϕi dx ∂αi Z1 j=1 −1 Z1 v∗0 ϕ0i = − f ϕi dx + n X j=1 −1 Z1 αj ϕ0j ϕ0i dx. −1 Setzen wir nun diese Ableitungen gleich Null, erhalten wir das lineare Gleichungssystem n X j=1 Z 1 αj −1 ϕ0j ϕ0i dx = Z 1 −1 f ϕi − v∗0 ϕ0i dx, i = 1, . . . , n, bzw. in Matrixschreibweise 1 1 R R 0 0 R1 0 0 R1 0 0 0 0 α 1 (f ϕ1 −v∗ ϕ1 ) dx ϕ2 ϕ1 dx · · · ϕ3 ϕ1 dx ϕ1 ϕ1 dx −1 −1 −1 −1 α 2 . . . . . . = . . . . .. 1 . 1 1 1 R R 0 0 R 0 0 R 0 0 0 0 (f ϕn −v∗ ϕn ) dx ϕ1 ϕn dx ϕ2 ϕn dx · · · ϕ3 ϕn dx αn −1 −1 −1 −1 Es müssen also im Allgemeinen n2 + n Integrale berechnet werden. Wie kann man diese Anzahl verringern? 42 HT 2015 E 4.6 (Wahl der Basisfunktionen) Offenbar sind zum Aufstellen der Matrix und rechten Seite des Gleichungssystems für die Gleichgewichtslage der Saite folgende Integrale zu berechnen: Z ` a(ϕj , ϕi ) = S ϕ0j ϕ0i dx, 0 Z ` (f ϕi − v∗0 ϕ0i ) dx, hF, ϕi i = i, j = 1, . . . , n, i = 1, . . . , n. 0 Günstig ist es, wenn viele Matrixeinträge Null werden. Das kann erreicht werden durch • Basisfunktionen mit kleinem Träger φi (x) | 0 | x1 | x2 | | xi−1 xi | xi+1 φj (x) | | xj−1 xj | xj+1 | ` • Orthogonalitätseigenschaften der Basis, z. B. integrierte Legendre-Polynome: Z x Z ` 0 ϕi (x) = Li (t) dt ⇒ ϕi (x) = Li (x) ⇒ ϕ0j (x)ϕ0i (x) dx = δij 0 0 Bei ungeschickter Wahl der Basis ist die Matrix voll besetzt und schlecht konditioniert. HT 2015 43 4.2 Das Galerkin-Verfahren als Näherungsverfahren auf der Basis der Variationsgleichung E 4.7 (Grundidee) Ausgangspunkt ist die Variationsformulierung Finde u∗ ∈ V∗ ⊂ X : ∀v ∈ V0 ⊂ X. δJ(u∗ ; v) = 0 Wir wählen einen Teilraum V0,n ⊂ V0 sowie ein Element v∗ ∈ V∗ und setzen V∗,n = {v : v = v∗ + v0,n , v0,n ∈ V0,n }. Man beachte, dass V0,n und V∗,n von der gleichen Dimension n und Teilmengen von X sind. Die Galerkin-Formulierung lautet nun: Finde u∗,n ∈ V∗,n ⊂ X : δJ(u∗,n ; vn ) = 0 ∀vn ∈ V0,n ⊂ X Bsp 4.8 (Gleichgewichtslage einer Saite) Die Variationsformulierung lautet Z ` Z ` 0 0 f v dx = 0 ∀v ∈ V0 . u v dx − Finde u ∈ V0 : δE(u; v) = S 0 0 Dann ist das Galerkin-Verfahren Z ` Z ` 0 0 Finde un ∈ V0,n : S un vn dx = f vn dx 0 ∀vn ∈ V0,n 0 E 4.9 Ein lineares Funktional (eine Linearform ) f : X → R hat die Eigenschaften hf, u + vi = hf, ui + hf, vi ∀u, v ∈ X, hf, αvi = α hf, vi ∀α ∈ R, ∀v ∈ X, während ein bilineares Funktional (eine Bilinearform ) a : X × X → R linear in beiden Argumenten ist, d. h., a(u + v, w) = a(u, w) + a(v, w) ∀u, v, w ∈ X, a(u, v + w) = a(u, v) + a(u, w) ∀u, v, w ∈ X, a(αu, v) = α a(u, v) ∀α ∈ R, ∀u, v ∈ X, a(u, αv) = α a(u, v) ∀α ∈ R, ∀u, v ∈ X. Bsp 4.10 In Beispiel 4.8 haben wir die Bilinearform Z ` a(un , vn ) = S u0n vn0 dx 0 und die Linearform Z hf, vn i = ` f vn dx 0 verwendet. Die Bilinearform a(·, ·) in diesem Beispiel hat weitere schöne Eigenschaften. Sie ist z. B. symmetrisch : a(u, v) = a(v, u) ∀u, v ∈ X. 44 HT 2015 Ü 4.11 (Spezialfall linearer Probleme) Man beweise: Hat das zu minimierende Funktional die Form J(u) = 12 a(u, u) − hf, ui , mit der symmetrischen Bilinearform a(·, ·) und dem linearen Funktional hf, ·i, dann gilt δJ(u; v) = a(u, v) − hf, vi . Die Galerkin-Formulierung lautet somit Finde u∗,n ∈ V∗,n : a(u∗,n , vn ) = hf, vn i ∀vn ∈ V0,n (4.5) Hinweis: Wenn man die Eigenschaften der Linearform und der Bilinearform benutzt, dann ist J(u + εv) ein quadratisches Polynom in ε. E 4.12 (Berechnung der Galerkin-Lösung (4.5)) Sei {ϕi }ni=1 eine Basis in V0,n und V∗,n = v∗ + span {ϕi }ni=1 . Man sucht u∗,n in der Form u∗,n = v∗ + u0,n . Dann ist (4.5) äquivalent zu Finde u0,n ∈ V0,n : a(u0,n , vn ) = hf, vn i − a(v∗ , vn ) | {z } ∀vn ∈ V0,n . hF,vn i bzw. Finde u0,n ∈ V0,n : a(u0,n , ϕi ) = hF, ϕi i i = 1, . . . , n. (4.6) P Sei nun u0,n = nj=1 αj ϕj . Dann ist (4.6) äquivalent zur Bestimmung der Zerlegungskoeffizienten α1 , . . . , αn , so dass n X a αj ϕj , ϕi = hF, ϕi i , i = 1, . . . , n, j=1 n X αj a(ϕj , ϕi ) = hF, ϕi i , i = 1, . . . , n, j=1 bzw. a(ϕ1 , ϕ1 ) a(ϕ2 , ϕ1 ) · · · a(ϕ1 , ϕ2 ) a(ϕ2 , ϕ2 ) · · · .. .. .. . . . a(ϕ1 , ϕn ) a(ϕ2 , ϕn ) · · · a(ϕn , ϕ1 ) a(ϕn , ϕ2 ) .. . a(ϕn , ϕn ) α1 α2 .. . αn = hF, ϕ1 i hF, ϕ2 i .. . . hF, ϕn i Zu lösen ist also ein lineares Gleichungssystem. Vergleichen Sie dieses mit dem beim Ritz-Verfahren. HT 2015 45 4.3 Numerische Verfahren auf der Basis der Differentialgleichung E 4.13 Numerische Verfahren, die auf der Differentialgleichungsformulierung beruhen, sind • das Differenzenverfahren, • das Kollokationsverfahren. Wir wollen hier das Differenzenverfahren kurz beschreiben. E 4.14 (Methode der finiten Differenzen) Ein einfaches Verfahren zur Lösung von Randwertaufgaben ist das Differenzenverfahren (Methode der finiten Differenzen, FDM). Dabei ersetzt man • das Gebiet Ω durch ein Gitter Ωh , z. B. Ω = (0, 1), mit der Schrittweite h = Ωh = {xi = ih, i = 1, . . . , N − 1}, 1 N, und den Rand Γ durch Γh , hier im Beispiel Γ = {0, 1}, x0 x1 Γh = {x0 , xN }. x2 xN −1 xN Analog zu Ω = Ω ∪ Γ definieren wir auch Ωh = Ωh ∪ Γh . • die gesuchte Funktion u in den Gitterpunkten xi durch die Näherungen ui , und die Ableitungen (Differentialquotienten) durch entsprechende Differenzenquotienten: u(xi ) ≈ ui u i+1 − ui h ui − ui−1 0 u (xi ) ≈ h ui+1 − ui−1 2h Vorwärtsdifferenz Rückwärtsdifferenz zentrale Differenz ui+1 − ui ui − ui−1 − ui+1 − 2ui + ui−1 h h u00 (xi ) ≈ = h h2 Man erhält ein Gleichungssystem für die Unbekannten u0 , . . . , uN . 46 HT 2015 Bsp 4.15 Wir betrachten die Randwertaufgabe −u00 + u = f in Ω = (0, 1), u(0) = g0 , u(1) = g1 . Die zum Punkt xk , k = 1, . . . , N − 1, gehörige Differenzengleichung lautet − uk+1 − 2uk + uk−1 + uk = fk , h2 wobei fk := fh (xk ) = f (xk ) gesetzt wurde. Die Approximation kann auch als lineares Gleichungssystem geschrieben werden, 1 u0 g0 − 12 1 + 22 u1 f1 − h12 h h 1 2 1 u2 f2 − h2 1 + h2 − h2 .. = .. . . . . . . . . . . . . 2 1 1 uN −1 fN −1 − h2 1 + h2 − h2 1 uN g1 Oft eliminiert man die erste und letzte Gleichung. Zur Illustration wählen wir die Daten f , g0 und g1 so, dass u(x) = x(1 − x)ex die exakte Lösung ist. Im folgenden Diagramm wird die Lösung und die Näherungslösung mit verschiedenen Schrittweiten dargestellt. FDM, Loesung u=(1−x)*x*exp(x) 0.45 exakt h=1/5 h=1/10 h=1/20 0.4 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 HT 2015 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 47 5 Variationsaufgaben mit Nebenbedingungen 5.1 Isoperimetrische Probleme (Nebenbedingungen in Integralform) Bem 5.1 (Herkunft des Namens) Isoperimetrische Figuren sind Figuren gleichen Umfangs. Die Bezeichnung Isoperimetrische Probleme stammt von Anwendungen, in denen Flächen mit größtem Flächeninhalt bei vorgegebenem Umfang zu bestimmen sind. Solche Aufgaben sind auch als Problem der Dido bekannt. Dido, der antiken Sage nach eine Tochter des Königs von Tyros in Phönizien (heute Libanon) flüchtete nach der Ermordung ihres Mannes durch ihren Bruder Pygmalion an die afrikanische Küste in das Gebiet des späteren Karthago, erbat sich vom dortigen König Iarbas so viel Land, als sie mit einer Ochsenhaut umspannen konnte und umgab mit einem aus der Haut geschnittenen Riemen das Gebiet der späteren Burg von Karthago. Dido hätte, bei 3 – 6 qm Ochsenhaut, einen Lederriemen von 3 mm Streifenbreite und 1000 – 2000 m Länge zusammenknüpfen und diesen anschließend so auf dem Boden ausbreiten können, dass er eine möglichst große Fläche eingeschlossen hätte, siehe auch http://www.google.com/search?q=Dido+problem. Weitere isoperimetrische Probleme sind: Wie legt man eine möglichst große Stadt am Meer an, die dann eine möglichst kurze Stadtmauer hat? Warum haben Iglus die Form von Halbkugeln? E 5.2 (Allgemeine Vorgehensweise) Wir betrachten die Minimierung des Funktionals Z b J(y) = F (x, y, y 0 ) dx (5.1) a unter der Nebenbedingung Z K(y) = b G(x, y, y 0 ) dx = `. (5.2) a Wie bei der Minimierung von Funktionen unter einer Nebenbedingung (Modul Mathematik III) verwenden wir einen Lagrange-Multiplikator λ ∈ R. Für weitere Erklärungen, warum das funktioniert, sei z. B. auf [MV01, Kap. 13, Abschnitt 5.1] verwiesen. Lem 5.3 (Wiederholung) Seien f, g : Rn → R zwei Funktionen. Zwischen dem Minimierungsproblem mit Nebenbedingung f (x) → min, g(x) = 0 und der Lagrange-Funktion L(x, λ) = f (x) + λ g(x). besteht folgender Zusammenhang: Für jede lokale Lösung x∗ des Minimierungsproblems mit Nebenbedingung, für die ∇g(x∗ ) 6= 0 gilt, gibt es einen LagrangeMultiplikator λ∗ , so dass (x∗ , λ∗ ) ein stationärer Punkt der Lagrange-Funktion ist. 48 HT 2015 Bem 5.4 1. Es sind aber nicht alle stationären Punkte der Lagrange-Funktion Lösungen des Minimierungsproblems. 2. Man kann also die Lösung des Minimierungsproblems mit Nebenbedingungen angehen, indem man die Lagrangefunktion aufstellt und deren stationäre Punkte berechnet. Auf diese Weise erhält man die extremwertverdächtigen Punkte. 3. Die Notwendigkeit der Bedingung ∇g(x∗ ) 6= 0 kann man sich am Beispiel mit f (x) = (x + 1)2 und g(x) = x2 verdeutlichen. Die Nebenbedingung ist nur für x = 0 erfüllt, also realisiert diese die Lösung des Minimierungsproblems mit Nebenbedingung. Es gilt aber nicht ∇L = 0. E 5.5 (Allgemeine Vorgehensweise – Fortsetzung) Wir betrachten also das Funktional J ∗ (y, λ) = J(y) + λ [K(y) − `] Z b = F (x, y, y 0 ) + λG(x, y, y 0 ) dx − λ`, a und setzen die erste Variation bezüglich y Null. Wegen J ∗ (y + εv, λ) = J(y + εv) + λK(y + εv) gilt 0 = δJ ∗ (y, λ; v, 0) = δJ(y; v) + λ δK(y; v) Z b ∂ ∂ = (F + λG)v + 0 (F + λG)v 0 dx. ∂y a ∂y Die Euler-Lagrange-Gleichung lautet folglich d ∂(F + λG) ∂(F + λG) − = 0. ∂y dx ∂y 0 (5.3) Hinzu kommt die Nebenbedingung (5.2), die bei der Ableitung von J ∗ nach λ entsteht. Satz 5.6 Für jede Lösung des Minimierungsproblems (5.1)–(5.2) existiert eine Konstante λ, so dass die Euler-Lagrange-Gleichung (5.3) erfüllt ist. Bsp 5.7 (Rotationsminimalfläche einer Kurve gegebener Länge) Wir chen eine Funktion y(x) mit den Randbedingungen y(x0 ) = y0 , su- y(x1 ) = y1 , (5.4) p 1 + y 0 (x)2 dx = `, {z } | (5.5) und gegebener Bogenlänge `, Z x1 K(y) = x0 HT 2015 G(x,y,y 0 ) 49 so dass bei Rotation um die x-Achse eine möglichst kleine Oberfläche entsteht, Z x1 p J(y) = 2π y(x) 1 + y 0 (x)2 dx → min! {z } x0 | F (x,y,y 0 ) Wir setzen J ∗ (y, λ) = 2π Z x1 L(x, y, y 0 ) dx − λ` x0 mit L := F + λG = y p p p 1 + y 02 + λ 1 + y 02 = (y + λ) 1 + y 02 . Mit (5.3) lautet die Euler-Lagrange-Gleichung p d (y + λ)y 0 p 1 + y 02 − = 0. dx 1 + y 02 Diese gehört zum Sonderfall, bei dem der Integrand, hier F + λG, nicht explizit von x abhängt, siehe Erklärung 1.35. Diesen Integrand, mit y statt y + λ, haben wir schon einmal in der Übung diskutiert (hoffentlich!). Dazu erinnern wir uns an das Eulersche Zwischenintegral, hier in der Form c = L − y 0 L,y0 p y0 = (y + λ) 1 + y 02 − y 0 (y + λ) p 1 + y 02 1 = (y + λ) p . 1 + y 02 Mit der Methode der Trennung der Veränderlichen erhalten wir die Lösung: (y + λ)2 2 r c dy (y + λ)2 = −1 c2 Z dx Z dy q dx = (y+λ)2 −1 c2 Z dy =c p (y + λ)2 − c2 (y + λ) x = c arcosh +d c 1 + y 02 = Umstellen nach y liefert die Kettenlinie, x−d (y + λ) = arcosh , c c x−d y = c cosh − λ. c Die Konstanten c, d und λ sind dann aus den Randbedingungen (5.4) und der Nebenbedingung (5.5) zu bestimmen. 50 HT 2015 Ü 5.8 (Beidseitig befestigte Saite (Kette) gegebener Länge) Wir betrachten eine Kette mit der gegebenen Länge ` und der Dichte 1, die in den Punkten (x0 , y0 ) und (x1 , y1 ) befestigt ist. y(x) x0 x1 x Bestimmen Sie die Form der Kette (die Funktion y(x)). Sie stellt sich so ein, dass die potentielle Energie minimiert wird. Bsp 5.9 (Extremalfläche) Wir suchen eine Kurve mit den Randpunkten (x0 , 0) und (x1 , 0), die bei gegebener Länge ` mit der x-Achse eine möglichst große Fläche einschließt. x0 x1 x y(x) Für das Zielfunktional und die Nebenbedingung gilt also7 Z x1 J(y) = y(x) dx → min! x0 Z x1 p K(y) = 1 + y 0 (x)2 dx = `. x0 p Über F + λG = y + λ 1 + y 02 erhält man die Euler-Lagrange-Gleichung 1− d λy 0 p = 0. dx 1 + y 02 bzw. das Eulersche Zwischenintegral λ y+p = c. 1 + y 02 Die Lösung erfüllt die Gleichung (y(x) − d)2 + (x − c)2 = λ2 , d. h., die gesuchte Kurve ist ein Teil eines Kreises vom Radius λ mit Mittelpunkt (c, d). Die Größen c, d und λ sind durch die Randbedingungen y(x0 ) = 0 und y(x1 ) = 0 sowie die Nebenbedingung eindeutig bestimmt.8 7 Wir wollen uns hier zunächst auf den Fall beschränken, dass die Kurve durch eine Funktion y(x) beschrieben werden kann. Besser wäre es daher, die gesuchte Kurve in Parameterform darzustellen, siehe z. B. [Kie10, Kap. 1.10]. (Übung) 8 Zur Existenz einer Lösung muss ` ≥ x1 − x0 gelten. Falls ` > π2 (x1 − x0 ) gilt, ist der Kreisbogen größer als ein Halbkreis, so dass y nicht mehr als Funktion von x dargestellt werden kann. Auch aus diesem Grunde wäre es besser, die gesuchte Kurve in Parameterform darzustellen, siehe oben. HT 2015 51 Quelle: http://de.wikipedia.org/wiki/Datei:Köln Fortifikatorische Entwicklung.jpg Bsp 5.10 Wir betrachten den folgenden Versuchsaufbau. Ein wasserundurchlässiges, festes Tuch ist an 2 Stäben befestigt, die durch 2 Platten gehalten werden, siehe Illustration. 2 Platten spannungsloses Tuch 2 Stäbe y(x) Wir wollen annehmen, dass die Grenze zwischen den Platten und dem Tuch dicht ist und dass es keine Reibung zwischen den Platten und dem Tuch gibt. Der Querschnitt des Tuches entspricht einer Funktion y(x). Wenn wir das Tuch so festhalten, dass y(x) ein Teil des Kreises ist, dann ist das Volumen des Wassers, das reinpasst, für das gegebene Tuch maximal, siehe das vorherige Beispiel. Nehmen wir nun an, dass das Tuch auf diese Weise mit Wasser gefüllt wurde. Wenn wir das Tuch nun loslassen, wird es die Form behalten oder eine andere Form annehmen? Wir bedenken die Konsequenz: wenn das Tuch die Form ändert, wird ein Teil des Wassers überlaufen. Die Längsausdehnung des Tuches tut offenbar nichts zur Sache, so dass wir ein zweidimensionales Modell verwenden können. 52 HT 2015 x1 x0 x y(x) Es wird sich eine solche Kurve y(x) einstellen, dass die potentielle Energie Z x1 Z 0 Z x1 y dy dx = − Ep (y) = x0 y(x) x0 y 2 (x) dx 2 minimiert wird. Da sich das Tuch nicht dehnt, haben wir die Nebenbedingung Z x1 p 1 + y 0 (x)2 dx = `. K(y) = x0 Zur vollständigen Beschreibung gehören noch die Randbedingungen y(x0 ) = 0 und y(x1 ) = 0. Leider lässt sich die zugehörige Euler-Gleichung nicht exakt lösen. Das RitzVerfahren mit einem 20-dimensionalem Raum liefert die im Bild dargestellte Lösung9 für die Parameter x0 = 0, x1 = 1, ` = π/2. x 0 0.2 0.4 0.6 0.8 1 0 -0.1 -0.2 -0.3 -0.4 -0.5 Die rote (dunkle) Linie ist ein Querschnitt des Tuches, der dem maximalen Wasservolumen entspricht. Die grüne (helle) Linie ist die tatsächliche Querschnittsform des mit Wasser gefüllten Tuches. Man sieht deutlich den Unterschied, das Wasser läuft über. 9 Der Dank für die Rechnung geht an meinen ehemaligen Mitarbeiter Dr. Sergey Grosman. HT 2015 53 5.2 Nebenbedingungen in Gleichungsform E 5.11 (Allgemeine Herangehensweise) Wir betrachten Variationsprobleme der Form Z b J(y) = F (x, y, y 0 ) dx → Extr! a unter der Nebenbedingung G(x, y, y 0 ) = 0 ∀x ∈ (a, b), d. h., die Nebenbedingung ist eine (Differential-)Gleichung, die für alle x ∈ (a, b) gilt, nicht nur ein Funktional. Als Lagrangescher Multiplikator eignet sich nun eine Funktion λ(x), ∗ Z b J (y, λ) = [F (x, y, y 0 ) + λ(x)G(x, y, y 0 )] dx. a Die erste Variation nach y ist 0 = δJ ∗ (y, λ; v, 0) Z b ∂(F + λG) 0 ∂(F + λG) v+ v dx, = ∂y ∂y 0 a wie in Bemerkung 5.5, als λ eine Zahl war. Entspechend ist auch die EulerLagrange-Gleichung gleich ∂(F + λG) d ∂(F + λG) − ∂y dx ∂y 0 = 0. Bsp 5.12 (Geodätische Linien auf einer Fläche in R3 ) Geodätische Linien sind die kürzesten Verbindungslinien zweier Punkte auf der Fläche G(~x) = 0. Sie sind definiert als Lösungen des Variationsproblems Z J(~x) = b |~x˙ (t)| dt = Min! a G(~x) = 0. Für die weitere Diskussion, siehe [MV01, Kap. 13, Abschnitt 5.3]. 54 HT 2015 Bsp 5.13 (Stokes) Wir betrachten eine inkompressible Strömung mit der Geschwindigkeit ~u(~x). Die Inkompressibilitätsbedingung (Kontinuitätsgleichung, Masseerhaltung) lautet G(~u) := div ~u = 0. (5.6) Wir wollen zeigen, dass die Bewegungsgleichung die Euler-Lagrange-Gleichung bei der Minimierung des Funktionals Z µ J(~u) = |ε̇(~u)|2 − f~ · ~u d~x Ω 2 über alle Funktionen mit ~u(~x) = ~u0 (~x) ∀~x ∈ ∂Ω ist. Dabei bezeichnen µ die Viskositätskonstante, 1 ε̇(~u) = (∇~u + ∇~uT ) 2 den Verformungsgeschwindigkeitstensor und f~ ein äußeres Kraftfeld. Der Lagrange-Ansatz mit dem Parameter −p lautet Z µ ∗ |ε̇(~u)|2 − f~ · ~u − p div ~u d~x. J (~u, p) = Ω 2 Um die Variation des Tensors 2. Stufe zu vermeiden, berechnen wir die Variation im eindimensionalen Beispiel: Z µ 0 2 ∗ J (u, p) = (u ) − f u − pu0 dx 2 ZΩ δJ ∗ (u, p; v, 0) = −f v + (µu0 − p)v 0 dx ZΩ = −f − µu00 + p0 v dx, Ω so dass die Euler-Lagrange-Gleichung −µu00 + p0 = f ∀x ∈ Ω, bzw. in der mehrdimensionalen Variante −µ∆~u + ∇p = f~ ∀~x ∈ Ω lautet. Zusammen mit der Inkompressibilitätsbedingung (5.6) ergibt sich das Stokes-System. Der Druck p spielt die Rolle des Lagrange-Multiplikators. Ü 5.14 Statt Kapitel 6 zu errbeiten, kann man sofort die Übungaufgabe 6.8 mit den gerade besprochenen Methoden angehen. HT 2015 55 6 Einführung in die optimale Steuerung (freiwilllig) Bsp 6.1 (Rakete) (aus [Ger13, Beispiel 4.0.1]) Eine Rakete mit der Masse m startet zum Zeitpunkt t = 0 aus der Ruhelage auf der Erdoberfläche, d. h. der Höhe x(0) = 0 und der Anfangsgeschwindigkeit ẋ(0) = 0, und wird senkrecht nach oben geschossen. Der Pilot kann die Rakete durch die Schubkraft u(t) steuern, wobei diese durch eine maximale Schubkraft nach oben und durch Null nach unten (kein Bremsen) beschränkt ist, 0 ≤ u(t) ≤ umax ∀t ≥ 0. (6.1) Die Höhe x(t) genügt einer Differentialgleichung, die das Kräftegleichgewicht modelliert, mẍ(t) = −mg + u(t), wobei −mg die Erdanziehungskraft ist. Zur Vereinfachung nehmen wir an, dass sich die Masse der Rakete zeitlich nicht ändert, was genau genommen nicht stimmt, da Treibstoff verbraucht wird. Auch Luftwiderstandskräfte werden hier vernachlässigt. Die Aufgabe des Piloten ist es nun, mit einer vorgegebenen Menge η an Treibstoff eine vorgegebene Höhe H in möglichst kurzer Zeit tf zu erreichen. Unter der Annahme, dass der Treibstoffverbrauch proportional zur Schubkraft ist, muss der Pilot also eine Nebenbedingung der Form Z tf u(t) dt = η (6.2) 0 beachten. Es entsteht schließlich das folgende Optimalsteuerproblem : Minimiere J(x, v, u, tf ) = tf unter den Differentialgleichungsnebenbedingungen und Randbedingungen ẋ(t) = v(t), x(0) = 0, v̇(t) = −g + m−1 u(t), v(0) = 0, x(tf ) = H, der Integralbeschränkung (6.2) und der Steuerbeschränkung (6.1). Übrigens kann die Integralbeschränkung zur Vereinfachung der Struktur der Aufgabe wegtransformiert werden. Dazu führt man eine R tf neue Zustandsvariable Rt w mit ẇ(t) = u(t), w(0) = 0 ein. Mit dieser gilt nun 0 u(t) dt = 0 f ẇ(t) dt = w(tf ), so dass die Integralbeschränkung in die Forderung w(tf ) = η übergeht. E 6.2 Optimalsteuerprobleme sind Variationsprobleme, bei denen zwischen Zustandsvariablen (x und v im Beispiel 6.1) und Steuervariablen (u im Beispiel) unterschieden wird. Steuervariablen können als Eingabe des Benutzers angesehen werden, während sich der Zustand aus der Dynamik bei vorgegebener Steuerung ergibt. Steuerung und Zustand werden oft unterschieden, weil sie unterschiedliche mathematische Eigenschaften besitzen. Im Beispiel 6.1 musste die Zustandsvariable x zweimal differenzierbar sein, die Steuerung u aber nicht. 56 HT 2015 E 6.3 Wir wollen hier Optimalsteuerprobleme der folgenden Form betrachten. Finde über dem festen Intervall [0, T ] eine Steuerung u ∈ C[0, T ] und den zugehörigen Zustand x ∈ V∗ ⊂ C 1 [0, T ], so dass das Funktional Z T F (t, x(t), u(t)) dt J(x, u) := 0 minimal wird unter den Nebenbedingungen ẋ(t) = f (t, x(t), u(t)) ∀t ∈ (0, T ], x(0) = x0 . (6.3) Dabei können sowohl Steuerung als auch Zustand Vektorfunktionen sein. Die Funktionen F und f seien stetig differenzierbar bezüglich aller Argumente. Das Paar (x∗ , u∗ ) löst das Optimalsteuerproblem, wenn J(x∗ , u∗ ) ≤ J(x, u) gilt für alle (x, u), die die Nebenbedinungen erfüllen. Wir führen nun einen Lagrangeschen Multiplikator λ ∈ Λ ⊂ C 1 [0, T ] ein und definieren mit dessen Hilfe das Funktional Z T J ∗ (x, u, λ) = [F (t, x, u) + λ(t) · (f (t, x, u) − ẋ)] dt. 0 Die Anfangsbedingung für x bringen wir in V∗ unter, V∗ = {x ∈ C 1 [0, T ] : x(0) = x0 }. Wir setzen nun die Variationen nach den einzelnen Variablen Null und wenden den Hauptsatz an. Die Variation von u ergibt mit d ∗ 0= ∀v ∈ C[0, T ] J (x, u + εv, λ) dε ε=0 Z T d = [F (t, x, u + εv) + λ · (f (t, x, u + εv) − ẋ)] dt dε 0 ε=0 Z T ∂f ∂F = v+λ· v dt ∂u ∂u 0 die Optimalitätsbedingung 0= ∂(F + λ · f ) , ∂u (6.4) die hier keine Differentialgleichung ist, weil das Problem nicht von u̇ abhängt. Die Variation von x ergibt d ∗ 0= J (x + εv, u, λ) ∀v ∈ V0 = {x ∈ C 1 [0, T ] : x(0) = 0} dε ε=0 Z T d = [F (t, x + εv, u) + λ · (f (t, x + εv, u) − (ẋ + εv̇))] dt dε 0 ε=0 Z T ∂F ∂f = v+λ· v − v̇ dt ∂x ∂x 0 T Z T ∂F ∂f = +λ· v + λ̇ · v dt − λ · v . ∂x ∂x 0 0 HT 2015 57 Der Randterm verschwindet, wenn wir λ(T ) = 0 fordern. (Man beachte das diese eine Bedingung am Ende des Intervalls ist.) Die Differentialgleichung für die adjungierte Variable λ ∈ Λ = {v ∈ C 1 [0, T ] : λ(T ) = 0} lautet also ∂(F + λ · f ) . ∂x λ̇ = − (6.5) Mit der Zustandsgleichung (6.3) wird das System geschlossen. E 6.4 Die Funktion F + λ · f wird oft auch als Hamiltonfunktion H bezeichnet, H(t, x, u, λ) = F (t, x, u) + λ · f (t, x, u) Mit dieser erhält man die Zustandsgleichung, die adjungierte Gleichung und die Optimalitätsbedingung in der Form ẋ = ∂H , ∂λ λ̇ = − ∂H , ∂x 0= ∂H . ∂u Bsp 6.5 (aus [Ger13, Bsp. 4.0.4]) Wir betrachten das folgende Optimalsteuerproblem: Minimiere 1 J(x, u) = 2 Z 1 u(t)2 + x(t)3 dt 0 unter der Nebenbedingung ẋ(t) = u(t) − r(t), x(0) = 4, mit r(t) = 15 e−2t . Es ist also F (t, x, u) = u2 + x3 und f (t, x, u) = u − r. Die Optimalitätsbedingung (6.4) lautet ∂ ∂(F + λf ) 0= = ∂u 1 2 2 (u + x3 ) + λ(u − r) = u + λ, ∂u also u = −λ. Die adjungierte Gleichung (6.5) ist ∂ ∂(F + λf ) λ̇ = − = ∂x 1 2 2 (u + x3 ) + λ(u − r) = − 32 x2 . ∂x Zusammenfassung: Den Zustand x und den adjungierten Zustand λ findet man mit u = −λ über die (numerische) Lösung von ẋ(t) = −λ(t) − r(t), λ̇(t) = 58 − 23 x(t)2 x(0) = 4, λ(1) = 0. HT 2015 Bsp 6.6 (Linear-Quadratisches Optimalsteuerungsproblem) (aus [Ger13, n ×n n ×n x u , die x x Bsp. 4.0.5]) Gegeben seien die Matrizen A ∈ R und B ∈ R n ×n symmetrische Matrix R ∈ R x x und die symmetrische, positiv definite Matrix S ∈ Rnu ×nu . Zu minimieren ist Z 1 T J(~x, ~u) = ~x(t)T R~x(t) + ~u(t)T S~u(t) dt 2 0 unter der Nebenbedingung ~x˙ (t) = A~x(t) + B~u(t), ~x(0) = ~x0 . Die Hamiltonfunktion lautet H(t, ~x, ~u, ~λ) = F (t, ~x, ~u) + ~λT f (t, ~x, ~u) = 1 2 ~xT R~x + ~uT S~u + ~λT (A~x + B~u) und somit die Optimalitätbedingung (6.4)10 0= ∂H = S~u + B T ~λ. ∂~u (6.6) Da die Matrix S positiv definit und somit invertierbar ist, kann man die Steuerung eliminieren, ~u(t) = −S −1 B T ~λ(t). Die adjungierte Gleichung lautet ~λ˙ = − ∂H = −R~x − AT ~λ, ∂~x λ(T ) = 0. (6.7) Die Schreibweise mit der Hamiltonfunktion ist sehr kompakt und führt auf Ableitungen nach Vektoren. Man kann die Herleitung auch wie in Erklärung 6.3 ausführen: Man definiert Z Th i ∗ T T 1 ~ ~λT A~x + B~u − ~x˙ J (~x, ~u, λ) = dt ~ x R~ x + ~ u S~ u + 2 0 und variiert ~u und ~x: d ∗ J (~x, ~u + ε~v , ~λ) ∀~v ∈ V0 dε ε=0 Z Th i d T T 1 ~λT A~x +B(~u +ε~v )− ~x˙ dt = ~ x R~ x +(~ u +ε~ v ) S(~ u +ε~ v ) + dε 0 2 ε=0 Z Th i 1 T = u S~v + 12 ~v T S~u + ~λT B~v dt 2~ 0 Z T h i = ~v T S~u + B T ~λ dt 0= 0 Mit dem Hauptsatz folgt die Optimalitätsbedingung (6.6). Analog erhält man durch Variation von ~x die adjungierte Gleichung (6.7). Bem 6.7 (ebenfalls aus [Ger13, Bsp. 4.0.5]) Linear-Quadratische Optimalsteuerungsprobleme sind eine wichtige Anwendung der Optimalsteuerungstheorie und in der Regelungstheorie unter dem Begriff LQ-Regler als Feedbackregler 10 Mit ∂H ∂~ u HT 2015 bezeichnen wir hier den Spaltenvektor, dessen Komponenten ∂H ∂H , . . . , ∂u ∂u1 nu sind. 59 bekannt. Beim Regeln wird der Zustand mit einer bestimmten Abtastrate gemessen, das Steuerungsproblem muss dann sehr oft gelöst werden, dafür jeweils nur für ein kurzes Abtastintervall (0, T ). Zum häufigen schnellen Lösen des linear-quadratischen Optimalsteuerungsproblems eignet sich das folgende Vorgehen. Wählt man zur Lösung des Problems aus Beispiel 6.6 den Ansatz ~λ(t) := P (t)~x(t), P ∈ Rnx ×nx mit einer noch zu bestimmenden Matrixfunktion P , dann ergibt sich zunächst mit der Zustandsgleichung ~x˙ = A~x + B~u ~λ˙ = Ṗ ~x + P ~x˙ = Ṗ ~x + P (A~x + B~u) = Ṗ ~x + P (A~x − BS −1 B T ~λ) = Ṗ ~x + P (A~x − BS −1 B T P ~x). ˙ Mit Hilfe der adjungierten Gleichung ~λ = −R~x − AT ~λ und mit ~λ = P ~x erhält man daraus −R~x − AT P ~x = Ṗ ~x + P (A~x − BS −1 B T P ~x), also die matrixwertige Riccati-Differentialgleichung Ṗ = −R − AT P − P A + P BS −1 B T P, P (T ) = O, die nicht vom Zustand ~x abhängt und daher vorab bestimmt werden kann. Daraus ergibt sich durch Einsetzen ~u = −S −1 B T ~λ = −S −1 B T P ~x, ~x˙ = A~x + B~u = A~x − BS −1 B T P ~x = (A − K)~x mit der Feedback-Matrix K = K(t) = BS −1 B T P (t). Für jedes Abtastintervall muss dann nur die Differentialgleichung ~x˙ = (A − K)~x mit den Messdaten als Anfangsbedingung (numerisch) gelöst und in die Formel für ~u eingesetzt werden. Ü 6.8 Gegeben sei eine Funktion yd (angestrebter Zustand) und ein Parameter ν ∈ R. Man minimiere das Funktional Z 1 1 J(y, u) = (y(x) − yd (x))2 + νu(x)2 dx, 2 0 wobei der Zustand y die Randwertaufgabe −y 00 (x) + y 0 (x) = u(x) ∀x ∈ (0, 1), y(0) = y(1) = 0 mit der Steuergröße u erfüllen soll. Man beachte, dass die Differentialgleichung nun von zweiter Ordnung ist. Die Ergebnisse von Erklärung 6.3 können nicht benutzt werden, das Optimalitätssystem kann aber analog zu Erklärung 6.3 hergeleitet werden. 60 HT 2015
© Copyright 2025 ExpyDoc