Variationsrechnung - Universität der Bundeswehr München

Modul 1343
Schalentragwerke
Vorlesung
Variationsrechnung
Vorlesender: Prof. Thomas Apel
Institut für Mathematik und Bauinformatik
Fakultät für Bauingenieurwesen und Umweltwissenschaften
Herbsttrimester 2015
Vorwort
Variationsaufgaben sind Extremwertaufgaben, bei denen Funktionen gesucht
sind. Im Rahmen dieser Lehrveranstaltung sollen Sie sich Fähigkeiten zur Modellierung praktischer Probleme als Variationsprobleme und zur Lösung dieser
mit Hilfe der Variationsrechnung aneignen.
Die Vorlesung wird innerhalb des Moduls Schalentragwerke für Studierende
des Master-Studiengangs Bauingenieurwesen und Umweltwissenschaften gelesen. Für ihre Hilfe bei der Erstellung des Skripts sei an dieser Stelle Manuela Winkler gedankt. Hinweise auf Druckfehler und Verbesserungsmöglichkeiten
nehme ich gern entgegen, um das Skript weiter zu verbessern.
Das Skript ist kein Lehrbuch. Es ist an vielen Stellen knapper gehalten als es
Lehrbücher sind, deshalb wird die gleichzeitige Verwendung von Lehrbüchern
empfohlen; Tipps gibt die Literaturliste auf Seite 4.
Das Skript gibt die Stoffauswahl des Vorlesenden wieder, so dass klar wird,
welcher Stoff prüfungsrelevant ist. Außerdem erspart das Vorliegen des Skripts,
dass während der Vorlesungen alles angeschrieben werden muss. In den Vorlesungen werden Herleitungen und Beispiele meist ausführlicher besprochen;
Sie sollten das Skript selbständig um Bemerkungen ergänzen, die Ihnen zum
Verständnis des Stoffes notwendig erscheinen.
Wichtige Webseiten
http://www.unibw.de/bauv1/personen/apel/
Homepage von Prof. Thomas Apel mit Telefonnummer, Büroadresse, . . .
http://www.unibw.de/rz/dokumente/fakultaeten?id=306853&tid=fakultaeten
Dokumente zur Vorlesung
2
HT 2015
Inhaltsverzeichnis
Literatur
1 Variationsprobleme mit festen Randbedingungen
1.1 Extremalprobleme . . . . . . . . . . . . . . . . . . . . . .
1.2 Gâteaux-Variation, Variationsgleichung . . . . . . . . . .
1.3 Fundamentalsatz der Variationsrechnung . . . . . . . . . .
1.4 Herleitung der Euler-Lagrange-Differentialgleichung . . . .
1.5 Analyse von Spezialfällen . . . . . . . . . . . . . . . . . .
1.5.1 F hängt nicht von y 0 ab . . . . . . . . . . . . . . .
1.5.2 F ist linear in y 0 . . . . . . . . . . . . . . . . . . .
1.5.3 F hängt nicht explizit von y ab . . . . . . . . . . .
1.5.4 F hängt nicht explizit von x ab . . . . . . . . . . .
1.6 Variationsaufgaben mit höheren Ableitungen . . . . . . .
1.7 Variationsaufgaben mit Funktionen in mehreren Variablen
2 Variationsprobleme mit freien Randbedingungen
4
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
9
12
13
16
16
17
19
20
23
26
29
3 Das Hamilton-Prinzip
33
3.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Das Hamilton-Prinzip bei Schwingungsproblemen . . . . . . . . . 35
4 Querbezüge zur Numerik
40
4.1 Ritz-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2 Galerkin-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.3 Finiten Differenzen . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5 Variationsaufgaben mit Nebenbedingungen
48
5.1 Isoperimetrische Probleme . . . . . . . . . . . . . . . . . . . . . . 48
5.2 Nebenbedingungen in Gleichungsform . . . . . . . . . . . . . . . 54
6 Einführung in die optimale Steuerung (freiwilllig)
HT 2015
56
3
Literatur
[Ger13] M. Gerdts. Mathematische Methoden in den Ingenieurwissenschaften.
Vorlesungsskript, Universität der Bundeswehr München, WT 2013.
[Kie10] H. Kielhöfer. Variationsrechnung. Vieweg + Teubner, Wiesbaden,
2010.
[MV01] K. Meyberg und P. Vachenauer. Höhere Mathematik, Jgg. 2. Springer,
Berlin, 1991, 1997, 1999, 2001.
4
HT 2015
1 Variationsprobleme mit festen Randbedingungen
1.1 Extremalprobleme
E 1.1 Variationsprobleme sind Optimierungsprobleme. Jedoch ist die Optimierungsvariable kein Vektor des Rn , sondern eine Funktion. Wir suchen eine Funktion y∗ , die in einem gewissen Sinne optimal ist. Wie gut die Funktion ist, wird
durch ein Funktional
J(y)
ausgedrückt. Eine Abbildung, die einer Funktion eine Zahl zuordnet, bezeichnet
man als Funktional.1 Die Minimierungsaufgabe lautet also
Finde y∗ : J(y∗ ) ≤ J(y) ∀y.
Das einfachste Variationsproblem besteht darin, eine Funktion y : [a, b] ⊂
R → R zu finden, die das Funktional
Z b
J(y) =
F (x, y, y 0 ) dx
a
unter den Nebenbedingungen
y(a) = ya ,
y(b) = yb
minimiert, wobei die hinreichend oft stetig differenzierbare Funktion F sowie
die Randdaten ya und yb gegeben sind. Bei allgemeineren Aufgabenstellungen
•
•
•
•
können höhere Ableitungen von y auftreten,
kann y eine Vektorfunktion sein,
kann y eine Funktion mehrerer Veränderlicher sein,
können Nebenbedingungen auftreten.
Zur Präzisierung der Aufgabenstellung muss man jeweils angeben, welche Menge von Funktionen man in die Minimierung einbezieht; man bezeichnet diese
Menge auch als zulässigen Bereich . Von der Formulierung des zulässigen Bereichs hängt unter anderem ab, ob die Variationsaufgabe eine Lösung besitzt.2
Beispiele für Funktionenmengen sind
C[a, b]
Raum der über [a, b] stetigen Funktionen
C 1 [a, b]
Raum der über [a, b] einmal stetig differenzierbaren Funktionen
W 1,2 [a, b]
Raum der Funktionen mit beschränkter Energie, d.h.,
Z b
1,2
2
0
2
W [a, b] :=
v:
v(x) + v (x) dx < ∞ .
a
Mit Raum meint man hier einen linearen Raum von Funktionen, also insbesondere die Eigenschaft, dass man Funktionen addieren und mit einer Zahl
multiplizieren kann, ohne die betrachtete Funktionenmenge zu verlassen.
Rb
Einfachste Beispiele sind das bestimmte Integral J(f ) = a f (x) dx und das DeltaFunktional δx0 (v) = v(x0 ).
2
Wir werden in dieser Vorlesung auf die Frage nach der Existenz einer Lösung nicht weiter
eingehen, sondern stets voraussetzen, dass die betrachteten Variationsprobleme sinnvoll
formuliert sind.
1
HT 2015
5
Bsp 1.2 (Kürzeste Verbindung) Gegeben seien zwei Punkte in der Ebene mit
den Koordinaten (x0 , y0 ) und (x1 , y1 ). Gesucht ist die kürzeste Verbindung zwischen den beiden Punkten, also diejenige Funktion y(x) mit y(x0 ) = y0 und
y(x1 ) = y1 , für die die Bogenlänge
Z y0 p
J(y) =
1 + y 0 (x)2 dx
x0
minimal ist.
Bsp 1.3 (Brachistochrone-Problem, Johann Bernoulli 1696) Gesucht ist in
einer vertikalen Ebene die Bahn von A = (0, 0) nach B = (a, b), längs der
ein Massepunkt M reibungsfrei unter Einwirkung der Schwerkraft in minimaler Zeit gleitet.
a
A
x
y(x)
b
B
y
Zur Modellierung bezeichnen wir mit y(x) die gesuchte Bahnkurve und mit
T (y) die Zeit, die der Massepunkt auf der Bahn y(x) benötigt. Sei nun
Z x
s(x) =
ds
0
die Bogenlänge entlang der Bahnkurve. Für die Geschwindigkeit des Massepunkts gilt
v=
ds
dt
und
2
1
2 mv
= mgy ⇔ v =
Benutzt man außerdem die Formel ds =
genelement, erhält man
Z
T (y) =
T
Z
dt =
0
0
L
p
2gy(x).
p
1 + (y 0 (x))2 dx für das skalare Bo-
1
ds =
v
Z
0
a
s
1 + (y 0 (x))2
dx.
2gy(x)
In der Funktionenmenge3
V∗ = {y ∈ C 1 (0, a) ∩ C[0, a] : y(0) = 0, y(a) = b}
ist also diejenige Funktion y∗ ∈ V∗ zu bestimmen, für die
T (y∗ ) ≤ T (y) ∀y ∈ V∗
gilt. Die entsprechende Kurve heißt Brachistochrone (griechisch: brachýs – kurz,
chrónos – Zeit).
3
6
Dabei ist C 1 (0, a) die Menge aller im Intervall (0, a) stetig differenzierbaren Funktionen und
C[0, a] die Menge aller im Intervall [0, a] stetigen Funktionen.
HT 2015
Bsp 1.4 (Gleichgewichtslage einer Saite) Wir betrachten eine Saite, die bei
x = 0 und x = ` in der Höhe Null festgehalten wird und auf die transversal eine
Linienkraft f (x) wirkt. Unter allen Auslenkungen u(x) ist diejenige Auslenkung
u∗ (x) zu bestimmen, für die die potentielle Energie E(u) minimal wird.
u
f (x)
0
`
x
Bezeichne AF die Formänderungsarbeit und
Z `
f (x)u(x) dx
Af =
0
die Arbeit der äußeren Kraft f , dann gilt
E(u) = AF − Af .
Für die Formänderungsarbeit gilt
AF = S∆`,
wobei S die Vorspannung der Saite und
Z `p
∆` =
1 + (u0 (x))2 dx − `
0
die Längenänderung der Saite sind. Mit der Taylorreihe bzw. Linearisierung
√
1+z =1+
z z2
z
−
± ··· ≈ 1 +
2
8
2
folgt weiter
`
Z
1 + 21 (u0 (x))2 dx − `
∆` ≈
0
1
2
=
Z
`
u0 (x)2 dx.
0
Damit ergibt sich
E(u) = 12 S
Z
`
u0 (x)2 dx −
0
Z
`
f (x)u(x) dx.
0
Die gesuchte Variationsaufgabe ist:
Finde
u∗ ∈ V0 : E(u∗ ) ≤ E(u) ∀u ∈ V0
wobei
V0 = {u ∈ C 1 [0, `] : u(0) = 0, u(`) = 0}.
Wir verwenden die Bezeichnung V0 , wenn die Summe aus zwei Funktionen aus
der Menge wieder in der Menge liegt, und V∗ wenn dies wegen der Randbedingungen nicht der Fall ist.
HT 2015
7
Ü 1.5 (Rotationsminimalfläche) Unter allen C 1 -Kurven, die die beiden Punkte A = (x0 , y0 ) und B = (x1 , y1 ) in der (x, y)-Ebene verbinden, wird diejenige
gesucht, die bei Rotation um die x-Achse eine Fläche mit kleinstmöglichem
Flächeninhalt erzeugt.
y
y1
y0
|
x1
x0
x
y(t)
Man kann diese Fläche experimentell mit einem Seifenfilm zwischen Drahtschleifen erzeugen.
Ü 1.6 Das Fermat-Prinzip besagt, dass ein Lichtstrahl denjenigen Weg sucht,
den er in kürzester Zeit zurücklegen kann. Gegeben sei ein ebenes anisotropes
Medium mit der Lichtgeschwindigkeit v = v(x, y) bzw. dem Brechnungsindex
n(x, y) = c0 /v(x, y), wobei die Konstante c0 die Lichtgeschwindigkeit im Vakuum bezeichnet. Wie lautet das Zeitfunktional für den Lichtweg von (x0 , y0 )
nach (x1 , y1 )?
Ü 1.7 Wiederholen Sie die Bestimmung der Extremstellen von Funktionen mehrerer Veränderlicher.
8
HT 2015
1.2 Gâteaux-Variation, Variationsgleichung
E 1.8 Wir betrachen das Minimierungsproblem:
Gesucht ist y∗ ∈ V∗ : J(y∗ ) = Extr
(1.1)
mit V∗ = {y ∈ C 1 [a, b] : y(a) = ya , y(b) = yb }.
Euler hat die Lösung dieser Aufgabe auf eine Extremwertaufgabe einer reellen Veränderlichen zurückgeführt. Dazu betrachten wir eine einparametrische
Schar von Vergleichsfunktionen, y∗ + εv, mit dem Parameter ε ∈ R und einer
Funktion v. Damit y∗ + εv zulässig, d. h. in V∗ enthalten ist, muss v homogene
Randbedingungen erfüllen,
v ∈ V0 = {y ∈ C 1 [a, b] : y(a) = 0, y(b) = 0}.
Wenn nun das Funktional J in y∗ einen Extremwert besitzt, dann besitzt
h(ε) = J(y∗ + εv)
in ε = 0 ein Extremum, das heißt, es muss
dh d
0=
=
J(y∗ + εv)
dε ε=0
dε
ε=0
gelten.
Def 1.9 Die Zahl
d
δJ(y; v) :=
J(y + εv)
dε
ε=0
heißt erste Variation oder Gâteaux-Variation von J in y in Richtung v (vorausgesetzt, die Ableitung existiert).
Bsp 1.10 Sei X = C[a, b] und
Z
J(y) =
b
y(x)2 dx.
a
Dann ist
Z b
Z b
d
d
2
2
(y(x) + εv(x)) dx
δJ(y; v) =
(y(x) + εv(x)) dx
=
dε a
a dε
ε=0
ε=0
Z b
Z b
=
2(y(x) + εv(x))v(x)|ε=0 dx = 2
y(x)v(x) dx.
a
a
Aus der Überlegung in Erklärung 1.8 erhält man den folgenden Satz.
Satz 1.11 Für eine Lösung y∗ ∈ V∗ des Variationsproblems (1.1) gilt für alle
zulässigen v ∈ V0
δJ(y∗ ; v) = 0,
sofern diese erste Variation existiert.
HT 2015
9
Bem 1.12 Mit diesem Satz werden stets nur Kandidaten für ein Extremum
bestimmt. Es ist zu prüfen, ob sie die gewünschte Extremaleigenschaft besitzen.
(Das ist mühsam, aber manchmal aus physikalischen Gründen klar.)
Bsp 1.13 (Gleichgewichtslage einer Saite) Es ist
V∗ = V0 = u ∈ W 1,2 (0, `) : u(0) = u(`) = 0 .
In Beispiel 1.4 wurde bereits hergeleitet, dass die Auslenkung u(x) der Saite in
der Gleichgewichtslage das Funktional
Z `
Z `
E(u) = 21 S
u0 (x)2 dx −
f (x)u(x) dx
0
0
minimiert. Die Funktion h(ε) := E(u∗ + εv) nimmt folglich für beliebiges v ∈ V0
ihr Minimum bei ε = 0 an, d. h., es gilt
d
0
0 = h (ε) =
E(u∗ + εv)
= δE(u; v).
dε
ε=0
Bestimmen wir also die erste Variation des Funktionals E(u). Es gilt
Z `
Z `
d 1
0
0
2
S
(u
(x)
+
εv
(x))
dx
−
f
(x)(u(x)
+
εv(x))
dx
δE(u; v) =
2
dε
0
0
ε=0
Z `
Z `
f (x)v(x) dx
2(u0 (x) + εv 0 (x))v 0 (x) dx −
= 21 S
0
0
`
Z
u0 (x)v 0 (x) dx −
=S
0
Z
ε=0
`
f (x)v(x) dx.
0
Die Gleichgewichtslage der Saite wird folglich auch beschrieben durch
Z `
Z `
S
u0 (x)v 0 (x) dx =
f (x)v(x) dx ∀v ∈ V0 .
0
0
Da u∗ + εv ∈ V0 verlangt wird, muss auch v ∈ V0 sein, d.h. v(0) = v(`) = 0.
E 1.14 (Verallgemeinerung) Für allgemeine Funktionale
Z b
J(y) =
F (x, y, y 0 ) dx
a
und
y ∈ V∗ = {y ∈ C 1 [a, b] : y(a) = ya , y(b) = yb }
ist die erste Variation
Z b
d
0
0
δJ(y; v) =
F (x, y + εv, y + εv ) dx
dε a
ε=0
Z b
∂F
∂F 0
=
v + 0 v dx
∂y
∂y
a
wobei
v ∈ V0 = {y ∈ C 1 [a, b] : y(a) = y(b) = 0}.
10
HT 2015
Bsp 1.15 (Rotationsminimalfläche) In der Übung 1.5 wurde bereits
Z x1
p
y(x) 1 + y 0 (x)2 dx,
M (y) = 2π
x0
V∗ = y(x) ∈ C 1 [x0 , x1 ] : y(x0 ) = y0 , y(x1 ) = y1 ,
V0 = y(x) ∈ C 1 [x0 , x1 ] : y(x0 ) = y(x1 ) = 0
hergeleitet. Daraus ergibt sich für den Integranden
p
F (x, y, y 0 ) = y 1 + y 02
p
∂F
= 1 + y 02
∂y
∂F
02 −1/2
1
=
y
·
1
+
y
· 2y 0
2
∂y 0
und folglich für die erste Variation
#
Z x1 "p
0
yy
0
1 + y 02 v + p
δM (y; v) = 2π
v dx.
1 + y 02
x0
Bsp 1.16 (Brachistochrone-Problem) In Beispiel 1.3 wurde
Z as
1 + (y 0 (x))2
dx,
T (y) =
2gy(x)
0
V∗ = {y ∈ C 1 (0, a) ∩ C[0, a] : y(0) = 0, y(a) = b},
V0 = {y ∈ C 1 (0, a) ∩ C[0, a] : y(0) = y(a) = 0}
hergeleitet.4 Daraus ergibt sich für den Integranden
i
1 h
2 1/2 −1/2
y
1 + y0
F (x, y, y 0 ) = √
2g
i
∂F
1 h
2 1/2
=√
1 + y0
− 12 y −3/2
∂y
2g
i−1/2
∂F
1 1h
02
√
=
1
+
y
2y 0 y −1/2
∂y 0
2g 2
und folglich für die erste Variation
Z a
i1/2
i−1/2
h
h
1
−3/2
0 −1/2 0
02
02
1
1
δT (y; v) = √
−2 1 + y
y
v+ 2 1+y
2y y
v dx
2g 0
Z
i
1 1 ah
2 −1/2 −3/2
2
√
=
1 + y0
y
−(1 + y 0 )v + 2yy 0 v 0 dx.
2g 2 0
Die Variationsaufgabe lautet demnach:
Z a
−(1 + y 0 2 )v + 2yy 0 v 0
dx = 0 ∀v ∈ V0 .
Gesucht is y ∈ V∗ :
(1 + y 0 2 )1/2 y 3/2
0
Ü 1.17 Bestimmen Sie die erste Variation des Zeitfunktionals des Fermat-Prinzips
aus Aufgabe 1.6.
4
Der Integrand besitzt am linken Intervallende eine Polstelle, alle hier angesprochenen Umformungen können aber dennoch durchgeführt werden.
HT 2015
11
1.3 Fundamentalsatz der Variationsrechnung
Satz 1.18 Sei f ∈ C[a, b]. Wenn für alle g ∈ {v ∈ C 2 [a, b] : v(a) = v(b) =
v 0 (a) = v 0 (b) = 0} (oder g ∈ C0∞ (a, b), was eine kleinere Anzahl von Funktionen
ist) die Gleichung
Z b
f (x)g(x) dx = 0
a
gilt, dann ist f (x) ≡ 0. Der Satz gilt entsprechend, wenn das Integrationsgebiet
mehrdimensional ist.
Beweis Wir beweisen den Satz indirekt. Dazu nehmen wir an, es gäbe ein
x0 ∈ (a, b) mit f (x0 ) 6= 0, o.B.d.A. f (x0 ) > 0.
y
f (x)
f (x0 ) —
|
x0 − ε
|
x0
|
x0 + ε
x
Da f stetig ist, existiert ein ε > 0 mit
f (x) > 0
∀x ∈ (x0 − ε, x0 + ε).
Wählen nun die Funktion
(
(x − x0 + ε)4 (x − x0 − ε)4
g(x) =
0
in (x0 − ε, x0 + ε),
sonst.
Es gilt g(x) > 0 in (x0 − ε, x0 + ε). Außerdem ist g zulässig, g ∈ {v ∈ C 2 [a, b] :
v(a) = v(b) = 0}. Für das Integral gilt aber
Z
b
Z
x0 +ε
f (x)g(x) dx =
a
f (x)g(x) dx > 0,
x0 −ε
was im Widerspruch zur Voraussetzung steht. Damit muss die Annahme falsch
sein. Es gibt also kein x0 ∈ (a, b) mit f (x0 ) 6= 0.
q.e.d.
Rb
Bem 1.19 Aus a f (x)g(x) = 0 folgt nicht zwingend, dass f (x) ≡ 0 oder g(x) ≡
0 ist. Es ist wichtig, dass das Integral für alle zulässigen g Null ist.
12
HT 2015
1.4 Herleitung der Euler-Lagrange-Differentialgleichung
Bsp 1.20 (Gleichgewichtslage einer Saite) In Beispiel 1.13 wurde die Bedingung
Z `
Z `
0=S
u0 (x)v 0 (x) dx −
f (x)v(x) dx
∀v ∈ V0
(1.2)
0
0
W 1,2 (0, `)
hergeleitet, wobei V0 = u ∈
: u(0) = u(`) = 0 . Integriert man den
ersten Term partiell, ergibt sich
Z `
Z `
`
0
0
u (x)v (x) dx = −
u00 (x)v(x) dx + u0 (x)v(x) .
(1.3)
0
0
|
{z
}0
0 wegen RB
Aus (1.2) und (1.3) folgt
Z `
[−Su00 (x) − f (x)] v(x) dx
0=
∀v ∈ V0 .
0
Da V0 ⊃ {v ∈ C 2 [0, `] : v(0) = v(`) = v 0 (a) = v 0 (b) = 0} gilt, ist der Fundamentalsatz der Variationsrechnung anwendbar und liefert die Randwertaufgabe
−Su00 (x) − f (x) = 0
(Differentialgleichung)
u(0) = u(`) = 0
(Randbedingungen)
Für die Differentialgleichungsformulierung brauchen wir höhere Glattheit u ∈
C 2 [0, `].
Satz 1.21 Ist die Lösung y0 (x) der Extremalaufgabe
Z b
J(y) =
F (x, y, y 0 ) dx = Extr
a
im Raum C 2 [a, b] enthalten, dann erfüllt sie die Euler-Lagrange-Differentialgleichung
∂F
d ∂F
−
= 0 ∀x ∈ (a, b).
∂y
dx ∂y 0
Beweis Laut Satz 1.11 gilt
Z b
0 = δJ(y; v) =
a
∂F
∂F
v + 0 v0
∂y
∂y
dx
∀v ∈ V0
Die partielle Integration des zweiten Terms liefert
Z b
Z b
∂F b
d ∂F
∂F 0
v dx =
v −
v dx.
0
0
0
∂y a
a dx ∂y
a ∂y
Da v(a) = v(b) = 0 ist, folgt weiter
Z b
∂F
d ∂F
0=
−
v dx
∂y
dx ∂y 0
a
∀v ∈ V0 .
Mit dem Fundamentalsatz 1.18 folgt die Behauptung.
HT 2015
q.e.d.
13
d
d ∂F
∂
E 1.22 Was bedeutet dx
∂y 0 ? Wegen dx (und nicht ∂x ) handelt es sich um
eine totale Ableitung, d. h., es muss die Kettenregel angewandt werden. Ist
F = F (x, y(x), y 0 (x)), dann ist
dF
∂F
∂F dy
∂F dy 0
=
+
+ 0
dx
∂x
∂y dx ∂y dx
bzw.
∂ ∂F
∂ ∂F dy
d ∂F
∂ ∂F dy 0
=
+
+
dx ∂y 0
∂x ∂y 0 ∂y ∂y 0 dx ∂y 0 ∂y 0 dx
= F,y0 x + F,y0 y y 0 + F,y0 y0 y 00 .
Man kann die Euler-Lagrange-Gleichung also auch in der Form
F,y − F,y0 x − F,y0 y y 0 − F,y0 y0 y 00 = 0
schreiben.
Wir sind bisher die Schritte vom Minimierungsproblem über die Variationsgleichung zur Randwertaufgabe gegangen. Am Ende dieses Abschnitts wollen
wir noch diskutieren, ob wir auch von der Randwertaufgabe zur Variationsgleichung bzw. zu einer Minimierungsaufgabe gelangen können.
Bsp 1.23 (Von der Randwertaufgabe zur Variationsgleichung) Wir betrachten die Randwertaufgabe
0
− k(x)u0 (x) + c(x)u(x) = f (x) in (0, 1),
(1.4)
u(0) = u(1) = 0.
Wir setzen V0 = {u ∈ W 1,2 (0, 1) : u(0) = u(1) = 0}, multiplizieren die Differentialgleichung (1.4) mit v ∈ V0 und integrieren über das Interval (0, 1). Wir
erhalten
Z 1
Z 1
Z 1
0
0
−
k(x)u (x) v(x) dx +
c(x)u(x)v(x) =
f (x)v(x) dx ∀v ∈ V0 .
0
0
0
Partielle Integration und Einsetzen der Randwerte liefert für das erste Integral
Z 1
Z 1
1
0
0
0
−
k(x)u (x) v(x) dx = −k(x)u (x)v(x) 0 +
k(x)u0 (x)v 0 (x) dx
0
0
Z 1
=
k(x)u0 (x)v 0 (x) dx.
0
Damit lautet die gesuchte Variationsaufgabe
Finde u ∈ V0 :
Z 1
Z
0
0
k(x)u (x)v (x) + c(x)u(x)v(x) dx =
0
1
f (x)v(x) dx
∀v ∈ V0 .
0
Das zugehörige Extremalproblem (hier Minimumproblem) lautet
Finde u ∈ V0 :
Z
Z 1
1 1
0
2
2
k(x)u (x) + c(x)u(x) dx −
f (x)u(x) dx → Extr,
J(u) =
2 0
0
was durch Bilden von δJ(u; v) überprüft werden kann.
14
HT 2015
E 1.24 Für die Randwertaufgabe
0
− k(x)u0 (x) + b(x)u0 (x) + c(x)u(x) = f (x)
in (0, 1)
u(0) = u(1) = 0
ergibt sich die Variationsgleichung
Z
Z 1
0 0
0
ku v + bu v + cuv dx =
1
f v dx
∀v ∈ V0 .
0
0
Hierzu gibt es aber kein Extremalproblem.
Ü 1.25 Man zeige, dass die Kettenlinie
y(x) = c cosh
x+a
c
mit geeigneten a und c die Minimalflächenaufgabe aus Beispiel 1.15 löst.
HT 2015
15
1.5 Analyse von Spezialfällen
Die Euler-Lagrange-Differentialgleichung ist in einigen Fällen analytisch lösbar
bzw. vereinfachbar.
1.5.1 F hängt nicht von y 0 ab
E 1.26 Die Funktion F habe die Darstellung
F (x, y, y 0 ) = F (x, y)
In diesem Fall ist die Euler-Lagrange-Gleichung
∂F
=0
∂y
keine Differentialgleichung. Das ist bereits eine implizite Darstellung der Extremalen.
Bsp 1.27 Wir suchen die Extremalen des Funktionals
Z
J(y) =
b
y 3 + 3y(x2 − 1) dx
a
mit den Randwerten y(a) = ya und y(b) = yb . Mit
F (x, y, y 0 ) = y 3 + 3y(x2 − 1)
ergibt sich die Euler-Lagrange-Gleichung
0=
∂F
d ∂F
∂F
−
=
= 3y 2 + 3(x2 − 1)
0
∂y
dx ∂y
∂y
mit den beiden Lösungen
p
y1,2 (x) = ± 1 − x2 .
Im Fall a = −1, b = 1,√ya = yb = 0 sind beide Funktionen
Lösungen der
√
Extremalaufgabe. Mit J( 1 − x2 ) = . . . < 0 und J(− 1 − x2 ) = . . . > 0
schließen wir auf ein Minimum und ein Maximum.
√
Ist zum Beispiel a = 0, b = 1, ya = 1, yb = 0, dann erfüllt nur y = 1 − x2
die Randbedingungen,
es gibt nur eine
√ Extremale.
√
2
Wenn ya 6= ± 1 − a oder yb 6= ± 1 − b2 ist, dann erfüllt keine der beiden
Funktionen die Randbedingungen und es gibt keine Lösung.
16
HT 2015
1.5.2 F ist linear in y 0
E 1.28 Das bedeutet, dass die Funktion F die Darstellung
F (x, y, y 0 ) = P (x, y) + Q(x, y)y 0
hat. Die zugehörige Euler-Lagrange-Differentialgleichung lässt durch
∂F
∂P
∂Q 0
=
+
y
∂y
∂y
∂y
∂F
= Q(x, y)
∂y 0
d ∂F
∂Q ∂Q 0
=
+
y
dx ∂y 0
∂x
∂y
herleiten. Damit ergibt sich weiter
∂F
d ∂F
−
∂y
dx ∂y 0
∂Q 0
∂Q ∂Q 0
∂P
+
y −
+
y
=
∂y
∂y
∂x
∂y
∂P
∂Q
=
−
.
∂y
∂x
0=
Die Euler-Lagrange-Differentialgleichung für die betrachtete Funktion F ist
∂P (x, y(x))
∂Q(x, y(x))
=
∂y
∂x
Folgende Fälle können auftreten:
∂Q
∂P
1. Wenn ∂P
∂y 6= ∂x ist, oder ∂y =
hat das Problem keine Lösung.
∂Q
∂x
nur in einzelnen Punkten gilt, dann
∂Q
2. Wenn ∂P
∂y = ∂x für einzelne Kurven y = y(x) erfüllt ist, dann sind diese
Kurven Lösungen der Euler-Lagrange-Differentialgleichung. (Es ist gegebenenfalls noch auszuwählen, welche der Kurven die richtige Extremaleigenschaft besitzt.)
∂Q
3. Wenn ∂P
∂y = ∂x überall erfüllt ist, dann sind alle y ∈ V∗ Lösung der
Variationsaufgabe (vgl. Wegunabhängigkeit eines Integrals).
Bsp 1.29 Wir suchen die Extremalen des Funktionals
Z b
J(y) =
y 3 + (12x − x3 )y 0 dx
a
mit den Randwerten y(a) = ya und y(b) = yb . Mit
F (x, y, y 0 ) = y 3 + (12x − x3 )y 0
ergibt sich die Euler-Lagrange-Gleichung
∂F
d ∂F
d
−
= 3y 2 −
(12x − x3 )
∂y
dx ∂y 0
dx
= 3y 2 − (12 − 3x2 ) = 3(y 2 + x2 − 4).
0=
HT 2015
17
Dies
√ ist keine Differentialgleichung. Die Lösungen dieser Gleichung, y1,2 (x) =
± 4 − x2 , können wie in Beispiel 1.27 in Abhängigkeit von den Randbedingungen diskutiert werden (zwei, eine oder keine Extremalen).
Bsp 1.30 Wir suchen die Extremalen des Funktionals
Z
J(y) =
b
y 2 + cxyy 0 dx,
c ∈ R,
a
mit den Randwerten y(a) = ya und y(b) = yb . Mit
F (x, y, y 0 ) = y 2 + cxyy 0
ergibt sich die Euler-Lagrange-Gleichung
∂F
d ∂F
d
−
= (2y + cxy 0 ) −
(cxy)
∂y
dx ∂y 0
dx
= 2y + cxy 0 − (cy + cxy 0 ) = (2 − c)y.
0=
Für c = 2 sind alle Funktionen, die die Randbedingungen erfüllen, Extremalen.
Für c 6= 2 gibt es nur die Lösung y ≡ 0, falls ya = yb = 0 ist. Es gibt keine
Lösung, falls ya 6= 0 oder falls yb 6= 0 ist.
Bsp 1.31 Wir suchen die Extremalen des Funktionals
b
Z
J(y) =
x2 y + xy 0 dx
a
mit den Randwerten y(a) = ya und y(b) = yb . Mit
F (x, y, y 0 ) = x2 y + xy 0
ergibt sich die Euler-Lagrange-Gleichung
0=
∂F
d ∂F
d
−
= x2 −
x = x2 − 1.
∂y
dx ∂y 0
dx
Diese Gleichung ist für x 6= ±1 nicht erfüllt, daher gibt es keine Lösung der
Variationsaufgabe.
Ü 1.32 Diskutieren Sie analog die Extremalen der Funktionale
Z
J1 (y) =
b
yy 0 dx
Z
und J2 (y) =
a
b
xyy 0 dx
a
mit den Randwerten y(a) = ya und y(b) = yb .
18
HT 2015
1.5.3 F hängt nicht explizit von y ab
E 1.33 Die Funktion F habe die Darstellung
F (x, y, y 0 ) = F (x, y 0 )
In diesem Fall ist die Euler-Lagrange-Differentialgleichung
d ∂F
= 0,
dx ∂y 0
was zu
∂F
= c = const
∂y 0
äquivalent ist.
Bsp 1.34 Wir bestimmen den kürzesten Weg zwischen 2 Punkten in der Ebene,
d. h. die kürzeste Kurve y(x) vom Punkt (x0 , y0 ) zum Punkt (x1 , y1 ).
Sei o.B.d.A. sei x0 < x1 . Die Bogenlänge berechnet sich als
Z x1 p
J(y) =
1 + y 0 (x)2 dx
x0
mit y ∈ V∗ = {y ∈
C 1 (x
: y(x0 ) = y0 , y(x1 ) = y1 }. Wir bemerken, dass
p
F (x, y, y 0 ) = F (y 0 ) = 1 + y 0 (x)2
0 , x1 )
nicht von y abhängt und folgern mit
F,y = 0,
y0
F,y0 = p
1 + y 02
und Satz 1.21 die Randwertaufgabe
d
0−
dx
!
y0
p
1 + y 02
= 0,
y(x0 ) = y0 ,
y(x1 ) = y1 .
Wie in Erklärung 1.33 dargelegt, folgt hieraus sofort
y0
p
= c,
1 + y02
wobei man in diesem Beispiel für die Konstante c die Beschränkung c ∈ (−1, 1)
folgern kann. Diese Differentialgleichung kann man mit den Schritten
q
y0 = c 1 + y02,
2
2
y 0 = c2 (1 + y 0 ),
2
(1 − c2 )y 0 = c2 ,
r
c2
=: a = const,
1 − c2
y = ax + b,
y0 = ±
lösen. Die Extremalkurven sind Geraden. Das Einsetzen der Randbedingungen
liefert die Lösung
y1 − y0
y0 x1 − y1 x0
y=
x+
.
x1 − x0
x1 − x0
HT 2015
19
1.5.4 F hängt nicht explizit von x ab
E 1.35 Die Funktion F habe die Darstellung
F (x, y, y 0 ) = F (y, y 0 ).
Angewandt auf die Euler-Lagrange-Differentialgleichung in der Form von Erklärung 1.22 bedeutet das
0 = F,y − F,y0 x −F,y0 y y 0 − F,y0 y0 y 00
|{z}
(1.5)
=0
Damit ergibt sich die Eigenschaft
d
(F − y 0 F,y0 ) = F,y y 0 + F,y0 y 00 − y 00 F,y0 − y 0 (F,y0 y y 0 + F,y0 y0 y 00 )
dx
= y 0 (F,y − F,y0 y y 0 − F,y0 y0 y 00 )
=0
wegen (1.5),
das heißt, aus Gleichung (1.5) folgt das Eulersche Zwischenintegral
F − y 0 F,y0 = c = const
(1.6)
in dem alle Extremalen enthalten sind.
Wenn möglich, löst man die Gleichung (1.6) nach y 0 auf:
y 0 = Φ(y, c).
Trennung der Veränderlichen liefert dann
dy
= Φ(y, c)
dx
dy
= dx
Φ(y, c)
Z
dy
x=
.
Φ(y, c)
Man findet also x = x(y), eine ebenso gute Bahngleichung wie y = y(x).
20
HT 2015
Bsp 1.36 (Brachistochrone-Problem)
a
A
x
y(x)
b
B
y
Wie in Beispiel 1.3 bereits hergeleitet, lautet das Variationsproblem: Finde
dasjenige y ∈ V∗ , das das Funktional T (y) minimiert, wobei
V∗ = {y ∈ C 1 (0, a) ∩ C[0, a] : y(0) = 0, y(a) = b},
Z as
1 + y 02
T (y) =
dx.
2gy
0
Im folgenden wird das äquivalente Zielfunktional
Z as
1 + y 02
dx
T (y) =
y
0
verwendet. Der Integrand F hat die Form
s
F (x, y, y 0 ) =
1 + y 02
,
y
hängt also nicht explizit von x ab. Damit muss
F − y 0 F,y0 = c = const
gelten. Weiter ergibt sich
s
1 + y 02
1
y0
− y0 √ p
=c
y
y 1 + y 02
1 + y 02 − y 02
=c
√ p
y 1 + y 02
1
y(1 + y 02 ) = 2
c
⇔
⇒
c2 y =
⇒
(Hauptnenner)
(Quadrieren, Reziproke) (1.7)
1
.
1 + y 02
(1.8)
Wir suchen nun die Lösungskurve in einer Parameterdarstellung [x(t), y(t)]T ,
für die
t
y 0 = cot , t ∈ [0, 2π)
(1.9)
2
gilt. Damit ergibt sich zum einen
sin2 2t
1
1
2 t
=
t
t = sin 2 = 2 (1 − cos t)
2 t
2
2
1 + cot 2
sin 2 + cos 2
dy
t
t 1
t
t
c2
= 2 sin cos · = sin cos .
dt
2
2 2
2
2
c2 y =
⇒
HT 2015
(1.10)
(1.11)
21
Andererseits gilt auch
dy
dt
= y 0 dx
dt . Daraus folgt
dx
1 dy
= 0
dt
y dt
t
t 1
t
= tan · 2 sin cos
2 c
2
2
1
2 t
= 2 sin
c 2
1 1
x(t) = 2
(t − sin t) + c1
c 2
⇒
mit (1.9) und (1.11)
(1.12)
Die Gleichungen (1.10) und (1.12) liefern die Parameterdarstellung der Brachistochrone:
1
1
x(t)
(t − sin t) + c1
2
= 2 1
.
y(t)
c
2 (1 − cos t)
Die Konstanten sind so zu bestimmen, dass die Kurve durch (0, 0) und (a, b)
geht. Aus y = 0 folgt t = 0, also muss x(0) = 0 gelten, und damit c1 = 0. Zur
Bestimmung von c ergibt sich das Gleichungssystem
1
(t − sin t) = a
2c2
1
(1 − cos t) = b,
2c2
welches genau eine Lösung (c, t) hat.
Brachistochronen
0.5
0
−0.5
−y
−1
−1.5
−2
−2.5
−3
0
1
2
3
4
5
6
7
8
x
Ü 1.37 Lösen Sie die Variationsaufgabe zum Fermat-Prinzip mit v = v(y), d.h.,
mit Brechungsindex n(y) = 1/v(y), vgl. Aufgabe 1.6.
√
a) v = v(y) = y
b) v = v(y) = y
Hinweis zu a) Nach dem Aufschreiben des Eulerschen Zwischenintegrals sollten
Sie erst einmal durchatmen und kurz nachdenken, ob Ihnen dieses bekannt
vorkommt. Zu b) Hier ist die Lösung etwas länger, kann aber mit derselben
Substitution wie in Beispiel 1.36 hergeleitet werden.
Ü 1.38 Lösen Sie die Variationsaufgabe aus Beispiel 1.15, um die in Aufgabe 1.25 angegebene Funktion herzuleiten.
22
HT 2015
1.6 Variationsaufgaben mit höheren Ableitungen
Bsp 1.39 (Balkenbiegung) Wir betrachten einen fest eingespannten Balken
der Länge ` mit der Biegesteifigkeit EI, siehe Bild.
f (x)
0
`
x
Durch eine Streckenlast f (x) wird die Auslenkung y(x) hervorgerufen. Diese
minimiert die Formänderungsarbeit
Z `
1
00
2
W (y) =
EIy (x) + f (x)y(x) dx
2
0
über der zulässigen Menge5
V0 = {y ∈ W 2,2 (0, `) : y(0) = y 0 (0) = y(`) = y 0 (`) = 0}.
E 1.40 (Herleitung der Variationsformulierung) Die Variationsformulierung erhält man wie folgt:
0 = δW (y, v)
Z `
d
1
00
00 2
=
EI(y + εv ) + (y + εv)f dx
dε 0 2
ε=0
Z `
=
EIy 00 v 00 + f v dx ∀v ∈ V0 .
0
E 1.41 (Herleitung der Randwertaufgabe) Wir integrieren nun partiell und
erhalten mit den Randbedingungen
Z `
Z `
`
d
EIy 00 v 00 dx = EIy 00 v 0 0 −
EIy 00 v 0 dx
0
0 dx
` Z ` 2
d
d
= −
(EIy 00 )v +
(EIy 00 )v dx
2
dx
dx
0
0
und somit
Z l
0=
0
d2
00
(EIy ) + f v dx
dx2
∀v ∈ V0 .
Die Randwertaufgabe lautet somit
d2
(EIy 00 ) + f = 0
dx2
y(0) = y 0 (0) = y(`) = y 0 (`) = 0
∀x ∈ (0, `)
Falls EI konstant ist, vereinfacht sich die Differentialgleichung zu
EIy (4) + f = 0.
5
Der Funktionenraum W 2,2 (0, `) ist die Menge aller Funktionen v(x), für die
R`
(v(x)2 + v 0 (x)2 + v 00 (x)2 ) dx < ∞ ist.
0
HT 2015
23
E 1.42 (allgemeines Funktional) Wir wollen nun Funktionale der Form
Z
J(y) =
b
F (x, y, y 0 , . . . , y (k) ) dx
a
über der zulässigen Menge6
V0 = {y ∈ W k,2 (a, b) : y (j) (a) = y (j) (b) = 0, j = 0, . . . , k − 1}
minimieren. Die Variationsformulierung erhält man, indem man die erste Variation gleich Null setzt,
d
J(y + εv)
0 = δJ(y, v) =
dε
ε=0
Z b
∂F
∂F 0
∂F (k)
dx ∀v ∈ V0 .
(1.13)
=
v + 0 v + . . . + (k) v
∂y
∂y
∂y
a
Durch partielle Integration und unter Ausnutzung der Randbedingung von v ∈
V0 erhält man
Z b
Z b
Z b
∂F 0
∂F b
d ∂F
d ∂F
v dx =
v −
v dx = −
v dx,
0
0
0
0
∂y a
a ∂y
a dx ∂y
a dx ∂y
Z b
Z b
Z b
∂F 0 b
d ∂F 0
d ∂F 0
∂F 00
v
dx
=
v
−
v
dx
=
−
v dx
00
00 00
∂y
∂y
dx
∂y
dx
∂y 00
a
a
a
a
Z b 2
Z b 2
d ∂F b
d ∂F
d ∂F
= −
v +
v dx =
v dx,
00
2
00
2
00
dx ∂y a
a dx ∂y
a dx ∂y
das heißt allgemein
Z
a
b
∂F (j)
v dx = (−1)j
∂y (j)
Z
b
a
dj ∂F
v dx.
dxj ∂y (j)
Ist F hinreichend oft differenzierbar, gilt also
Z b
k ∂F
∂F
d ∂F
k d
0=
−
± . . . + (−1)
v dx,
∂y
dx ∂y 0
dxk ∂y (k)
a
woraus mit dem Hauptsatz der Variationsrechnung die Randwertaufgabe
k ∂F
∂F
d ∂F
k d
−
±
.
.
.
+
(−1)
∂y
dx ∂y 0
dxk ∂y (k)
= 0
y (j) (a) = y (j) (b) = 0
∀x ∈ (a, b),
(1.14)
j = 0, . . . , k − 1 (1.15)
folgt.
6
Der Funktionenraum W k,2 (a, b) ist die Menge aller Funktionen v(x), für die
Rb
(v(x)2 + v 0 (x)2 + · · · + v (k) (x)2 ) dx < ∞ ist.
a
24
HT 2015
Bsp 1.43 Die Lösung u der Randwertaufgabe
−u00 = f in (a, b),
u(a) = u(b) = 0,
minimiert das Kleinste-Quadrate-Funktional
1
J(u) =
2
Z
b
(u00 + f )2 dx
a
über V0 = {v ∈ W 2,2 (a, b) : v(a) = v(b) = 0}. Dabei ist der Funktionenraum
W 2,2 (a, b) der Raum der Funktionen, deren sämtliche Ableitungen bis 2. Ordnung quadratisch integrierbar sind, d.h.,
n
o
W 2,2 (a, b) :=
v : kvk2,2 < ∞ ,
Z b
2
v(x)2 + v 0 (x)2 + v 00 (x)2 dx.
kvk2,2 :=
a
Diese Formulierung der Randwertaufgabe als Minimierungsproblem ist Ausgangspunkt für das numerische Lösungsverfahren least squares finite element
method, übersetzt etwa Kleinste-Quadrate-Finite-Elemente-Methode.
HT 2015
25
1.7 Variationsaufgaben mit Funktionen in mehreren Variablen
E 1.44 (Minimierungsproblem) In diesem Abschnitt suchen wir Funktionen
u(~x) mit ~x = (x1 , . . . , xd ) ∈ Ω ⊂ Rd , d ≥ 2. Zu minimieren ist das Funktional
Z
F (~x, u, ∇u) dΩ
J(u) =
Ω
über dem zulässigen Bereich
V∗ = v ∈ W 1,2 (Ω) : v = g auf ∂Ω ,
wobei W 1,2 (Ω) wieder der Raum der Funktionen mit beschränkter Energie ist,
Z
1,2
2
2
W (Ω) = v :
|v| + |∇v| dΩ < ∞ .
Ω
E 1.45 (Herleitung der Variationsformulierung) Zur Herleitung der ersten Variation schreiben wir das Funktional besser in der Form
Z
∂u
∂u
F x1 , . . . , xd , u,
J(u) =
dΩ
,...,
∂x1
∂xd
Ω
und erhalten
Z
d
∂(u + εv)
∂(u + εv)
δJ(u, v) =
F x1 , . . . , xd , u + εv,
,...,
dΩ
dε Ω
∂x1
∂xd
ε=0
Z ∂F
∂F
∂F
=
v+
v,1 + . . . +
v,d dΩ.
∂u
∂u,1
∂u,d
Ω
Die Variationsgleichung lautet also
Z ∂F
∂F
∂F
v+
v,1 + . . . +
v,d dΩ = 0 ∀v ∈ V0 .
∂u
∂u,1
∂u,d
Ω
E 1.46 (Herleitung der Differentialgleichung) Die Euler-Lagrange-Differentialgleichung erhält man mit Hilfe der Formel
Z
Z
Z
∂v
∂w
w
wvnj ds −
v
dΩ =
dΩ, j = 1, . . . , d,
Ω ∂xj
Ω ∂xj
∂Ω
(partielle Integration), wobei nj die j-te Komponente des Normalenvektors an
∂Ω bezeichnet. Ist v ∈ V0 = {v ∈ W 1,2 (Ω) : v = 0 auf ∂Ω} dann verschwindet das Randintegral. Bei hinreichender Glattheit von F erhalten wir aus der
Variationsgleichung die Gleichung
Z ∂ ∂F
∂ ∂F
∂F
−
− ... −
v dΩ = 0 ∀v ∈ V0
∂u
∂x1 ∂u,1
∂xd ∂u,d
Ω
und damit die Differentialgleichung
∂F
∂ ∂F
∂ ∂F
−
− ... −
= 0.
∂u
∂x1 ∂u,1
∂xd ∂u,d
Zusammen mit der entsprechenden Randbedingung ergibt sich eine Randwertaufgabe.
26
HT 2015
Bsp 1.47 (Minimalflächen, das Plateauproblem) (nach J. Plateau, 1801 – 1883)
Man sucht unter allen regulären Flächen, die von einer Raumkurve C berandet
werden, diejenige(n) Fläche(n) Φ mit minimalen Flächeninhalt (vgl. Seifenblase).
C
Sei der Einfachheit halber die Fläche im kartesischen Koordinatensystem als
Funktion z = z(x, y) darstellbar,
Φ = {(x, y, z) ∈ R3 : (x, y) ∈ Ω, z = z(x, y)},
C = {(x, y, z) ∈ R3 : (x, y) ∈ ∂Ω, z = z0 (x, y)},
wobei die den Rand definierende Funktion z0 gegeben ist. Dann ist der Flächeninhalt der gesuchten Fläche
Z q
2 + z 2 dx dy.
J(z) =
1 + z,x
,y
Ω
Die Variationsgleichung lautet
Z
z,x v,x + z,y v,y
q
δJ(z, v) =
dx dy = 0 ∀v ∈ V0 ,
2 + z2
Ω
1 + z,x
,y
und die zugehörige Differentialgleichung ist


z,x
∂ 
− ∂
q
0=−
∂x
∂y
1 + z2 + z2
,x
,y
z,y
p
1 + z,x + z,y
!
.
Man könnte weiter umformen:




z,x
z
∂ 
∂
,y
+
q

q
0 =
∂x
∂y
2
2
2 + z2
1 + z,x + z,y
1 + z,x
,y
q
z,y
z,x
2
2
z,xx 1 + z,x + z,y − z,x √ 2 2 z,xx + √ 2 2 z,xy
1+z,x +z,y
1+z,x +z,y
=
2 + z2
1 + z,x
,y
q
z,x z,xy
z,y z,yy
2 + z2 − z
√
√
z,yy 1 + z,x
+
,y
,y
2 +z 2
2 +z 2
1+z,x
1+z,x
,y
,y
+
2
2
1 + z,x + z,y
2
2
0 = z,xx 1 + z,x
+ z,y
− z,x (z,x z,xx + z,y z,xy )
2
2
+ z,y
+z,yy 1 + z,x
− z,y (z,x z,xy + z,y z,yy )
2
2
= z,xx 1 + z,y − 2z,x z,y z,xy + z,yy 1 + z,x
.
HT 2015
27
Ü 1.48 (Plattenbiegung (nach Kirchhoff)) Das Funktional für die Auslenkung
u(x, y) lautet
#
2
Z " 2
∂ u ∂2u
+ 2
J(u) =
− 2p(x, y)u(x, y) dx dy,
∂x2
∂y
Ω
wobei p(x, y) den Druck auf die Platte bezeichnet. Man leite die Euler-LagrangeGleichung her.
Es ist zu beachten, dass das der Integrand
∂2u ∂2u
F = F u, 2 , 2
∂x ∂y
von zweiten Ableitungen abhängt. Funktionale mit höheren Abteilungen haben
wir in Abschnitt 1.6 besprochen.
Ü 1.49 (Alte Klausuraufgabe) Die Lösung u der Randwertaufgabe
− ∆u = f in Ω,
u = 0 auf ∂Ω,
(1.16)
minimiert das Kleinste-Quadrate-Funktional
Z
1
J(u) =
(∆u + f )2 dx
2 Ω
über V0 = {v ∈ W 2,2 (Ω) : v = 0 auf ∂Ω}.
(a) Leiten Sie die Variationsformulierung her.
(b) Leiten Sie die daraus entstehende Randwertaufgabe her. (Es ist nicht
(1.16).)
(c) Wie lauten der Ritz- und der Galerkin-Ansatz für diese Aufgabe? (Im
Falle eines Finite-Elemente-Ansatzes spricht man von der least squares finite element method, übersetzt etwa Kleinste-Quadrate-Finite-ElementeMethode.)
Hinweis: Es gilt die Integralidentität
Z
Z
Z
∂v
w∆v dx =
w dS −
∇w · ∇v dx,
Ω
∂Ω ∂n
Ω
∂v
= ∇v · ~n die Normalenableitung bezeichnet, das ist die auf ∂Ω defiwobei ∂n
nierte Ableitung der Funktion v in Richtung der äußeren Normalen ~n.
28
HT 2015
2 Variationsprobleme mit freien Randbedingungen
Bsp 2.1 (Prinzip der minimalen Formänderungsarbeit) Gegeben ist ein Zylinder aus isotropem Material mit Höhe h, Querschnitt A, Dichte ρ und Elastizitätsmodul E.
x
Der Zylinder steht senkrecht auf der Unterlage und wird durch sein Eigengewicht und eine Last L auf der Oberseite deformiert. Die Schicht in Höhe x wird
um y(x) nach unten verschoben. Die Formänderungsarbeit durch die Lageänderung y(x) und Dehnung y 0 (x) ist
Z
W (y) = A
0
h
0
2
1
2 E(y (x))
+ ρgy dx + Ly(h).
Die zugehörige Variationsaufgabe ist
W (y) = min!,
wobei y(0) = 0.
Es gibt keine Bedingung für y(h), denn dort ist nicht die Verschiebung sondern
eine Kraft vorgegeben, und diese geht ins Funktional (in die Formänderungsarbeit) ein.
E 2.2 (Herleitung der Variationsaufgabe im Beispiel 2.1)
Funktionenraum ist hier
V0 = v ∈ W 1,2 (0, h) : v(0) = 0 .
Der passende
Wir leiten nun die Variationsgeichung her. Mit
Z h
1
d
0
0 2
δW (y; v) =
E(y + εv ) + ρg(y + εv) dx + L[y(h) + εv(h)]
A
2
dε
0
ε=0
Z h
=A
E(y 0 + εv 0 )v 0 + ρgv dx + Lv(h)
0
Z
=A
ε=0
h
Ey 0 v 0 + ρgv dx + Lv(h)
0
folgt die Variationsaufgabe
Z
Finde y ∈ V0 : EA
0 0
Z
y v dx = −gA
0
HT 2015
h
h
ρv dx − Lv(h) ∀v ∈ V0 .
0
29
E 2.3 (Herleitung der Randwertaufgabe im Beispiel 2.1) Wir betrachten die
Variationsaufgabe
h
Z
Z
0 0
h
ρv dx − Lv(h) ∀v ∈ V0 .
y v dx = −gA
Finde y ∈ V0 : EA
0
0
Durch partielle Integration erhält man die Beziehung
h
Z h
Z h
00
ρv dx − Lv(h)
EAy v − EA
y v dx = −gA
0
0
0
Z h
Z h
0
00
EAy (h)v(h) − EA
y v dx = −gA
ρv dx − Lv(h),
0
0
(2.1)
0
die für alle v ∈ V0 = v ∈ W 1,2 (0, h) : v(0) = 0 gilt. Wir betrachten nun beliebige Funktionen
v ∈ v ∈ W 1,2 (0, h) : v(0) = 0, v(h) = 0 ⊂ V0 .
Für diese gilt
h
Z
00
Z
y v dx = −gA
−EA
0
h
ρv dx,
0
also mit dem Fundamentalsatz der Variationsrechnung (Satz 1.18)
Ey 00 (x) = gρ ∀x ∈ (0, h).
Setzt man diese Beziehung nun wieder in Gleichung (2.1) ein, erhält man
EAy 0 (h)v(h) = −Lv(h),
also die Neumann-Randbedingung EAy 0 (h) = L. Die vollständige Randwertaufgabe lautet
Ey 00 = gρ ∀x ∈ (0, h),
y(0) = 0,
EAy 0 (h) = −L.
Die neue Randbedingung modelliert das Kräftegleichgewicht am Rand: das Gewicht −L ist gleich der Randspannung EAy 0 (h).
Wenn keine Last aufliegt (L = 0), dann hält man auf diese Art und Weise
die homogene Neumann-Randbedingung y 0 (h) = 0 am freien Rand.
Bem 2.4 Man kann einer Differentialgleichung der Form Ey 00 = gρ nicht beidseits eine homogene Neumann-Randbedingung fordern, y 0 (0) = y 0 (h) = 0, denn
dann würde nach Integration der Differentialgleichung über das Intervall (0, h)
die Gleichung
Ey 0 (h) − Ey 0 (0) = ρgh
folgen, wobei die linke Seite gleich Null wäre, aber die rechte nicht.
30
HT 2015
E 2.5 (allgemeiner Fall, homogene Neumann-Randbedingung) Wir betrachten das Extremalproblem
Finde y ∈ V0 : J(y) = Extr,
Z b
F (x, y, y 0 ) dx,
J(y) =
a
V0 = y ∈ W 1,2 (a, b) : y(a) = 0 .
Die erste Variation kann wie in Erklärung 1.14 hergeleitet werden, so dass die
Variationsgleichung δJ(y; v) = 0 die Form
Z b
0=
a
∂F
∂F
v + 0 v0
∂y
∂y
dx
∀v ∈ V0
besitzt. Die zugehörige Euler-Lagrange-Gleichung erhält man wieder durch partielle Integration, wobei dieses Mal nicht alle Randterme verschwinden:
Z b
∂F b
∂F
d ∂F
0 = δJ(y; v) = 0 v +
v dx
−
∂y a
∂y
dx ∂y 0
a
Z b
∂F
∂F
d ∂F
0
= 0 (b, y(b), y (b)) · v(b) +
−
v dx.
∂y
∂y
dx ∂y 0
a
Diese Gleichung gilt für alle v ∈ V0 , insbesondere auch für alle v ∈ V0 mit
v(b) = 0,
Z b
0=
a
d ∂F
∂F
−
∂y
dx ∂y 0
v dx
∀v ∈ V0 : v(b) = 0.
Daraus folgt die Euler-Lagrange-Gleichung
∂F
d ∂F
−
= 0 ∀x ∈ (a, b).
∂y
dx ∂y 0
Für alle v ∈ V0 mit v(b) 6= 0 gilt also
0=
∂F
(b, y(b), y 0 (b)) · v(b),
∂y 0
woraus die natürliche Randbedingung am Rand b,
∂F
(b, y(b), y 0 (b)) = 0,
∂y 0
folgt. Die zugehörige Randwertaufgabe lautet somit
Finde y(x) :
∂F
d ∂F
−
= 0 ∀x ∈ (a, b),
∂y
dx ∂y 0
y(a) = 0,
∂F
(b, y(b), y 0 (b)) = 0.
∂y 0
HT 2015
31
E 2.6 (allgemeiner Fall, Randbedingung 2./3. Art) Sei V = W 1,2 (a, b) (ohne
Randbedingungen) und das Funktional
Z b
J(y) =
F (x, y, y 0 ) dx + G(y(a)) − H(y(b))
a
zu minimieren, wobei G und H stetig differenzierbare Funktionen einer Veränderlichen seien. Dann ist
d
0 = δJ(y, v) =
J(y + εv)
dε
ε=0
Z b
∂F
∂F
G0 (y(a))v(a)
v + 0 v 0 dx +
−
H 0 (y(b))v(b)
.
0 =
|
{z
}
{z
}
|
∂y
∂y
a
|
{z
} = d G(y(a)+εv(a))|
= d H(y(b)+εv(b))|
dε
gewohnter T erm
ε=0
dε
ε=0
Die Randwertaufgabe erhält man wieder mit partieller Integration und Fundamentalsatz der Variationsrechnung
Z b
∂F
∂F b
d ∂F
v +
v dx + G0 (y(a))v(a) − H 0 (y(b))v(b),
0 =
−
∂y 0 a
∂y
dx ∂y 0
a
Z b
∂F
d ∂F
=
−
v dx +
∂y
dx ∂y 0
a
∂F
∂F
0
0
0
0
+ G (y(a)) − 0 (a, y(a), y (a)) v(a) − H (y(b)) − 0 (b, y(b), y (b)) v(b),
∂y
∂y
also
∂F
d ∂F
−
∂y
dx ∂y 0
= 0
∀x ∈ (a, b),
∂F
(a, y(a), y 0 (a)) = 0,
∂y 0
∂F
H 0 (y(b)) − 0 (b, y(b), y 0 (b)) = 0.
∂y
G0 (y(a)) −
Ü 2.7 Sei
V0 = {u ∈ W 1,2 (0, 1) : u(0) = 0},
Z 1
(u0 (x)2 − sin πxu(x)) dx + u(1)2 − 4u(1).
J(u) =
0
Formulieren Sie die Variationsgleichung und die Randwertaufgabe.
Ü 2.8 Wir betrachten noch einmal das Beispiel 1.39, Balkenbiegung, jedoch
(a) mit einem freien Rand bzw. (b) gelenkig gelagert. Man leite die Randwertaufgabe (insbesondere die richtige Randbedingung) her.
(a)
(b)
f (x)
f (x)
0
0
32
`
`
x
x
HT 2015
3 Das Hamilton-Prinzip
3.1 Einführung
Bsp 3.1 Gesucht ist die Bahnkurve
~x(t) =
x1 (t)
x2 (t)
eines Massepunktes im R2 mit Anfangspunkt ~x(0) = ~x0 und Endpunkt ~x(T ) =
~xT . Die kinetische Energie ist
T (~x, ~x˙ ) = 21 m(ẋ21 + ẋ22 ),
die potentielle Energie
U (~x) = mgx2 .
Die freie Energie im System zum Zeitpunkt t ist dann gegeben durch die
Lagrange-Funktion
L(~x, ~x˙ ) = T (~x, ~x˙ ) − U (~x) = 21 m(ẋ21 + ẋ22 ) − mgx2 .
Das Integral
Z
W =
T
L(~x, ~x˙ ) dt
0
heißt Wirkung oder das Wirkungsintegral .
E 3.2 (Hamilton-Prinzip) Das Hamilton-Prinzip (Prinzip der kleinsten Wirkung) besagt, dass in konservativen Systemen die Bewegung eines Systems zwischen zwei möglichen Lagen mit minimaler Wirkung abläuft [MV01, §13.4.2],
W = min!
siehe auch http://www.arxiv.org/abs/physics/0504016.
Bsp 3.3 (Fortsetzung von Beispiel 3.1) Wir minimieren das Wirkungsintegral
Z T
2
2
1
W (~x) =
2 m(ẋ1 + ẋ2 ) − mgx2 dt
0
bezüglich
V∗ = {~x ∈ C 1 [0, T ]2 : ~x(0) = ~x0 , ~x(T ) = ~xT }.
Mit V0 = {~x ∈ C 1 [0, T ]2 : ~x(0) = ~0, ~x(T ) = ~0} lautet die Variationsgleichung
d
0 = δW (~x, ~v ) =
W (~x + ε~v )
dε
ε=0
Z T
d
2
2
1
=
m (ẋ1 + εv̇1 ) + (ẋ2 + εv̇2 ) − mg(x2 + εv2 ) dt
2
dε 0
ε=0
Z T
1
=
2 m 2(ẋ1 + εv̇1 )v̇1 + 2(ẋ2 + εv̇2 )v̇2 − mgv2 dt
0
ε=0
Z T
=
m(ẋ1 v̇1 + ẋ2 v̇2 ) − mgv2 dt ∀~v ∈ V0 .
0
HT 2015
33
Die Randwertaufgabe erhält man wieder über partielle Integration,
Z
T
m(ẋ1 v̇1 + ẋ2 v̇2 ) − mgv2 dt
h
iT Z T
m(ẍ1 v1 + ẍ2 v2 ) + mgv2 dt
= mẋ1 v1 + mẋ2 v2 −
0
0
Z T
= −
m(ẍ1 v1 + ẍ2 v2 ) + mgv2 dt
0 =
0
0
Setzen wir v2 ≡ 0 und variieren v1 , erhalten wir mit dem Fundamentalsatz
mẍ1 = 0.
Analog setzen wir v1 ≡ 0, variieren v2 und erhalten
mẍ2 + mg = 0.
Mit den Randbedingungen ~x(0) = ~x0 und ~x(T ) = ~xT ist das System vollständig
beschrieben.
Bem 3.4 Wir haben hier eine Variationsaufgabe mit Vektorfunktionen analysiert.
E 3.5 (Allgemeiner Fall einer Variationsaufgabe mit Vektorfunktionen)
Wir suchen eine Vektorfunktion ~x(t), die das Funktional
Z
J(~x) =
b
F (t, ~x(t), ~x˙ (t)) dt
a
minimiert. Durch Nullsetzen der ersten Variation erhält man die Variationsgleichung
0 = δJ(~x, ~v )
Z b
d
=
F (t, ~x(t) + ε~v (t), ~x˙ (t) + ε~v˙ (t)) dt
dε a
ε=0
#
Z b "X
n ∂F
∂F
=
vi (t) +
v̇i
dt
∂xi
∂ ẋi
a
i=1
und nach partieller Integration,
(
)
#
Z b
Z b "X
n
n X
∂F
∂F b
∂F
d ∂F
∂F
vi (t) +
v̇i
dt =
vi +
−
vi dt ,
∂xi
∂ ẋi
∂ ẋi a
∂xi
dt ∂ ẋi
a
a
i=1
i=1
die Euler-Lagrange-Gleichungen
∂F
d ∂F
−
= 0,
∂xi
dt ∂ ẋi
i = 1, . . . , n.
Anfangs- oder Randbedingungen muss man extra diskutieren, siehe Beispiel 3.3,
aber auch Erklärung 3.6.
34
HT 2015
3.2 Das Hamilton-Prinzip bei Schwingungsproblemen
E 3.6 Das Hamilton-Prinzip ist zunächst für die Bewegung eines Systems zwischen zwei gegebenen Lagen formuliert. Wenn man es für ein System mit
vollständig beschriebenen Anfangszustand und beliebigen Endzustand benutzt,
kann man damit nur die Differentialgleichung herleiten. Die Anwendung der
Technik aus Kapitel 2 würde zu einer falschen Randbedingung am oberen Intervallende führen.
Bsp 3.7 (Einmassenschwinger) Eine Masse schwingt um die Ruhelage. Es bezeichne x(t) die Auslenkung, m die Masse und k die Federkonstante.
x
0
Dann gilt
⇒
T
=
U
=
L =
2
1
2 mẋ(t)
2
1
2 kx(t)
2
1
2 mẋ −
kx2
Damit ergibt sich das Wirkungsintegral
Z t0
1
(mẋ2 − kx2 ) dt.
W (x) = 2
0
Definiert man
V∗ = x(t) ∈ C 1 [0, t0 ] : x(0) = x0 , ẋ(0) = v0 ,
wobei x0 die Anfangsauslenkung und v0 die Anfangsgeschwindigkeit bezeichnen,
so lautet die Variationsaufgabe für den dargestellten Massenschwinger
Finde x∗ ∈ V∗ : W (x∗ ) = min!
Ü 3.8 Leiten Sie die Differentialgleichung her.
HT 2015
35
Zur weiteren Übung betrachten wir ein Beispiel mit einem Mehrmassenschwinger.
Bsp 3.9 (Mehrmassenschwinger) Wir betrachten ein schwingendes System aus
2 Körpern mit der Masse m und drei Federn mit der Federkonstante k, wie im
Bild gezeigt.
k
m
k
m
x1
k
x2
Die Auslenkungen der Massepunkte aus der Ruhelage werden mit x1 (t) und
x2 (t) bezeichnet, die zu einem Vektor
~x(t) =
x1 (t)
x2 (t)
zusammengefasst werden. Durch eine vorgegebene Anfangsauslenkung und eine
Anfangsgeschwindigkeit
~x(0) = ~x0 ,
~x˙ (0) = ~v0
wird das System in Schwingung versetzt. Wir wollen die Bewegungsgleichungen
über das Hamiltonprinzip herleiten.
Mit der kinetischen Energie
T (t) =
m
ẋ1 (t)2 + ẋ2 (t)2
2
und der potentiellen Energie
U (t) =
k
x1 (t)2 + (x2 (t) − x1 (t))2 + x2 (t)2
2
erhalten wir das Wirkungsfunktional
Z τ
W (~x) =
(T − U ) dt
0
Z τ
k
m
2
2
2
2
2
=
ẋ1 (t) + ẋ2 (t) −
x1 (t) + (x2 (t) − x1 (t)) + x2 (t)
dt,
2
2
0
für welches wir einen stationären Punkt suchen.
36
HT 2015
Herleitung der Variationsformulierung Dazu bestimmen wir die erste Variation und setzen sie gleich Null:
d
0 = δW (~x, ~v ) =
W (~x + ε~v )
dε
ε=0
Z τn h
i
d
m
2
=
(ẋ1 + εv̇1 ) + (ẋ2 + εv̇2 )2
dε 0
2
h
io k
2
2
2
− (x1 + εv1 ) + (x2 − x1 + ε(v2 − v1 )) + (x2 + εv2 )
dt
2
ε=0
Z τn h
i
m
=
2 (ẋ1 + εv̇1 ) v̇1 + 2 (ẋ2 + εv̇2 ) v̇2
2
0
i kh
− 2(x1 + εv1 )v1 + 2(x2 − x1 + ε(v2 − v1 ))(v2 − v1 ) + 2(x2 + εv2 )v2
dt
2
ε=0
Z τn
o
=
m ẋ1 v̇1 + ẋ2 v̇2 − k x1 v1 + (x2 − x1 )(v2 − v1 ) + x2 v2 dt
(3.1)
0
∀v1 , v2 ∈ V0 = v ∈ C 1 (0, τ ) : v(0) = v̇(0) = v(τ ) = 0 .
Wir können nun v2 (t) ≡ 0 setzen und nur v1 variieren bzw. v1 (t) ≡ 0 setzen
und v2 variieren. Dann erhalten wir statt der Variationsformulierung (3.1) eine
Formulierung mit den beiden Variationsgleichungen
Z τ
0 =
{mẋ1 v̇1 − k(2x1 − x2 )v1 } dt ∀v1 ∈ V0
0
Z τ
{mẋ2 v̇2 − k(2x2 − x1 )v2 } dt ∀v2 ∈ V0 .
0 =
0
Herleitung der Differentialgleichung Wir starten mit einer der beiden Variationsformulierungen, zum Beispiel (3.1), und integrieren partiell,
Z τn
o
0 =
m ẋ1 v̇1 + ẋ2 v̇2 − k x1 v1 + (x2 − x1 )(v2 − v1 ) + x2 v2 dt
0
Z τn
o
m ẍ1 v1 + ẍ2 v2 + k x1 v1 + (x2 − x1 )(v2 − v1 ) + x2 v2 dt
= −
0
∀v1 , v2 ∈ V0 = v ∈ C 1 (0, τ ) : v(0) = v̇(0) = v(τ ) = 0
Wenn wir v2 (t) ≡ 0 setzen und nur v1 variieren, erhalten wir
0 = mẍ1 + k x1 − (x2 − x1 )
= mẍ1 + 2kx1 − kx2 .
Wenn wir andererseits v1 (t) ≡ 0 setzen und v2 variieren, erhalten wir die zweite
Gleichung
0 = mẍ2 (t) + k[(x2 − x1 ) + x2 ]
= mẍ2 + 2kx2 − kx1 .
Damit haben wir das System der Bewegungsgleichungen hergeleitet,
ẍ1
2 −1
x1
m
+k
= 0.
ẍ2
−1 2
x2
HT 2015
37
Bsp 3.10 (Schwingende Saite) Wir betrachten eine schwingende Saite, die bei
x = 0 und x = ` eingespannt ist. Wir bezeichnen mit N die Spannkraft und
mit ρ(x) die lineare Massendichte. Die Saite erhält zum Zeitpunkt t0 eine Anfangsauslenkung u0 (x) und eine Anfangsgeschwindigkeit v0 (x). Gesucht ist die
Auslenkung u(x, t) für x ∈ (0, `) und t ∈ (t0 , t1 ].
u
|
`
0
x
Die zweite unabhängige Variable ist hier die Zeit t, so dass das betrachtete
Gebiet Q = (0, `) × (t0 , t1 ] ⊂ R2 ist. Zur Lösung der Aufgabe wollen wir das
Hamilton-Prinzip anwenden. Die potentielle Energie entspricht der Formänderungsarbeit und berechnet sich zu
Z `
Z ` q
Z `
U = N
ds − ` = N
1 dx
1 + u2,x dx −
0
0
0
Z `
1 2
≈ N
1 + u,x − 1 dx
2
0
Z `
N
=
u2 dx
2 0 ,x
Die kinetische Energie ist
Z
1 ` 2
ρ u,t dx,
T =
2 0
so dass nach dem Hamilton-Prinzip ein Minimum des Funktionals
Z t1
Z Z
1 t1 `
(T − U ) dt =
ρ u2,t − N u2,x dx dt
2 t0 0
t0
bezüglich
V0 =
Z
t1
Z
v:
t0
`
2
v +
u2,x
+
u2,t
dx dt < ∞
0
zu finden ist.
Mit der allgemeinen Theorie für F (x, t, u, u,x , u,t ) =
∂F
=0
∂u
∂F
= −N u,x
∂u,x
1
2
ρ u2,t − N u2,x und
∂F
= ρ u,t
∂u,t
erhalten wir die Differentialgleichung (Schwingungsgleichung)
∂
∂u
∂
∂u
−N
−
ρ
0 = −
∂x
∂x
∂t
∂t
2
2
∂ u
∂ u
= N 2 − ρ 2 falls N 6= N (x), ρ 6= ρ(t).
∂x
∂t
Analog kann man für eine schwingende Membran die Differentialgleichung
2
∂u
∂ u ∂2u
E
+ 2 − ρ(x, y) 2 = 0
2
∂x
∂y
∂t
herleiten.
38
HT 2015
Ü 3.11 (Doppelpendel)
Für die kinetische und die potentielle Energie gilt:
T
=
U
=
ψ `
1
1
M Lϕ̇ + `ψ̇ + m `ψ̇ ,
2
2
1
1
2
2
M g Lϕ + `ψ + mg`ψ 2 .
2
2
2
2
Man leite mit dem Hamilton-Prinzip die Bewegungsgleichungen ab.
m
ϕ
L
M
HT 2015
39
4 Querbezüge zur Numerik
4.1 Das Ritz-Verfahren als Näherungsverfahren auf der Basis des
Minimierungsproblems
Die meisten Variationsprobleme lassen sich analytisch nicht lösen. Wir wollen
deshalb auch grundlegende numerische Verfahren kennen und einordnen lernen.
E 4.1 (Grundidee) Ausgangspunkt ist das Minimumproblem
Finde u∗ ∈ V∗ : J(u∗ ) = min J(u).
(4.1)
u∈V∗
Nach W. Ritz (1878–1909) ist die Idee benannt, das Problem (4.1) in einem
endlich-dimensionalen Teilraum V∗,n ⊂ V∗ zu behandeln:
Finde u∗,n ∈ V∗,n : J(u∗,n ) = min J(un )
(4.2)
un ∈V∗,n
E 4.2 (Konstruktionsprinzip von V∗,n ) Von der Struktur her ist V0 ein linearer
Raum (insbesondere sind Linearkombinationen von Elementen aus V0 wieder in
V0 ), aber V∗ ein affiner Raum (auch lineare Mannigfaltigkeit ). Das bedeutet,
dass sich jedes Element v ∈ V∗ als Summe v = v∗ + v0 darstellen lässt, wobei
v∗ ein festes Element aus V∗ ist und v0 ∈ V0 aus einem linearen Raum stammt.
Der affine Raum V∗,n sollte dann die Struktur
V∗,n = {v = v∗ + v0,n ∈ V∗ : v0,n ∈ V0,n }
haben, wobei V0,n ein endlichdimensionaler Teilraum von V0 ist.
Einen n-dimensionalen Teilraum von V0,n ⊂ V0 konstruiert man durch die
Angabe von n linear unabhängigen Basisfunktionen ϕ1 , . . . , ϕn ,
(
)
n
X
V0,n = span{ϕ1 , . . . , ϕn } = v : v =
αi ϕi , αi ∈ R .
i=1
Seien v∗ ∈ V∗ und ϕ1 , . . . , ϕn ∈ V0 linear unabhängige Funktionen, dann ist
(
)
n
X
V∗,n = v : v = v∗ +
α i ϕi , α i ∈ R
(4.3)
i=1
= v∗ + span{ϕ1 , . . . , ϕn }
⊂ V∗ .
Folgerung 4.3 (Ritz-Gleichungssystem) Mit (4.3) ist (4.2) äquivalent zu
Finde α1 , . . . , αn :
J v∗ +
n
X
αi ϕi → min .
i=1
Man hat folglich das Gleichungssystem
n
X
∂ J v∗ +
αi ϕi = 0,
∂αj
j = 1, . . . , n,
(4.4)
i=1
zu lösen.
40
HT 2015
E 4.4
1. Für zahlreiche interessante Funktionale, z. B. bei der Gleichgewichtslage
einer Saite/Membran, ist (4.4) ein lineares Gleichungssystem.
2. Die Funktionen v∗ , ϕ1 , . . . , ϕn sollten so gewählt werden, das u∗ möglichst
gut approximiert wird.
3. Die Funktion v∗ ist nur dafür da, dass u∗,n die Randbedingungen erfüllt,
kann also z. B. als Polynom 1. Grades gewählt werden (im Eindimensionalen).
Bsp 4.5 Gesucht ist u∗ ∈ V∗ = {u ∈ C 1 [−1, 1] : u(−1) = 0, u(1) = 2}, so dass
Z 1
2
1 0
J(u∗ ) = min J(u),
J(u) =
u
(x)
+
3u(x)
sin
πx
dx
2
u∈V∗
−1
(a) Sei v∗ (x) = 1 + x, ϕ1 (x) = 1 − x2 , ϕ2 (x) = x(1 − x2 ).
Für alle u2 (x) = (1 + x) + α1 (1 − x2 ) + α2 x(1 − x2 ) gilt
J(u2 ) = 1 +
6 4 2 4 2 36
+ α + α + α2 .
π 3 1 5 2 π3
Das kann mit dem folgenden matlab-Skript berechnet werden.
syms x a l p h a 1 a l p h a 2
u=1+x+a l p h a 1 ∗(1−xˆ2)+ a l p h a 2 ∗x∗(1−x ˆ 2 ) ;
u s t r i c h=d i f f ( u , x ) ;
J=i n t ( 0 . 5 ∗ u s t r i c h ˆ2+3∗u∗ sin ( pi ∗x ) , x , − 1 ,1)
Aus
∂J(u2 )
∂α1
= 0 und
∂J(u2 )
∂α2
= 0 folgt
α1 = 0,
α2 = −
45
.
2π 3
s o l v e ( d i f f ( J , a l p h a 1 ) ) % h a e n g t h i e r n i c h t von a l p h a 2 ab
s o l v e ( d i f f ( J , a l p h a 2 ) ) % h a e n g t h i e r n i c h t von a l p h a 1 ab
Die Näherungslösung ist also
u∗,n = u∗,2 = 1 + x −
45
x(1 − x2 ),
2π 3
wobei J(u∗,2 ) ≈ 2,4886 ist.
(b) Sei v∗ (x) = 1 + sin π2 x, ϕ1 (x) = sin πx, ϕ2 (x) = sin 2πx.
Für u2 (x) = 1 + sin π2 x + α1 sin πx + α2 sin 2πx gilt
J(u2 ) = 3α1 +
Aus
∂J(u2 )
∂α1
= 0 und
8 π2 1 2 2
2
4
+
+ α1 π + 2π 2 α22 + α1 π − α2 π
π
8
2
3
15
∂J(u2 )
∂α2
= 0 folgt
α1 = −
HT 2015
9 + 2π
,
3π 2
α2 =
1
.
15π
41
Die Näherungslösung ist also
u∗,n = u∗,2 = 1 + sin π2 x −
9 + 2π
1
sin πx +
sin 2πx,
3π 2
15π
wobei J(u∗,2 ) ≈ 2,4565 ist.
Variante (b) liefert die bessere Approximation, da der Funktionalwert kleiner ist.
Man kann in diesem einfachen Beispiel die Euler-Differentialgleichung −u00 +
3 sin πx = 0 auch exakt lösen und erhält u∗ = 1 + x − π32 sin πx und J(u∗ ) ≈
2,4539, was uns eine Vorstellung über die Genauigkeit der Lösung gibt.
(c) Sei allgemein
1
Z
2
1 0
2 u (x)
J(u) =
−1
un (x) = v∗ (x) +
n
X
− f (x)u(x) dx
αj ϕj (x).
j=1
Dann gilt
 
2


n
n
X
X
1
αj ϕ0j  − f v∗ +
αj ϕj  dx,
J(u) =  v∗0 +
2
j=1
j=1
−1




Z1
n
X
∂J
= v∗0 +
αj ϕ0j  ϕ0i − f ϕi  dx
∂αi
Z1
j=1
−1
Z1
v∗0 ϕ0i
=
− f ϕi dx +
n
X
j=1
−1
Z1
αj
ϕ0j ϕ0i dx.
−1
Setzen wir nun diese Ableitungen gleich Null, erhalten wir das lineare Gleichungssystem
n
X
j=1
Z
1
αj
−1
ϕ0j ϕ0i dx =
Z
1
−1
f ϕi − v∗0 ϕ0i dx,
i = 1, . . . , n,
bzw. in Matrixschreibweise

   1
 1
R
R 0 0
R1 0 0
R1 0 0
0
0
α
1
(f ϕ1 −v∗ ϕ1 ) dx 
ϕ2 ϕ1 dx · · · ϕ3 ϕ1 dx 
 ϕ1 ϕ1 dx
 
−1
−1

−1

−1


α

  2 

.
.
.
.
.
.
  = 

.
.
.
.

  ..  


1


.


1
1
1
R


R 0 0
R 0 0
R 0 0
0
0
(f ϕn −v∗ ϕn ) dx
ϕ1 ϕn dx
ϕ2 ϕn dx · · · ϕ3 ϕn dx αn
−1
−1
−1
−1
Es müssen also im Allgemeinen n2 + n Integrale berechnet werden. Wie
kann man diese Anzahl verringern?
42
HT 2015
E 4.6 (Wahl der Basisfunktionen) Offenbar sind zum Aufstellen der Matrix
und rechten Seite des Gleichungssystems für die Gleichgewichtslage der Saite
folgende Integrale zu berechnen:
Z
`
a(ϕj , ϕi ) = S
ϕ0j ϕ0i dx,
0
Z `
(f ϕi − v∗0 ϕ0i ) dx,
hF, ϕi i =
i, j = 1, . . . , n,
i = 1, . . . , n.
0
Günstig ist es, wenn viele Matrixeinträge Null werden. Das kann erreicht werden
durch
• Basisfunktionen mit kleinem Träger
φi (x)
|
0
|
x1
|
x2
|
|
xi−1 xi
|
xi+1
φj (x)
|
|
xj−1 xj
|
xj+1
|
`
• Orthogonalitätseigenschaften der Basis, z. B. integrierte Legendre-Polynome:
Z x
Z `
0
ϕi (x) =
Li (t) dt ⇒ ϕi (x) = Li (x) ⇒
ϕ0j (x)ϕ0i (x) dx = δij
0
0
Bei ungeschickter Wahl der Basis ist die Matrix voll besetzt und schlecht konditioniert.
HT 2015
43
4.2 Das Galerkin-Verfahren als Näherungsverfahren auf der Basis
der Variationsgleichung
E 4.7 (Grundidee) Ausgangspunkt ist die Variationsformulierung
Finde u∗ ∈ V∗ ⊂ X :
∀v ∈ V0 ⊂ X.
δJ(u∗ ; v) = 0
Wir wählen einen Teilraum V0,n ⊂ V0 sowie ein Element v∗ ∈ V∗ und setzen
V∗,n = {v : v = v∗ + v0,n , v0,n ∈ V0,n }.
Man beachte, dass V0,n und V∗,n von der gleichen Dimension n und Teilmengen
von X sind.
Die Galerkin-Formulierung lautet nun:
Finde u∗,n ∈ V∗,n ⊂ X :
δJ(u∗,n ; vn ) = 0 ∀vn ∈ V0,n ⊂ X
Bsp 4.8 (Gleichgewichtslage einer Saite) Die Variationsformulierung lautet
Z `
Z `
0 0
f v dx = 0 ∀v ∈ V0 .
u v dx −
Finde u ∈ V0 : δE(u; v) = S
0
0
Dann ist das Galerkin-Verfahren
Z `
Z `
0 0
Finde un ∈ V0,n : S
un vn dx =
f vn dx
0
∀vn ∈ V0,n
0
E 4.9 Ein lineares Funktional (eine Linearform ) f : X → R hat die Eigenschaften
hf, u + vi = hf, ui + hf, vi
∀u, v ∈ X,
hf, αvi = α hf, vi
∀α ∈ R, ∀v ∈ X,
während ein bilineares Funktional (eine Bilinearform ) a : X × X → R linear
in beiden Argumenten ist, d. h.,
a(u + v, w) = a(u, w) + a(v, w)
∀u, v, w ∈ X,
a(u, v + w) = a(u, v) + a(u, w)
∀u, v, w ∈ X,
a(αu, v) = α a(u, v)
∀α ∈ R, ∀u, v ∈ X,
a(u, αv) = α a(u, v)
∀α ∈ R, ∀u, v ∈ X.
Bsp 4.10 In Beispiel 4.8 haben wir die Bilinearform
Z `
a(un , vn ) = S
u0n vn0 dx
0
und die Linearform
Z
hf, vn i =
`
f vn dx
0
verwendet. Die Bilinearform a(·, ·) in diesem Beispiel hat weitere schöne Eigenschaften. Sie ist z. B. symmetrisch :
a(u, v) = a(v, u) ∀u, v ∈ X.
44
HT 2015
Ü 4.11 (Spezialfall linearer Probleme) Man beweise: Hat das zu minimierende Funktional die Form
J(u) = 12 a(u, u) − hf, ui ,
mit der symmetrischen Bilinearform a(·, ·) und dem linearen Funktional hf, ·i,
dann gilt
δJ(u; v) = a(u, v) − hf, vi .
Die Galerkin-Formulierung lautet somit
Finde u∗,n ∈ V∗,n : a(u∗,n , vn ) = hf, vn i
∀vn ∈ V0,n
(4.5)
Hinweis: Wenn man die Eigenschaften der Linearform und der Bilinearform
benutzt, dann ist J(u + εv) ein quadratisches Polynom in ε.
E 4.12 (Berechnung der Galerkin-Lösung (4.5)) Sei {ϕi }ni=1 eine Basis in V0,n
und
V∗,n = v∗ + span {ϕi }ni=1 .
Man sucht u∗,n in der Form u∗,n = v∗ + u0,n . Dann ist (4.5) äquivalent zu
Finde u0,n ∈ V0,n : a(u0,n , vn ) = hf, vn i − a(v∗ , vn )
|
{z
}
∀vn ∈ V0,n .
hF,vn i
bzw.
Finde u0,n ∈ V0,n : a(u0,n , ϕi ) = hF, ϕi i
i = 1, . . . , n.
(4.6)
P
Sei nun u0,n = nj=1 αj ϕj . Dann ist (4.6) äquivalent zur Bestimmung der Zerlegungskoeffizienten α1 , . . . , αn , so dass
n
X
a
αj ϕj , ϕi = hF, ϕi i ,
i = 1, . . . , n,
j=1
n
X
αj a(ϕj , ϕi ) = hF, ϕi i ,
i = 1, . . . , n,
j=1
bzw.





a(ϕ1 , ϕ1 ) a(ϕ2 , ϕ1 ) · · ·
a(ϕ1 , ϕ2 ) a(ϕ2 , ϕ2 ) · · ·
..
..
..
.
.
.
a(ϕ1 , ϕn ) a(ϕ2 , ϕn ) · · ·
a(ϕn , ϕ1 )
a(ϕn , ϕ2 )
..
.
a(ϕn , ϕn )





α1
α2
..
.
αn


 
 
=
 
hF, ϕ1 i
hF, ϕ2 i
..
.



.

hF, ϕn i
Zu lösen ist also ein lineares Gleichungssystem. Vergleichen Sie dieses mit dem
beim Ritz-Verfahren.
HT 2015
45
4.3 Numerische Verfahren auf der Basis der Differentialgleichung
E 4.13 Numerische Verfahren, die auf der Differentialgleichungsformulierung
beruhen, sind
• das Differenzenverfahren,
• das Kollokationsverfahren.
Wir wollen hier das Differenzenverfahren kurz beschreiben.
E 4.14 (Methode der finiten Differenzen) Ein einfaches Verfahren zur Lösung
von Randwertaufgaben ist das Differenzenverfahren (Methode der finiten Differenzen, FDM). Dabei ersetzt man
• das Gebiet Ω durch ein Gitter Ωh , z. B.
Ω = (0, 1),
mit der Schrittweite h =
Ωh = {xi = ih, i = 1, . . . , N − 1},
1
N,
und den Rand Γ durch Γh , hier im Beispiel
Γ = {0, 1},
x0
x1
Γh = {x0 , xN }.
x2
xN −1 xN
Analog zu Ω = Ω ∪ Γ definieren wir auch Ωh = Ωh ∪ Γh .
• die gesuchte Funktion u in den Gitterpunkten xi durch die Näherungen
ui , und die Ableitungen (Differentialquotienten) durch entsprechende Differenzenquotienten:
u(xi ) ≈ ui
u
i+1 − ui




h

ui − ui−1
0
u (xi ) ≈

h



 ui+1 − ui−1
2h
Vorwärtsdifferenz
Rückwärtsdifferenz
zentrale Differenz
ui+1 − ui ui − ui−1
−
ui+1 − 2ui + ui−1
h
h
u00 (xi ) ≈
=
h
h2
Man erhält ein Gleichungssystem für die Unbekannten u0 , . . . , uN .
46
HT 2015
Bsp 4.15 Wir betrachten die Randwertaufgabe
−u00 + u = f
in Ω = (0, 1),
u(0) = g0 ,
u(1) = g1 .
Die zum Punkt xk , k = 1, . . . , N − 1, gehörige Differenzengleichung lautet
−
uk+1 − 2uk + uk−1
+ uk = fk ,
h2
wobei fk := fh (xk ) = f (xk ) gesetzt wurde.
Die Approximation kann auch als lineares Gleichungssystem geschrieben werden,


 

1
u0
g0
 − 12 1 + 22
  u1   f1 
− h12
h
 h

 

1
2
1

  u2   f2 
− h2
1 + h2 − h2


 


  ..  =  ..  .
.
.
.
.
.
.

 .   . 
.
.
.


 

2
1 
1

uN −1   fN −1 
− h2 1 + h2 − h2
1
uN
g1
Oft eliminiert man die erste und letzte Gleichung.
Zur Illustration wählen wir die Daten f , g0 und g1 so, dass
u(x) = x(1 − x)ex
die exakte Lösung ist. Im folgenden Diagramm wird die Lösung und die Näherungslösung mit verschiedenen Schrittweiten dargestellt.
FDM, Loesung u=(1−x)*x*exp(x)
0.45
exakt
h=1/5
h=1/10
h=1/20
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
HT 2015
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
47
5 Variationsaufgaben mit Nebenbedingungen
5.1 Isoperimetrische Probleme (Nebenbedingungen in Integralform)
Bem 5.1 (Herkunft des Namens) Isoperimetrische Figuren sind Figuren gleichen Umfangs. Die Bezeichnung Isoperimetrische Probleme stammt von Anwendungen, in denen Flächen mit größtem Flächeninhalt bei vorgegebenem
Umfang zu bestimmen sind. Solche Aufgaben sind auch als Problem der Dido
bekannt.
Dido, der antiken Sage nach eine Tochter des Königs von Tyros in Phönizien
(heute Libanon) flüchtete nach der Ermordung ihres Mannes durch ihren Bruder Pygmalion an die afrikanische Küste in das Gebiet des späteren Karthago,
erbat sich vom dortigen König Iarbas so viel Land, als sie mit einer Ochsenhaut umspannen konnte und umgab mit einem aus der Haut geschnittenen
Riemen das Gebiet der späteren Burg von Karthago. Dido hätte, bei 3 – 6 qm
Ochsenhaut, einen Lederriemen von 3 mm Streifenbreite und 1000 – 2000 m
Länge zusammenknüpfen und diesen anschließend so auf dem Boden ausbreiten können, dass er eine möglichst große Fläche eingeschlossen hätte, siehe auch
http://www.google.com/search?q=Dido+problem.
Weitere isoperimetrische Probleme sind: Wie legt man eine möglichst große
Stadt am Meer an, die dann eine möglichst kurze Stadtmauer hat? Warum
haben Iglus die Form von Halbkugeln?
E 5.2 (Allgemeine Vorgehensweise) Wir betrachten die Minimierung des Funktionals
Z b
J(y) =
F (x, y, y 0 ) dx
(5.1)
a
unter der Nebenbedingung
Z
K(y) =
b
G(x, y, y 0 ) dx = `.
(5.2)
a
Wie bei der Minimierung von Funktionen unter einer Nebenbedingung (Modul Mathematik III) verwenden wir einen Lagrange-Multiplikator λ ∈ R. Für
weitere Erklärungen, warum das funktioniert, sei z. B. auf [MV01, Kap. 13,
Abschnitt 5.1] verwiesen.
Lem 5.3 (Wiederholung) Seien f, g : Rn → R zwei Funktionen. Zwischen dem
Minimierungsproblem mit Nebenbedingung
f (x) → min,
g(x) = 0
und der Lagrange-Funktion
L(x, λ) = f (x) + λ g(x).
besteht folgender Zusammenhang: Für jede lokale Lösung x∗ des Minimierungsproblems mit Nebenbedingung, für die ∇g(x∗ ) 6= 0 gilt, gibt es einen LagrangeMultiplikator λ∗ , so dass (x∗ , λ∗ ) ein stationärer Punkt der Lagrange-Funktion
ist.
48
HT 2015
Bem 5.4
1. Es sind aber nicht alle stationären Punkte der Lagrange-Funktion Lösungen des Minimierungsproblems.
2. Man kann also die Lösung des Minimierungsproblems mit Nebenbedingungen angehen, indem man die Lagrangefunktion aufstellt und deren
stationäre Punkte berechnet. Auf diese Weise erhält man die extremwertverdächtigen Punkte.
3. Die Notwendigkeit der Bedingung ∇g(x∗ ) 6= 0 kann man sich am Beispiel
mit f (x) = (x + 1)2 und g(x) = x2 verdeutlichen. Die Nebenbedingung ist
nur für x = 0 erfüllt, also realisiert diese die Lösung des Minimierungsproblems mit Nebenbedingung. Es gilt aber nicht ∇L = 0.
E 5.5 (Allgemeine Vorgehensweise – Fortsetzung) Wir betrachten also das
Funktional
J ∗ (y, λ) = J(y) + λ [K(y) − `]
Z b
=
F (x, y, y 0 ) + λG(x, y, y 0 ) dx − λ`,
a
und setzen die erste Variation bezüglich y Null. Wegen
J ∗ (y + εv, λ) = J(y + εv) + λK(y + εv)
gilt
0 = δJ ∗ (y, λ; v, 0)
= δJ(y; v) + λ δK(y; v)
Z b
∂
∂
=
(F + λG)v + 0 (F + λG)v 0 dx.
∂y
a ∂y
Die Euler-Lagrange-Gleichung lautet folglich
d ∂(F + λG)
∂(F + λG)
−
= 0.
∂y
dx
∂y 0
(5.3)
Hinzu kommt die Nebenbedingung (5.2), die bei der Ableitung von J ∗ nach λ
entsteht.
Satz 5.6 Für jede Lösung des Minimierungsproblems (5.1)–(5.2) existiert eine
Konstante λ, so dass die Euler-Lagrange-Gleichung (5.3) erfüllt ist.
Bsp 5.7 (Rotationsminimalfläche einer Kurve gegebener Länge) Wir
chen eine Funktion y(x) mit den Randbedingungen
y(x0 ) = y0 ,
su-
y(x1 ) = y1 ,
(5.4)
p
1 + y 0 (x)2 dx = `,
{z
}
|
(5.5)
und gegebener Bogenlänge `,
Z
x1
K(y) =
x0
HT 2015
G(x,y,y 0 )
49
so dass bei Rotation um die x-Achse eine möglichst kleine Oberfläche entsteht,
Z x1
p
J(y) = 2π
y(x) 1 + y 0 (x)2 dx → min!
{z
}
x0 |
F (x,y,y 0 )
Wir setzen
J ∗ (y, λ) = 2π
Z
x1
L(x, y, y 0 ) dx − λ`
x0
mit
L := F + λG = y
p
p
p
1 + y 02 + λ 1 + y 02 = (y + λ) 1 + y 02 .
Mit (5.3) lautet die Euler-Lagrange-Gleichung
p
d (y + λ)y 0
p
1 + y 02 −
= 0.
dx 1 + y 02
Diese gehört zum Sonderfall, bei dem der Integrand, hier F + λG, nicht explizit
von x abhängt, siehe Erklärung 1.35. Diesen Integrand, mit y statt y + λ, haben
wir schon einmal in der Übung diskutiert (hoffentlich!). Dazu erinnern wir uns
an das Eulersche Zwischenintegral, hier in der Form
c = L − y 0 L,y0
p
y0
= (y + λ) 1 + y 02 − y 0 (y + λ) p
1 + y 02
1
= (y + λ) p
.
1 + y 02
Mit der Methode der Trennung der Veränderlichen erhalten wir die Lösung:
(y + λ)2
2
r c
dy
(y + λ)2
=
−1
c2
Z dx Z
dy
q
dx =
(y+λ)2
−1
c2
Z
dy
=c p
(y + λ)2 − c2
(y + λ)
x = c arcosh
+d
c
1 + y 02 =
Umstellen nach y liefert die Kettenlinie,
x−d
(y + λ)
= arcosh
,
c
c
x−d
y = c cosh
− λ.
c
Die Konstanten c, d und λ sind dann aus den Randbedingungen (5.4) und der
Nebenbedingung (5.5) zu bestimmen.
50
HT 2015
Ü 5.8 (Beidseitig befestigte Saite (Kette) gegebener Länge) Wir betrachten
eine Kette mit der gegebenen Länge ` und der Dichte 1, die in den Punkten
(x0 , y0 ) und (x1 , y1 ) befestigt ist.
y(x)
x0
x1
x
Bestimmen Sie die Form der Kette (die Funktion y(x)). Sie stellt sich so ein,
dass die potentielle Energie minimiert wird.
Bsp 5.9 (Extremalfläche) Wir suchen eine Kurve mit den Randpunkten (x0 , 0)
und (x1 , 0), die bei gegebener Länge ` mit der x-Achse eine möglichst große
Fläche einschließt.
x0
x1
x
y(x)
Für das Zielfunktional und die Nebenbedingung gilt also7
Z x1
J(y) =
y(x) dx → min!
x0
Z x1 p
K(y) =
1 + y 0 (x)2 dx = `.
x0
p
Über F + λG = y + λ 1 + y 02 erhält man die Euler-Lagrange-Gleichung
1−
d
λy 0
p
= 0.
dx 1 + y 02
bzw. das Eulersche Zwischenintegral
λ
y+p
= c.
1 + y 02
Die Lösung erfüllt die Gleichung
(y(x) − d)2 + (x − c)2 = λ2 ,
d. h., die gesuchte Kurve ist ein Teil eines Kreises vom Radius λ mit Mittelpunkt
(c, d). Die Größen c, d und λ sind durch die Randbedingungen y(x0 ) = 0 und
y(x1 ) = 0 sowie die Nebenbedingung eindeutig bestimmt.8
7
Wir wollen uns hier zunächst auf den Fall beschränken, dass die Kurve durch eine Funktion
y(x) beschrieben werden kann. Besser wäre es daher, die gesuchte Kurve in Parameterform
darzustellen, siehe z. B. [Kie10, Kap. 1.10]. (Übung)
8
Zur Existenz einer Lösung muss ` ≥ x1 − x0 gelten. Falls ` > π2 (x1 − x0 ) gilt, ist der Kreisbogen größer als ein Halbkreis, so dass y nicht mehr als Funktion von x dargestellt werden
kann. Auch aus diesem Grunde wäre es besser, die gesuchte Kurve in Parameterform darzustellen, siehe oben.
HT 2015
51
Quelle: http://de.wikipedia.org/wiki/Datei:Köln Fortifikatorische Entwicklung.jpg
Bsp 5.10 Wir betrachten den folgenden Versuchsaufbau. Ein wasserundurchlässiges, festes Tuch ist an 2 Stäben befestigt, die durch 2 Platten gehalten werden,
siehe Illustration.
2 Platten
spannungsloses Tuch
2 Stäbe
y(x)
Wir wollen annehmen, dass die Grenze zwischen den Platten und dem Tuch
dicht ist und dass es keine Reibung zwischen den Platten und dem Tuch gibt.
Der Querschnitt des Tuches entspricht einer Funktion y(x). Wenn wir das
Tuch so festhalten, dass y(x) ein Teil des Kreises ist, dann ist das Volumen
des Wassers, das reinpasst, für das gegebene Tuch maximal, siehe das vorherige
Beispiel.
Nehmen wir nun an, dass das Tuch auf diese Weise mit Wasser gefüllt wurde.
Wenn wir das Tuch nun loslassen, wird es die Form behalten oder eine andere Form annehmen? Wir bedenken die Konsequenz: wenn das Tuch die Form
ändert, wird ein Teil des Wassers überlaufen.
Die Längsausdehnung des Tuches tut offenbar nichts zur Sache, so dass wir
ein zweidimensionales Modell verwenden können.
52
HT 2015
x1
x0
x
y(x)
Es wird sich eine solche Kurve y(x) einstellen, dass die potentielle Energie
Z
x1
Z
0
Z
x1
y dy dx = −
Ep (y) =
x0
y(x)
x0
y 2 (x)
dx
2
minimiert wird. Da sich das Tuch nicht dehnt, haben wir die Nebenbedingung
Z x1 p
1 + y 0 (x)2 dx = `.
K(y) =
x0
Zur vollständigen Beschreibung gehören noch die Randbedingungen y(x0 ) = 0
und y(x1 ) = 0.
Leider lässt sich die zugehörige Euler-Gleichung nicht exakt lösen. Das RitzVerfahren mit einem 20-dimensionalem Raum liefert die im Bild dargestellte
Lösung9 für die Parameter x0 = 0, x1 = 1, ` = π/2.
x
0
0.2
0.4
0.6
0.8
1
0
-0.1
-0.2
-0.3
-0.4
-0.5
Die rote (dunkle) Linie ist ein Querschnitt des Tuches, der dem maximalen Wasservolumen entspricht. Die grüne (helle) Linie ist die tatsächliche Querschnittsform des mit Wasser gefüllten Tuches. Man sieht deutlich den Unterschied, das
Wasser läuft über.
9
Der Dank für die Rechnung geht an meinen ehemaligen Mitarbeiter Dr. Sergey Grosman.
HT 2015
53
5.2 Nebenbedingungen in Gleichungsform
E 5.11 (Allgemeine Herangehensweise) Wir betrachten Variationsprobleme der
Form
Z b
J(y) =
F (x, y, y 0 ) dx → Extr!
a
unter der Nebenbedingung
G(x, y, y 0 ) = 0
∀x ∈ (a, b),
d. h., die Nebenbedingung ist eine (Differential-)Gleichung, die für alle x ∈ (a, b)
gilt, nicht nur ein Funktional.
Als Lagrangescher Multiplikator eignet sich nun eine Funktion λ(x),
∗
Z
b
J (y, λ) =
[F (x, y, y 0 ) + λ(x)G(x, y, y 0 )] dx.
a
Die erste Variation nach y ist
0 = δJ ∗ (y, λ; v, 0)
Z b
∂(F + λG) 0
∂(F + λG)
v+
v dx,
=
∂y
∂y 0
a
wie in Bemerkung 5.5, als λ eine Zahl war. Entspechend ist auch die EulerLagrange-Gleichung gleich
∂(F + λG)
d ∂(F + λG)
−
∂y
dx
∂y 0
= 0.
Bsp 5.12 (Geodätische Linien auf einer Fläche in R3 ) Geodätische Linien sind
die kürzesten Verbindungslinien zweier Punkte auf der Fläche G(~x) = 0. Sie sind
definiert als Lösungen des Variationsproblems
Z
J(~x) =
b
|~x˙ (t)| dt = Min!
a
G(~x) = 0.
Für die weitere Diskussion, siehe [MV01, Kap. 13, Abschnitt 5.3].
54
HT 2015
Bsp 5.13 (Stokes) Wir betrachten eine inkompressible Strömung mit der Geschwindigkeit ~u(~x). Die Inkompressibilitätsbedingung (Kontinuitätsgleichung,
Masseerhaltung) lautet
G(~u) := div ~u = 0.
(5.6)
Wir wollen zeigen, dass die Bewegungsgleichung die Euler-Lagrange-Gleichung
bei der Minimierung des Funktionals
Z µ
J(~u) =
|ε̇(~u)|2 − f~ · ~u d~x
Ω 2
über alle Funktionen mit
~u(~x) = ~u0 (~x) ∀~x ∈ ∂Ω
ist. Dabei bezeichnen µ die Viskositätskonstante,
1
ε̇(~u) = (∇~u + ∇~uT )
2
den Verformungsgeschwindigkeitstensor und f~ ein äußeres Kraftfeld.
Der Lagrange-Ansatz mit dem Parameter −p lautet
Z µ
∗
|ε̇(~u)|2 − f~ · ~u − p div ~u d~x.
J (~u, p) =
Ω 2
Um die Variation des Tensors 2. Stufe zu vermeiden, berechnen wir die Variation
im eindimensionalen Beispiel:
Z µ 0 2
∗
J (u, p) =
(u ) − f u − pu0 dx
2
ZΩ
δJ ∗ (u, p; v, 0) =
−f v + (µu0 − p)v 0 dx
ZΩ
=
−f − µu00 + p0 v dx,
Ω
so dass die Euler-Lagrange-Gleichung
−µu00 + p0 = f
∀x ∈ Ω,
bzw. in der mehrdimensionalen Variante
−µ∆~u + ∇p = f~ ∀~x ∈ Ω
lautet. Zusammen mit der Inkompressibilitätsbedingung (5.6) ergibt sich das
Stokes-System. Der Druck p spielt die Rolle des Lagrange-Multiplikators.
Ü 5.14 Statt Kapitel 6 zu errbeiten, kann man sofort die Übungaufgabe 6.8
mit den gerade besprochenen Methoden angehen.
HT 2015
55
6 Einführung in die optimale Steuerung (freiwilllig)
Bsp 6.1 (Rakete) (aus [Ger13, Beispiel 4.0.1]) Eine Rakete mit der Masse m
startet zum Zeitpunkt t = 0 aus der Ruhelage auf der Erdoberfläche, d. h. der
Höhe x(0) = 0 und der Anfangsgeschwindigkeit ẋ(0) = 0, und wird senkrecht
nach oben geschossen. Der Pilot kann die Rakete durch die Schubkraft u(t)
steuern, wobei diese durch eine maximale Schubkraft nach oben und durch
Null nach unten (kein Bremsen) beschränkt ist,
0 ≤ u(t) ≤ umax
∀t ≥ 0.
(6.1)
Die Höhe x(t) genügt einer Differentialgleichung, die das Kräftegleichgewicht
modelliert,
mẍ(t) = −mg + u(t),
wobei −mg die Erdanziehungskraft ist. Zur Vereinfachung nehmen wir an, dass
sich die Masse der Rakete zeitlich nicht ändert, was genau genommen nicht
stimmt, da Treibstoff verbraucht wird. Auch Luftwiderstandskräfte werden hier
vernachlässigt.
Die Aufgabe des Piloten ist es nun, mit einer vorgegebenen Menge η an
Treibstoff eine vorgegebene Höhe H in möglichst kurzer Zeit tf zu erreichen.
Unter der Annahme, dass der Treibstoffverbrauch proportional zur Schubkraft
ist, muss der Pilot also eine Nebenbedingung der Form
Z
tf
u(t) dt = η
(6.2)
0
beachten. Es entsteht schließlich das folgende Optimalsteuerproblem : Minimiere
J(x, v, u, tf ) = tf
unter den Differentialgleichungsnebenbedingungen und Randbedingungen
ẋ(t) = v(t),
x(0) = 0,
v̇(t) = −g + m−1 u(t),
v(0) = 0,
x(tf ) = H,
der Integralbeschränkung (6.2) und der Steuerbeschränkung (6.1).
Übrigens kann die Integralbeschränkung zur Vereinfachung der Struktur der
Aufgabe wegtransformiert werden. Dazu führt man eine
R tf neue Zustandsvariable
Rt
w mit ẇ(t) = u(t), w(0) = 0 ein. Mit dieser gilt nun 0 u(t) dt = 0 f ẇ(t) dt =
w(tf ), so dass die Integralbeschränkung in die Forderung w(tf ) = η übergeht.
E 6.2 Optimalsteuerprobleme sind Variationsprobleme, bei denen zwischen Zustandsvariablen (x und v im Beispiel 6.1) und Steuervariablen (u im Beispiel)
unterschieden wird. Steuervariablen können als Eingabe des Benutzers angesehen werden, während sich der Zustand aus der Dynamik bei vorgegebener
Steuerung ergibt. Steuerung und Zustand werden oft unterschieden, weil sie
unterschiedliche mathematische Eigenschaften besitzen. Im Beispiel 6.1 musste
die Zustandsvariable x zweimal differenzierbar sein, die Steuerung u aber nicht.
56
HT 2015
E 6.3 Wir wollen hier Optimalsteuerprobleme der folgenden Form betrachten.
Finde über dem festen Intervall [0, T ] eine Steuerung u ∈ C[0, T ] und den
zugehörigen Zustand x ∈ V∗ ⊂ C 1 [0, T ], so dass das Funktional
Z
T
F (t, x(t), u(t)) dt
J(x, u) :=
0
minimal wird unter den Nebenbedingungen
ẋ(t) = f (t, x(t), u(t)) ∀t ∈ (0, T ],
x(0) = x0 .
(6.3)
Dabei können sowohl Steuerung als auch Zustand Vektorfunktionen sein. Die
Funktionen F und f seien stetig differenzierbar bezüglich aller Argumente. Das
Paar (x∗ , u∗ ) löst das Optimalsteuerproblem, wenn J(x∗ , u∗ ) ≤ J(x, u) gilt für
alle (x, u), die die Nebenbedinungen erfüllen.
Wir führen nun einen Lagrangeschen Multiplikator λ ∈ Λ ⊂ C 1 [0, T ] ein und
definieren mit dessen Hilfe das Funktional
Z T
J ∗ (x, u, λ) =
[F (t, x, u) + λ(t) · (f (t, x, u) − ẋ)] dt.
0
Die Anfangsbedingung für x bringen wir in V∗ unter,
V∗ = {x ∈ C 1 [0, T ] : x(0) = x0 }.
Wir setzen nun die Variationen nach den einzelnen Variablen Null und wenden
den Hauptsatz an. Die Variation von u ergibt mit
d ∗
0=
∀v ∈ C[0, T ]
J (x, u + εv, λ)
dε
ε=0
Z T
d
=
[F (t, x, u + εv) + λ · (f (t, x, u + εv) − ẋ)] dt
dε 0
ε=0
Z T
∂f
∂F
=
v+λ·
v dt
∂u
∂u
0
die Optimalitätsbedingung
0=
∂(F + λ · f )
,
∂u
(6.4)
die hier keine Differentialgleichung ist, weil das Problem nicht von u̇ abhängt.
Die Variation von x ergibt
d ∗
0=
J (x + εv, u, λ)
∀v ∈ V0 = {x ∈ C 1 [0, T ] : x(0) = 0}
dε
ε=0
Z T
d
=
[F (t, x + εv, u) + λ · (f (t, x + εv, u) − (ẋ + εv̇))] dt
dε 0
ε=0
Z T
∂F
∂f
=
v+λ·
v − v̇
dt
∂x
∂x
0
T
Z T ∂F
∂f
=
+λ·
v + λ̇ · v dt − λ · v .
∂x
∂x
0
0
HT 2015
57
Der Randterm verschwindet, wenn wir λ(T ) = 0 fordern. (Man beachte das
diese eine Bedingung am Ende des Intervalls ist.) Die Differentialgleichung für
die adjungierte Variable λ ∈ Λ = {v ∈ C 1 [0, T ] : λ(T ) = 0} lautet also
∂(F + λ · f )
.
∂x
λ̇ = −
(6.5)
Mit der Zustandsgleichung (6.3) wird das System geschlossen.
E 6.4 Die Funktion F + λ · f wird oft auch als Hamiltonfunktion H bezeichnet,
H(t, x, u, λ) = F (t, x, u) + λ · f (t, x, u)
Mit dieser erhält man die Zustandsgleichung, die adjungierte Gleichung und die
Optimalitätsbedingung in der Form
ẋ =
∂H
,
∂λ
λ̇ = −
∂H
,
∂x
0=
∂H
.
∂u
Bsp 6.5 (aus [Ger13, Bsp. 4.0.4]) Wir betrachten das folgende Optimalsteuerproblem: Minimiere
1
J(x, u) =
2
Z
1
u(t)2 + x(t)3 dt
0
unter der Nebenbedingung
ẋ(t) = u(t) − r(t),
x(0) = 4,
mit r(t) = 15 e−2t .
Es ist also F (t, x, u) = u2 + x3 und f (t, x, u) = u − r. Die Optimalitätsbedingung (6.4) lautet
∂
∂(F + λf )
0=
=
∂u
1 2
2 (u
+ x3 ) + λ(u − r)
= u + λ,
∂u
also u = −λ. Die adjungierte Gleichung (6.5) ist
∂
∂(F + λf )
λ̇ = −
=
∂x
1 2
2 (u
+ x3 ) + λ(u − r)
= − 32 x2 .
∂x
Zusammenfassung: Den Zustand x und den adjungierten Zustand λ findet man
mit u = −λ über die (numerische) Lösung von
ẋ(t) = −λ(t) − r(t),
λ̇(t) =
58
− 23 x(t)2
x(0) = 4,
λ(1) = 0.
HT 2015
Bsp 6.6 (Linear-Quadratisches Optimalsteuerungsproblem) (aus
[Ger13,
n
×n
n
×n
x
u , die
x
x
Bsp. 4.0.5]) Gegeben seien die Matrizen A ∈ R
und B ∈ R
n
×n
symmetrische Matrix R ∈ R x x und die symmetrische, positiv definite
Matrix S ∈ Rnu ×nu . Zu minimieren ist
Z
1 T
J(~x, ~u) =
~x(t)T R~x(t) + ~u(t)T S~u(t) dt
2 0
unter der Nebenbedingung
~x˙ (t) = A~x(t) + B~u(t),
~x(0) = ~x0 .
Die Hamiltonfunktion lautet
H(t, ~x, ~u, ~λ) = F (t, ~x, ~u) + ~λT f (t, ~x, ~u) =
1
2
~xT R~x + ~uT S~u + ~λT (A~x + B~u)
und somit die Optimalitätbedingung (6.4)10
0=
∂H
= S~u + B T ~λ.
∂~u
(6.6)
Da die Matrix S positiv definit und somit invertierbar ist, kann man die Steuerung eliminieren, ~u(t) = −S −1 B T ~λ(t). Die adjungierte Gleichung lautet
~λ˙ = − ∂H = −R~x − AT ~λ,
∂~x
λ(T ) = 0.
(6.7)
Die Schreibweise mit der Hamiltonfunktion ist sehr kompakt und führt auf
Ableitungen nach Vektoren. Man kann die Herleitung auch wie in Erklärung
6.3 ausführen: Man definiert
Z Th
i
∗
T
T
1
~
~λT A~x + B~u − ~x˙
J (~x, ~u, λ) =
dt
~
x
R~
x
+
~
u
S~
u
+
2
0
und variiert ~u und ~x:
d ∗
J (~x, ~u + ε~v , ~λ)
∀~v ∈ V0
dε
ε=0
Z Th
i d
T
T
1
~λT A~x +B(~u +ε~v )− ~x˙ dt
=
~
x
R~
x
+(~
u
+ε~
v
)
S(~
u
+ε~
v
)
+
dε 0 2
ε=0
Z Th
i
1 T
=
u S~v + 12 ~v T S~u + ~λT B~v dt
2~
0
Z T
h
i
=
~v T S~u + B T ~λ dt
0=
0
Mit dem Hauptsatz folgt die Optimalitätsbedingung (6.6). Analog erhält man
durch Variation von ~x die adjungierte Gleichung (6.7).
Bem 6.7 (ebenfalls aus [Ger13, Bsp. 4.0.5]) Linear-Quadratische Optimalsteuerungsprobleme sind eine wichtige Anwendung der Optimalsteuerungstheorie
und in der Regelungstheorie unter dem Begriff LQ-Regler als Feedbackregler
10
Mit
∂H
∂~
u
HT 2015
bezeichnen wir hier den Spaltenvektor, dessen Komponenten
∂H
∂H
, . . . , ∂u
∂u1
nu
sind.
59
bekannt. Beim Regeln wird der Zustand mit einer bestimmten Abtastrate gemessen, das Steuerungsproblem muss dann sehr oft gelöst werden, dafür jeweils
nur für ein kurzes Abtastintervall (0, T ). Zum häufigen schnellen Lösen des
linear-quadratischen Optimalsteuerungsproblems eignet sich das folgende Vorgehen.
Wählt man zur Lösung des Problems aus Beispiel 6.6 den Ansatz
~λ(t) := P (t)~x(t),
P ∈ Rnx ×nx
mit einer noch zu bestimmenden Matrixfunktion P , dann ergibt sich zunächst
mit der Zustandsgleichung ~x˙ = A~x + B~u
~λ˙ = Ṗ ~x + P ~x˙
= Ṗ ~x + P (A~x + B~u)
= Ṗ ~x + P (A~x − BS −1 B T ~λ)
= Ṗ ~x + P (A~x − BS −1 B T P ~x).
˙
Mit Hilfe der adjungierten Gleichung ~λ = −R~x − AT ~λ und mit ~λ = P ~x erhält
man daraus
−R~x − AT P ~x = Ṗ ~x + P (A~x − BS −1 B T P ~x),
also die matrixwertige Riccati-Differentialgleichung
Ṗ = −R − AT P − P A + P BS −1 B T P,
P (T ) = O,
die nicht vom Zustand ~x abhängt und daher vorab bestimmt werden kann.
Daraus ergibt sich durch Einsetzen
~u = −S −1 B T ~λ = −S −1 B T P ~x,
~x˙ = A~x + B~u = A~x − BS −1 B T P ~x = (A − K)~x
mit der Feedback-Matrix K = K(t) = BS −1 B T P (t). Für jedes Abtastintervall
muss dann nur die Differentialgleichung ~x˙ = (A − K)~x mit den Messdaten
als Anfangsbedingung (numerisch) gelöst und in die Formel für ~u eingesetzt
werden.
Ü 6.8 Gegeben sei eine Funktion yd (angestrebter Zustand) und ein Parameter
ν ∈ R. Man minimiere das Funktional
Z
1 1
J(y, u) =
(y(x) − yd (x))2 + νu(x)2 dx,
2 0
wobei der Zustand y die Randwertaufgabe
−y 00 (x) + y 0 (x) = u(x)
∀x ∈ (0, 1),
y(0) = y(1) = 0
mit der Steuergröße u erfüllen soll. Man beachte, dass die Differentialgleichung
nun von zweiter Ordnung ist. Die Ergebnisse von Erklärung 6.3 können nicht
benutzt werden, das Optimalitätssystem kann aber analog zu Erklärung 6.3
hergeleitet werden.
60
HT 2015