Die Finite Elemente Methode für partielle

Die Finite Elemente Methode für partielle
Differentialgleichungen
Thomas Richter
[email protected]
Heidelberg
13. August 2015
(vorläufig)
2
Inhaltsverzeichnis
Literaturverzeichnis
5
1 Einleitung
1.1 Beispiele von partiellen Differentialgleichungen . . . . . . . . . . . . . . . . .
1.2 Typeinteilung von linearen partiellen Differentialgleichungen zweiter Ordnung
1.3 Beispiel: die eingespannte Membran . . . . . . . . . . . . . . . . . . . . . . .
7
7
9
10
2 Theoretische Grundlagen
2.1 Grundlagen aus der Funktionalanalysis .
2.1.1 Funktionenräume . . . . . . . . .
2.1.2 Sobolew-Räume . . . . . . . . . .
2.2 Theorie partieller Differentialgleichungen
2.2.1 Elliptische Probleme . . . . . . .
2.2.2 Parabolische Probleme . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
17
17
17
20
30
30
38
3 Die Finite Elemente Methode für elliptische Probleme
3.1 Allgemeine Galerkin-Verfahren . . . . . . . . . . . . . . . .
3.1.1 Lösbarkeit und Galerkin-Orthogonalität . . . . . . .
3.1.2 Einige Begriffe . . . . . . . . . . . . . . . . . . . . .
3.1.3 Wahl der Ansatzräume . . . . . . . . . . . . . . . . .
3.2 Finite Elemente Methode . . . . . . . . . . . . . . . . . . .
3.2.1 Triangulierung und lineare Finite Elemente . . . . .
3.2.2 Allgemeine Finite Elemente Räume . . . . . . . . . .
3.2.3 Parametrische Finite Elemente . . . . . . . . . . . .
3.3 Interpolation mit Finiten Elemente . . . . . . . . . . . . . .
3.3.1 Das Bramble-Hilbert-Lemma . . . . . . . . . . . . .
3.3.2 Die Clement-Interpolation . . . . . . . . . . . . . . .
3.4 A priori Fehleranalyse für Finite Elemente Verfahren . . . .
3.4.1 Der Aubin-Nitsche Trick . . . . . . . . . . . . . . . .
3.4.2 Approximation von krummen Rändern . . . . . . . .
3.5 Praktische Aspekte der Finite Elemente Methode . . . . . .
3.5.1 Numerischer Aufbau der Gleichungen . . . . . . . .
3.5.2 Eigenschaften der Systemmatrix . . . . . . . . . . .
3.6 A posteriori Fehlerschätzung und adaptive Finite Elemente
3.6.1 Residuenbasierte Fehlerschätzer . . . . . . . . . . . .
3.6.2 Der dual gewichtete Fehlerschätzer . . . . . . . . . .
3.6.3 Adaptive Gitterverfeinerung . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
47
47
48
50
51
52
52
54
60
63
64
70
73
73
78
81
82
85
88
88
94
99
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
Inhaltsverzeichnis
4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen
4.1 Eigenschaften der linearen Gleichungssysteme . . . . . . . . . . . . . . . . .
4.2 Krylow-Raum-Methoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.1 Abstiegsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.2 Das Verfahren der konjugierten Gradienten (CG-Verfahren) . . . . .
4.2.3 Krylow-Raum Verfahren für nicht-symmetrische Gleichungssysteme .
4.2.4 Vorkonditionierung . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3 Mehrgitterverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.1 Hierarchische Finite Elemente Ansätze . . . . . . . . . . . . . . . . .
4.3.2 Das Zweigitter-Verfahren . . . . . . . . . . . . . . . . . . . . . . . .
4.3.3 Mehrgitter-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
105
105
107
108
110
115
117
119
122
124
130
5 Die Finite Elemente Methode für parabolische Probleme
135
5.1 Die Rothe-Methode für parabolische Differentialgleichungen . . . . . . . . . . 137
5.1.1 Praktische Aspekte der Rothe-Methode . . . . . . . . . . . . . . . . . 140
5.1.2 Stabilitätsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
5.1.3 Verfahren höherer Ordnung . . . . . . . . . . . . . . . . . . . . . . . . 149
5.2 Zeitdiskretisierung mit Galerkin-Verfahren . . . . . . . . . . . . . . . . . . . . 153
5.2.1 Das dG(r)-Verfahren zur Zeitdiskretisierung der Wärmeleitungsgleichung154
5.2.2 Das cG(r)-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
4
Literatur
Dieses Skript folgt den folgenden Vorlagen:
[Rannacher] Prof. Dr. R. Rannacher, Skriptum zur Vorlesung “Numerik partieller Differentialgleichungen”, http://ganymed.iwr.uni-heidelberg.de/˜lehre/notes, Universität Heidelberg, 2008
[Vexler] Prof. Dr. Boris Vexler, Skriptum zur Vorlesung “Adaptive Finite-Elemente-Verfahren”,
Technische Universität München, 2008
[Braess] D. Braess, “Finite Elemente”, Springer, 2007
[Großmann Roos] C. Großmann, H.-G. Roos, “Nuemrische Behandlung partieller Differentialgleichungen”, Teubner, 2005
5
Inhaltsverzeichnis
6
1 Einleitung
Partielle Differentialgleichungen treten zur Beschreibung einer Vielzahl physikalischer Prozesse auf. Üblicherweise suchen wir in einem Gebiet Ω ⊂ Rd mit d > 1 eine Funktion
u : Ω → Rc , welche einer Differentialvorschrift genügt:
F (x, u, ∇u, ∇2 u, . . . , ∇n u) = 0.
Von einer partiellen Differentialgleichung spricht man, wenn partielle Ableitungen in mehrere
Richtungen auftreten. Die höchste Stufe n der auftretenden Ableitungen heißt die Ordnung
der Differentialgleichung. Wir beschränken uns hier zunächst auf partielle Differentialgleichungen bis zur Ordnung n = 2. Zumeist behandeln wir lineare partielle Differentialgleichungen. Diese schreiben wir in der Form:
Lu = f,
Lu := −
d
X
aij ∂i ∂j u(x) +
d
X
ai ∂i u + au,
i=1
i,j=1
mit einem Differentialoperator L und mit (reellen) Koeffizienten aij , ai , a. Zur vollständigen
Beschreibung von partiellen Differentialgleichungen gehören wie bei gewöhnlichen Differentialgleichungen Randwerte bzw. Anfangswerte.
1.1 Beispiele von partiellen Differentialgleichungen
Wir erwähnen hier kurz einige Beispiele für partielle Differentialgleichungen, welche Prozesse
aus der Natur beschreiben. Zunächst sei Ω ⊂ Rd für d ≥ 1 ein Gebiet. Auf diesem Gebiet
beschreiben wir die Ausbreitung von Wellen durch die Wellengleichung. Wir suchen auf dem
Orts-Zeit Gebiet [0, T ] × Rd die Lösung u(x, t) so dass
∂t2 u(x, t) = ∆u(x, t),
wobei durch ∆ der Laplace-Operator als Summe der (örtlich) zweiten partiellen Ableitungen
bestimmt ist:
∆ :=
d
X
∂i2 .
i=1
Die Wellengleichung hat eine ausgezeichnete Variable t, die physikalische Zeit. Auch für eindimensionale Gebiete Ω mit d = 1 liegt eine partielle Differentialgleichung mit den partiellen
Ableitungen ∂tt und ∂xx vor. Für den Fall d = 1 ist eine Lösung der Wellengleichung gegeben
durch
u(x, t) = sin(x) sin(t).
7
1 Einleitung
Die Wellengleichung ist der Prototyp einer hyperbolischen partiellen Differentialgleichung.
Ein weiteres Beispiel für eine einfache partielle Differentialgleichung ist die Wärmeleitungsgleichung: In einem Gebiet Ω ⊂ Rd mit d ≥ 1 beschreiben wir die Ausbreitung von Wärme u(x, t) im Laufe der Zeit. Zu Beginn t = 0 sei eine Wärmeverteilung vorgeschrieben
u(x, 0) = u0 (x), der Rand des Gebiets sei “isoliert”, d.h. es existiert kein Wärmefluss über
den Rand. Mathematisch formuliert bedeutet dies, dass sich die Wärmeverteilung in Richtung Rand (also in Normalrichtung n) nicht ändert, ∂n u(x, t) = 0 für x ∈ ∂Ω. Die zeitliche
Verteilung der Wärme ist beschrieben durch die Gleichung:
∂t u(x, t) − λ∆u(x, t) = f (x, t) x ∈ Ω, t ≥ 0,
u(x, 0) = u0 (x),
∂n u = 0 auf ∂Ω,
wobei durch f (x, t) ein externer Wärmezufluss (oder eine Wärmesenke) gegeben ist und
λ eine physikalische Konstante, welche die Wärmeleitfähigkeit des Mediums beschreibt. Die
Wärmeleitungsgleichung hat wieder eine ausgezeichnete Zeitrichtung und ist unabhängig von
der Dimension des Gebietes d eine partielle Differentialgleichung. Sie ist der Prototyp einer
parabolischen partiellen Differentialgleichung. Sie ist ein Anfangs-Randwertproblem.
Oft ist man nicht am zeitlichen Verlauf der Lösung interessiert, sondern nur am stationären
Zustand welcher sich (gegebenenfalls) für t → ∞ einstellt. Ein stationärer Zustand ist ein
Gleichgewichtszustand, an dem sich die Lösung nicht mehr ändert (im Verlauf der Zeit), für
den also ∂t u(x, t) = 0 gilt. Die stationäre Wärmeleitungsgleichung ist bestimmt durch die
Vorschrift:
−∆u(x) = f (x), x ∈ Ω, ∂n u(x) = 0 x ∈ ∂Ω.
Ein stationärer Zustand kann sich natürlich nur dann einstellen, wenn der Quellterm f nicht
explizit von der Zeit abhängt. Die Gleichung −∆u = f wird die Poisson-Gleichung genannt
und wird uns in dieser Vorlesung hauptsächlich beschäftigen. Zusammen mit der Vorgabe der
Normalableitung auf dem Rand spricht man vom Neumann-Problem der Poisson-Gleichung.
Für Ω ⊂ R, also d = 1 ist diese Gleichung eine gewöhnliche Differentialgleichung, genauer
ein Spezialfall des Sturm-Liouville Randwertproblems. Für d ≥ 2 ist sie der Prototyp einer
elliptischen partiellen Differentialgleichung.
Bei den bisherigen Beispielen handelt es sich um lineare partielle Differentialgleichungen
zweiter Ordnung. Die Ordnung ist definiert als die höchste Stufe der auftretenden partiellen
Ableitung. Ein Beispiel für eine partielle Differentialgleichung erster Ordnung ist die Transportgleichung. Dafür sei durch β : Ω → Rd ein Transportfeld gegeben (etwa der Wind). Der
Transport einer Größe (etwa einer Dichteverteilung) ρ(x, t) in einem Gebiet Ω ⊂ Rd wird
dann durch die Gleichung
∂t ρ(x, t) + ∂β ρ(x, t) = 0,
beschrieben. Dabei bezeichnen wir mit ∂β := β · ∇ die Richtungsableitung in Richtung β:
∂β = β · ∇ =
d
X
β i ∂i .
i=1
Die Transportgleichung ist so wie die Wellengleichung eine hyperbolische Gleichung.
Falls mehr als eine Lösungsvariable involviert ist, so spricht man von einem System von
partiellen Differentialgleichungen. Der bekannteste Vertreter eines (nichtlinearen) Systems
8
1.2 Typeinteilung von linearen partiellen Differentialgleichungen zweiter Ordnung
Steigung c
t
t
y
(x0 , t0 )
(x0 , t0 )
x
(x0 , t0 )
x
x
Abbildung 1.1: Typeeinteilung und Ausbreitung von Informationen bei partiellen Differentialgleichungen. Von links nach rechts: hyperbolisch, parabolisch und elliptisch.
von partiellen Differentialgleichungen sind die Navier-Stokes Gleichungen. Gesucht werden
in einem Gebiet Ω ⊂ Rd mit d = 2, 3 und I := [0, T ] Druck p(x, t) : Ω → R und Geschwindigkeitsfeld v(x, t) : Ω → Rd einer inkompressiblen Flüssigkeit (oder eines Gases) so dass
(für d = 2)
∂t v 1 − ν∆v 1 + v · ∇v 1 + ∂x p = f 1
∂t v 2 − ν∆v 2 + v · ∇v 2 + ∂y p = f 2
∂x v 1 + ∂y v 2 = 0.
1.2 Typeinteilung von linearen partiellen Differentialgleichungen
zweiter Ordnung
Wir werden ausschließlich lineare partielle Differentialgleichungen zweiter Ordnung betrachten. Diese schreiben wir mit Hilfe eines Differentialoperators L in der Form:
Lu = f,
L :=
d
X
aij ∂i ∂j +
i,j=1
d
X
aj ∂j + a.
j=1
Die Koeffizienten sind reell (und können vom Ort abhängen). Da die partiellen Ableitungen vertauschbar sind ∂i ∂j u = ∂j ∂i u können die Koeffizienten aij = aji als symmetrisch
angenommen werden. Die bereits erwähnte Einteilung in elliptische, parabolische und hyperbolische Differentialgleichungen hängt bei linearen Gleichungen zweiter Ordnung in zwei
Dimensionen lediglich vom Hauptteil des Differentialoperators ab
L0 :=
d
X
aij ∂i ∂j ,
i,j=1
also nur von den Termen mit zweiten Ableitungen. Die theoretische sowie numerische Behandlung von partiellen Differentialgleichungen hängt stark vom jeweiligen Typ ab. Wir
wollen dies hier nur kurz motivieren.
9
1 Einleitung
Zunächst betrachten wir die einfache Transportgleichung auf dem Orts-Zeit Gebiet I × Ω =
[0, T ] × R
∂t ρ(x, t) + v∂x ρ(x, t) = 0,
mit fester ‘Geschwindigkeit’ v ∈ R. Zum Zeitpunkt t = 0 sei die Startverteilung vorgegeben
ρ(x, 0) := ρ0 (x).
Die eindeutige Lösung kann dann unmittelbar angegeben werden:
ρ(x, t) = ρ0 (x − vt),
t ≥ 0.
Durch die Vorgabe von Startwerten ist also bereits die komplette Lösung bestimmt.
Wir nehmen nun an, dass die Lösung der Transportgleichung in einem Zeit-Ortspunkt
(t∗ , x∗ ) ∈ [0, T ] × Ω gestört wird, etwa durch einen Fehler in einer rechten Seite. Diese Störung wird im weiteren Zeitverlauf weiter mit Geschwindigkeit v transportiert. Eine Störung
hat nur Einfluss auf Punkte t ≥ t∗ und da die Informationsausbreitung mit endlicher Geschwindigkeit v stattfindet nur in allen Punkten innerhalb eines Kegels, siehe Abbildung 1.1.
Aus dieser Informationsausbreitung können zulässige Randbedingungen hergeleitet werden:
wird zum Beispiel der Startwert u(x, 0) = u0 (x) vorgegeben, so dürfen nicht zusätzlich Werte an Teilen des Randes ∂Ω vorgeschrieben werden, an denen die Lösung bereits durch den
Startwert beschrieben ist.
Als zweites Beispiel wird die Wärmeleitungsgleichung in einer räumlichen Dimension d = 1
betrachtet. Im Orts-Zeitgebiet [0, T ] × (0, 1) gelte die Gleichung:
∂t u(x, t) − λ∂xx u(x, t) = f (x, t).
Zu Beginn sei eine Wärmeverteilung vorgegeben, am Rand soll kein Wärmefluss stattfinden:
u(x, 0) = u0 (x)
x ∈ Ω,
∂n u(x, t) = 0
(x, t) ∈ [0, T ] × ∂Ω.
Bei der idealisierten physikalischen Modellierung der Wärmeleitung wird die Information mit
unendlicher Geschwindigkeit in örtlicher Richtung weitergeführt. Das heißt, eine Änderung
im Punkt (t∗ , x∗ ) ∈ [0, T ] × Ω wirkt sich unmittelbar auf alle Punkte (x, t) mit t ≥ t∗ aus.
Die Lösung für t < t∗ bleibt natürlich unberührt. Als Differentialgleichung zweiter Ordnung
im Ort x, müssen auf beschränkten Gebieten Randwerte auf ∂Ω vorgegeben werden. Die
Wärmeleitungsgleichung ist also ein Anfangs-Randwertproblem.
Betrachten wir das stationäre Wärmeleitungsproblem auf einem beschränkten Gebiet, so ist
aus physikalischer Anschauung klar, dass die Änderung in einem beliebigen Punkt x ∈ Ω
Einfluss auf alle anderen Punkte des Gebietes hat, siehe Abbildung 1.1.
1.3 Beispiel: die eingespannte Membran
Detailliert behandeln wir ein einfaches Anwendungsproblem. Hierzu sei Ω ⊂ R2 ein beschränktes Gebiet (unter einem Gebiet verstehen wir eine zusammenhängende, nichtleere offene Teilmenge). Dieses Gebiet soll die Idealisierung einer unendlich dünnen Membran sein.
10
1.3 Beispiel: die eingespannte Membran
Wir wollen die Auslenkung u : Ω → R dieser Membran in Normalrichtung unter Einwirkung
einer Normalkraft f : Ω → R betrachten. Am Rand ∂Ω sei die Membran eingespannt, es
gelte also für die Auslenkung u(x) = 0 in Punkten x ∈ ∂Ω. Falls nun v(x) eine gegebene
Auslenkung ist, so kann die Energie des Systems durch eine Energieform E(·) angegeben
werden:
Z
Z
µ
E(v) =
|∇v|2 dx −
f v dx.
2 Ω
Ω
Hier ist µ ein Materialparameter, welcher von den physikalischen Eigenschaften der Membran
abhängt. Physikalische Grundprinzipien besagen nun, dass die gesuchte Auslenkung u : Ω →
R eben diese ist, welche die Energieform minimiert:
suche u zulässig, so dass: E(u) ≤ E(v)
für alle v zulässig.
Wir müssen als erstes den Lösungsraum, also den Raum der zulässigen Lösungen näher
beschreiben. Wir nennen diesen Raum V . Dieser Raum muss (mindestens) derart sein, dass
wir die Aufgabe sinnvoll formulieren können. Die Funktionen in V müssen im Innern des
Gebietes differenzierbar sein und damit die Energieform existiert müssen die Ableitungen
quadrat-integrabel sein. Darüber hinaus müssen die Funktionen in V bis zum Rand hin
fortsetzbar sein und dort den Wert 0 annehmen:
V := {u : Ω̄ → R : u ∈ C(Ω̄) ∩ C 1 (Ω), u|∂Ω = 0, |∇u| ∈ L2 (Ω)}.
Wir schreiben das Minimierungsproblem kurz:
suche u ∈ V : E(u) ≤ E(v)
∀v ∈ V.
(1.1)
Für die Lösung u von (1.1) gilt notwendig mit jeder beliebigen Variation φ ∈ V
E(u) ≤ E(u + φ),
und somit ist die Lösung charakterisiert durch die Eigenschaft:
d
= 0 ∀φ ∈ V.
E(u + sφ)
ds
s=0
Durch Differenzieren erhalten wir:
d
d nµ
E(u + sφ)
=
ds
ds 2
s=0
Z
Z
|∇(u + sφ)| dx −
Ω
µ∇u · ∇φ dx −
=
Ω
2
Z
Ω
Z
o
f (u + sφ) dx s=0
f φ dx = 0 ∀φ ∈ V.
Ω
Die Lösung des Minimierungsproblems (1.1) kann also auch als Lösung der Variationsgleichung
Z
Z
u ∈ V : µ ∇u · ∇φ dx =
f φ dx ∀φ ∈ V,
(1.2)
Ω
Ω
beschrieben werden. Es kann einfach gezeigt werden, dass die beiden Formulierungen (1.1)
und (1.2) äquivalent sind, dass also auch jede Lösung des Variationsproblems eine Lösung
des Minimierungsproblems ist.
11
1 Einleitung
Falls die Funktion u zweimal stetig differenzierbar ist, fahren wir mit Hilfe der Green’schen
Formel (partielle Integration) fort:
Z
0=
µ∇u · ∇φ dx +
Z
Ω
f φ dx = −
Ω
Z
(µ∆u − f )φ dx +
Z
µ∂n uφ ds
∀φ ∈ V.
∂Ω
Ω
|
{z
=0
}
Das Randintegral verschwindet, da die Testfunktionen φ ∈ V hier alle Null sind. Diese Gleichung muss für sämtliche Funktionen φ ∈ V erfüllt sein. Das Prinzip der Variation besagt
nun, dass diese Integralgleichung auch punktweise gelten muss. Das gesuchte Minimum u
von (1.1) bzw. die gesuchte Variationslösung (1.2) ist also (bei hinreichender Differenzierbarkeit) auch Lösung der elliptischen partiellen Differentialgleichung:
− µ∆u = f in Ω,
u = 0 auf ∂Ω.
(1.3)
Wir erhalten wieder das Poisson-Problem, diesmal mit dem Lösungswert u(x) = 0 auf dem
Rand. Dieses Randwertproblem heißt Dirichlet-Problem. Im Spezialfall u = 0 sprechen wir
von homogenen Dirichlet-Bedingungen.
Wir haben nun die folgenden Zusammenhänge gezeigt:
(1.1)
⇒
(1.2)
⇒
u∈C 2 (Ω)
(1.3).
Diese Folgerung kann auch umgekehrt werden, so dass für die Lösungen der drei unterschiedlichen Formulierungen gilt:
(1.1)
⇔
(1.2)
⇔
u∈C 2 (Ω)
(1.3).
Für die Äquivalenz zwischen der variationellen und der klassischen Formulierung ist hinreichende Regularität notwendig. Es wird sich zeigen, dass es durchaus (sogar überwiegend)
Lösungen des Minimierungs- sowie Variationsproblems gibt, welche jedoch nicht über diese
zusätzliche Regularität verfügen. Daher werden wir zwischen zwei Lösungskonzepten unterscheiden: unter der klassischen Lösung oder auch starken Lösung verstehen wir eine Funktion u ∈ C(Ω̄) ∩ C 2 (Ω) welche die Differentialgleichung (1.3) löst. Demgegenüber steht die
schwache Lösung oder auch variationelle Lösung welche die beiden äquivalenten Formulierungen (1.1) und (1.2) löst. Jede klassische Lösung ist auch eine schwache Lösung.
Zentrale theoretische Fragestellungen bei der Untersuchung von partiellen Differentialgleichungen sind die Begriffe Lösbarkeit, Eindeutigkeit und Stabilität. Eine Aufgabe wird als
wohlgestellt im Sinne von Hadamard bezeichnet, falls eine eindeutige Lösung existiert, welche stetig von der Daten, also den Rand- und Anfangsbedingungen sowie der rechten Seite
abhängt. Selbst für lineare partielle Differentialgleichungen ist die Untersuchung dieser Begriffe weit aufwändiger als bei gewöhnlichen Differentialgleichungen.
Eindeutigkeit Die Untersuchung der Eindeutigkeit ist verhältnismäßig einfach. Jede Lösung (klassisch sowie schwach) ist eine Lösung der Variationsgleichung. Angenommen, es
existierten zwei solche Lösungen u, v von (1.2). Dann gilt:
Z
Ω
12
(∇u − ∇v) · ∇φ dx = 0 ∀φ ∈ V.
1.3 Beispiel: die eingespannte Membran
Wir wählen die spezielle Testfunktion φ := u − v ∈ V und erhalten:
k∇(u −
v)k2Ω
Z
|∇(u − v)|2 dx = 0.
:=
Ω
Es gilt also ∇(u − v) = 0 und somit ist die Differenz u − v der beiden Lösungen im ganzen
Gebiet konstant. Da die Lösungen am Rand ∂Ω beide verschwinden gilt zwingend u = v und
die Existenz verschiedener Lösungen ist ausgeschlossen.
Stetige Abhängigkeit von der rechten Seite Wir betrachten wieder die Variationsgleichung zur Bestimmung der Lösung:
Z
µ
∇u · ∇φ dx =
Ω
Z
f φ dx
∀φ ∈ V,
Ω
und wählen die Testfunktion φ = u ∈ V . Dann gilt:
k∇uk2Ω ≤
1
kf kΩ kukΩ .
µ
(1.4)
Wir zitieren nun die für die Numerik wesentliche Poincaré’sche Ungleichung
Satz 1.1 (Poincaré’sche Ungleichung). Sei Ω ⊂ Rd ein beschränktes Gebiet, sowie u ∈
C 1 (Ω) ∩ C(Ω̄) eine Funktion welche am Rand des Gebietes verschwindet. Dann gilt die Ungleichung
kukΩ ≤ cp k∇ukΩ ,
mit einer nicht von u abhängigen Konstante cp .
Mit dieser Ungleichung erhalten wir aus (1.4)
k∇uk2Ω ≤
cp
1
kf kΩ kukΩ ≤ kf kΩ k∇ukΩ
µ
µ
⇒
k∇ukΩ ≤
cp
kf kΩ ,
µ
die stetige Abhängigkeit der Lösung von der rechten Seite.
Existenz einer Lösung Die Frage nach der Existenz einer Lösung ist nicht so einfach zu
beantworten. Der sogenannte potentialtheoretische Ansatz versucht die Existenz einer klassischen Lösung der partiellen Differentialgleichungen in Form (1.3) zu zeigen. Dieser Ansatz
verwendet sogenannte Green’sche Funktionen, diese können als Fundamentallösung des Differentialoperators betrachtet werden. Wir verweisen hierzu auf die Literatur.
Wir betrachten den funktionalanalytischen Zugang, welcher flexibler ist und eng mit der numerischen Untersuchung verbunden ist. Wir versuchen die Existenz eines Minimums von (1.1)
zu zeigen.
Wir erinnern an den Lösungsraum
V := {u : Ω̄ → R : u ∈ C(Ω̄) ∩ C 1 (Ω), u|∂Ω = 0, |∇u| ∈ L2 (Ω)}.
13
1 Einleitung
Für Funktionen auf diesem Lösungsraum gilt die Poincaré Ungleichung. Dies bedeutet, dass
durch die folgende Energienorm
kvkE := k∇vkΩ ≥
1
kvkΩ
cp
∀v ∈ V,
auf V in der Tat eine Norm gegeben ist.
Wir suchen das Infimum von (ohne Einschränkung µ = 1)
u := inf arg E(v),
v∈V
1
E(v) := kvk2E − (f, v),
2
wobei wir zur Abkürzung für das L2 -Skalarprodukt die Bezeichung
Z
(f, g) :=
f g dx
Ω
verwenden.
a) Um die Existenz eines Minimums zu zeigen müssen wir zunächst die Beschränktheit
E(v) > −∞ der Energieform nachweisen. Es gilt mit Poincaré und für f ∈ L2 (Ω)
1
1
1
E(v) = kvk2E − (f, v) ≥ kvk2E − kf k kvk ≥ kvk2E − cp kf k kvkE
2
2
2
Weiter verwenden wir die Young’sche Ungleichung
ab ≤
1 2 ε 2
a + b
2ε
2
ε > 0,
mit ε = cp und erhalten:
c2p
c2p
1
1
E(v) ≥ kvk2E − kf k2 − kvk2E = − kf k2 > −∞.
2
2
2
2
b) Da das Energiefunktional nach unten beschränkt ist, existiert also eine Minimalfolge
vn ∈ V (n > 0) mit:
E(vn ) → inf E(v) =: d > −∞.
v∈V
Es bleibt die Konvergenz der Folgenglieder vn → u gegen einen Grenzwert u zu zeigen und
dass dieser Grenzwert in unserem Raum V liegt. Hierzu zeigen wir zunächst, dass die Folge
vn ∈ V eine Cauchy-Folge ist. Mit der Parallelogrammidentität
kv − wk2E + kv + wk2E = 2kvk2E + 2kwk2E
gilt für die Differenz zweier Folgenglieder:
kvn − vm k2E = 2kvn k2E + 2kvm k2E − kvn + vm k2E
1
= 2kvn k2E + 2kvm k2E − 4k (vn + vm )k2E
2
1
1
= 4E(vn ) + 4E(vm ) − 8E( (vn + vm )) + 4(f, vn ) + 4(f, vm ) − 8(f, (vn + vm ))
2
2
14
1.3 Beispiel: die eingespannte Membran
Die Folge der Funktionalwerte E(vn ) → d konvergiert für n → ∞. Für den “gemischten”
Term gilt:
1
E( (vn + vm )) ≥ d.
2
Insgesamt folgt somit, dass vn in der Energienorm eine Cauchy-Folge ist:
lim sup kvn − vm k2E ≤ 4d + 4d − 8d = 0.
n,m→∞
c) Es bleibt zu prüfen, ob ein Grenzwert der Cauchy-Folge im Raum V existiert. Die HölderRäume C 1 und C 0 sind bzgl. der Energie-Norm nicht vollständig. Hierzu betrachte man auf
der Kreisscheibe Ω := {x ∈ R2 : |x| ≤ 1} die Folge von Funktionen
vn := log log
1
|x| +
!
1
n
!
+1
∈ V.
Diese Folgenglieder sind in V enthalten. Man kann zeigen, dass diese Folgenglieder bzgl. der
Energienorm eine Cauchy-Folge darstellen. Weiter gilt für den Grenzfall n → ∞
1
v := log log
|x|
+1 ,
kvkE < ∞.
Für diesen “Grenzwert” gilt jedoch v 6∈ V . In der Tat ist diese Funktion im Nullpunkt nicht
einmal beschränkt.
Wir helfen uns nun mit einem allgemeinen Prinzip weiter und vervollständigen den Raum
V in Bezug auf die Energienorm k · kE und definieren:
V := {φ ist Äquivalenzklasse von Cauchy-Folgen aus V bzgl. k · kE }.
Dieser Raum ist der sogenannte Sobolev-Raum H01 (Ω). Die Elemente von H01 (Ω) sind zunächst Äquivalenzklassen von Cauchy-Folgen. Sie können jedoch mit Funktionen (den Grenzwerten) identifiziert werden. Eine solche H 1 -Funktion ist dann stets nur fast überall definiert.
Es handelt sich um L2 -Funktionen mit Ableitungen (welche nur im Distributionssinn existieren) die wieder in L2 liegen. Die Untersuchung dieser Räume wird sich als wesentlich für
die Behandlung von numerischen Differentialgleichungen erweisen.
Wir haben also die Existenz einer Lösung u ∈ H01 (Ω) der Minimierungsaufgabe für rechte
Seiten f ∈ L2 (Ω) nachgewiesen. Es existiert somit eine eindeutige schwache Lösung welche
stetig von der rechten Seite abhängt. Ob diese Lösung auch eine klassische Lösung ist können
wir noch nicht entscheiden. Hierfür müssten wir nachweisen, dass diese schwache Lösung
u ∈ H01 (Ω) über eine höhere Regularität verfügt.
15
1 Einleitung
16
2 Theoretische Grundlagen
Die theoretische Analyse von partiellen Differentialgleichungen ist zumeist nicht mit den
elementaren Methoden möglich, welche bei gewöhnlichen Differentialgleichungen ausreichend
waren. Die Frage nach der Existenz einer Lösung muss bei partiellen Differentialgleichungen
neu formuliert werden: statt dem bloßen “existiert eine Lösung?” tritt die Frage “in welchem
Sinne und in welchem Funktionenraum kann die Existenz einer Lösung gezeigt werden?” in
den Vordergrund.
Wir werden daher zunächst einige für diese Vorlesung wichtige Begriffe der Funktionalanalysis zusammenstellen bevor wir zur eigentlichen Theorie der partiellen Differentialgleichungen
voranschreiten.
2.1 Grundlagen aus der Funktionalanalysis
2.1.1 Funktionenräume
Wir beginnen mit einigen wesentlichen Konzepten. Wir betrachten Vektorräume X über dem
Körper R.
Definition 2.1 (normierter Raum). Ein linearer Raum X heißt normierter Raum, wenn es
eine Funktion (Norm) k · k : X → R+ mit den folgenden Eigenschaften gibt:
1. Definitheit
kxk = 0
⇔
x=0
2. Homogenität
kαxk = |α| kxk
∀α ∈ R,
x∈X
3. Dreiecksungleichung
kx + yk ≤ kxk + kyk
∀x, y ∈ X
Normen benötigen wir insbesondere für Konvergenzbetrachtungen. Bei der Untersuchung
der Existenz einer Lösung vom Membranproblem hat sich bereits die Vollständigkeit eines
normierten Raumes als Problem erwiesen:
Definition 2.2 (Banachraum). Ein normierter Raum X heißt vollständig oder Banachraum, falls jede Cauchy-Folge (xn )n≥0 mit Elementen xn ∈ X einen Grenzwert in X hat
xn → x ∈ X
17
2 Theoretische Grundlagen
Genauer sollte man sagen: ein Raum X ist vollständig bzgl. einer Norm k · k. Denn z.B.
ist der Raum der stetigen Funktionen auf einem abgeschlossenen Intervall, etwa C([0, 1])
vollständig bzgl. der Maximumnorm k · kC([0,1]) , jedoch nicht vollständig bzgl. der L2 -Norm
k · kL2 (Ω) .
Als weitere Struktureigenschaft benötigen wir oft Skalarprodukte:
Definition 2.3 (Prä-Hilbertraum). Ein linearer Raum X heißt Prä-Hilbertraum, falls er
mit einem Skalarprodukt (·, ·) : X × X → R versehen ist:
1. Definitheit
(x, x) ≥ 0,
(x, x) = 0
⇒x=0
2. Symmetrie
∀x, y ∈ X
(x, y) = (y, x)
3. Linearität
(αx, y) = α(x, y),
(x + y, z) = (x, z) + (y, z)
∀x, y, z ∈ X,
α ∈ R.
Jeder Prä-Hilbertraum ist auch ein normierter Raum, denn durch ein Skalarprodukt wird
stets eine Norm induziert:
q
kxk := (x, x), ∀x ∈ X.
Zuletzt
Definition 2.4 (Hilbertraum). Ein Prä-Hilbertraum heißt Hilbertraum, falls er in der durch
das Skalarprodukt induzierten Norm vollständig ist.
Beispiele
• Der euklidische Raum Rn ist ein Hilbertraum:
(x, y) :=
n
X
kxk2 :=
xi yi ,
q
(x, x)
i=1
• Der Raum C(Ω̄) ist mit der Maximum-Norm
kvk∞ := max |v(x)|
x∈Ω̄
ein Banachraum.
• Der Raum C(Ω̄) ist mit dem L2 -Skalarprodukt
Z
(u, v)2 :=
uv dx,
Ω
ein Prä-Hilbertraum, jedoch bzgl. der induzierten L2 -Norm nicht vollständig, daher
kein Hilbertraum.
18
2.1 Grundlagen aus der Funktionalanalysis
Bei der theoretischen Betrachtung von partiellen Differentialgleichungen stehen Existenzaussagen im Mittelpunkt. Die folgenden Sätze sind hier wesentliche Hilfsmittel:
Satz 2.1 (Fixpunktsatz von Banach). Sei X ein Banachraum und T : X → X eine
Kontraktion, also eine Abbildung mit der Eigenschaft:
∃γ ∈ [0, 1) :
kT (x) − T (y)k ≤ γkx − yk
∀x, y ∈ X.
Dann existiert eine eindeutige Lösung der Fixpunktgleichung
T (x) = x.
Weiter:
Definition 2.5 (Lineares Funktional). Ein Funktional f : X → R auf einem normierten
Raum X heißt linear, falls
f (αx) = αf (x)
und
f (x + y) = f (x) + f (y),
∀α ∈ R,
x, y ∈ X.
Ein lineares Funktional heißt beschränkt, wenn es eine Konstante c > 0 gibt, so dass
|f (x)| ≤ ckxk
∀x ∈ X.
Satz 2.2. Ein lineares Funktional auf einem normierten Raum X ist genau dann stetig,
wenn es beschränkt ist.
Die linearen Funktionale f : X → R bilden selbst einen Raum:
Definition 2.6 (Dualraum). Sei X ein normierter Raum. Der Raum aller beschränkten
linearen Funktionale f : X → R heißt Dualraum zu X und wird mit X ∗ bezeichnet. Dieser
Raum ist normiert mit der Dualnorm
kf kX ∗ :=
|f (x)|
.
x∈X, x6=0 kxkX
sup
Satz 2.3 (Riesz’scher Darstellungssatz). Sei X ein Hilbertraum. Dann ist durch:
J : X → X ∗,
J(x)(y) = (x, y),
ein isometrischer Isomorphismus zwischen X und X ∗ erklärt.
Bemerkung 2.1. Die für uns wesentliche Aussage des Riesz’schen Darstellungssatz besagt,
dass es für jedes Funktional f ∈ X ∗ eines Hilbertraumes ein Element x ∈ X in eben diesem
Hilbertraum gibt, so dass sich das Funktional in der Form
f (y) = (x, y)
∀y ∈ X,
darstellen lässt. Weiter gilt für die Norm des Funktionals:
kf kX ∗ = kxkX .
Wir können also einen Hilbertraum X mit seinem Dualraum X ∗ gewissermaßen gleichsetzen.
19
2 Theoretische Grundlagen
Beispiel Wir betrachten zunächst den Rn . Dieser Raum ist ein Hilbertraum mit dem euklidischen Skalarprodukt und der euklidischen Norm k · k2 . Ein lineares Funktional ist z.B.
gegeben durch:
f (y) :=
n
X
∀y ∈ Rn .
yi ,
i=1
Dieses Funktional hat die Norm:
| xi |
|f (x)|
= sup qP .
:= sup
kxk
2
x∈X
x∈X
x2i
P
kf k
Rn∗
Es gilt:
|
X
xi | ≤
qX qX
1
x2i
⇒
kf kRn∗ ≤
⇒
kf kRn∗ ≥
√
n,
sowie für die spezielle Wahl x̄ = (1, 1, . . . , 1)T
sup
x∈X
|f (x̄)| √
|f (x)|
≥
= n
kxk
kx̄k
√
n.
√
Für die Norm des Funktionals gilt somit kf kRn∗ = n. Das Funktional lässt sich mittels des
Riesz’schen Darstellungssatz auch durch einen Repräsentanten x ∈ Rn darstellen:
f (y) = (x, y)
∀y ∈ Rn ,
x := (1, 1, . . . , 1)T ∈ Rn ,
und für diesen Repräsentanten gilt:
kxk = kf kRn∗ .
2.1.2 Sobolew-Räume
Es sei nun Ω ⊂ Rn ein Lipschitz-Gebiet. Dies bedeutet, dass der Rand ∂Ω lokal als Graph
einer Lipschitz-stetigen Funktion betrachtet werden kann und dass das Gebiet nur auf einer Seite dieses Graphen liegt. Ein Lipschitz-Gebiet schließt zum Beispiel die Situation in
Abbildung 2.1 rechts aus. Leichter zu verstehen ist die folgende Bedingung: der Rand ist
stückweise glatt und erfüllt die Kegelbedingung, d.h., in jeden Punkt des Randes können Kegel mit positivem Innenwinkel platziert werden, welche lokal vollständig im Gebiet liegen,
sowie solche, die lokal vollständig außerhalb liegen. Lokal meint hier eine Umgebung, welche
den Eckpunkt des Kegels enthält.
Lebesgue-Räume
Wir definieren:
Definition 2.7 (Lp -Raum). Für ein 1 ≤ p < ∞ definieren wir die Lp -Norm
Z
kf kLp (Ω) :=
20
Ω
|u(x)|p dx
1
p
,
2.1 Grundlagen aus der Funktionalanalysis
y=
p
|x|
Abbildung 2.1: Beispiel von Lipschitz-Gebiet (links) und ein Gegenbeispiel (rechts).
und für p = ∞
kf kL∞ (Ω) := ess supx∈Ω |u(x)|.
sowie den Lp -Raum
n
o
Lp (Ω) := u : Ω → R : kukLp (Ω) < ∞ .
Zur Abkürzung schreiben wir die Norm auch
kf kp := kf kLp (Ω) .
Es gelten die folgenden zentralen Sätze:
Satz 2.4. Der Raum Lp (Ω) ist ein Banachraum für alle 1 ≤ p ≤ ∞.
Satz 2.5. Der Raum L2 (Ω) ist ein Hilbertraum mit dem Skalarprodukt
Z
(u, v)2 :=
uv dx.
Ω
Satz 2.6 (Hölder’sche Ungleichung). Sei f ∈ Lp (Ω) und g ∈ Lq (Ω) mit
1 1
+ = 1,
p q
dann ist die Funktion f g ∈ L1 (Ω) und es gilt
Z
|f g| dx ≤ kf kp kgkq .
Ω
Weiter gilt:
21
2 Theoretische Grundlagen
Satz 2.7 (Dualraum von Lp ). Es sei 1 ≤ p < ∞. Dann gilt:
∗
[Lp (Ω)]∗ = Lp (Ω),
mit dem dualen Exponenten p∗ ≥ 1
1
1
= 1.
+
p p∗
Durch
Z
J(f )(g) :=
gf dx
g ∈ Lp (Ω), f ∈ Lq (Ω),
Ω
∗
ist ein linearer isometrischer Isomorphismus J : Lp (Ω) → [Lp (Ω)]∗ gegeben.
Genauer bedeutet dieser Satz, dass der Dualraum des Lp isometrisch isomorph zum Raum
∗
Lp mit dem dualen Exponenten ist. D.h., jedes Funktional Lp → R lässt sich durch ein
∗
Element des Lp bzgl des Produktes darstellen:
∗
∗
p
g ∈ [L (Ω)]
⇒
p∗
∗
∃g ∈ L (Ω) : g (f ) =
Z
gf dx
∀f ∈ Lp (Ω).
Ω
Der Dualraum des L1 (Ω) ist der L∞ (Ω). Der Dualraum des L∞ (Ω) hingegen ist nicht der
L1 (Ω) sondern echt größer. Für p = 2 liegt ein Hilbertraum mit p∗ = 2 vor und der isometrische Isomorphismus dieses Satzes stimmt mit demjenigen des Riesz’schen Darstellungssatz
überein.
Schwache Ableitungen
Bei dem Existenzbeweis des Membran-Problems haben wir den Raum H 1 (Ω) eingeführt. Wir
haben gesehen, dass die Funktionen in diesem Raum über einen gewissen Ableitungsbegriff
verfügen. Auf der anderen Seite sind aber sogar unstetige Funktionen zugelassen. Wir nähern
uns hier diesem schwachen Ableitungsbegriff.
Zur Bezeichnung von höheren Ableitungen führen wir die Multiindex-Schreibweise ein. Für
einen solchen Multiindex α := (α1 , . . . , αn ) ∈ Nn schreiben wir für Funktionen v : Ω → R:
α
D v :=
∂xα11 ∂xα22
. . . ∂xαnn v,
|α| :=
n
X
αi .
i=1
Wir definieren:
Definition 2.8. Der Raum der k-mal stetig differenzierbaren Funktionen ist gegeben durch:
C k (Ω) := {v ∈ C(Ω) : Dα v ∈ C(Ω), |α| ≤ k}.
Als Spezialfall:
C ∞ (Ω) := {v ∈ C(Ω) : Dα v ∈ C(Ω), für alle α}.
22
2.1 Grundlagen aus der Funktionalanalysis
Definition 2.9 (Träger). Der Träger einer Funktion f ∈ C(Ω) ist gegeben durch
supp v := {x ∈ Ω : v(x) 6= 0}.
Hiermit erhalten wir die Räume der stetig differenzierbaren Funktionen mit kompakten Träger:
Definition 2.10. Der Raum der Funktionen mit kompaktem Träger:
C0∞ (Ω) := {v ∈ C ∞ (Ω) : supp v ⊂ Ω ist kompakt}.
Für eine Funktion v ∈ C0∞ (Ω) gilt in unserem Kontext insbesondere v = 0 auf dem Rand
∂Ω.
Zunächst zitieren wir den
Satz 2.8 (Satz von Gauß (partielle Integration)). Für u, v ∈ C 1 (Ω) gilt:
Z
Z
Ω
∂xi uv dx =
uv ni ds −
Z
∂Ω
u∂xi v dx,
Ω
mit dem nach außen gerichteten Einheitsnormalenvektor zu ∂Ω. Falls v ∈ C0∞ (Ω), gilt
Z
Ω
∂xi uv dx = −
Z
Ω
u∂xi v dx.
Allgemein für u ∈ C k (Ω) mit |α| ≤ k gilt:
Z
Z
vDα u dx = (−1)|α|
Ω
∀v ∈ C0∞ (Ω).
uDα v dx
Ω
Eine Folgerung ist der für die Numerik wichtige
Satz 2.9 (Satz von Green). Für Funktionen u ∈ C 2 (Ω) und v ∈ C 1 (Ω) ∩ C(Ω̄) gilt:
Z
∇u · ∇v dx =
Z
∂n uv ds −
∂Ω
Ω
Z
∆uv dx.
Ω
Die schwache Ableitung einer Funktion definieren wir nun mit Hilfe des Satzes von Gauß:
Definition 2.11 (Schwache Ableitung). Sei u ∈ L1 (Ω). Eine Funktion w ∈ L1 (Ω) heißt
schwache Ableitung oder verallgemeinerte Ableitung von u mit Multi-Index α, falls
Z
|α|
Z
wv dx = (−1)
Ω
uDα v dx
Ω
∀v ∈ C0∞ (Ω).
Es gilt:
Satz 2.10 (Eigenschaften der schwachen Ableitung).
• Falls eine schwache Ableitung existiert, so ist sie eindeutig bestimmt.
• Falls die Ableitung der Funktion u im klassischen Sinne existiert, so stimmt die schwache Ableitung mit der klassischen Ableitung überein.
23
2 Theoretische Grundlagen
Beispiel Der zweite Punkt im vorherigen Satz folgt unmittelbar aus dem Satz von Gauß
und der Definition der schwachen Ableitung. Wir betrachten nun als Beispiel auf Ω := (−1, 1)
die Funktion
u(x) = |x|,
welche integrierbar ist u ∈ L1 (Ω), jedoch nicht klassisch differenzierbar im Nullpunkt. Es
gilt mit beliebiger Funktion v ∈ C0∞ (Ω):
−
Z 1
−1
uv 0 dx = −
Z 0
uv 0 dx −
−1
Z −1
uv 0 dx
0
0
= −uv −1 +
Z 0
=0+
Z 0
1
−1
u0 v dx − uv 0 +
(−1)v dx − 0 +
Z 1
u0 v dx
0
Z 1
Z 1
−1
wv dx,
1v dx =:
−1
0
mit der Funktion
(
w :=
−1 x < 0
1
x>0
Diese Funktion w ∈ L1 (Ω) ist die erste schwache Ableitung von u. Im Nullpunkt ist w ∈
L1 (Ω) nicht eindeutig definiert.
Sobolew-Räume
Wir definieren
Definition 2.12 (Sobolew-Raum). Es sei Dα die schwache Ableitung mit Index α. Durch
W m,p (Ω) := {u ∈ Lp (Ω) : Dα u ∈ Lp (Ω), |α| ≤ m},
ist ein normierter Raum mit Norm
1

kukW m,p (Ω) := 
p
kDα ukpLp (Ω) 
X
,
|α|≤m
und Halbnorm
1

|u|W m,p (Ω) := 
p
X
kDα ukpLp (Ω) 
|α|=m
gegeben.
Es gilt:
Satz 2.11. Der Raum W m,p (Ω) ist ein Banachraum.
24
,
2.1 Grundlagen aus der Funktionalanalysis
Der Spur-Operator Zur Beschreibung von partiellen Differentialgleichungen gehört die Vorgabe von Randwerten. Hierfür muss zunächst geklärt werden, in welchem Sinne eine H 1 (Ω)Funktion auf dem Rand überhaupt erklärt ist. Dies ist wie bereits argumentiert nicht klar,
da solche Funktionen ja nicht einmal stetig sein müssen. Es gilt zunächst:
Satz 2.12 (Spur-Abbildung). Es existiert ein stetiger linearer Operator
τ : W 1,p (Ω) → Lp (∂Ω),
so dass für alle v ∈ C(Ω̄) ∩ W 1,p (Ω) gilt:
(τ v)(x) = v(x)
∀x ∈ ∂Ω.
Der Spuroperator erlaubt nun die Definition von Randwerten. Eine Funktion, welche H 1 im
Innern ist, ist also auch L2 auf dem Rand. Wir schreiben einfach:
v|∂Ω := τ v.
Die Eigenschaft, dass τ ein stetiger linearer Operator ist, bedeutet die Gültigkeit der Abschätzung:
kvkLp (∂Ω) ≤ ckvkW 1,p (Ω) ∀v ∈ W 1,p (Ω).
Die Existenz einer Spur erlaubt es nun auch, den richtigen Variationsraum für Funktionen
zu definieren, welche auf dem Rand verschwinden:
Definition 2.13. Es ist:
W01,2 (Ω) := {v ∈ W 1,2 (Ω) : τ v = 0}.
Ein grundlegendes Resultat besagt nun, dass dieser Raum eben der bereits eingeführte H01 (Ω)
ist, welcher auf völlig verschiedene Art eingeführt wurde. Der H01 (Ω) wurde als Vervollständigung aller C0∞ (Ω)-Funktionen bzgl. der W 1,2 (Ω)-Norm erzeugt. Diese Äquivalenz, kurz
“H = W ” genannt kann hier nicht gezeigt werden, aber wir schreiben für den Fall p = 2
kurz
H m (Ω) := W m,2 (Ω).
Aus der Tatsache, dass der Raum H m (Ω) durch Vervollständigung erzeugt werden kann
leiten wir die weitere sehr wichtige Eigenschaft ab: der Raum C0∞ (Ω) liegt dicht im H01 (Ω),
d.h. für jede Funktion v ∈ H01 (Ω) existiert eine Folge (vn )n≥0 mit vn ∈ C0∞ (Ω) so dass vn → v
bzgl. der H 1 -Norm.
An dieser Stelle haben wir den Lösungsraum für das Membran-Problem identifiziert: es ist der
Raum aller L2 -Funktionen, deren schwachen partiellen Ableitungen wieder L2 -Funktionen
sind und deren Spur auf dem Rand verschwindet.
Wir wenden uns nun noch kurz der notwendigen Regularität von Dirichlet-Randbedingungen
zu. Jede H 1 -Funktion in Ω hat eine L2 -Spur auf dem Rand ∂Ω. Diese Aussage lässt sich
allerdings nicht umkehren, es gibt L2 -Funktionen auf dem Rand, welche nicht Spur einer
25
2 Theoretische Grundlagen
H 1 -Funktion im Innern sind. Solche Funktionen sind keine zulässigen Randwerte. Daher
führt man den folgenden Raum ein:
1
H 2 (∂Ω) = {v ∈ L2 (Ω) : ∃w ∈ H 1 (Ω), τ w = v},
mit der Norm:
kvk
1
H 2 (∂Ω)
= inf{kwkH 1 (Ω) : τ w = v}.
1
Der Raum H 2 ist ein Teilraum des L2 (∂Ω).
Eigenschaften des H01 (Ω)
Es gilt:
Satz 2.13. Der Raum H m (Ω) ist ein Hilbertraum mit dem Skalarprodukt
(u, v)H m (Ω) =
X Z
|α|≤m
Dα uDα v dx.
Ω
Es gilt:
Satz 2.14 (Poincare Ungleichung). Sei Ω ein beschränktes Lipschitz-Gebiet. Dann gibt es
eine Konstante cp > 0, so dass
kukL2 (Ω) ≤ cp k∇ukL2 (Ω)
∀u ∈ H01 (Ω).
Die Poincare-Ungleichung besagt insbesondere, dass die Halbnorm | · |H 1 (Ω) im Raum H01 (Ω)
zur vollen H 1 -Norm äquivalent ist:
|u|2H 1 (Ω) ≤ kuk2H 1 (Ω) ≤ (c2p + 1)|u|2H 1 (Ω) .
Weiter ist im H01 durch (∇u, ∇v) ein Skalarprodukt gegeben. Die Definitheit folgt wieder
aus der Poincare-Ungleichung. Daher gilt:
Satz 2.15. Der H01 (Ω) ist Hilbertraum bzgl (∇·, ∇·).
Nach dem Riesz’schen Darstellungssatz existiert also zu jedem Funktional f ∗ : H01 (Ω) → R
ein Element f ∈ H01 (Ω), so dass
f ∗ (v) = (∇f, ∇v)
∀v ∈ H01 (Ω).
Laut Satz 2.13 ist der H01 (Ω) auch Hilbertraum bzgl. dem H 1 -Skalarprodukt, es existiert zu
jedem f ∗ also ein weiteres Element f 0 ∈ H01 (Ω), so dass gilt:
f ∗ (v) = (f 0 , v) + (∇f 0 , ∇v)
∀v ∈ H01 (Ω).
Dies ist kein Widerspruch zum Riesz’schen Darstellungssatz, es existieren lediglich zwei äquivalente Skalarprodukte.
Wir definieren für den H01 (Ω) speziell:
26
2.1 Grundlagen aus der Funktionalanalysis
Definition 2.14 (Dualraum des H01 (Ω)). Die linearen Funktionale f : H01 (Ω) → R bilden
den Dualraum des H −1 (Ω) des H01 (Ω) mit der Norm.
kf kH −1 (Ω) :=
f (φ)
.
φ∈H 1 (Ω) k∇φkL2 (Ω)
(2.1)
sup
0
Für diese Dualnorm ist auch ein kürzere Bezeichung üblich
kf k−1 := kf kH −1 (Ω) .
Einbettungssätze
Wir haben bereits festgestellt, dass eine H 1 Funktion nicht unbedingt stetig sein muss, dass
also v ∈ H 1 (Ω) aber v 6∈ C 0 (Ω) möglich sein kann. Allgemein definiert man:
Definition 2.15 (Stetige Einbettung). Seien U und V normierte Räume mit Normen k · kU
bzw. k · kV . Der Raum U heißt stetig eingebettet in V , wenn es einen stetigen, linearen
injektiven Operator i : U → V gibt, so dass mit einer Konstante c > 0 gilt:
kixkV ≤ ckxkU
∀x ∈ U.
Man schreibt U ,→ V .
Im Falle U ⊂ V kann der Einbettungsoperator oft als die Identität gelten und die Einbettung
vereinfacht sich zu:
∃c ∈ R+ : kxkV ≤ ckxkU ∀x ∈ U.
Beispiel
Es gilt offensichtlich
H 1 (Ω) ,→ L2 (Ω),
hierzu muss man sich lediglich die Konstruktion der H 1 -Norm vergegenwärtigen. Wie bereits
erwähnt gilt allerdings keine Einbettung
H 1 (Ω) 6,→ C 0 (Ω),
da es H 1 -Funktionen gibt, für welche die Maximumnorm nicht beschränkt ist.
Ein weiteres Beispiel haben wir bei der Definition von Spuren kennengelernt. Es gilt:
1
H 2 (∂Ω) ,→ L2 (∂Ω),
kvkL2 (∂Ω) ≤ ckvk
1
1
H 2 (∂Ω)
∀v ∈ H 2 (∂Ω).
Wir definieren einen weiteren, strengeren Begriff der Einbettung:
Definition 2.16 (Kompakte Einbettung). Es seien U, V zwei Banachräume mit U ,→ V .
Diese Einbettung heißt kompakt, falls es für jede beschränkte Folge {xn } ⊂ U eine Teilfolge
von {i(xn )} ⊂ V gibt, welche in V konvergiert.
27
2 Theoretische Grundlagen
Wir haben es grundsätzlich mit unendlich dimensionalen Räumen zu tun. Hier ist dieses
Konzept sehr wichtig. Denn aus der Beschränktheit einer Folge können wir noch nicht die
Existenz einer konvergenten Teilfolge herleiten. Mit dem Konzept der kompakten Einbettung
wird es hingegen möglich sein, die Konvergenz in einem schwächeren Sinne zu erlangen: Ist
eine Folge xn ∈ V beschränkt und U ,→ V kompakt, so existiert eine konvergente Teilfolge
in U .
Satz 2.16 (Einbettungssatz in Sobolew-Räume). Es sei Ω ⊂ Rn ein beschränktes Gebiet
mit Lipschitz-Rand. Weiter sei m1 ≥ 0 und m2 ≥ 0 sowie 1 ≤ p1 < ∞ und 1 ≤ p2 < ∞. Es
gilt:
1. Falls
n
n
≥ m2 − ,
p1
p2
m
,p
2
2
,→ W
stetig
m1 −
so ist die Einbettung W m1 ,p1
2. Falls
m1 ≥ m2
n
n
> m2 − , m1 > m2
p1
p2
m
,p
2
2
,→ W
stetig und kompakt.
m1 −
so ist die Einbettung W m1 ,p1
Die Einbettung H m (Ω) ,→ H m−1 (Ω), insbesondere H 1 (Ω) ,→ L2 (Ω) ist also kompakt. D.h.,
jede in H 1 beschränkte Folge hat eine Teilfolge, welche in L2 konvergiert.
Satz 2.17 (Einbettungssatz in Räume stetig differenzierbarer Funktionen). Es sei Ω ⊂ Rn
ein beschränktes Gebiet mit Lipschitz-Rand. Weiter sei m ≥ 1 und 1 ≤ p < ∞ sowie k ≥ 0.
Falls
n
m − > k,
p
so ist die Einbettung W m,p ,→ C k (Ω̄) stetig und kompakt.
Die Frage, ob eine H 1 -Funktion stetig ist, hängt also zusätzlich noch von der Dimension des
Gebietes Ω ab. Eine kompakte Einbettung erhalten wir im Fall:
n
n
m− >0 ⇔ m> .
2
2
Wir betrachten üblicherweise Gebiete in zwei oder drei räumlichen Dimensionen. Um Stetigkeit einer Lösung zu zeigen, muss also u ∈ H 2 (Ω) gelten. Der Existenzbeweis liefert lediglich
u ∈ H 1 (Ω).
Abschließend formulieren wir einen zweiten Beweis für die Existenz einer Lösung des PoissonProblems:
Satz 2.18 (Existenzsatz für das Poisson-Problems in variationeller Formulierung). Auf einem Lipschitzgebiet Ω ⊂ Rd mit d ≥ 2 hat das Dirichlet-Problem
u ∈ H01 (Ω) :
(∇u, ∇φ) = (f, φ)
∀φ ∈ H01 (Ω),
eine eindeutige Lösung für jede rechte Seite f ∈ L2 (Ω). Es gilt mit der Poincare-Konstante:
k∇ukL2 (Ω) ≤ cp kf kL2 (Ω) .
28
2.1 Grundlagen aus der Funktionalanalysis
Beweis: Für jede Funktion f ∈ L2 (Ω) ist durch
l(v) := (f, v)
∀v ∈ H01 (Ω)
ein beschränktes lineares Funktional l ∈ H −1 (Ω) definiert, denn:
klk−1 = sup
v∈H01
(f, v)
kf k kvk
kf k cp k∇vk
≤ sup
≤ sup
= cp kf k.
k∇vk
k∇vk
k∇vk
Der Raum H01 (Ω) ist Hilbertraum bzgl. (∇·, ∇·). Es gilt also der Riesz’sche Darstellungssatz
und es gibt ein eindeutig bestimmtes Element u ∈ H01 (Ω) so dass gilt:
l(v) = (∇u, ∇v) ∀v ∈ H01 (Ω).
Dieses u ist die gesuchte Lösung. Die Stabilitätsabschätzung folgt aufgrund von:
kukH 1 (Ω) = klkH −1 (Ω) .
0
29
2 Theoretische Grundlagen
2.2 Theorie partieller Differentialgleichungen
2.2.1 Elliptische Probleme
In diesem Abschnitt vertiefen wir die theoretische Analyse von elliptischen Differentialgleichungen. Auf einem Lipschitzgebiet Ω ⊂ Rd mit d ≥ 2 betrachten wir allgemein Probleme
vom Typ
Lu = f,
Lu := −
d
X
∂i (aij (x)∂j u(x)) +
i,j=1
d
X
bj (x)∂j u(x) + c(x)u(x),
(2.2)
j=1
mit reellen Koeffizientenfunktionen aij , bj und c. Es gilt wegen der Vertauschbarkeit der
zweiten Ableitungen ohne Einschränkung aij = aji . Mit der Matrix A = (aij )i,j sowie dem
Vektor b = (bj )j schreiben wir kurz:
Lu = −∇ · (A∇u) + b · ∇u + cu.
Bei elliptischen Problemen sind die Eigenwerte von A ungleich Null und haben das gleiche
Vorzeichen. Wir nehmen ohne Einschränkung an, dass die Koeffizientenmatrix A positiv
definit ist.
Elliptische partielle Differentialgleichungen sind Randwertprobleme. Wir unterscheiden drei
verschiedene Arten von Randwerten:
1. Dirichlet-Problem Auf dem Rand ∂Ω geben wir den Funktionswert der Lösung vor:
suche u :
Lu = f in Ω,
u = g auf ∂Ω.
Es sei nun ḡ ∈ H 1 (Ω) eine Fortsetzung von g, d.h., g = τ ḡ ist die Spur. Dann können wir
das Dirichlet-Problem stets in ein Problem mit homogenen Randdaten transformieren:
suche u = ū + ḡ :
Lū = f − Lḡ,
ū = 0 auf ∂Ω.
Die strenge Voraussetzung an die Regularität der Dirichlet-Daten g ist also, dass diese Funktion als Spur einer H 1 (Ω)-Funktion gegeben ist. Wir bezeichnen den Raum aller Spuren von
1
1
H 1 (Ω) Funktionen auf ∂Ω als H 2 (∂Ω). Es gilt H 2 (∂Ω) ⊂ L2 (∂Ω).
2. Neumann-Problem Auf dem Rand von Ω geben wir die Ableitung von u in NormalRichtung vor:
suche u : Lu = f in Ω, ∂n u = g auf ∂Ω.
Bei Neumann-Problemen ist der Funktionswert von u auf dem Rand nicht fixiert. Die Lösung muss also im vollen Raum H 1 (Ω) gesucht werden. Betrachten wir z.B. das homogene
Neumann-Problem
−∆u = f in Ω, ∂n u = 0 auf ∂Ω,
so hat dies zur Konsequenz, dass die Lösung nicht mehr eindeutig sein muss. Denn ist
u ∈ H 1 (Ω) eine Lösung, so ist auch durch u + c für jedes c ∈ R eine Lösung gegeben.
30
2.2 Theorie partieller Differentialgleichungen
Um Eindeutigkeit zu erreichen muss der Lösungsraum künstlich eingeschränkt werden, etwa
durch die Wahl:
Z
1
1
H (Ω)/R := {v ∈ H (Ω),
v dx = 0}.
Ω
3. Robin-Problem Auf dem Rand ∂Ω geben wir gemischte Randdaten vor:
suche u :
Lu = f in Ω,
∂n u + αu = g auf ∂Ω,
mit einem α 6= 0.
Wir werden zunächst ausschließlich das (homogene) Dirichlet-Problem betrachten. Hierzu leiten wir eine variationelle Formulierung der allgemeinen elliptischen Differentialgleichung (2.2) her:
Satz 2.19 (Variationsproblem). Die Koeffizientenmatrix A ∈ [L∞ (Ω)]d×d sei positiv definit,
P
der Vektor b ∈ [W 1,∞ (Ω)]d sei divergenzfrei (also ∇ · b = j ∂i bi = 0) und es sei c ∈ L∞ (Ω)
mit c ≥ 0. Jede Lösung u ∈ C 2 (Ω) ∩ C(Ω̄) von (2.2) ist Lösung der Variationsgleichung:
a(u, φ) = (f, φ)
∀φ ∈ H01 (Ω).
Die Bilinearform
a(u, φ) = (A∇u, ∇φ) + (b · ∇u, φ) + (cu, φ).
ist stetig
∀u, v ∈ H01 (Ω),
a(u, v) ≤ M k∇uk k∇vk
sowie positiv definit (Elliptizität)
a(u, u) ≥ γk∇uk2
∀u ∈ H01 (Ω).
Beweis: (i) Wir multiplizieren (2.2) für festes t ∈ I¯ mit einer beliebigen Funktion φ ∈ C0∞ (Ω)
und integrieren über das Gebiet:
(f, φ) = −(∇ · (A∇u), φ) + (b · ∇u, φ) + (cu, φ)
= (A∇u, ∇φ) +
Z
| ∂Ω
n · (A∇u)φ ds +(b · ∇u, φ) + (cu, φ).
{z
}
=0
Wegen der Dichtheit von C0∞ (Ω) in H01 (Ω) kann der Testraum erweitert werden.
(ii) Weiter gilt für alle u, v ∈ H01 (Ω) wegen der Beschränktheit der Koeffizienten und mit
Poincaré:
|a(u, v)| ≤
d
X
|(aij ∂j u, ∂i v)| +
i,j=1
≤ kAk∞
d
X
|(bj ∂j u, v)| + |(cu, v)|
j=1
X
ij
k∂j ukL2 (Ω) k∂i vkL2 (Ω) + kbk∞
X
k∂j ukL2 (Ω) kvkL2 (Ω) + |c|∞ kukL2 (Ω) kvkL2 (Ω)
j
√
≤ kAk∞ dk∇ukL2 (Ω) k∇vkL2 (Ω) + kbk∞ dk∇ukL2 (Ω) cp k∇vkL2 (Ω) + |c|∞ c2p k∇ukL2 (Ω) k∇vkL2 (Ω)
√
≤ M k∇ukL2 (Ω) k∇vkL2 (Ω) , M := max{kAk∞ d, cp kbk∞ d, |c|∞ c2p },
31
2 Theoretische Grundlagen
wobei wir die folgende Ungleichung verwendet haben:
d
X
|ai | ≤
√
d
d
X
! 12
|ai |2
.
i=1
i=1
(iii) Wir untersuchen die verschiedenen Terme der Bilinearform getrennt. Zunächst existiert
wegen der positiven Definitheit von A ein γ mit:
Z
(A∇u, ∇u) =
hA(x)∇u(x), ∇u(x)idx ≥ γ
Ω
Z
Ω
|∇u|2 dx = γk∇uk2L2 (Ω) .
(2.3)
Wegen der Divergenzfreiheit von b gilt:
(b · ∇u, u) =
d
X
(b∂i u, u) =
i=1
=−
d
X
d
X
i=1
i=1
(bi u, ∂i u) = −
d
X
d
X
i=1
j=1
(∂i bi u, u) −
(∂i (bi u), u) +
d Z
X
i=1 | ∂Ω
ni (bi u)u ds
{z
=0
}
(bi ∂i u, u) = −((∇ · b)u, u) −(b · ∇u, u),
|
{z
=0
}
und also (b · ∇u, u) = 0. Schließlich gilt für c ≥ 0 trivialerweise
(cu, u) ≥ 0,
und zusammen mit (2.3) ergibt sich die Behauptung.
Die stetige, positiv definite Bilinearform unterscheidet sich von einem Skalarprodukt durch
die fehlende Symmetrie. Der Riesz’sche Darstellungssatz kann also auf das allgemeine Problem nicht angewendet werden.
Definition 2.17 (Schwache Lösung). Eine Funktion u ∈ H01 (Ω) heißt verallgemeinerte
(schwache) Lösung von (2.2), falls
a(u, φ) = (f, φ)
∀φ ∈ H01 (Ω).
(2.4)
Wie bereits argumentiert gilt:
Satz 2.20. Jede schwache Lösung u ∈ H01 (Ω) von (2.4) für welche u ∈ C 2 (Ω) ∩ C(Ω̄) gilt
ist auch klassische Lösung von (2.2).
Und weiter gilt:
Satz 2.21 (Minimierung des Energiefunktionals). Im Fall b = 0 ist die Lösung der variationellen Formulierung (2.4) äquivalent zur Minimierung des Energiefunktionals. Suche
u ∈ H01 (Ω):
1
E(u) ≤ E(v) ∀v ∈ V, E(v) := a(v, v) − (f, v).
(2.5)
2
32
2.2 Theorie partieller Differentialgleichungen
Beweis: (0) Die stetige und elliptische Bilinearform a(·, ·) ist symmetrisch und somit ein
Skalarprodukt. Dies folgt aus b = 0 sowie der Symmetrie von A.
(i) Wir gehen zunächst davon aus, dass u eine variationelle Lösung von (2.4) ist. Dann folgt
für alle v ∈ H01 (Ω):
1
1
E(u) − E(v) = a(u, u) − (f, u) − a(v, v) + (f, v)
2
2
1
1
= a(u, u) − a(u, u) − a(v, v) + a(u, v)
2
2
o
1n
= − a(u, u) − 2a(u, v) + a(v, v)
2
1
γ
= − a(u − v, u − v) ≤ − k∇(u − v)k ≤ 0.
2
2
Also, E(u) ≤ E(v).
(ii) Nun sei u Minimum des Energiefunktionals. Dann muss gelten:
d
= 0 ∀v ∈ H01 (Ω).
E(u + sv)
ds
s=0
Also, wegen der Symmetrie von a(·, ·):
o
d n1
= a(u, v) − (f, v) = 0 ∀v ∈ H01 (Ω).
a(u + sv, u + sv) − (f, u + sv) ds 2
s=0
Existenz von Lösungen
Auf das allgemeine elliptische Problem kann der Riesz’sche Darstellungssatz nicht angewendet werden. Das Problem ist nicht durch ein Skalarprodukt gegeben. Wir benötigen den
allgemeineren:
Satz 2.22 (Lax-Milgram). Sei V ein Hilbertraum, l ∈ V ∗ ein stetiges lineares Funktional
und a : V × V → R eine stetige und elliptische Bilinearform:
a(u, v) ≤ M kukV kvkV
∀u, v ∈ V,
a(u, u) ≥ γkuk2V
∀u ∈ V.
Dann existiert eine eindeutige Lösung u ∈ V der Variationsgleichung:
a(u, v) = l(v)
∀v ∈ V,
welche stetig von den Daten abhängt:
kukV ≤
1
klkV ∗ .
γ
33
2 Theoretische Grundlagen
Beweis: (i) Für jedes feste u ∈ V ist wegen der Stetigkeit der Bilinearform ein stetiges
lineares Funktional Au ∈ V ∗ definiert:
Au (v) := a(u, v) ≤ Mu kvkV
∀v ∈ V.
Da V ein Hilbertraum ist gilt der Darstellungssatz von Riesz und es existiert ein Element
Au ∈ V , so dass gilt:
(Au, v) = Au (v) = a(u, v) ∀v ∈ V.
Es ist also durch den Riesz’schen Darstellungssatz ein Operator A : V → V definiert, welcher
jedem Element u ∈ V ein Element Au ∈ V zuordnet, so dass sich die Bilinearform durch das
Skalarprodukt ausdrücken lässt. Es gilt:
kAukV = kAu kV ∗ = sup
v∈V
a(u, v)
M kukV kvkV
≤ sup
≤ M kukV .
kvkV
kvkV
v∈V
(2.6)
(ii) Für ein festes r ∈ R+ definieren wir einen weiteren Operator Tr : V → V durch
(Tr u, v) := (u, v) + r(l(v) − (Au, v)) ∀v ∈ V.
Es gilt für zwei Elemente u, w ∈ V :
(Tr u − Tr w, v) = (u − w − rA(u − w), v).
Wir wählen die Testfunktion v := Tr u − Tr w
kTr u − Tr wk2V = (u − w − rA(u − w), u − w − rA(u − w))
= ku − wk2V − 2r(A(u − w), u − w) + r2 (A(u − w), A(u − w)).
(2.7)
Es gilt wegen der Elliptizität
(A(u − w), u − w) = a(u − w, u − w) ≥ γku − wk2V ,
und mit (2.6)
(A(u − w), A(u − w)) = kA(u − w)k2V ≤ M 2 ku − wk2V .
Zusammen folgt aus (2.7)
kTr u − Tr wk2V ≤ |1 − 2rγ + M 2 r2 |ku − wk2V .
Und für
2γ
|1 − 2rγ + M r | < 1 ⇔ r ∈ 0, 2 ,
M
ist Tr eine Kontraktion und mit dem Banach’schen Fixpunktsatz 2.2 existiert ein eindeutig
bestimmtes u ∈ V mit Tr u = u. Und dann:
2 2
Tr u = u
⇒
(Au, v) = l(v)
∀v ∈ V.
(iii) Es existiert also eine Lösung. Angenommen es würden zwei Lösungen u1 , u2 ∈ V mit
w := u1 − u2 existieren. Dann gilt:
a(w, v) = 0 ∀v ∈ V.
34
2.2 Theorie partieller Differentialgleichungen
Und wegen der Elliptizität:
0 = a(w, w) ≥ γkwk2V
⇒
w = 0.
(iv) Abschließend gilt für die Lösung die a priori Schranke:
γkuk2V ≤ a(u, u) = l(u) ≤ klkV ∗ kukV .
Dieser Satz kann nun unmittelbar auf das allgemeine elliptische Problem angewendet werden:
Korollar 2.1. Sei L ein elliptischer Operator mit den Eigenschaften aus Satz 2.19. Weiter
sei f ∈ L2 (Ω). Dann hat die Gleichung:
Lu = f in Ω,
u = 0 auf ∂Ω,
eine eindeutig bestimmte schwache Lösung u ∈ H01 (Ω) und es gilt:
k∇ukL2 (Ω) ≤
cp
kf kL2 (Ω) ,
γ
mit der Poincaré-Konstante cp .
Beweis: Durch l(v) = (f, v) ist ein lineares, stetiges Funktional bestimmt:
l(v) = (f, v) ≤ kf kL2 (Ω) kvkL2 (Ω) ≤ cp kf kL2 (Ω) k∇vkL2 (Ω)
Mit dem Satz von Lax-Milgram 2.22 folgt die Aussage.
∀v ∈ H01 (Ω).
Regularität der Lösung Von entscheidender Bedeutung für das weitere Vorgehen ist die
Regularität der Lösung u ∈ H01 (Ω). Falls wir z.B. u ∈ H 2 (Ω) zeigen können, so folgt aus
dem Einbettungssatz 2.16 H 2 (Ω) ,→ C(Ω) die Stetigkeit der Lösung. Um zu garantieren,
dass u eine klassische Lösung ist, also u ∈ C 2 (Ω) benötigen wir höhere Regularität. Der
Einbettungssatz 2.17 fordert in d räumlichen Dimensionen für die Einbettung H m (Ω) ,→
C 2 (Ω):
d
d
m− >2 ⇔ m>2+ ,
2
2
also benötigen wir m = 4 und u ∈ H 4 (Ω).
Zunächst gilt einfach:
Satz 2.23 (Schwacher Laplace). Für die verallgemeinerte Lösung u ∈ H01 (Ω) der LaplaceGleichung ist ∆u im schwachen Sinne definiert und liegt in L2 (Ω).
35
2 Theoretische Grundlagen
ω
Abbildung 2.2: Gebiet mit einspringender Ecke.
Beweis: Sei u ∈ H01 (Ω) die schwache Lösung von (∇u, ∇v) = (f, v) für alle v. Dann gilt:
(f, v) = (∇u, ∇v) = −(u, ∆v)
∀v ∈ C0∞ (Ω).
Also ist f = −∆u im Sinne der schwachen Ableitung mit
f = −∆u ∈ L2 (Ω).
Es zeigt sich nun, dass sich die Regularität der Daten auf die Regularität der Lösung überträgt. Im Gegensatz zu gewöhnlichen Differentialgleichungen spielt jedoch die Regularität
des Gebiets eine entscheidende Bedeutung. Ohne Beweis:
Satz 2.24 (Regularität der Lösung). Sei Ω polygonal und konvex, oder besitze einen Rand
der Klasse C 2 (lokal parametrisierbar durch eine zweimal stetig differenzierbare Funktion).
Im Falle f ∈ L2 (Ω) gilt die a priori Abschätzung:
kukH 2 (Ω) ≤ cs kf kL2 (Ω) ,
mit einer von f unabhängigen Stabilitätskonstante cs .
Dieser Satz sichert uns die Stetigkeit der Lösung u ∈ H01 (Ω) ∩ C(Ω̄). Die Konvexität des
Gebiets ist entscheidend. Ausgeschlossen sind einspringende Ecken, also Kanten mit Innenwinkel ω größer 180◦ . Wir betrachten auf dem “Tortenstück” aus Abbildung 2.2 die
Poisson-Gleichung:
−∆u = 0,
u(r, θ) = 0 θ ∈ [0,
π
],
ω
π
u(1, θ) = sin( ).
ω
In Polarkoordinaten ist die Lösung gegeben durch:
π
u(r, θ) = r ω sin
π
θ .
ω
Für ω ∈ (π, 2π) gilt u ∈ H 1 (Ω), aber u 6∈ H 2 (Ω). Der Fall ω = 2π wird Schlitz-Gebiet
genannt.
Allgemein gilt:
36
2.2 Theorie partieller Differentialgleichungen
Satz 2.25 (Höhere Regularität der Lösung). Für ein m ≥ 0 sei f ∈ H m−2 (Ω). Weiter sei
Ω ein Gebiet der Klasse C m+2 . Dann gilt für die Lösung des Poisson-Problems
kukH m (Ω) ≤ ckf kH m−2 (Ω) ,
mit einer von f unabhängigen Konstante c.
Abschließend beweisen wir als wichtige und grundlegende Aussage für elliptische Gleichungen
Satz 2.26 (Elliptisches Maximumprinzip). Für den elliptischen Operator
Lu := −∆u + au,
mit a ≥ 0 gilt auf dem Gebiet Ω ⊂ Rd das Maximumprinzip. D.h., eine Funktion u ∈
C 2 (Ω) ∩ C(Ω̄) mit der Eigenschaft Lu ≤ 0 hat kein positives Maximum im Innern. Es gilt
also
u(x) ≤ 0 für alle x ∈ Ω oder max u(x) = max u(x)
x∈Ω
x∈∂Ω
Beweis: Wir beweisen den einfachen Fall a > 0. Sei also Lu ≤ 0 und z ∈ Ω ein inneres
Maximum mit u(z) > 0. Dann gilt notwendig
∇u(z) = 0,
∂xx u(z) ≤ 0,
∂zz u(z) ≤ 0.
Also folgt:
−∆u(z) ≥ 0
aus au(z) > 0 folgt der Widerspruch.
In einer Dimension besagt das Maximumprinzip
gerade die Konvexität einer Funktion mit ∂xx u(x) > 0.
37
2 Theoretische Grundlagen
2.2.2 Parabolische Probleme
Es sei nun L ein elliptischer Differentialoperator auf dem Gebiet Ω ⊂ Rd . Dann betrachten
wir auf dem Zeit-Orts-Gebiet I ×Ω mit I = [0, T ] die parabolische Anfangs-Randwertaufgabe
∂t u(x, t) + Lu(x, t) = f (x, t) ∀(x, t) ∈ Ω × I,
mit der Anfangsbedingung
u(x, 0) = u0 (x),
und den Randbedingungen von Dirichlet, Neumann oder Robin-Typ.
Als Prototyp einer parabolischen Differentialgleichung betrachten wir die Wärmeleitungsgleichung auf einem Gebiet Ω ⊂ Rd und einem Zeitintervall I = [0, T ] mit Dirichlet-Randwerten:
∂t u(x, t) − ∆u(x, t) = f (x, t)
u(x, 0) = u0 ,
in I × Ω,
u(x, t) = 0 auf I × ∂Ω.
(2.8)
Zur Beschreibung einer Lösung dieser Gleichung werden wir wieder eine schwache Formulierung herleiten. Hierzu ist es wesentlich, die notwendige Regularität der auftretenden Funktionen zu untersuchen. Neben der örtlichen Komponente hat die Lösung u : I × Ω → R nun
auch eine zeitliche. Im Ort werden wir wie bei den elliptischen Differentialgleichungen den
schwachen Regularitätsbegriff der Sobolew-Räume verwenden. Wir definieren:
Definition 2.18. Sei V := W n,p (Ω) ein Sobolew-Raum im Ort. Sei I := (0, T ) ein Intervall.
¯ V ) besteht aus allen stetigen Funktionen u : I¯ → V mit Werten in V mit
Der Raum C(I;
der Norm
kukC(I;V
¯ ) := max ku(t)kV .
t∈I¯
Wir interpretieren also jede solche Funktion u : I¯ × Ω → R auch als Funktion u : I¯ → V
mittels
u(t, x) =: [u(t)](x),
mit u(t) ∈ V .
Diese Funktionen sind stetig in der Zeit und haben einen Wertevorrat im Sobolew-Raum V .
Wir müssen diesen Regularitätsbegriff in der Zeit weiter abschwächen und definieren weiter:
Definition 2.19 (Zeitliche Sobolew-Räume). Sei V := W n,p (Ω) ein Sobolew-Raum im Ort.
Der Raum W m,q (I; V ) besteht aus allen Funktionen u : I × Ω → R deren m-te Zeitableitung
∂tm u im schwachen Sinne existiert und welche beschränkt sind bezüglich der Norm

kukW m,q (I;V ) = 
m
X
1
q
k∂tj u(t)kqV  ,
j=0
beziehungsweise im Fall q = ∞

kukW m,∞ (I;V ) = ess sup 
m
X
j=0
38

k∂tj u(t)kV 
2.2 Theorie partieller Differentialgleichungen
Für diese Räume gelten wieder die Einbettungssätze. Man beachte, dass die Dimension des
“zeitlichen Gebiets” stets 1 ist:
Satz 2.27. Sei u ∈ W 1,p (I; V ). Dann gilt:
¯ V ),
u ∈ C(I,
(i)
Z t
∂t u(s) ds
u(t) = u(0) +
(ii)
s ∈ I,
0
kukC(I;V
¯ ) ≤ ckukW 1,p (I,V ) .
(iii)
Im Folgenden leiten wir eine schwache Formulierung der parabolischen Gleichung (2.8) her.
Für die rechte Seite f und den Startwert fordern wir die Regularität
f ∈ L2 (I; L2 (Ω)),
u0 ∈ L2 (Ω),
d.h., die rechte Seite f ist bezüglich Ort und Zeit in L2 . Wir multiplizieren (2.8) für festes
t ∈ I¯ mit einer Funktion φ ∈ C0∞ (Ω) und integrieren über das räumliche Gebiet Ω. Mit
partieller Integration erhalten wir
Z
Z
∂t u(x, t)φ(x) dx +
Ω
∇u(x, t) · ∇φ(x)dx =
Ω
Z
f (x, t)φ(x) dx,
für fast alle t ∈ I.
Ω
Wir dürfen diese Gleichheit nur für fast alle t ∈ I ansetzen, da die rechte Seite f ∈
L2 (I; L2 (Ω)) aufgefasst als Funktion f : I → L2 (Ω) ja auch nur für fast alle t ∈ I¯ definiert ist.
Die gesuchte Lösung u : I → V kann zeitlich gesehen also nur in L2 (I; V ) liegen. Die optimale
örtliche Regularität ergibt sich wie bei den elliptischen Gleichungen für V = H01 (Ω), so dass
die Ableitungen schwach definiert sind und alle Integrale existieren. Mit u : I → V und
f : I → L2 (Ω) schreiben wir kürzer:
(∂t u(t), φ)Ω + (∇u(t), ∇φ)Ω = (f (t), φ)Ω
∀φ ∈ H01 (Ω)
¯
und für fast alle t ∈ I.
(2.9)
Für die Lösung u : I → V gilt also:
u ∈ L2 (I; H01 (Ω)).
Es bleibt, die Regularität der Zeitableitung ∂t u zu diskutieren, da u zeitlich zunächst nur in
L2 liegt (und von Ableitungen im strengen Sinne nicht die Rede sein kann). Es gilt für jedes
φ ∈ H01 (Ω):
|(∂t u(t), φ)| = (f (t), φ) − (∇u(t), ∇φ)
≤ kf (t)k kφk + k∇u(t)k k∇φk
≤ (cP kf (t)k + k∇u(t)k)k∇φk,
mit der Poincaré-Konstante cP . D.h., die Zeitableitung ∂t ũ(t) definiert für fast jedes t ∈ I
ein stetiges lineares Funktional auf dem H01 (Ω), oder anders ausgedrückt: ∂t ũ(t) ∈ H −1 (Ω)
für fast jedes t ∈ I, denn:
k∂t u(t)kH −1 =
(∂t u(t), φ)
≤ cP kf (t)k + k∇u(t)k.
k∇φk
φ∈H 1 (Ω)
sup
0
Wir definieren
39
2 Theoretische Grundlagen
Definition 2.20 (Schwache Formulierung der Wärmeleitungsgleichung). Sei Ω ⊂ Rd ein
Gebiet und I = (0, T ) das zeitliche Intervall. Wir suchen die Lösung
∂t u ∈ L2 (I; H −1 (Ω)),
u ∈ L2 (I; H01 (Ω)),
(2.10)
so dass
(∂t u(t), φ) + (∇u(t), ∇φ) = (f (t), φ)
∀φ ∈ H01 (Ω),
(2.11)
für fast alle t ∈ I und
u(0) = u0 ,
uI×∂Ω = 0.
Es gilt der folgende Regularitätssatz für den Lösungsraum
Satz 2.28. Angenommen u ∈ L2 (I; H01 (Ω)) und ∂t u ∈ L2 (I; H −1 (Ω)). Dann gilt
¯ L2 (Ω)),
u ∈ C(I;
und
kukC(I;L
¯ 2 (Ω)) ≤ c kukL2 (I;H 1 (Ω)) + k∂t ukL2 (I;H −1 (Ω)) ,
0
mit einer Konstante c > 0 unabhängig von u. Weiter ist die Funktion t 7→ ku(t)k2L2 (Ω) absolut
stetig und es gilt
d
ku(t)k2 = 2(∂t u(t), u(t))Ω für fast alle t ∈ I.
dt
Dieser Satz besagt also, dass jede schwache Lösung von (2.11) mit der Regularität (2.10)
eine bezüglich der Zeit stetige Funktion mit Werten in L2 (Ω) ist. Dies erlaubt insbesondere
die Vorgabe eines Anfangswertes u0 ∈ L2 (Ω).
Existenz einer Lösung Der Nachweis der Existenz einer Lösung der Wärmeleitungsgleichung ist aufwändiger als bei den elliptischen Gleichungen. Wir skizzieren hier nur das Vorgehen.
Zunächst sei durch {ωk }k≥0 ein Orthogonalsystem von Eigenvektoren des Laplace-Operators
L := −∆ gegeben. Die ωk seien normiert bzgl L2 (Ω). Für ein festes m definieren wir den
endlich dimensionalen Raum
Vm := span{ω1 , . . . , ωm },
und suchen die Galerkin-Approximation um ∈ L2 (I; Vm ) mit der Darstellung
um (x, t) =
m
X
dk (t)ωk (x),
(2.12)
k=1
als Lösung von
(∂t um , ωl ) + (∇um , ∇ωl ) = (f, ωl ),
l = 1, . . . , m und für fast alle t ∈ I.
Mit dem Ansatz 2.12 gilt:
m n
X
o
∂t dk (t)(ωk , ωl ) + dk (t)(∇ωk , ∇ωl ) = (f, ωk ),
k=1
40
k = 1, . . . , m.
(2.13)
2.2 Theorie partieller Differentialgleichungen
Die ωk sind eine L2 -Orthonormalbasis, das System ist also äquivalent zu einem System aus
linearen gewöhnlichen Differentialgleichungen für d(t) : I → Rm :
∂t d(t) + Ad(t) = f¯(t),
(2.14)
m
m
¯
¯
mit der Matrix A = (akl )m
kl=1 und akl := (∇ωk , ∇ωl ) und f : I → R mit f = (f (t), ωk )k=1 .
Nun gilt:
Satz 2.29. Für jedes m = 1, 2, . . . besitzt das System (2.14) eine eindeutige Lösung um ∈
L2 (I; Vm ) mit
max kum (t)k + kum kL2 (I;H 1 (Ω)) + k∂t um kL2 (I;H −1 (Ω)) ≤ kf kL2 (I;L2 (Ω)) + ku0 kL2 (Ω) .
t∈I¯
0
Jetzt beweisen wir
Satz 2.30 (Existenz einer Lösung der Wärmeleitungsgleichung). Die Wärmeleitungsgleichung hat für jedes f ∈ L2 (I; L2 (Ω)) und u0 ∈ L2 (Ω) eine schwache Lösung mit
max ku(t)k + kukL2 (I;H 1 (Ω)) + k∂t ukL2 (I;H −1 (Ω)) ≤ kf kL2 (I;L2 (Ω)) + ku0 kL2 (Ω) .
t∈I¯
0
Beweis: (i) Es existiert also nach Satz 2.29 eine beschränkte Folge um ∈ L2 (I; H01 (Ω)).
D.h., es existiert eine Teilfolge (uml )l≥1 , welche schwach in L2 (I; H01 (Ω)) gegen eine Funktion
u ∈ L2 (I; H01 (Ω)) konvergiert, also
∀v ∈ L2 (I; H01 (Ω))
(uml , v) → (u, v)
(l → ∞).
(ii) Wir wählen nun ein festes N ∈ N und eine Funktion v ∈ C 1 (I; H01 (Ω)) gemäß
v(x, t) =
N
X
dk (t)ωk (x),
(2.15)
k=1
mit stetig differenzierbaren dk ∈
Konvergenz:
C 1 (I).
Für jedes m > N folgt dann mit der schwachen
m→∞
(∂t um , v) + (∇um , ∇v) −−−−→ (∂t u, v) + (∇u, ∇v) ∀v gemäß (2.15).
Da die Funktionen gemäß (2.15) für N → ∞ dicht in L2 (I; H01 (Ω)) liegen gilt:
∀v ∈ L2 (Ω),
(∂t u, v) + (∇u, ∇v) = (f, v)
und der schwache Grenzwert u ist Lösung der Differentialgleichung.
(iii) Es bleibt zu zeigen, dass u den Startwert erfüllt, dass also gilt u(·, 0) = u0 . Für
¯ H 1 (Ω)) aus der schwachen Formuv ∈ C 1 (I; H01 (Ω)) mit v(T ) = 0 folgt wegen u ∈ C(I;
0
lierung (2.11):
Z
Z
(f, v) dt =
Z
(∇u, ∇v) dt
(∂t u, v) dt +
I
I
I
= (u(T ), v(T )) − (u(0), v(0)) −
|
{z
=0
}
= −(u0 , v(0)) −
|
{z
(u0 ,v(0))
}
Z
Z
Z
(u, ∂t v) dt +
I
Z
(u, ∂t v) dt +
I
(∇u, ∇v) dt
I
(∇u, ∇v) dt
I
41
2 Theoretische Grundlagen
Ebenso gilt für jedes um ∈ L2 (I; Vm ):
Z
(f, v) dt = −(um (0), v(0)) −
Z
I
Z
(um , ∂t v) dt +
I
(∇um , ∇v) dt.
I
Aus der schwachen Konvergenz um * u folgt dann
(um (0), v(0)) → (u(0), v(0)) = (u0 , v(0)) ∀v(0) ∈ H01 (Ω).
Eindeutigkeit der Lösung Angenommen u1 , u2 ∈ L2 (I; H01 (Ω)) mit ∂t u1 , ∂t u2 ∈ L2 (I; H −1 (Ω))
seien zwei schwache Lösungen von (2.11). Dann gilt für w := u1 − u2 mit w(x, 0) = 0
(∂t w(t), φ) + (∇w(t), ∇φ) = 0 für fast alle t ∈ I.
Für φ = w(t) erhalten wir hieraus mit Satz 2.28
1
0 = (∂t w(t), w(t)) + k∇w(t)k2 = ∂t kw(t)k2 + k∇w(t)k2
2
für fast alle t ∈ I.
Wir integrieren über t von 0 bis s ∈ I:
0=
Z s
∂
0
∂t
2
2
kw(t)k + k∇w(t)k
dt = kw(s)k2 − kw(0)k2 +
| {z }
Z s
k∇w(t)k2 dt.
0
=0
Also
kw(s)k2 = −
Z s
k∇w(t)k2 dt ≤ 0
⇒
kw(s)k = 0 ∀s > 0,
0
und die Lösung ist eindeutig.
Eigenschaften der Lösung Wie bei den elliptischen Differentialgleichung kann eine analytische Lösung nur in Spezialfällen angegeben werden. Wir versuchen aber formal durch die
Methode der “Variablenseparation” eine Lösung zu erstellen. Wir betrachten das homogene
Problem
∂t u − ∆u = 0, u(x, 0) = u0 (x), u = 0 auf I × ∂Ω.
(2.16)
Mit dem Ansatz u(x, t) = v(x)ψ(t) erhalten wir:
∂t u = ∆u
⇒
∂t ψv = ψ∆v
⇒
∂t ψ(t)
∆v(x)
=
=: −λ.
ψ(t)
v(x)
Orts- und Zeitvariablen können unabhängig voneinander variert werden, die Gleichheit gilt
für alle x ∈ Ω und t ∈ I. D.h., die beiden Faktoren v(x) sowie ψ(t) müssen Lösungen der
Eigenwertprobleme
−∆v(x) = λv(x) x ∈ Ω,
42
−ψ 0 (t) = λψ(t) t ≥ 0
2.2 Theorie partieller Differentialgleichungen
mit homogenen Dirichlet-Bedingungen v = 0 auf ∂Ω im Ort und ψ(0) = 1 in der Zeit. Für
das zeitliche Problem ergibt sich für jedes λ > 0 die Lösung:
ψλ (t) = e−λt ,
t ≥ 0.
Im Ort erhalten wir die Eigenwerte des Laplace-Operators, also mit
−∆ωj (x) = λj ωj (x) j = 1, 2, . . . ,
ein L2 -Orthonormalsystem aus Eigenwerten ωj ∈ L2 (Ω) und Eigenwerte 0 < λmin = λ1 ≤
λ2 ≤ · · · . Jede Lösung von (2.16) lässt sich schreiben als
u(x, t) =
∞
X
µi e−λi t ωi (x),
i=1
wobei die Entwicklungskoeffizienten µi gerade die Entwicklungskoeffizienten des Startwerts
sind:
u0 (x) = u(x, 0) =
∞
X
µi ωi .
i=1
Für eine parabolische Differentialgleichung mit rechter Seite f = 0 hängt die Lösung naturgemäß lediglich von den Anfangswerten ab. Die einzelnen Lösungskomponenten fallen
exponentiell in der Zeit ab. Je größer der Eigenwert λi , umso schneller fällt die entsprechende Lösungskomponenten ab. Im Spezialfall Ω = (0, 1) ⊂ R gilt
−∂xx ωj (x) = λj ωj (x),
mit
sin(jπx)
ωj (x) = R
I
sin2 (jπx) dx
1 ,
λj = j 2 π 2 .
2
Die Lösung setzt sich also aus Sinus-Schwingungen zusammen. Je größer der Eigenwert, umso größer die Frequenz der Schwingung. Hieraus kann bei genauer Analyse gefolgert werden,
dass die Lösung u von (2.16) zu jedem Zeitpunkt t > 0 beliebig regulär ist, auch wenn nur
u0 ∈ L2 (Ω) gilt. Dies liegt daran, dass gerade die hochfrequenten, also irregulären Komponenten im Startwert besonders schnell geglättet werden, da exp(−j 2 π 2 t) für j → ∞ schnell
klein wird.
Wir beweisen für die Lösung der klassischen Formulierung
Satz 2.31 (Parabolisches Maximumprinzip). Für jede Lösung der Wärmeleitungs-Ungleichung
∂t u − ∆u ≤ 0 in Ω
gilt das Maximumprinzip. Sie nimmt im Innern des halboffenen Zylinders Q := Ω × (0, T ]
kein striktes Maximum an.
Beweis: Es sei u ∈ C 1 (I; C 2 (Ω) ∩ C(Ω̄)) eine klassische Lösung der Wärmeleitungsgleichung
dann ist die Funktion vε := u − εt für jedes ε stetig und nimmt in einem Punkt (x0 , t0 ) ∈ Q̄
43
2 Theoretische Grundlagen
ihr Maximum an. Wir nehmen nun an, dass (x0 , t0 ) ∈ Q, also im Innern des Zylinders liegt.
Dann ist ∂xx vε (x0 , t0 ) ≤ 0 und also
∂t vε (x0 , t0 ) ≤ ∂t vε (x0 , t0 ) − ∂xx vε (x0 , t0 ) = ∂t u(x0 , t0 ) − ε − ∂xx u(x0 , t0 ) ≤ −ε.
Da die Funktion vε auf Q̄ stetig ist, gilt dann auch in einer Umbebung (x0 , t) für t ∈ (t0 −h, t0 ],
dass
1
∂t vε (x0 , t) ≤ − ε.
2
Dies führt auf einen Widerspruch zu vε (x0 , t0 ) < vε (x0 , t0 ) und die Funktion vε nimmt ihr
Maximum notwendig bei t = 0 an. Da vε stetig ist und ε beliebig gilt diese Aussage auch im
Grenzfall ε → 0.
Aus dem parabolischen Maximumprinzip lässt sich wie im elliptischen Fall die Eindeutigkeit
der klassischen Lösung herleiten. Weiter kann gezeigt werden, dass die Lösung der homogenen
Gleichung
∂t u − ∆u = 0, u(x, 0) = u0 (x), u = 0 auf I × ∂Ω,
mit positiven Anfangsdaten u0 ≥ 0 für alle Zeiten nicht negativ bleibt:
0 ≤ u(x, t) ≤ max u0 (z).
z∈Ω
Im folgenden befassen wir uns mit dem allgemeinen Fall der inhomogenen Wärmeleitungsgleichung. Es gilt
Satz 2.32 (Beschränktheit der Lösung). Für die Lösung der inhomogenen Wärmeleitungsgleichung (2.8) gilt die a priori Abschätzung
ku(t)k ≤ e−λt ku0 k + λ−1 sup kf (t)k,
t≥0
mit dem kleinsten Eigenwert λ des Laplace-Operators L = −∆ auf Ω mit homogenen DirichletRanddaten.
Beweis: (i) Wir stellen die Lösung u = v + w als Summe der Lösungen zweier Hilfsprobleme
dar:
∂t v − ∆v = 0 in I × Ω,
v t=0 = u0 ,
∂t w − ∆w = f in I × Ω,
v t=0 = 0,
v ∂Ω = 0
v ∂Ω = 0.
Diese Aufteilung (Superpositionsprinzip) gilt offenbar wegen der Linearität der Wärmeleitungsgleichung und sie hilft, die beiden Dateneinflüsse durch Anfangswert und rechter Seite
zu trennen ku(t)k ≤ kv(t)k + kw(t)k.
(ii) Wir starten mit einer Abschätzung für v(t). Wir überführen die erste Gleichung gemäß (2.11) in die variationelle Formulierung und setzen als Testfunktion φ = v. Es gilt:
1
dt kv(t)k2 + k∇v(t)k2 = 0.
2
44
2.2 Theorie partieller Differentialgleichungen
Weiter multiplizieren wir mit e2λt und erhalten
1
dt (e2λt kv(t)k2 ) − λe2λt kv(t)k2 + e2λt k∇v(t)k2 = 0.
2
λ ist der kleinste Eigenwert des Laplace-Operators, es gilt also λkvk2 ≤ k∇vk2 und es folgt:
1
dt (e2λt kv(t)k2 ) ≤ 0.
2
Integration über t liefert
e2λt kv(t)k2 ≤ kv(0)k2 = ku0 k2
⇒
kv(t)k ≤ e−λt ku0 k.
(iii) Wir betrachten nun kw(t)k. Wir transformieren entsprechend durch Multiplikation mit
w(t) und Integration im Ort. Mit der Young’schen Ungleichung |ab| ≤ 12 λ−1 a2 + 12 λb2 gilt:
1
1
1
dt kw(t)k2 + k∇w(t)k2 = (f, w) ≤ λ−1 kf k2 + λkwk2
2
2
2
und mit λkw(t)k2 ≤ k∇w(t)k2 folgt
dt kw(t)k2 + k∇w(t)k2 ≤ λ−1 kf k2 .
Wir multiplizieren mit eλt
dt (eλt kw(t)k2 ) − λeλt kw(t)k2 + eλt k∇w(t)k2 ≤ eλt λ−1 kf k2 ,
und erhalten also wie in Teil (ii)
dt (eλt kw(t)k2 ) ≤ λ−1 eλt kf k2 .
Integration über t liefert
λt
2
−1
2
e kw(t)k − kw(0)k ≤ λ
Z t
eλs kf (s)k2 ds,
0
| {z }
=0
bzw.
2
kw(t)k ≤ λ
−1 −λt
Z t
e
eλs kf (s)k2 ds
0
≤λ
−1
2 −λt
sup kf (t)k e
Z t
eλs ds.
0
t≥0
Es gilt
e−λt
Z t
eλs ds ≤ λ−1 ,
0
und somit folgt das Ergebnis:
kw(t)k ≤ λ−1 sup kf (t)k.
t≥0
Wie bereits im eindimensionalen diskutiert fällt der Einfluss des Startwerts exponentiell ab.
Von der rechten Seite hängt die Lösung stetig ab. Die Wärmeleitungsgleichung hat eine sehr
wichtige Glättungseigenschaft. Auf für irreguläre Anfangsdaten ist die Lösung für t > 0 stets
regulär (wenn dies die rechte Seite erlaubt):
45
2 Theoretische Grundlagen
Satz 2.33 (Regularität der Lösung). Für die Lösung der homogenen Wärmeleitungsgleichung mit f = 0 gilt
k∂t u(t)k + k∆u(t)k ≤ 2k∆u0 k
k∂t u(t)k + k∆u(t)k ≤ 2t−1 ku0 k,
vorrausgesetzt der Anfangswert erfüllt jeweils die notwendige Regularität.
Beweis: (i) Für den Beweis nutzen wir wieder die Darstellung der Lösung in den Eigenfunktionen ωj des Laplace-Operators
u(x, t) =
X
u0j ωj (x)e−λj t ,
j≥0
wobei u0j gerade die Entwicklungskoeffizienten des Anfangswerts sind. Es gilt:
∂t u(x, t) = ∆u(x, t) = −
X
u0j ωj (x)λj e−λj t ,
j≥0
(ii) Wir wollen jetzt die Norm der Lösung bestimmen. Die ωj sind L2 -orthonormal und mit
der Parseval’schen Identität gilt:
k∂t u(t)k2 = k∆u(t)k2 =
X
(u0j )2 λ2j e−2λj t .
(2.17)
j≥0
Hieraus folgern wir unmittelbar die erste Ungleichung:
k∂t u(t)k2 = k∆u(t)k2 ≤
X
(u0j )2 λ2j = k∆u0 k2 .
j≥0
(iii) Weiter mit (2.17) und der Ungleichung xe−x ≤ 1 für x ≥ 0:
k∂t u(t)k2 = k∆u(t)k2 = t−2
X
(u0j )2 (tλj )2 e−2λj t ≤ t−2 ku0 k2 .
j≥0
|
{z
≤1
}
Dieser Satz bedeutet also, dass auch für Anfangswerte u0 welche lediglich in L2 (Ω) liegen
die Lösung für jeden Zeitpunkt t > 0 glatt ist, dass also z.B. u(t) ∈ H 2 (Ω) liegt. Diese
Argumentation kann beliebig fortgeführt werden und wir erhalten die Ungleichung
k∂tp u(t)k + k∇2p u(t)k ≤ c(p)t−p ku0 k,
Auf
46
t > 0, p ∈ N.
3 Die Finite Elemente Methode für
elliptische Probleme
Wir betrachten elliptische partielle Differentialgleichungen auf einem Lipschitz-Gebiet Ω ⊂
Rd mit d ≥ 2:
−div(A∇u) + b · ∇u + cu = f.
Es sei A ∈ [L∞ (Ω)]d×d eine positiv definite Koeffizientenmatrix, b ∈ [L∞ (Ω)]d ein divergenzfreier Transportvektor, sowie c ∈ L∞ (Ω) mit c ≥ 0.
Laut Satz 2.19 ist jede Lösung der Differentialgleichung auch Lösung des Variationsproblems
u ∈ V : a(u, φ) = (f, φ)
∀φ ∈ V.
(3.1)
Die genaue Wahl des Test- und Ansatzraums V hängt von den Randwerten des Problems
ab. Bei Verwendung von Dirichlet-Werten ist V = H01 (Ω), bei reinen Neumann-Werten ist
V = H 1 (Ω)/R.
Die Lösung dieses unendlich dimensionalen Problems ist mit analytischen Mitteln nur in
Spezialfällen möglich. Wir werden daher Verfahren zur Approximation von Lösungen untersuchen. Die sogenannten Finite Differenzen-Verfahren zielen auf eine Approximation der
Ableitungen im Differentialoperator: Die Lösung wird nicht in ganz Ω berechnet, sondern
nur in diskreten Punkten xi ∈ Ω. Zwischen diesen Punkten werden die Ableitungen durch
Differenzenapproximationen dargestellt. In dieser Vorlesung betrachten wir ausschließlich
Variationsmethoden. Wir diskretisieren die variationelle Formulierung durch die Wahl von
endlich dimensionalen Test- und Ansatzräumen Vh ⊂ V .
3.1 Allgemeine Galerkin-Verfahren
Es sei Vh ⊂ V ein endlich dimensionaler Teilraum mit
dim Vh = Nh ∈ N.
Der Diskretisierungsparameter h beschreibt die Feinheit der Diskretisierung. Je kleiner der
Parameter h, umso größer die Räume:
Nh → ∞ (h → 0).
Definition 3.1 (Galerkin-Approximation). Sei a(·, ·) eine stetige, elliptische Bilinearform.
Die Galerkin-Approximation von (3.1) im Teilraum Vh ⊂ V ist gegeben durch:
uh ∈ Vh :
a(uh , φh ) = (f, φh )
∀φh ∈ Vh .
(3.2)
47
3 Die Finite Elemente Methode für elliptische Probleme
Zur Diskretisierung werden Test- und Ansatzräume auf endlich dimensionale Teilräume Vh ⊂
V eingeschränkt. Dieser endlich dimensionale Teilraum Vh erbt die Eigenschaften von V , er
ist wieder ein Hilbertraum. In der Analyse von Galerkin-Approximationen werden wir viele
Elemente der theoretischen Betrachtungen wieder anwenden können.
3.1.1 Lösbarkeit und Galerkin-Orthogonalität
Satz 3.1 (Lösbarkeit der Galerkin-Approximation). Sei a : V × V → R eine stetige (M )
und elliptische (γ) Bilinearform und sei f ∈ V ∗ ein stetiges lineares Funktional. Dann gibt
es eine eindeutige Lösung uh ∈ Vh von (3.2) und es gilt:
kuh kV ≤
1
kf kV ∗ .
γ
Beweis: Da der Teilraum Vh ⊂ V ein Hilbertraum ist mit der V -Norm und dem V Skalarprodukt, kann der Satz von Lax-Milgram unmittelbar angewendet werden.
Aufgrund der Teilraumbeziehung Vh ⊂ V können bei der Analyse von diskreten GalerkinApproximationen die funktionalanalytischen Eigenschaften des Hilbertraums V unmittelbar
übertragen werden.
Satz 3.2. Unter den Voraussetzungen von Satz 3.1 ist Problem (3.2) äquivalent zur Lösung
eines linearen Gleichungssystems
Ah uh = bh ,
mit einem Koeffizientenvektor uh ∈ RNh , einer rechten Seite bh ∈ RNh und mit einer positiv
definiten Matrix Ah ∈ RNh ×Nh .
Beweis: Wir wählen eine Basis {φ1 , . . . , φNh } ⊂ Vh von Vh . Jede Funktion vh ∈ Vh kann in
dieser Basis entwickelt werden:
vh (x) =
Nj
X
vj φj (x),
h
RNh 3 bh := (bi )N
i=1 .
j=1
Für die Lösung uh mit Koeffizientenvektor uh gilt wegen der Linearität der Bilinearform:
a(uh , φi ) = (f, φi ) ∀i = 1, . . . , Nh
⇔
Nh
X
a(φj , φi )uj = (f, φi ) ∀i = 1, . . . , Nh
j=1
⇔
A h uh = bh ,
h
mit Ah := (Aij )N
i,j=1 ,
sowie bh :=
h
(bi )N
i=1 ,
Aij := a(φj , φi )
bi := (f, φi ).
Für beliebigen Koeffizientenvektor vh ∈ RNh gilt:
hAh vh , vh i = a(vh , vh ) ≥ γkvh k2V > 0,
48
3.1 Allgemeine Galerkin-Verfahren
wobei γ die Elliptizitätskonstante der Bilinearform ist.
Die Matrix Ah wird Steifigkeitsmatrix genannt. Diese Matrix “erbt” die Eigenschaften der
Bilinearform: ist diese symmetrisch, so ist auch die Steifigkeitsmatrix symmetrisch. Aus
der Beschränktheit (Stetigkeit) der Bilinearform folgt die gleichmäßige Beschränktheit der
Matrix. Als positiv definite Matrix ist Ah stets regulär.
Das allgemeine Galerkin-Verfahren besteht nun aus den folgenden Schritten:
1. Wähle einen diskreten Teilraum Vh ⊂ V .
2. Wähle eine Basis {φi , i = 1, . . . , Nh } von Vh .
3. Löse das lineare Gleichungssystem Ah uh = bh .
Um ein konkretes Galerkin-Verfahren zu erhalten muss also zunächst ein Teilraum Vh gewählt
werden. Dieser Teilraum soll möglichst groß sein und nahe bei V liegen, nur so ist eine
gute Approximation zu erwarten. Andererseits soll das lineare Gleichungssystem möglichst
effizient zu lösen sein, d.h., die Matrix Ah soll gut konditioniert und nicht zu groß sein.
Schlüssel zur Analyse von Galerkin-Approximationen ist die:
Satz 3.3 (Galerkin-Orthogonalität). Der Fehler u − uh ∈ V der Galerkin-Approximation
uh ∈ Vh ⊂ V “steht orthogonal” auf dem Testraum Vh :
a(u − uh , φh ) = 0
∀φh ∈ Vh .
Beweis: Diese wichtige Eigenschaft folgt durch Subtraktion von (3.1) und (3.2).
Bemerkung 3.1. Falls die Bilinearform a(·, ·) symmetrisch ist, so stellt sie ein Skalarprodukt auf V und Vh dar. In diesem Fall fällt die Galerkin-Orthogonalität mit dem üblichen
Orthogonalitätsbegriff zusammen.
Mit der Galerkin-Orthogonalität erhalten wir schnell den folgenden Approximationssatz:
Satz 3.4 (Lemma von Cea). Es seien die Voraussetzungen von Satz 3.1 erfüllt. Es sei u ∈ V
die Lösung von (3.1) und uh ∈ Vh die Lösung von (3.2). Es gilt die Fehlerabschätzung
ku − uh kV ≤
M
inf ku − vh kV .
γ vh ∈Vh
Beweis: Aus der Elliptizität folgt zusammen mit der Galerkin-Orthogonalität und der Stetigkeit für ein beliebiges vh ∈ Vh ⊂ V :
γku − uh k2V ≤ a(u − uh , u − uh ) = a(u − uh , u − uh + vh − vh )
= a(u − uh , u − vh ) + a(u − uh , vh − uh )
| {z }
∈Vh
= a(u − uh , u − vh )
≤ M ku − uh kV ku − vh kV .
49
3 Die Finite Elemente Methode für elliptische Probleme
Das Lemma von Cea besagt, dass die Galerkin-Lösung bis auf die Konstante M
γ die beste
mögliche Approximation von u im Funktionenraum Vh ist. Die Approximationsgüte eines
Galerkin-Ansatzes hängt also einzig von der Approximierbarkeit der Lösung u ∈ H01 (Ω) mit
Funktionen φh ∈ Vh ab. Für die Herleitung von Fehlerabschätzungen muss eine spezielle
Approximation φh ∈ Vh gewählt werden, für welche Fehlerabschätzungen existieren. Hier
werden sich lokale Interpolationen anbieten. Interpolationen in diskrete Galerkin-Räume
werden wir detailliert untersuchen.
Bemerkung 3.2 (Bestapproximation). Im Fall, dass a(·, ·) symmetrisch ist, ist durch
kvka :=
q
a(v, v)
∀v ∈ H01 (Ω),
eine Norm definiert. In dieser Norm gilt dann die Bestapproximationseigenschaft
ku − uh ka = inf ku − φh ka .
φh ∈Vh
3.1.2 Einige Begriffe
Das Prinzip der Galerkin-Approximationen lässt sich noch erweitern und wir führen abschließend einige weitere Begriffe ein.
Definition 3.2 (Konforme und nicht-konforme Galerkin-Approximation). Die Approximation
uh ∈ Vh : a(uh , φh ) = (f, φh ) ∈ Vh ,
der Variationsgleichung
u∈V :
a(u, φ) = (f, φ) ∈ V,
mit einem endlich dimensionalen Raum Vh heißt V -konform, falls Vh ⊂ V , ansonsten, im
Fall Vh 6⊂ V heißt sie nicht V -konform.
Oft ist es notwendig, nicht-konforme Approximationen zu untersuchen. Die fehlende Konformität macht die Analyse weit aufwändiger, da ohne die Teilraumbeziehung auch die GalerkinOrthogonalität verloren geht. Dann gilt das Lemma von Cea nicht mehr.
Ein anderer Spezialfall ist die Wahl von unterschiedlichen Ansatz- und Test-Räumen:
Definition 3.3 (Petrov-Galerkin-Verfahren). Es seien Vh ⊂ V und Wh ⊂ V zwei endlich
dimensionale Teilräume. Die Approximation
uh ∈ Vh :
a(uh , φh ) = (f, φh )
heißt Petrov-Galerkin-Approximation.
50
∀φh ∈ Wh
3.1 Allgemeine Galerkin-Verfahren
Petrov-Galerkin-Approximationen können gegebenenfalls wieder nicht-konform sein, wenn
Vh 6⊂ V oder Wh 6⊂ V (oder beides). Für Petrov-Galerkin-Verfahren, welche konform im
Testraum Wh ⊂ V sind, gilt zwar die Galerkin-Orthogonalität bzgl. des Testraums Wh ⊂ V .
Die diskrete Lösung uh ∈ Vh 6= Wh liegt jedoch nicht in diesem Raum. Im Beweis zum
Lemma von Cea 3.4 erhalten wir eine Abschätzung durch den Ansatz:
γku − uh kV ≤ a(u − uh , u − uh ) = a(u − uh , u − vh ) + a(u − uh , vh − uh )
∀vh ∈ Wh .
|{z}
6∈Wh
Wegen der fehlenden Galerkin-Orthogonalität bleibt ein Konformitätsterm erhalten. Die Herleitung einer Abschätzung für diesen Term kann sehr aufwändig sein.
3.1.3 Wahl der Ansatzräume
Wie bereits argumentiert sollte der Ansatzraum Vh so gewählt werden, dass er über gute
Approximationseigenschaften von Funktionen u ∈ V verfügt. Daneben muss das lineare
Gleichungssystem einfach zu lösen sein.
Globale Polynomräume Als diskreten Funktionenraum Vh wählen wir den Raum aller Polynome bis zu einem bestimmten Grad, etwa
(r)
Vh
:= span{
d
Y
αj
xj , 0 ≤ α1 , . . . , αd ≤ r}.
j=1
Dieser Raum hat für großes r gute Approximationseigenschaften und wir kennen Interpolationsabschätzungen um den Fehler angeben zu können.
Als Basis wählen wir zunächst die Monombasis. Dann ist die Matrix
Aij = a(φj , φi )
voll besetzt. Für das Poisson-Problem ergibt sich eine Matrix, die sehr ähnlich zur HilbertMatrix mit der Kondition cond2 (Ah ) = O(eNh ) ist. Ein lineares Gleichungssystem mit dieser
Matrix kann selbst für moderate Nh ≈ 100 nicht numerisch gelöst werden. Dieser GalerkinAnsatz scheidet also aus.
Wir nehmen zunächst an, dass die Bilinearform a(·, ·) symmetrisch, also ein Skalarprodukt
ist. Angenommen, die Basis {φi , i = 1, . . . , Nh } sei a-orthogonal:
a(φi , φj ) = 0 ∀i 6= j.
In diesem Fall wäre die Matrix Ah eine Diagonalmatrix und das Lösen des linearen Gleichungssystems wäre trivial. Zur Orthogonalisierung der Basis könnte etwa das Gram-SchmidtVerfahren verwendet werden. In der Praxis treten bei dieser Orthogonalisierung jedoch zu
große Rundungsfehler auf. Die resultierende Basis wäre nicht mehr exakt orthogonal.
51
3 Die Finite Elemente Methode für elliptische Probleme
Trigonometrische Ansatzräume Es sei Ω = (0, 1) × (0, 1) ⊂ R2 . Als Ansatzraum wählen
wir
m
X
1
Vh := {
cij sin(iπx) sin(jπy), cij ∈ R}, h := , Nh := (m + 1)2 .
m
i,j=0
Als Basisfunktionen werden die Fourier-Koeffizienten
φij = sin(iπx) sin(jπy)
gewählt. Angewendet auf die Poisson-Gleichung ist die resultierende Matrix sehr gut konditioniert mit cond2 (Ah ) = O(N ) und das Gleichungssystem kann sehr effizient (schnelle
Fourier-Transformation) gelöst werden. Dieser Ansatz wird Spektral-Verfahren genannt. Er
ist höchst leistungsfähig, falls das Gebiet Ω und der Differentialoperator einfach gehalten
sind, jedoch nicht auf allgemeine Fälle übertragbar.
“Fast orthogonale” Ansätze (Finite-Elemente) Dieser Ansatz stellt einen Kompromiss
zwischen Approximationsgenauigkeit und Effizienz dar: Als Basisfunktionen werden stückweise polynomiale Funktionen gewählt, die jeweils nur einen möglichst kleinen Träger besitzen. Insbesondere soll für verschiedene Basisfunktionen gelten:
supp(φi ) ∩ supp(φj ) 6= ∅ nur für sehr wenige i 6= j.
Durch diese Konstruktion ist die Steifigkeitsmatrix Ah automatisch dünn besetzt mit nur sehr
wenigen Einträgen in jeder Matrix-Zeile. Diesen Ansatz werden wir im Detail untersuchen.
3.2 Finite Elemente Methode
Bei der Finite Elemente Methode werden Basisfunktionen des Raums Vh mit einem kleinen, lokalen Träger gewählt. Diese Basisfunktionen sind als stückweise Polynome definiert.
Grundlage ist zunächst eine Triangulierung des Gebiets Ω in ein Finite-Elemente Gitter.
3.2.1 Triangulierung und lineare Finite Elemente
Es sei Ω ⊂ Rd mit d ≥ 2 ein offenes Gebiet mit zunächst stückweise polygonalem Rand. Alle
Innenwinkel seien positiv. Wir definieren:
Definition 3.4 (Finite Elemente Gitter). Eine Zerlegung von Ω in offene Teilgebiete T ,
Zellen oder Elemente genannt, heißt Triangulierung oder Gitter Ωh = {Ti ; i = 1, . . . , NhT }
von Ω. Die Elemente sind üblicherweise Dreiecke, Tetraeder, konvexe Vierecke oder konvexe Hexaeder. Wir definieren die Zellgröße hT := diam(T ) und maximale Gitterweite
h := maxT ∈Ωh hT . Die Eckpunkte der Elemente heißen Knoten und wir fassen das Gitter
bei Bedarf auch als Knoten-Gitter Ωh := {xi , i = 1, . . . , Nh } auf. Das Gitter heißt
Strukturregulär Je zwei unterschiedliche Zellen T1 , T2 ∈ Ωh , T1 6= T2 überlappen sich entweder nicht T1 ∩ T2 = ∅, oder in einem gemeinsamen Eckpunkt, oder in einer ganzen
Seite.
52
3.2 Finite Elemente Methode
Formregulär (Im Fall von Dreiecken) Alle Dreiecke der Triangulierung Ωh sind von ähnlicher Gestalt. Für den Inkreisradius ρT und Zelldurchmesser hT gilt gleichmäßig:
max
T ∈Ωh
hT
≤ cf
ρT
(h → 0).
Größenregulär Die Elemente T ∈ Ωh sind von ähnlicher Größe. Es gilt gleichmäßig:
max hT ≤ cg min hT
T ∈Ωh
T ∈Ωh
(h → 0).
Es müssen nicht unbedingt alle drei Regularitätseigenschaften gelten um von einem sinnvollen
Finite Elemente Gitter zu sprechen. Um zum Beispiel lokal verfeinerte Gitter zu ermöglichen
wird es notwendig sein, die Größenregularität fallen zu lassen. Auf mögliche Abschwächungen
der Regularitätsbedingungen kommen wir bei Bedarf zurück.
In einem Finite Elemente Gitter können verschiedene Elemente, also z.B. Kombinationen
aus Hexaedern, Tetraedern und Prismen betrachtet werden. Wir werden jedoch nur reine
Dreiecks-, Vierecks-, Tetraeder- oder Hexaedergitter untersuchen.
Eine Finite Elemente Basis wird nun unter Zuhilfenahme des Gitters definiert. Das einfachste
Beispiel, die stückweise linearen Finite sind gegeben als:
(1)
Vh
:= {vh ∈ C(Ω̄) : vh T ∈ P1 (T ), T ∈ Th , v|∂Ω = 0}.
(1)
(1)
Für diesen Vektorraum gilt Vh ⊂ H01 (Ω). Weiter ist jedes vh ∈ Vh durch die Vorgabe der
Funktionswerte an den Eckpunkten xi ∈ Ωh der Triangulierung eindeutig beschrieben.
Durch die Vorschrift:
(i)
φh (xj ) = δij
∀i, j = 1, . . . , Nh ,
wird jedem inneren Knoten eine Basisfunktion zugeordnet. Diese Basis heißt die Knoten(1)
Basis des Raums Vh der linearen Finiten Elemente. Siehe Abbildung 3.1. Die Basis erstreckt
sich nur über die inneren Knoten des Gebiets xi 6∈ ∂Ω. Auf diese Weise ist sichergestellt,
(1)
dass Vh ⊂ H01 (Ω), dass also Null-Randwerte von allen diskreten Funktionen erfüllt sind.
(1)
Jede Funktion vh ∈ Vh
besitzt die eindeutige Basisdarstellung:
vh (x) =
Nh
X
(i)
vi φh (x),
i=1
mit einem Koeffizientenvektor v ∈ RNh .
Die Summe erstreckt sich nur über die inneren Knoten der Triangulierung. In den Randknoten ist der Wert der diskreten Vektoren aufgrund der Dirichlet-Randwerte stets Null. Wir
nennen die Koeffizienten in den inneren Knoten die Freiheitsgrade des diskreten Problems.
Die Anzahl der Freiheitsgrade entspricht der Dimension des linearen Gleichungssystems.
53
3 Die Finite Elemente Methode für elliptische Probleme
Abbildung 3.1: Lineare Knotenbasisfunktion.
Dieser Ansatz erfüllt eine wesentliche Forderung an ein Galerkin-Verfahren. Für die Steifigkeitsmatrix Ah ∈ RNh ×Nh gilt:
(j)
(i)
Aij = a(φh , φh ) 6= 0
nur wenn ein T ∈ Ωh existiert mit xi ∈ T̄ und xj ∈ T̄ .
Die Steifigkeitsmatrix ist also dünn besetzt.
Für das allgemeine Galerkin-Verfahren haben wir bereits das Lemma von Cea 3.4 bewiesen.
(1)
Wir betrachten das Poisson-Problem. Für die Finite-Elemente Lösung uh ∈ Vh gilt die
Bestapproximation:
k∇(u − uh )k = min k∇(u − φh )k.
(1)
φ∈Vh
(1)
Konvergenz für h → 0 liegt vor, wenn es ein φh ∈ Vh gibt, so dass k∇(u − φh )k → 0 gilt.
(1)
Als Wahl für eine Approximation verwenden wir die Interpolation Ih u ∈ Vh :
Ih : V → V h ,
Ih u(x) =
Nh
X
(i)
u(xi )φh (x),
i=1
für welche wir die folgenden Interpolationsabschätzungen kennenlernen werden:
ku − Ih ukT ≤ ci h2T k∇2 ukT ,
k∇(u − Ih u)kT ≤ ci hT k∇2 ukT .
(3.3)
Hieraus folgt dann unmittelbar mit der Bestapproximationseigenschaft die a priori Fehlerabschätzung für lineare Finite Elemente
k∇(u − uh )kΩ ≤ k∇(u − Ih u)kΩ ≤ ci hk∇2 ukΩ .
3.2.2 Allgemeine Finite Elemente Räume
Wir betrachten ein Dreiecks- oder Vierecksgitter Ωh des Gebiets Ω. Finite Elemente Räume
werden üblicherweise als stückweise polynomial eingeführt. Hierzu betrachten wir auf einem
Dreieck T ∈ Ωh oder Viereck K ∈ Ωh die Polynomräume
P r := span{xα1 y α2 , 0 ≤ α1 + α2 ≤ r},
54
Qr := span{xα1 y α2 , 0 ≤ α1 , α2 ≤ r},
3.2 Finite Elemente Methode
der stückweise linearen, quadratischen u.s.w., bzw. bilinearen, biquadratischen u.s.w. Funktionen. Der Raum P r ist einfach für Tetraeder, der Raum Qr auf Hexaeder zu erweitern.
Der Raum der linearen Finite Elemente auf einem Dreiecksgitter, bzw. der bilinearen Finiten
Elemente auf einem Vierecksgitter ist definiert als:
(1)
Vh
:= {φh ∈ C(Ω̄), φh T ∈ P 1 , T ∈ Ωh },
(1)
Vh
:= {φh ∈ C(Ω̄), φh K ∈ Q1 , K ∈ Ωh }.
Allgemeine Finite Elemente Räume werden über die Angabe von Knotenwerten definiert.
Dabei wird der Wert der diskreten Funktion φh oder Ableitungen der diskreten Funktion
∇s φh in Eckpunkten, inneren Punkten oder Punkten auf Kanten der Elemente fixiert. Weiter ist es möglich (und manchmal auch zweckdienlich) die diskrete Funktion über gewisse
Mittelwerte, etwa über eine Kante zu bestimmen. Die Knotenwerte sind Punkte auf Ecken,
Kanten oder im Innern. In diesen Knotenwerten werden sogenannte Knotenfunktionale P (T ),
also Punktwerte, Ableitungswerte oder Mittelwerte vorgeschrieben.
Ein Finite Elemente Ansatzraum wird durch die Vorgabe eines Polynomraums P (T ) ⊂ P r
oder P (K) ⊂ Qr sowie durch einen Satz von Knotenwerten und Knotenfunktionalen beschrieben, welche unter Hinzunahme von globalen Eigenschaften (z.B. Stetigkeit der Knotenfunktionale über Elemente hinweg) eine eindeutige Zuordnung erlauben.
Definition 3.5 (Unisolvenz). Ein Polynomraum P (T ) und ein zugehöriger Satz von linearen
Knotenfunktionalen K(T ) heißt unisolvent, wenn jedes p ∈ P (T ) eindeutig durch die Vorgabe
von χ ∈ K(T ) bestimmt ist.
Jedes mögliche Polynom p ∈ P (T ) muss sich also eindeutig durch die Vorgabe der Knotenfunktionale beschreiben lassen. Eine notwendige Bedingung ist natürlich, dass die Dimension
des lokalen Polynomraums P (T ) mit der Anzahl der Knotenfunktionale übereinstimmt. Eine hinreichende Bedingung ist aufgrund der Linearität der Knotenfunktionale, dass für ein
p ∈ P (T ) aus χ(p) = 0 für alle Knotenfunktionale notwendig p = 0 folgt.
Falls wir zum Beispiel den Raum der linearen Finite Elemente auf Drei- oder Vierecken betrachten müssen wir auf jedem Element das Polynom eindeutig beschreiben. Ein Dreieck hat
3 Eckpunkte, somit muss folgerichtig dim(P 1 ) = 3 gelten, in einem Viereck mit 4 Eckpunkten
benötigen wir den Raum der bilinearen Funktionen mit dim(Q1 ) = 4.
Ist ein Satz von unisolventen Knotenfunktionalen gegeben, kann die lokale Interpolation
einer Funktion v ∈ H m (Ω) in diesen Polynomraum definiert werden:
Definition 3.6 (Finite Elemente Interpolation). Für jede Zelle T ∈ Ωh sei ein Polynomraum
P (T ) und ein Satz von unisolventen Knotenfunktionalen K(T ) mit Dimension R gegeben:
χr : H m (T ) → R
(r = 1, . . . , R).
Durch die Vorgabe:
χr (Ih v) = χr (v),
r = 1, . . . , R
ist dann eindeutig die Finite Elemente Interpolation Ih v ∈ P (T ) beschrieben.
55
3 Die Finite Elemente Methode für elliptische Probleme
Bemerkung 3.3. Bei der genauen Definition von Interpolationsoperatoren wird die Regularität der Räume eine wesentliche Rolle spielen. Angenommen u ∈ H 1 (Ω), dann ist u nicht
unbedingt stetig. Die Zuordnung eines Punktwertes:
χ(u) = u(a),
a ∈ Ω,
ist kein lineares Funktional in H 1 (Ω) → R und kann somit nicht zur Definition einer Interpolation genutzt werden. Oft liefert die Existenz- und Regulartiätstheorie aber gerade u ∈ H 1 (Ω)
und keine höhere Regularität. Für diese Zwecke werden wir einen speziellen Interpolationsoperator betrachten, die Clement-Interpolation, welche auch für Funktionen u ∈ H 1 (Ω) definiert ist.
Der übliche Finite Elemente Ansatz ist der:
Definition 3.7 (Lagrange-Ansatz). Im Fall, dass alle Knotenfunktionale auf der Vorgabe
von Punktwerten beruhen spricht man von einem Lagrange-Ansatz.
Und dem gegenüber:
Definition 3.8 (Hermite-Ansatz). Im Fall, dass als Knotenfunktionale auch die Vorgabe
von Ableitungswerten auftauchen, spricht man von einem Hermite-Ansatz.
Beispiele von Finite Elemente Räumen
Wir betrachten einige Beispiele von Finite Elemente Räumen. Besonderes Interesse haben
wir an H 1 konformen Finite Elemente Räumen, da hier die Galerkin-Orthogonalität sowie
das Lemma von Cea gilt. Wir haben bereits mehrfach argumentiert, dass H 1 -Funktionen
nicht in jedem Punkt definiert sein müssen, insbesondere müssen diese Funktionen also auch
nicht stetig sein. Es zeigt sich aber, dass in zwei und drei Dimensionen, eine H 1 -Funktion
nicht entlang eines ganzen Linienstückes, also z.B. einer Elementkante unstetig sein darf.
Unter H 1 -Konformität stellen wir uns vereinfacht Stetigkeit vor.
Dreieckselemente
a) stückweise konstante Funktionen P (T ) = span{1} Der Ansatz niedrigster Ordnung
verwendet den lokalen Polynomraum P 0 (T ) = span{1}, also die konstanten Funktionen. Ein
mögliches Knotenfunktional in jedem Element ist die Vorgabe des Mittelwerts:
p∈P :
(p, 1)T = (v, 1)T ,
Der Mittelwert stellt ein lineares Funktional dar, auch ist dieser Ansatz unisolvent.
Ein globaler, nicht-konformer Finite-Elemente Raum ist definiert durch die Vorgabe:
Vh0,nc := {φh ∈ L2 (Ω), φh T ∈ span{1}}.
56
3.2 Finite Elemente Methode
Dieser Raum spielt bei sogenannten dual-gemischten Formulierungen eine Rolle. Zur direkten
Approximation von elliptischen partiellen Differentialgleichungen eignet er sich nicht, da alle
Ableitungen verschwinden, also ∇φh = 0 für alle φh ∈ Vh0,nc .
Ein H 1 -konformer Finite Elemente Raum lässt sich mit den stückweise konstanten Funktionen nicht erstellen. Durch die Forderung nach globaler Stetigkeit bleiben nur die global
konstanten Funktionen übrig.
b) stückweise lineare Polynome P (T ) = span{1, x, y} Dieser Raum hat die lokale Dimension 3 und als Knotenfunktionale geben wir den Wert in den Eckpunkten vor. Dieser Ansatz
ist unisolvent. Denn eingeschränkt auf eine Kante (also ein Linienstück) ist jedes p ∈ P eine
lineare Funktion. Ist diese lineare Funktion Null in zwei Punkten, so ist sie komplett Null,
also ist auch die Richtungsableitung in Richtung der Kante Null. Da zwei Kanten sich jeweils
schneiden gilt in den Eckpunkten ∇p = 0. Also p (als lineare Funktion) konstant und somit
p = 0.
Ein globaler H01 -konformer Ansatz ist gegeben durch:
(1)
Vh
:= {φh : Ω̄ → R : φh T ∈ span{1, x, y}, φh stetig in Eckpunkten ai ∈ T,
φh = 0 in Eckpunkten ai ∈ ∂Ω}.
Die globale Stetigkeit φh ∈ C(Ω̄) erhält man, da φh auf jeder Kante durch die Vorgabe
beider Eckpunkte eindeutig bestimmt ist. Aus der Stetigkeit in den Eckpunkten folgt die
Stetigkeit entlang der ganzen Kante. Stetige, stückweise polynomiale Funktionen sind stets
H 1 -konform (Übungsaufgabe).
Einen zunächst ungewöhnlichen, in der Anwendung (Navier-Stokes-Gleichungen) jedoch verbreiteten nicht-konformen Ansatz erhält man durch die Vorgabe der Knotenwerte in den drei
Kantenmitten:
(1),nc
Vh
:= {φh : Ω̄ → R : φh T ∈ span{1, x, y}, φh stetig in Kantenmitten,
φh = 0 in Kantenmitten auf ∂Ω}.
c) stückweise quadratische Polynome P (T ) = span{1, x, y, x2 , y 2 , xy} Die lokale Dimension des Raumes ist 6. Der einfachste Raum verwendet als Knotenwertvorgabe die drei
Eckpunkte sowie drei Kantenmitten der Elemente:
(2)
Vh
:= {φh : Ω̄ → R : φh T ∈ span{1, x, y}, φh stetig in Eckpunkten und Kantenmitten,
φh = 0 in Eckpunkten und Kantenmitten auf ∂Ω}.
(2)
Dieser Raum ist global stetig. Denn entlang jeder Kante ist φh ∈ Vh durch Vorgabe von
drei Funktionswerten eindeutig bestimmt. Diese Funktionswerte liegen alle auf einer Kante
und sind stetig.
Ähnlich kann bei der Untersuchung der Unisolvenz argumentiert werden. Angenommen
χr (p) = 0 für r = 1, . . . , 6. D.h., das Polynom ist entlang jeder der drei Kanten konstant
57
3 Die Finite Elemente Methode für elliptische Probleme
Null. Hieraus folgt, dass der Gradient des Polynoms in den Eckpunkten und somit entlang
der ganzen Kante Null ist. p ist also konstant und somit ganz Null.
Statt die Knotenwerte in den Kantenmitten vorzugeben, kann jeweils der Mittelwert über
eine Kante vorgeschrieben werden. Dieser Ansatz ist auch unisolvent:
p∈P :
(p, 1)e = (v, 1)e
e ∈ ∂T.
Ein nicht konformes quadratisches Element ist das Morley Platten-Element. Neben der Vorgabe der Funktionswerte in den Eckpunkten werden die Normalableitungen in den Kantenmitten vorgegeben:
VhM orley := {φh : Ω̄ → R : φh T ∈ span{1, x, y, x2 , xy, y 2 }, φh stetig in Eckpunkten ,
∂n φh stetig in Kantenmitten}.
Dieser Ansatz ist nicht konform, denn nur die Normalableitung, nicht aber die Funktionen
selbst müssen stetig sein in den Kantenmitten. Es kann jedoch gezeigt werden, dass dieser
Ansatz unisolvent ist.
d) stückweise quintisches Argyris-Plattenelement Als letztes Beispiel betrachten wir das
Argyris-Element. Lokal wird der Raum der quintischen Polynome verwendet:
P (T ) = span{xα y β , 0 ≤ α + β ≤ 5},
mit dim(P (T )) = 21. Als Knotenfunktionale werden in den Eckpunkten die Funktionswerte,
der Gradient, sowie die zweiten Ableitungen vorgegeben. Dies sind 3 · (1 + 2 + 3) = 18 (nur 3
zweite Ableitungen wegen ∂x ∂yφh = ∂y ∂x φh ) Werte. Die fehlenden drei Werte werden durch
Vorgabe der Normalableitung in den Kantenmitten vorgegeben. Dieser Ansatz ist unisolvent
und darüber hinaus H 2 -konform, d.h., es gilt VhArgyris ⊂ H 2 (Ω).
Viereckselemente
Die meisten Ansätze lassen sich auf Vierecke bzw. Hexaeder verallgemeinern. Es ist üblicherweise notwendig mehr lokale Freiheitsgrade hinzuzunehmen. Daher sind als Grundlage
Polynomräume der Art Q1 = span{1, x, y, xy} mit den gemischten Termen xy üblich.
stückweise bi-Polynome P (T ) = Qr Das Viereck K wird durch ein uniformes (r +1)×(r +
1)-Gitter überdeckt, wobei die Eckpunkte enthalten sind. In jedem dieser (r + 1)2 Punkte
wird der Funktionswert fixiert. Dieser Ansatz ist unisolvent und H 1 (Ω)-konform, da auf jeder
Kante r +1 Freiheitsgrade zur Verfügung stehen, um die Funktion hier eindeutig vorzugeben.
Ein nicht konformer bilinearer Ansatz könnte durch die Vorgabe der Funktionswerte in den
Kantenmitten erzeugt werden. Dieser Ansatz ist jedoch nicht unisolvent, denn die Funktion
φh = xy ∈ Q1 ,
58
3.2 Finite Elemente Methode
ist ungleich Null, eingebettet in das Viereck K = (−1, 1) × (−1, 1) haben jedoch alle Knotenfunktionale den Wert 0. Einen nicht konformen, jedoch unisolventen Ansatz erhält man
durch die Wahl der lokalen Räume
Q1,rot := span{1, x, y, x2 − y 2 },
welcher durch Rotation des Q1 um π/4 erzeugt wird. Dieser Ansatz ist bei Vorgabe der
Funktionswerte in den Kantenmitten unisolvent.
Hexaederelemente
Das Lagrange-Viereckselement lässt sich unmittelbar in beliebige Dimensionen übertragen,
da dieser Ansatzraum in einem Tensorprodukt-Sinne aufgebaut ist. Allgemein hat der Raum
r
P (K) = Q := span{
d
Y
αj
xj , 0 ≤ α1 , . . . , αd ≤ r},
j=1
die Dimension dim(Qr ) = (r + 1)d . Über die Vorgabe von Knotenfunktionalen in einem
uniformen inneren Punktgitter ist ein unisolventes Element definiert.
59
3 Die Finite Elemente Methode für elliptische Probleme
x̂4
x̂3
x+y
y
TK (x, y) =
K̂
x̂1
x3
x4
K
x̂2
x1
Γ0
x2
Abbildung 3.2: Allgemeines Viereck, welches nicht durch affin-lineare Transformation erzeugt werden kann.
3.2.3 Parametrische Finite Elemente
Die Definition von Finite Elemente Räumen über die Angabe von lokalen Knotenfunktionalen
ist oft schwierig. Z.B. liefert der lokale Polynomraum P (K) := span{1, x, y, xy} mit der
Vorgabe der Funktionswerte in den Eckpunkten einen unisolventen Ansatz auf dem Viereck
K = (0, 1) × (0, 1), jedoch nicht auf dem gedrehten Viereck K := {(x, y) ∈ R2 , |x| + |y| < 1}.
Denn hier ist die Funktion p = xy in jedem Eckpunkt Null. D.h., alle Knotenfunktionale
χi (p) = 0 verschwinden, für das Polynom selbst gilt allerdings p 6= 0. In einem allgemeinen
Gitter ist es jedoch nicht möglich diese Fälle auszuschließen.
Das Problem ist noch größer, wenn allgemeine Vierecke betrachtet werden, also auch solche,
die keine Rechtecke sind, wie in Abbildung 3.2. Auf dem Linienstück Γ0 mit Parametrisierung
y = x = t gilt für eine bilineare Funktion φh ∈ Q1 := span{1, x, y, xy}:
φh (x, y)
Γ0
= span{1, t, t2 },
diese Funktion ist entlang dieser Linie quadratisch und nicht linear. Durch die Vorgabe
der zwei Eckpunkte ist diese Funktion nicht eindeutig festgelegt. Alle vier Basisfunktionen
beeinflussen den Wert entlang dieser Kante. Der globale Ansatz ist nicht stetig, wenn nur
die Stetigkeit in den Knoten vorgeschrieben wird.
Ein sinnvoller bilinear Ansatz muss aus Basisfunktionen bestehen, die entlang jeder Kante
linear sind. Dieses erreichen wir durch Transformation:
1. In einem ersten Schritt wird der Ansatz auf einem Referenzelement, etwa dem Einheitsviereck T̂ := (0, 1) × (0, 1) definiert. Dies ist einfach, da nur dieses eine Element
betrachtet werden muss.
2. Auf diesem Referenzelement wird eine Referenzbasis {φ̂1 , . . . , φ̂r } definiert. Die Dimension dieser Basis entspricht der Anzahl der Knotenfunktionale (z.B. 4 bei bilinearen
Finiten Elementen auf dem Viereck).
3. Um einen Finite Elemente Ansatz auf einer Zelle T ∈ Ωh des Gitters zu definieren
wird eine Abbildung TT : T̂ → T definiert und mit Hilfe dieser Abbildung werden
60
3.2 Finite Elemente Methode
TT
x̂3 = (0, 1)
x2
T ∈ Ωh
T̂
x3
x̂2 = (1, 0)
x̂1 = (0, 0)
x1
Abbildung 3.3: Referenzdreieck und Transformation auf beliebiges T ∈ Ωh
Basisfunktionen transformiert:
x∈T :
(i)
φh (x) = φ̂(i) (TT−1 (x)).
T
(3.4)
Einen solchen Finite Elemente Ansatz nennt man parametrisch. Falls die Transformation TT
im gleichen Polynomraum ist, wie die Basis auf T̂ , also φ̂i ∈ P (T ) und TT ∈ P (T ), so spricht
man von einem iso-parametrischen Ansatz.
Beispiel 3.1 (Isoparametrische lineare Dreieckselemente). Es sei T̂ = {(x, y) : 0 ≤ x + y ≤
1} das Referenzdreieck wie in Abbildung 3.3. In den drei Knoten definieren wir die linearen
Basisfunktionen
φ̂(1) (x̂, ŷ) = 1 − x̂ − ŷ,
φ̂(2) (x̂, ŷ) = x̂,
φ̂(3) (x̂, ŷ) = ŷ.
Jetzt sei T ∈ Ωh ein beliebiges Dreieck mit Eckpunkten x1 , x2 , x3 ∈ Ω. Die Transformation
TT : T̂ → T soll isoparametrisch sein, also auch aus dem Raum der linearen Funktionen
kommen. Damit ist sie affin linear und setzt sich mit Hilfe der Basisfunktionen zusammen:
TT (x̂) = x1 φ̂(1) (x̂) + x2 φ̂(2) (x̂) + x3 φ̂(3) (x̂).
dies sieht man einfach wegen:
TT (x̂i ) =
3
X
j=1
xj φ̂(j) (x̂i ) = xi .
| {z }
=δij
Wir können diese affin lineare Transformation auch schreiben als:
TT (x̂) = BT x̂ + bT ,
mit einer Matrix BT ∈ R2×2 und einem Vektor bT ∈ R2 . Diese Matrix ist regulär, wenn die
drei Punkte nicht auf einer Geraden liegen und es gilt det(BT ) > 0, falls die drei Eckpunkte xi
in gleicher Reihenfolge (also hier gegen Uhrzeigersinn) wie die Referenzpunkte x̂i nummeriert
sind. Auf dem Dreieck T gelten nun die Basisfunktionen:
φ(i) (x) = φ̂(i) (TT−1 (x)) = φ̂(i) (BT−1 x − BT−1 bT ),
mit der Eigenschaft:
φ(i) (xj ) = φ̂(i) (TT−1 (xj )) = φ̂(i) (x̂j ) = δij .
61
3 Die Finite Elemente Methode für elliptische Probleme
Im Fall von linearen Dreieckselementen fallen die isoparametrischen Ansätzen mit der einfachen Dreiecksbasis auf jedem Element zusammen. Dies liegt an der einfachen Struktur
am Ansatzraum: Die Transformation TT sowie ihre Inverse TT−1 sind affin linear. Auch die
Aneinanderkettung φ(i) ◦ TT−1 ist wieder eine lineare Funktion.
Beispiel 3.2. Isoparametrische bilineare Viereckselemente Wir betrachten wieder den einfachen, bi-linearen Vierecksraum. Auf dem Referenzelement (links in Abbildung 3.2) wird der
Raum der Bilinearen Funktionen P (K̂) = Q1 durch die Knotenbasis aufgespannt:
φ̂(1) = 1 − x − y + xy,
φ̂(2) = x − xy,
φ̂(3) = xy,
φ̂(4) = y − xy.
Für diese Basisfunktionen gilt φ̂(i) (x̂j ) = δij . Entlang jeder Kante des Referenzelements
sind die Basisfunktionen linear. Es sei nun K ∈ Ωh ein beliebiges Viereck mit Eckpunkten
x1 , . . . , x4 ∈ . Die Transformation TK soll isoparametrisch, also TK ∈ P (K̂). Wir können
die Transformation wieder einfach mit Hilfe der Knotenbasis erklären:
TK (x̂) =
4
X
xi φ̂(i) (x̂),
i=1
denn es gilt wieder:
TK (x̂j ) =
4
X
xi φ̂(i) (x̂j ) = xj .
i=1
Wir betrachten nun den speziellen Fall aus Abbildung 3.2 und die vier Eckpunkte in K ∈ Ωh
seien gegeben durch:
x1 = (0, 0), x2 = (1, 0), x3 = (2, 1), x4 = (0, 1).
Dann gilt für die Transformation:
TK (x̂) = (0, 0)T φ̂1 (x̂) + (1, 0)T φ̂2 (x̂) + (2, 1)T φ̂3 (x̂) + (0, 1)T φ̂4 (x̂) =
x̂ + x̂ŷ
ŷ
!
Diese Transformation ist bilinear (in jeder Komponente) und liegt also im Polynomraum
P (K̂). Für ihre Inverse gilt allerdings:
−1
TK
(x)
=
x
1+y
y
!
,
sie ist eine rationale Funktion und liegt nicht mehr im Ansatzraum. Mit (3.4) können wir
die Basisfunktionen auf der “Rechenzelle” K ∈ Ωh aufstellen:
φ(1) (x) = 1 − y +
xy − x
,
1+y
φ(2) (x) =
x(1 − y)
,
1+y
φ(3) (x) =
xy
,
1+y
φ(4) (x) =
y(1 + y − x)
.
1+y
Man mache sich klar, dass φ(i) (xj ) = δij gilt. Es handelt sich nicht mehr um einen Polynomansatz! Entlang jeder Kante, z.B. Γ := x2 x3 = {(1 + s, s), s ∈ (0, 1)} sind die Basisfunktionen linear und hängen insbesondere nur noch von den beiden begrenzenden Eckpunkten
ab:
φ(1) |Γ (s) = 0, φ(2) |Γ (s) = 1 − s, φ(3) |Γ (s) = s, φ(4) |Γ (s) = 0.
62
3.3 Interpolation mit Finiten Elemente
Γ
Γ
K
Abbildung 3.4: Iso-parametrische Finite Elemente höherer Ordnung zur besseren RandApproximation.
Die Verwendung von isoparametrischen Finiten Elementen ist der übliche Zugang für allgemeine Finite Elemente Ansätze. Die Konstruktion erscheint zunächst kompliziert, da die
verwendeten Basisfunktionen keine Polynome mehr sind. Bei Betrachtungen zur Realisierung
der Finite Elemente Methode werden wir jedoch feststellen, dass es zu keinem Zeitpunkt notwendig sein wird, die Funktionen φ(i) auf der Zelle K ∈ Ωh aufzustellen. Auswerten sowie
Integration erfolgt stets durch Transformation auf das Referenzelement. Und hier liegen die
klassischen Polynomansätze vor. Im folgenden Abschnitt zur Interpolation mit Finiten Elementen werden wir diese Argumentation bereits kennenlernen.
Isoparametrische Ansätze haben eine besondere Bedeutung bei Verwendung höherer Ansatzgrade. Angenommen wir betrachten biquadratische Ansätze. Dann stehen auch zur Definition
der Transformation von K̂ auf K biquadratische Funktionen zur Verfügung, für jedes Viereck also 9 Freiheitsgrade. Auf diese Weise können zusätzliche Freiheitsgrade auf dem Rand
des Elementes verwendet werden. Wie in Abbildung 3.4 erlaubt dieses Vorgehen eine bessere
Approximation von Gebieten mit “krummen Rändern”. Das eigentliche Element K ∈ Ωh ist
somit gar kein Viereck mehr!
3.3 Interpolation mit Finiten Elemente
Wesentlich für das weitere Vorgehen ist die Herleitung von Abschätzungen für den Interpolationsfehler in Finite Elemente Räumen. Es sei also Vh ein Finite Elemente Raum. Wir
betrachten ausschließlich parametrische Finite Elemente. Dazu sei T̂ das Referenzelement,
also ein festes Dreieck oder Viereck sowie T ∈ Ωh eine beliebiges Element des Gitters. Die
Transformation sei TT : T̂ → T . Zunächst sei diese Transformation affin linear. D.h., für
jedes Element T ∈ Ωh existiert eine Matrix BT ∈ Rd×d sowie ein Vektor bT ∈ Rd so dass
gilt:
TT (x̂) = BT x + bT x.
Die Matrix BT sei ferner invertierbar.
Satz 3.5 (Referenz-Interpolation). Auf dem Referenzelement T̂ sei durch P (T̂ ) ein Polynomraum mit dim(P (T̂ )) = R sowie ein Satz von linearen Knotenfunktionalen K(T̂ ) =
{χ1 , . . . , χR } mit den folgenden Eigenschaften gegeben:
63
3 Die Finite Elemente Methode für elliptische Probleme
1. Der Ansatz sei unisolvent
χi (p) = 0
i = 1, . . . , R
⇒
p = 0.
2. Für ein m ≥ 1 gilt P m−1 ⊂ P (T̂ ), d.h., der Polynomraum enthält alle Polynome bis
zum Grad m − 1.
3. Die Knotenfunktionale sind stetig auf H m (Ω):
i = 1, . . . , R :
χi (v) ≤ ckvkH m (Ω)
∀v ∈ H m (Ω).
Unter den Bedingungen 1. und 3. ist die Interpolationsaufgabe für jedes v ∈ H m (T̂ ) eindeutig
lösbar, d.h., es existiert ein eindeutig bestimmtes IT̂ v ∈ P (T̂ ) mit
χi (IT̂ v) = χi (v)
∀i = 1, . . . , R.
Die Interpolation hat die Darstellung
IT̂ v =
R
X
χi (v)φ̂(i) ,
(3.5)
i=1
mit der verallgemeinerten Lagrange-Basis {φ̂(i) , i = 1, . . . , R}, welche eindeutig durch die
Bedingung χi (φ̂(j) ) = δij gegeben ist.
Beweis: Wegen der Stetigkeit der Knotenfunktionale auf H m (Ω) ist die Aufgabe wohlgestellt. Die eindeutige Lösbarkeit folgt unmittelbar aus der Unisolvenz.
Bedingung 2., also die Reichhaltigkeit des Polynomraums werden wir zur Herleitung von
Fehlerabschätzungen für die Interpolation benötigen.
3.3.1 Das Bramble-Hilbert-Lemma
Zunächst benötigen wir einige Hilfsätze:
Hilfsatz 3.1 (Nullraum von Ableitungsoperatoren). Jede Funktion v ∈ H m (T̂ ) mit der
Eigenschaft:
Dα v = 0 ∀|α| = m,
ist fast überall ein Polynom v ∈ P m−1 (T̂ ).
Beweis: Wegen Dα v = 0 für |α| = m folgt für beliebigen Multiindex β also Dβ Dα = 0, d.h.,
es gilt:
k
v ∈ ∩∞
k=1 H (T̂ ).
Und mit dem Einbettungssatz in Räume stetiger Funktionen 2.17 folgt v ∈ C ∞ (T̂ ) und insbesondere v ∈ C m (T̂ ). Die Aussage folgt nun etwa durch m-maliges bilden der Stammfunktion
von Dα v = 0.
64
3.3 Interpolation mit Finiten Elemente
Hilfsatz 3.2 (Polynomprojektion). Für jede Funktion v ∈ H m (T̂ ) existiert eine eindeutig
bestimmte Projektion q ∈ P m−1 (T̂ ) mit den Eigenschaften:
Z
Dα (v − q) dx = 0
0 ≤ |α| ≤ m − 1.
T̂
Beweis: Wir konstruieren q ∈ P m−1 (T̂ ) gemäß dem Ansatz:
X
q(x) =
ξβ x β ,
|β|≤m−1
mit den Koeffizienten ξβ ∈ R. Es muss gelten:
Z
X
ξβ
|β|≤m−1
Z
α β
D x dx =
T̂
Dα v dx
∀|α| ≤ m − 1.
T̂
Dieses Problem ist ein quadratisches lineares Gleichungssystem mit Matrix
Z
A = (Aαβ )|α|,|β|≤m−1 ,
Aαβ :=
Dα xβ dx.
T̂
Diese Matrix ist regulär. Ansonsten würde es Koeffizienten ξ := (ξ β )|β|≤m−1 geben mit ξ 6= 0
P
aber
Aξ = 0. Das zugehörige Polynom q(x) = ξ β xβ vom Grad m − 1 hätte die Eigenschaft
R
α
T̂ D q dx = 0 für alle |α| ≤ m − 1. Hieraus folgt im Widerspruch zur Annahme q = 0.
Hilfsatz 3.3 (Verallgemeinerte Poincare-Ungleichung). Für jede Funktion v ∈ H m (T̂ ) mit
der Eigenschaft:
Z
Dα v dx = 0
∀|α| ≤ m − 1,
(3.6)
T̂
gilt
kvkH m (T̂ ) ≤ c0 |v|H m (T̂ ) ,
mit einer Konstante c0 , welche nicht von v abhängt.
Beweis: Angenommen, diese Ungleichung würde nicht gelten. D.h., zu jeder Konstante
cv > 0 existiert ein v ∈ H m (T̂ ) mit Eigenschaft (3.3) und mit kvkH m > cv |v|H m (T̂ ) . Dann
existiert also auch eine Folge von Funktionen vn ∈ H m (T̂ ) mit:
1 = kvn kH m (T̂ ) ≥ n|vn |H m (T̂ ) ,
n ∈ N.
(3.7)
Die Eigenschaft kvn kH m (T̂ ) = 1 folgt durch einfache Normierung. Die Einbettung von H m (T̂ ) ,→
H m−1 (T̂ ) ist kompakt, siehe Satz 2.16. Also hat die beschränkte Folge vn eine in H m−1 (T̂ )
konvergente Teilfolge (welche wir wieder mit vn bezeichnen):
kvn − vkH m−1 (T̂ ) → 0.
(3.8)
1
→0
n
(3.9)
Mit der Annahme (3.7) folgt:
|vn |H m (T̂ ) ≤
(n → ∞).
65
3 Die Finite Elemente Methode für elliptische Probleme
Zusammen mit (3.8) folgt, dass vn in H m (T̂ ) Cauchy-Folge ist, denn:
kvk − vl k2H m (Ω) = kvk − vl k2H m−1 (Ω) + |vk − vl |2H m (Ω)
≤ kvk − vk2H m−1 (Ω) + kvl − vk2H m−1 (Ω) + |vk |2H m (Ω) + |vl |2H m (Ω) → 0.
Wegen der Vollständigkeit existiert ein vn → ṽ ∈ H m (Ω) und wegen (3.8) gilt v = ṽ aus (3.8).
Aus Hilfsatz 3.1 folgt jetzt v ∈ P m−1 (T̂ ). Weiter gilt mit (3.6)
Z
Dα v dx = lim
Z
k→∞ T̂
T̂
Dα vk dx
|α| ≤ m − 1.
Hieraus folgt v = 0 im Widerspruch zur Annahme (3.7).
Mit diesen Hilfsätzen kann nun der folgende Satz bewiesen werden:
Satz 3.6 (Bramble-Hilbert-Lemma). Es sei F (·) : H m (T̂ ) → R ein Funktional mit den
folgenden Eigenschaften:
1. Beschränktheit
|F (v)| ≤ c1 kvkH m (T̂ )
∀v ∈ H m (T̂ )
2. Sublinearität
|F (u + v)| ≤ c2 (|F (u)| + |F (v)|)
∀u, v ∈ H m (T̂ )
3. Verschwindet auf P m−1 (T̂ )
F (q) = 0
∀q ∈ P m−1 (T̂ )
Dann gilt mit der Konstante c0 aus der verallgemeinerten Poincaré-Ungleichung, Hilfsatz 3.3
|F (v)| ≤ c0 c1 c2 |v|H m (T̂ ) .
Beweis: Für ein v ∈ H m (T̂ ) gilt mit beliebigem Polynom q ∈ P m−1 (T̂ )
|F (v)| = |F (v − q + q)| ≤ c2 |F (v − q)| + |F (q)| ≤ c1 c2 kv − qkH m (T̂ ) .
Das Polynom q ∈ P m−1 (T̂ ) wird nun gemäß Hilfsatz 3.2 gewählt, dann folgt mit der verallgemeinerten Poincaré-Ungleichung
|F (v)| ≤ c0 c1 c2 |v − q|H m (T̂ ) = c0 c1 c2 |v|H m (T̂ ) .
Eine einfache Anwendung des Bramble-Hilbert-Lemmas ist die Herleitung einer Interpolationsabschätzung auf dem Referenzelement T̂ , denn der Interpolationsoperator Ih erfüllt
gerade die Anforderungen an das Funktional aus dem Bramble-Hilbert-Lemma:
66
3.3 Interpolation mit Finiten Elemente
Satz 3.7 (Allgemeiner Interpolationssatz). Es sei IT̂ ein Interpolationsoperator mit den
Eigenschaften von Satz 3.5. Dann gilt für jede Funktion v ∈ H m (T̂ ) die Abschätzung:
|v − IT̂ v| ≤ c|v|H m (T̂ ) ,
bzgl. einer beliebigen, auf H m (T̂ ) stetigen Halbnorm | · |.
Beweis: Ohne Einschränkung sei |v| ≤ kvkH m (T̂ ) für alle v ∈ H m (T̂ ).
Wir betrachten das Funktional:
F (v) := |v − IT̂ v|.
Dieses Funktional erfüllt die Eigenschaften des Bramble-Hilbert-Lemmas. Denn mit Darstellung (3.5) gilt
|F (v)| ≤ |v| + |IT̂ v| ≤ |v| +
R
X
|χi (v)| |φ̂(i) | ≤ (1 + Rc max |φ̂(i) |)kvkH m (T̂ ) ,
i=1,...,R
i=1
falls alle Knotenfunktionale χi auf H m beschränkt sind. Dies muss von Fall zu Fall untersucht werden. Etwa die Vorgabe von Ableitungswerten in Eckpunkten benötigt sehr hohe
Regularität, Beschränktheit gilt also nur in Räumen H m (T̂ ) mit großem m. Für die Interpolation gilt IT̂ q = q für alle Polynome q ∈ P m−1 (T̂ ). Also gilt F (q) = 0 für alle q ∈ P m−1 (T̂ ).
Somit ergibt das Bramble-Hilbert-Lemma die gewünschte Abschätzung.
Dieses abstrakte Resultat ist sehr allgemein und kann nun auf verschiedene Normen konkretisiert werden. Die Halbnorm | · | muss lediglich stetig auf H m (T̂ ) sein. Wir betrachten einige
Beispiele:
1. L2 -Fehler. Es gilt:
|v − IT̂ v| := kv − IT̂ vkL2 (T̂ ) ≤ kv − IT̂ vkH m (T̂ )
m ∈ N.
2. H k (T̂ )-Halbnorm. Wie oben gilt:
|v − IT̂ v| := |v − IT̂ v|H k (T̂ ) ≤ kv − IT̂ vkH m (T̂ )
0 ≤ k ≤ m.
3. Maximum-Fehler. In zwei und drei räumlichen Dimensionen gilt wegen der Einbettung
von Sobolew-Räumen in die Räume stetiger Funktionen:
|v − IT̂ v| := max |v − IT̂ v| ≤ ckv − IT̂ vkH 2 (T̂ ) .
x∈T̂
4. Auf jeder Kante Γ ⊂ T̂ gilt mit dem Spursatz:
|v − IT̂ v| := kv − IT̂ vkΓ ≤ ckv − IT̂ vkH 1 (T̂ ) .
5. Der Fehler kann anstelle von Normen auch in Mittelwerten gemessen werden, etwa:
Z
|v − IT̂ v| := (v − IT̂ v) dx ≤ ckv − IT̂ vkL1 (T̂ ) .
T̂
67
3 Die Finite Elemente Methode für elliptische Probleme
Auf dem festen Referenzelement T̂ gilt also eine Interpolationsabschätzung in sehr beliebigen Halbnormen. Die eigentliche Aufgabe ist es nun, eine Interpolationsabschätzung auf den
Elementen T ∈ Ωh der Triangulierung herzuleiten. Jedes Element wird durch eine Transformation TT : T̂ → T erzeugt. Die Interpolation IT v auf dem Element T ∈ Ωh ist durch einen
parametrischen Ansatz gebildet, es gilt nicht IT v ∈ P (T̂ ), sondern IT̂ v̂ ∈ P (T̂ ) mit:
IT̂ v̂(x̂) = IT v(x),
x = TT (x̂) = BT x̂ + bT .
Hilfsatz 3.4 (Eigenschaften der Transformation). Es sei TT : T̂ → T eine affin lineare
Transformation TT (x̂) = BT x̂ + bT mit einer regulären Matrix BT mit det(BT ) > 0 sowie
einem Vektor bT . Für eine Funktion fˆ ∈ W 1,∞ (T̂ ) und f ∈ W 1,∞ (T ) mit fˆ(x̂) = f (x) gilt:
Z
f (x) dx = | det BT |
T
Z
fˆ(x̂) dx̂,
T̂
∂i f (x) =
Z
T̂
d
X
(−1)
bji ∂ˆj fˆ(x̂),
fˆ(x̂) dx̂ = | det BT−1 |
∂ˆi f (x̂) =
j=1
d
X
Z
f (x) dx,
(3.10)
T
bji ∂j f (x),
(3.11)
j=1
1
|f |H k (T ) ≤ c| det BT | 2 kBT−1 kk |fˆ|H k (T̂ ) ,
(−1) d
)ij=1
mit B = (bij )dij=1 und BT−1 = (bij
sion des Gebiets d abhängt.
1
|fˆ|H k (T̂ ) ≤ c| det BT−1 | 2 kBT kk |f |H k (T ) ,
(3.12)
und einer Konstante c, welche nur von der Dimen-
Beweis: (i) Zunächst gilt mit dem Transformationssatz unmittelbar:
Z
Z
f (x) dx =
T
Z
f (x) dx =
TT (T̂ )
| det(∇TT )|fˆ(x̂) dx̂ = | det BT |
T̂
Z
fˆ(x̂) dx̂.
(3.13)
T̂
Entsprechend wird die Rückrichtung bewiesen.
(ii) Für die Ableitung gilt:
∂i f (x) = ∂i fˆ(x̂) =
d
X
∂ x̂j
.
∂ˆj fˆ(x̂)
∂i
j=1
−1
(x) = BT−1 x − BT−1 bT also gilt weiter:
Es ist x̂ = TK
∂i f (x) =
d
X
(−1)
∂ˆj fˆ(x̂)bji .
(3.14)
j=1
Auch hier folgt die Rückrichtung entsprechend.
(iii) Aus 3.14 leiten wir eine Abschätzung her:
|∂i f | ≤ kBT−1 k∞ max |∂ˆj fˆ|,
j=1,...,d
wobei k · k∞ eine für eine beliebige Matrix-Norm stehen kann. Nun sei α ein beliebiger
Multiindex. Mehrfache Anwendung liefert:
β ˆ
|Dα f | ≤ kBT−1 k|α|
∞ max |D̂ f |.
|β|=|α|
68
3.3 Interpolation mit Finiten Elemente
Quadrieren und integrieren liefert zusammen mit 3.13:
|f |2H k (T )
Z
=
T
X
α
2
|D f | dx ≤
| det BT | kBT−1 k2k
∞
Z
T
|α|=k
X
|α|=k
max |D̂β fˆ|2 dx̂.
|β|=|α|
Wurzelziehen liefert das Ergebnis. Die Rückrichtung transformiert sich entsprechend.
.
Hilfsatz 3.5 (Eigenschaften der Transformation). Es sei TT : T̂ → T mit TT (x̂) = BT x̂ + bT
eine affin lineare Transformation. Es seien ρ̂ und ĥ Inkreisradius und Durchmesser von T̂ ,
sowie ρT und hT Inkreisradius und Durchmesser von T . Dann gilt:
kBT k ≤ c
hT
,
ρ̂
kBT−1 k ≤ c
ĥ
.
ρT
Beweis: Übungsaufgabe.
Mit diesen Vorbereitungen kann der folgende, für uns wichtige Interpolationssatz bewiesen
werden:
Satz 3.8 (Spezielle Interpolation). Es sei T ∈ Ωh ein Dreieck mit Inkreisradius ρT und
Durchmesser hT . Für jedes v ∈ H m (T ) und die zugehörige Interpolation IT v ∈ P (T ) in den
Raum der parametrischen Finite Elemente von Ordnung m − 1 gilt:
|v − IT v|H k (T ) ≤ cI
hm
T
|v|H m (T )
ρkT
0 ≤ k ≤ m.
Beweis: (i) Auf dem Dreieck T ist die Interpolation konstruiert gemäß:
IT̂ v̂(x̂) = IT v(TT (x̂)),
wobei v̂(x̂) = v(TT (x̂)) = v(x). Auf dem Referenzdreieck gilt mit Satz 3.7
|v̂ − IT̂ v̂|H k (T̂ ) ≤ c|v|H m (T̂ ) ,
denn | · |H k (T̂ ) ist auf H m (T̂ ) mit k ≤ m eine stetige Halbnorm.
(ii) Wir transformieren den Interpolationsfehler mit Hilfe von (3.12) auf das Referenzdreieck:
1
|v − IT v|H k (T ) ≤ | det BT | 2 kBT−1 kk |v̂ − IT̂ v̂|H k (T̂ ) .
(3.15)
(iii) Auf der Referenzzelle wenden wir nun den allgemeinen Interpolationssatz 3.7 an und
transformieren entsprechend mit 3.12 zurück:
1
|v̂ − IT̂ v̂|H k (T̂ ) ≤ cI |v̂|H m (T̂ ) ≤ cI | det BT−1 | 2 kBT km
∞ |v|H m (T ) .
Zusammen mit (3.15) erhalten wir:
1
1
|v − IT v|H k (T ) ≤ cI | det BT | 2 | det BT−1 | 2 kBT−1 kk∞ kBT km
∞ |v|H m (T ) .
Mit Hilfsatz 3.5 und | det BT−1 | = | det BT |−1 folgt die Abschätzung.
Die Interpolation ist eine lokale Eigenschaft auf jedem Element T ∈ Ωh . Dennoch lässt sich
für eine größen- und formreguläre Triangulierung eine globale Interpolationsabschätzung
herleiten:
69
3 Die Finite Elemente Methode für elliptische Probleme
Satz 3.9 (Globale Interpolationsabschätzung). Es sei Ωh eine form-, größen- und strukturreguläre Triangulierung mit h := maxT ∈Ωh hT . Dann gilt für jedes v ∈ H m (Ω) und die
zugehörige Interpolation Ih v in den Raum der parametrischen Finiten Elemente von Ordnung
m − 1 die Abschätzung:
|v − Ih v|H k (Ω) ≤ cI hm−k |v|H m (Ω)
0 ≤ k ≤ m.
Beweis: Übungsaufgabe.
Dieser Satz liefert uns die wichtigen Interpolationsabschätzungen für lineare Finite Elemente:
k∇(u − Ih u)k ≤ cI hk∇2 uk,
ku − Ih uk ≤ cI h2 k∇2 uk
∀u ∈ H 2 (Ω).
Zusammen mit dem Lemma von Cea, Satz 3.4 und der Regularitätsabschätzung der Lösung,
Satz 2.24 folgt unmittelbar eine Fehlerabschätzung für den Fehler der Galerkin-Approximation
der Poisson-Gleichung in der Energie-Norm:
k∇(u − uh )k ≤
M
M
M
k∇(u − Ih u)k ≤ cI h k∇2 uk ≤ cI cs h kf k.
γ
γ
γ
Abschließend beweisen wir noch eine für die Analyse von Finite Elemente Verfahren wichtige
Ungleichung:
Satz 3.10 (Inverse Beziehung). Es sei vh ∈ Vh eine parametrische Finite Elemente Funktion
vom Grad m − 1. Auf jeder Zelle des Gitters gilt die Beziehung:
|vh |H k (T ) ≤ c
hsT
|v|H s (T )
ρkT
0 ≤ s ≤ k ≤ m − 1.
Beweis: Es sei q̂ ∈ P (T̂ ) ein Polynom vom maximalen Grad m − 1 auf der Referenzzelle. Dieser Polynomraum ist endlich-dimensional, d.h., alle Normen sind auf diesem Raum
äquivalent. D.h., die Ungleichung gilt auf dem Referenzelement
|q̂|H k (T̂ ) ≤ ĉ|q̂|H s (T̂ )
s ≤ k ≤ m − 1.
Die Aussage folgt nun durch Transformation auf T → T̂ → T .
3.3.2 Die Clement-Interpolation
Der natürliche Raum zur Analyse von elliptischen Differentialgleichungen ist der SobolewRaum H01 (Ω). Der Makel der Knoteninterpolation ist die Verwendung von Punktwerten zur
Definition des Interpolationsoperators mittels Ih v(ai ) = v(ai ). Diese Knotenfunktionale sind
auf H01 (Ω) nicht stetig definiert. Oft benötigen wir jedoch Interpolationen von Funktionen
mit dieser minimalen Regularität. Die Clement-Interpolation ist ein Interpolationsoperator
welcher anstelle von Funktionsauswertungen lokale Mittelwerte verwendet. Diese Mittelwerte
sind als Funktionale auf dem H 1 beschränkt. Wir definieren:
70
3.3 Interpolation mit Finiten Elemente
Abbildung 3.5: Definition der Patche. Links: Knotenpatch und “kleine Zellpatch” PT . Mitte:
“großer Zellpatch” P̃T . Rechts: “kleiner Kantenpatch” PE (hell) und “großer
Kantenpatch” P̃E (dunkel).
Definition 3.9 (Patch). Sei Ωh ein strukturreguläres Gitter. Für jeden Knoten a ∈ Ωh ,
jedes Element T ∈ Ωh und jede Kante E ∈ Ωh definieren wir den Knotenpatch Pa ∈ Ωh , die
Zellpatche PT ∈ Ωh und P̃T ∈ Ωh sowie die Kantenpatche PE ∈ Ωh und P̃E ∈ Ωh
Pa :=
[
T
T ∈Ωh , xi ∈T̄
T 0,
[
PT :=
T 0 ∈Ωh , ∃E∈Ωh , E=T̄ ∩T̄ 0
P̃T :=
[
Pa ,
Pa ∈Ωh , a∈T̄
PE :=
T 0,
[
T 0 ∈Ωh , E⊂T 0
P̃E :=
[
Pa
Pa ∈Ωh , a∈Ē
In Abbildung (3.5) zeigen wir ein Beispiel solcher Patche. Zur Definition des ClementInterpolationsoperators Ch : V → Vh werden nun anstelle von Punktwerten v(a) Mittelwerte über die Knotenpatche Pa verwendet. Diese Funktionale sind auf dem V = H01 (Ω)
beschränkt.
Satz 3.11 (Clement-Interpolation). Es sei Ωh ein form- größen- und strukturreguläres Gitter. Dann gibt es einen stetigen linearen Operator Ch : V → Vh in den Raum der linearen
Finiten Elemente mit den folgenden Eigenschaften:
1
kv − Ch vkL2 (T ) ≤ chT k∇vkL2 (P̃T ) ,
kv − Ch vkL2 (E) ≤ chE2 k∇vkL2 (P̃E )
∀v ∈ V = H01 (Ω).
Beweis: Wir definieren zunächst die Knotenfunktionale der Clement-Interpolation. Für jeden Knoten xi ∈ Ωh sei:
χi : L2 (Pxi ) → R,
χi (v) :=

R
 1
|Pxi | Pxi
0
v(x) dx
xi 6∈ ∂Ω
xi ∈ ∂Ω
71
3 Die Finite Elemente Methode für elliptische Probleme
Diese Knotenfunktionale sind linear, auf L2 (Ω) und also auch auf V = H01 (Ω) beschränkt.
Nun sei P̂x ein Referenzpatch. Hier gilt:
|χ̂i (v̂)| =
1
|P̂x |
Z
P̂x
v̂ dx̂ ≤ ckv̂kP̂x .
Weiter sei Txi : P̂x → Pxi mit det(∇Tx ) = |Pxi | = O(h2 ) und k∇Txi k∞ = O(hi ). Dann gilt:
kv − χi (v)k2L2 (Px ) ≤ h2 kv̂ − χ̂i (v̂)k2L2 (P̂ ) .
x
i
Weiter mit dem Bramble-Hilbert-Lemma und Rücktransformation:
ˆ 2 ≤ cbhl h2 k∇vk2 2
kv − χi (v)k2L2 (Px ) ≤ h2 cbhl k∇v̂k
i
L (Px ) .
P̂
x
i
i
(ii) Wir definieren die Interpolierende als:
Ch v(x) :=
(i)
X
χi (v)φh (x) ∀v ∈ V.
xi ∈Ωh
Für die Knotenbasis gilt
X
(i)
φh (x) ≡ 1,
xi ∈T̄
T
(i)
da die Interpolation auch in den Randknoten definiert ist. Weiter folgt mit kφh kL∞ (T ) ≤ 1:


X (i)
X
(i)
φh  −
χi (v)φh kv − Ch vkT = v 
xi ∈T̄
xi ∈T̄
T
X
X
(i)
≤
k(v − χi (v))φh kT ≤
xi ∈T̄
kv − χi (v)kPxi ≤
xi ∈T̄
X
cbhl hi k∇vkPxi
xi ∈T̄
q
≤ cbh c(T )h̃T k∇vkP̃T ,
mit h̃T = diam(P̃T ) und c(T ) der Anzahl der Zellen in einem Patch. Aus der Formregularität
des Gitters folgt c(T ) ≤ cT gleichmäßig in h → 0. Die Abschätzung des Interpolationsfehlers
auf der Kante folgt entsprechend durch geeignete Transformation auf die Referenzkante. Die Clement-Interpolation wird H 1 -stabil genannt. Es gilt:
Satz 3.12 (H 1 -Stabilität der Clement-Interpolation). Auf einem form-, größen und strukturregulärem Gitter Ωh folgt für die Clement-Interpolation:
k∇Ch vkL2 (T ) ≤ ck∇vkP̃T .
Beweis: Die Knotenfunktionale sind H 1 -stabil. Deswegen kann auf gleichem Wege die H 1 Fehlerabschätzung hergeleitet werden:
k∇(v − Ch v)kL2 (T ) ≤ cI k∇vkP̃T .
Dann gilt:
k∇Ch vkT ≤ k∇(v − Ch v)kT + k∇vkT .
Hieraus folgt die Behauptung.
72
3.4 A priori Fehleranalyse für Finite Elemente Verfahren
3.4 A priori Fehleranalyse für Finite Elemente Verfahren
Wir betrachten das homogene Dirichlet-Problem
u ∈ H01 (Ω) :
a(u, φ) = (f, φ)
∀φ ∈ V,
mit einer elliptischen, beschränkten Bilinearform.
Die natürliche Fehlernorm für elliptische partielle Differentialgleichungen ist die H01 (Ω)Norm. Denn in dieser Norm gilt die Bestapproximationseigenschaft, bzw. das Lemma von
Cea. Wir erhalten:
Satz 3.13 (A priori Abschätzung für den Energiefehler). Es sei Ω ein konvexes Polygongebiet, f ∈ L2 (Ω). Weiter sei Ωh ein größen-, form- und strukturreguläres Dreiecksgitter. Es
(m)
sei uh ∈ Vh die Finite Elemente Lösung im Raum der parametrischen Finiten Elementen
vom Grad m. Im Fall u ∈ H m+1 (Ω) gilt die a priori Abschätzung:
cI cs m
k∇(u − uh )k ≤
h kf kH m−1 (Ω) .
γ
Beweis: Mit dem Lemma von Cea gilt
k∇(u − uh )k ≤
1
k∇(u − φh )k
γ
(m)
∀φh ∈ Vh
.
(m)
Wir wählen φh := Ih u die Interpolation. Da u ∈ H m+1 (Ω) gilt mit Satz 3.9
k∇(u − uh )k ≤
cI m m+1
h k∇
uk.
γ
Mit der Stabilitätsabschätzung für die Lösung u aus Satz 2.25 folgt die Aussage.
3.4.1 Der Aubin-Nitsche Trick
Die Abschätzung in der Energienorm ist einfach, da gerade in dieser Norm die Elliptizität der
Bilinearformkvk2V ≤ γ −1 a(v, v) gilt. Der Zusammenhang zwischen Norm und Bilinearform,
also zwischen Norm und schwacher Formulierung, erlaubt die einfache Herleitung einer Fehlerabschätzung. Bei den Finite Differenzen Verfahren ist die Maximum-Norm die natürliche
Norm zu Betrachtung der Konvergenz. Um eine Fehlerabschätzung für die Finite Elemente
Methode in einer anderen Norm als der Energienorm herzuleiten benötigen wir zunächst
einen Ersatz für die Elliptizität. Schlüssel hierzu ist der sogenannte Aubin-Nitsche-Trick.
Satz 3.14 (Duales Problem). Sei u ∈ V schwache Lösung von a(u, φ) = l(φ) für alle φ ∈ V ,
l ∈ V ∗ , a : V × V → R elliptische, beschränkte Bilinearform. Zu einem gegebenen linearen
Fehlerfunktional J : V → R besitzt das duale Problem
z∈V :
a(φ, z) = J(φ)
∀φ ∈ V,
(3.16)
eine eindeutig bestimmte schwache Lösung z ∈ V und es gilt:
kzkV ≤
M
kJkV ∗ .
γ
73
3 Die Finite Elemente Methode für elliptische Probleme
Beweis: Wir definieren die adjungierte Bilinearform
a∗ (z, φ) := a(φ, z)
∀z, φ ∈ V.
Diese Bilinearform ist wieder elliptisch und beschränkt. Also ist das Lemma von Lax-Milgram
auf das duale Problem anwendbar und liefert auch die a priori Fehlerabschätzung.
Bevor wir konkrete duale Probleme und Anwendungen kennenlernen skizzieren wir kurz
das weitere Vorgehen. Angenommen, zu einem gegebenen Fehlerfunktional J : V → R ist
die duale Lösung z ∈ V bekannt. Dann gilt für den Fehler u − uh ∈ V der GalerkinApproximation die Identität:
J(u − uh ) = a(u − uh , z),
und weiter mit der Galerkin-Orthogonalität sowie der Stetigkeit der Bilinearform:
J(u − uh ) = a(u − uh , z − φh ) ≤ M ku − uh kV kz − φh kV
∀φh ∈ Vh .
D.h., der Fehler in einem beliebigen Fehlerfunktional J ist gegeben als das Produkt aus
Energiefehler ku − uh kV und Approximationsfehler der dualen Lösung. Es gilt nun, die duale
Lösung genauer abzuschätzen. Dies muss je nach Fehlerfunktional getrennt geschehen.
Beispiel 3.3 (Duales Problem). Wir betrachten zunächst einige Fehlerfunktionale. Der L2 Fehler wird durch die rechte Seite
J(φ) := (u − uh , φ) ku − uh k−1 ,
realisiert. Dieses Funktional ist in φ linear, es gilt wie gewünscht J(u − uh ) = ku − uh k und
es handelt sich um ein lineares Funktional in H −1 (Ω), ja sogar in L2 (Ω)∗ , denn:
|J(φ)| ≤ ku − uh k kφk ku − hh k−1 ≤ kφk
∀φ ∈ L2 (Ω).
Nach dem Riesz’schen Darstellungssatz existiert ein j ∈ L2 (Ω), mit:
(j, φ) = J(φ)
∀φ ∈ L2 (Ω),
kjkL2 (Ω) = kJkL2 (Ω)∗ = 1.
Ein weiteres Beispiel für ein Fehlerfunktional ist der Mittelwert über die Richtungsableitung
der Lösung:
Z
J(φ) =
∂x φ dx,
⇒
|J(φ)| ≤
Z
Ω
Ω
|∂x φ| dx ≤
Z
Ω
|∇φ| dx ≤ c(Ω)k∇φkL2 (Ω)
∀φ ∈ H01 (Ω).
Dieses Funktional liegt in H −1 (Ω).
Die duale Gleichung ist durch die duale Bilinearform a∗ (z, φ) = a(φ, z) gegeben. Für symmetrische Probleme, wie die Poisson-Gleichung −∆u = f gilt
a∗ (z, φ) := a(φ, z) = (∇φ, ∇z) = (∇z, ∇φ) = a(z, φ),
d.h., das duale Problem hat die gleiche Form wie das ursprüngliche: −∆z = j.
74
3.4 A priori Fehleranalyse für Finite Elemente Verfahren
Ist die Gleichung nicht symmetrisch, so ändert sich das duale Problem. Wir betrachten die
Diffusions-Transport-Gleichung:
−∆u + ∂x u = f
⇒
a(u, φ) = (∇u, ∇φ) + (∂x u, φ).
Die duale Gleichung errechnet sich durch partielle Integration:
a∗ (z, φ) := a(φ, z) = (∇φ, ∇z) + (∂x φ, z) = (∇z, ∇φ) − (∂x z, φ) +
Z
nx · (φz) ds .
∂Ω
|
{z
=0
}
Hier ist a∗ (z, φ) 6= a(z, φ) und im dualen Problem dreht sich die Transportrichtung:
−∆z − ∂x z = j.
Wir kommen nun zu der zentralen Anwendung des Aubin-Nitsche-Tricks, einer Herleitung
für den L2 -Fehler der Galerkin-Approximation:
Satz 3.15 (A priori Fehlerabschätzung für den L2 -Fehler). Es gelten die Voraussetzungen
(m)
von Satz 3.13. Für die Finite Elemente Lösung u ∈ Vh vom Grad m gilt bei entsprechender
Regularität der Lösung u ∈ H m+1 (Ω) die L2 -Fehlerabschätzung:
ku − uh k ≤
M c2i c2s m+1
h
kf kH m−1 (Ω) .
γ
Beweis: Wir betrachten das duale Problem
z ∈ H01 (Ω) :
a(φ, z) = J(φ),
J(φ) := (eh , φ)keh k−1 .
Es gilt eh ∈ H01 (Ω), also beschreibt die rechte Seite J ein lineares beschränktes Funktional
L2 (Ω) → R, denn
|J(φ)| = |(φ, eh )| keh k−1 ≤ kφk ∀φ ∈ L2 (Ω).
Nach dem Riesz’schen Darstellungssatz existiert somit ein Repräsentant j ∈ L2 (Ω) mit:
(j, φ) = J(φ)
φ ∈ L2 (Ω)
⇒
kjk = 1.
Mit Satz 2.24 folgt also wegen den Voraussetzungen an das Gebiet für die duale Lösung
z ∈ H 2 (Ω) und:
kzkH 2 (Ω) ≤ cs kjkL2 (Ω) = cs .
Die Galerkin-Orthogonalität liefert jetzt
keh k = J(eh ) = a(eh , z) = a(eh , z − φh ) ≤ M k∇eh k k∇(z − φh )k
∀φh ∈ Vh .
(3.17)
Der erste Teil ist gerade der Energiefehler aus Satz 3.13. Der zweite Term wird mit der
Interpolation φh := Ih z und der Stabilität des dualen Problems weiter abgeschätzt:
keh k ≤ M
ci cs m
M c2i c2s m+1
h kf kH m−1 (Ω) ci hk∇2 zk ≤
h
kf kH m−1 (Ω) .
γ
γ
(3.18)
75
3 Die Finite Elemente Methode für elliptische Probleme
Das duale Problem wird hier nur als analytisches Hilfsmittel verwendet. Es muss nicht explizit
berechnet werden, wir benötigen lediglich eine Abschätzung für den Interpolationsfehler.
Später, bei der Betrachtung von a posteriori Fehlerschätzern werden wir duale Probleme als
Hilfsprobleme numerisch approximieren.
Die Abschätzung für den L2 -Fehler ist um eine Ordnung besser als die Energie-Abschätzung.
Man könnte auf die Idee kommen, in (3.18) bei der Abschätzung des dualen Interpolationsfehlers (bei Verwendung von z.B. quadratischen Finiten Elementen) eine höhere Approximationsordnung, etwa k∇(z − Ih z)k ≤ ch2 k∇3 zk zu nutzen. Dies würde die Gesamtordnung
des L2 -Fehlers verbessern. Für die rechte Seite des dualen Problems gilt:
j :=
u − uh
∈ H01 (Ω).
ku − uh k
Nach dem Regularitätssatz 2.25 folgt also falls das Gebiet hinreichend regulär ist z ∈ H 3 (Ω)
mit k∇z 3 k ≤ cs k∇jk. Die duale Lösung verfügt also über die entsprechende Regularität um
die volle Approximation mit quadratischen Finiten Elementen auszunutzen. Wir setzen in
Schritt (3.17) des Beweises zu Satz 3.15 ein und verwenden die Approximationseigenschaften
im Raum der quadratischen Finiten Elemente:
keh k ≤ M k∇eh k k∇(z − Ih z)k ≤
M cI cs 2
M c2I c2s 4
h kf kH 1 (Ω) cI h2 k∇3 zk ≤
h kf kH 1 (Ω) k∇jk.
γ
γ
Weiter, mit der Definition von j ergibt sich:
keh k ≤
M c2I c2s 4
k∇eh k
h kf kH 1 (Ω)
γ
keh k
⇒
keh k2 ≤
M 2 c3I c3s 6
h kf k2H 1 (Ω) .
γ2
Nach Wurzelziehen folgt Konvergenz dritter Ordnung für den L2 -Fehler, also erhalten wir
wieder nur eine Ordnung mehr als im Fall des Energiefehlers.
Es stellt sich die Frage nach der maximalen Ordnung, welche in beliebigen linearen Fehlerfunktionalen erreicht werden kann.
Beispiel 3.4. Wir betrachten die Poisson-Gleichung mit einer rechten Seite f :
u ∈ H01 (Ω) :
(∇u, ∇φ) = (f, φ)
∀φ ∈ H01 (Ω).
Die Daten seien hinreichend regulär kukH m+1 (Ω) ≤ cs kf kH m−1 (Ω) , so dass die EnergiefehlerAbschätzung gilt:
k∇(u − uh )k ≤ cI cs hm kf kH m−1 (Ω) .
Als Fehlerfunktional betrachten wir den Mittelwert der Lösung:
Z
J(φ) =
φ dx.
Ω
Die duale Lösung z ist gegeben durch:
z ∈ H01 (Ω) :
76
(∇z, ∇φ) = (φ, 1)
∀φ ∈ H01 (Ω).
3.4 A priori Fehleranalyse für Finite Elemente Verfahren
Die rechte Seite ist konstant 1 und erfüllt somit jede gewünschte Regularitätsstufe:
kzkH m+1 (Ω) ≤ cs k1kH m−1 (Ω) = cs c(Ω).
Für den Fehler im Mittelwert gilt durch Einschieben der Interpolation und der Energieabschätzung:
|J(eh )| = |(∇eh , ∇z)| ≤ k∇eh k k∇(z − Ih z)k ≤ cI cs hm kf kH m−1 (Ω) cI hm k∇m+1 zk.
Mit der Regularitätsabschätzung der dualen Lösung folgt die a priori Abschätzung für den
Mittelwert des Fehlers:
|J(eh )| ≤ ch2m kf kH m−1 (Ω) .
Es liegt hier also gerade die doppelte Konvergenzordnung im Vergleich zum Energiefehler vor.
L∞ -Fehlerabschätzungen Eine besondere Stellung nehmen L∞ -Fehlerabschätzungen ein.
Im Fall von Finiten Differenzen ist die Maximum-Norm die natürliche Norm zur Fehlerkontrolle. Bei der Finite Elemente Approximation erweist sich diese Norm jedoch als sehr
sperrig. Abschätzungen in der L∞ -Norm werden auch als punktweise Abschätzungen bezeichnet. Zunächst ist klar, dass um den Approximationsfehler in einem Punkt a ∈ Ω abschätzen
zu können die Regularität u ∈ H 2 (Ω) vorliegen muss. Ansonsten könnte die Beschränktheit
des Fehlers (u − uh )(a) nicht garantiert werden. Wir beweisen:
Satz 3.16 (Suboptimale L∞ -Abschätzung). Angenommen u ∈ H 2 (Ω), dann gilt für den
Fehler der linearen Finite Elemente Approximation punktweise:
max |eh | ≤ chk∇2 uk.
x∈Ω̄
Beweis: Wir betrachten den Punkt a ∈ Ω̄. Dann existiert ein T ∈ Ωh mit a ∈ T̄ . Für jede
diskrete Funktion vh ∈ Vh gilt:
max |vh | ≤ ch−1 kvh kT
(3.19)
T
Dies folgt durch Transformation auf das Referenz-Element, Ausnutzen der Äquivalenz der
Normen und Rücktransformation:
1
max |vh | = max |v̂h | ≤ ckv̂h kT̂ = c|T |− 2 kvh kT
T
T̂
Mit |T | = O(h2 ) (in zwei räumlichen Dimensionen) folgt (3.19). Mit der Interpolation Ih u
und der L∞ -Abschätzung maxT |u − Ih u| ≤ chk∇2 uk:
max |eh | ≤ max |u − Ih u| + max |Ih eh |
T
T
T
2
−1
≤ chk∇ ukT + ch
kIh eh k.
Mit der Stetigkeit der Knoteninterpolation kIh eh k ≤ cI keh k und der Fehlerabschätzung für
den L2 -Fehler folgt die Aussage des Satzes.
In der Anwendung zeigt sich, dass dieses Ergebnis nicht optimal ist. Für die meisten Probleme
wird quadratische Konvergenz beobachtet:
77
3 Die Finite Elemente Methode für elliptische Probleme
Satz 3.17 (Optimale L∞ -Fehlerabschätzung). Im Fall u ∈ H01 (Ω) ∩ C 2 (Ω̄) gilt die Abschätzung:
max |eh | ≤ ch2 | ln(h)| + 1 max |∇2 u|.
Ω
Ω
Beweis: Für den Beweis verweisen wir auf [Rannacher]. Schlüssel ist erneut ein Dualitätsargument. Um den Fehler in einem Punkt a ∈ Ω̄ zu schätzen wäre die geeignete rechte Seite
im dualen Problem:
(
sign(eh (a)) x = a
j(x) := δa (x) =
0
x 6= 0,
also eine (vorzeichenbehaftete) Dirac-Funktion. Das entsprechende Fehlerfunktional J(φ)
ist jedoch nicht regulär genug, es gilt J 6∈ H −1 (Ω). Stattdessen arbeitet man mit einer
regularisierten Dirac-Funktion zu einem Element a ∈ T∗ ∈ Ωh :
δah (x) =

 sign(eh )
x ∈ T∗
0
x 6∈ T∗ .
|T∗ |
Mit dieser Konstruktion gilt:
(∇eh , ∇g h ) =
1
T∗
Z
T∗
|eh | dx.
Für |T ∗ | → 0 ist dieser Ausdruck eine Approximation des punktweisen Fehlers. Die Schwierigkeit der Analyse besteht nun in einer Abschätzung der dualen Lösung g h . Eine Funktion
g, mit der Eigenschaft (∇g, ∇eh ) = eh (a) heißt Green’sche Funktion zum Punkt a. Die duale
Lösung g h ist eine regularisierte Green’sche Funktion. Für Details verweisen wir auf [Rannacher].
Der logarithmische Term in der Fehlerabschätzung ist keine Schwäche des Beweises. Auf
geeigneten Gittern ist dieser Term auch numerisch zu beobachten. Bei der Verwendung
von Finiten Elemente m-ter Ordnung mit m > 1 gilt hingegen unter der Voraussetzung
u ∈ C m (Ω̄):
sup |eh | ≤ chm sup |∇m u|.
Ω
Ω
Und für lineare Finite Elemente lässt sich der Fehler im Gradienten auch ohne den logarithmischen Term abschätzen:
sup |∇eh | ≤ ch sup |∇2 u|.
Ω
Ω
3.4.2 Approximation von krummen Rändern
Oft haben Gebiete Ω ⊂ Rd (d > 1) Ränder Γ := ∂Ω, welche nicht polygonal sind. Eine
Triangulierung Ωh kann diese Gebiete nicht exakt darstellen, es gilt, siehe Abbildung 3.6:
Ω 6= ∪T ∈Ωh T̄ .
Daher ist der diskrete Ansatzraum Vh auf einem anderen Gebiet definiert als der Raum
V := H01 (Ω). Eine Diskretisierung kann somit nicht konform sein und die Hilfsmittel zur
78
3.4 A priori Fehleranalyse für Finite Elemente Verfahren
Γ
Γh
Γ
Sh
Sh
Γh
T
T
Abbildung 3.6: Gebiet mit gekrümmten Rand.
Fehleranalyse stehen nicht zur Verfügung. Wir unterscheiden zwei Fälle, Gebiete mit konvexem Rand, in Abbildung 3.6 links und Gebiete mit konkavem Rand in der Abbildung
rechts.
Satz 3.18 (A priori Fehlerabschätzung (konvex)). Sei Ω ein Gebiet mit konvexem C 2 Rand und Ωh eine Triangulierung in Dreiecke. Für die Finite-Elemente Lösung der PoissonGleichung mit linearen Finiten Elementen gelten die a priori Fehlerabschätzungen:
ku − uh k ≤ (cI + cΩ )2 c2s h2 kf k,
k∇(u − uh )k ≤ (cI + cΩ )cs hkf k,
mit der Interpolationskonstante cI , der Stabilitätskonstante cs und einer Konstante cΩ welche
vom Gebiet Ω abhängt.
Beweis: (i) Da das Gebiet Ω konvex ist gilt Ωh ⊂ Ω. Wir definieren
Sh := Ω\Ωh .
Der Raum der diskreten Funktionen Vh wird nun modifiziert zu:
V̄h := {φ ∈ C(Ω̄) : φT ∈ P 1 , φS = 0}.
h
Wir setzen die stückweise linearen Funktionen also mit Null außerhalb von Ωh bis an den
Rand von Ω fort. Jetzt gilt V̄h ⊂ V = H01 (Ω) und es liegt ein konformer Finite Elemente
Ansatz vor.
(ii) Mit Galerkin-Orthogonalität:
k∇eh k2Ω = k∇(u − Ih u)k2Ω .
Auf jedem Element T ∈ Ωh kann die Interpolationsabschätzung angewendet werden, es bleibt
ein Integral über den Randstreifen Sh :
k∇eh k2Ω = k∇(u − Ih u)k2Ωh + k∇(u − Ih u)k2Sh ≤ c2I h2 k∇2 uk2Ωh + k∇uk2Sh ,
da Ih u = 0 auf Sh .
79
3 Die Finite Elemente Methode für elliptische Probleme
(iii) Der Rand Γ := ∂Ω ist lokal durch eine zweimal stetig differenzierbare Funktion gegeben.
In Abbildung 3.6 links sei nun ψ(s) die Parametrisierung der Randkurve Γ, wobei das Koordinatensystem so gedreht sei, dass die Kante Γh in der Achse liegt und von den Koordinaten
s0 und s1 beschränkt ist. Es gilt ψ ∈ C 2 ([s0 , s1 ]) und für eine Zwischenstelle ξ ∈ (s0 , s1 ):
ψ 0 (ξ) = 0.
ψ(s0 ) = ψ(s1 ) = 0,
Mit Taylor-Entwicklung folgt für eine beliebige Koordinate
Z r
ψ(r) =
Z rZ s
ψ 0 (s) ds =
s0
s0
ψ 00 (t) dt ds,
ξ
und also
|ψ(r)| ≤ max |ψ 00 (s)| |s1 − s0 |2 = O(h2T ).
s∈[s0 ,s1 ]
Folglich gilt maxs∈[s0 ,s1 ] |ψ(s)| = O(h2 ) und damit |Sh | ≤ cΩ h2 .
(iv) Wir benötigen nun eine Variante der Poincaré-Ungleichung für die Abschätzung des
Integrals über das Randstück Sh . Für eine Funktion v ∈ H 1 (Ω) gilt:
kvkSh ≤ c(Ω)hkvkH 1 (Ω) .
(3.20)
Wir führen den Beweis vereinfacht in einer Dimension, siehe Abbildung 3.7.
1
h2
x
y
Abbildung 3.7: Skizze zum Beweis.
Es sei x ∈ Sh und y ∈ Ω. Dann gilt:
v(x) = v(y) −
Z y
∂x v(s) ds,
x
und nach Quadrieren:
|v(x)|2 ≤ 2|v(y)|2 + 2|y − x|
Z y
|∂x v|2 ds.
x
Nun sei c(Ω) := max(2 maxx,y∈Ω |y − x|, 2) dann folgt weiter:
2
2
|v(x)| ≤ c(Ω) |v(y)| +
Z
|∂x v|2 ds .
Ω
Wir integrieren über x ∈ Sh und y ∈ Ω und erhalten mit |Sh | = O(h2 ):
kv(x)k2Sh dx ≤ c(Ω)h2 kvk2H 1 (Ω) .
80
3.5 Praktische Aspekte der Finite Elemente Methode
Angewendet auf v := ∇u folgt die Abschätzung des Energiefehlers.
(v) Für die Abschätzung des L2 -Fehlers wird wieder der Aubin-Nitsche Trick mit einem
dualen Problem angewendet:
(∇φ, ∇z)Ω = (u − uh , φ)Ω ku − uh k−1
Ω .
Es gilt:
o
n
keh kΩ = (∇eh , ∇(z − Ih z))Ω ≤ 2k∇eh k k∇(z − Ih z)kΩh + k∇zkSh .
Das Ergebnis folgt nun mit der Energiefehlerabschätzung und wieder mit (3.20).
3.5 Praktische Aspekte der Finite Elemente Methode
Die wesentlichen Schritte beim Lösen einer partiellen Differentialgleichung mit der Finite
Elemente Methode sind:
1. Wahl eines Finite Elemente Gitters Ωh
(i)
2. Wahl einer Finite Elemente Basis {φh , i = 1, . . . , N }
3. Aufstellen der rechten Seite
bh = (bi )N
i=1 ,
(i)
bi = (f, φh )Ω
4. Aufstellen der Systemmatrix
Ah = (Aij )N
i,j=1 ,
(j)
(i)
Aij = a(φh , φh )
5. Lösen des linearen Gleichungssystems
A h uh = bh .
Schritte 3. und 4. bestehen im Wesentlichen aus Integration von Testfunktionen, der rechten
Seite und eventuell von weiteren Daten. Zum automatischen Aufbauen von rechter Seite und
Matrix muss diese Integration durch numerische Approximation erfolgen. Hierdurch werden
zusätzliche numerische Fehler in das diskrete Problem eingeführt. Im Folgenden werden wir
den Einfluss der numerischen Integration auf das Gesamtverfahren genauer untersuchen.
81
3 Die Finite Elemente Methode für elliptische Probleme
3.5.1 Numerischer Aufbau der Gleichungen
Das Finite Elemente Verfahren ist durch die lokale Vorgabe einer Basis gegeben. Für jede
(i)
(i)
Basisfunktion φh gilt, dass supp(φh ) ∩ T 6= ∅ nur für sehr wenige Elemente des Gitters gilt.
Auf jedem Element ist jede Basisfunktion ein Polynom und daher sehr effizient zu integrieren.
Der Aufbau von rechter Seite und Systemmatrix bei der Finite Elemente Methode wird Assemblierung genannt und nutzt diese lokale Definition durch geeignetes Sortieren der Terme.
Es gilt:
Z
Z
Z
(i)
bi =
Ω
f φh dx =
X
T ∈Ωh T
(i)
(i)
X
f φh dx =
(i)
T ∩supp(φh )6=∅
T
f φh dx
Zur Integration der Vektorkomponente bi muss also über all diejenigen Elemente T ∈ Ωh
(i)
integriert werden, welche den Träger von φh schneiden. Bei der praktischen Realisierung
von Finite Elemente Methoden ist es meist (aufgrund der verwendeten Datenstrukturen)
schwierig zu einer Basisfunktion alle Elemente zu finden, in denen die Basisfunktion definiert ist. Da hingegen die Basisfunktionen lokal durch Vorgabe von Knotenfunktionalen auf
jedem Element definiert sind, besteht für jedes Element T ∈ Ωh unmittelbar Zugriff auf alle
(i)
Basisfunktionen φh welche auf T definiert sind.
Die Integration von rechter Seite und Matrix ist deshalb lokal aufgebaut: auf jeder Zelle
T ∈ Ωh werden die Integrale über alle auf T definierten Basisfunktionen berechnet und lokal
gespeichert:
(T,j)
bT,j = (f, φh
j = 1, . . . , NT ,
)T
(T,j)
AT,ij = a(φh
(T,i)
, φh
)T
i, j = 1, . . . , NT ,
wobei NT die lokale Anzahl Basisfunktionen ist, also die Dimension des zugrundeliegenden
Polynomraums P (T ). Bei linearen Finiten Elementen auf Dreiecken ist NT = 3. In einem ersten Schritt werden also sogenannte Element-Steifigkeits-Matrizen und Element-Lastvektoren
gebildet. Im Anschluss wird die globale Systemmatrix Ah und der Lastvektor bh aus den
lokalen Beiträgen zusammengesetzt:
Aij =
NT
X X
AT,i(k)j(l) ,
bi =
T ∈Ωh k,l=1
NT
X X
bT,i(k) .
T ∈Ωh k=1
Dieses Vorgehen hat den Vorteil, dass die Integration stets nur auf einzelnen Elementen des
Gitters erfolgt. Hier sind die Basisfunktionen Polynome (oder im Fall von parametrischen
Finiten Elementen rationale Funktionen) und also auf jedem Element beliebig regulär. Dies
ist wichtig für die Verwendung von numerischen Quadraturregeln.
Bei parametrischen Finite Elemente Ansätzen erfolgt die Integration der lokalen ElementMatrizen und Element-Lastvektoren durch Transformation auf ein Referenzelement T̂ . Mit
der Transformation TT : T̂ → T gilt für die rechte Seite:
Z
bT,j =
T
(T,j)
f (x)φh (x) dx
Z
=
T̂
(T,j)
det(TT (x̂))fˆ(x̂)φ̂h (x̂) dx̂,
und für die Matrix (im Fall der Poisson-Gleichung):
Z
AT,ij =
T
82
(j)
(i)
∇φh (x)∇φh (x) dx =
Z
T̂
(j)
(i)
ˆ φ̂ · B −T ∇
ˆ φ̂ dx̂.
det(TT (x̂))BT−T ∇
T
h
h
3.5 Praktische Aspekte der Finite Elemente Methode
Diese Integrale auf der Referenzzelle T̂ werden mit Hilfe einer numerischen Quadraturformel
berechnet. Wir betrachten im Folgenden also das Problem, eine gegebene Funktion v̂ auf einer
Zelle T̂ zu integrieren, bzw. das Integral mit hinreichender Genauigkeit zu approximieren.
Hierzu werden interpolatorische Quadraturformeln verwendet, welche die Funktion v̂ mit
einem Polynom p̂ ∈ PT̂ mit dim(PT̂ ) = S interpolieren und das Integral über v̂ durch das
Integral über p̂ approximieren:
Z
Z
v̂ dx̂ =
T̂
T̂
p̂ dx̂ + RT̂ ,
mit einem Restglied RT̂ . Ist durch L̂k (x̂), k = 1, . . . , S eine Basis des Polynomraums PT̂
gegeben, so schreibt sich die Quadraturformel einfach durch:
S
X
QT̂ (v̂) =
Z
ω̂k v̂(x̂k ),
ω̂k =
T̂
k=1
L̂k (x̂) dx̂,
mit Gewichten ω̂k und Stützstellen x̂k ∈ T̂ .
Definition 3.10 (Quadratur). Eine interpolatorische Quadraturformel Qh auf der Referenzzelle T̂ heißt von Ordnung r, wenn sie Polynome bis zum Grad r − 1 exakt integriert.
Sie heißt zulässig für den Polynomansatz P (T̂ ), falls die Stützstellenmenge reichhaltig genug
ist, so dass:
q ∈ P (T̂ ) :
∇q(xk ) = 0 (k = 1, . . . , S)
⇒
q ≡ konstant.
Eine Quadraturformel QT̂ auf der Referenzzelle kann nun zur Integration einer beliebigen
Funktion v auf T verwendet werden. Mit der Schreibweise v̂(x̂) = v(x) und x = TT x̂ gilt:
QT (v) :=
S
X
ωk v(xk ) =
k=1
S
X
k=1
det(BT (xk ))ω̂k v̂(x̂k ).
|
{z
(3.21)
}
=:ωk
Für den Fehler einer Quadraturformel einer gegebenen Ordnung r auf einer Zelle T ∈ Ωh
gilt:
Satz 3.19 (Quadraturfehler). Für eine interpolatorische Quadraturformel QT der Ordnung
r ≥ d auf einer Zelle T ∈ Ωh angewendet auf eine Funktion v ∈ W r,1 (T ) gilt:
Z
Z
v dx − QT (v) ≤ cT hr
|∇r v| dx,
T
T
T
mit einer Konstante cT welche von T abhängt.
Beweis: Mit TT : T̂ → T und x = TT x̂ verwenden wir wieder die Schreibweise v̂(x̂) = v(x).
Auf der Referenzzelle definieren wir ein Fehlerfunktional:
Z
F (v̂) := T̂
v̂(x̂) dx̂ − QT̂ (v̂) .
83
3 Die Finite Elemente Methode für elliptische Probleme
Dieses Funktional ist wohldefiniert, wenn die Auswertung von Punktwerten v̂(x̂k ) erlaubt
ist. Der Einbettungssatz fordert hierfür:
r−
d
≥0
1
⇔
r ≥ d.
Es gilt somit:
|F (v̂)| ≤ ckvkW r,1 (T̂ ) .
Weiter ist F sublinear |F (v̂ + ŵ)| ≤ c(|F (v̂)|+|F (ŵ)|) und es verschwindet auf dem Polynomraum P r−1 , denn r ist gerade die Ordnung der Quadraturregel. Wir können das BrambleHilbert Lemma anwenden und erhalten:
ˆ r v̂k 1 .
|F (v̂)| ≤ ck∇
L (T̂ )
Wir haben hier eine Variante des Bramble-Hilbert-Lemmas für die L1 -Norm verwendet.
Dieses Fehlerfunktional wird auf die Zelle T transformiert. Hierzu nehmen wir an, dass die
Transformation affin linear ist. Es gilt (vergleiche den Beweis zur speziellen Interpolationsabschätzung, Satz 3.8) :
Z
v(x) dx − QT (v) = | det BT | |F (v̂)|,
T
sowie
−1 r
r
ˆ r v̂k 1
k∇
L (T̂ ) ≤ c| det BT | hT k∇ vkL1 (T ) .
Kombination beider Transformationen ergibt die Behauptung.
Die Konstruktion von Quadraturformeln auf allgemeinen Elementen, also Dreiecken, Vierecken, Tetraeder, usw. ist weitaus komplizierter als im eindimensionalen Fall. Der Fall von
Vierecks-, sowie Hexaedergittern ist einfach, da hier ein Tensorprodukt-Ansatz möglich ist.
Es sei T̂ = (0, 1)d das Referenzelement und Iˆ = (0, 1) das Einheitsintervall. Auf Iˆ sei eine
interpolatorische Quadraturregel QIˆ einer gegebenen Ordnung r gegeben:
QIˆ(v̂) =
S
X
ω̂k v̂(x̂k ).
k=1
Auf Intervallen stehen zum Beispiel die sehr effizienten Gauß’schen Quadraturregeln zur
Verfügung. Diese Regeln haben bei Verwendung von S Stützstellen die Ordnung r = 2S.
Für die Einheitszelle gilt T̂ = Iˆd und wir definieren die Quadraturregel
QT̂ (v̂) =
S
X
k1 =1
···
S
X
ω̂k1 · · · ω̂kd v̂(x̂1k1 , . . . , x̂dkd ),
kd =1
mit S d Punkten und Gewichten. Ist die ursprüngliche Quadraturformel QIˆ von Ordnung r,
so ist die Tensorprodukt-Formel QT̂ auch von Ordnung r und integriert alle Polynome aus
dem Raum Qr−1 exakt
Qr−1 := {xα1 1 · · · xαd d , 0 ≤ α1 , . . . , αd ≤ r − 1}.
84
3.5 Praktische Aspekte der Finite Elemente Methode
Auf allgemeinen Elementen (also etwa Dreiecken) ist diese Konstruktion nicht möglich. Einfache Quadraturformeln auf Dreiecken sind z.B. die Mittelpunktsregel
QT (v) = |T |v(s),
s Schwerpunkt von T,
von Ordnung 1 oder die Trapezregel:
QT (v) = |T |
3
X
1
k=1
3
v(xi ),
xi Eckpunkt vonT,
von Ordnung 2.
Durch die Verwendung von numerischer Quadratur werden Steifigkeitsmatrix und Lastvektor
nicht exakt berechnet. Anstelle von
uh ∈ Vh :
a(uh , φh ) = l(φh ) ∀φh ∈ Vh ,
wird das Problem:
ũh ∈ Vh :
ah (ũh , φh ) = lh (φh )
∀φh ∈ Vh ,
gelöst. Hierdurch wird ein zusätzlicher Fehler eingeführt. Ohne Beweis:
Satz 3.20 (Fehler durch numerische Integration). Die Quadraturformel QT̂ sei zulässig und
von Ordnung r ≥ d. Die gestörte Finite Elemente Lösung ũh ∈ Vh der Poisson Gleichung
ist eindeutig bestimmt und für die Finite Elemente Approximation mit Polynomräumen vom
Grad m − 1 gelten die Fehlerabschätzungen:
ku − ũh k ≤ chmin{m,r+3−m} kukH m (Ω) ,
k∇(u − ũh )k ≤ chmin{m−1,r+2−m} kukH m (Ω) .
Bemerkung 3.4. Um die maximal mögliche Ordnung des Finite Elemente Verfahrens zu
erhalten muss eine Quadraturformel der Ordnung
r+3−m≥m
⇔
r ≥ 2m − 3
gewählt werden. Bei linearen Finiten Elementen ist eine Quadraturformel mit Ordnung r = 1
ausreichend, bei quadratischen Finiten Elementen genügt r ≥ 3, d.h. quadratische Polynome
müssen exakt integriert werden.
3.5.2 Eigenschaften der Systemmatrix
In die Lösung der linearen Gleichungssysteme
Ah uh = bh ,
fließt oft der größte Teil des numerischen Aufwands. Die Steifigkeitsmatrix Ah ∈ RN ×N ist
sehr groß, oft gilt N 1 000 000, dafür aber nach Konstruktion der Finite Elemente Basis
dünn besetzt mit je nach Ansatzgrad und Dimension zwischen 5 und über 100 Einträgen pro
Zeile. Üblicherweise, insbesondere bei Verwendung von allgemeinen Gittern, hat die Matrix
keine Bandstruktur sondern die Struktur ändert sich von Zeile zu Zeile.
Durch numerische Quadratur treten zwangsläufig Rundungsfehler auf. Beim Lösen des linearen Gleichungssystems werden diese Fehler verstärkt. Es gilt der:
85
3 Die Finite Elemente Methode für elliptische Probleme
Satz 3.21 (Störungssatz). Es seien δAh und δbh Störungen der Systemmatrix und der
rechten Seite mit
kδAh k
µ := cond2 (Ah )
< 1.
kAh k
Dann gilt die Fehlerabschätzung für die gestörte Lösung ũh = uh + δuh :
kδuh k
cond2 (Ah )
≤
kuh k
1−µ
kδAh k kδbh k
.
+
kAh k
kbh k
Die bestimmende Größe für die Fehlerfortpflanzung ist also die Konditionszahl der Matrix.
Wir beweisen:
Satz 3.22 (Konditionierung der Steifigkeitsmatrix). Auf einer Folge von regulären Gittern
Ωh gelten für die Konditionszahlen der Steifigkeitsmatrix Ah (der Poisson-Gleichung) sowie
für die Massenmatrix Mh :
cond2 (Ah ) = O(h−2 ),
cond2 (Mh ) = O(1).
Beweis: (i) Beide Matrizen sind positiv definit. Die Spektralkondition ist also gegeben
durch:
λmax (Mh )
λmax (Ah )
, cond2 (Mh ) =
.
cond2 (Ah ) =
λmin (Ah )
λmin (Mh )
Für die Eigenwerte einer positiv definiten Matrix A gilt
λmin (A) = min
v∈RN
hAv, vi
hAv, vi
≤ max
= λmax (A).
N
|v|2
|v|2
v∈R
(ii) Wir bestimmen zunächst die Konditionszahl der Massenmatrix. Mit den Element- Massenmatrizen MT und der elementweisen Einschränkung vT = v|T gilt für einen Vektor
vh ∈ Vh mit Koeffizienten v:
hMh v, vi =
X hMT vT , vT i
T ∈Ωh
|vT |2
≥
|vT |2
min
T ∈Ωh , v∈RN
hMT vT , vT i X
|vT |2 ≥ min {λmin (MT )}|v|2 ,
T ∈Ωh
|vT |2
T ∈Ω
h
Entsprechend gilt für den maximalen Eigenwert:
hMh v, vi ≤
max
T ∈Ωh
,v∈RN
hMT vT , vT i X
|vT |2 ≤ min {λmax (MT )}dmax |v|2 ,
T ∈Ωh
|vT |2
T ∈Ω
h
wobei dmax die maximale Zahl Zellen ist, die sich in einem Knoten treffen. (Diese Konstante
ist auf formregulären Gittern gleichmäßig in h > 0 beschränkt).
Für die Einträge der Massenmatrix gilt bei Transformation auf das Referenzelement:
mij = | det BT | m̂ij ,
86
3.5 Praktische Aspekte der Finite Elemente Methode
und es gilt also mit | det BT | = O(hdT ) für die Eigenwerte von MT :
λmax (MT ) = | det BT |λmax (MT̂ ) ≤ chdT ,
λmin (MT ) = | det BT |λmin (MT̂ ) ≥ chdT .
Die Matrix MT̂ ist fest, die Eigenwerte können durch Konstanten abgeschätzt werden. Es
folgt:
λmin (Mh ) ≥ chd , λmax (Mh ) ≤ chd ⇒ cond2 (Mh ) = O(1).
(iii) Die Eigenwerte der Steifigkeitsmatrix Ah wollen wir auf die Eigenwerte der Massenmatrix Mh zurückführen. Es gilt:
hAh v, vi
hMh v, vi
= min
min
vh ∈Vh
|v|2
v∈RN hMh v, vi v∈RN
hAh v, vi
hMh v, vi
λmax (Ah ) ≤ max
= max
max
N
N
vh ∈Vh
|v|2
v∈R hMh v, vi v∈R
λmin (Ah ) ≥ min
a(vh , vh )
λmin (Mh ),
kvh k2
a(vh , vh )
λmax (Mh ).
kvh k2
Weiter gilt wegen Vh ⊂ V := H01 (Ω):
min
vh ∈Vh
a(vh , vh )
a(v, v)
≥ inf
=: λmin (∆),
2
1
kvh k
v∈H0 (Ω) kvk2
mit dem kleinsten Eigenwert des Laplace-Operators auf Ω. Mit der inversen Beziehung,
Satz 3.10 gilt ferner:
a(vh , vh ) ≤
X
T ∈Ωh
k∇vh k2T ≤ c
X
T ∈Ωh
−2
2
2
h−2
T kvh kT ≤ c max hT kvh k ,
T ∈Ωh
Insgesamt gilt also:
λmin (∆)λmin (Mh ) ≤ λmin (Ah ) ≤ λmax (Ah ) ≤ c max h−2
T λmax (Mh ).
T ∈Ωh
Mit λmin (∆) = c0 > 0 und den Eigenwerten der Massenmatrix folgt die Behauptung.
87
3 Die Finite Elemente Methode für elliptische Probleme
3.6 A posteriori Fehlerschätzung und adaptive Finite Elemente
In diesem Abschnitt befassen wir uns mit der a posteriori Fehlerschätzung. Hier geht es zum
einen um die Frage, eine berechenbare Schranke ηh ∈ R für den Fehler der Finite Elemente
Approximation angeben zu können:
|J(u − uh )| ≤ ηh (Ωh , uh , f ),
also eine Größe ηh , welche bei Kenntnis des Gitters, der Lösung und der Problemdaten
berechenbar ist. J soll hier ein beliebiges Fehlerfunktional sein. Im Gegensatz zu a priori
Fehlerabschätzungen muss auf unbekannte Konstanten soweit wie möglich verzichtet werden, d.h., zur Berechnung des Schätzers ηh dürfen nur das Gitter Ωh , die Daten f sowie
die berechnete diskrete Lösung uh eingehen, nicht aber etwa die Lösung u ∈ H01 (Ω) oder
Konstanten welche nicht berechnet werden können (wie die Konstante des Spurlemmas, der
Interpolation, oder die Poincaré Konstante).
Der zweite Aspekt in diesem Kapitel ist die Berechnung von Fehlerindikatoren {ηT }T ∈Ωh . Das
sind verteilte Größen, welche den lokalen Fehleranteil angeben. Lokal kann hier bedeuten,
dass etwa ηT den Fehlerbeitrag der Gitterzelle T ∈ Ωh angibt, oder ηi den Fehlerbeitrag des
Einzugbereichs einer Finite Elemente Basisfunktion. Solche lokalen Fehlerindikatoren sind
Grundlage von adaptiven Verfahren nach dem folgenden Muster:
1. Berechne diskrete Lösung uh ∈ Vh
2. Schätze den Fehler ηh . Falls ηh < T OL einer vorgegebenen Fehlertoleranz, Abbruch.
{ηT }
3. Erstelle lokale Fehlerindikatoren {ηT }T ∈Ωh und verfeinere das Gitter Ωh −−−→ Ω0h .
Weiter bei 1 mit Vh0 auf Ω0h .
Wir betrachten in diesem Abschnitt exemplarisch die Poisson-Gleichung:
u ∈ V := H01 (Ω)
uh ∈ Vh ⊂ V
(∇u, ∇φ) = (f, φ)
∀φ ∈ V,
(∇uh , ∇φh ) = (f, φh ) ∀φh ∈ Vh .
(3.22)
(3.23)
3.6.1 Residuenbasierte Fehlerschätzer
Bei der Berechnung von a posteriori Fehlerschätzern darf die unbekannte Lösung u ∈ V
nicht eingehen. Ein zentraler Begriff ist das Residuum:
Definition 3.11 (Residuum). Das Residuum der Gleichung (3.22) an der Stelle uh ∈ Vh
ist ein Funktional Rh : V → R:
Rh (uh )(φ) = (f, φ) − (∇uh , ∇φ)
∀φ ∈ V.
Das Residuum steht im engen Zusammenhang zum Fehler eh := u − uh der Finite Elemente
Approximation:
88
3.6 A posteriori Fehlerschätzung und adaptive Finite Elemente
Satz 3.23 (Residuum). Das Residuum Rh (·) ist ein stetiges lineares Funktional auf V . Ist
uh ∈ Vh Lösung von (3.23) und u ∈ V Lösung von (3.22) so gilt:
∀φh ∈ Vh
(3.24)
k∇(u − uh )kL2 (Ω) = kRh (uh )k−1 ,
(3.25)
Rh (uh )(φh ) = 0
mit der Dualnorm
kRh (uh )k−1 := sup
φ∈V
Rh (uh )(φ)
.
k∇φk
Beweis: (i) Wir zeigen zunächst, dass das Residuum ein stetiges lineares Funktional ist. Es
gilt:
|Rh (uh )(φ)| = |(f, φ) − (∇uh , ∇φ)| ≤ kf k kφk + k∇uh k k∇φk ≤ (cp kf k + k∇uh k)k∇φk,
mit der Poincare-Konstante cp . Für uh ∈ Vh fest gilt also Rh (uh ) ∈ V ∗ .
(ii) Für die diskrete Lösung uh ∈ Vh gilt:
Rh (uh )(φh ) = (f, φh ) − (∇uh , ∇φh ) = 0 ∀φh ∈ Vh .
Gleichung (3.24) folgt also unmittelbar aus der Definition des Residuums und der diskreten
Lösung uh .
(iii) Für die Lösungen u ∈ V und uh ∈ Vh ⊂ V gilt:
Rh (uh )(φ) = (f, φ) − (∇uh , ∇φ) = (∇u − ∇uh , φ) = (∇eh , ∇φ).
(3.26)
Das heißt, für die Dualnorm des Residuums folgt:
kRh (uh )k−1 = sup
φ∈V
(∇eh , ∇φ)
k∇eh k k∇φk
≤ sup
= k∇eh k.
k∇φk
k∇φk
φ∈V
Umgekehrt gilt mit (3.26):
k∇eh k2 = Rh (uh )(eh ) =
Rh (uh )(eh )
k∇eh k ≤ k∇eh k kRh (uh )k−1 .
k∇eh k
Die letzten beiden Ungleichungen ergeben (3.25).
Die Dualnorm des Residuums ist also eng mit der Energienorm des Fehlers verwandt. Ist
uh ∈ Vh bekannt, so kann für jede gegebene Größe φ ∈ V auch das Residuum berechnet
werden. Es ist im Allgemeinen jedoch nicht möglich die Dualnorm kRh (uh )k−1 zu berechnen.
Wir benötigen Abschätzungen für diese Dualnorm. Zunächst definieren wir als Hilfsgrößen:
Definition 3.12 (Kantensprung). Sei uh ∈ Vh und E ∈ Ωh die Kante einer Zelle T ∈ Ωh .
Wir definieren den Kantensprung über die Normalableitung:
(
[nE · ∇uh ] :=
nT1 · ∇uh T1 + nT2 · ∇uh T2
E ⊂ T̄1 ∩ T̄2 ,
0
E ⊂ ∂Ω,
T1 6= T2
wobei nTi die bzgl. Ti nach außen gerichteten Normalvektoren sind. Da nT1 = −nT2 gilt folgt:
|[nE · ∇uh ]| = |nE · (∇uh T1 − ∇uh T2 )|,
bei beliebiger Wahl von nE = nTi .
89
3 Die Finite Elemente Methode für elliptische Probleme
Satz 3.24 (Residuenbasierter a posteriori Fehlerschätzer für den Energiefehler). Es sei u ∈
V Lösung von (3.22) sowie uh ∈ Vh die lineare Finite Elemente Approximation gemäß (3.23).
Dann gilt für den Fehler eh := u − uh
1

k∇eh k ≤ cηh ,
ηh := 
2
X
X
(ρ2T +
T ∈Ωh
ρ2E ) ,
E∈∂T
mit den Zellresiduen ρT und den Kantenresiduen ρE :
1 1
ρE := hE2 k[nE · ∇uh ]kL2 (E) .
2
ρT := hT kf kL2 (T ) ,
Beweis: Es gilt mit Satz 3.23 für die diskrete Lösung uh :
k∇eh kL2 (Ω) = kRh (uh )k−1 .
Nun seien φ ∈ V sowie φh ∈ Vh beliebig. Dann gilt mit (3.24)
Rh (uh )(φ) = Rh (uh )(φ − φh ) = (f, φ − φh ) − (∇uh , ∇(φ − φh ))
=
X Z
T
T ∈Ωh
=
X Z
T
T ∈Ωh
f (φ − φh ) dx −
Z
∇uh · ∇(φ − φh ) dx
T
(f + ∆uh )(φ − φh ) dx −
Z
∂T

X Z
X 1Z
 f (φ − φh ) dx
=
T
T ∈Ωh
E∈∂T
2
(nT · ∇uh )(φ − φh ) ds

[nE · ∇uh ](φ − φh ) ds .
∂T
Es gilt ∆uh T = 0 wegen der Linearität der Lösung uh .
An dieser Stelle schätzen wir mit Cauchy-Schwarz weiter ab:

|Rh (uh )(φ)| ≤
X
X 1
kf kL2 (T ) kφ − φh kL2 (T ) +
T ∈Ωh
E∈∂T
2

k[nE · ∇uh ]kL2 (E) kφ − φh kL2 (E) 
Wir wollen aus den Termen φ − φh positive Potenzen in der Gitterweite h gewinnen. Die
Funktion φ nimmt Werte aus V := H01 (Ω) an, verfügt im Allgemeinen jedoch nicht über
höhere Regularität. Wir dürfen daher nicht mit dem Ansatz φh := Ih φ, also der Wahl von
φh als der Knoteninterpolation von φ weiter rechnen. Denn diese Knoteninterpolation ist
im H01 (Ω) nicht definiert. Stattdessen wählen wir mit φh := Ch φ die H 1 -stabile ClementInterpolation aus Satz 3.11 und erhalten:

|Rh (uh )(φ)| ≤
X
cI hT kf kT k∇φk +
P̃T
T ∈Ωh
E∈∂T
cI hT k[nE · ∇uh ]kk∇φkP̃E 
1
2
X
ρ2T
+
T ∈Ωh
X
2
ρE
≤ cT cI 
2
X
 
T ∈Ωh
E∈∂T
k∇φk2P̃
T
1

2
X
T ∈Ωh
90
2

1
2
1 

≤ cI 
X 1
ρ2T
+
X
E∈∂T
ρ2E 
k∇φkΩ .
+
X
E∈Ωh
k∇φk2P̃ 
E
3.6 A posteriori Fehlerschätzung und adaptive Finite Elemente
Die Konstante cT beschreibt den Überlappungsgrad der Patche P̃T sowie P̃E . Aus der Formregularität des Gitters folgt, dass cT unabhängig von h eine kleine Konstante ist. Aus Satz 3.23
und der Definition der Dualnorm folgt die Behauptung.
Um den vorgestellten Energiefehlerschätzer auswerten zu können muss die rechte Seite f
vorliegen. Darüber hinaus müssen die Kantensprünge berechnet werden. Die Zellresiduen
ρT := kf + ∆uh kT (mit ∆uh = 0 auf jedem T ) messen das Residuum der klassischen
Formulierung der Poisson-Gleichung −∆u = f . Die Kantensprünge messen die Glattheit der
diskreten Lösung. Für u ∈ C 1 (Ω), also für stetige Differenzierbarkeit über die Elementkanten
hinaus gilt ρE (u) = 0.
Als Unbekannte gehen in den Fehlerschätzer die Konstante der Clement-Interpolation cI
sowie die Konstante cT ein. Die Konstante cT kann für ein gegebenes Gitter berechnet
werden. Sie misst lediglich den Überlappungsgrad der Patche PE . Die Konstante der ClementInterpolation kann nur in Spezialfällen bestimmt werden. Üblicherweise muss eine Schätzung
cI ≈ 0.1 − 1 vorgenommen werden.
Der Fehlerschätzer eignet sich nun für eine Schätzung des Energiefehlers, es gilt:
k∇eh k ≤ cI ηh (Ωh , uh , f ).
Weiter können wir einfach zellweise Fehlerindikatoren definieren
1

2
1 X
ηT := (ρ2T +
ρ2E ) = h2T kfT k2T +
hE k[nE · ∇uh ]k2E  ,
2
E∈∂T
E∈∂T
1
2
X
(3.27)
und diese zur Verfeinerung des Gitters verwenden. Algorithmen zur Verfeinerung des Gitters
werden in einem folgenden Abschnitt vorgestellt. Idee ist, solche Elemente T in kleinere
Elemente aufzuteilen, welche einen großen Fehlerbeitrag ηT haben.
Wir haben bisher eine Abschätzung k∇eh k ≤ cηh , also eine obere Schranke für den Fehler
bewiesen. Diese Abschätzung ist wichtig, um die Genauigkeit der Lösung zu garantieren.
Soll der Fehlerschätzer jedoch zur Verfeinerung des Gitters verwendet werden, so muss er in
gewissem Sinne “scharf” sein. D.h., wir benötigen ferner eine umgekehrte Abschätzung der
Art:
c1 ηh ≤ k∇eh k ≤ c2 ηh .
Ein Fehlerschätzer mit dieser Eigenschaft wird effizient genannt. Wenn diese Abschätzung
nicht gilt, so ist es möglich, dass die lokale Gitterverfeinerung ineffizient verfeinert, dass also
Bereiche verfeinert werden, welche keinen wesentlichen Fehlerbeitrag haben.
Wir benötigen als Hilfsatz eine spezielle Spurabschätzung:
Hilfsatz 3.6. Auf jedem Element T ∈ Ωh gilt
1
1
k∂n vkL2 (∂T ) ≤ c h 2 k∆vkL2 (T ) + h− 2 k∇vkL2 (Ω)
∀v ∈ H 2 (T ).
91
3 Die Finite Elemente Methode für elliptische Probleme
Beweis: (i) Zunächst sei T̂ ein Referenzelement. Hier gilt mit der Spurabschätzung:
k∂n v̂k∂ T̂ ≤ ckv̂kH 2 (T̂ ) .
Die elliptische Regularität besagt:
ˆ
k∂n v̂k∂ T̂ ≤ cs k∆v̂k
T̂ + kv̂kT̂
(ii) Es sei v̄ ∈ R der Mittelwert von v̂ auf T̂ . Dann gilt mit der Poincaré Ungleichung:
ˆ
ˆ − v̄)k + kv̂ − v̄k ≤ c k∆v̂k
ˆ
k∂n v̂k∂ T̂ = k∂n (v̂ − v̄)k∂ T̂ ≤ c k∆(v̂
T̂ + cp k∇v̂kT̂ .
T̂
T̂
(iii) Jetzt sei TT (x̂) = BT x̂ + bT die affin lineare Referenztransformation. Es gilt mit
det(∇TT ) = O(h2 ), det(∇TT ∂T ) = O(h) sowie kBT k∞ = O(h):
ˆ 2 + k∇v̂k
ˆ 2)
k∂n vk2L2 (∂T ) = ch h−2 k∂ˆn v̂k2L2 (∂ T̂ ) ≤ ch−1 (k∆v̂k
T̂
T̂
= ch−1 (h−2 h4 k∆vk2T + h−2 h2 k∇vkT )
= c(hk∆vk2T + h−1 kvk2T ).
Jetzt beweisen wir:
Satz 3.25 (Effizienz des Energiefehlerschätzers). Seien u ∈ V und uh ∈ Vh Lösungen der
Poisson-Gleichung. Auf einer Folge von formregulären Triangulierungen Ωh ist der Energiefehlerschätzer asymptotisch exakt:
ηh ≤ ck∇eh k + chkf k.
Beweis: Es ist:
ηh2 =
X h2T kf k2T + hT k[∂n uh ]k2∂T .
T ∈Ωh
Für die Lösung u ∈ H 2 (Ω) gilt auf jeder Kante [∂n u]E = 0. Also mit Hilfsatz 3.6
k[∂n uh ]k2∂T = k[∂n eh ]k2∂T ≤ 2k[∂n eh ]k2∂T ≤ c(hk∆eh k2T + h−1 k∇eh k2T )
Es ist k∆eh kT = kf + ∆uh kT = kf kT . Also:
ηh2 ≤ c
X h2T kf k2T + h2T kf k2T + k∇eh k2T = ck∇eh k2 + ch2 kf kL2 (Ω) .
T ∈Ωh
Weiter kann bewiesen werden, dass bei der Verwendung von linearen Finiten Elementen die
Sprungterme in den Fehlerindikatoren überwiegen, dass also gilt:
92
3.6 A posteriori Fehlerschätzung und adaptive Finite Elemente
Satz 3.26 (Dominanz der Sprünge). Für den Fehler der linearen Finite Elemente Approximation gilt für rechte Seiten f ∈ H 1 (Ω)
1

k∇eh k ≤ c 
hE k[nE ·
∇uh ]k2L2 (E) 
1

2
X
2
X
+
h4i k∇f k2L2 (Pi ) 
.
xi ∈Ωh
E∈Ωh
Der zweite Term konvergiert mit zweiter Ordnung in Bezug auf die Zellweite h, ist also
asymptotisch zu vernachlässigen. Erstaunlicherweise dreht sich die Dominanz der lokalen
Fehlerbeiträge stets um. Bei quadratischen Finiten Elementen überwiegen die Zellbeiträge.
Es stellt sich im folgenden wieder die Frage nach der Schätzung des Fehlers in anderen
Fehlerfunktionalen, etwa in der L2 -Norm. Dies erfordert wieder den Aubin-Nitsche-Trick:
Satz 3.27 (A posteriori Fehlerschätzer in der L2 -Norm). Für den Fehler der linearen Finite
Elemente Approximation gilt auf formregulären Gittern die a posteriori Abschätzung:

ku − uh kL2 (Ω) ≤ c 
 1

X
T ∈Ωh
2
1 X 3
2
h4 kf k2 2


hE k[nE · ∇uh ]kL2 (E)
.
T
L (T ) +
2
E∈T̄
Beweis: (i) Wir betrachten das duale Problem
z∈V :
(∇φ, ∇z) = (eh , φ)keh k−1 ,
−∆z = eh keh k−1 ,
mit einer dualen Lösung z ∈ H 2 (Ω) und mit kzkH 2 (Ω) ≤ cs k∆zk = cs .
(ii) Es gilt:
Rh (uh )(φ) = (∇eh , ∇φ)
∀φ ∈ V.
Also für z = φ
Rh (uh )(z) = (∇eh , ∇z) = keh kL2 (Ω) .
Weiter gilt mit der Galerkin-Orthogonalität und Einschub der Knoteninterpolation:
keh k = (∇eh , ∇(z − Ih z)) = (f, z − Ih z) − (∇uh , ∇(z − Ih z)).
Durch partielle Integration auf jeder Zelle T ∈ Ωh entstehen wieder Kantenterme
X Z
keh k =
T ∈Ωh
T
f (z − Ih z) dx −
Z
∂T
nE · ∇uh · (z − Ih z) ds ,
welche wir zu Sprüngen zusammenfassen können:

keh k =
Z
X

T ∈Ωh
T
(f + ∆uh ) (z − Ih z) dx −
X 1Z
E∈∂T
2
∂T

[nE · ∇uh ] · (z − Ih z) ds
Da z ∈ H 2 (Ω) gelten die Interpolationsabschätzungen auf jeder Zelle und auf jeder Kante
und zusammen mit der Stabilität der dualen Lösung ergibt sich
kz − Ih zkT ≤ cI h2T k∇2 zk ≤ cI cs h2T ,
3
3
kz − Ih zkE ≤ cI hE2 k∇2 zkPE ≤ cI cs hT2 .
93
3 Die Finite Elemente Methode für elliptische Probleme
Weiter mit Cauchy-Schwarz:

X
keh k ≤ cI
h2 kf kT k∇2 zkT +
T
T ∈Ωh
X 1
E∈∂T

≤ cI cs cT 
2

3
2
hE k[nE · ∇uh ]kk∇2 zkPE 
 1
2
X 1
3
2 
h4 kf k2 +
k∇2 zkL2 (Ω) .
hE k[nE · ∇uh ]kE
T
T

X
T ∈Ωh
E∈∂T
2
Die Aussage folgt unter Verwendung der Stabilitätsabschätzung für die duale Lösung.
3.6.2 Der dual gewichtete Fehlerschätzer
Bei technischen Simulationen stellt sich oft die Frage nach einer guten Approximation von
speziellen Funktionalwerten. Das kann in der Strukturmechanik etwa die Spannung in einem
Punkt sein, in der Strömungsmechanik die Kraft, die auf ein umströmtes Objekt wirkt.
Für solche Funktionale ist die Schätzung des Fehlers in globalen Normen nur von geringem
Interesse. Die Aubin-Nitsche Trick erlaubt, den Fehler in beliebigen linearen Funktionalen
mit Hilfe einer dualen Lösung darzustellen. Mit der Lösung z ∈ V des dualen Problems
(∇φ, ∇z) = J(φ),
zu einem gegebenen Fehlerfunktional gilt wie im Beweis zu Satz 3.27
J(eh ) = Rh (uh )(z).
(3.28)
Zur Herleitung von a priori Fehlerschätzern und auch bei der a posteriori-Schätzung des
L2 -Fehlers haben wir die duale Lösung z stets mit Hilfe einer Stabilitätsabschätzung gegen
die entsprechende Rechte Seite (welche a priori bekannt ist) abgeschätzt. Für allgemeine
Funktionale ist dieser Zugang oft nicht möglich.
A posteriori Fehlerschätzer nutzen zur Schätzung des Fehlers die numerische Approximationen uh ∈ Vh der Lösung u. Für allgemeine Fehlerfunktionale wollen wir nun auch eine
diskrete duale Lösung zh ∈ Vh verwenden. Das Duale Problem ist also nicht mehr nur ein
mathematisches Hilfskonstrukt, es wird numerische approximiert und die Lösung zh geht in
die Fehlerschätzung ein:
Satz 3.28 (Dual gewichteter Fehlerschätzer). Sei J ∈ V ∗ ein beschränktes lineares Fehlerfunktional. Für die Finite Elemente Approximation der Poisson-Gleichung gilt die Fehleridentität
J(u − uh ) =
X nZ
T ∈Ωh
T
X 1Z
(f + ∆uh ) (z − Ih z)dx −
E∈∂T
2
E
mit der Lösung z ∈ V des dualen Problems
(∇φ, ∇z) = J(φ)
94
o
[nE · ∇uh ] · (z − Ih z) ds , (3.29)
∀φ ∈ V,
3.6 A posteriori Fehlerschätzung und adaptive Finite Elemente
sowie die Fehlerabschätzung
|J(u − uh )| ≤
X
ηT ,
ηT := ρT ωT + ρ∂T ω∂T
(3.30)
T ∈Ωh
mit den Zell- und Kantenresiduen ρT bzw. ρ∂T sowie den Zell- und Kantengewichten ωT
und ω∂T :
ρT := kf +∆uh kT ,
1 −1
ρ∂T := hT 2 k[n·∇uh ]k∂T ,
2
1
ωT := kz−Ih zkT ,
ω∂T := hT2 kz−Ih zk∂T .
Beweis: Die Fehleridentität folgt mit der Galerkin-Orthogonalität sofort aus (3.28)
J(eh ) = (∇eh , ∇(z − Ih z)) =
X nZ
T ∈Ωh
T
(f + ∆uh ) (z − Ih z) dx −
Z
o
∂T
nE · ∇uh · (z − Ih z) ds ,
und Übergang zu den Sprungtermen. Abschätzen mit Cauchy-Schwarz liefert
|J(u − uh )| ≤
X
T ∈Ωh
1
kf + ∆uh kT kz − Ih zkT + k[n · ∇uh ]k∂T kz − Ih zk∂T
2
die Fehlerabschätzung mit den lokalen Fehlerindikatoren.
Diese Fehleridentität ist noch kein a posteriori Fehlerschätzer in dem Sinne, dass er ohne
unbekannte Größen auswertbar ist. Die duale Lösung z ∈ V ist im Allgemeinen nicht verfügbar. Um den Fehlerschätzer auswerten zu können muss der Interpolationsfehler z − Ih z
approximiert werden.
Numerische Approximation Zunächst wäre es naheliegend, die duale Lösung zh ∈ Vh durch
einen Finite Elemente Ansatz zu diskretisieren
(∇φh , ∇zh ) = J(φh )
∀φh ∈ Vh ,
und als Approximation z ≈ zh aufzufassen. Wegen zh ∈ Vh und Satz 3.23 gilt jedoch
Rh (uh )(zh ) = 0,
und auf diese Weise lässt sich keine Fehlerapproximation erstellen. Alternativ kann das duale
(∗)
Problem in einem Raum höherer Ordnung Vh berechnet werden
(∇φ∗h , ∇zh∗ ) = J(φ∗h ) ∀φh ∈ Vh∗ ,
welcher echt größer ist als der diskrete Raum Vh . Dann kann z ≈ zh∗ approximiert werden
und der Fehlerschätzer ist auswertbar. Es gilt:
(1)
Satz 3.29 (Fehlerapproximation höherer Ordnung). Sei uh ∈ Vh die lineare Finite Elemente Approximation der Poisson-Gleichung. Sei J ∈ V ∗ ein Fehlerfunktional und durch
95
3 Die Finite Elemente Methode für elliptische Probleme
(2)
zh∗ ∈ Vh die quadratische Finite Elemente Approximation der dualen Lösung. Im Fall
z ∈ H 3 (Ω) ist der a posteriori Fehlerschätzer
ηh∗ :=

X Z
 T
T ∈Ωh
f (zh∗ − Ih zh∗ ) dx −


X 1Z
E∈∂T
2
E
[nE · ∇uh ] · (zh∗ − Ih zh∗ ) ds .

auf einer Folge von größenregulären Gittern asymptotisch effizient:
|ηh∗ |
= 1 + O(h).
|J(eh )|
Beweis: (i) Wir wollen zeigen, dass der Fehlerschätzer schneller gegen den Fehler konvergiert |J(eh ) − ηh∗ | → 0 als der Fehler J(eh ) → 0 selbst. Bei der linearen Finite Elemente
Approximation ist die optimale Konvergenzordnung eines linearen beschränkten Funktionals
O(h2 ).
(ii) Es gilt mit der Fehlerabschätzung aus Satz 3.28:
|J(eh ) − ηh∗ | ≤

X 
T ∈Ωh
kf kT kz − zh∗ kT +

X 1
E∈∂T
2
k[nE · ∇uh ]kE kz − zh∗ kE



Auf jeder Kante E nutzen wir das lokale Spur-Lemma:
1
1
kvkE ≤ c h− 2 kvkPE + h 2 k∇vkPE .
Dann gilt:
|J(eh ) − ηh∗ | ≤
X
{kf kT kz − zh kT +
T ∈Ωh
ch−
1
2
X 1
E∈∂T
2
k[nE · ∇uh ]kE kz − zh∗ kPE + hk∇(z − zh∗ )kPE



≤ kf kL2 (Ω) kz − zh∗ kL2 (Ω)
1

+ cT c 
2
X
−1
h
k[nE ·
∇uh ]k2E 
kz − zh∗ kL2 (Ω) + hk∇(z − zh∗ )kL2 (Ω) .
E∈∂T
Für die quadratische Finite Elemente Approximation der dualen Lösung gelten die a priori
Abschätzungen:
kz − zh∗ k ≤ ch3 k∇3 zk, k∇(z − zh∗ )k ≤ ch2 k∇3 zk.
Mit diesen folgt:
1 
2

X
2
∗
3
− 21 
|J(eh ) − ηh | ≤ cI h kf kL2 (Ω) + cT ch
k[nE · ∇uh ]kE
k∇3 zkL2 (Ω) .




E∈∂T



96

3.6 A posteriori Fehlerschätzung und adaptive Finite Elemente
(iii) Es bleibt, die Beschränktheit der Sprünge nachzuweisen. Hierzu betrachten wir eine
Kante E ∈ Ωh zwischen T1 , T2 ∈ Ωh . Mit der Schreibweise ∂n := n · ∇ gilt:
∂nE uh T1 − ∂nE uh T2
∂nE uT1 − ∂nE uT2
[nE ·∇uh ] = ∂nE uh T1 −∂nE uh T2 = h
≈≈ h
≈ h∂n2E uE .
h
h
Der Kantensprung über die Normalableitung verhält sich also wie die zweiten Ableitungen
der Lösungen. Diese Abschätzung setzt voraus, dass die Ableitungen der diskreten Lösung
uh lokal eine gute Approximation der Ableitung von u sind. Auf regulären Gittern lässt sich
eine solche Abschätzung beweisen (Super-Approximation). Zusammen gilt:
1
n
o
|J(eh ) − ηh∗ | ≤ cI h3 kf kL2 (Ω) + cT ch 2 kukH 2 (Ω) k∇3 zk.
Der Abstand zwischen Fehler und Schätzwert konvergiert mindestens eine Ordnung besser
als der Fehler selbst.
Durch die numerische Approximation des dualen Problems mit einer erhöhten Genauigkeit
kann der Fehler asymptotisch effizient geschätzt werden. Dieses Vorgehen ist jedoch im Allgemeinen nicht zu rechtfertigen, bedeutet es doch, dass zum Schätzen des Fehlers ein höherer
Aufwand betrieben werden muss als zur Lösung des eigentlichen Problem selbst.
Numerische Interpolation Eine weitere Idee zur Konstruktion von auswertbaren Fehlerschätzern ist eine nachträgliche Rekonstruktion einer dualen Lösung höherer Ordnung. Zunächst wird zh ∈ Vh aus dem gleichen Finite Elemente Raum der Lösung uh ∈ Vh berechnet.
In einem zweiten Schritt wird die Lösung zh in einen Raum von höherer Ordnung interpoliert:
(∗)
Ih∗ : Vh → Vh .
(2)
Hier bietet sich zum Beispiel der Raum V2h an, der Raum der Finiten Elemente vom doppelten Grad auf dem doppelt so groben Gitter. Dieser Raum teil sich die gleichen Knoten
wie der Raum Vh und es gilt für die Knotenbasis-Funktionen
(i)
(2),i
φh (xj ) = φ2h (xj ) = δij .
Somit hat die Interpolierende die einfache Darstellung:
Ih∗ uh =
N
X
(2),i
φ2h ui .
i=1
In Abbildung 3.8 zeigen wir auf einem (eindimensionalen) Gitter einige stückweise lineare
(i)
Testfunktionen φh , sowie in den gleichen Gitterknoten die stückweise quadratischen Testfunktionen auf dem Gitter mit Gitterweite H = 2h. Rechts in der Abbildung wird die
Interpolation einer diskreten Funktion in diesen Raum höherer Ordnung gezeigt.
Der Fehlerschätzer ist auswertbar als
ηh∗ :=

X Z
 T
T ∈Ωh
f (Ih∗ zh − zh ) dx −
X 1Z
E∈∂T
2
E


[nE · ∇uh ] · (Ih∗ zh − zh ) ds .
(3.31)

97
3 Die Finite Elemente Methode für elliptische Probleme
φ
(1)
h
φ
(2)
h
φ
(3)
h
uh
I
(2)
u
2h h
h
H = 2h
Abbildung 3.8: Lineare und quadratische Basisfunktionen, sowie diskrete Interpolation in
den Raum höherer Ordnung.
Die Effizienz dieses Fehlerschätzers hängt nun an der Frage, in wie weit Ih∗ zh eine bessere
Approximation zu z ist als zh selbst. Wir benötigen eine Abschätzung der Art:
kz − Ih∗ zk ≤ chkz − zh k.
Eine Rechtfertigung für eine nachträgliche Verbesserung der Lösung kann wieder durch das
Konzept der Superapproximation geschehen. Bei gewisser Gitterregularität kann gezeigt werden, dass die Finite-Elemente Lösung in den Gitterpunkten mit höherer Ordnung konvergiert. Bei linearen Finiten Elementen gilt zum Beispiel falls f ∈ C 1 (Ω) auf gleichmäßigen
Tensorproduktgittern eine Abschätzung der Art
|u(xi ) − uh (xi )| = o(h2 )
für Gitterpunkte xi ∈ Ωh .
Diese höhere Ordnung kann dann genutzt werden, um über eine Interpolation global bessere Genauigkeit zu erreichen. In der praktischen Anwendung ist der Fehlerschätzer (3.31)
höchst erfolgreich. Die Berechnung des dualen Problems ist “billig” und zum Auswerten muss
lediglich die diskrete Lösung zh mit anderen Basisfunktionen dargestellt werden.
Abschätzung der Interpolationsfehler Falls nicht die Fehleridentität (3.29), sondern nur
die Abschätzung in Form (3.30) numerisch ausgewertet werden muss, so gilt es, die Residuen
ρT = kf + ∆uh kT ,
und die Gewichte
ωT = kz − Ih zkT ,
1 1
ρ∂t = h− 2 k[n · ∇uh ]k∂T ,
2
1
ω∂T = h 2 kz − Ih zkT
zu berechnen. Die Residuen können mit der vorhandenen diskreten Lösung uh ∈ Vh unmittelbar ausgewertet werden. Bei den Gewichten wird zunächst die Interpolationsabschätzung
(m−1)
im Raum Vh
vom Grad m − 1 genutzt:
1
kz − Ih zkT + h 2 kz − Ih zk∂T ≤ cI hm k∇m zkPT .
Die m-ten Ableitungen von z können durch Differenzenquotienten approximiert werden:
1
ωT + ω∂T ≤ cI hm k∇m zkT ≈ cI hm |T | 2 |∇m
h zh |T,∞ .
98
3.6 A posteriori Fehlerschätzung und adaptive Finite Elemente
Abbildung 3.9: Drei verschiedene Methoden zur Verfeinerung des Gitters. Rechts oben: Verfeinerung mit neuen Inneren Knoten. Links unten: Verfeinerung mit Hilfe
von Anschlusselementen. Rechts unten: Verfeinerung mit Hilfe von hängenden Knoten. Hier entstehen vier hängende Knoten.
3.6.3 Adaptive Gitterverfeinerung
Bei einem adaptiven Finite Elemente Verfahren werden die Fehlerindikatoren genutzt, um
mit Informationen über die lokale Verteilung der Fehler die Triangulierung anzupassen und
um dort die Diskretisierungsgenauigkeit zu erhöhen, wo der Fehler entsteht. Hierzu gibt es
zwei alternative Optionen. Beim Remeshing wird mit Hilfe der Fehlerindikatoren ein komplett neues Gitter erzeugt. Hierzu wird zunächst eine Dichtefunktion H(x) erzeugt, welche
angibt, welche Gitterweite in welchem Bereich des Gebiets realisiert werden soll. Im Anschluss wird ein neues Gitter mit einem Gittergenerator erzeugt.
Wir betrachten hier ausschließlich die Gitterverfeinerung. Bei dieser Methode wird mit Hilfe
der Fehlerindikatoren {ηT }T ∈Ωh das Gitter Ωh zu einem neuen Gitter Ω0h verändert. Dabei
können entweder Elemente von Ωh zusammengefasst werden, wenn ihr Indikator-Beitrag
zu dem Gesamtfehler zu vernachlässigen ist, oder aber Gitter-Elemente T ∈ Ωh werden
verfeinert, also in kleinere Elemente aufgeteilt.
In Abbildung 3.9 zeigen wir einige Methoden zur Verfeinerung von Dreiecks-Gittern. Bei der
Gitterverfeinerung ist darauf zu achten, dass die Sequenz von Gittern Ωh für h → 0 immer
noch gewissen Regularitätsbedingungen genügt:
Größenregularität Die Größenregularität, also die Forderung
max hT ≤ c min hT ,
T ∈Ωh
T ∈Ωh
99
3 Die Finite Elemente Methode für elliptische Probleme
Abbildung 3.10: Verfeinerung bei Verwendung von Anschlusselementen.
kann sicher nicht mehr beibehalten werden. Denn das Ziel der lokalen Gitterverfeinerung ist es gerade, lokal angepasste Diskretisierungen und somit Elemente zu Verwenden. Die üblichen a priori Abschätzungen für den Fehler und die Interpolation lauten
z.B.:
k∇(u − uh )k ≤ chmax kf k,
mit der maximalen Gitterweite hmax . Abschätzungen dieser Art verlieren bei adaptiven
Finiten Elementen ihre Aussagekraft, da der Gesamtfehler nicht von der maximalen
Gitterweite abhängt, sondern von der optimalen Verteilung.
Formregularität Die Formregularität ist wesentlich für die Herleitung von lokalen Interpolationsabschätzungen und darf nicht durch lokale Verfeinerung verletzt werden. Bei der
Aufteilung eines Dreiecks in kleinere Dreiecke muss darauf geachtet werden, dass die
Innenwinkel weiterhin nicht gegen 0 oder 180 Grad gehen.
Strukturregularität In Abbildung 3.9 ist oben rechts eine Methode der Verfeinerung dargestellt, welche die Struktur-Regularität erhält. Bei dieser Verfeinerung degenerieren
allerdings die Dreiecke und verletzen die Formregularität. Bei den beiden Methoden in
der unteren Zeile wird die Formregularität gewahrt, die vier neuen Dreiecke haben die
gleichen Winkel wie das große. Durch das Einführen von zusätzlichen Knoten auf den
Eckpunkten wird jedoch die Strukturregularität verletzt.
Unten links wird die Verwendung von sogenannten Anschlusselementen gezeigt. Die
angrenzenden Elemente werden verfeinert, diese Verfeinerung wird jedoch zurückgenommen, falls diese Elemente selbst verfeinert werden sollen. In Abbildung 3.10 werden zwei Verfeinerungsschritte bei der Verwendung von Anschlusselementen gezeigt.
Im zweiten Schritt werden Anschlusselemente aufgelöst, bzw. modifiziert.
Bei der Methode unten rechts bleibt die Strukturregularität verletzt. Die neuen Knoten auf den Ecken sind sogenannte hängende Knoten. Diese Knoten sind nicht echte
Freiheitsgrade der Triangulierung sondern werden durch den Mittelwert der beiden
angrenzenden Eckknoten ersetzt.
Ziel der Gittersteuerung ist es mit Hilfe von auswertbaren Fehlerindikatoren das Gitter, also
die Diskretisierung, zu verfeinern, so dass der Gesamtfehler möglichst effizient reduziert wird.
100
3.6 A posteriori Fehlerschätzung und adaptive Finite Elemente
Wir wählen als Beispiel die Darstellung (3.30)
ηh :=
X
ηT ,
ηT := ρT ωT ,
T ∈Ωh
welche bereits in lokalisierter Form vorliegt. Verfahren zur Gittersteuerung müssen nun solche
Elemente T ∈ Ωh des Gitters wählen, welche einen großen Beitrag zum Gesamtfehler haben.
Folgende Leitideen liegen jeder Gitteradaption zu Grunde:
1. Wenn ein Element T ∈ Ωh verfeinert wird, so werden auch alle Elemente mit T 0 ∈ Ωh
mit einem größeren Indikatorwert ηT 0 > ηT verfeinert.
2. Es wird versucht, ein Gitter mit ausbalancierten Indikatoren zu erreichen:
ηT ≈ ηT 0
∀T, T 0 , ∈ Ωh .
3. Wenn die Fehlerindikatoren balanciert sind, so wird global, also das ganze Gitter verfeinert.
Im Folgenden stellen wir einige Methoden zur Gitterverfeinerung vor. Dazu seien ηi für
i = 1, . . . , N die Fehlerindikatoren absteigend sortiert, also mit ηi ≥ ηi+1 :
Fixed Number Es werden die p% der Elemente mit höchsten Fehlerindikatoren verfeinert.
Fixed Fraction Es werden diejenigen Elemente mit höchsten Fehlerindikatoren verfeinert,
die zusammen p% des Gesamtfehlers ausmachen.
Balancierung Es werden alle Elemente Verfeinert, deren Fehlerindikator über dem Mittelwert liegt.
101
3 Die Finite Elemente Methode für elliptische Probleme
outflow boundary
250 cm
16 cm
10 cm
195 cm
15 cm
41 cm
10 cm
45 cm
41 cm
y
x
z
inflow boundary
Abbildung 3.11: Umströmung eines Hindernis.
Ein numerisches Beispiel In einem Kanal Ω ⊂ R3 soll die Strömung um ein Objekt mit
Rand Γo berechnet werden. Die Konfiguration ist in Abbildung 3.11 dargestellt. Ziel der
Berechnung ist es, den Strömungswiderstand des Objektes zu Berechnen. Dieser ist durch
ein lineares stetiges Funktional gegeben:
Z
J(v, p) =
ν~n · ∇~v · ~e1 − np · ~e1 ds,
Γo
wobei ~v die Geschwindigkeit der Strömung und p der Druck ist. Auf dem Rand Γo des Hindernis ist ~n der Normalvektor und ~e1 = (1, 0, 0) ist der Einheitsvektor in Strömungsrichtung.
Der exakte Wert des Fehlerfunktionals, also J(u) ist durch Vergleichsrechnungen bekannt
J(u) ≈ 7.767.
Zunächst wird diese numerische Simulation mit stückweise quadratischen Finiten Elementen
unter Verwendung von gleichmäßigen Gittern durchgeführt. Die Ergebnisse sind in Tabelle 3.1 zusammengefasst. Um eine Fehlertoleranz von 1% einzuhalten muss bereits ein Problem
mit über 1 000 000 Freiheitsgraden gelöst werden. D.h., wir müssen lineare Gleichungssysteme
der Dimension A ∈ R1 000 000×1 000 000 lösen!
Im Anschluss wird die gleiche Berechnung mit Hilfe von lokal verfeinerten Gittern wiederholt.
Als Fehlerschätzer kommt der dual gewichtete Fehlerschätzer zum Einsatz. Das duale Problem wird im gleichen Ansatzraum approximiert wie das eigentliche Problem, also uh ∈ Vh
und zh ∈ Vh . Zur Approximation der Fehleridentität wird die oben beschriebene Interpolation von höherer Ordnung verwendet. In Tabelle 3.2 fassen wir die Ergebnisse zusammen.
Bei der Verwendung von adaptiven Finiten Elementen auf lokal verfeinerten Gittern wird ein
relativer Fehler von 1% bereits mit 85 000 Freiheitsgraden erreicht. Auf global verfeinerten
Gittern ist mit 1 300 000 die 15 fache Anzahl von Freiheitsgraden notwendig. Wird eine
Fehlertoleranz von unter 0.1% angestrebt, so ist die Ersparnis sogar ein Faktor 150. In
Abbildung 3.12 zeigen wir einige Gitter und Ausschnitte von Gittern aus den Berechnungen
mit lokal verfeinerten Elementen.
102
3.6 A posteriori Fehlerschätzung und adaptive Finite Elemente
Gitterzellen
78
624
4 992
39 936
319 488
2 255 904
Freiheitsgrade
3 696
24 544
177 600
1 348 480
10 787 840
86 302 720
Funktionalwert
13.3149
8.0450
7.9759
7.7878
7.7579
7.7612
Fehler
5.5479
0.2780
0.2089
0.0208
0.0091
0.0058
relativer Fehler
71.4%
3.58%
2.69%
0.27%
0.12%
0.07%
Tabelle 3.1: Umströmung eines Hindernis und Widerstandsberechnung mit quadratischen
Finiten Elementen unter Verwendung von uniform verfeinerten Gittern.
Gitterzellen
78
624
2 427
7 120
16 808
54 880
Freiheitsgrade
3 696
24 544
84 945
242 080
571 472
1 811 040
Funktionalwert
13.3149
8.0450
7.7942
7.7881
7.7595
7.7620
Fehler
5.5479
0.2780
0.0272
0.0211
0.0075
0.0050
relativer Fehler
71.4%
3.58%
0.35%
0.27%
0.10%
0.06%
Tabelle 3.2: Widerstandsberechnung mit quadratischen Finiten Elementen. Lokal verfeinerte Gitter mit dem dual gewichteten Fehlerschätzer.
Abbildung 3.12: Gitterausschnitte aus der dreidimensionalen Umströmung eines Hindernis.
103
3 Die Finite Elemente Methode für elliptische Probleme
104
4 Iterative Lösungsverfahren für Finite
Elemente Diskretisierungen
Das Bestimmen der Finite Elemente Approximation uh ∈ Vh einer linearen Randwertaufgabe
erfordert das Lösen eines linearen Gleichungssystems
Ah uh = bh .
In diesem Kapitel befassen wir uns mit iterativen Approximationsverfahren für große lineare Gleichungssysteme, welche von der Finite Elemente Diskretisierung einer partiellen
Differentialgleichung stammen. Wir beschränken uns dabei wieder im Wesentlichen auf das
Dirichlet-Problem des Laplace-Operators:
−∆u = f
in Ω ⊂ R2 ,
u = 0 auf ∂Ω.
Bei Bedarf gehen wir auf andere, z.B. nicht-symmetrische Gleichungen, oder auch die (einfache) Erweiterung auf dreidimensionale Probleme ein.
Die Matrix A ∈ RN ×N erbt die Eigenschaften des Differentialoperators, d.h., falls z.B. die
Randwertaufgabe definit ist, so ist es auch die Matrix, falls sie symmetrisch ist, so ist auch
die Matrix symmetrisch. Üblicherweise ist N 1000 sehr groß. Daher scheiden direkte
Verfahren, wie die LR- oder Cholesky-Zerlegung als Lösungsmethoden aus.
4.1 Eigenschaften der linearen Gleichungssysteme
Das lineare Gleichungssystem
Au = b
stamme von der Finite Elemente Diskretisierung der Poisson-Gleichung. Wir wissen, dass
die Matrix A symmetrisch und positiv definit, also insbesondere auch regulär ist. Für die
Kondition der Systemmatrix A gilt
cond2 (A) = O(h−2 ).
Hierbei ist das quadratische Anwachsen der Kondition durch die zweite Ordnung des betrachteten Laplace-Operators bedingt und gilt für beliebige Finite Elemente Ansatzräume.
Aufgrund des Konstruktionsprinzip von Finite Elemente Ansätzen sind die Matrizen dünn
besetzt, denn z.B. für Lagrange-Ansätze gilt:
(i)
(j)
supp (φh ) ∩ supp (φh ) 6= ∅
⇔
∃T ∈ Ωh , xi , xj ∈ T̄ .
Die genaue Anzahl von Matrix-Einträgen pro Matrixzeile hängt jedoch stark vom jeweiligen
Finite Elemente Ansatz und auch von der zugrundeliegenden Triangulierung ab.
105
4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen
Abbildung 4.1: Ausschnitt von zwei uniformen Dreiecksgittern und jeweilige Knotenfunktionale der linearen Finiten Elemente Diskretisierung, sowie uniformes Vierecksgitter mit den Knotenfunktionalen der biquadratischen Finiten Elemente.
Beispiel 4.1 (Matrix-Struktur). Zunächst betrachten wir die Diskretisierung der PoissonGleichung mit linearen Finiten Elementen auf einem gleichmäßigen Dreiecksgitter wie in
Abbildung 4.1 links. Auf jeder Zelle T liegen drei Knotenpunkte xi , das heißt pro Zelle überschneiden sich drei Basisfunktionen. In jedem Knoten xi kommen auf diesem Gitter sechs
Eckpunkte zusammen. Jede Matrix-Zeile (die j-te Zeile beinhaltet jeweils die Kopplungen
(j)
der Testfunktion φh zu allen anderen Testfunktionen) hat neben dem Diagonaleintrag noch
sechs Nebendiagonaleinträge.
In der mittleren Abbildung ist ein weiteres, auch sehr regelmäßiges Dreiecksgitter gezeigt.
Hier gibt es Knoten xi , welche Eckpunkte (die rund markierten) von vier Dreiecken sind,
sowie Knoten (die eckigen), in welchen 8 Dreiecke zusammenkommen. Neben der Nebendiagonale gibt es also noch vier oder noch 8 weitere Matrixeinträge pro Zeile.
In der Abbildung rechts wird ein uniformes Gitter mit den Knotenpunkten xi der biquadratischen Finiten Elemente gezeigt. Hier muss die Analyse der Matrixeinträge je nach Typ der
Knotenfunktionale erfolgen, ob die Punkte im Innern (Viereck), in den Eckpunkten (Kreis)
oder auf den Kanten (Dreieck) liegen. In jedem Elemente T überschneiden sich die Träger
von 9 Basisfunktionen. Die Matrixzeile, welche zu einem Knoten im Innern eines Elementes
gehört hat demnach inklusive Diagonalelement 9 Einträge, da für die zugehörige Basisfunkti(i)
on gilt supp (φh ) = T . Basisfunktionen zu Punkten auf den Kanten haben einen Träger auf
genau zwei Vierecken und erzeugen somit 15 Matrixeinträge. Für Knotenpunkte auf einer
Ecke entstehen 25 Matrixeinträge.
Die betrachteten Beispiele zeigen, dass auch bei einfachen Ansätzen und gleichmäßigen Gittern keine einheitliche Matrixstruktur erwartet werden kann. Vielmehr muss davon ausgegangen sein, dass die Matrix generell unstrukturiert ist und sich von Zeile zu Zeile ändern
kann. Dies ist insbesondere der Fall, wenn allgemeine Gitter zugelassen werden, in denen
sich pro Eckknoten unterschiedlich viele Elemente treffen.
Das “Aussehen” der Matrix A hängt zusätzlich noch von der gewählten Nummerierung der
Freiheitsgrade im Gitter ab. Angenommen das Gitter habe N = M 2 Knoten, mit M Knoten
in jeder Raumrichtung. Werden z.B. die Freiheitsgrade im Gitter links von Abbildung 4.1
106
4.2 Krylow-Raum-Methoden
lexikographisch, also von unten links, nach oben rechts nummeriert ergibt sich eine BlockBandmatrix mit der Struktur:
B −I
−I B −I


−I B −I

A= 
..
..

.
.



−I

..
.
B
−I










 M,





−I 



4 −1
−1 4 −1


−1 4 −1

B=
..
..

.
.



−1

B
..
.
4
−1










 M,





−1



4
Man beachte, dass jede Matrixzeile nur 5 Einträge ungleich Null hat, obwohl nach obiger Diskussion 7 Einträge entstehen sollten. Die beiden Einträge zur jeweils Diagonalen Kopplung
verschwinden jedoch auf diesem gleichmäßigen Gitter aus Symmetriegründen und sind im
Allgemeinen vorhanden. Auf allgemeinen Gittern, oder bei anderer Nummerierung der Freiheitsgrade im Gitter ist üblicherweise keine Bandstruktur gegeben. Zum effizienten Speichern
dieser dünn besetzten Matrizen sind daher spezielle Speicherstrukturen notwendig.
4.2 Krylow-Raum-Methoden
In diesem Abschnitt diskutieren wir sogenannte Krylow-Raum-Methoden. Hierzu zählt insbesondere das Verfahren der konjugierten Gradienten, CG-Verfahren genannt. Für die weitere
Diskussion sei also durch
Au = b,
(4.1)
das lineare Gleichungssystem mit einer positiv definiten symmetrischen (und dünn besetzten)
Matrix A ∈ RN ×N gegeben. Weiter sei durch h·, ·i das euklidische Skalarprodukt im RN und
durch | · | die entsprechende euklidische Vektornorm gegeben. Es gilt:
Satz 4.1 (Minimierungsaufgabe). Die Lösung des linearen Gleichungssystems (4.1) ist unter
den gegebenen Voraussetzungen an die Matrix A äquivalent zur Lösung einer quadratischen
Minimierungsaufgabe:
Au = b
⇔
Q(u) = min Q(x),
x∈RN
1
Q(x) := hAx, xi − hb, xi
2
(4.2)
Beweis: Es gilt für die notwendige Bedingung an das Minimum:
1
∇Q(x) = (A + AT )x − b = Ax − b.
2
Für die zweiten Ableitungen der quadratischen Form Q(·) gilt:
∇2 Q(x) = A,
und aus der positiven Definitheit der Matrix A folgt, dass ein eindeutig bestimmtes Minimum
von (4.2) existiert, welches Lösung von (4.1) ist.
107
4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen
Der Gradient der Form Q(·) in einem Punkt x ist gerade das (negative) Residuum der
linearen Gleichung:
Q(x) = Ax − b =: −r(x).
Für das weitere Vorgehen verwenden wir:
Satz 4.2 (A-Norm, A-Skalarprodukt). Es sei A ∈ RN ×N eine symmetrisch positiv definite
Matrix. Dann sind durch:
1
hx, yiA := hAx, yi,
|x|A := hx, xiA2 ,
ein Skalarprodukt, bzw. eine Norm definiert. Man nennt diese Norm die diskrete EnergieNorm.
Beweis: Übungsaufgabe.
Sei x die Lösung von Ax = b. Dann gilt für das Minimum Q(x) auch:
2Q(x) = hAx, xi − 2hb, xi
= hAx, xi − hb, xi − hAx, A−1 bi + hb, A−1 bi − hb, A−1 bi
= hAx − b, x − A−1 bi − hb, A−1 bi
= hA−1 (Ax − b), Ax − bi − hb, A−1 bi = |Ax − b|A−1 − |b|A−1
= hx − A−1 b, A(x − A−1 b)i − hAA−1 b, A−1 bi = |x − u|A − |u|A .
Wir bekommen für die Lösung des linearen Gleichungssystems zwei weitere Charakterisierungen: einerseits ist die Minimierung von Q(·) äquivalent zur Minimierung der Defektnorm
|Ax − b|A−1 andererseits zur Minimierung der Energienorm |x − u|A . Krylow-Raum Methoden basieren nun auf einer schrittweisen Approximation des Minimierungsproblems in einer
der gegebenen Formulierungen.
4.2.1 Abstiegsverfahren
Wir beschreiben zunächst das einfache Abstiegsverfahren. Ausgehend von einem Startwert
x(0) ∈ RN werden Abstiegsrichtungen d(i) gewählt. Dann wird eine Folge von Iterierten
durch die Vorschrift
x(t+1) = x(t) + αt d(t) , t ≥ 0,
bestimmt. Dabei ist der Parameter αt ∈ R die Lösung des (eindimensionalen) Minimierungsproblems:
Q(x(t+1) ) = min Q(x(t) + αd(t) ).
α∈R
Die Optimalitätsbedingung an α ergibt:
d
Q(x(t) + αd(t) ) = ∇Q(x(t) + αd(t) )d(t) = hAx(t) − b, d(t) i + αhAd(t) , d(t) i = 0,
dα
108
4.2 Krylow-Raum-Methoden
Mit dem Residuum r(t) := b − Ax(t) ergibt dies:
αt =
hr(t) , d(t) i
hAd(t) , d(t) i
Wir fassen zusammen
Algorithmus 4.1 (Abstiegsverfahren). Sei x(0) ∈ RN ein gegebener Startvektor, d(t) Abstiegsrichtungen. Iteriere für t ≥ 0:
1. r(t) := b − Ax(t)
2. αt =
hr(t) ,d(t) i
hAd(t) ,d(t) i
3. x(t+1) = x(t) + αt d(t)
Ein konkretes Abstiegsverfahren erreicht man nun durch Wahl von entsprechenden Abstiegsrichtungen d(t) . Die einfachste Möglichkeit ist die Wahl d(t) := e(t) , wobei e(t) der t-te
kartesische Einheitsvektor ist. Es kann gezeigt werden, dass ein kompletter Durchlauf des
Abstiegsverfahren mit diesen Abstiegsrichtungen dem Gauß-Seidel-Verfahren entspricht.
Der Gradient −∇Q(x(t) ) = r(t) gibt die Richtung des stärksten Abfalls an und ist die Basis
des sogenannten Gradientenverfahrens:
Algorithmus 4.2 (Gradientenverfahren). Sei x(0) ∈ RN ein gegebener Startvektor. Iteriere
für t ≥ 0:
1. r(t) := b − Ax(t)
2. αt =
|r(t) |2
|r(t) |2A
3. x(t+1) = x(t) + αt r(t)
Dieses sehr einfache Verfahren konvergiert im Allgemeinen jedoch nur äußerst langsam, etwa wie die einfache Richardson-Iteration. Es gilt eine Orthogonalitätsbeziehung zwischen
aufeinander folgenden Abstiegsrichtungen:
Satz 4.3 (Orthogonalität im Gradientenverfahren). Je zwei aufeinander folgende Abstiegsrichtungen im Gradientenverfahren stehen orthogonal aufeinander:
hr(t) , r(t+1) i = 0
t ≥ 0.
Beweis: Sei X (t) gegeben. Es gilt:
r(t) := b − Ax(t) ,
sowie
x(t+1) = x(t) +
|r(t) |2 (t)
r
|r(t) |2A
r(t+1) := b − Ax(t+1) ,
⇒
r(t+1) = r(t) −
|r(t) |2
Ar(t) .
|r(t) |2A
109
4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen
x(t)
Abbildung 4.2: Niveaulinien des Gradientenverfahrens.
Dann gilt:
hr(t) , r(t+1) i = |r(t) |2 −
|r(t) |2
hAr(t) , r(t) i = 0.
|r(t) |2A
Im Allgemeinen müssen die Abstiegsrichtungen jedoch nicht orthogonal aufeinander stehen,
d.h. hr(t) , r(t+2) i = 0 gilt im Allgemeinen nicht (und zwar nicht einmal annähernd). Dies
führt in der Anwendung zu einem stark oszillierenden Konvergenzverhalten, insbesondere,
wenn die Matrix A stark unterschiedliche Eigenwerte hat.
Beispiel 4.2 (Konvergenz der Gradientenverfahrens). Wir betrachten das lineare Gleichungssystem
Ax = b,
mit der Matrix und rechten Seite
!
A :=
16 0
,
0 2
!
b :=
1
,
1
mit den Eigenwerten 16 und 2. Die Lösung dieses Gleichungssystems ist äquivalent zur Minimierung des quadratischen Funktionals
Q(x) = 8x12 + x22 − x1 − x2 .
Die Niveaulinien Q(x) = c dieser quadratischen Form sind stark elliptisch, siehe Abbildung (4.2). Angenommen, x(t) sein eine gegebene Approximation. Das Residuum r(x(t) ) als
neue Abstiegsrichtung steht orthogonal auf der Durch x(t) laufenden Niveaulinie. Jeweils zwei
Richtungen stehen orthogonal aufeinander, r(t) und r(t+2) sind hingegen fast parallel. Dies
führt zu sehr langsamen, ineffizienten Konvergenzverhalten.
4.2.2 Das Verfahren der konjugierten Gradienten (CG-Verfahren)
Das CG-Verfahren versucht nun die Struktur der Matrix und der quadratischen Form besser
auszunutzen: die Abstiegsrichtungen d(t) sollen so gewählt werden, dass sie alle aufeinander
orthogonal stehen.
Anstelle der Lösung eines eindimensionalen Optimierungsproblems in jedem Schritt des Abstiegsverfahren suchen wir nun die neue Lösung in der Form
x(t) ∈ x(0) + Kt ,
110
Q(x(t) ) =
Q(x),
min
x∈x(0) +K
t
1
Q(x) := hAx, xi − hb, xi,
2
(4.3)
4.2 Krylow-Raum-Methoden
mit dem Raum, welcher durch die Abstiegsrichtungen aufgespannt wird:
Kt := span{d(0) , . . . , d(t−1) }.
Ein solches Verfahren terminiert nach N Schritten zwangsläufig und liefert die gesuchte
Lösung. D.h., wir können das Verfahren als ein direktes Verfahren interpretieren. Im Allgemeinen werden wir jedoch nur mit einer kleinen Zahl von Schritten eine Näherungslösung
erstellen.
Es gilt:
Satz 4.4 (Galerkin-Gleichung). Die Lösung x(t) ∈ x(0) + Kt der Minimierungsaufgabe (4.3)
ist eindeutig durch die Galerkin-Gleichung beschrieben:
hb − Ax(t) , yi = 0
∀y ∈ Kt .
(4.4)
Beweis: Übung.
Die Lösung x(t) stellen wir nun als Entwicklung in den Abstiegsrichtungen dar:
(t−1)
x
(t)
:= x
(0)
+
X
αi d(i) .
i=0
Wir setzen diese Entwicklung in die Galerkin-Gleichung (4.4) ein und erhalten als bestimmendes Gleichungssystem
t−1
X
αi hAd(i) , d(j) i = hb − Ax(0) , d(j) i.
i=0
Wenn es uns nun gelingt, eine A-orthogonale Basis der Abstiegsrichtungen {d(0) , . . . , d(t−1) }
zu erzeugen, so kann dieses lineares Gleichungssystem trivial gelöst werden.
Für die Ansatzräume Kt wählen wir sogenannte
Definition 4.1 (Krylow-Räume). Sei A ∈ RN ×N eine Matrix, sowie r(0) ∈ RN das Residuum zum Startwert r(0) := b − Ax(0) . Wir definieren den Krylow-Raum
Kt (r(0) ; A) := span {r(0) , Ar(0) , . . . , At−1 r(0) },
und schreiben kurz Kt := Kt (r(0) , A).
Bemerkung 4.1. Wir betrachten den Fall x(0) = 0 und somit r(0) = b. Jeder Vektor y ∈ Kt
hat die Form
y = p(A)b,
mit einem Polynom p(·) vom Grad t−1. Das bedeutet, die Minimierung von Q(·) im KrylowRaum kann als eine polynomiale Approximation der Lösung in der Form
x = A−1 b ≈ p(A)b = x(t)
verstanden werden.
111
4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen
Es gilt nun für die Galerkin-Lösung im Krylow-Raum Kt der Satz:
Satz 4.5 (Residuen der Krylow-Raum Minimierung). Für die Residuuen der Krylow-Raum
Minimierung gilt:
(i)
r(t) ∈ Kt+1 ,
(ii)
r(t) ⊥ Kt ,
(iii)
Kt+1 ⊂ Kt
⇒
x(t) = x.
Beweis: (i) Zunächst gilt:
r(t) = b − Ax(t) = r(0) − r(0) + b − Ax(t)
= r(0) − b + Ax(0) + b − Ax(t)
= r(0) + A(x(0) − x(t) ) ∈ Kt + AKt ⊂ Kt+1 (r(0) ; A).
(ii) Aus der Galerkin-Gleichung (4.4) folgt unmittelbar:
r(t) = b − Ax(t) ⊥ Kt .
Wegen r(i) ∈ Kt für alle i < t gilt:
r(i) ⊥ r(j)
∀i < j < t
(iii) Angenommen Kt+1 ⊂ Kt . Dann ist auch r(t) ∈ Kt+1 ⊂ Kt , aber nach (ii) gilt r(t) ⊥ Kt .
Also ist |r(t) | = 0, somit r(t) = 0 und durch Ax(t) = b ist die Lösung bestimmt.
Sobald das Krylow-Raum Verfahren abbricht, weil die Krylow-Räume nicht mehr größer
werden, ist die Lösung gefunden. Für diese Konstruktion ist es wesentlich, dass der KrylowRaum um das erste Residuum herum aufgespannt wird.
Zum Durchführen des Krylow-Raum Verfahrens muss nun eine A-orthogonale Basis der
Räume Kt erstellt werden. Diese Basis besteht dann aus den Abstiegsrichtungen Kt =
span{d(0) , . . . , d(t−1) }. Prinzipiell wäre es möglich diese Basis mit dem Gram-Schmidt oder
anderen Orthogonalisierungsverfahren wie der Householder-Transformation oder den GivensRotations zu erstellen. Diese Verfahren haben allerdings den Nachteil, dass der Aufwand
Orthogonalisierung eines Vektors d(t) mit größer werdendem t steigt. Darüber hinaus ist
insbesondere das Gram-Schmidt-Verfahren numerische instabil und sehr anfällig für Akkumulation von Rundungsfehlern. Stattdessen werden wir für die symmetrische Matrix A eine
zweistufige Rekursionsformel zur Orthogonalisierung entsprechend dem Vorgehen bei den
orthogonalen Legendre-Polynomen herleiten.
Wir gehen nun also davon aus, dass durch {d(0) , . . . , d(t−1) } eine A-orthogonale Basis des Kt
besteht. Weiter sei durch x(t) ∈ x(0) + Kt die Galerkin-Lösung und durch r(t) = b − Ax(t) ∈
Kt+1 das entsprechende Residuum gegeben. Wir suchen nun d(t) ∈ Kt+1 als Orthogonalisierung von r(t) bzgl. der {d(0) , . . . , d(t−1) } gemäß dem Ansatz:
d(t) = r(t) +
t−1
X
j=0
112
βjt−1 d(j) ∈ Kt+1 .
(4.5)
4.2 Krylow-Raum-Methoden
Ohne Einschränkung sei r(t) 6∈ Kt , denn ansonsten folgt laut Satz 4.5 r(t) = 0 und die Lösung
liegt vor. Wir multiplizieren Gleichung (4.5) mit einem Ad(i) für ein i = 0, . . . , t − 1 also ein
d(i) ∈ Kt .
0 = hd(t) , Ad(i) i = hr(t) , Ad(i) i +
t−1
X
βjt−1 hd(j) , Ad(i) i,
i = 0, . . . , t − 1.
j=0
Es gilt hd(j) , Ad(i) i = 0 für alle i 6= j, also bleibt nur ein Term für j = i in der Summe
erhalten:
hr(t) − βit−1 d(i) , Ad(i) i = 0, i = 0, . . . , t − 1.
Laut Satz 4.5 gilt r(t) ⊥ Kt und wegen Ad(i) ∈ Kt für i < t − 1 folgt hr(t) , Ad(i) i = 0 und
βit−1 hd(i) , Ad(i) i = 0
i<t−1:
(t−1)
⇒
βi
= 0.
Es bleibt der Fall i = t − 1:
i=t−1:
t−1 (t−1)
hr(t) , Ad(t−1) i + βt−1
hd
, Ad(t−1) i = 0
j−1
βj−1
=−
⇒
hr(t) , Ad(t−1) i
.
hd(t−1) , Ad(t−1) i
Das heißt, mit dem Ansatz (4.5) erhalten wir den neuen A-orthogonalen Basis-Vektor als:
t−1
βt−1 := βt−1
=
hr(t) , Ad(t−1) i
,
hd(t−1) , Ad(t−1) i
d(t) = r(t) − βt−1 d(t−1) .
(4.6)
d(t) ist die neue Abstiegsrichtung und die nächste Approximation x(t+1) wird gemäß dem
Abstiegsverfahren bestimmt als:
αt =
hr(t) , d(t) i
,
hd(t) , Ad(t) i
x(t+1) = x(t) + αt d(t) .
(4.7)
Mit dieser Notation können wir auch für das neue Residuum r(t+1) eine einfache Rekursionsformel herleiten. Es gilt:
r(t+1) = b − Ax(t+1) = r(t) − αt Ad(t) .
(4.8)
Diese drei Rekursionsformeln (4.6-4.8) bilden das klassische CG-Verfahren. Ausgehend von
einem Startwert x(0) werden rekursiv Residuen, die A-orthogonale Basis und die neue Lösung berechnet. Die Formeln zur Berechnung der Faktoren βt−1 und αt können effizienter
geschrieben werden. Denn wegen der Orthogonalität r(t) ⊥ Kt gilt für den Nenner von αt
und βt
αt hd(t) , Ad(t) i = hd(t) , αt Ad(t) + r(t+1) i = hd(t) − βt−1 d(t−1) i = |r(t) |2 ,
|
{z
}
r(t)
|
{z
r(t) ,r(t)
}
sowie für den Zähler von βt :
−αt hr(t+1) , Ad(t) i = hr(t+1) , r(t) − αt Ad(t) i = |r(t+1) |2 .
|
{z
r(t+1)
}
113
4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen
Solange r(t) 6= 0 gelten die vereinfachten Formeln:
αt =
|r(t) |2
,
hd(t) , Ad(t) i
βt−1 :=
|r(t) |2
.
|r(t−1) |2
Wir fassen zusammen
Algorithmus 4.3 (CG-Verfahren). Sei x(0) ∈ RN ein gegebener Startwert sowie d(0) =
r(0) = b − Ax(0) . Iteriere für t ≥ 0
(i)
αt =
|r(t) |2
hAd(t) , d(t) i
(ii)
x(t+1) = x(t) + αt d(t)
(iii)
r(t+1) = r(t) − αt Ad(t)
(iv)
βt =
(v)
|r(t+1) |2
|r(t) |2
d(t+1) = r(t+1) + βt d(t) .
Das CG-Verfahren bricht ab, wenn |r(t) | = 0. In diesem Fall ist die gesuchte Lösung erreicht. Üblicherweise wird das CG-Verfahren jedoch nur zur Approximation der Lösung mit
t N verwendet. In jedem Schritt des CG-Verfahrens muss eine Matrix-Vektor Multiplikation, sowie 2 Skalarprodukte und 3 Additionen von Matrizen durchgeführt werden.
Angenommen, die dünn besetzte Matrix hat maximal M Einträge pro Zeile (siehe Diskussion in Abschnitt 4.1), dann ist der Gesamtaufwand pro Schritt O((5 + M )N ) arithmetische
Operationen. Falls das CG-Verfahren als direkter Löser eingesetzt wird, wäre die Gesamtkomplexität O(N 2 M ).
Es gilt:
Satz 4.6 (CG-Verfahren). Das CG-Verfahren bricht für jeden Startwert x(0) ∈ RN nach
maximal N −1 Schritten ab und liefert x(t) = x. Für 0 ≤ t ≤ N −1 gilt die Fehlerabschätzung:

|x − x(t) |A ≤ 2 
1−
1+
t
√1
κ
|x
√1
κ
− x(0) |A ,
mit der Spektralkondition κ := cond2 (A). Zur Reduktion des Fehlers um den Faktor ε > 0
sind maximal:
√
κ
2
t(ε) ≤
ln
+1
2
ε
Schritte notwendig.
Beweis: Siehe [Rannacher].
114
4.2 Krylow-Raum-Methoden
Bemerkung 4.2 (CG-Verfahren als iteratives Lösungsverfahren). Angenommen, die Finite
Elemente Diskretisierung der Poisson-Gleichung soll mit dem CG-Verfahren gelöst werden.
Hierzu soll eine feste Genauigkeit ε erreicht werden. Die Konvergenzgeschwindigkeit und
die benötigte Anzahl an Schritten wird durch die Spektralkondition der Systemmatrix Ah
bestimmt. Es gilt:
κ(Ah ) = O(h−2 ),
und also:
t(ε) = O(h−1 ).
In einem d-dimensionalen Gebiet mit uniformen Triangulierung gilt die Relation N = O(h−d ).
Also sind
1
t(ε) = O(N d )
Schritte erforderlich. Der Gesamtaufwand zum Lösen des Gleichungssystems ist somit
1
NCG = O((5 + M )N 1+ d )
3
arithmetische Operationen. In zweidimensionalen Gebieten ergibt sich O(N 2 ). Für große N
ist das CG-Verfahren weit effizienter als direkte Methoden, oder als z.B. die Jacobi oder die
Gauß-Seidel-Iteration.
4.2.3 Krylow-Raum Verfahren für nicht-symmetrische Gleichungssysteme
Satz 4.1 ist Grundlage des CG-Verfahrens, da er die Äquivalenz zwischen linearem Gleichungssystem und Minimierung der quadratischen Form Q(·) herstellt. Dieser Satz gilt nur
für symmetrische Matrizen. Allgemeiner erhalten wir:
Satz 4.7 (Minimierung des Residuums). Es sei A ∈ RN ×N eine reguläre Matrix. Dann ist
das lineare Gleichungssystem Ax = b äquivalent zur Minimierung des Residuums
kb − Axk = min kb − Ayk.
y∈RN
Beweis: Sei x das Minimum des Residuums in der l2 -Norm. Dann gilt:
0=
und also
0=
d
kb − A(x + sy)k2 ds
s=0
∀y ∈ RN ,
d
kb − Ax − sAyk2 = 2hb − Ax, Ayi
ds
s=0
∀y ∈ RN .
Da A regulär ist folgt hb − Ax, yi = 0 für alle y ∈ RN und schließlich Ax = b.
Umgekehrt sei nun x die Lösung des linearen Gleichungssystems. Dann gilt für y beliebig:
kb − Ayk2 − kb − Axk2 = hAy, Ayi − hAx, Axi − 2hb, Ayi + 2hb, Axi
= hAy, Ayi + hAx, bi − 2hAx, Ayi = kAx − Ayk2 > 0.
115
4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen
Anstelle der quadratischen Form soll jetzt direkt das Residuum der Gleichung minimiert
werden. Mit dem Krylow-Raum
Kt := Kt (r(0) ; A) = span{r(0) , Ar(0) , . . . , At−1 r(0) },
wird ein x(t) ∈ x(0) + Kt gesucht, so dass gilt:
kb − Ax(t) k2 = min kb − Ayk2 .
y∈Kt
(4.9)
Für dieses Minimum gilt wieder eine Orthogonalitätsbeziehung:
Satz 4.8 (Galerkin-Gleichung). Die Lösung x(t) ∈ x(0) + Kt der Minimierungsaufgabe (4.9)
ist eindeutig durch die Galerkin-Gleichung beschrieben:
hb − Ax(t) , Ayi = 0
∀y ∈ Kt .
(4.10)
Beweis: Übung.
Zum Ansatz sei zunächst eine orthogonale Basis {d(0) , . . . , d(t−1) } des Kt gegeben. Durch
Qt := [d(0) , . . . , d(t−1) ] ∈ RN ×t ,
ist eine Matrix mit QT Q = I gegeben. Jede Lösung x(t) ∈ x(0) + Kt kann dann in der Form
x(t) = x(0) + Qt y(t) ,
y(t) ∈ Rt
geschrieben werden. Wir setzen diesen Ansatz in die Galerkin-Gleichung (4.10) ein und
erhalten:
hr(0) − AQt y(t) , AQz(i) i = 0 ∀z(i) ∈ Rt .
Um die gesuchte Approximation x(t) = Qt y(t) zu finden, muss also nur ein lineares Gleichungssystem mit t Unbekannten und Gleichungen gelöst werden.
Diese Idee ist Grundlage des Generalized Minimal Residual Verfahrens (GMRES). In einem
ersten Schritt wird eine Orthonormalbasis des Kt erstellt. Anschließend wird das lineare
Gleichungssystem im Rt gelöst um schließlich mittels x(t) = Qt y(t) die Approximation zu
erhalten.
Für allgemeine Matrizen A sind Konvergenzaussagen schwer zu treffen. Wegen der Herleitung über die Minimierung des Residuums konvergiert dieses aber monoton, wie bei dem
CG-Verfahren. Im Fall fehlerfreier Arithmetik ist das GMRES-Verfahren ein direktes Lösungsverfahren. In der Anwendung werden jedoch stets nur wenige Schritte durchgeführt.
Kern des Verfahrens ist die Orthogonalisierung des Krylow-Raums Kt . Je größer der Raum
Kt umso aufwändiger ist auch die Orthogonalisierung. Aus diesem Grund wird üblicherweise
nur eine feste Zahl m von Schritten des GMRES-Verfahrens ausgeführt und anschließend
0
mit einer besseren Startlösung x(0) = x(m) neu gestartet. (GMRES-Verfahren mit Restart).
116
4.2 Krylow-Raum-Methoden
4.2.4 Vorkonditionierung
Satz 4.6 sagt, dass die Konvergenzgeschwindigkeit des CG-Verfahrens im Wesentlichen von
der Spektralkondition der Matrix A abhängt. Die Idee der Vorkonditionierung ist es, das
Gleichungssystem durch Multiplikation einer Matrix P−1 derart zu ändern, so dass für die
Matrix P−1 A gilt:
cond2 (P−1 A) conds (A).
Dann wird anstelle von Ax = b das System
P−1 Ax = Pb,
gelöst, welches wegen der weitaus besseren Spektralkondition von P−1 A schneller konvergiert. Wir gehen zunächst davon aus, dass die Matrix A symmetrisch positiv definit ist und
mit dem CG-Verfahren gelöst werden soll. Das vorkonditionierte System muss dann auch
symmetrisch positiv definit sein. Der symmetrisch positiv definite Vorkonditionierer P liege
also in der Form:
P = KKT ,
vor. Dann lösen wir:
K−T K−1 A(K −T K T )x = K−T K−1 b
⇒
−1
−T
T
−1
K
AK
|
{z
}K
| {z x} = K
| {z b} .
=:Ã
=x̃
=b̃
Für die Matrix à gilt:
K−T ÃKT = (K−T K−1 )A(K−T KT ) = P−1 A.
Die Matrix à ist also ähnlich zur Matrix P−1 A. Ähnliche Matrizen haben die gleichen Eigenwerte. Im Fall P = A ist die Matrix à also ähnlich zur Einheitsmatrix mit der Kondition
cond2 (I) = 1. In diesem Fall wäre das Konvergenzverhalten des CG-Verfahrens optimal.
Im Folgenden formulieren wir das sogenannte Vorkonditionierte CG-Verfahren oder Preconditioned Conjugate Gradient (PCG):
Algorithmus 4.4 (PCG-Verfahren). Sei P = KKT ein Vorkonditionierer sowie x(0) ∈ RN
ein Startwert. Setze d(0) = r(0) = b − Ax(0) sowie z(0) = P−1 d(0) . Iteriere
(i)
αt =
hr(t) , z(t) i
hAd(t) , d(t) i
(ii)
x(t+1) = x(t) + αt d(t)
(iii)
r(t+1) = r(t) − αt Ad(t)
(iv)
z(t+1) = P−1 r(t+1)
(v)
(vi)
βt =
hr(t+1) , z(t+1) i
hr(t) , z(t) i
d(t+1) = r(t+1) + βt d(t) .
117
4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen
Im Vergleich zum einfachen CG-Verfahren fällt als zusätzlicher Aufwand insbesondere das Lösen des Vorkonditionierersystems Pz(t+1) = r(t+1) an. Hierzu kann die Zerlegung P = KKT
genutzt werden. Der Vorkonditionierer sollte also einerseit möglichst einfach zu invertieren
sein, auf der anderen Seite sollte P ≈ A, insbesondere sollten das Eigenwerte von P−1 A
möglichst nahe beieinander liegen.
Jacobi-Vorkonditionierung Für P eignet sich z.B. das Jacobi-Verfahren mit
1
1
PJ = D 2 D 2 .
PJ = diag(A) =: D,
Dieser Vorkonditionierer ist sehr “billig” anzuwenden und sorgt dafür, dass die Einträge
der Matrix A skaliert werden. Insbesondere gilt ãii = 1 für i = 1, . . . , N . Dies kann zu
einer Reduktion der Kondition führen. Mit Hilfe der Gerschgorin-Kreise kann eine einfache
Abschätzung für die Eigenwerte gefunden werden. Bei à liegt der Mittelpunkt stets bei 1.
SOR-Vorkonditionierung Das Gauß-Seidel Verfahren kann nicht in der Form P = KKT
faktorisiert werden, es ist nicht symmetrisch. Die Matrix A sei additiv zerlegt in A = L +
D + R = L + D + LT , da A symmetrisch. Das SOR-Verfahren hat die Iterationsmatrix:
1
1
1
1
PSOR = (D + ωL)D−1 (D + ωLT ) = (D 2 + ωLD− 2 ) (D 2 + ωD− 2 LT )
|
{z
K
}|
{z
KT
}
Bei optimaler Wahl der Relaxationsparameters ω (dies ist im Allgemeinen jedoch nicht möglich) wird eine wesentliche Reduktion der Kondition erreicht:
cond2 (Ã) =
q
cond2 (A).
Unvollständige Cholesky-Vorkonditionierung Abschließend stellen wir noch ein schwer zu
analysierendes, jedoch höchst erfolgreiches Verfahren vor. Durch
à ≈ C̃C˜T ,
sei die unvollständige Cholesky-Zerlegung von A gegeben. Die Cholesky-Zerlegung als Spezialfall der LR-Zerlegung ist üblicherweise voll besetzt. Mit C̃C˜T bezeichnen wir die Approximative Zerlegung der Matrix A. Elemente cij von C̃ werden künstlich auf Null gesetzt,
wenn für den Matrixeintrag aij = 0 gilt.
Durch gute Vorkonditionierung, etwa mit dem SOR-Verfahren oder der Cholesky-Zerlegung
kann die Konditionierung des vorkonditionierten Systems (bei der Poisson-Gleichung) auf
cond(Ã) = O(h−1 ) verbessert werden. Hierdurch wird die Konvergenzrate des CG-Verfahrens
√
5
von 1 − O(h) auf 1 − O( h) verbessert. Dies führt zu einem Gesamtaufwand von O(N 4 ).
118
4.3 Mehrgitterverfahren
4.3 Mehrgitterverfahren
Alle bisher betrachteten iterativen Lösungsverfahren hängen von der Kondition der Matrix
und damit bei der Behandlung der FE Diskretisierung der Poisson-Gleichung vom Gitter.
Im Folgenden betrachten wir die eindimensionale Diskretisierung mit linearen Finiten Elementen auf einem uniformen Gitter mit N Elementen. Als prototypisches Iterationsverfahren
werden wir die gedämpfte Richardson-Iteration genauer untersuchen. Es ist:
x(t+1) = x(t) + θ(b − Ax(t) ) = (I − θA) x(t) + θb,
|
{z
=:Bθ
}
mit der Iterationsmatrix Bθ .
Die positiv definite Matrix A hat in Stencil-Notation die Form:
h
i
A = −1 2 −1 .
Diese Matrix hat die Eigenvektoren ωk ∈ RN +1 mit Eigenwerten λk :
k
λk = 2 1 − cos
π
N
ki
(ωk )i = sin
π , i = 0, . . . , N.
N
(4.11)
Die Konvergenzordnung der Iterativen Verfahren ist im Allgemeinen sehr langsam, sie hängt
vom Spektralradius der Iterationsmatrix B := I − θA ab. Es gilt wieder in Stencil-Notation
h
Bθ = θ (1 − 2θ) θ
i
Wir wählen nun θ = 4−1 ≈ λmax (Ah )−1 . Dann ist
B=
i
1h
1 2 1
4
Diese Matrix B := B 1 hat wieder die gleichen Eigenvektoren (4.11) diesmal mit den Eigen4
werten:
λB
k
1
k
=
1 + cos
π
2
N
Die Eigenwerte liegen alle im Intervall λB
k ∈ (0, 1), der größte Eigenwert von B verhält sich
wie λmax (B) = 1 − O(h2 ).
Wir untersuchen die Konvergenz des Richardson-Verfahrens für die Poisson-Gleichung im
Detail. Es sei also x(t) die letzte Approximation mit Fehler e(t) := x − x(t) . Für den Fehler
in der nächsten Iteration gilt:
e(t+1) = Be(t) .
119
4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen
Abbildung 4.3: Fehlerreduktion des gedämpften Richardson-Verfahrens für die eindimensionale Poisson-Gleichung in Abhängigkeit der Fehlerfrequenz.
Wir schreiben den Vektor e(t) in einer Entwicklung in Eigenwerten
(t)
e
=
N
−1
X
(t)
ek ωk .
k=1
(t)
Dabei sind die ek ∈ R die Entwicklungskoeffizienten in der Eigenvektor-Darstellung und
nicht die kartesischen Koeffizienten. Wir nennen (wegen der Sinus-Form der Eigenvektoren)
die einzelnen Komponenten ωk die Frequenzen des Fehlers. Wir können nun die Wirkung des
Richardson-Verfahrens für jede einzelne Frequenz ωk verfolgen. Es gilt
(t+1)
ek
(t)
= λB
k ek ,
das heißt, die k-te Komponente des Fehlers wird genau um den Eigenwert λB gedämpft. In
Abbildung 4.3 zeigen wir den Verlauf der Eigenwerte λB
k . Fehlerkomponenten, welche zu niedrigen Frequenzen gehören werden nur sehr langsam reduziert, während alle hochfrequenten
Anteile schnell reduziert werden. Wir definieren:
Definition 4.2 (Fehlerfrequenzen). Komponenten welche zu Eigenwerten λk für k > N2
gehören heißen hochfrequente Anteile, alle anderen Komponenten heißen niederfrequent.
Hochfrequente Anteile sind gerade die, welche auf gröberen Gittern nicht dargestellt werden
können.
Das Richardson-Verfahren ist zwar ein schlechter Löser für die Poisson-Gleichung, es glättet
hochfrequente Fehleranteile allerding sehr schnell aus. In Abbildung 4.4 zeigen wir den Fehler
der Richardson-Iteration über einige Schritte. Der Gesamtfehler wird nach zehn Schritten
nicht wesentlich kleiner, allerdings ist der Fehler bereits nach zwei Schritten stark geglättet.
Das Richardson-Verfahren scheint also in der Lage zu sein, lokale Fehleranteile sehr schnell
zu glätten.
Das Mehrgitterverfahren beruht nun auf der Idee, dass die Frage, ob ein Fehleranteil hochfrequent ist oder nicht vom zugrundeliegenden Gitter abhängt. Auf einem Gitter mit N = 10
Elementen ist die Frequenz
(ω4 )i = sin
120
4i
π ,
10
i = 0, . . . , 10,
4.3 Mehrgitterverfahren
Abbildung 4.4: Fehlerverlauf (rot) und approximierte Lösung (grün) der gedämpften
Richardson-Iteration. Von links nach rechts: Startfehler, nach einem Schritt,
zwei Schritten und nach 9 Schritten.
1
1
sin(3.1415 * 4/10*x)
0.8
sin(3.1415 * 4/5*x)
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0
0
-0.2
-0.2
-0.4
-0.4
-0.6
-0.6
-0.8
-0.8
-1
-1
0
2
4
6
8
10
0
1
2
3
4
5
Abbildung 4.5: Die Fehlerfrequenz λ4 auf einem Gitter mit 10 Elementen und auf eine Gitter
mit 5 Elementen.
niederfrequent, auf einem gröberen Gittern mit N 0 = 5 Elementen ist die gleiche Schwingung
jedoch hochfrequent:
4i
0
(ω4 )i = sin
π , i = 0, . . . , 5.
5
In Abbildung 4.5 ist diese Frequenz auf beiden Gittern aufgetragen. Wir fassen zusammen:
• Einfache Iterationsverfahren wie die Richardson-Iteration sind schlechte Löser aber
gute Glätter für hochfrequente Fehleranteiler.
• Niederfrequente Anteile auf einem Gitter Ωh sind hochfrequente Anteile auf einem
gröberen Gitter Ω2h .
• Und ganz trivial: je gröber das Gitter, umso geringer der Aufwand.
Beim Mehrgitter-Verfahren sollen diese Leitsätze kombiniert werden. Auf dem feinsten Gitter
Ωh wird das Gleichungssystem nicht gelöst, es werden zunächst nur hochfrequente Fehleranteile ausgeglättet und es bleiben nur niederfrequente Fehler eh → enf
h . Diese werden auf ein
nf
hf
gröberes Gitter ΩH transferiert eh → eH , wo sie wieder hochfrequent sind. Auf diesem
Grobgitter ist das verbleibende Problem sehr viel kleiner und kann einfacher gelöst werden.
121
4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen
Ω1h
ΩH
Ω2h
Abbildung 4.6: Grobgitter ΩH und zwei feinere Gitter. Das Gitter Ω1h ist durch Verfeinerung
entstanden und es gilt ΩH b Ω1h . Das Gitter Ω2h stammt nicht von ΩH ab.
4.3.1 Hierarchische Finite Elemente Ansätze
Wir müssen zur Notation zunächst einige Begriffe einführen. Durch
ΩH = Ω0 , Ω1 , . . . , ΩL = Ωh ,
sei eine Familie von Gittern des Gebiets Ω gegeben. Wir definieren:
Definition 4.3 (Geschachtelte Gitter). Seien ΩH , Ωh zwei Triangulierungen des Gebiets Ω.
Die Gitter heißen geschachtelt ΩH b Ωh , falls für jeden Knoten xi ∈ ΩH gilt xi ∈ Ωh und
jedes Element K ∈ Ωh durch Verfeinerung eines Elementes K 0 ∈ ΩH entstanden ist.
In Abbildung 4.6 zeigen einfache Beispiele von Gittern die geschachtelt sind und Gittern, die
nicht geschachtelt sind. Auf jedem Gitter Ωl sei durch Vl ein Finite Elemente Ansatzraum
definiert und wir definieren die lokalen Probleme:
ul ∈ Vl :
a(uk , φl ) = (f, φl )
∀φl ∈ Vl
Als kompakte Schreibweise definieren wir einen Operator Al : Vl → Vl mittels
∀ul , vl ∈ Vl .
(Al ul , vl ) = a(ul , vl )
Mit der Vektordarstellung
ul =
Nl
X
(i)
uli φh ,
i=1
und der Steifigkeitsmatrix Al ist dies Problem äquivalent zu dem linearen Gleichungssystem
Al ul = bl ,
(j)
(i)
(Al )ij = a(φh , φh ),
(i)
(bl )i = (f, φh ).
Es gilt:
Satz 4.9 (Geschachtelte Finite Elemente Räume). Es seien ΩH b Ωh geschachtelte Gitter
und VH sowie Vh isoparametrische Finite Elemente Räume mit dem gleichen Finite Elemente
Ansatz {P (T̂ ), χ(T̂ )} auf den Gittern ΩH bzw. Ωh . Es gilt:
VH ⊂ Vh .
Beweis: Übung.
122
4.3 Mehrgitterverfahren
(i)
φH
1 (i1 )
φ
2 h
1 (i3 )
φ
2 h
(i )
φh 2
H = 2h
h
(i)
Abbildung 4.7: Darstellung einer groben Basisfunktion φH (durchgezogene Linie) durch drei
Basisfunktionen des feinen Gitters.
Definition 4.4 (Gittertransfer). Es seien Vl−1 ⊂ Vl zwei geschachtelte Finite-Elemente
Räume. Für eine Funktion vh ∈ Vh definieren wir den Restriktionsoperator Rl−1 : Vl → Vl−1
durch
(Rl−1 vh , φH ) = (vh , φH ) ∀φH ∈ VH ,
sowie für eine Funktion vH ∈ VH den Prolongationsoperator Pl : Vl−1 → Vl durch
Pl vH = vH .
Bemerkung 4.3 (Eigenschaften der Restriktion). Seien ΩH b Ωh zwei geschachtelte Gitter.
Die Restriktion RH : Vh → VH ist gerade die L2 -Projektion von Vh in den gröberen Raum
VH . Die L2 -Projektion ist eine globale Operation, um sie zu berechnen muss ein lineares
Gleichungssystem mit der Massenmatrix MH gelöst werden. Obwohl ein lineares Gleichungssystem mit der Massenmatrix relativ einfach zu lösen ist (da cond2 (MH ) = O(1)) sollte dies
aus Effizienzgründen vermieden werden.
In der Anwendung des Mehrgitterverfahrens werden wir allerdings gar nicht die Finite Elemente Funktion RH vh ∈ VH benötigen, sondern nur den Vektor xH ∈ RNH mit
(i)
(i)
(xH )i := (RH vh , φH ) = (vh , φH ),
i = 1, . . . , NH .
(4.12)
Zu der beliebigen Funktion vh ∈ Vh definieren wir auf dem feinen Gitter Ωh den Vektor
xh ∈ RNh als
(i)
(xh )i = (vh , φh ).
(i)
Die Räume VH ⊂ Vh sind geschachtelt, d.h., jede Knotenbasisfunktion φH ∈ VH ist auch im
(i)
feinen Raum φH ∈ Vh und hat dort die Basisdarstellung
(i)
φH
=
Nh
X
(j)
µij φh ,
(4.13)
j=1
mit einer Koeffizientenmatrix RH ∈ RNH ×Nh mit (RH )ij = µij welche sehr dünn besetzt
ist, also mit µij 6= 0 nur für sehr wenige (insbesondere unabhängig von h und H) Einträge.
(i)
In Abbildung 4.7 zeigen wir die Kombination einer Basisfunktion φH durch drei Funktionen
des feinen Gitters.
123
4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen
Die Einträge des gesuchten Vektors xH aus (4.12) sind dann bestimmt durch die Gleichungen:
(i)
(xH )i = (vh , φH ) =
Nh
X
(j)
µij (vh , φh ) = (RH xh )i .
j=1
|
{z
=:(xh )j
}
Das heißt, wenn nicht die Funktion RH vh von Interesse ist, sondern nur die Funktion rh
(i)
(i)
h
getestet mit den Basisfunktionen φh , also ein Vektor xh = ((rh , φh ))N
i=1 , dann besteht der
einfache Zusammenhang
xH = RH xh .
Ebenso betrachten wir nun
Bemerkung 4.4 (Eigenschaften der Prolongation). Die Prolongation Ph : VH → Vh ist
die Identität auf VH . Mit der Darstellung (4.13) erhalten wir für jeden Vektor vH ∈ VH
unmittelbar
vH (x) =
NH
X
(i)
(vH )i φH (x) =
i=1
=
Nh
X
Nh
NH X
X
(j)
µij (vH )i φh (x)
i=1 j=1


NH
X
(j)

µij (vH )i  φ (x)
h
i=1
j=1
|
{z
=:(vh )j
}
Für den Vektor vh ∈ RNh gilt also
T
vh = RH
vH .
Die Wirkung der Prolongation auf einen Knotenvektor ist also gerade durch die transponierte Matrix der Restriktion eines integrierten Vektors beschrieben. Man beachte, dass die
Hintereinanderausführung von Restriktion und Prolongation nicht die Identität ergibt!
Der enge Zusammenhang zwischen Formulierungen in den Funktionenräumen Vh und VH
sowie zwischen den Vektorräumen RNH sowie RNh ist typisch für die Analyse des Mehrgitterverfahrens.
4.3.2 Das Zweigitter-Verfahren
Als Vorstufe zum Mehrgitterverfahren beschreiben wir zunächst die Zweigitteriteration. Diese
formulieren wir im Finite-Elemente Kontext:
Algorithmus 4.5 (Zweigitteriteration in Finite-Elemente Räumen). Seien VH ⊂ Vh zwei
(0)
geschachtelte FE-Räume sowie uh ∈ Vh eine Approximation der Lösung uh ∈ Vh . Weiter sei
ω ∈ (0, 1] ein Dämpfungsparameter und durch Gh : Vh → Vh eine Glättungsiteration gegeben.
Iteriere:
(t+1)
(t)
uh
= ZG(uh , fh ),
124
4.3 Mehrgitterverfahren
mit der Zweigitter-Iteration:
(i)
(ii)
(iii)
(t)
(t)
ūh = Ghν1 (uh ) := Ghν1 (uh , a(·, ·), f )
Vorglätten:
wH ∈ V H :
Grobgitterproblem:
(t+1)
uh
Nachglätten:
a(ūh + wH , φH ) = (f, φH )
∀φH ∈ VH
= Ghν2 (ūh + ωwH )
Das Verfahren besteht aus zwei Schritten: zunächst werden im feinen Finite Elemente Raum
Vh die hochfrequenten Fehleranteile geglättet. Im Anschluss wird durch die GrobgitterKorrektur das Problem im groben Raum VH ⊂ Vh approximiert. Schließlich kann ein weiteres
Mal geglättet werden. Die Approximation wird in zwei Stufen aufgeteilt: die hohen Fehlerfrequenzen werden mit einigen wenigen (üblicherweise ν ∼ 3) Schritten eines einfachen Iterationsverfahrens reduziert, alle niedrig frequenten Fehleranteile werden auf dem Grobgitter
behandelt.
Bemerkung 4.5 (Nachglätten). Die Zweigitteriteration (und später auch die Mehrgitteriteration) konvergieren auch ohne Nachglättung nur mit Vorglättung. Auch für die Beweise
ist die Nachglättung nicht wesentlich. Wir setzen daher im Folgenden ohne Einschränkung
ν2 = 0.
Im Folgenden beschreiben wir die einzelnen Schritte der Zweigitter-Iteration genauer und
leiten darüber hinaus eine Vektor-Schreibweise des Zweigitter-Verfahrens her.
(0)
Die Vorglättung Mit ūh = Ghν (uh ) ist die ν-fache Ausführung der Glättungsoperation
(t)
(t−1)
(t−1)
bezeichnet. Allgemein sei uh = Gh (uh ) := Gh uh
+ gh affin linear und eine Fixpunkt(ν)
Iteration mit Gh (uh ) = uh . Für den Fehler ēh := uh − ūh = uh − uh gilt dann
(ν)
(ν−1)
ēh = uh − uh = Gh (uh ) − Gh (uh
(ν−1)
) = Gh eh
(0)
(0)
= Ghν eh = Ghν (uh − uh ).
(4.14)
Wir betrachten als Beispiel die gedämpfte Richardson-Iteration. In Finite Elemente Schreib(t)
weise suchen wir uh ∈ Vh , so dass
(t)
(t−1)
(uh , φh ) = (Gh (uh
(t−1)
), φ) := (uh
(t−1)
, φh ) + θ (fh , φh ) − a(uh
, φh )
∀φh ∈ Vh ,
also
(t+1)
uh
(t)
= (Ih − θAh )uh + θfh .
Formuliert mit Vektoren gilt die Vorschrift:
(t)
(t−1)
Mh uh = Mh uh
(t)
+ θ(bh − Ah uh ),
oder mit einer Verfahrensmatrix:
(t)
(t−1)
uh = Gh (uh
(t−1)
) := Gh uh
+ gH ,
Gh := I − θM−1
h Ah ,
gh := θM−1
h bh .
Dann erhalten wir die Fehlerfortpflanzungen in Finite Elemente und Vektorschreibweise:
(0)
ēh = uh − ūh = Gνh eh ,
(0)
ēh = uh − ūh = Ghν eh .
(4.15)
125
4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen
Die Grobgitterkorrektur Wir suchen die Lösung wH ∈ VH von
a(wH , φH ) = (f, φH ) − a(ūh , φH )
∀φH ∈ VH .
(4.16)
Die rechte Seite dieses Problems ist das Residuum zur vorgeglätteten Approximation ūh ∈ Vh
bezüglich der groben Basisfunktionen φH ∈ VH . Wir betrachten das Residuum r̄h ∈ Vh als
(r̄h , φh ) := (f, φh ) − a(ūh , φh )
∀φh ∈ Vh .
Dann ist die rechte Seite r̄H ∈ VH von (4.16) gegeben als
r̄H = RH r̄h .
(4.17)
Mit dem Operator AH schreiben wir (4.16) in der Form
wH = A−1
H r̄H ,
(4.18)
In Vektor-Schreibweise definieren wir zunächst
rh := bh − Ah ūh ,
für welchen gilt:
(i)
(rh )i = (rh , φh ).
Also, mit Bemerkung 4.3 ist
rH = RH rh ,
(i)
(rH )i = (rH , φh ),
und die Grobgitterlösung wH ∈ RNH berechnet sich als
wH = A−1
H r̄H ,
(4.19)
wH = A−1
H RH (bh − Ah ūh ).
(4.20)
oder eben
Update
Schließlich ergibt sich die neue Iteration durch:
(1)
uh = ūh + ωPh wH ,
(4.21)
(1)
(4.22)
bzw. in Vektorschreibweise
T
uh = ūh + ωRH
WH .
Wir fassen zusammen:
Algorithmus 4.6 (Zweigitteriteration). Seien ΩH b Ωh zwei geschachtelte Triangulierungen von Ω und VH ⊂ Vh zwei geschachtelte Finite Elemente Räume mit dim(VH ) = NH und
(0)
dim(Vh ) = Nh . Sei uh ∈ RNh ein Startvektor. ν > 0 sei die Anzahl an Glättungsschritten,
ω ∈ (0, 1] ein Dämpfungsparameter. Iteriere
(t+1)
uh
126
(t)
= ZG(uh , fh ),
4.3 Mehrgitterverfahren
(t)
mit der Zweigitter-Iteration ZG(uh , fh ):
(t)
(t)
(i)
Vorglätten:
ūh = Gνh1 (uh )
ūh = Ghν1 (uh )
(ii)
Residuum:
rh = bh − Ah ūh
rh = fh − Ah ūh
(iii)
Restriktion:
rH = RH rh
rH = RH rH
(iv)
(v)
Grobgitterproblem:
Prolongation:
wH =
(t+1)
uh
A−1
H rH
wH = A−1
H rH
T
= ūh + ωRH
wH
(t+1)
uh
= ūh + ωPh wH
Fehlerfortpflanzung Zur Analyse der Zweigitter-Konvergenz müssen wir nun eine Fehler(t+1)
fortpflanzung herleiten, also einen Zusammenhang zwischen eh
nach einem Schritt und
(t)
eh vor dem Schritt. Wir entwickeln diese Fehlerdarstellung wieder simultan in Funktionenschreibweise und für Vektoren. Für den neuen Fehler gilt:
(t+1)
eh
(t+1)
= uh − uh
(t+1)
,
bzw. eh
= ēh − Ph wH ,
bzw. eh
(t+1)
= uh − uh
.
Mit (4.21) bzw. (4.22) erhalten wir
(t+1)
eh
(t+1)
T
= ēh − RH
WH
(t+1)
T
= ēh − RH
A−1
H r̄H .
Weiter, mit (4.18) bzw. (4.19)
(t+1)
eh
= ēh − Ph A−1
H r̄H ,
bzw. eh
Die Rechte Seite des Grobgitterproblems ist durch (4.17) bzw. durch (4.20) in Vektorschreibweise gegeben:
(t+1)
eh
= ēh − Ph A−1
H RH (f − Ah ūh ),
(t+1)
bzw. eh
T
= ēh − RH
A−1
H RH (bh − Ah ūh ).
Wir nutzen nun für die exakte Lösung Ah uh = f bzw. Ah uh = bh und erhalten einen Bezug
zum Fehler nach der Vorglättung
(t+1)
eh
= ēh − Ph A−1
H RH Ah (uh − ūh )
(t+1)
bzw. eh
T
= ēh − RH
A−1
H RH Ah (uh − ūh ),
also:
(t+1)
eh
= (Ih − Ph A−1
H RH Ah )ēh ,
(t+1)
bzw. eh
T
= [Ih − RH
A−1
H RH Ah ]ēh .
Für diesen gilt mit Darstellung (4.14) und (4.15)
(t+1)
eh
(t)
ν1
= (Ih − Ph A−1
H RH Ah )Gh eh
(t+1)
bzw. eh
(t)
ν1
T
= [Ih − RH
A−1
H RH Ah ]Gh eh .
Zusammengefasst erhalten wir den Zweigitter-Operator BZG (ν) und die Zweigitter-Matrix
BZG (ν):
ν
BZG (ν) = (Ih − Ph A−1
H RH Ah )Gh ,
T
ν
BZG (ν) = [Ih − RH
A−1
H RH Ah ]Gh
Die Zweigitter-Iteration spaltet sich in zwei Bestandteile: die Glättung und die GrobgitterKorrektur. Bei der mathematischen Konvergenzanalyse des Verfahrens werden diese beiden
Anteile getrennt. Wir beweisen getrennt:
127
4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen
Satz 4.10 (Glättungseigenschaft). Die gedämpfte Richardson-Iteration mit θ = λmax (Ah )−1
erfüllt die Glättungseigenschaft
cG
kvh kL2 (Ω)
νh2
kAH Ghν vh kL2 (Ω) ≤
∀vh ∈ Vh .
sowie
Satz 4.11 (Approximationseigenschaft). Sei ΩH b Ωh mit H ≤ cH und c > 0 unabhängig
von h und H zwei geschachtelte Gitter. Für die Grobgitterkorrektur gilt die Approximationseigenschaft
−1
2
k(A−1
h − Ph AH RH )vh kL2 (Ω) ≤ cA h kvh kL2 (Ω) ∀vh ∈ Vh .
Mit diesen beiden Sätzen folgt unmittelbar das Konvergenzresultat für die Zweigitter-Iteration:
Satz 4.12 (Konvergenz der Zweigitter-Iteration). Es sei G ein Glättungsoperator mit der Eigenschaft von Satz 4.10. Weiter sei H ≤ ch. Dann gilt für hinreichend viele Glättungsschritte
ν1 > ν mit ν unabhängig von h
kBZG (ν)k ≤ ρZG (ν) =
c
< 1.
ν
Beweis: Mit Satz 4.10 und Satz 4.11 gilt:
kBZG (ν)vh k ≤
cA cG
kvh k
ν
∀vh ∈ Vh .
Mit ν > cA cG folgt die Aussage des Satzes.
Wir beweisen zunächst die Glättungseigenschaft:
Beweis von Satz 4.10: Der Operator Ah : Vh → Vh mit (Ah uh , vh ) = (uh , Ah vh ) ist
selbstadjungiert, und hat positive reelle Eigenwerte 0 < λ1 ≤ · · · ≤ λNh und verfügt über
(1)
(N )
ein zugehöriges System aus L2 -orthonormalen Eigenvektoren ωh , . . . , ωh h . Jede Funktion
vh ∈ Vh schreiben wir nun in der Form
vh =
Nh
X
(i)
γ i ωh ,
γi =
(i)
(vh , ωh ),
kvh k2L2 (Ω)
=
Nh
X
γi2 .
(4.23)
i=1
i=1
Mit θ := λ−1
Nh ist durch die Richardson-Iteration
Gh := Ih −
1
Ah ,
λNh
ein Operator Gh : Vh → Vh definiert. Für ein beliebiges vh ∈ Vh gilt in Schreibweise (4.23)
Ah Ghν vh
=
Nh
X
i=1
128
γi λ i
λi
1−
λNh
!ν
(i)
ωh .
4.3 Mehrgitterverfahren
In der Norm:
kAh Ghν vh k2 =
Nh
X
γi2 λ2i
i=1
λi
1−
λNh
!2ν


!2


!2
λi
≤ λ2Nh max
1≤i≤Nh  λNh
=
λ2Nh
λi
max
1≤i≤Nh  λNh
λi
1−
λNh
!2ν  N
h
X
2
γi

i=1
!2ν 

λi
kv k2 .
1−
 h
λNh
Es gilt 0 < λ1 /λNh ≤ 1 und mit der Ungleichung
max {x(1 − x)ν } ≤ (1 + ν)−1 ,
0≤x≤1
ν≥1
folgt
kAh Ghν vh k2 ≤ λ2Nh (1 + ν)−2 kvh k2 .
(4.24)
Für den größten Eigenwert des Operators Ah gilt der Zusammenhang
(Nh ) 2
λNh kωh
(Nh )
k = (Ah ωh
(Nh )
mit dem Koeffizientenvektor ω h
(Nh )
, ωh
(Nh )
) = hAhω h
(Nh )
von ωh
(Nh )
, ωh
(Nh ) 2
ωh
i ≤ λmax (Ah )|ω
| ,
in der Knotenbasisdarstellung. Jetzt gilt
(Nh )
(N )
(N )
(N )
h) 2
ω (N
|ω
| = hM−1
, ω h h i ≤ λmin (Mh )−1 (ωh h , ωh h ).
h
h Mh ω h
Mit λmin (Mh ) = O(h2 ) sowie λmax (Ah ) = O(1) folgt λNh ≤ ch−2 und aus (4.24) schließlich
die Behauptung.
Es bleibt, die Approximationseigenschaft zu zeigen:
Beweis von Satz 4.11: Es sei fh ∈ Vh beliebig. Dann ist vh = A−1
h fh definiert durch
a(vh , φh ) = (fh , φh ) ∀φh ∈ Vh .
(4.25)
Weiter sei fH ∈ VH gegeben durch fH = RH vh , also
(fH , φH ) = (fh , φH )
∀φH ∈ VH .
−1
Also ist vH = A−1
H fH = AH RH fh definiert durch
a(vH , φH ) = (fh , φH ) ∀φH ∈ VH .
(4.26)
Schließlich definieren wir eine Funktion v ∈ H01 (Ω) ∩ H 2 (Ω) als Lösung der Randwertaufgabe
a(v, φ) = (fh , φ)
∀φ ∈ H01 (Ω).
(4.27)
Für diese Lösung gilt die a priori Abschätzung
k∇2 vk ≤ ckfh k.
(4.28)
129
4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen
ΩL = Ωh
Ωl
Ω0 = ΩH
Abbildung 4.8: Schematische Darstellung des V - und W -Zyklus.
Die Lösungen vh ∈ Vh von (4.25) und vH ∈ VH (4.26) sind gerade die Galerkin-Approximationen
der Lösung v ∈ H01 (Ω) ∩ H 2 (Ω) von (4.27). Es gilt demnach die L2 -Fehlerabschätzung:
kv − vh k ≤ ch2 k∇2 vk,
kv − vH k ≤ cH 2 k∇2 vk.
Mit der Annahme H ≤ ch und der a priori Abschätzung (4.28) folgt
kvh − vH k ≤ kv − vh k + kv − vH k ≤ ch2 k∇2 vk ≤ ch2 kfh k.
Also folgt für den Grobgitter-Operator
−1
2
kA−1
h fh − Ph AH RH fh k ≤ ch kfh k
∀fh ∈ Vh .
Dies vervollständigt den Beweis.
4.3.3 Mehrgitter-Verfahren
Beim Zweigitter-Verfahren erfolgt die Grobgitter-Korrektur durch Lösen eines Systems AH uH =
fH . Dieses Problem ist zwar kleiner als das ursprüngliche, kann jedoch immer noch zu groß
zum effizienten Lösen sein.
Beim Mehrgitter-Verfahren zur Lösung von AL uL = fL im Raum Vh = VL wird zur Lösung
des Grobgitter-Problems AL−1 wL−1 = rL−1 wieder das Zweigitter-Verfahren verwendet. Dies
geschieht auf rekursive Art bis wir beim Problem auf dem gröbsten Gitter A0 u0 = r0 ankommen. Dieses nun sehr kleine Gleichungssystem kann mit einem direkten Verfahren gelöst
werden.
Algorithmus 4.7 (Mehrgitter-Verfahren). Durch ΩH = Ω0 b Ω1 b . . . b ΩL = Ωh sei
(0)
(0)
eine Familie von geschachtelten Triangulierungen mit hl−1 ≤ chl gegeben. Sei uL := uh
ein Startwert. Durch ν1 , ν2 ≥ 0 sei die Anzahl der Vor- bzw. Nachglättungsschritte gegeben.
Weiter sei R ≥ 1 und ωl ∈ (0, 1] ein Dämpfungsparameter. Iteriere für t ≥ 0
(t+1)
uL
130
(t)
= MG(L, uL , fL ),
4.3 Mehrgitterverfahren
(t)
mit der Mehrgitter-Iteration MG(l, ul , fl ):
l=0
l>0
(i)
Direkter Löser:
Vorglätten:
(t+1)
u0
= A−1
0 f0
ν1 (t)
ūl = Gl (ul )
rl = fl − Al ūl
(ii)
Residuum:
(iii)
Restriktion:
rl−1 = Rl−1 rl
(iv)
Grobgitterproblem:
wl−1 = 0
1≤r≤R:
(v)
(vi)
(vii)
(0)
(r)
(R)
wl = Pl wl−1
¯l = ūl + ωl wl
ū
Prolongation:
Update:
Nachglätten:
(r−1)
wl−1 = MG(l − 1, wl−1 , rl−1 )
(t+1)
ul
¯l )
= Glν+2 (ū
Da die Grobgitter-Korrektur nun lediglich eine Approximation ist, führen wir R ≥ 1 Korrekturschritte aus. R wird üblicherweise sehr klein als R = 1 oder als R = 2 gewählt. Im
Fall R = 1 spricht man vom V -Zyklus, im Fall R = 2 vom W -Zyklus der MehrgitterIteration, siehe Abbildung 4.8 für eine Darstellung des Iterationsschemas. Neben dem V
und W -Zyklus existieren weitere Varianten wie der F -Zyklus, beim dem in einer Richtung
R = 1 und in der anderen Richtung R = 2 gewählt wird. Weiter kann es zweckdienlich sein,
den Mehrgitterprozess nicht auf dem feinsten Gitter Ωh sondern auf dem gröbsten Gitter
ΩH zu starten. Iterativ werden mit dem Mehrgitter-Verfahren auf den Gittern Ω0 , Ω1 , . . .
Lösungen mit hinreichender Genauigkeit erstellt. Dieses geschachtelte Mehrgitter-Verfahren
erreicht die optimale Komplexität O(NL ).
Wenn der V -Zyklus konvergiert, so ist er sehr effizient. Bei Problemen mit Unsymmetrien,
nicht-glatten Koeffizienten, Singularitäten ist der V -Zyklus hingegen oft instabil. Hier bietet
sich dann der robuste W -Zyklus an.
Wir beweisen nun:
Satz 4.13 (Konvergenz des Mehrgitter-Verfahrens). Der Zweigitter-Zyklus sei auf jedem
Paar der Familie V0 ⊂ V1 ⊂ · · · ⊂ VL konvergent mit ρZG (ν) → 0 für ν → 0 gleichmäßig
bezüglich l. Dann konvergiert für ν ≥ ν0 groß genug der Mehrgitteralgorithmus im W -Zyklus
mit einer von L (und somit h) unabhängigen Konvergenzrate ρM G < 1 bezüglich der L2 Norm:
(t)
(t)
kuL − MG(L, uL , fL )k ≤ ρM G kuL − uL k.
Beweis: (i) Wir setzen ν2 = 0. Wir führen den Beweis per Induktion nach L. Zunächst sei
ν ≥ ν0 so gewählt, dass für die Zweigitter-Konvergenz gilt ρZG ≤ 18 . Wir wollen zeigen, dass
dann gilt ρM G ≤ 41 . Im Fall L ≤ 2 liegt gerade das Zweigitter-Verfahren vor und die Aussage
ist richtig.
(t)
(ii) Sei nun L > 2. Für das Gitterlevel L − 1 gilt nach Voraussetzung ρM G ≤ 14 . Sei uL die
letzte Iteration.
131
4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen
Wir führen nun als Hilfsgröße die Lösung der Zweigitter-Iteration (mit exakter Lösung des
Grobgitter-Problems) ein:
(t+1)
(t)
ūL
= ZG(L, uL , fL ).
Dann gilt für die Differenz zwischen dieser Lösung und zweimaliger Grobgitter-Korrektur
(0)
MG(l−1)
(1)
MG(l−1)
(2)
mit dem Mehrgitter-Verfahren (0 = ωl−1 −−−−−−→ ωl−1 −−−−−−→ ωl−1 )
(t+1)
uL
(t+1)
− ūL
(2)
= PL (wl−1 − w̄l−1 ),
(2)
wobei wl−1 die mit Mehrgitter approximierte Grobgitterlösung ist und w̄l−1 die exakte Lösung des Grobgitterproblems. Es gilt:
(2)
(0)
kwl−1 − w̄l−1 k ≤ ρ2M G kwl−1 − w̄l−1 k = ρ2M G kw̄l−1 k,
(4.29)
(0)
da der Startwert in Schritt (iv) von Algorithmus 4.7 gerade wl−1 = 0 ist. Mit
(t)
ν
w̄l−1 = A−1
l−1 Rl−1 (fl − Al Gl (ul ))
(t)
ν
= A−1
l−1 Rl−1 Al (ul − Gl (ul ))
(t)
ν
= A−1
l−1 Rl−1 Al Gl (ul − ul ),
da Gl (ul ) = ul eine Fixpunktiteration ist. Also gilt mit (4.29)
(2)
(t)
ν
kwl−1 − w̄l−1 k ≤ ρ2M G kA−1
l−1 Rl−1 Al Gl k kul − ul k.
Wir schätzen nun die Norm des Grobgitter-Operators mit Hilfe des Zweigitter-Operators ab:
−1
−1
ν
ν
ν
ν
A−1
l−1 Rl−1 Al Gl = Gl − (Al − Pl Al−1 Rl−1 )Al Gl = Gl − ZG l
Hieraus folgt:
ν
ν
kA−1
l−1 Rl−1 Al Gl k ≤ kGl k + kZGk ≤ 1 + ρZG ≤ 2.
Insgesamt erhalten wir:
(t+1)
kul − ul
Mit ρZG ≤
1
8
und ρM G ≤
1
4
(t)
k ≤ (ρZG + 2ρ2M G )kul − ul k.
aus der Induktionsannahme folgt die Aussage des Satzes.
Im Abschluss betrachten wir nun den numerischen Aufwand in jedem Mehrgitterschritt. Hierzu benötigen wir einige Hilfsgrößen, welche auf jedem Gitter Ωl den Aufwand der einzelnen
Mehrgitterkomponenten bezüglich der Anzahl der Freiheitsgrade messen. Es sei
C0 (N0 ) := OP (A−1
0 )/N0 ,
der Aufwand zur Grobgitterlösung pro Grobgitter-Freiheitsgrad. Man beachte, dass C0 von
N0 anhängt, da die Grobgitterlösung im Allgemeinen nicht mit linearer Laufzeit erfolgen
kann. Dennoch, da N0 fest ist, kann N0 (N0 ) in diesem Zusammenhang als konstant angesehen werden. Weiter sei Cs := OP (Sl )/Nl der Aufwand pro Glättungs-Iteration pro Knoten
auf dem Gitterlevel Ωl sowie CT := OP (Rl )/Nl der Aufwand zur Restriktion und auch Prolongation pro Freiheitsgrad und Cr := OP (rl )/Nl der numerische Aufwand zur Berechnung
des Residuums. Dann gilt:
132
4.3 Mehrgitterverfahren
Satz 4.14 (Komplexität des Mehrgitterverfahrens). Es sei κ := max(Nl−1 /Nl ) < 1, R =
1 oder R = 2 die Anzahl der Grobgitteriterationen und ν1 , ν2 die Anzahl der Vor- bzw.
Nachglättungsschritte. Dann gilt im Fall q := κR < 1 für den numerischen Aufwand der
Mehrgitteriteration
OP (MG(L)) =
1
((ν1 + ν2 )Cs + Cd + 2CT ) NL + C0 (N0 )q L NL
1−q
Der Gesamtaufwand zur Reduktion des L2 -Fehlers bezüglich der L2 -Norm auf die Diskretisierungsgenauigkeit O(h2 ) beträgt daher O(NL ln(NL )).
Beweis: Wir betrachten zunächst eine Gitterebene l mit Nl Freiheitsgraden und zählen die
auf dieser Ebene notwendigen arithmetischen Operation mit Ausnahme der Grobgitterkorrektur. Mit der Vorbereitung gilt hier:
OP (Gl ) = C̃Nl ,
C̃ := (ν1 + ν2 )Cs + Cd + 2CT
(4.30)
D.h., auf der feinsten Gitterebene gilt rekursiv:
OP (MG L ) = C̃NL + R · OP (MG L−1 )
= C̃NL + RC̃NL−1 + R2 · OP (MG L−2 )
= C̃NL + RC̃NL−1 + R2 CNL−2 + · · · + RL−1 C̃N1 + RL C0 (N0 )N0 ,
wobei C0 (N0 )N0 der Aufwand zum Lösen des Grobgitterproblems ist. Mit Nl−1 ≤ κNl und
q := κR < 1 folgt:
OP (MG L ) ≤ C̃
L−1
X
(κR)l NL + C0 (N0 )(κR)L NL
l=0
= C̃
1 − qL
NL + C0 (N0 )q L NL
1−q
≤
C̃
+ C0 (N0 )q L NL .
1−q
!
Mit (4.30) folgt die Komplexitätsabschätzung. Zur Abschätzung der Gesamtkomplexität machen wir den Ansatz:
−2
ρtM G = h2L ∼ NL d
→
t∼−
ln(NL )
.
ln(ρM G )
Die Mehrgitter-Iteration erreicht also fast die optimale Komplexität O(NL ) zum Lösen des
Gleichungssystems mit hinreichender Genauigkeit. Der Logarithmische Term ist hierbei in
der Anwendung nicht wesentlich. Für den Beweis der optimalen Komplexitätsabschätzung
ist die Bedingung κR < 1 wesentlich. D.h., im Fall des W -Zyklus mit R = 2 bedeutet
dies κ := max Nl−1 /Nl < 12 . Bei der Verwendung von lokal verfeinerten Gittern ist diese
Bedingung oft nicht erfüllt. Um dennoch optimale Mehrgitter-Komplexität zu erhalten muss
der Algorithmus modifiziert werden.
133
4 Iterative Lösungsverfahren für Finite Elemente Diskretisierungen
134
5 Die Finite Elemente Methode für
parabolische Probleme
Wir betrachten im Folgenden die Wärmeleitungsgleichung auf dem Zeit-Ortsgebiet I ×Ω mit
einem Intervall I = (0, T ) und Ω ⊂ Rd . Wir suchen die Lösung der Wärmeleitungsgleichung
mit homogenen Dirichlet-Randwerten
∂t u(x, t) − ∆u(x, t) = f (x, t) in I × Ω,
u = u0 für t = 0,
u = 0 auf I × ∂Ω,
(5.1)
mit einer rechten Seite f ∈ L2 (I; L2 (Ω)). Der Fall von nicht-homogenen Randdaten u = g
auf I × ∂Ω kann wie bei elliptischen Differentialgleichungen in ein Problem mit modifizierter
rechter Seite aber homogenen Randdaten übertragen werden. Zu (5.1) korrespondiert die
variationelle Formulierung:
(∂t u(t), φ) + (∇u(t), ∇φ) = (f (t), φ),
(u(0), φ) = (u0 , φ) ∀φ ∈ H01 (Ω)
(5.2)
mit der Lösung u ∈ W in
u ∈ W,
W := {v ∈ L2 (I; H01 (Ω)), ∂t v ∈ L2 (I; L2 (Ω))},
(5.3)
Zur Diskretisierung von parabolischen Gleichungen existieren einige verschiedene Ansätze:
Orts-Zeit-Diskretisierung Die Diskretisierung erfolgt gleichzeitig in Ort und Zeit. Bei einer
Finite Differenzendiskretisierung wird hierbei das Gebiet I × Ω in ein Orts-Zeit-Gitter
Ih × Ωh zerlegt und wir suchen in den diskreten Punkten (ti , xj )i,j eine Differenzenapproximation zu (5.1).
Alternativ kann die Lösung auch mit einem globalen Galerkin-Ansatz approximiert
werden. Hierzu wird ein diskreter Teilraum Wkh ⊂ W gewählt und die Lösung ukh ∈
Wkh gesucht, so dass sie die schwache Formulierung erfüllt. Diesen Ansatz werden
wir später näher untersuchen. Er hat seine Stärken in der einfachen mathematischen
Untersuchung.
Linienmethode Bei der Linienmethode wird die Wärmeleitungsgleichung zunächst im Ort
diskretisiert. Dies geschieht zum Beispiel mit der Finite Elemente Methode. D.h., die
variationelle Formulierung (5.2) wird im Ort mit einem Finite Elemente Ansatz Vh ⊂
H01 (Ω) diskretisiert und wir erhalten eine Ortsdiskrete Funktion
uh : I → Vh .
Wir suchen also die örtliche diskrete, aber in der Zeit kontinuierliche Lösung uh (t) von
(∂t uh (t), φh )Ωh + (∇uh (t), ∇φh )Ωh = (f (t), φh ) ∀φh ∈ Vh .
135
5 Die Finite Elemente Methode für parabolische Probleme
Mit der üblichen Schreibe für die Massen- sowie Steifigkeitsmatrix und der Koeffizientendarstellung der Lösung
uh (x, t) =
Nh
X
ui (t)φh (x),
i=1
wird die Wärmeleitungsgleichung überführt in ein System von linearen Anfangswertaufgaben:
Mh uh0 (t) + Ah uh (t) = bh (t), uh (0) = uh0 ,
(5.4)
mit rechter Seite bh und Startwert uh0 als
h
bh (t) = (bi (t))N
i=1 ,
(i)
bi (t) = (f (t), φh )Ωh ,
und
h
uh0 = (ui0 )N
i=1 ,
(i)
ui0 = (u0 , φh )Ωh .
Das System (5.4) kann nun mit einem üblichen Differenzenverfahren zur Approximation von Anfangswertaufgaben in der Zeit approximiert werden. Hierbei sollten
A-stabile Verfahren genutzt werden, da durch die Kondition der Steifigkeitsmatrix
cond2 (Ah ) = O(h−2 ) die ODE sehr steif ist.
Dieser Verfahrensansatz ist einfach zu analysieren, da die Theorie der gewöhnlichen
Differentialgleichungen unmittelbar angewendet werden kann. Die Linienmethode ist
jedoch wenig flexibel. Insbesondere baut die Linienmethode auf einer örtlichen Diskretisierung der Gleichung auf, welche für alle Zeitschritte fest ist. Es können also nicht
unterschiedliche Gitter zu unterschiedlichen Zeitpunkten gewählt werden. Bei instationären Prozessen ist dies allerdings oft wesentlich.
Rothe-Methode Die Rothe-Methode geht umgekehrt vor. Zunächst diskretisieren wir die
Wärmeleitungsgleichung in der Zeit durch Einführen eines Zeitgitters
t0 < t1 < · · · < tM ,
M
m
1
mit der zeitdiskreten Funktion uk = (um
k )m=0 , uk ∈ H0 (Ω). Mit dem impliziten EulerVerfahren erhalten wir
u0k = u0 ,
m−1
m
um
+ km f¯m ,
k − km ∆uk = uk
m = 1, . . . , M.
Hier ist f¯m eine Approximation zu f (tm ), welche meistens zur besseren Genauigkeit
im zeitlichen Mittel ausgewertet wird, etwa
f
m
=
−1
km
Z tm
f (t) dt.
tm−1
Wir erhalten also eine Abfolge von quasi-stationären partiellen Differentialgleichungen,
welche nun im Ort diskretisiert werden. Hier betrachten wir im Ort die Finite Elemente Methode, indem zu jedem Zeitschritt tm eine Triangulierung Ωm
h von Ω und ein
136
5.1 Die Rothe-Methode für parabolische Differentialgleichungen
entsprechender Finite Elemente Raum Vhm ⊂ H01 (Ω) erstellt wird. Dann ist in jedem
Zeitschritt das folgende Galerkin-Problem zu lösen:
m
um
kh ∈ Vh :
m−1
m
¯m
(um
kh , φh ) + km (∇ukh , ∇φh ) = (ukh , φh ) + km (f , φh ),
∀φh ∈ Vhm ,
(5.5)
sowie für den Startwert
u0kh ∈ Vh0 :
(u0kh , φh ) = (u0 , φh )
∀φh ∈ Vh0 .
Eine detaillierte mathematische Analyse der verschiedenen Diskretisierungsmethoden für die
Wärmeleitungsgleichung ist sehr komplex. Jeder der drei Ansätze hat verschiedene Vorteile
bei der Untersuchung. Wir werden deshalb die grundsätzlichen Fragen nach Existenz, Konvergenz und Stabilität mit zum Teil verschiedenen Ansätzen untersuchen. Es lässt sich aber
Zeigen, dass die drei Ansätze eng miteinander verwandt sind. Oft handelt es sich - bis auf
einen numerischen Integrationsfehler - um äquivalente Formulierungen.
5.1 Die Rothe-Methode für parabolische Differentialgleichungen
Wir betrachten die Rothe-Methode zum Lösen der Wärmeleitungsgleichung. Suche u mit
∂t u − ∆u = f,
ut=0 = u0 ,
u∂Ω = 0.
(5.6)
Zur Diskretisierung zerlegen wir zunächst das Zeitintervall I = [0, T ] in diskrete Zeitpunkt
0 = t0 < t1 < · · · < tM = T,
km := tm − tm−1 ,
M
Auf diesen Zeitpunkten definieren wir durch uk = (um
k )m=0 eine zeitdiskrete Funktion.Gleichung (5.6)
wird nun durch ein beliebiges Einschritt-Verfahren diskretisiert. Prototypisch betrachten wir:
Explizites Euler-Verfahren
u0k = u0 ,
m−1
um
+ km ∆um−1
+ km f¯m
k = uk
k
Implizites Euler-Verfahren
u0k = u0 ,
m
0
¯m
um
k − km ∆uk = u + km f
Crank-Nicolson-Verfahren
u0k = u0 ,
1
1
m−1
m
0
+ km f¯m .
um
k − km ∆uk = u + km ∆uk
2
2
Diese drei Verfahren lassen sich mit einem Parameter θ ∈ [0, 1] einheitlich mit der Vorschrift
u0k = u0 ,
m−1
m
0
um
+ km f m
k − km θ∆uk = u + km (1 − θ)∆uk
(5.7)
formulieren. Diese Einschrittmethode wird das allgemeine Theta-Verfahren genannt. Für
θ = 0 ist das Verfahren explizit, d.h. im Kontext von parabolischen Gleichungen, dass der
137
5 Die Finite Elemente Methode für parabolische Probleme
elliptische Operator L = −∆ nur an Stelle des alten Zeitschrittes um−1
ausgewertet werden
k
muss. Die rechte Seite f¯m wird jeweils in einem geeigneten Mittel ausgewertet.
Zur Ortsdiskretisierung leiten wir gemäß (5.2) eine schwache Formulierung des Theta-Verfahrens
1
her. Für m = 0, . . . , M , suche um
k ∈ H0 (Ω) so dass
(u0k , φ) = (u0 , φ) ∀φ ∈ H01 (Ω)
m−1
m
(um
, φ) − km (1 − θ)(∇um−1
, ∇φ) + km (f¯m φ)
k , φ) + km θ(∇uk , ∇φ) = (uk
k
∀φ ∈ H01 (Ω).
(5.8)
Wie bei gewöhnlichen Differentialgleichungen handelt es sich um ein Zeitschritt-Verfahren.
m−1
Die Lösung um
k hängt einzig von den Problemdaten und vom vorherigen Zeitschritt uk
ab. In jedem Schritt ist also eine quasi-stationäre partielle Differentialgleichung mit dem
Differentialoperator
Lk,ε := −kθ∆ + id,
zu lösen, welcher für alle kθ > 0 elliptisch ist.
Wir diskretisieren, indem wir das Gebiet Ω zu jedem Zeitpunkt tm triangulieren Ωm
h . Auf
jeder dieser - variierenden - Triangulierungen erstellen wir einen Finite Elemente Raum
Vhm ⊂ H01 (Ω). Auch wenn es theoretische möglich wäre, in jedem Zeitschritt einen anderen
Finite Elemente Ansatz zu wählen, nehmen wir an, dass alle Räume alle vom gleichen parametrischen Typ sind, also dass z.B. Vhm ein stückweise linearer Finite Elemente Raum für
alle m ist.
M
Das diskrete Theta Verfahren sucht nun die Lösung ukh = (um
kh )m=0 von:
(u0kh , φ0 ) = (u0 , φ0 ) ∀φ0 ∈ Vh0
m−1
m−1
m
m
(um
kh , φm ) + km θ(∇ukh , ∇φm ) = (ukh , φm ) − km (1 − θ)(∇ukh , ∇φm ) ∀φm ∈ Vh .
(5.9)
In jedem Zeitschritt stellen wir die Lösung um
kh in der üblichen Basisdarstellung dar:
um
hk (x) =
Nm
X
uim φ(i)
m (x),
m
uhm = (uim )N
i=1 .
i=1
Jetzt können wir mit der
uh0 = Ph0 u0 ,
L2 -Projektion
Phm : L2 (Ω) → Vhm Gleichung (5.9) schreiben als:
m−1,m
m
m
m ¯m
(Mm
− (1 − θ)km Am−1,m
uhm−1 + km Mm
h + θkm Ah ) uh = Mh
h Ph f .
h
Nm ×Nm und Mm ∈ RNm ×Nm Steifigkeits- und Massenmatrix im Raum
Dabei sind Am
h ∈ R
h
m
Vh :
m Nm
Am
h = (Aij )i,j=1 ,
m Nm
Mm
h = (Mij )i,j=1 ,
(j)
(i)
Am
ij = (∇φm , ∇φm ),
(j) (i)
Mm
ij = (φm , φm ).
Die Matrizen Mm−1,m
∈ RNm ×Nm−1 sowie Am−1,m
∈ RNm ×Nm−1 sind entsprechende Massenh
h
und Steifigkeits-Transfermatrizen. Hier kommen die Testfunktionen aus dem neuen Raum
Vhm und die Ansatzfunktionen aus dem vorherigen Raum Vhm−1 :
N ,N
m
m−1
Am−1,m
= (Am−1,m
)i,j=1
,
ij
h
N ,Nm−1
m
Mm−1,m
= (Mm−1,m
)ij=1
ij
h
138
,
(j)
Am−1,m
= (∇φm−1 , ∇φ(i)
m)
ij
(j)
(i)
Mm−1,m
= (φm−1 , φm
).
ij
5.1 Die Rothe-Methode für parabolische Differentialgleichungen
Das Verfahren vereinfacht sich, wenn Vhm = Vh für alle Zeitschritte gleich gewählt wird.
Dann gilt in jedem Schritt:
(Mh + θkm Ah )uhm = (Mh − (1 − θ)km Ah )uhm−1 + km Mh Ph f¯m .
mit der Steifigkeits und Massenmatrix im Raum Vh sowie der L2 -Projektion Ph : L2 (Ω) → Vh .
Der Vorteil der Rothe-Methode ist die große Flexibilität. In jedem Zeitschritt kann ein
speziell angepasstes Ortsgitter verwendet werden.
Die Konvergenzanalyse ist sehr aufwändig. Für das implizite Euler-Verfahren gilt
Satz 5.1 (Implizites Euler-Verfahren). Für das implizite Euler-Verfahren mit Verbindung
einer linearen Finite Elemente Diskretisierung im Ort gelten die Fehlerabschätzungen:
1. Für allgemeine, variierende Ortsgitter
max kem
kh k ≤ cT
1
2
1≤m≤M
max
0≤m≤M
−1
{km 2 h2m k∇2 um k}
M
X
+c
m=1
2
km
Z tm
! 21
k∇∂t uk2 dt
tm−1
2. Für feste Ortsgitter mit Vhm = Vh :
max kem
kh k ≤ cT
1≤m≤M
1
2
max {h2 k∇2 um k} + c
0≤m≤M
M
X
m=1
2
km
Z tm
! 21
k∇∂t uk2 dt
,
tm−1
jeweils mit dem Fehler ek,h = u − uk,h .
Für den zweiten Fall mit festen Ortsgittern gilt falls k = km uniform gewählt wird
2
kem
kh k = O(h + k),
wir erhalten also die bekannte lineare Ordnung des impliziten Euler-Verfahrens in der Zeit
und die quadratische Ordnung h2 für den L2 -Fehler der linearen Finite Elemente Approximation im Ort.
−1
Auf wechselnden Gittern ist der Faktor km 2 h2m nicht optimal. Fordert man die Schrittweitenbedingung
4
k ≈ h3 ,
so erhält man einen balancierten Fehler
1
4
2
4
2 −2
kem
) = O(h 3 + h2 h− 3 ) = O(h 3 ).
kh k = O(k + h k
Im Fall Vhm−1 ⊂ Vhm für alle m, wenn also die Gitter von Zeitschritt zu Zeitschritt nur feiner
werden, aber nie gröber, so kann wieder das optimale Resultat gezeigt werden. Für einen
allgemeinen Beweis dieses Satzes verweisen wir auf [Rannacher].
Wir werden einen später alternativen Beweis nachtragen. Dazu machen wir einen Umweg und
zeigen die Verwandtschaft des impliziten Euler-Verfahrens zu einer Galerkin-Diskretisierung
in Ort und Zeit.
139
5 Die Finite Elemente Methode für parabolische Probleme
5.1.1 Praktische Aspekte der Rothe-Methode
In jedem Zeitschritt der Rothe-Methode muss ein lineares Gleichungssystem gelöst werden:
uhm ∈ RNm :
m−1,m
m
m
uhm−1 + km bm
(Mm
− (1 − θ)km Am−1,m
h
h + θkm Ah ) uh = Mh
h
Hierzu sind die folgenden Schritte notwendig
1. Aufbauen der rechten Seite
m Nm
bm
h = (bi )i=1 ,
¯m i
bm
i = (f , φm ).
2. Einfluss des alten Zeitschritts
m−1 (i)
m
, φm ).
(Mhm−1,m uhm−1 )N
i=1 = (uh
3. Falls θ < 1
m−1
m
, ∇φ(i)
uhm−1 )N
(Am−1,m
m ).
i=1 = (∇uh
h
4. Aufbau der Matrix
m
Mm
h + θkm Ah .
5. Lösen des linearen Gleichungssystems
Im Folgenden beschreiben wir die notwendigen Schritte. Der Aufbau der rechten Seite unterscheidet sich nicht vom Vorgehen bei elliptischen partiellen Differentialgleichungen. Auch die
Systemmatrix wird aus Steifigkeitsmatrix Ah und Massenmatrix Mh zusammengesetzt. Dies
entspricht der Tatsache, dass jeder Zeitschritt gerade die Diskretisierung eines elliptischen
Differentialoperators L = −km θ∆ + id ist. Dies bedeutet auch, dass zum Lösen des Systems
in Schritt 5. die bekannten Verfahren wie CG oder auch das Mehrgitterverfahren genutzt
werden können.
Der Gittertransfer Falls Vhm 6= Vhm−1 gehen zur Berechnung von Schritten 2. und 3. beide
Finite Elemente Räume ein. Die Funktion um−1
stammt aus Vhm−1 und hat die Darstellung
kh
Nm−1
um−1
kh
=
X
(i)
uim−1 φm−1
(i)
φm−1 ∈ Vhm−1
i=1
und z.B. in Schritt 2. müssen die Produkte
Nm−1
X
(i)
uim−1 (φm−1 , φ(j)
m ),
j = 1, . . . , Nm
i=1
berechnet werden. Dies führt zu praktischen Problemen, da die Knotenbasisfunktionen auf
den jeweiligen Gittern definiert sind. Im einfachen Fall, dass Vhm−1 ⊂ Vhm , dass das Gitter
(i)
m−1
Ωm
ist, kann jede Basisfunktion φm−1 ∈ Vhm−1 durch
h also eine Verfeinerung von Ωh
Basisfunktionen aus Vhm dargestellt werden. Siehe hierzu die entsprechende Diskussion beim
140
5.1 Die Rothe-Methode für parabolische Differentialgleichungen
Gittertransfer des Mehrgitter-Verfahrens. In diesem Fall kann die alte Lösung uhm−1 zunächst
auf dem alten Gitter integriert werden
(i)
Xm−1
= (uim−1 , φm−1 )
i
i = 1, . . . , Nm−1 ,
anschließend wird dieser Vektor auf das feine Gitter prolongiert
m−1
T
Xm
.
h = Rm−1 Xh
Ein ähnliches Vorgehen lässt sich herleiten, wenn Vhm ⊂ Vhm−1 , wenn die Gitter also stets
gröber werden. Falls die Gitter jedoch von Schritt zu Schritt verfeinert und vergröbert werden, oder falls in jedem Schritt überhaupt ein gänzlich neues Gitter verwendet wird, muss
im Allgemeinen eine L2 -Projektion von um−1
in Vhm berechnet werden.
h
Die Matrix Die Steifigkeitsmatrix Am
h ist gerade die Matrix des Poisson-Problems. In Abschnitt 3.5.2 haben wir bereits die Eigenwerte dieser Matrix sowie der Massenmatrix untersucht. Zusammen ergibt sich für die Diskretisierung der Wärmeleitungsgleichung (im Fall
zweidimensionaler Gebiete):
λmax (Mh + θkAh ) = O h2 + θk ,
λmin (Mh + θkAh ) = O h2 + θkh2 ,
und also für die Kondition
!
h2 + θk −2
h
.
1 + θk
cond2 (Mh + θkAh ) = O
Im Fall von großen Zeitschritten k = O(1) bezogen auf die Ortsgitterweite h gilt also die
bekannte Kondition cond2 = O(h−2 ). Wird die Zeitschrittweite allerdings an die Ortsgitterweite gekoppelt, so verbessert sich die Gesamtkondition. Die Fehlerabschätzung für das
implizite Euler-Verfahren in Satz 5.1 legt die Wahl k ≈ h2 nahe. Für das Crank-Nicolson
2
2
Verfahren erhalten wir optimal kem
kh k = O(k + h ) und mit k ≈ h einen äquilibrierten
Orts-Zeitfehler. Zusammengefasst gilt:
!
cond2 (Mh + θkAh ) = O
h2 + θk −2
h
1 + θk
!
cond2 (Mh + θkAh ) = O
h2 + θh −2
h
1 + θh
cond2 (Mh + θkAh ) = O
h2 + θh2 −2
h
1 + θh2
= O(h−2 )
(k = O(1))
= O(h−1 )
(k = O(h))
!
= O(1)
(k = O(h2 ))
Je kleiner die Zeitschrittweite (in Bezug auf die Ortsgitterweite h) umso einfacher ist also
das Lösen der algebraischen Gleichungen. Diesen Umstand kann man mit einem Vergleich zu
Finite Differenzen-Approximationen der Wärmeleitungsgleichung erklären. Hier ist in jedem
Schritt die Matrix
I + θkAh
141
5 Die Finite Elemente Methode für parabolische Probleme
zu invertieren. An die Stelle der Massenmatrix tritt die Einheitsmatrix, welche trivial zu
invertieren ist. Für k → 0 ist die Gesamtmatrix nur eine kleine Störung der Einheitsmatrix.
Bei der Finite Elemente Methode ist selbst bei rein expliziten Verfahren wie dem expliziten
Euler-Verfahren ist in jedem Schritt ein Gleichungssystem zu lösen
Mh uhm = (Mh − kAh )uhm−1 .
(5.10)
Als Matrix ist die Massenmatrix mit Kondition cond2 (Mh ) = O(1). Aus Stabilitätsgründen
(welche wir weiter unten diskutieren) müssen explizite Verfahren einer Schrittweitenbedingung k ≤ ch2 genügen. Unter dieser Schrittweitenbedingung haben jedoch auch die impliziten
Verfahren eine Matrix mit Kondition der Größenordnung O(1), d.h., der Vorteil einer expliziten Methode fällt hier geringer aus.
Werden lineare Finite Elemente zur Diskretisierung im Ort verwendet und sind alle Innenwinkel der Dreiecke stumpf also αi ≤ π/2, so ist die Steifigkeitsmatrix Ah eine M-Matrix,
es gilt:
Aii > 0, Aij ≤ 0 (i 6= j), (A−1
h )ij ≥ 0.
Aus dieser Eigenschaft folgt das diskrete Maximumsprinzip, insbesondere die inverse Monotonie:
Ah x ≤ 0 x ≤ 0 (elementweise).
Das diskrete Maximumprinzip garantiert, dass die diskrete Lösung wichtige Eigenschaften
der kontinuierlichen Lösung u widerspiegelt. Darüber hinaus garantiert die Eigenschaft MMatrix zu sein die Konvergenz grundlegender iterativer Lösungsmethoden. Auf einem uniformen Dreiecksgitter hat die Massenmatrix die Stencil-Notation:


1 1 0


Mh =
1 6 1 ,
12
0 1 1
h2
und ist mit positiven Nebendiagonaleinträgen keine M -Matrix. Für die zusammengesetzte
Matrix Mh + kθAh gilt diese Eigenschaft auch nicht zwingend für jede Kombination aus
Schrittweite k und Ortsgitterweite h.
Um diese Eigenschaft immer garantieren zu können greift man oft zu einem Trick beim
Aufstellen der Massenmatrix. Die Einträge werden nicht exakt, sondern mit der TrapezRegel integriert:
3
|T | X
IT (v) =
v(xi ),
3 i=1
mit den drei Eckpunkten des Dreiecks T . So ist die Massenmatrix stets diagonal und z.B.
auf dem gleichmäßigen Dreiecksgitter gilt:

Mlump
h

0 0 0


= h2 0 1 0 .
0 0 0
Dieser Prozess wird Massen-Lumping genannt. Auf diese Weise kann auch der Aufwand
zum Lösen des Systems (5.10) bei expliziten Verfahren wesentlich reduziert werden. Die
Trapezregel hat bei der Integration einen Fehler der Ordnung O(h2 ). Dieser Integrationsfehler
schlägt sich in gleicher Größenordnung auf den Gesamtfehler durch.
142
5.1 Die Rothe-Methode für parabolische Differentialgleichungen
5.1.2 Stabilitätsanalyse
Zur Untersuchung der numerischen Stabilität von Zeitdiskretisierungen nehmen wir vereinfacht an, dass die Ortsgitter in jedem Zeitschritt gleich gewählt werden, also Ωh = Ωm
h und
auch Vh = Vhm für m = 0, . . . , M . In diesem Fall sind Rothe- und Linienmethode äquivalent, die voll diskrete Lösung vkh kann als Diskretisierung eines Systems von gewöhnlichen
Differentialgleichungen in der Zeit verstanden werden,
uh : I¯ → Vh :
uh (0) = u0h ,
Mh u0h (t) + Ah uh (t) = f¯h (t)
t ∈ I,
wobei u0h die L2 -Projektion von u0 ∈ L2 (Ω) in den Ansatzraum Vh ist. Nach Multiplikation
mit der inversen Massenmatrix gilt
uh (0) = u0h ,
−1 ¯
u0h (t) + M−1
h Ah vh (t) = Mh fh (t) t ∈ I.
(5.11)
Zur Untersuchung der numerischen Stabilität einer Anfangswertaufgabe haben wir das skalare Modellproblem
u(0) = 1, u0 (t) + λu(t) = 0 t ≥ 0,
(5.12)
mit der Lösung u(t) = exp(−λt) betrachtet. Für λ ∈ C mit Re(λ) ≥ 0 ist u(t) für alle t
beschränkt. Wir definieren
Definition 5.1 (Absolut stabil). Ein Differenzenverfahren heißt absolut stabil für ein
λk 6= 0, wenn sie angewendet auf das Modellproblem (5.12) für alle Re(λ) ≥ 0 beschränkte
Lösungen supm≥0 kum k erzeugt.
Das Verfahren heißt also stabil, wenn es die Beschränktheit der Lösung auch numerisch
wiedergibt.
Bei einem System von gewöhnlichen Differentialgleichungen wie (5.11) muss zu einer gewählten Schrittweite k der Faktor −λi k für alle Eigenwerte λi von M−1
h Ah im Stabilitätsgebiet
gelten. Diese Herleitung beruht auf der Annahme, dass das System diagonalisierbar ist und
in Komponenten ωi0 (t) + λi ωi (t) = fi (t) zerfällt. Jede dieser Komponenten muss stabil gelöst
werden.
Um die Stabilität beziehungsweise Instabilität eines Systems besser charakterisieren zu können haben wir den Begriff der Steifheit eingeführt. Dieser ist durch den Quotienten
maxRe(λ)≥0 |λ|
,
minRe(λ)≥0 |λ|
λ Eigenwerte von M−1
h Ah ,
zwischen Betrag des größten sowie kleinsten Eigenwerts mit positivem Realteil gegeben. Für
die Matrix M−1
h Ah aus (5.11) zeigen wir:
Satz 5.2. Die Matrix M−1
h Ah hat positive Eigenwerte und es gilt
−2
λmax (M−1
h Ah ) = O(h ),
λmin (M−1
h Ah ) = O(1),
und also
−2
cond2 (M−1
h Ah ) = O(h ).
143
5 Die Finite Elemente Methode für parabolische Probleme
(i) Sei λ ∈ R ein Eigenwert und wh der zugehörige Eigenvektor von M−1
h Ah . Dann gilt
M−1
h Ah wh = λh wh
⇔
(Mh − λAh )ω = 0
⇒
λ=
hAh wh , wh i
hMh wh , wh i
Hieraus folgt zunächst (da Ah und Mh symmetrisch positiv definit) dass alle Eigenwerte
positiv sind.
(ii) Für größten und kleinsten Eigenwert gilt nun
λmin (M−1
h Ah ) = min
x∈RN
hAh xh , xh i
,
hMh xh , xh i
λmax (M−1
h Ah ) = max
x∈RN
hAh xh , xh i
.
hMh xh , xh i
(5.13)
Denn Berechnen des stationären Punktes liefert für alle yh ∈ RN :
d
hAh (xh + syh ), xh + syh i
0=
ds hMh (xh + s + yh ), (xh + s + yh )i s=0
2hAh xh , yh ihMh xh , xh i − 2hMh xh , yh ihAh xh , xh i
=
hMh xh , xh i2
also mit (5.13) z.B. für λmin nach Multiplikation mit hMh xh , xh i > 0
hAh xh − λmin Mh xh , yh i = 0 ∀yh ∈ RN .
Hieraus folgt:
M−1
h Ah xh = λmin xh .
(iii) Wir schätzen nun ab:
λmin (Mh−1 Ah ) = min
(∇vh , ∇vh )
hAh xh , xh i
(∇v, ∇v)
= min
≥ inf
= λmin (−∆)
2
1
hMh xh , xh i vh ∈Vh
kvh k
kvk2
v∈H0 (Ω)
λmax (Mh−1 Ah ) = max
hAh xh , xh i
hAh xh , xh i
kxh k2
≤ max
max
= λmax (Ah )λmax (M−1
h ).
hMh xh , xh i x∈RN
kxh k2 x∈RN hMh xh , xh i
x∈RN
x∈RN
Also erhalten wir
λmin (M−1
h Ah ) = O(1),
−2
λmax (M−1
h Ah ) = O(h ).
Das System von gewöhnlichen Differentialgleichungen (5.11) ist also mit h → 0 beliebig
steif. Wir benötigen zur Diskretisierung Zeitschrittverfahren, welche über eine möglichst
hohe Stabilität verfügen. Zur Untersuchung der Stabilität eines Verfahrens führen wir den
sogenannten Verstärkungsfaktor R(z) der Einschrittmethode für ein z = λk ∈ C ein, welcher,
angewendet auf das skalare Modellproblem (5.12) die diskrete Lösung liefert:
um+1 = R(−λk)um
144
m ≥ 1.
5.1 Die Rothe-Methode für parabolische Differentialgleichungen
Bemerkung 5.1 (Verstärkungsfaktor). Die Wahl des Vorzeichens −λk geschieht hier nur
aus Konventionsgründen. Bei der Stabilitätsuntersuchung der gewöhnlichen Differentialgleichungen wird üblicherweise die Gleichung u0 (t) = λu(t) mit Re(λ) ≤ 0 anstelle von u0 (t) +
λu(t) = 0 mit Re(λ) ≥ 0 betrachtet. Durch die Definition um+1 = R(−λk)um stimmen die
Verstärkungsfaktoren wieder überein.
Für die gebräuchlichen und bereits angesprochenen Verfahren gilt:
Explizites Euler: R(z) = 1 + z
Implizites Euler: R(z) = (1 − z)−1
1 + 12 z
1 − 12 z
1 + (1 − θ)z
Theta-Verfahren: R(z) =
1 − θz
Crank-Nicolson: R(z) =
Gilt nun für ein z = −λk dass |R(z)| ≤ 1, so ist die Einschrittmethode absolut stabil. Wir
definieren:
Definition 5.2 (Stabilitätsgebiet). Wir nennen die Teilmenge der komplexen Zahlenebene
SG = {z = −λk ∈ C, |R(z)| ≤ 1} ⊂ C
das Stabilitätsgebiet einer Einschrittmethode.
Angewendet auf die Wärmeleitungsgleichung muss das Stabilitätsgebiet also einen möglichst
großen Anteil der reellen Achse enthalten, da
−kλmin (M−1
h Ah ) = O(−k),
−2
−kλmax (M−1
h Ah ) = O(−kh ).
Für das explizite Euler-Verfahren gilt:
SGEE ∩ R = [−2, 0],
und damit muss:
−2 ≤ −kh−2
⇔
k ≤ 2h2 .
Das explizite Euler-Verfahren ist somit wenig geeignet. Durch Rundungsfehlereinfluss können
die Einträge der Systemmatrix fehlerbehaftet sein. Auch kleine Fehler in der Matrix können
durch ein Abweichen von der Symmetrie dazu führen, dass Eigenwerte komplexwertig sind.
Um auch in diesem Fall Stabilität zu erhalten reicht es nicht, dass nur die negative reelle
Achse im Stabilitätsgebiet enthalten ist, wir benötigen auch einen imaginären Anteil. Wir
definieren weiter
Definition 5.3 (Stabilitätsbegriffe). Im Fall {z ∈ C, Re(z) ≤ 0} ⊂ SG heißt die Methode
A-stabil.
Die Methode heißt streng A-Stabil falls darüber hinaus mit einem c > 0 gilt:
|R(z)| ≤ 1 − ck
Re(z) → −∞.
145
5 Die Finite Elemente Methode für parabolische Probleme
Gilt unabhängig von der Schrittweite
|R(z)| ≤ κ < 1
Re(z) → −∞,
so heißt die Methode stark A-stabil.
Aus der A-Stabilität einer Methode folgt, dass die Iteration für beliebige Zeitschrittweiten k
stabil bleibt
sup |uhm | < ∞,
m≥1
falls ein homogenes System mit rechter Seite f = 0 betrachtet wird. Die A-Stabilität reicht
also gerade um zu garantieren, dass der Einfluss des Startwerts im Laufe der Zeit beschränkt
bleibt. Liegt strenge A-Stabilität vor, so bleibt die Lösung auch bei inhomogener rechter
Seite beschränkt:
sup |uhm | < c sup |f¯m |
m≥1
m≥0
Im Fall von starker A-Stabilität werden alle Fehleranteile exponentiell gedämpft. Stark Astabile Verfahren sind besonders robust gegenüber Störungen (z.B. Rundungsfehler). Das
implizite Euler-Verfahren ist stark A-stabil, es gilt:
−1
|1 − z|
=
q
r
(1 −
Re(z))2
+
Im(z)2 |−1
≤
1
2
Re(z) ≤ −1.
Dieser Dämpfungsfaktor ist allerdings sehr gering und das implizite Euler-Verfahren neigt zur
Überdämpfung. In der Anwendung ist es mit diesem Verfahren sehr schwer möglich natürliche
Schwingungsvorgänge (die gewünscht sind) wieder zu geben. Wir definieren
Definition 5.4 (Dissipation). Ein Verfahren mit Verstärkungsfaktor R(z) heißt wenig dissipativ, falls
R(±i) ≈ 1.
Bemerkung 5.2 (Dissipation). Wir betrachten das Modellproblem
u0 (t) + iu(t) = 0,
u(0) = 1,
mit der Lösung
u(t) = exp(−it) = cos(t) + i sin(t).
Für diese Lösung gilt |u(t)| = 1 für alle t ≥ 0. Die Lösung ist also eine Kosinus-, bzw.
Sinus-Schwingung. Das implizite Euler-Verfahren liefert jedoch:
um = R(−ik)um−1 = (1 + ik)−1 um−1 .
Mit
s
|(1 + ik)−1 | =
folgt die Abschätzung:
|um | ≤ 146
1
1 + k2
m
1 2
→0
1 + k2 (m → ∞).
5.1 Die Rothe-Methode für parabolische Differentialgleichungen
Das implizite Euler-Verfahren kann also für dieses Problem nicht sinnvoll eingesetzt werden.
Betrachten wir die Diskretisierung mit dem Crank-Nicolson-Verfahren, so gilt
um =
mit
1+
1−
ik
2
ik
2
um−1 ,
1 + ik 2 = 1.
1 − ik 2
Das Crank-Nicolson-Verfahren erhält die Energie des Systems also optimal.
Für das Theta-Verfahren beweisen wir nun
Satz 5.3 (Stabilität des Theta-Verfahrens). Für das Theta-Verfahren mit θ ∈ [0, 1] gilt:
1. Das Theta-Verfahren ist genau dann A-stabil, falls θ ≥ 12 .
2. Für jedes θ ≥
3. Für jedes θ >
stabil.
1
2
1
2
+ ck ist das Theta-Verfahren streng A-stabil.
unabhängig von der Schrittweite k ist das Theta-Verfahren stark A-
4. Für die Dissipativität des Theta-Verfahrens gilt:
|R(i)| ≈ 1,
falls θ ≈
1
2
5. Für θ ∈ [0, 12 ) ist das Stabilitätsgebiet durch eine Ellipse in der linken komplexen
Halbebene gegeben. Für das Stabilitätsintervall gilt:
SG ∩ R = [−2(1 − 2θ)−1 , 0]
1
0≤θ< .
2
Beweis: 1) Es gilt:
1 + (1 − θ)z ≤1
1 − θz |R(z)| = ⇔
|1 + (1 − θ)z| ≤ |1 − θz|
also genau dann, wenn gilt:
1 + (1 − θ)2 |z|2 + 2(1 − θ)Re(z) ≤ 1 + θ2 |z|2 − 2Re(z)θ
⇔
(1 − 2θ)|z|2 ≤ −2Re(z). (5.14)
Wir betrachten z ∈ C mit Re(z) ≤ 0 also −Re(z) ≥ 0. Die Ungleichung ist dann genau für
alle θ ≥ 12 erfüllt (mit Im(z) beliebig).
2) Wir betrachten den Grenzwert
1 + (1 − θ)λk (1 − θ)k = 1−θ
lim |R(−λk)| = lim =
1 − θλk
θk θ
Re(λ)→∞
Re(λ)→∞
(5.15)
147
5 Die Finite Elemente Methode für parabolische Probleme
Es gilt in erster Ordnung
1−θ
1
=1−4 θ−
θ
2
und strenge A-Stabilität folgt, wenn θ −
1
2
2 !
θ − 1 ,
2
+O
≥ ck.
3) Aus (5.15) folgt sofort
lim
Re(λ)→∞
|R(−λk)| =
1−θ
≤κ<1
θ
⇔
θ≥
1
.
1+κ
4) Es gilt:
θ2 − 2θ + 2
1
8
|R(±i)| =
θ−
=1−
2
1+θ
5
2
2
+O
2 !
θ − 1 .
2
5) Nach (5.14) gilt absolute Stabilität für alle z = x + iy mit
(1 − 2θ)(x2 + y 2 ) + 2x ≤ 0.
Diese Gleichung beschreibt für 1 − 2θ > 0 also θ <
(beachte x ≤ 0)
(1 − 2θ)x2 + 2x ≤ 0
⇔
1
2
eine Ellipse. Auf der reellen Achse gilt
(1 − 2θ)x ≥ −2
⇔
−
2
≤ x ≤ 0.
1 − 2θ
Bemerkung 5.3 (Crank-Nicolson-Verfahren). Das Crank-Nicolson Verfahren scheint auf
den ersten Blick ein idealer Kandidat zur Diskretisierung der Wärmeleitungsgleichung zu
sein. Es ist A-stabil, von zweiter Ordnung genau und erhält die Energie optimal. Aufgrund
fehlender stärkerer Regularität werden Störungen in den Anfangsdaten nur sehr langsam
ausgedämpft. Für die homogene Wärmeleitungsgleichung gilt laut Satz 2.32
ku(t)k ≤ e−λt ku0 k,
für alle Startwerte u0 ∈ L2 (Ω) mit dem kleinsten Eigenwert λ des Laplace-Operators. Hochfrequente Anteile im Anfangswert werden vom Crank-Nicolson Verfahren nur unzureichend
ausgedämpft. Auch Rundungsfehler, welche in jedem Zeitschritt entstehen können, stören den
Lösungsverlauf.
Um bessere Stabilität zu erreichen verwendet man oft:
Satz 5.4 (Das implizit geshiftete Crank-Nicolson-Verfahren). Für θ = 12 + ck mit einer
Konstante c > 0 hat das Theta-Verfahren quadratische Konsistenzordnung und ist streng
A-stabil.
148
5.1 Die Rothe-Methode für parabolische Differentialgleichungen
Beweis: Die strenge A-Stabilität wurde bereits in Satz 5.3 gezeigt. Wir schätzen für eine
Anfangswertaufgabe u0 (t) = f (t, u(t)) den Abschneidefehler ab:
u(tm ) − u(tm−1 )
1
1
+
+ ck f (tm , u(tm )) +
− ck f (tm−1 , u(tm−1 ))
k
2
2
= u0 (tm− 1 ) + O(k 2 ) + f (tm− 1 , u(tm− 1 )) + O(k 2 ) + ck(f (tm , u(tm )) − f (tm−1 , u(tm−1 )))
τk =
2
2
2
= O(k 2 ) + O(k 2 )|∇f |.
Dieses Verfahren verfügt in der Regel über genügend Stabilität um hochfrequente Anteile in
der Startlösung hinreichend schnell zu dämpfen. Darüber hinaus ist es von zweiter Ordnung
(also balanciert mit einer Ortsdiskretisierung mit linearen Finiten Elementen) und jeder
Schritt des Verfahrens ist sehr einfach durchzuführen, der Aufwand entspricht dem CrankNicolson Verfahren.
5.1.3 Verfahren höherer Ordnung
Padé-Approximationen Die Verstärkungsfaktoren für die Einschrittmethoden sind alles
rationale Funktionen. Bei Betrachtung des Modellproblems ergibt sich der Zusammenhang:
u(tm ) = exp(−λtm ),
m
um
k = R(−λk) ,
R(z) ≈ exp(z).
Die Verstärkungsfaktoren sind somit rationale Approximationen der Exponentialfunktion.
Dieser Zusammenhang kann nun als Konstruktionsprinzip für Einschrittmethoden verwendet
werden. Wir suchen zwei Polynome p ∈ P r und q ∈ P s , so dass
Re(z) ≤ 0 :
p(z)
− ez → 0,
q(z)
ez q(z) − p(z) → 0
(|z| → 0).
Die allgemeine Theorie der sogenannten Padé-Approximationen besagt, dass es zu jedem
Polynomgrad r ≥ 0 und s ≥ 0 eine eindeutig bestimmte beste Approximation gibt, so dass
|ez q(z) − p(z)| = O(|z|r+s+1 ),
Re(z) ≤ 0.
Wir fassen diese Approximationen sortiert nach Polynomgrad von Zähler und Nenner im
Padé-Schemata zusammen:
1
1
1−z
1
1−z+ 1 z
2
..
.
..
.
1+z
1
1+ 12 z
1− 21 z
1+ 13 z
1− 32 z+ 61 z 2
1+z+ 21 z 2
1
1+ 23 z+ 61 z
1− 13 z
1
1 2
1+ 2 z+ 12
z
1 2
1
1− 2 z+ 12 z
..
.
1+z+ 21 z 2 + 16 z 3
1
1 3
1+ 34 z+ 14 z 2 + 24
z
1
1− 4 z
..
.
1 2
1
1+ 21 z+ 10
z + 120
z3
1
1 2
1
1− 2 z+ 10 z − 120 z 3
..
.
. . .
. . .
· · ·
Die bisherigen Verfahren sind (bis auf das allgemeine Theta-Verfahren) lassen sich in das
Padé-Schema einordnen. Sie sind also alle Ordnungsoptimal. Das Konstruktionsprinzip lässt
149
5 Die Finite Elemente Methode für parabolische Probleme
sich umgekehrt auch einfach nutzen, um die Konsistenzordnung eines Verfahrens zu prüfen.
Für das Theta-Verfahren etwa gilt:
R(z) =
1 + (1 − θ)z
= 1 + z + tz 2 + O(|z|3 ).
1 − θz
Wir vergleichen mit der Reihenentwicklung der Exponentialfunktion
1
exp(z) = 1 + z + z 2 + O(|z|3 ).
2
Für θ = 21 erhalten wir eine Approximation der Exponentialfunktion dritter Ordnung. Und
für θ = 21 + ck folgt mit z = −λk ebenso:
R(z) − exp(z) = ckO(k 2 ) + O(k 3 ) = O(k 3 ).
Jetzt betrachten wir die Anfangswertaufgabe
u0h (t) + Ah uh (t) = fh (t),
uh (0) = u0h ∈ RN ,
mit einer symmetrisch positiven Matrix Ah ∈ RN ×N und die zugehörigen Komponenten
ωi0 (t) + λi ωi (t) = fi (t),
ωi (0) = ωi0 ,
i = 1, . . . , N,
mit den Eigenwerten λi > 0 von Ah . Jede dieser Gleichungen wird nun mit einem PadéSchema approximiert:
ωim =
p(−λi k) m−1
ω
q(−λi k) i
⇔
q(−λi k)ωim = p(−λi k)ωim−1 ,
m ≥ 1.
Mit der Diagonalmatrix D = diag(λ1 , . . . , λN ) gilt kurz:
q(−kD)ωkm = p(−kD)ωkm−1 .
(5.16)
Die symmetrisch positiv definite Matrix Ah ist mit einer unitären Matrix Qh diagonalisierbar. Es gilt für jedes Polynom:
p(A) = p(QT DQ) = QT p(D)Q.
Eingesetzt in (5.16) kann das Padé-Schema unmittelbar für das lineare System u0k +Ah uk = 0
formuliert werden:
q(−kAh )ukm = p(−kAh )ukm−1 .
In jedem Schritt der Padé-Approximation muss also ein Gleichungssystem mit Matrix q(−kAh )
mit Nh Unbekannten gelöst werden.
Es gilt (ohne Beweis):
Satz 5.5 (Stabilität der Padé-Approximationen). Alle diagonalen Padé-Approximationen
(r = s) sind A-stabil. Alle subdiagonalen Padé-Approximationen (s = r + 1) sind stark
A-stabil.
150
5.1 Die Rothe-Methode für parabolische Differentialgleichungen
Zur Approximation von parabolischen Gleichungen kommen also nur diagonale oder subdiagonale Padé Verfahren in Frage. Verfahren oberhalb der Diagonale haben zu geringe
Stabilitätseigenschaften, Verfahren mit Grad(q) Grad(p) sind zwar stabil, erfordern jedoch zur Lösung in jedem Schritt das Lösen eines komplexen Gleichungssystems. Für das
subdiagonale s = 2 und r = 1 Verfahren gilt in jedem Schritt:
2
1
1
[Ih − kAh + k 2 A2h ] ukm = ukm−1 + kAh ukm−1
3
6
3
m ≥ 1.
Die Matrix auf der linken Seite des Gleichungssystems ist sehr viel dichter besetzt als die
Matrix Ah selbst. Darüber hinaus gilt für die Kondition einer Matrix:
cond2 (A2h ) = cond2 (Ah )2 ,
d.h. im Fall der Steifigkeitsmatrix erhalten wir mit cond2 (A2h ) = O(h−4 ) eine äußerst schlecht
konditionierte Matrix.
Die Padé-Verfahren wären einfach durchzuführen, wenn der rationale Anteil q(z) in Linearfaktoren zerfallen würde:
q(z) = (1 − θ1 z)(1 − θ2 z) · · · (1 − θs z).
(5.17)
Angenommen alle θi ∈ R wären reell, dann könnte ein Schritt des Padé-Verfahrens durch s
einfache Schritte eines Theta-Verfahrens ersetzt werden:
[I + kθ1 Ah ]u1m = p(−kAh )ukm−1
[I + kθ2 Ah ]u2m = u1m
..
.
(5.18)
m
[I + kθs Ah ]um = us−1
.
Es gilt allerdings der Satz:
Satz 5.6. Der rationale Anteil eine diagonalen bzw. subdiagonalen Padé-Approximation hat
höchstens eine reelle Nullstelle.
D.h., die Nullstellen von q(z) = 0 sind (bis auf eine) alle komplex. Prinzipiell könnte das System (5.18) auch mit komplexer Arithmetik, also mit kθi 6∈ R gelöst werden. Der numerische
Aufwand hingegen ist deutlich größer.
Bemerkung 5.4. Die Bedeutung der Padé-Approximationen liegt zunächst in einer einfachen einheitlichen Theorie bzgl. Konsistenzordnung und Stabilität. Das Problem bei der
Durchführung ist die zu “teure” Invertierung der Matrix q(−kAh ). Es stellt sich allerdings
heraus, dass die Padé-Approximationen angewendet auf das lineare System u0h (t)+Ah uh (t) =
fh (t) speziellen impliziten Runge-Kutta Verfahren entsprechen.
Eine weitere Analogie werden wir bei der Diskussion von Galerkin-Verfahren zur Zeitdiskretisierung feststellen: die diagonalen Padé-Verfahren entsprechen (bis auf numerischen Quadraturfehlern) einer Galerkin-Diskretisierung in der Zeit mit stetigen Ansatzfunktionen. Die
subdiagonalen Padé-Verfahren lassen sich durch eine Galerkin-Diskretisierung mit unstetigen
Ansatzfunktionen herleiten.
151
5 Die Finite Elemente Methode für parabolische Probleme
Das Teilschritt-Theta-Verfahren Auch wenn die Padé-Verfahren prinzipiell viele gewünschte Eigenschaften wie hohe Ordnung und gute Stabilität vereinen, sind sie wenig zur praktischen Verwendung geeignet, da in jedem Schritt Gleichungssysteme von großer Dimension
gelöst werden müssen. Wir verfolgen nun zum Abschluss den umgekehrten Ansatz und konstruieren ein Gesamtverfahren, dessen Verstärkungsfaktor aus Linearfaktoren zusammengesetzt ist. Hierzu führen wir drei Teilschritte mit dem Theta-Verfahren hintereinander aus:
θ1
θ2
α1 k
α2 k
θ3
α3 k
tm−1+α
tm−1
tm
tm−α
k
Dabei wählen wir für den ersten Teilschritt die Schrittweite α1 k und für daneben θ = θ1 .
Schritt zwei wird entsprechend mit α2 k und θ2 , Schritt drei mit α3 k und θ3 ausgeführt.
Dabei muss für die Parameter gelten:
0 ≤ θ1 , θ2 , θ3 , α1 , α2 α3 ≤ 1,
α1 + α2 + α3 = 1.
Das Gesamtverfahren hat den Verstärkungsfaktor:
R(z) =
1 + (1 − θ1 )α1 z
1 − θ1 α 1 z
1 + (1 − θ2 )α2 z
1 − θ2 α2 z
1 + (1 − θ3 )α3 z
1 − θ3 α 3 z
Bei symmetrische Verfahren wird üblicherweise eine höhere Ordnung erreicht, da sich Terme
in der Restgliedentwicklung gegenseitig aufheben. Wir reduzieren daher die freien Parameter
machen einen einfachen Ansatz mit nur 2 Parametern:
θ1 = θ3 = θ,
α1 = α3 = 1,
θ2 = 1 − θ,
α2 = 1 − 2α.
Für den Parameter α muss nun α ∈ (0, 21 ) gelten, ansonsten wäre α2 < 0. Theta ist weiterhin
beliebig in θ ∈ [0, 1] zu wählen. Nun gilt:
R(z) =
|
1 + (1 − θ)αz
1 − θαz
{z
}|
R1 (z)
1 + θ(1 − 2α)z
1 − (1 − θ)(1 − 2α)z
{z
}|
R2 (z)
1 + (1 − θ)αz
1 − θαz
{z
}
R1 (z)
Wir wollen diese beiden Parameter nun so bestimmen, dass das Gesamtverfahren im Zeitpunkt tm (also nach den drei Teilschritten) eine möglichst hohe Ordnung hat, stark A-stabil
ist und von geringer Dissipativität.
Für den Grenzwert Re(z) → −∞ gilt:
|R(z)| −−−−−−−→
Re(z)→−∞
θ(1 − θ)2 α2 (1 − 2α)
1−θ
=
2
2
θ α (1 − θ)(1 − 2α)
θ
Der Grenzwert ist kleiner 1 für alle θ > 21 . Dann liegt - unabhängig von α - starke A-Stabilität
vor. Zur Bestimmung der Fehlerordnung entwickeln wir R(z) um z = 0 und vergleichen mit
der Entwicklung der Exponentialfunktion exp(z)
R(z) − exp(z) = α2 − 2α +
152
1
(1 − 2θ)z 2 + O(|z|3 ),
2
5.2 Zeitdiskretisierung mit Galerkin-Verfahren
und erhalten für
r
1
≈ 0.293 . . .
2
Konvergenz zweiter Ordnung. Der Parameter θ darf hierbei im Intervall θ ∈ ( 12 , 1] frei gewählt
werden. In jedem der drei Teilschritte ist im Fall θ 6= 1 ein implizites Verfahren zu lösen.
Mit der speziellen Wahl:
α=1−
χ := θα = (1 − θ)(1 − 2α)
⇔
θ=
1 − 2α
,
1−α
wird erreicht, dass in jedem Teilschritt der rationale Anteil im Verstärkungsfaktor identisch
ist und somit die gleiche Matrix zu invertieren ist:
R(z) =
1 + (1 − θ)αz
1 − χz
1 + θ(1 − 2α)z
1 − χz
1 + (1 − θ)αz
1 − χz
Dieses Verfahren wird das Teilschritt-Theta-Verfahren genannt. Schließlich bestimmen wir
noch die Dissipativität. Es gilt:
|R(±i)| ≈ 0.9997 . . .
Das Teilschritt-Theta-Verfahren stellt ein nahezu optimales Verfahren dar: es ist von zweiter Ordnung in der Zeit, somit gut balanciert mit linearen Finiten Elementen. Es ist stark
A-stabil, hat aber im Gegensatz zum impliziten Euler-Verfahren eine äußerst geringe Dissipativität, so dass es in der Lage ist, die Energie des Systems sehr gut zu erhalten. Insbesondere
bei der Diskretisierung von Strömungsproblemen, wo sowohl Glättungseigenschaften als auch
Erhaltungseigenschaften eine wesentliche Rolle spielen ist das Teilschritt-Theta-Verfahren
von großer Bedeutung.
5.2 Zeitdiskretisierung mit Galerkin-Verfahren
Abschließend betrachten wir wie angekündigt Galerkin-Verfahren zur Diskretisierung der
parabolischen Gleichung in Zeit und Ort. Wir suchen wieder u : I × Ω → R als Lösung von
∂t u − ∆u = f
in I × Ω,
u(0) = u0 .
(5.19)
Wir wissen aus Satz 2.29, dass es für jede rechte Seite f ∈ L2 (I; L2 (Ω)) und für jeden
Startwert u0 ∈ L2 (Ω) eine schwache Lösung der Wärmeleitungsgleichung (5.19) im Raum:
u ∈ W (I),
W (I) := {v ∈ L2 (I; H01 (Ω)), ∂t v ∈ L2 (I; H −1 (Ω))}.
Darüber hinaus gilt dann wegen Satz 2.28 für diese Lösung auch die Regularität
¯ L2 (Ω)),
u ∈ C(I;
das heißt, die Lösung ist (bis zum Rand von I) stetig in der Zeit.
Zur Orts-Zeit Diskretisierung mit Galerkin-Verfahren leiten wir zunächst eine variationelle Formulierung her, welche sowohl in Ort als auch Zeit variationell ist. Dazu multiplizieren (5.19) mit einer Testfunktion φ ∈ L2 (I; H 1 (Ω)) und integrieren über Ort und Zeit. Es
gilt:
153
5 Die Finite Elemente Methode für parabolische Probleme
Satz 5.7 (Variationelle Formulierung 1). Die schwache Lösung u ∈ W (I) der Wärmeleitungsgleichung (5.19) ist charakterisiert durch das Variationsproblem:
Z n
o
(∂t u, φ) + (∇u, ∇φ) dt =
I
Z
(f, φ) dt
∀φ ∈ L2 (I; H 1 (Ω)) t > 0
I
(u(0), φ) = (u0 , φ)
∀ψ ∈ H01 (Ω)
(5.20)
t = 0.
Beweis: Die Hinrichtung folgt unmittelbar durch Multiplikation mit einer Testfunktion
φ ∈ L2 (I; H01 (Ω)) und Integration über I und Ω. Die Rückrichtung folgt durch partielle
Integration:
Z
(∂t u − ∆u − f, φ) dt = 0 ∀φ ∈ L2 (I; H 1 (Ω)).
I
Zu t0 ∈ I wählen wir eine Dirac-Folge δt0 ,ε ∈ C ∞ (I) mit der Eigenschaft:
Z
I
v(t)δt0 ,ε (t) dt −−−→ v(t0 )
ε→0
∀v ∈ C(I).
Für die Testfunktion φt0 ,ε (x, t) := δt0 ,ε (t)ψ(x) mit ψ ∈ H01 (Ω) gilt weiter:
Z
I
(∂t u − ∆u − f, φt0 ,ε ) dt −−−→ (∂t u(t0 ) − ∆u(t0 ) − f (t0 ), ψ) = 0 ∀ψ ∈ C0∞ (Ω)
ε→0
Abschließend wird entsprechend im Ort vorgegangen.
t0 ∈ I.
Zur Diskretisierung (zunächst in der Zeit) suchen wir nun endlich dimensionale Teilräume
Xk ⊂ W (I) und Vk ⊂ L2 (I; H01 (Ω)). Dabei unterscheiden wir zwischen zwei alternativen
Verfahren:
dG(r)-Verfahren Das discontinuous Galerkin-Verfahren verwendet zur Diskretisierung in
der Zeit unstetige Ansatzräume Wk mit lokalem Polynomgrad r. Aufgrund von Satz 2.28
¯ L2 (Ω)) und somit handelt es sich wegen Wk 6⊂ W (I) um einen nichtist u ∈ C(I;
konformen Galerkin-Ansatz.
cG(r)-Verfahren Beim continuous Galerkin-Verfahren wird zur Diskretisierung ein stetiger,
stückweise polynomialer Ansatzraum Wk ⊂ W (I) gewählt. Hierbei handelt es sich um
eine konforme Methode.
In beiden Fällen darf der Vk Testraum als unstetig gewählt werden, da der Raum L2 (I; H 1 (Ω))
keine Stetigkeitsanforderungen in der Zeit stellt.
5.2.1 Das dG(r)-Verfahren zur Zeitdiskretisierung der Wärmeleitungsgleichung
In diesem Abschnitt untersuchen wir die Zeitdiskretisierung der Wärmeleitungsgleichung mit
dem dG(r)-Verfahren. Dazu definieren wir zunächst halboffene Teilintervalle Im := (tm−1 , tm ]
als
0 = t0 < t1 < · · · < tM = T, km := tm − tm−1 , Im := (tm−1 , tm ].
Auf dieser Zerlegung führen wir einen nicht konformen (bezogen auf W (I)), stückweise definierten Raum ein:
WI := {v : I × Ω → R, v Im ∈ W (Im )}.
154
5.2 Zeitdiskretisierung mit Galerkin-Verfahren
Dieser Raum ist nicht in W (I) enthalten, da Unstetigkeiten an den Gitterpunkten tm zugelassen sind. Jede Funktion v ∈ WI ist jedoch in jedem Intervall Im stetig bis zu beiden
Intervallenden definiert, da ja v Im ∈ W (Im ) auch vIm ∈ C(I¯m ; L2 (Ω)) impliziert. Für eine
Funktion v ∈ WI definieren wir nun in einem Gitterpunkt:
+
vm
:= v(tm )+ := lim v(tm + s),
s↓0
−
vm
:= lim v(tm − s),
s↓0
+
−
[v]m := vm
− vm
.
Der Sprung [v]m misst die Unstetigkeit der Funktion v ∈ WI .
Wir definieren ein zweites Variationsproblem:
Satz 5.8 (Variationelle Formulierung 2). Das Variationsproblem (5.20) ist äquivalent zum
Variationsproblem: suche u ∈ WI , so dass
Z n
o
(∂t u, φ) + (∇u, ∇φ) dt +
I
M
X
m−1
([u]
, φ+
m−1 )
Z
(f, φ) dt
=
m=1
∀φ ∈ L2 (I; H 1 (Ω)),
I
(5.21)
mit der Notation
0
u−
0 := u .
Beweis: (i) Sei zunächst u ∈ W (I) eine Lösung von (5.20). Es gilt W (I) ⊂ WI . Weiter gilt
¯ L2 (Ω)), also in jedem Gitterpunkt tm
für u ∈ W (I) auch u ∈ C(I;
u(tm )+ = u(tm )−
im L2 -Sinne,
also
([u]m , ψ) = 0 ∀ψ ∈ L2 (Ω).
Hieraus folgt, dass u ∈ W (I) ⊂ WI auch Lösung von (5.21) ist.
(ii) Nun sei u ∈ WI . Wir müssen zeigen, dass u ∈ W (I), dass die Funktion u also in den
Gitterpunkten stetig sein muss. Dann löst u automatisch auch Gleichung (5.20). Hierzu
wählen wir spezielle Testfunktionen δm,ε ∈ Im = (tm−1 , m] mit der Eigenschaft:
supp (δm,ε ) ⊂ Im ,
δm,ε (tm ) = 1,
δm,ε (t) −−−→ 0
ε→0
für t 6= tm .
Mit φm,ε (x, t) := δm,ε (t)ψ(x) und ψ ∈ H01 (Ω) folgt dann
Z
0=
(f, φ) dt −
I
Z
=
Z n
o
(∂t u, φm,ε ) + (∇u, ∇φm,ε ) dt −
I
n
M
X
([u]m−1 , (φm,ε )+
m)
m=1
o
(f, φ) dt− (∂t u, φm,ε )+(∇u, ∇φm,ε ) dt−([u]m , ψ) −−−→ ([u]m−1 , ψ) m = 1, . . . , M
Im
ε→0
die Stetigkeit von u ∈ WI in den Zeitpunkten tm , also dass u ∈ W (I).
Die Grundlage des dG(r)-Verfahrens ist jetzt eine Galerkin-Diskretisierung von (5.21). Hierzu
(r)
wählen als konforme Teilräume Wk von WI unstetige, stückweise polynomielle Räume vom
Grad r:
(r)
Wk := {v ∈ WI , v Im ∈ P r (Im ; H01 (Ω))},
wobei P r (Im ; H01 (Ω)) der Raum der Polynome vom Grad r mit Werten in H01 (Ω) ist.
Wir formulieren:
155
5 Die Finite Elemente Methode für parabolische Probleme
(r)
Satz 5.9 (dG(r)-Verfahren). Die Lösung des dG(r)-Verfahrens uk ∈ Wk
Formulierung
M Z
X
n
M
X
o
(∂t uk , φk ) + (∇uk , ∇φk ) dt +
m=1 Im
([uk ]m−1 , φ+
k,m−1 ) =
der variationellen
Z
m=1
I
(f, φk ) dt
(r)
∀φk ∈ Wk
(5.22)
ist eindeutig bestimmt und es gilt die a priori Abschätzung
2
ku−
k,M k
Z
+
I
2
0 2
k∇uk k dt ≤ ku k +
c2P
Z
kf k2 dt.
I
(r)
Beweis: (i) Eindeutigkeit: Angenommen es existieren zwei Lösungen u1k , u2k ∈ Wk von (5.22).
Dann gilt für wk := u1k − u2k :
Z n
I
M
X
o
(∂t wk , φk ) + (∇wk , ∇φk ) dt +
(r)
([wk ]m−1 , φ+
k,m−1 ) = 0 ∀φk ∈ Wk .
m=1
Wir wählen nun auf dem ersten Intervall
φ k I1 = wk ,
−
φk = 0 sonst
−
−
und erhalten mit wk,0
= u1k,0 − u2k,0 = u0 − u0 = 0:
Z
I1
n
o
+
+
(∂t wk , wk ) + (∇wk , ∇wk ) dt + (wk,0
, wk,0
) = 0,
was äquivalent ist zu
n1
Z
I1
2
o
+ 2
∂t kwk k2 + k∇wk k2 dt + kwk,0
k = 0,
bzw mit dem Hauptsatz der Differential- und Integralrechnung zu
− 2
+ 2
kwk,1
k + kwk,0
k +
Z
I1
k∇wk k2 dt = 0.
Hieraus folgt k∇wk k = 0 auf I1 und mit der Poincaré-Ungleichung auch kwk k = 0 auf I1 .
Diese Argumentation kann nun auf I2 , I3 , . . . , Im fortgesetzt werden, da für den Startwert in
−
jedem Intervall gilt wk,m−1
= 0.
(ii) Existenz: Der H01 (Ω) kann in eine L2 -orthogonale Summe aus Eigenräumen des LaplaceOperators aufgespalten werden:
H01 (Ω) = H1 ⊕ H2 ⊕ · · · .
Dabei gilt dim(Hm ) < ∞, d.h., alle Eigenräume sind endlich dimensional. Dies folgt aus
dem Spektralsatz für kompakte normale Operatoren (angewendet auf den inversen LaplaceOperator). Wir schreiben die Lösung uk ∈ WI auf einem Intervall Im in der Form:
uk (x, t)
156
Im
=
X
l≥1
µlm (t)ω l (x),
5.2 Zeitdiskretisierung mit Galerkin-Verfahren
wobei ω l ∈ Hl und µlm (t) ein Polynom im P r ist. Die Räume Hm sind L2 -orthogonal und
invariant gegenüber dem Laplace-Operator. Das Problem (5.22) zerfällt somit in endlich
dimensionale Probleme in den jeweiligen Teilräumen. Auf dem ersten Intervall gilt:
Z
m≥0:
(ωl , φ)
I
(∂t µl0 (t) + λl µl0 (t)) dt + (ωl − u0 , φ)µl0 (0) =
Z
(f, φ) dt ∀φ ∈ Hm (5.23)
I
Jedes dieser Problem ist endlich-dimensional, da dim(P r ) < ∞ und da dim(Hm ) < ∞. Die
Eindeutigkeit einer Lösung impliziert somit die Existenz.
(iii) A priori Abschätzung: Wir setzen in (5.22) φk = uk und erhalten:
Z n
1
I
2
2
∂t kuk (t)k + k∇uk (t)k
2
o
dt +
M
X
m−1
([uk ]
, u+
k,m−1 )
m=1
Z
=
I
(f, uk ) dt.
(5.24)
Wir verarbeiten nun die Terme einzeln. Für die Zeitableitung erhalten wir mit dem Hauptsatz
der Differential- und Integralrechnung auf jedem Intervall Im :
1
2
Z
∂t kuk (t)k2 dt =
I
M
1 X
2 m=1
Z
∂t kuk (t)k2 dt =
Im
M n
o
1 X
+
2
2
ku−
k
−
ku
k
k,m
k,m−1
2 m=1
(5.25)
Den Gradienten-Term k∇uk (t)k in (5.24) lassen wir unberührt, die Sprünge schreiben wir
zunächst als:
−
−
+
+
+
+
2
([uk ]m−1 , u+
k,m−1 ) = (uk,m−1 − uk,m−1 , uk,m−1 ) = kuk,m−1 k − (uk,m−1 , uk,m−1 )
Dann schätzen wir mit Young’scher Ungleichung nach unten ab und erhalten:
1 −
1 +
1 +
1 −
+
2
2
2
2
2
([uk ]m−1 , u+
k,m−1 ) ≥ kuk,m−1 k − kuk,m−1 k − kuk,m−1 k = kuk,m−1 k − kuk,m−1 k
2
2
2
2
(5.26)
Zuletzt gilt für die rechte Seite von (5.24) mit Cauchy-Schwarz, Poincaré und Young’scher
Ungleichung:
Z
I
(f, uk ) dt ≤
Z
I
kf k kuk k dt ≤
Z
I
cP kf k k∇uk k dt ≤
Z
I
o
c2P n
1
kf k2 + k∇uk k2 dt
2
2
(5.27)
Wir fassen nun (5.24) mit (5.25), (5.26) und (5.27) zusammen und erhalten die Abschätzung:
M n
X
o
−
+
+
2
2
2
2
+
ku−
k,m k −kuk,m−1 k + kuk,m−1 k −kuk,m−1 k
m=1
|
{z
}
=0
Z
Im
k∇uk k2 dt ≤ c2P
Z
kf k2 dt.
I
0
Zusammenfassen der Summe und u−
k,0 = u liefert dann die gewünschte Abschätzung.
Durchführung des dG(r)-Verfahrens
(r)
Die Lösung u ∈ Wk
Intervall
ist unstetig über die Intervallgrenzen hinaus. Wir definieren auf jedem
r
1
um
k := uk Im ∈ P (Im ; H0 (Ω)),
157
5 Die Finite Elemente Methode für parabolische Probleme
um
0
um
k
um+1
0
um+1
k
um−1
k
um−1
1
tm−1
tm−1
tm
um
1
tm
Abbildung 5.1: Schematische Darstellung der Ansatzräume im dG(0)- (links) bzw. dG(1)Verfahren (rechts).
m−1
und weil die Testfunktionen auch unstetig sind koppelt um
nur durch den Sprungk zu uk
term
m,+
m−1,− +
([uk ]m , φ+
k,m−1 ) = (uk,m−1 − uk,m−1 , φk,m−1 )
Wenn die Lösung um−1
auf Im−1 bekannt ist, so ist insbesondere auch um−1,−
k
k,m−1 bekannt und
um
lässt
sich
berechnen
als
Lösung
des
lokalen
Variationsproblems
k
um
k
∈P
r
(Im ; H01 (Ω))
Z
n
:
Im
o
m,+
m,+
m
m
m
(∂t um
k , φk ) + (∇uk , ∇φk ) dt + (uk,m−1 , φk,m−1 )
Z
=
Im
m−1,− m,+
(f, φm
k ) dt + (uk,m−1 , φk,m−1 )
r
1
∀φm
k ∈ P (Im ; H0 (Ω)).
Bei dem dG(r)-Verfahren handelt es sich also um Zeitschritt-Verfahren. Im Gegensatz zu
den einfachen Zeitschritt-Verfahren wie dem Theta-Verfahren müssen in jedem Zeitschritt
r
1
r + 1 Unbekannte bestimmt werden, da um
k ein Polynom im Raum P (Im ; H0 (Ω)) ist.
Beispiel 5.1 (Das dG(0)-Verfahren). Wir betrachten den einfachsten Fall des dG(0)-Verfahrens.
Es sei also:
(0)
Xk := {v ∈ WI , v Im ∈ H01 (Ω)},
(0)
d.h., eine Funktion v ∈ Xk
und wir schreiben:
ist zeitlich konstant auf jedem Intervall (siehe Abbildung (5.1)
vkm := vk Im
Da die Intervall Im := (tm−1 , tm ] links offen sind gilt
+
vk,m
= vkm+1 ,
−
vk,m
= vkm ,
[vk ]m = vkm+1 − vkm .
Weiter gilt ∂t vkm = 0. Damit vereinfacht sich die Variationsgleichung auf jedem Intervall Im
zu:
1
um
k ∈ H0 (Ω) :
m
m m
km (∇um
k , ∇φk ) + (uk , φk ) =
Z
Im
m−1 m
(f, φm
, φk )
k ) dt + (uk
1
∀φm
k ∈ H0 (Ω).
Wenn wir das Zeitintegral über die rechte Seite f mit Hilfe der Box-Regel auswerten, so
erhalten wir gerade das implizite Euler-Verfahren:
m−1 m
m
m
m
(um
, φk ) + km (f (tm ), φm
k , φk ) + km (∇uk , ∇φk ) = (uk
k )
158
1
∀φm
k ∈ H0 (Ω).
5.2 Zeitdiskretisierung mit Galerkin-Verfahren
(1)
Beispiel 5.2 (Das dG(1)-Verfahren). Auf jedem Intervall Im ist uk ∈ Wk
Wir schreiben:
m
m
uk (x, t)Im = ξ0m (t)um
0 (x) + ξ1 (t)u1 (x),
stückweise linear.
m
1
1
mit zwei Funktionen um
0 , u1 ∈ H0 (Ω) und Basisfunktionen des P welche gegeben sind durch:
t − tm−1
tm − t
, ξ1m (t) =
.
ξ0m (t) =
tm − tm−1
tm − tm−1
Dann gilt:
m
um
1 − u0
.
km
−
Das lokale Gleichungssystem zur Bestimmung der Lösung um
k bei bekannter Größe uk,m−1 =
m m
m m
m m
1
um−1
ist dann mit der Testfunktion φm
0
k = ξ0 φ0 + ξ1 φ1 und mit φ0 , φ1 ∈ H0 (Ω):
m
u+
k,m−1 = u0 ,
m−1
u−
,
k,m−1 = u1
∂t uk Im =
1
1
1 m
m−1 m
m
m
m
m
m
(u + um
, φ0 )
0 , φ0 ) + km (∇u0 , ∇φ0 ) + km (∇u1 , ∇φ0 ) = (u1
2 1
3
6
1
1
1 m
m
m
m
m
m
(u1 − um
0 , φ1 ) + km (∇u0 , ∇φ1 ) + km (∇u1 , ∇φ1 ) = 0.
2
6
3
Hier haben wir der Einfachheit halber f = 0 angenommen. Wir haben also ein gekoppeltes
m
Gleichungssystem mit zwei Unbekannten um
0 und u1 . Wir führen für den schwachen LaplaceOperator wieder eine Operatorschreibweise ein:
(Au, v) = (∇u, ∇v)
∀u, v ∈ H01 (Ω),
und können das Gleichungssystem kompakt schreiben:
I + 32 km A I + 31 km A
−I + 13 km A I + 32 km A
!
um
0
um
1
!
!
=
2um−1
1
,
0
wobei wir die rechte Seite kurz zusammenfassen. Dieses (unendlich dimensionale) Gleichungssystem lösen wir mit der Gauß-Elimination formal nach um
1 . Wir multiplizieren dazu
1
die erste Zeile von links mit (−I + 3 km A) und die zweite von rechts mit I + 23 km A und
ziehen dann die erste von der zweiten ab. So erhalten wir:
2
2
1
1
1
m−1
m
(I + km A)(I + km A)um
1 − (−I + km A)(I + km A)u1 = 2(I − km A)u1
3
3
3
3
3
Ausmultiplizieren liefert:
1
2
1 2 2 m
(I + km A + km
A )u1 = um−1
− km Aum−1
.
1
1
3
6
3
Zur Bestimmung von um
1 ist also eine Gleichung zu lösen, welche als Polynom in A gegeben
ist. Dieses Polynom 1 + 32 z + 16 z 2 für z = −km A ist gerade der rationale Anteil der subdiagonalen {2, 1}-Padé-Approximation. Im expliziten Anteil auf der rechten Seite tritt für
z = −km A mit 1 − 31 z gerade der Zähler der Padé-Approximation auf.
Bemerkung 5.5 (dG(r)-Verfahren). Das dG(0)-Verfahren zur Diskretisierung der Wärmeleitungsgleichung entspricht bis auf numerischen Quadraturfehler gerade dem impliziten
Euler-Verfahren. Die allgemeinen dG(r)-Verfahren zur Diskretisierung der Wärmeleitungsgleichung entsprechen bis auf Quadratur jeweils einem Runge-Kutta-Verfahren und können
auch durch eine subdiagonale Padé-Approximationen {r + 1, r} ausgedrückt werden. Hieraus
können wir folgern, dass jedes dG(r)-Verfahren (bei entsprechender Integration) in den Gitterpunkten die Ordnung 2r + 1 hat und stark A-Stabil ist.
159
5 Die Finite Elemente Methode für parabolische Probleme
A priori Fehleranalyse
In diesem Abschnitt wollen die eine a priori Fehlerabschätzung für das dG(r) Verfahren
herleiten. Dazu soll zunächst der reine Zeitfehler, also die Größe ek := u − uk , der Fehler
(r)
zwischen Lösung u ∈ WI von (5.21) und uk ∈ Wk der Lösung von (5.22) abgeschätzt
(r)
werden. Aufgrund der Konstruktion Wk ⊂ WI können wir von einer konformen Methode
sprechen und es gilt:
Satz 5.10 (Galerkin-Orthogonalität). Für den Fehler ek := u−uk der Lösungen u ∈ WI der
(r)
Wärmeleitungsgleichung (5.21) und uk ∈ Wk von (5.22) gilt die Galerkin-Orthogonalität
BI (ek , φk ) = 0
(r)
∀φk ∈ Wk ,
in der Orts-Zeit Bilinearform
BI (u, φ) :=
M Z
X
o
n
(∂t u, φ)Ω + (∇u, ∇φ)Ω dt +
m=1 Im
M
X
([u]m−1 , φ+
m−1 )Ω .
m=1
Beweis: u ∈ WI ist Lösung von:
Z
BI (u, φ) =
∀φ ∈ WI ,
(f, φ) dt
I
(r)
und uk ∈ Wk
ist Lösung von
Z
BI (uk , φk ) =
I
(r)
(f, φk ) dt ∀φk ∈ Wk .
(r)
Der Beweis folgt unmittelbar aus der Beziehung Wk
⊂ WI sowie der Linearität von BI (·, ·).
Wir werden nun den folgenden Satz beweisen:
Satz 5.11 (A priori Fehlerabschätzung für das dG(r)-Verfahren). Für die Lösung u ∈ WI
von (5.21) gelte ∂tr+1 u ∈ L2 (I; L2 (Ω)). Dann gilt für den Fehler der dG(r)-Lösung die a
priori Abschätzung
Z
Z
I
r+1
kek k dt ≤ ckmax
I
k∂tr+1 uk dt.
Beweis:
Wir werden Beweis nur für den Spezialfall r = 0 zeigen. Der allgemeine Teil ist technisch
aufwändiger.
(i) Wir definieren zunächst einen Projektionsoperator
(0)
πk : W (I) → Wk ,
160
5.2 Zeitdiskretisierung mit Galerkin-Verfahren
πk I
u
πk m
Im−1
tm−2
tm−1
tm
Abbildung 5.2: Projektion πk in den Raum der stückweise konstanten Funktionen.
durch die folgende Vorschrift: auf jedem Intervall Im gelte:
πk uIm ∈ P 0 (Im ; H01 (Ω)),
−
(πk u)−
m = um .
(5.28)
In Abbildung (5.2) ist diese Projektion dargestellt. Am rechten Intervallende stimmen Projektion und Funktion überein.
Wir spalten den Fehler nun auf in einen Projektionsfehler ηk := u − πk u und einen diskreten
Fehleranteil ξk := πk u − uk :
ek = u − uk = u − πk u + πk u − uk .
| {z }
|
=ηk
{z
=ξk
}
(ii) Wir werden zeigen, dass der Gesamtfehler ek durch den Projektionsfehler ηk beschränkt
ist:
Z
Z
kek k dt ≤ c kηk k dt.
(5.29)
I
I
Hierzu definieren wir ein duales Problem:
zk ∈
(0)
Wk
Z
:
BI (φk , zk ) =
I
(φ, ek ) dt
(0)
∀φk ∈ Wk .
(5.30)
Wir teilen den Fehler ek nun auf und nutzen die Definition des dualen Problems für φk =
(0)
ξk ∈ W k :
Z
I
kek k2 dt =
Z
I
Z
(ηk , ek ) dt +
I
Z
(ξk , ek ) dt =
I
(ηk , ek ) dt + BI (ξk , zk ).
(5.31)
Es gilt:
(0)
0 = BI (ek , φk ) = BI (ξk , φk ) + BI (ηk , φk ) ∀φk ∈ Wk .
Also, weiter bei (5.31)
Z
I
kek k2 dt =
Z
I
(ηk , ek ) dt − BI (ηk , zk )
(5.32)
161
5 Die Finite Elemente Methode für parabolische Probleme
Nun gilt für die duale Bilinearform mit partieller Integration:
BI (ηk , zk ) =
=
M Z
X
n
m=1 Im
M Z
X
n
=
I
−
+
+
(ηk,m−1
− ηk,m−1
, zk,m−1
)Ω
o
− (ηk , ∂t zk )Ω + (∇ηk , ∇zk ) dt
|{z}
=0
n
−
−
−
+
+
+
+
+
, zk,m−1
)
(ηk,m
, zk,m
) −(ηk,m−1
, zk,m−1
) + (ηk,m−1
, zk,m−1
) −(ηk,m−1
m=1
Z
M
X
m=1
m=1 Im
M
X
o
(∂t ηk , zk )Ω + (∇ηk , ∇zk )Ω dt +
{z
|
(∇ηk , ∇zk ) dt = −
o
}
=0
Z
I
(ηk , ∆zk ) dt,
(5.33)
−
−
da die Terme mit ηk,m
und ηk,m−1
nach der Definition der Projektion (5.28) verschwinden.
Weiter in (5.32) ergibt sich mit Young’scher Ungleichung:
Z
2
kek k dt =
I
≤
≤
Z
Z
(ηk , ek ) dt +
ZI n
I
(ηk , ∆zk ) dt
o
kηk k kek k + kηk k k∆zk k dt
ZI n
o
1
1
(1 + ε)kηk k2 + kek k2 + k∆zk k2 dt.
4
4ε
I
Wir nutzen die Stabilitätsabschätzung des dG(r)-Verfahren aus Satz 5.9 angewendet auf das
duale Problem mit rechter Seite ek :
Z
I
2
k∆zk k dt ≤ c
Z
I
kek k2 dt.
Wir bekommen nun mit ε = c:
Z
I
2
kek k dt ≤
o
1
(1 + c)kηk k + kek k2 dt ⇔
2
Z n
I
2
Z
I
2
kek k dt ≤ 2(1 + c)
Z
I
kηk k2 dt.
(iii) Schließlich benötigen wir eine Abschätzung für den Projektionsfehler ηk = u−πk u. Diese
folgt durch Transformation von jedem Teilintervall Im auf ein Referenzintervall Iˆ = (0, 1)
−
Anwendung von Poincaré (da ηk,m
= 0) und Rücktransformation:
Z
Im
2
kηk k dt = km
Z
Iˆ
kηck k2 dt ≤ km c2P
Z
Iˆ
2 2
k∂ˆt ηck k2 dt = km
cP
Z
Iˆ
2
k∂t ηk k dt =
2 2
km
cP
Z
Iˆ
k∂t uk k2 dt.
Ortsdiskretisierung mit Finiten Elementen
A posteriori Fehlerschätzung
5.2.2 Das cG(r)-Verfahren
162
Index
L2 -Fehlerabschatzung, 75
a posteriori Fehlerschatzung, 88
a priori Fehlerabschatzung, 73, 75
A-Stabilitat, 145
Absolut stabil, 143
Abstiegsverfahren, 108
Adaptive Finite Elemente Methode, 88
Anschlusselemente, 100
Argyris-Element, 58
Assemblierung, 82
Aubin-Nitsche-Trick, 73
Banachraum, 17
Bestapproximation, 50
Bramble-Hilbert-Lemma, 66
cG(r), 154
CG-Verfahren, 107, 110
Clement-Interpolation, 56, 70
continuous Galerkin, 154
dG(r), 154
Differentialoperator, 7
Hauptteil, 9
Dirichlet Problem, 30
Dirichlet-Problem, 12
discontinuous Galerkin, 154
Dissipation, 146
Dualraum, 19
dunn besetzte Matrix, 52
Effizienz, 91
Einbettung, 27
kompakte, 27
Einbettungssatz, 28
Einbettungssatz fur Sobolewraume, 28
einspringende Ecken, 36
Elemente, 52
elliptische Differentialgleichung, 8
Energiefehlerabschatzung, 73
Fehlerfrequenzen, 120
Fehlerindikator, 88
Finite Elemente Verfahren, 52
Fixpunktsatz von Banach, 19
Freiheitsgrade, 53
Galerkin-Approximation, 47
Galerkin-Orthogonalitat, 49
parabolisch, 160
Gitter, 52
Gittertransfer, 123
Gitterverfeinerung, 88
Glättung, 120
GMRES, 116
Gradientenverfahren, 109
hangende Knoten, 100
Hermite-Ansatz, 56
Hilbertraum, 18
hyperbolische Differentialgleichung, 8
Interpolation, 54
klassische Losung, 12
Knoten-Basis, 53
Knotenwert, 55
konform, 50
Krylow-Raum-Methoden, 107
Krylow-Räume, 111
Lagrange-Ansatz, 56
Laplace-Operator, 7
Lemma von Cea, 49
Lineares Funktional, 19
M-Matrix, 142
Massen-Lumping, 142
163
Index
Morley-Element, 58
Multiindex, 22
Nachglätten, 125
Neumann Problem, 30
Neumann Randwerte, 8
Norm, 17
Pad’e-Approximationen, 149
parabolische Differentialgleichung, 8
Patch, 71
PCG, 117
Petrov-Galerkin-Verfahren, 50
Poisson-Gleichung, 8
Pra-Hilbertraum, 18
Prolongation, 123
Raum
normiert, 17
vollstandig, 17
Residuum, 88
Restriktion, 123
Riesz’scher Darstellungssatz, 19
Robin Problem, 31
Satz von Lax-Milgram, 33
schwache Losung, 12
Schwache Ableitung, 23
Schwache Losung, 32
Skalarprodukt, 18
Sobolev-Raum, 15
Spektral-Verfahren, 52
Stabilitatsgebiet, 145
starke A-Stabilitat, 146
starke Losung, 12
Steifheit, 143
Steifigkeitsmatrix, 49
Stencil-Notation, 119
strenge A-Stabilitat, 145
Superapproximation, 98
System von Differentialgleichungen, 8
Teilschritt-Theta-Verfahren, 153
Theta-Verfahren, 137
Trager einer Funktion, 23
Transportgleichung, 8
Triangulierung, 52
164
Unisolvenz, 55
variationelle Losung, 12
Variationsgleichung, 11
verallgemeinerte Ableitung, 23
Verstarkungsfaktor, 144
Vorglätten, 125
Vorkonditionierung, 117
Warmeleitungsgleichung, 38
stationar, 8
Wellengleichung, 7
Young’sche Ungleichung, 14
Zellen, 52
Zweigitteriteration, 124