Gewöhnliche Differentialgleichungen (Kurzskript)1

Werner
Universität Münster
SS 10
Gewöhnliche Differentialgleichungen
(Kurzskript)1
1
Diesem Skript liegt zum Teil eine in LATEX abgefasste Mitschrift einer früheren Veranstaltung des Verfassers zu Grunde, welche von Stefan Girke, Michael Holl und Sven
Kaulmann erstellt worden ist.
Gewöhnliche Differentialgleichungen (Kurzskript)
2
Kapitel 1
Definitionen. Einige
geschlossen lösbare Beispiele
1.1
Einführung
Differentialgleichungen spielen eine wichtige Rolle bei der mathematischen
Modellierung von Vorgängen, die von einem Parameter (üblicherweise der
Zeit) abhängen. In der numerischen Mathematik beschäftigt man sich mit
näherungsweisen Lösungen. Wir werden uns hier mit ein paar wenigen Beispielen befassen, die man direkt lösen kann, sodann wichtigen Existenz- und
Eindeutigkeitsaussagen herleiten und uns schließlich mit Methoden befassen, die es erlauben, qualitative Aussagen über das Verhalten von Lösungen
zu treffen, selbst wenn eine geschlossene Berechnung dieser Lösungen nicht
möglich ist.
1.1.1
Zwei Beispiele
Es ist eine Kunst für sich, Probleme der “realen” Welt in ein mathematisches
zu übersetzen. Meist müssen bei dieser Gelegenheit Annahmen gemacht werden, die sich nicht mathematisch begründen lassen sondern aus dem Bereich
stammen, in dem Mathematik angewandt werden soll.
Hier ist ein sehr einfaches Beispiel: Es sei B(t) die Anzahl der Bakterien
in einer Kultur. Wir gehen davon aus, dass der Zuwachs dieser Kolonie
während eines Zeitintervalls ∆t, das so klein sein muss, dass Enkel noch
keine Rolle spielen, proportional sowohl zur Menge der bereits vorhandenen
Bakterien als auch zu ∆t ist. Ist der Proportionalitätsfaktor α, dann heißt
das
B(t + ∆t) − B(t) = αB(t)∆t
Da diese Beziehung für alle ∆t gelten soll, kann man für alle Zeiten t den
Grenzwert ∆t → 0 betrachten(falls man annimmt, dass B eine differenzier3
Gewöhnliche Differentialgleichungen (Kurzskript)
4
bare Funktion der Zeit ist) und schließen1
B 0 (t) = lim
∆t→0
B(t + ∆t) − B(t)
= αB(t).
∆t
Kurz: Eine Funktion B, die das Bakterienwachstum in dieser Weise modelliert, muss notwendigerweise der Gleichung B 0 = αB genügen.— Funktionen, die diese Gleichung erfüllen sind etwa die Exponentialfunktionen
B(t) = A0 exp(αt),
A0 ∈ R.
Könnte es Bakterien geben, deren Wachstum ebenfalls durch B 0 = αB beschrieben wird, die jedoch in einer ganz anderen Weise als exponentiell anwachsen? Die Antwort lautet nein, und wir werden uns im Folgenden auch
mit ganz allgemeinen Methoden beschäftigen, eine solche Frage zu beantworten. 2
Ein paar Bemerkungen noch zu diesem Beispiel: Normalerweise ist natürlich nicht davon auszugehen, dass eine Bakterienkultur in der Lage ist, zu
allen Zeiten exponentiell zu wachsen. Es gibt eine ganze Reihe von Möglichkeiten, ein solches Wachstum in realistischer Weise zu beschränken.
Hier kommt eine etwas kompliziertere Variante: Wir gehen von zwei Populationen aus, Räubern und deren Beute. Die Anzahl der ersten zum Zeitpunkt t beschreiben wir durch die Funktion R(t), die Anzahl der Beutetier
sei B(t). Dann gelangt man durch eine ähnlich Überlegung wie oben zu zwei
Gleichungen
R0 = −αR + βRB
B 0 = γB − δRB
Dies ist ein (nichtlineares) System von Differentialgleichungen. Es ist in diesem Fall nicht mehr gut möglich, die Funktionen R und B direkt anzugeben.
Mit etwas anspruchsvolleren Methoden gelingt es aber vorherzusagen, ob die
Beute (und damit auch die Räuber) aussterben.
1.1.2
Eine Definition
Das erste Beispiel des letzten Paragraphen fällt unter die folgende Definition;
das zweite ist ein sogenanntes System gewöhnlicher Differentialgleichungen.
1
So, wie wir B(·) definiert hatten ist sie allerdings nicht einmal stetig; am einfachsten
stellt man sich vor, dass die Funktion B zwischen den durch die Bakteriengeburten entsthehenden Sprungstellen differenzierbar interpoliert und die wahre Anzahl der Bakterien
bis auf die erste Kommastelle genau vorhersagt — was viel besser wäre als die Situation
im Labor hergibt.
2
Man sieht hier übrigens, dass die Lösung einer Differentialgleichung selbst nicht unbedingt (eigentlich sogar fast nie) eindeutig bestimmt ist. Dies ändert sich, sobald man
von einem Anfangswert B0 zum Zeitpunkt t0 ausgeht und nach Lösungen sucht, die diese
sogenannte Anfangswertbedingung erfüllt. Hier wäre
B(t) = B0 exp [α(t − t0 )]
die einzige (wie wir noch sehen werden) Lösung der Differentialgleichung, die der Bedingung B(t0 ) = B0 genügt.
5
Werner, Universität Münster, SS 10
Diese werden wir im 3.Abschnitt dieses Kapitels beginnen genauer zu betrachten.
Definition 1 Eine (gewöhnliche) Differentialgleichung n-ter Ordnung ist
eine Gleichung der Form
F (x, y, y 0 , . . . , y (n) ) = 0
wobei F : D → R und D ⊂ Rn+1 offen ist.
(i) Die Differentialgleichung heißt explizit, falls, für eine geeignete Funktion
f , F (x, y, y 0 , . . . , y (n) ) = y (n) −f (x, y, y 0 , . . . , y (n−1) ), d.h. falls man die
erste Gleichung in der Form
y (n) = f (x, y, y 0 , . . . , y (n−1) )
schreiben kann.
(ii) Eine Lösung der Gleichung F (x, y, y 0 , . . . , y (n) ) = 0 ist eine n-fach differenzierbare Funktion y : I → R, wobei I ⊆ R ein offenes Intervall ist
und für alle x ∈ I gilt
(x, y(x), y 0 (x), . . . , y (n) (x)) ∈ D
sowie
F (x, y(x), y 0 (x), . . . , y (n) (x)) = 0
(iii) Tritt zu der Gleichung F (x, y, y 0 , . . . , y (n) ) = 0 die Bedingung
y (ν) (ξ) = ην ,
ν = 0, . . . , n − 1
hinzu, so nennt man dies ein Anfangswertproblem. Gelöst wird es
durch eine Funktionen, welche sowohl die Differentialgleichung als auch
diese Bedingung erfüllt.
1.2
1.2.1
Differentialgleichungen erster Ordnung
Richtungsfelder
Eine explizite Differentialgleichung 1.Ordnung
y 0 = f (x, y)
lässt sich gut anschaulich darstellen: Durch ihre rechte Seite wird ja jedem
Punkt (x, y) der Ebene (hier sind x und y Zahlen!) ein Anstieg zugewiesen.
Diesen kann man sich durch einen Pfeil fester (aber hier unbedeutender)
Länge repräsentiert vorstellen, der am Punkt (x, y) angeheftet wird.
Eine solche Darstellung könnte einen vielleicht auf den Gedanken bringen, dass jede nicht allzu bösartige rechte Seite der Differentialgleichung
auf jeden Fall Lösungskurven zulässt. Dies ist tatsächlich der Fall, wie wir
sp’ater noch sehen werden.
Gewöhnliche Differentialgleichungen (Kurzskript)
6
Abbildung 1.1: Richtungsfeld für die Gleichung y 0 = x2 + y 2 sowie die
Lösungskurven für die Anfangswertprobleme y1 (0) = 1, y2 (0) = 0 und
y3 (0) = −1
1.2.2
Differentialgleichungen mit getrennten Veränderlichen
Eine Differentialgleichung der Form
y 0 f (y) = g(x)
nennt man eine Differentialgleichung mit getrennten Veränderlichen. Für
eine Lösungsfunktion y = y(x) ist ja y 0 (x)f (y(x)) die Ableitung der Funktion x 7−→ F (y(x)), falls F eine Stammfunktion von f ist. Besitzt g(x) die
Stammfunktion G, so muss nach dem Mittelwertsatz eine Konstante C ∈ R
existieren mit
F (y(x)) = G(x) + C.
Also: Ist y eine Lösungsfunktion der Differentialgleichung y 0 f (y) = g(x),
so erfüllt sie die Beziehung F (y(x)) = G(x) + C für alle x, für die die
Stammfunktionen F und G von f bzw. g definiert sind, sowie für ein festes
C ∈ R. Umgekehrt folgt leicht durch Ableiten nach x, dass jede Funktion,
die einer solchen Gleichung genügt, Lösung der Gleichung y 0 f (y) = g(x) ist.
Der Begriff ‘Differentialgleichung mit getrennten Veränderlichen’ wird
häufig für Differentialgleichungen der Form y 0 = ϕ(x)ψ(y) verwandt. Für
7
Werner, Universität Münster, SS 10
die Lösungen einer solchen Gleichung ist dann ein wenig Sorgfalt nötig, falls
ψ Nullstellen besitzt.
Beispiel
Es sei
p
y 0 = 2 sign(y) |y|
√
Ist y > 0, so erhalten wir y 0 = 2 y, woraus nach Division die Lösungen
y(x) = (x + C)2 , C ∈ R, entstehen. Diese sind im Prinzip wegen der Bedingung y > 0 zunächst nur für x > −C Lösungen; es zeigt sich aber, dass
diese Funktionen Lösungen bleiben, wenn man sie in x = −C durch den
Wert 0 ergänzt. In derselben Weise bekommen wir es mit der Gleichung
√
y 0 = −2 −y zu tun, falls wir y < 0 voraussetzen. Dieses Mal ergeben sich
die Lösungen y(x) = −(x + C)2 , x < −C, C ∈ R, und auch diese können
wieder in den Punkt x = −C hinein durch 0 zu Lösungen ergänzt werden.–
Schließlich ist auch die konstante Nullfunktion auf jedem kleinen Intervall
eine Lösung.
Das Besondere hier ist, dass man aus diesen drei Lösungstypen (y =
±(x + C)2 , y = 0) abschnittweise neue Lösungen zusammensetzen kann.
Damit besitzt jedes Anfagswertproblem y(ξ) = 0 (überabzählbar) unendlich viele Lösungen, die so gewählt werden können, dass sie in jeder zuvor
gewählten kleinen R2 -Umgebung von ξ verlaufen.
Gebremstes Wachstum Es gibt verschiedene Möglichkeiten, das ungebremste, exponentielle Wachstum, das die Differentialgleichung y 0 = αy für
α > 0 hervorruft, an Situtationen anzupassen, bei denen es schließlich zu
einer Verminderung des Zuwachses kommt. Eine dieser Möglichkeiten ist
y 0 = αy − βy 2 ,
α, β > 0
Man kann sich diese Gleichung durch das Hinzutreten eines Terms entstanden denken, der die Verantwortung für ein gebremstes Wachstum dem Zusammentreffen zweier durch y beschriebenen Akteure zuordnet. Für eine
vereinfachte Rechnung schreiben wir
1
0
y = αy 1 − y
κ
Die Lösungsfunktionen für diese Gleichung sind für y 6= 0, κ formal durch
die Gleichung
Z
Z
dy
= α dx + C,
C∈R
y 1 − κ1 y
gegeben. Durch eine (hier sehr einfache) Partialbruchzerlegung erhält man
Z
Z y dy
1
1
,
=
−
dy = ln y y−κ
y − κ
y 1 − κ1 y
Gewöhnliche Differentialgleichungen (Kurzskript)
8
und die Lösungen, von denen wir aus technischen Gründen zunächst annehmen, dass sie die Werte 0, κ nicht annehmen, sind durch die Beziehung
κ −αx
Ce
= 1 − ,
C > 0,
y
gekennzeichnet. Unterscheidet man die Fälle y > κ, y < κ, so ergeben sich
hieraus die beiden Lösungstypen
y1 (x) =
κ
,
1 − Ce−αx
sowie
y2 (x) =
κ
,
1 + Ce−αx
C>0
Schließlich ist auch leicht zu sehen, dass y = κ und y = 0 Lösungen sind. Wie
sich zeigt, liegen die y1 (für x groß genug) strikt oberhalb von κ, während
die y2 sich strikt unterhalb aufhalten. Außerdem gilt
lim y1,2 (x) = κ
x→∞
sowie
lim y1,2 (x) = 0.
x→−∞
Die Lösungen y1 sind etwas mit Vorsicht zu genießen, da sie für Ce−αx = 1
nicht definiert sind (was der Differentialgleichung nicht unmittelbar anzusehen ist).
1.2.3
Lineare Differentialgleichungen erster Ordnung
Geht man bei der Modellierung von Wachstum von einer zeitlichen Abhängigkeit der Wachstumsrate aus, so gelangt man zu einer Differentialgleichung
der Form
y 0 + α(t)y = 0
Diese ist natürlich nicht neu und ihre Lösungen sind, nach Fallunterscheidung y > 0, y < 0,
Z
y(t) = C exp − α(t) dt ,
C ∈ R.
Bei der Herleitung ist zu beachten, dass die Funktionen C exp für C ∈ R entweder ausschließlich strikt positive oder nur strikt negative Werte annehmen
und dass y = 0 ebenfalls eine Lösung ist.
Man nennt eine solche spezielle Gleichung trennbarer Veränderlicher eine
homogene lineare Differentialgleichung erster Ordnung. ‘Linear’, da mit zwei
Lösung y1,2 auch immer y1 + λy2 , λ ∈ R, wieder eine Lösung ist, und die
Lösungsmenge daher in natürlicher Weise ein Vektorraum ist.
Beispiel Findet der Zuwachs einer Größe y periodisch statt, so ist ein
passendes Modell etwa durch
y 0 − A(1 + cos ωt)y = 0
9
Werner, Universität Münster, SS 10
gegeben: Der Zuwachs schwankt hier mit der Frequenz ω zwischen den Werten 0 und 2A. Lösungen sind gegeben durch
A
y(t) = C exp At + sin ωt ,
C ∈ R.
ω
Inhomogene Gleichungen Eine inhomogene lineare Differentialgleichung
erster Ordnung erhält man, wenn zu einer zeitlich abhängigen Wachstumsrate α(t) noch ein äuserer Einfluss in der Form einer Funktion β(t) hinzutritt
(etwa durch dur ‘Fischen’), die Gleichung also die Form
y 0 + αy = β
besitzt. β heißt inhomogener Anteil, y 0 + αy = 0 heißt die zugehörige homogene lineare Differentialgleichung. Diese Definitionen haben natürlich Versionen für höhere Ordnungen: Eine lineare Differentialgleichung n-ter Ordnung
ist von der Form
y (n) + αn−1 y (n−1) + · · · + α0 y = β,
wo α1 , . . . , αn−1 und β hinreichend gutartige Funktionen sind. Mit genau
denselben Beweisen wie in der linearen Algebra zeigt man
• Sind y1 , y2 Lösungen der homogene Differentialgleichung, so auch λ1 y1 +
λ2 y2 für alle λ1 , λ2 ∈ R.
• Ist yh eine Lösung der homogenen Differentialgleichung und yp eine
Lösung der inhomogenen Differentialgleichung, so ist yh + yp Lösung
der inhomogenen Differentialgleichung.
• Sind y1 , y2 Lösungen der inhomogenen Differentialgleichung, so ist y1 −
y2 Lösung der homogenen Differentialgleichung. Die Lösungsmenge der
inhomogenen Gleichung ist also von der Form
yp + Lh = {yp + y | y löst die homogene Gleichung }
wo yp (irgend)eine Lösung der inhomogenen Gleichung ist.
Wir werden hier nur den Fall erster Ordnung verfolgen; vor allem in physikalischen Anwendungen tritt der Fall n = 2 sehr häufig auf. Deren Lösungen
stammen aus einem etwas unübesichtlichen Menge von ‘klassischen Funktionen der mathematischen Physik’.
Lösung der inhomogenen Gleichung y 0 + αy = β Wir kennen bereits
die allgemeine Lösung
Z
yC (t) = C exp(−A(t)),
A(t) = α(t) dt
Gewöhnliche Differentialgleichungen (Kurzskript)
10
der homogenen Gleichung, und es reicht nun, irgendeine feste Partikulärlösung
yp der inhomogenen Gleichung aufzufinden; denn die allgemeine Lösung der
inhomogenen Gleichung ist dann von der Form yp + yC , C ∈ R. Man findet
ein solches yp durch die songenannte Variation der Konstanten, d.h. man ersetzt in yC die Konstante C durch eine Funktion C(t), setzt C(t) exp(−A(t))
in die inhomogene Gleichung ein und erhält für C die Differentialgleichung
C 0 (t) = β(t) exp A(t),
somit tatsächlich eine Partikulärlösung der Gestalt
Z
yp (t) = exp(−A(t))
β(t) exp A(t) dt ,
und die allgemeine Lösung der inhomogenen Gleichung besitzt die Form
Z
y(t) = yp (t) + yC (t) = exp(−A(t))
Beispiel
β(t) exp A(t) dt + C exp(−A(t)),
Z
A(t) = α(t) dt,
C ∈ R.
Bei dem Anfangswertproblem
y 0 − 2xy = 2x,
y(0) = 2
ist die Lösung der homogenen Gleichung y 0 − 2xy durch die Funktionenschar
yh (x) = C exp(x2 ),
C∈R
gegeben. Hier ist also A(x) = −x2 , und die Variation der Konstanten führt
2
auf die Gleichung C 0 = 2x exp(−x2 ) mit der Lösung C(x) = −e−x , was die
Partikulärlösung
yp (x) = C(x) exp(x2 ) = −1
ergibt. Die allgemeine Lösung ist also
y(x) = yh (x) + yp (x) = C exp(x2 ) − 1,
C ∈ R.
Um das Anfangswertproblem zu lösen, bestimmt man die Konstante C aus
dem Ansatz 2 = y(0) = C − 1 und erhält y(x) = 3 exp(x2 ) − 1.
Durch einen kleinen Kunstgriff kann man diese Gleichung in der Form
0
y − 2x(y + 1) = 0 auch schneller lösen: Die Substitution z(x) = y(x) + 1
führt auf z 0 = y 0 und z 0 − 2xz = 0. Für die letzte Gleichung bedarf es keiner
Variation der Kontanten mehr und man erhält direkt
y(x) = z(x) − 1 = C exp x2 − 1,
C ∈ R.
11
Werner, Universität Münster, SS 10
1.2.4
Exakte Differentialgleichungen
Eine Differentialgleichung der Form
y 0 a(x, y) + b(x, y) = 0
heißt exakt genau dann, wenn
∂a
∂b
=
∂x
∂y
gilt. Um zu verstehen, welche Bedeutung diese Bedingung besitzt, ist es
günstig, sich den folgenden Satz in Erinnerung zu rufen:
Satz 1 Es sei ω eine auf einer sternförmigen (allgemeiner: einfach zusammenhängenden), offenen Menge U ⊆ Rn definierte und dort stetig differenzierbare 1-Form. Dann sind die folgenden Aussagen äquivalent:
(i) ω besitzt eine Stammfunktion
R
(ii) die Integrale γ ω hängen jeweils nur vom Anfangs- und Endpunkt von
γ ab.
(iii) ω erfüllt die Integrabilitätsbedingungen
∂ωj
∂ωi
=
∂xj
∂xi
i, j = 1, . . . , n,
Falls ω einer dieser Bedingungen genügt, so nennt man sie exakt.
Die Differentialgleichung y 0 a(x, y) + b(x, y) = 0 ist für Funktion a, b,
die auf einer einfach zusammenhängenden, offenen Menge U ⊆ R2 definiert
sind, folglich genau dann exakt, wenn a(x, y)dy + b(x, y)dx eine exakte 1Form ist, bzw. wenn es eine differenzierbare Funktion (x, y) 7→ F (x, y) gibt
mit
∂
∂
a(x, y) =
F (x, y), b =
F (x, y)
∂y
∂x
In einem solchen Fall gilt, dass eine Funktion y der Gleichung F (x, y(x)) = C
für alle x mit (x, y(x)) ∈ U und für ein fest gewähltes C ∈ R genau dann
genügt, wenn
d
F (x, y(x)) = y 0 a(x, y) + b(x, y) = 0
dx
für alle x mit (x, y(x)) ∈ U
Man nennt eine solche Funktion F bisweilen auch ein erstes Integral oder
eine Erhaltungsgröße der Differentialgleichung. Der zweite Begriff kommt daher, dass für jede feste Lösung des Systems sich die durch F definierte Größe
zeitlich nicht ändert. Typische Beispiele für ein solches Verhalten sind die
Erhaltungsgrößen der Physik wie Energie, Drehimpuls oder Ladungszahl.—
Gewöhnliche Differentialgleichungen (Kurzskript)
12
Löst man eine exakte Differentialgleichung, indem man eine Stammfunktion der zu Grunde liegenden 1-Form bestimmt, so erhält man die Lösung
zunächst (wie auch schon im Fall der Gleichung mit trennbaren Veränderlichen) nur in impliziter Form; mit Hilfe des Satzes von der impliziten Funktion kann man sodann (zumindest lokal) die Existenz einer explizit gegebenen Lösungsfunktion beweisen: Ist etwa das Anfangswertproblem y(ξ) = η
∂
vorgelegt, gilt g = ∂y
F ist stetig und g(ξ, η) 6= 0), so existiert auf einer Umgebung von ξ eine Funktion y(·) mit y(ξ) = η und F (x, y(x)) = C, folglich
eine Lösung des Anfangswertproblems.
Von den bisher behandelten Differentialgleichungen ist
y 0 g(y) − f (x) = 0
offenkundig exakt, und damit auch die homogene lineare Differentialgleichung erster Ordnung als Spezialfall. Schreibt man die inhomogene linear
Differentialgleichung in der Form
y 0 + αy − β = 0,
so ist a(x, y) = 1, b(x, y) = α(x)y − β(y), und wir haben es genau nur dann
mit einer exakten Gleichung zu tun, wenn α = 0 ist.
Wiederholung: Bestimmung einer Stammfunktion Es sei ϕ : U ⊆
R2 → (R2 )∗ , U einfach zusammenhängendes Gebiet, eine exakte 1-Form.
Die Charakterisierung dieser Formen zeigt, dass man sich irgendeinen festen
Punkt u0 ∈ U und für jedes u ∈ U irgendeinen Weg γu : [a, b] → U , der u0
mit u verbindet, wählen kann, um durch
Z
Φ(u) := ϕ(dγu )
eine Stammfunktion zu ermitteln. Meist praktischer ist es jedoch, die folgende Überlegung zu verwenden. Ist ϕ = (ϕ1 , ϕ2 ) = Φ0 , so folgt aus
∂Φ
∂x
und dem Mittelwertsatz, dass es eine ‘von y abhängige Integrationskonstante
C(y)’ geben muss, so dass
Z
ϕ1 (x, y) dx − Φ(x, y) = C(y).
ϕ1 =
Damit wird
Z
∂
d
C(y) =
ϕ1 (x, y) dx − ϕ2 (x, y),
dy
∂y
woraus sich C(y) und somit eine Stammfunktion von ϕ ermitteln lässt. Ein
2 2
Beispiel:
+ 4y(x3 + y 2 ) dy ist exakt, und aus Ω(x, y) =
R 2 2 ω(x, y) = 6x y dx
0
6x y dx + C(y) folgt C (y) = 4y 3 , (bis auf eine Konstante) C(y) = y 4 ,
und wir erhalten die Stammfunktion Ω(x, y) = 2x3 y 2 + y 4 .
13
Beispiel
Werner, Universität Münster, SS 10
Gegeben sei das Anfangswertproblem
y 0 x + y + 2x2 = 0,
y(1) = 1.
Hier ist U = R2 , a(x, y) = x, b(x, y) = y + 2x2 , und wegen
∂
∂
a(x, y) = 1 =
b(x, y)
∂x
∂y
ist diese Differentialgleichung exakt. Eine Stammfunktion für (x, y) 7−→
(a(x, y), b(x, y)) ist F (x, y) = yx + 23 x3 , so dass jede Lösung y = y(x) die
Beziehung
2
y(x)x + x3 = C
3
für jeweils festes C ∈ R erfüllen muss. In diesem Fall kann diese Gleichung
(für x 6= 0) nach y(x) aufgelöst werden, nämlich y(x) = C/x − 23 x2 . Das
Anfangswertproblem y(ξ) = η mit ξ = η = 1 löst man durch den Ansatz
C = F (ξ, η) = 5/3 und erhält
y(x) =
2x2
5
−
.
3x
3
Diese Lösung ist nur für x 6= 0 definiert. Ein Anfangswertproblem y(0) = η
ergibt stets C = 0, und somit besitzt ein solches nur für η = 0 eine Lösung
(nämlich y0 (x) = − 23 x2 , eine Lösung, bei der man gesondert den Punkt
(0, 0) betrachten muss.)
Der ‘integriererender Faktor’ Ist die Gleichung y 0 a(x, y) + b(x, y) = 0
nicht exakt, so kann man versuchen, diese durch Multiplikation mit einer geeigneten Funktion M (x, y) in eine exakte Differentialgleichung zu
überführen (Dabei darf M nicht auf Mengen mit nichtleerem Innern verschwinden). Damit die vorgelegte Differentialgleichung nach Multiplikation
mit M tatsächlich exakt ist, muß der integrierende Faktor M die Bedingung
∂M
∂M
∂a
∂b
a−
b+M
−
=0
∂x
∂y
∂x ∂y
erfüllen. Diese (partielle) Differentialgleichung für M ist in der Regel schwer
zu lösen. Leichter gelingt dies, falls ein Multiplikator M existiert, der nur
von der Variablen x (bzw. y) abhängt. Dies ist genau dann der Fall, wenn
1 ∂b
∂a
1 ∂a
∂b
−
bzw.
−
a ∂y ∂x
b ∂x ∂y
nur von x bzw. y abhängen. Falls dies der Fall ist, fällt (ln M (x))0 (bzw.
(ln M (y))0 ) mit dem ersten (bzw. dem zweiten) hier aufgeführten Ausdruck
zusammen.
Gewöhnliche Differentialgleichungen (Kurzskript)
14
Spezialfälle dieses Gleichungstyps sind etwa die Gleichungen der Form
y 0 = f (x)g(y) sowie die inhomogene lineare Gleichung erter Ordnung,
y 0 = f (x)g(y)
y 0 + a(x)y = h(x)
Beispiel
mit M (y) = g(y)−1
sowie
Z
mit M (x) = exp
a(x) dx
Gegeben sei die Differentialgleichung
y 0 xy + x2 + y 2 + x = 0.
Hier ist
∂
a(x, y) = y,
∂x
∂
b(x, y) = 2y,
∂y
und diese Gleichung ist nicht exakt. Wegen
∂a
1
1 ∂b
−
=
a ∂y ∂x
x
Gibt es den nur von x abhängigen integrierenden Faktor M (x) = x, und die
mit M (x) multiplizierte Gleichung
y 0 x2 y + x3 + y 2 x + x2 = 0
ist nun exakt. Als Stammfunktion der Form x2 y dy+(x3 +y 2 +x2 )dx ermittelt
man
1
1
1
F (x, y) = x4 + + x3 + x2 y 2 ,
4
3
2
und die Lösungskurven ermittelt man, indem man die in y quadratische
Gleichung
1 4
1
1
x + + x3 + x2 y 2 + C = 0
4
3
2
für jeweils ein festes C ∈ R löst.
Substitution Häufig gelingt es, gegebene Differentialgleichungen durch
geeignete Substitution auf einen der hier behandelten Typen zu bringen. Die
Möglichkeiten sind hier etwas zahlreicher, da man sowohl den Definitionsals auch den Bildbereich der gesuchten Funktion einer Transformation unterwerfen kann. Ist z.B. eine Differentialgleichung der Form
y
y0 = f
x
gegeben (eine sogenannte homogene Differentialgleichung), so führt die Substitution y(x) = z(x)x auf
z 0 (x)x + z(x) − f (z) = 0,
15
Werner, Universität Münster, SS 10
eine Gleichung mit trennbaren Veränderlichen. Ein weiteres Beispiel ist die
Bernoulli Gleichung
y 0 + p(x)y = q(x)y n ,
welche durch z(x) := y 1−n (x) in eine lineare Differentialgleichung überführt
werden kann.
Gewöhnliche Differentialgleichungen (Kurzskript)
16
Kapitel 2
Systeme linearer
Differentialgleichungen mit
konstanten Koeffizienten
Wir werden in diesem Abschnitt vergleichsweise einfache Systeme von Differentialgleichungen betrachten, also Gleichungen für Funktionen, die alle von
einem Parameter (häufig die Zeit) abhängen. Die hier betrachteten Systeme sind linear und die auftretenden Koeffizientenfunktionen sind konstant.
Wir werden später versuchen, kompliziertere Systeme durch Approximation
durch die hier betrachteten in den Griff zu bekommen.
2.1
Systeme gewöhnlicher Differentialgleichungen
Definition 2 Ein Differentialgleichungssystem n-ter Ordnung in m unbekannten Funktionen ist eine Gleichung der Form
F (x, y, y 0 , . . . , y (n) ) = 0,
wobei F : D → Rk mit D ⊆ R1+nm .
(i) Dieses System heißt explizit, falls k = m und
F (x, y, y 0 , . . . , y (n) ) = y (n) − f (x, y, y 0 , . . . , y (n−1) )
für eine geeignete Funktion f .
(ii) Eine Lösung des Systems ist eine n-fach differenzierbare Funktion y :
I → Rm , wobei I ⊆ R ein offenes Intervall ist und für alle x ∈ I gilt:
F (x, y(x), y 0 (x), . . . , y (n−1) (x)) = 0
17
Gewöhnliche Differentialgleichungen (Kurzskript)
18
(iii) Fordert man für die Lösung zusätzlich
y (ν) (ξ) = ην
mit ξ ∈ R, ην ∈ Rm , so spricht man wiederum von einem Anfangswertproblem.
2.1.1
Reduktion auf Systeme erster Ordnung
Systeme gewöhnlicher Differentialgleichungen können zu (größeren) Systemen erster Ordnung umgeformt werden. Ist zunächst F (x, y, y 0 , . . . , y (m) )
eine Differentialgleichung n-ter Ordnung in einer unbekannten Funktion y,
so setzen wir
yν = y (ν−1) ,
ν = 1, . . . , n.
Dann ist die Differentialgleichung f (x, y, y 0 , . . . , y (n−1) ) = 0 äquivalent zu
dem Differentialgleichung-System erster Ordnung mit n Unbekannten y1 , . . . , yn
und n Gleichungen,
y10 = y2 ,
...,
0
yn−1
= yn ,
F (x, y1 , . . . , yn , yn0 ) = 0
(k)
Ist (y1 , . . . , yn )> eine Lösung des Systems, so ist y1 (x) = y1+k (x) für
(n)
alle x und k = 0, . . . , n − 1 also F (x, y1 (x), y10 (x), . . . , y1 (x)) = 0, d.h. y1
ist eine Lösung der ursprünglichen Differentialgleichung.
Und umgekehrt: Jede Lösung y der ursprünglichen Differentialgleichung
führt auf die Lösung (y, y 0 , . . . , y (n−1) )> des Systems.
In ähnlicher Weise verfährt man, um Systeme der Ordnung m in ein
System erster Ordnung zu überführen.
2.1.2
Systeme Linearer Differentialgleichungen erster Ordnung
Ein lineares Differentialgleichung-System erster Ordnung ist ein Differentialgleichungssystem der Form
y 0 = A(x)y + b(x)
Hierbei ist A eine Matrix, deren Einträge stetige Funktionen sind, die von
einer reellen Variablen abhängen. Dies ist gleichbedeutend damit, dass A
eine stetige, von einer reellen Variablen abhängige Abbildung ist, die Werte
in dem Raum der n × n-Matrizen, Matm (R) annimmt. Weiterhin ist b eine
stetige, von einer reellen Variablen abhängige Funktion mit Werten im Rn .
Genau wie im Fall einer linearen Differentialgleichung nennt man b(x) die
Inhomogenität des Systems, und ein lineares System heißt homogen, falls
b(x) = 0. Auch der Lösungsraum ist wiederum von der Form
yp + y A(y) = y 0 ,
wo yp eine (beliebige) Lösung des homogenen Systems ist.
19
2.2
Werner, Universität Münster, SS 10
Systeme mit konstanten Koeffizienten: Diagonalisierbarer Fall
Die Systeme y 0 = Ay mit A ∈ Matn (R) stellen für die Theore der Differentialgleichungssysteme sind ein wichtiges Beispiel. Zum einen sind diese
Gleichung kompliziert genug, um mit ihrer Hilfe allgemeinere Differentialgleichungen besser verstehen zu können. Dies wird der Gegenstand des 3.
Kapitels sein. Zum anderen sind sie aber so einfach gebaut, dass man das
Lösungsverhalten dieser Gleichungen komplett im Griff hat.
Wir beginnen hier mit einem sehr einfachen Spezialfall, den sogenannten entkoppelten Gleichungen. Hierbei handelt es sich um den Fall, dass A
Diagonalgestalt besitzt, das System also die Form
yi0 = αi yi ,
i = 1, . . . , n
aufweist. Man kann hier sofort Lösungen angeben (wobei wir die Vektorschreibweise verwenden):

 

y1 (x)
C1 exp(α1 x)
 ..  

..
 .  

.

 

 yi (x)  =  Ci exp(αi x)  ,
Ci ∈ R, i = 1, . . . , n,

 

 ..  

..
 .  

.
yn (x)
Cn exp(αn x)
Wir werden später sehen, dass damit bereits alle Lösungen gefunden sind.
In diesem Abschnitt geht es darum, ein System y 0 = Ay zu ‘entkoppeln’,
was in der Sprache der linearen Algebra auf die Diagonalisierung der Matrix
A hinausläuft.
2.2.1
Reelle Eigenwerte
Hier ist eine kurze Erinnerung: Eine linearer Endomorphismus Φ heißt diagonalisierbar, falls es eine Basis des zu Grunde liegenden Vekotorraums gibt,
bezüglich derer die Matrixdarstellung von Φ Diagonalgestalt besitzt. Es galt
der
Satz 2 Es sei V ein endlichdimensionaler K-Vektorraum V sowie Φ : V →
V linear mit den Eigenwerten λ1 , . . . , λk und dem charakteristischen Polynom
k
Y
χΦ (λ) = det (λId − Φ) =
(λ − λi )ni .
i=1
Dann sind äquivalent:
(i) Φ ist diagonalisierbar
Gewöhnliche Differentialgleichungen (Kurzskript)
20
(ii) Es gibt eine Basis von V , die aus Eigenvektoren von Φ besteht.
(iii) Sind V1 , . . . , Vk die Eigenräume zu den Eigenwerten λ1 , . . . , λk , so gilt
dim Vi = ni
für alle i = 1, . . . , k.
Wir gehen für den Moment davon aus, dass in y 0 = Ay die Matrix A (bzw.
der durch diese induzierte Endomorphismus) nur reelle Eigenwerte besitzt
und diagonalisierbar ist. Es sei v1 , . . . , vn eine Basis aus Eigenvektoren und T
die – invertierbare – Matrix, deren Spalten gerade die Eigenvektoren sind,
die bezüglich der Standardbasis e1 , . . . , en dargestellt sind. Dann gilt für
jedes i = 1, . . . , n
T −1 AT ei = λi ei ,
so dass also T −1 AT bezüglich der Standardbasis Diagonalgestalt besitzt.
Dabei sind die Einträge auf der Diagonalen gerade die Eigenwerte von A.
Wir wenden uns nun wieder dem System y 0 = Ay zu. Wir multiplizieren
beide Seiten von links mit T −1 und erhalten
(T −1 y)0 = T −1 (y 0 ) = T −1 AT (T −1 y),
ein entkoppeltes System von linearen Differentialgleichungen. Bezeichnet
(·)B die Koordinatendarstellung eines Vektors bezüglich der Eigenbasis B =
{v1 , . . . , vn }, so erhalten wir die Lösungen




y1 (t)
C1 exp(λ1 t)
 .. 


..
 . 


.




 yi (t)  =  Ci exp(λi t)  ,




 .. 


..
 . 


.
yn (t) B
Cn exp(λn t) B
Ci ∈ R,
i = 1, . . . , n,
Multiplikation mit T führt die Darstellung (·)B wieder zurück in die alte
Basisdarstellung und wir erhalten die Lösungen
y(t) = C1 exp(λ1 t)v1 + · · · + Cn exp(λn t)vn
Da die v1 , . . . , vn eine Basis ist, kann aus diesen Lösungen auch jedes Anfangswertproblem
y(0) = y0
gelöst werden.
21
Werner, Universität Münster, SS 10
2.2.2
Komplexe Eigenwerte
Wir nehmen jetzt an, dass die (reelle) Matrix A über dem Vektorraum Cn
diagonalisierbar ist. Im Prinzip kann man genau wie im Fall der reellen Diagonalisierbarkeit vorgehen, und so erhält man für die Eigenwerte λ1 , . . . , λn
mit Eigenbasis v1 . . . , ~vn Lösungen der Form
y(x) = C1 exp(λ1 t)v1 + · · · Cn exp(λn t)n .
Diese sind aber im Allgemeinen komplexe Lösungen, und für das reell definierte System y 0 = Ay benötigt man in der Regel auch reelle Lösungen.
Die Koeffizienten des charakteristischen Polynoms von A jedoch sind
sämtlich reell, und es ist leicht zu sehen, dass mit jedem Eigenwert λ zum
Eigenvektor v auch λ ein Eigenwert zum Eigenvektor v ist. Hier entsteht v
aus v durch koordinatenweise Konjugation. Verwendet man die Schreibweise
Re v und Im v für die koordinatenweise gebildeten Real- und Imaginärteile,
so ist, wie in C, v = Re v − i Im v.
Wir erhalten die Lösungen
y(t) = exp(λt)v
sowie
y(t) = exp(λt)v.
Da y 0 = Ay auch komplex linear ist, sind auch Re y(t) und Im y(t) Lösungen,
die jedoch beide reell sind. Setzt man λ = α + iω, so zeigt eine einfache
Rechnung
1
(y(t) + y(t)) = eαt [cos(ωt) Re v − sin(ωt) Im v]
2
Re y(t) =
und genauso
Im y(t) =
1
(y(t) − y(t)) = eαt [sin(ωt) Re v + cos(ωt) Im v]
2i
Satz 3 Es seien λ1 , . . . , λM die reellen und λM +1 , λM +1 . . . , λN , λN , M +
2(N −M ) = n, λk = αk +iωk die (echt) komplexen Eigenwerte der diagonalisierbaren Matrix A und v1 , . . . , vM , vM +1 , v M +1 , . . . , vN , v N die zugehörigen
Eigenvektoren.
(i) Für das System y 0 = Ay existieren die reellen Lösungen
y(t) =
M
X
Ck exp(λk t)vk +
k=1
+
N
X
Ak eαk t [cos(ωk t) Re v − sin(ωk t) Im v] +
k=M +1
+ Bk eαk t [sin(ωk t) Re v + cos(ωk t) Im v] ,
mit Ak , Bk , Ck ∈ R.
Gewöhnliche Differentialgleichungen (Kurzskript)
22
(ii) Die Menge v1 , . . . , vM , Re vM , Im vM +1 ist eine Basis des Rn . Es sei
η ∈ Rn und
η=
M
X
η k vk +
k=1
N
X
ηk Re vk + ηk Im vk
k=M +1
die Koordinatendarstellung bezüglich dieser Basis. Für das Anfangswertproblem y(0) = η ergibt sich dann eine Lösung wie in (i) aus
Ck = η k
Ak = ηk
2.3
für k = 1, . . . , M
und
Bk = η k
sowie
für k = M + 1, . . . , N .
Beispiele und elementare Eigenschaften der Lösungen
Die folgenden Beispiele finden im R2 statt. Solche Systeme sind gut der
Anschauung zugänglich. Es wird dieses Mal jedem Punkt der Ebene eine
Richtung samt Länge zugewiesen. Genau wie bei einer Differentialgleichung
des Typs y 0 = f (x, y) muss eine Lösungskurve diesen Richtungsvorgaben
folgen. Dem Bild der fertigen Lösungskurve sieht man jedoch die Länge dieser Richtungen (die der Momentangeschwindigkeit des Kurvenpunkts entspricht) nicht mehr an. Wir werden daher in den folgenden Abschnitten auf
die Darstellung der Längen verzichten.
2.3.1
Reelle Eigenwerte
Um ein etwas deutlicheres Bild vom Verhalten der Lösungen in dieser Situation zu erhalten, betrachten wir vorübergehend den Fall der Eigenräume
Re1 , Re1 mit den Eigenwerten α, β ∈ R. Die Geometrie der allgemeinen
Lösungskurve
γ(t) = C1 exp(αt)e1 + C2 exp(βt)e2
lässt sich einfacher verstehen, wenn man sie als Graphen einer Funktion
f : R → R darstellt. Wir setzen dazu x = C1 exp(αt), lösen diese Gleichung
nach t auf und erhalten
β/α
β
x
x
y(x) = C2 exp
ln
= C2
.
α
C1
C1
Diese Funktionen sind Hyperbeln für den Fall unterschiedlicher Vorzeichen
der Eigenwerte sowie Parabeln, falls die Eigenwerte dasselbe Vorzeichen besitzen. (Natürlich sind auch jeweils die halben Koordinatenachsen die Bilder von Lösungskurven.) Dabei krümmen sich im Fall gleicher Vorzeichen
die Äste der Parabeln in Richtung der Achse, die zum größeren Eigenwert
gehört. Sind die Eigenräume andere als Re1,2 , so bleibt dieses Verhalten
23
Werner, Universität Münster, SS 10
relativ zum Eigenbasissystem erhalten; im Bild wirkt sich dies durch eine
Deformation der Hyperbeln (Parabeln) aus. Nicht klar wird bei dieser Betrachtung, wie die Lösungen sich bezüglich des (ja eliminierten) Parameters
t verhalten.
Abbildung 2.1: Lineares System mit den Eigenwerten 5 und −4. Die zugehörigen Eigenräume sind hier leicht zu erkennen.
Wir betrachten das System
y10 = −7y1 + 6y2
y20 = −6y1 + 8y2
was dasselbe ist wie
0 y1
−7 6
y1
y =
=
=: Ay
y2
−6 8
y2
0
Es ist
χA (λ) = λ2 − λ − 20
mit den Nullstellen 5, −4.
Die zugehörigen Eigenräume sind
1
E5 = R
sowie
2
E−4
2
=R
,
1
Gewöhnliche Differentialgleichungen (Kurzskript)
24
und die allgemeine Lösung ist von der Form
2
1
y(t) = C1 exp(−4t)
+ C2 exp(5t)
1
2
Die Lösungskurven dieses Systems zeigen das typische Verhalten des Falls
zweier reeller Eigenwerte mit unerschiedlichem Vorzeichen, die Lösungskurven sind Hyperbeln, die durch eine (invertierbare) lineare Abbildung der
Ebene deformiert worden sind.
Das zeitliche Verhalten der Lösungen stellt sich wie folgt dar: Lösungen, die sich auf einer der beiden Eigenräume befinden, werden entweder
vom Ursprung angezogen (negativer Eigenwert) oder von diesem abgestoßen (positiver Eigenwert). Zwischen diesen beiden Unterräumen findet eine
Überlagerung beider Bewegungstypen statt. Dabei gewinnt in der Nähe des
Ursprungs die abstoßende Richtung die Überhand, die Lösungskurven werden von dem zum positiven Eigenwert gehörigen Eigenraum angezogen. Für
große Zeiten wird der Abstand zu diesem sogar beliebig klein, der Eigenraum
ist, für positive Zeiten eine Asymptote für jede Lösungskurve. Umgekehrt
wird bei immer kleineren Zeiten der Eigenraum des negativen Eigenwertes
asymptotisch erreicht.
Abbildung 2.2: Lineares System mit den Eigenwerten 5 und 4 und Eigenräumen, die durch die Punkte (1, 2) und (2, 1) gegeben sind.
25
Werner, Universität Münster, SS 10
Für das System y 0 = Ay mit
1
A=
3
11 2
−2 16
ist χA (λ) = λ2 − 9λ + 20 mit den Nullstellen 4 und 5, und dieses System
unterscheidet sich von dem des letzten Abschnitts nur durch die Umkehrung
des Vorzeichens eines der Eigenwerte; denn die zugehörigen Eigenvektoren
sind gleich geblieben. Die Lösungskurven entfernen sich vom Ursprungs entlang (punktsymmetrischer) Parabeln, die sich in Richtung es Eigenraums
krümmen, der zum Eigenwert 5 gehört.
Abbildung 2.3: Dasselbe System nachdem eine lineare Transformation die
Eigenvektoren in die Einheitsvektoren überführt hat.
Man beachte hier insbesondere die Rolle, die der Ursprung spielt: Die
Lösung des Anfangswertproblem y(0) = 0 verharrt (wie bei jedem anderen
linearen System) für alle Zeiten im Ursprung. Bei rein positiven Eigenwerten
aber entfernt sich jede Lösung, die nicht im Ursprung startet, beliebig weit,
wenn man nur lange genug wartet. Sind die Eigenwerte rein negativ, zieht
der Ursprung jede Lösung an (ohne dass der Nullpunkt von einer dieser
Lösungen erreicht wird, wenn sie sich nicht dort bereits die ganze Zeit über
aufgehalten hat).
Gewöhnliche Differentialgleichungen (Kurzskript)
2.3.2
26
Komplexe Eigenwerte
Besitzt ein zweidimensionales System die komplexen Eigenwerte λ, λ zu den
(komplexen) Eigenvektoren v und v, so ist die allgemeine reelle Lösung von
der Form
C1 eαt [cos(ωt) Re v − sin(ωt) Im v] + C2 eαt [sin(ωt) Re v + cos(ωt) Im v] .
Nehmen wir für den Moment an, dass Re v = ae1 , Im v = be2 und α = 0 ist,
so erfüllt das Bild der entstandenen Kurve
x(t)
C1 a cos(ωt) + C2 a sin(ωt)
γ(t) =
=
y(t)
C2 b cos(ωt) − C1 b sin(ωt)
die Ellipsengleichung
x2 y 2
+ 2 = C12 + C22
a2
b
Diese Ellipsen ziehen sich im Fall α 6= 0 zu Spiralen auseinander, die sich für
große Zeiten entweder beliebig weit vom Ursprung entfernen (α > 0), oder
im Grenzwert t → ∞ den Nullpunkt erreichen (α < 0). Im allgemeinen Fall
gilt für die Matrix T = Re v Im v
α ω
−1
.
T AT =
−ω α
Diese Matrix besitzt auf dem Raum C2 die Eigenwerte λ1 = α − iω und
λ2 = α + iω mit den Eigenräumen
1
1
und
Ck = C
Ck = C
−i
i
Die Funktion T −1 y ist die Lösung in der Darstellung bezüglich der Basis
Re k = e1 , Im k = e2 des R2 . Sie genügt der Gleichung
α ω
−1 0
T −1 y
(T y) =
−ω α
und ist der oben beschriebene Spezialfall mit a = b = 1.
Die Lösungsfunktion y selbst ergibt sich durch Ersetzen von e1,2 durch
Re v, Im v, und stellt so eine linear deformierte Ellipse dar, deren Hauptachsen gegeneinander sowohl in ihrer Länge als auch in ihren Richtungen
abgeändert worden sind. Ist schließlich α 6= 0, so entstehen wiederum Spiralen, die sich für α < 0 dem Nullpunkt beliebig nahe kommen, für α > 0
sich hingegen von diesem beliebig weit entfernen.
Bei dem System
y10 = −3x − 5y
y20 = 5x + 3y
27
Werner, Universität Münster, SS 10
sind die Eigenwerte der zugehörigen Matrix λ1,2 = ±4i, und die Eigenräume
lauten
1 − 2i
1 + 2i
E4i = Cv = C
E−4i = Cv = C
.
1 + 2i
1 − 2i
Damit lautet die allgemeine Lösung
1
−2
[C1 cos(ωt) + C2 sin(ωt)]
+ [C2 cos(ωt) − C1 sin(ωt)]
,
1
2
welche um 45◦ gedrehte Ellipsen sind mit Hauptachsen in der Richtung der
Ursprungsgeraden durch (±1, 1).
Abbildung 2.4: System y10 = −3x − 5y y20 = 5x + 3y. Die Hauptachsen
der Lösungskurven zeigen in diagonaler Richtung und besitzen das Längenverhältnis 2 : 1.
Das System
y10 = −2x − 5y
y20 = 5x + 4y
besitzt die Eigenwerte 1 ± 4i mit denselben Eigenräumen wie zuvor,
1 + 2i
1 − 2i
E1+4i = Cv = C
,
E1−4i = Cv = C
1 − 2i
1 + 2i
Gewöhnliche Differentialgleichungen (Kurzskript)
28
und die allgemeine Lösung dieses Systems unterscheidet sich von der des
zuletzt behandelten Systems durch den Faktor et ,
et [C1 cos(ωt) + C2 sin(ωt)]
1
−2
+ et [C2 cos(ωt) − C1 sin(ωt)]
,
1
2
der die Ellipsen eben zu Spiralen auseinanderzieht.
Abbildung 2.5: Dasselbe System nachdem eine lineare Transformation die
Eigenvektoren in die Einheitsvektoren überführt hat.
2.4
Exponentialfunktion und der Fall der nicht diagonalisierbaren Matrizen
Wir versuchen im Folgenden, das System y 0 = Ay durch einen Ansatz
y(t) = exp(tA)y0
zu lösen. Zu klären ist dabei vor allem, was ‘e hoch Matrix’ sein soll, und
ob man mit so etwas Differentialgleichungen lösen kann. Bevor wir dies tun,
müssen wir ein paar Dinge erklären, die es ermöglichen, mit Matrizen Analysis zu betreiben. Wir werden diese Techniken dann schließlich anwenden,
29
Werner, Universität Münster, SS 10
um das System y 0 = Ay auch in dem Fall zu lösen, in dem die Matrix A
nicht mehr diagonalisierbar ist.
2.4.1
Matrix-Normen und Exponentialfunktion
Normen dienen bekanntlich zur Abstandsmessung und ergeben daher einen
Konvergenzbegriff. Auf endlichdimensionalen Vektorräumen sind diese Konvergenzbegriffe alle identisch, und so wäre es eigentlich gleichgültig, welche
Norm wir auf dem Raum Mn (K) auswählen. Dennoch sind einige Normen
praktischer als andere, wie wir gleich sehen werden.
Definition 3 Eine Norm k · k : Mn (K) → R+
0 heißt Matrixnorm, genau
dann wenn für alle A, B ∈ Mn (K) gilt kABk ≤ kAkkBk.
Lemma 3.1 Es sei k · k eine Norm auf Kn . Dann definiert
kAk = sup kAxk
kxk≤1
eine Matrixnorm, für die zusätzlich gilt
für alle x ∈ Kn und alle Matrizen A.
kAxk ≤ kAkkxk
Hier folgen die beiden Bedingungen kA + Bk ≤ kAk + kBk für alle
A, B ∈ Mn (K) und kλAk = |λ|kAk sehr direkt aus der Definition. Aus
0 = kAk = supkxk0 ≤1 kAxk0 folgt unmittelbar kAxk = 0 für alle x mit
kxk ≤ 1 und mit der Linearität von A auch A = 0. Die Eigenschaft kABk ≤
kAkkBk ergibt sich direkt aus der für alle x ∈ Kn gültigen Ungleichung
kAxk ≤ kAkkxk, welche sich wiederum aus
x kxk ≤ sup kAξkkxk = kAkkxk
kAxk = A
kxk kξk≤1
ergibt (hier ist für x = 0 nichts zu zeigen).
Wir können damit im Folgenden mit (irgend)einer Norm auf dem Kn
beginnen und die durch das voranstehende Lemma definierte Matrixnorm
verwenden. Wem das zu wenig Festlegung ist, beginnt vielleicht mit der
euklidische Norm.
Satz 4 Sei m ∈ N und A, B ∈ Mn (K). Dann gilt
(i) Es existiert der Grenzwert
∞
N
X
X
1 n
1 n
e :=
A = lim
A
N →∞
n!
n!
A
n=0
n=0
Gewöhnliche Differentialgleichungen (Kurzskript)
30
(ii) Falls AB = BA, so besteht die Beziehung
eA+B = eA eB .
Insbesondere ist eA stets invertierbar und
(eA )−1 = e−A .
(iii) Die Abbildung R → Matm (C), t 7→ etA ist differenzierbar und
d tA
e |t=t0 = Aet0 A
dt
für alle t0 ∈ R.
P
An
Die Reihe ∞
n=0 n! konvergiert, genau dann wenn ihre Partialsummen
eine Cauchy-Folge bilden. Der Nachweis dieser Tatsache gelingt mit Hilfe
der Eigenschaften der Matrixnormen: Ist n < m so folgt nämlich
m
m
n
X
X
N
N
N
X
A
A
A
−
=
≤
N!
N! N! N =0
N =n+1
N =0
N m
m
X
X
A kAkN
≤
≤
,
N ! N!
N =n+1
N =n+1
und es gibt für ε > 0 einen Index n(ε), so dass für m > n ≥ n(ε) dieser AusP
kAkn
druck kleiner als ε ausfällt, da ja die Partialsummen von ekAk = ∞
n=0 n!
eine Cauchy-Folge bilden.
Den zweiten Tiel zeigt man wie im reellen oder komplexen Fall — die binomische Formel macht hier keinerlei Schwierigkeiten, und wenn man weiß,
dass A und B miteinander kommutieren, dann kann man auch den Beweis
des Satzes über das Cauchy-Produkt (absolut) konvergierender Reihen wörtlich übernehmen. Die Aussage über die Inverse ergibt sich unmittelbar.
Vom Grundgedanken her recht ähnlich verhält es sich mit dem Beweis des
dritten Teils. Auch hier ist die eindimensionale Situtation das Vorbild, das
man nur richtig anzupassen hat. Wendet man den entsprechenden Satz in
einer Dimension koordinatenweise an, so erhält man: Konvergieren für eine
Folge von Funktionen γn : [a, b] → Kn sowohl (γn ) als auch (γn0 ) gleichmässig
gegen die Funktionen ζ bzw. η, so ist ζ differenzierbar, und es gilt ζ 0 = η.
Wir wenden diese Aussage auf die Funktionenfolge (γN ) mit
γN (t) =
N
X
tn
n=0
n!
A
n
und
0
γN
(t)
=A
N
X
n=1
tn−1
A(n−1)
(n − 1)!
0 ) konvergiert gleichmäßig gegen η(t) = A exp(tA), was
an. Die Folge (γN
daher die Ableitung von t 7→ exp(tA) ist.
31
Werner, Universität Münster, SS 10
2.4.2
Jordansche Normalform und eine neue Lösungsmethode
Mit den Überlegungen des letzten Abschnitts erhalten wir nun sofort (unter
Verwendung der Kettenregel):
Korollar 4.1 Das Anfangswertproblem y 0 = Ay, y(0) = y0 wird durch die
Funktion
y(t) = exp(tA)y0
gelöst.
Hier kommt die Anwendung der Kettenregel (die wir benötigen um die
Funktion t 7→ exp(tA)y0 abzuleiten): exp(tA) ist eine Abbildung vom Typ
K → Kn . Ist x ∈ Kn ein Vektor so definiert δx : Mn (K) → K, δx (A) = A(x)
eine lineare Abbildung, deren Ableitung an allen Stellen gleich δx ist. Also
wird
[δx ◦ exp(·A)]0 = δx0 (exp(·A)) ◦ A exp(tA) = A exp(tA)x,
woraus dann die Aussage des Korollars folgt.
Wie berechnet man exp(A)? Sehr einfach ist dies wiederum, wenn die
Matrix A Diagonalgestalt besitzt, A = diag(λ1 , . . . , λn ). In diesem Fall gilt
exp (diag(λ1 , . . . , λn )) = diag(eλ1 , . . . , eλn )
Ist A diagonalisierbar, also A = U −1 DU mit D = diag(λ1 , . . . , λk ), so erhält
man
exp(A) =
∞
X
An
n=0
n!
=
∞
X
(U −1 DU )n
n=0
n!
= U −1
=
∞
X
Dn
n=0
n!
!
U = U −1 diag(eλ1 , . . . , eλn )U,
wobei die Stetigkeit der Abbildung A 7→ U −1 AU auszunutzen ist. Man kann
sich überlegen, dass diese Lösung dasselbe Resultat liefert wie die, die wir
bereits früher erhalten haben.
Aber auch der allgemeine, nicht notwendigerweise diagonalisierbare Fall
kann jetzt behandelt werden. Wir benötigen dazu die Jordansche Normalform in der folgenden, gegenüber der üblichen Version etwas schwächeren
Fassung. Dazu erinnern wir daran, dass man eine lineare Abbildung N nilpotent von der Ordnung k nennt, falls N k = 0 und N k−1 6= 0 ist. Ein
Vektor v 6= 0 heißt verallgemeinerter Eigenvektor der linearen Abbildung
A zum (verallgemeinerten) Eigenwert λ, falls es ein k ∈ N gibt, so dass
(A − λId)k v = 0 ist.
Gewöhnliche Differentialgleichungen (Kurzskript)
32
Satz 5 Für jede lineare Abbildung A auf dem Cn exisitiert eine Basis aus
verallgemeinerten Eigenvektoren.
Es sei B = {b1 , . . . , bn } eine solche Basis
und T = b1 . . . bn . Dann existieren lineare Abbildungen ∆ und N mit
(i) A = ∆ + N und ∆N = N ∆
(ii) N ist nilpotent von der Ordnung k ≤ n, und T −1 ∆T = diag(λ1 , . . . , λn ),
wo λ1 , . . . , λn die (mit ihren Vielfachheiten gezählten) Eigenwerte von
A sind.
Wenn wir davon ausgehen, dass dieser Satz richtig ist1 , so kann man ihm entnehmen, wie eine Basis aus verallgemeinerten Eigenvektoren zu bestimmen
ist: ∆ und A besitzen dieselben Eigenwerte. Es sei Eλ der Eigenraum zum
Eigenwert λ für ∆. Dieser ist invariant unter ∆, unter N und daher unter A.
Die Einschränkung von A − ∆ auf Eλ ist von der Form A − λId und zugleich
der Einschränkung von N auf diesen Raum. Es ist daher Ker(A−λId)s = Eλ
für ein geeignetes s, und so können wir eine Basis {v1 , . . . , vr } für den Raum
Eλ aus verallgemeinerten Eigenvektoren für A bestimmen, indem wir mit
einer Basis für den Eigenraum EλA von A beginnen und diese sukzessive zu
Basen der Räume
Ker(A − λId)2 , . . . , Ker(A − λId)s−1
erweitern. Eine Basis {v1 , . . . , vn } aus verallgemeinerten Eigenvektoren für
den ganzen Raum erhält man, wenn man dieses Verfahren
für alle Eigenwerte
wiederholt. Bezeichnet T die Matrix v1 . . . vn , so setzt man
∆ = T diag(λ1 , . . . , λn )T −1
N =A−∆
sowie
und hat eine im Satz angegebene Zerlegung erhalten.
Korollar 5.1 Ist A = ∆ + N die Jordansche Normalform von A mit N k =
0, T eine invertierbare Matrix mit ∆ = T diag(λ1 , . . . , λn )T −1 , so gilt
exp(A) = T diag(eλ1 , . . . , eλn )T −1
k
X
Nκ
κ=1
κ!
,
und das Anfangswertproblem y 0 = Ay, y(0) = y0 wird gelöst von
y(t) = T diag(eλ1 t , . . . , eλn t )T −1
k
X
tκ N κ
κ=1
1
κ!
y0 ,
Er ergibt sich aus dem bekannten Satz über die Jordansche Normalform wie er in
fast jedem Buch über lineare Algebra zu finden ist; in dieser Form wird er z.B. in den
Büchern von Halmos, Finite Dimensional Vector Spaces, oder Hirsch/Smale, Differential
Equations, Dynamical Systems and Linear Algebra bewiesen.
33
2.4.3
Werner, Universität Münster, SS 10
Beispiele
Wir lösen im folgenden stets das Anfangswertproblem y 0 = Ay, y(0) = y0 .
Die Matrix
3 1
A1 =
−1 1
besitzt den zweifachen Eigenwert λ1,2 = 2. Damit wird alles ganz einfach;
denn die Matrix diag(2, 2) kommutiert mit jeder anderen, und wir können
∆ = diag(2, 2) in der Zerlegung A1 = ∆ + N wählen. Damit ist
N = A1 − S =
1
1
.
−1 −1
Wegen N 2 = 0, ist die Lösung des Anfangswertproblems durch
2t
2t
y(t) = e (Id + tN )y0 = e
1+t
t
y
−t 1 − t 0
gegeben.
Abbildung 2.6: Das hier beschriebene System mit nichttrivialem nilpotenten
Anteil.
Gewöhnliche Differentialgleichungen (Kurzskript)
34
Das Verhalten der Lösungen allerdings lässt sich so noch nicht ganz einfach vorhersagen. Wichtig ist die Kenntnis des Eigenraums
1
E2 = Ker N = Rv1 , v1 =
,
−1
welcher sich im Bild wiederfinden lässt. Weitere Vereinfachungen ergeben
sich, wenn man unter den vielen, als zweitem Basiselement zur Auswahl
stehenden einen Vektor v2 wählt, für den gilt N v2 = v1 . Dies führt auf die aus
der linearen Algebra bekannte Version der Jordan-Form und ermöglicht hier
ein besseres Verständnis der Lösungskurven (was genauer in den Übungen
untersucht wird).— Im Fall von


1 0 0
A2 = −1 2 0
1 1 2
lauten die Eigenwerte λ1 = 1, λ2,3 = 2. Die zugehörigen Eigenräume sind
>
>
Um eine Basis aus verallsowie E2 = R 0 0 1
E1 = R 1 1 −2
gemeinerten Eigenvektoren zu erhalten, müssen wir die Vektoren v1 , v2 um
eine von diesen linear unbhängige Lösung v3 der Gleichung


1 0 0
(A1 − 2Id)2 v =  1 0 0 v = 0
−2 0 2
>
ergänzen. Eine solche ist v3 = 0 1 0 . Die Transformationsmatrix T ist
dann gegeben als




1 0 0
1 0 0
T =  1 0 1
mit
T −1 =  2 0 1 .
−2 1 0
−1 1 0
Um zu einer Zerlegung der Form A2 = ∆ + N zu



1 0 0
1
∆ = T 0 2 0 T −1 = −1
0 0 2
2
so dass
gelangen, berechnen wir

0 0
2 0 ,
0 0


0 0 0
N = A2 − ∆ =  0 0 0 
−1 1 0
mit N 2 = 0. Die Lösung des Anfangswertproblems ist damit gegeben durch
 t



e
0
0
et
0
0
et − e2t
e2t 0  y0 .
y(t) = T  0 e2t 0  T −1 (1 + tN )y0 = 
2t
t
2t
0 0 e
−2e + (2 − t)e
0 e2t
Kapitel 3
Theorie: Existenz und
Eindeutigkeit
Wir beschäftigen uns im Folgenden in möglichst allgemeiner Weise mit der
Frage, ob ein gegebenes Anfangswertproblem lösbar und ob diese Lösung
eindeutig bestimmt ist. Befindet man sich in einer Situtation, in der eine
Differentialgleichung versucht, Realität zu beschreiben, so vermitteln die
Antworten auf diese Fragen sehr wichtige Einsichten in die Qualität der
verwendeten mathematischen Modellbildung.
Häufig stellt sich heraus, dass die abstrakten Sätze gar keine Lösungen
für alle Zeiten vorhersagen können, was oft ein erster Hinweis auf ein explosives Lösungsverhalten ist.
Wir werden uns im letzten Teil dieses Kapitels um den maximalen Definitionsbereich von Lösungen kümmern und schließlich eine Idee stärker
formalisieren, die man bereits beim Betrachten der Bilder der ebenen Systeme haben konnte: Die Lösung einer Differentialgleichung ist wie ein Fluss,
der einen in ihn geworfenen Punkt mit der Zeit in eine Lösungskurve treibt.
3.1
Satz von Picard-Lindelöf
Satz 6 (Picard-Lindelöf ) Es sei F : [a, b] × Rn → Rn stetig, und es gelte
für alle x ∈ [a, b] sowie y1,2 ∈ Rn
kF (x, y1 ) − F (x, y2 )k ≤ Lky1 − y2 k
für eine feste Zahl L ≥ 0. Dann besitzt das Anfangswertproblem
y 0 (x) = F (x, y(x)), y(0) = y0
eine eindeutig bestimmte auf ganz [a, b] definierte Lösung.
Der Beweis ist kozeptionell gesehen nicht besonders schwierig. Die wesentlichen Schritte sind die folgenden. Man betrachtet den Raum der auf dem
35
Gewöhnliche Differentialgleichungen (Kurzskript)
36
Intervall [a, b] definierten stetigen, Rn -wertigen Funktionen C([a, b], Rn ), versehen mit der Norm k · kβ ,
kf kβ := sup e−βx kf (x)k,
x∈[a,b]
wo β ∈ R gleich noch passend bestimmt wird. Wichtig ist, dass dieser normierte Raum vollständig ist — die Norm k · kβ ist nämlich äquivalent zur
sup-Norm auf diesem Raum. Wir wollen den Banachschen Fixpunktsatz anwenden, und dazu bedarf es einer kontraktiven Abbildung. Diese ist
Z x
n
n
Φ : C([a, b], R ) → C([a, b], R ),
(Φf )(x) = y0 +
F (ξ, f (ξ)) dξ
a
Diese Abbildung hat eine besondere Bedeutung; denn der Hauptsatz der
Differential- und Integralrechnung zeigt (bei koordinatenweiser Anwendung)
dass die Fixpunkte von Φ genau die Lösungen der vorgelegten Anfangswertprobleme sind. Damit Φ Kontraktion wird, wählen wir β > L. Damit ergibt
sich
Z x
k[Φ(f1 ) − Φ(f2 )](x)k = F (ξ, f1 (ξ)) − F (ξ, f2 (ξ)) dξ ≤
a
Z x
Z x
≤
Lkf1 (ξ) − f2 (ξ)k dξ ≤ Lkf1 − f2 kβ
eβξ dξ =
a
a
1
L
= Lkf1 − f2 kβ (eβx − eβa ) ≤ eβx kf1 − f2 kβ ,
β
β
und wir erhalten
kΦ(f1 ) − Φ(f2 )kβ ≤
L
kf1 − f2 kβ
β
was aufgrund der Wahl von β bedeutet, dass Φ eine Kontraktion ist. Aus
dem Banachschen Fixpunktsatz folgt nun die Aussage des Satzes.
Varianten Interessant ist die Frage, ob man den Verlauf der Lösungen
eines Anfangswertproblems genauer vorhersagen kann, etwa dadurch, dass
man von Vornherein die Funktion f in y 0 = f (x, y) als auf einer echten
Teilmenge [a, b] × U , U ⊆ Rn gegeben betrachtet. Oft ist F dann auch
auf [a, b] × U Lipschitz-stetig bezüglich der zweiten Variablen, während dies
auf ganz [a, b] × Rn nicht der Fall ist. Man kann gewiss annehmen, dass U
zusammenhängend ist. Es gilt dann
Satz 7 (Picard-Lindelöf, lokale Version) Es sei U ⊆ Rn offen und zusammenhängend sowie
dU (η) := sup r > 0 B r (η) ⊆ U
37
Werner, Universität Münster, SS 10
Ferner sei F : [a, b] × U → Rn stetig, und für positive Konstanten L, M gelte
für alle x ∈ [a, b], y1,2 ∈ Rn .
kF (x, y1 ) − F (x, y2 )k ≤ Lky1 − y2 k
sowie
kf (x, y)k ≤ M
für alle (x, y) ∈ [a, b] × U .
Dann besitzt das Anfangswertproblem y 0 = F (x, y), y(ξ) = η für jedes ε <
M −1 dU (η) eine eindeutig bestimmte Lösung y, deren Graph in der Menge
{(x, y) ∈ [ξ − ε, ξ + ε] × U | ky − ηk ≤ M |x − ξ| }
enthalten ist.
Der Beweis dieses Satzes unterscheidet sich nicht übermäßig von dem voranstehenden. Im Prinzip zeigt man die Ungleichung
Z x
kΦ(y) − ηk ≤
kF (t, y(t))k dt ≤ M |x − ξ|,
ξ
die es bei passender Wahl der Parameter ε und r ermöglicht, die Rekursion
des Banachschen Fixpunktsatzes für Φ auf dem vollständigen metrischen
Raum der stetigen Funktionen [ξ − ε, ξ + ε] → B r (η) durchzuführen.
Eine Iteration Hier ist die Iteration des Beweises für das Anfangswertproblem y 0 = αy, y(0) = A. Wir wählen f0 (x) = A. Dann ist
Zx
F (x, f (x)) = αf (x),
Φf (x) = A + α f (ξ) dξ,
0
und
Zx
Φf0 (x) = A + α
A dξ = A + αAx
0
2
Zx
Φ f0 (x) = A + α
Zx
Φf0 (ξ) dξ = A + α
0
A + αAξ dξ = A + αAx +
α2 2
Ax
2
0
x
α2 2
α2 2 α3 3
A + αAξ +
Φ3 f0 (x) = A + α
Aξ dξ = A + αAx +
Ax +
Ax
2
2
6
0
Durch vollständige Induktion,
n
X
α 2 α3 3
αn n
αν
n
Φ f0 (x) = A + αAx + Ax +
Ax + . . . +
Ax = A
,
2
6
n!
ν!
Z
ν=0
was schließlich
lim Φn f0 (x) = lim A
n→∞
n→∞
n
X
(αx)ν
ν=0
ν!
= Aeαx
ergibt. Man beachte, dass ein anderer Startwert f0 auf eine komplett andere
Folge geführt hätte.
Gewöhnliche Differentialgleichungen (Kurzskript)
38
Funktionen mit und ohne Lipschitz-Eigenschaft Vom Anfangswertproblem
y 0 = −y 2 ,
y(0) = η
können wir direkt die Lösung
y(x) =
1
x + 1/η
ermitteln. Diese ‘explodiert’ jedoch in endlicher Zeit, ohne dass die Differentialgleichung dies zu erkennen gibt — das einzig auffällige Merkmal ist
die Tatsache, dass f (x, y) = −y 2 als Funktion R2 → R nicht Lipschitz-stetig
bezüglich ihres zweiten Arguments ist1 . Wir setzen an
U = (η − A, η + A),
A>0
Damit ist für alle x ∈ R, y ∈ U
|f (x, y)| ≤ (A + |η|)2 =: M
sowie
dU (η) = A,
und wir finden für jedes ε < A(A + |η|)−2 eine Lösung y auf dem Intervall
[−ε, ε] mit |y(x) − y| ≤ (A + |η|)2 |x|. Man kann versuchen, das Intervall, auf
welchem diese Lösung definiert ist, möglichst groß zu wählen. Eine Extremwertbetrachtung liefert für A = |η| die größtmöglichen Werte
ε<
1
,
4|η|
was einen erkennbaren Sicherheitsabstand zur Singularität am Punkt −1/η
einhält.
Die früher bereits betrachtete Gleichung
y 0 = sign(y)
p
|y|
besitzt eine rechte Seite, die Lipschitz-stetig in y nur dann ist, wenn der
Betrag von y nach unten durch eine positive Schranke beschränkt ist. Dies
ist in Übereinstimmung mit unserer Beobachtung, dass die Lösungen der
Anfangswertprobleme y(ξ) = 0 im höchsten Maße uneindeutig sind.
Lösungstheorie linearer Differentialgleichungssysteme Etwas allgemeiner als die im letzten Kapitel betrachtenten linearen Differentialgleichungssysteme mit konstanten Koeffizienten sind solche, bei denen die Koeffizienten von der freien Variablen (Zeit) abhängen dürfen, d.h. wir betrachten
Systeme linearer Differentialgleichung erster Ordnung der Form
y 0 = A(x)y,
1
A : [a, b] → Matn (K),
Die Lipschitz-Bedingung überprüft man am einfachsten mit Hilfe der Ableitung nach
der zweiten Variablen: Ist dieses beschränkt, so ist die Lipschitz-Bedingung erfüllt; ist
diese Ableitung stetig, so gilt hiervon auch die Umkehrung.
39
Werner, Universität Münster, SS 10
wobei wir annehmen, dass die Matrizen A(x) stetig von x abhängen. In der
allgemeinen Form y 0 (x) = F (x, y(x)) ist dann F (x, y(x)) = A(x)y(x), und
die Funktion [a, b] × Rn 3 (x, y) 7→ F (x, y) = A(x)y ist stetig. Damit gibt
es für die auf einem kompakten Intervall definierten Funktion x 7→ kA(x)}
eine obere Schranke L, die wegen
kF (x, y1 ) − F (x, y2 )k ≤ kA(x)k ky1 − y2 k ≤ Lky1 − y2 k
Die Lipschitzkonstante ist, die wir für die Anwendung des Satzes von PicardLindelöf benötigen. Damit ergibt sich sofort der erste Teil von
Satz 8 Vorgelegt sei ein System
y 0 (x) = A(x)y(x),
A(·) stetig.
(a) Das Anfangswertproblem y(0) = η, η ∈ Rn besitzt eine eindeutig bestimmte Lösung.
(a) Die Lösungsmenge von y 0 = Ay ist ein Vektorraum von Funktionen
[a, b] → Rn der Dimension n. Eine Basis ist gegeben durch die n
Lösungen des AWP y 0 = Ay, y(0) = y0 = ej .
Für den zweiten Teil betrachtet man die Abbildung
Ψ : L → Rn ,
Ψ(y) = y(0).
Diese ist natürlich linear, die Existenzaussage des Picard-Lindelöf zeigt die
Surjektivitiät von Ψ, die Eindeutigkeit der Lösungen die Injektivität. Ψ ist
also ein Vektorraumisomorphismus, woraus sich die weiteren Aussagen ergeben. Ψ(ej ), j = 1, . . . , n Basis von L
3.2
Der Satz von Peano
Schwächt man die Bedingung der Lipschitz-Stetigkeit im Satz von PicardLindelöf zur einfachen Stetigkeit ab, so erhält man immer noch die Existenz
von Lösungen, verliert jedoch die Eindeutigkeit. Dieser sogenannte Peanosche Existenzsatz benötigt in seinen Beweisen stets eine genauere Kenntnis
der Struktur kompakter Mengen von stetigen Funktionen.
3.2.1
Kompaktheit
Sei (X, d) metrischer Raum. Dann heißt K ⊆ X kompakt, genau dann wenn
jede Folge in K eine in K konvergente Teilfolge besitzt.
Äquivalent hierzu ist, dass K abgeschlossen und überdeckungskompakt
ist, dass also für jede offenen Überdeckung (Uα )α∈A offener Mengen mit
eine endliche Teilüberdeckung α1 , . . . , αn ∈ A existiert. Wir werden gleich
Gewöhnliche Differentialgleichungen (Kurzskript)
40
benötigen, dass es für jedes ε > 0 ein endliches, sogenanntes ε-Netz für die
kompakte Menge K gibt, also eine endliche Menge {x1 , . . . , xn } ⊆ K, so dass
jeder Punkt in K in seiner ε-Umgebung einen Punkt dieses Netzes vorfindet.
Diese Tatsache folgt leicht aus der Überdeckungskompaktheit.
Jede kompakte Menge in einem normierten Raum (V, k · k) ist beschränkt2
und abgeschlossen3 .
In einem endlichdimensionalen Vektorraum ist umgekehrt auch jede beschränkte und abgeschlossene Menge kompakt. Wir beschäftigen uns mit der
Bedingung, die im Raum C([a, b], Rn ) (versehen mit der Supremums-Norm)
hinzuzunehmen ist, um dort Kompaktheit zu charakterisieren.
Definition 4 Eine Teilmenge M ⊆ C(D, Rn ), D ⊆ R heißt gleichgradig
stetig bei d0 ∈ D genau dann wenn für alle > 0 ein δ > 0 exisitiert, so
dass für alle f ∈ M und d ∈ D aus kd − d0 k < δ folgt kf (d) − f (d0 )k < ε.
M heißt gleichgradig stetig, wenn M an jedem Punkt von D gleichgradig
stetig ist.
Fast genau so, wie für eine einzelne Funktion beweist man: Jede gleichgradig stetige Teilmenge M ⊆ C(D, Rn ) mit D kompakt ist gleichgradig
gleichmäßig stetig, was bedeutet, dass für jedes ε > 0 ein δ > 0 exisitiert,
so dass aus |x1 − x2 | < δ stets kf (x1 ) − f (x2 )k < ε für alle f ∈ M folgt.
Eine Teilmenge X0 ⊆ X, (X, d) metrischer Raum heißt dicht falls X 0 = X,
oder, gleichbedeutend, falls es für alle x ∈ X eine Folge (xn ) in X0 mit
x = limn→∞ xn gibt. Bekanntermaßen ist Q dicht in R, und Q ∩ [a, b] ist
dicht in [a, b] für jedes Intervall [a, b] mit nichtleerem Innern.
Lemma 8.1 Es sei A ⊆ [a, b] dicht. Konvergiert eine Folge (fn ) gleichgradig
stetiger Funktionen fn : [a, b] → Rn punktweise auf A, so konvergiert (fn )
gleichmäßig auf ganz [a, b].
Wir zeigen, dass (fn ) eine Cauchy-Folge ist, was ausreicht, da ja der hier
betrachtete Raum vollständig ist.
Es sei ε > 0. Da die Folge (fn ) aus gleichmäßig gleichgradig stetigen
Funktionen besteht, finden wir δ > 0 mit
|x1 − x2 | < δ
impliziert kfn (x1 ) − fn (x2 )k <
ε
3
für alle n ∈ N.
Da A dicht in [a, b] ist, gibt es a1 , . . . , ak so, dass für jedes x ∈ [a, b] ein aκ
mit |x − aκ | < δ existiert. Da die Folgen (fn (rκ ))n für jedes κ konvergieren,
2
Falls nicht, so existiert eine Folge (kn )n∈N in K mit kkn k ≥ n ∀n ∈ N, die jedoch
bestimmt keine konvergente Teilfolge besitzen kann.
3
Für eine in X konvergente Folge (xn ) muss der in K vorhandende Teilfolgenlimes der
Limes der ganzen Folge sein und folglich in K liegen.
41
Werner, Universität Münster, SS 10
gibt es natürliche Zahlen Nκ (ε/3), κ = 1, . . . , k mit |fn (rκ ) − fm (rκ )| < ε/3,
falls m, n ≥ Nκ . Für
m, n ≥ N (ε) := max Nκ
1≤κ≤k
gelten diese Abschätzungen an allen Punkte rκ gleichzeitig, und es folgt für
alle m, n ≥ N (ε) und alle x ∈ [a, b]
kfm (x) − fn (x)k ≤
ε
≤ kfm (x) − fm (rκ )k + kfm (rκ ) − fn (rκ )k + kfn (rκ ) − fn (x)k < 3 = ε,
3
wobei rκ in Abhänigkeit von x gewählt werden muss, die Abschätzungen
dann aber letztlich unbhängig von dieser Wahl erfolgen können.
Dieses Lemma verschafft einem rasch Beispiele für nicht gleichgradig stetige
Mengen. Ist etwa fn : [0, 1] → R, fn (x) = xn , so konvergiert die Folge (fn )
bekanntlich punktweise gegen eine unstetige Funktion. Damit kann diese
Folge nicht gleichmäßig konvergieren und aufgrund des soeben bewiesenen
Lemmas auch nicht gleichgradig stetig sein.
Satz 9 (Arzela-Ascolı́) Eine Teilmenge K ⊆ C([a, b], Rn ) ist kompakt genau dann, wenn K abgeschlossen, beschränkt und gleichgradig stetig ist.
Ist K kompakt, so wählt man zu vorgegebenem ε > 0 ein ε/3-Netz Z in
K und wählt δ(ε) jeweils als das Minimum der zu den Elementen von Z
gehörigen δ’s zum Wert ε/3.
Die andere Richtung benutzt Lemma 8.1 sowie den berühmten ‘Diagonalfolgentrick’: Es sei K beschränkt, abgeschlossen und gleichmäßig gleichgradig stetig sowie (fn )n∈N eine Folge in K. Es bezeichne A die dichte und
abzählbaren Menge Q ∩ [a, b] = {rn | n ∈ N }. Da K beschränkt ist, finden
wir induktiv Folgen (fni1 ,i2 ,...,ik ) mit
fni1 ,i2 ,...,ik ,ik+1
ik+1 ∈N
ist Teilfolge von
fni1 ,i2 ,...,ik
ik ∈N
sowie
fni1 ,i2 ,...,ik (rκ )
ik ∈N
konvergiert für 1 ≤ κ ≤ k.
Die Diagonalfolge
fn1 ,
fni1 ,2 ,
fni1 ,i2 ,3 ,
...,
fni1 ,i2 ,...,ik−1 ,k ,
...
konvergiert dann an allen Punkten rn ∈ A. Nach dem Lemma konvergiert
diese Teilfolge von (fn ) gleichmäßig gegen eine stetige Funktion f , die in K
liegen muss, da K ja abgeschlossen ist.
Gewöhnliche Differentialgleichungen (Kurzskript)
3.2.2
42
Der Schaudersche Fixpunktsatz
Satz 10 (Schauderscher Fixpunktsatz) Es sei (X, k k) ein normierter
Raum, D ⊆ X abgeschlossen und konvex. Ist das Bild der Abbildung Φ :
D → D in einer kompakten Menge enthalten, so beitzt Φ einen Fixpunkt
ξ ∈ D.
Dieser Satz ist wesentlich schwieriger zu beweisen als der Banachsche
Fixpunktsatz. Im eindimensionalen Fall ergibt er sich aus dem Zwischenwertsatz. Der Fall beliebiger endlicher Dimension stammt im Prinzip von
Brouwer. Diesen Spezialfall nutzt auch die Verallgemeinerung für unendliche Dimensionen. Wir wenden diesen Satz hier an im Beweis von
Satz 11 (Existenzsatz von Peano) Es sei U ⊆ Rn offen und zusammenhängend sowie
d := sup r > 0 B r (η) ⊆ U
Ferner sei F : [a, b] × U → Rn stetig mit
kf (x, y)k ≤ M
für alle (x, y) ∈ [a, b] × U .
Dann besitzt das Anfangswertproblem y 0 = F (x, y), y(ξ) = η für jedes ε <
M −1 d/2 eine Lösung y, deren Graph in der Menge
{(x, y) ∈ [ξ − ε, ξ + ε] × U | ky − ηk ≤ M |x − ξ| }
enthalten ist.
Beim Beweis beginnt man wiederum mit der Abbildung
Z x
Φ(f )(x) = η +
F (t, y(t)) dt,
ξ
die wir uns als Abbildung der konvexen Menge C([ξ − ε, ξ + ε], Bd (η)), vorstellen — dass Φ ein Element dieser Menge in diese abbildet, folgt aus der
für f ∈ C([ξ − ε, ξ + ε], Bd (η)) gültigen Abschätzung
Z x
kΦ(f )(x) − ηk ≤
kF (t, y(t))k dt ≤ 2εM < d.
ξ
Wir haben dann noch zu zeigen, dass das Bild von Φ in einer kompakten
Menge enthalten ist. Wegen Im Φ ⊆ C([ξ − ε, ξ + ε], Bε (η)) ist das Bild beschränkt. Zeigen wir, dass die Elemente in Im Φ gleichgradig stetig sind,
dann ist der Abschluss der Menge Im Φ die gesuchte kompakte Menge; denn
gleichgradige Stetigkeit vererbt sich auf den Grenzwert gleichmäßig konvergenter Folgen. Für eine Funktion der Form Φ(f ) gilt jedoch für x1 ≤ x2
Z x2
kΦ(f )(x1 ) − Φ(f )(x2 )k ≤
kF (t, y(t))k dt ≤ M |x1 − x2 |,
x1
43
Werner, Universität Münster, SS 10
woraus die gleichmäßige Stetigkeit dieser Funktionenmenge folgt4
3.3
Verfeinerungen
Wir werden im Folgenden stets von sogenannten autonomen Differentialgleichungen ausgehen, Gleichungen der Form y 0 = F (y), deren rechte Seite
nicht explizit von der Zeit abhängt. Im nächsten Abschnitt ist dies reduziert
das nur den Aufwand; im übernächsten gehen wir auf diese Weise größeren
Schwierigkeiten aus dem Weg.
3.3.1
Maximale Definitionsbereiche
Es sei U ⊆ Rn offen. Eine Funktion F : U → Rn heißt lokal Lipschitz,
wenn für alle u ∈ U eine Umgebung V in U existiert, so dass F |U einer
Lipschitzbedingung genügt. Der Unterschied zur einer auf ganz U bestehenden Lipschitz-Bedingung besteht darin, dass im lokalen Fall die LipschitzKonstanten variieren und somit auch beliebig groß werden dürfen. Der Mittelwertsatz der Differentialrechnung (sowie die Tatsache, dass stetige Funktionen auf kompakten Mengen beschränkt sind) zeigt, dass Funktionen mit
stetiger Ableitung lokal Lipschitz sind.
Satz 12 Es sei U ⊆ Rn offen und F : U → Rn lokal Lipschitz. Dann
existiert ein offenes Intervall Imax sowie eine Lösung
ymax : Imax → Rn
des Anfangswertproblems y 0 = F (y), y(0) = η mit der Eigenschaft, dass für
jede weitere Lösung y : I → Rn , I offen, gilt I ⊆ Imax und ymax |I = y.
Beim Beweis dieser Aussage macht man sich zunächst klar, dass Lösungen y1,2 des Anfangswertproblems y 0 = F (y), y(t0 ) = y0 , die auf einem
gemeinsamen offenen Intervall I definiert sind, dort übereinstimmen: Der
Satz von Picard-Lindelöff und die lokale Lipschitz-Eigenschaft von F garantieren, dass dies für ein erst einmal kleineres Intervall I0 ⊆ I der Fall ist.
Bezeichnet I ∗ jedoch das maximale Intervall mit y1 |I ∗ = y2 |I ∗ und wäre I ∗
echt in I enthalten, so besäßen aufgrund ihrer Stetigkeit beide Funktionen
(etwa) auf dem rechten Randpunkt b von I ∗ immer noch denselben Wert.
4
Es gibt einen etwas direkteren Beweis dieses Satzes, der zugleich — mit etwas mehr
Aufwand — zu einem numerischen Verfahren führt. Dazu konstruiert man für jedes η > 0
einen Polygonzug Πη über dem Intervall [ξ − ε, ξ + ε] mit Πη (ξ) = η, der an seinen
differenzierbaren Stellen x der Beziehung
kΠ0η (x) − F (x, Πη (x))k < η
genügt. Die Funktionen Πη , η > 0 sind dann gleichgradig stetig, so dass eine gleichmäßig
konvergente Folge Πηn , ηn → 0 existiert, von der man zeigen kann, dass sie gegen eine
Lösung konvergiert.
Gewöhnliche Differentialgleichungen (Kurzskript)
44
Das Anfangswertproblem y 0 = F (y), y(b) = y1,2 (b) besäße dann aber eine
eindeutige Lösung, die beide Funktionen in eindeutiger Weise ein Stück weit
fortsetzt, was ein Widerspruch zu Maximalität von I ∗ darstellt.
Wir setzen nun
m = inf {t ∈ R | Es gibt eine Lösung auf [m, 0] } ,
M = sup {t ∈ R | Es gibt eine Lösung auf [0, M ] } ,
Imax = (m, M ),
wählen für t ∈ Imax eine Lösung y auf [0, t] und definieren ymax (t) = y(t).
Dies ergibt aufgrund des oben gesagten eine auf ganz Imax wohldefinierte,
eindeutig bestimmte Lösung des Anfanswertproblems.
Was ist im Allgemeinen der Grund dafür, dass man eine Lösung nicht über
Imax hinaus fortsetzen kann? Die etwas verwickelte Antwort enthält der folgende
Satz 13 Gilt für Imax = (m, M ) dass M < ∞, so existiert für jede kompakte
Teilmenge K ⊆ U gibt es einen Punkt t ≥ M mit ymax (t) 6∈ K. Eine ähnliche
Aussage gilt im Fall m > −∞.
Beim Beweis nimmt man an, dass für alle t ∈ Imax die Funktionswerte
ymax (t) in einer kompakten Menge K ⊆ U enthalten sind. Es sei S ≥ 0
mit kF (x)k ≤ S für alle x ∈ K. Unter diesen Umständen wäre dann ymax
in den Randpunkte M von Imax fortsetzbar. Hierzu zeigt man, dass ymax
gleichmäßig (sogar Lipschitz-) stetig ist:
Z t2
Z t2
0
kymax (t1 ) − ymax (t2 )k = y (t) dt
kF (y(t))k dt ≤ S(t2 − t1 )
≤
t1
t1
Eine gleichmäßig stetige Funktion ϕ : (a, b) → R lässt sich jedoch immer in
die Randpunkte ihres Definitionsbereichs hinein fortsetzen5
Die auf (m, M ] fortgesetzte stetige Funktion ymax ist in M differenzierbar
und genügt der Differentialgleichung. Dies gilt wegen
Z
ymax(b) = η + lim
β→b 0
β
Z
F (ymax (t)) dt = η +
b
F (ymax (t)) dt,
0
was sich wiederum aus der Stetigkeit der Integralfunktion ergibt. Jetzt gäbe
es aber eine Lösung auf einem Intervall (M −ε, M +ε), ε > 0, die die Lösung
5
Ist (bn ) eine gegen b konvergierende Folge in (a, b), so zeigt die gleichmäßige Stetigkeit,
dass ϕ(bn ) eine Cauchy-Folge ist. Deren Grenzwert definiert ϕ(b). Dies ist wohldefiniert.
Ist nämlich βn eine weiter Folge aus (a, b) mit Grenzwert b, so besitzt diesen Grenzwert auch die Mischfolge b1 , β1 , b2 , β2 , . . .. Da wie zuvor die Folgen (f (bn )), (f (βn )) sowie
f (b1 ), f (β1 ), f (b2 ), . . . allesamt konvergent sind, folgt limn→∞ f (bn ) = limn→∞ f (βn ), und
ϕ ist in den Punkt b hinein stetig fortgesetzt.
45
Werner, Universität Münster, SS 10
(eindeutig bestimmte) Lösung ymax auf das Intervall (m, M + ε) fortsetzt,
was ein Widerspruch ist.
Anders ausgedrückt existiert eine Folge (tn ) in Imax mit (tn ) → M und
ymax (tn ) kommt dem Rand von U beliebig nah, wobei man hier in den ‘Rand’
von U auch den ‘Punkt’ ∞ einfügen muss6
Eine Folgerung des Beweises des letzten Satzes ist
Korollar 13.1 Ist F : U → Rn lokal Lipschitz, und gibt es eine kompakte
Menge K ⊆ U mit der Eigenschaft, dass das Bild jeder Lösung des Anfangswertproblems y(0) = η der Form y : [0, β) in K enthalten ist, dann existiert
eine Lösung des Anfangswertproblems, welche auf ganz R+
0 definiert ist.
Weitere Beispiele Die Differentialgleichung
y 0 = 1 + x2
besitzt eine stetig differenzierbare, auf ganz R definierte rechte Seite. Die
Lösungen errechnet man zu
y = tan(x + C),
C ∈ R.
Der maximale Definitionsbereich dieser Lösungen ist das offene Intervall mit
den Ranpunkten ±π/2 − C. An diesen Punkten erreichen die Lösungen die
‘Randpunkte’ ±∞.
Die rechte Seite der Gleichung
y0 =
1
y2 − 1
ist auf dem offenen Intervall (−1, 1) definiert und dort differenzierbar mit
stetiger Ableitung, folglich lokal Lipschitz. Die allgemeine Lösung lautet
y3
−y+C =x
3
diese Kurve besitzt als Funktion des Typs y 7→ x = g(y) ein lokales Minimum bei 1 sowie ein lokales Maximum bei −1. Zwischen diesen Punkt fällt
sie streng monoton und kann daher nach y aufgelöst werden. Dies ergibt
die Lösungen der Anfangswertprobleme auf ihrem maximalen Definitionsbereich (−1, 1). Alle diese Funktionen erreichen auf dem Rand des maximalen
6
Man sieht dies, wenn man aus der Folge (tn ) mit
f (tn ) 6∈ {x ∈ U | kxk ≤ n und dist(x, ∂K) ≥ 1/n }
eine konvergente Teilfolge auswählt.
Gewöhnliche Differentialgleichungen (Kurzskript)
46
Definitionsbereichs den Rand des Definitionsbereichs der rechten Seite der
Differentialgleichung.
Bei der Gleichung
y0 =
lässt sich F (x, y) =
zes zeigt man
1
1+y 2
1
1 + y2
auf ganz R definieren. Mit Hilfe des Mittelwertsat-
2η
|y2 − y1 |
|F (x, y1 ) − F (x, y2 )| ≤ sup 2
2
(1 + η ) η∈R
Wegen limη→±∞ 2η(1+η 2 )−2 = 0 erfüllt F überall eine Lipschitz-Bedingung
mit derselben Konstanten. Mit Hilfe des Satzes von Picard-Lindelöf kann
man zeigen, dass auch in einer solchen Situation aufs ganz R definierte
Lösungen existieren (Übung). In der Tat ist die Lösung des Anfangswertproblems y(0) = y0 durch
y+
y3
y3
− y0 − 0 = x
3
3
gegeben. Da y 7→ y + (1/3)y 3 streng monoton wächst, lässt sich diese Gleichung für alle x ∈ R nach y auflösen, was die vorhergesagte, überall definierte
Lösung ergibt.
3.3.2
Der Fluss
Wir werden in diesem Absatz die anschauliche Vorstellung prßisieren, die
allgemeine Lösung einer Differentialgleichung für etwas hält, das einen gegebenen Punkt im Laufe der Zeit entlang eines Flusses in ein Lösung des
entsprechenden Anfangswertproblems verwandelt. Wir werden meist davon
ausgehen, dass wir es mit einer autonomen Gleichung zu tun haben, deren
rechte Seite C 1 , also auch lokal Lipschitz ist.
Es sei also U offen und F : U → Rn stetig differenzierbar. Damit besitzt
das Anfangswertproblem y 0 = F (y), y(0) = η eine eindeutig bestimmte
Lösung auf einem maximalen offenen Intervall mit den Randpunkten ±a =
±a(η). Wir schreiben für t ∈ (−a, a) und y0 ∈ U
Φt (η) = y
falls
y 0 = F (y(t))
und
y(0) = η
Die für η ∈ U und t ∈ (−a(η), a(η)) definierte Abbildung Φt (η) nennt man
den Fluss der Gleichung y 0 = F (x, y). Die elementaren Eigenschaften des
Flusse sind:
Φ0 = Id
Φs+t = Φs Φt
sowie
Φ−t = Φ−1
t
47
Werner, Universität Münster, SS 10
Da die Funktion (t, η) 7→ Φt (η) im Allgemeinen einen etwas komplizierten Definitionsbereich besitzt, können diese Eigenschaften (die ansonsten
leicht aus der Definition und der Eindeutigkeit der Lösung des Anfangswertproblems folgen) nur für solche s, t hingeschrieben werden, für die diese
Gleichungen Sinn machen.
Beispiele
Für die weiter oben behandelte Gleichung y 0 = 1 + y 2 ist
y(t) = tan(t + arctan η)
die Lösung des Anfangswertproblems y(0) = η mit maximalem Definitionsbereich (−π/2 − arctan η, π/2 − arctan η). Dann ist der Fluss für diese
Gleichung durch
Φt (η) = tan(t + arctan η),
(t, η) ∈ (−π/2 − arctan η, π/2 − arctan η) × R
gegeben.
Ein besonders prägnantes Beispiel ist ein lineares System mit konstanten Koeffizienten y 0 = Ay. Die allgemeine Lösung des Anfangswerproblems
y(0) = η war ja exp(tA)η, und so ergibt sich hier
Φt = exp(tA),
t∈R
Man kann zeigen, dass für die Gleichung y 0 = F (y) der Fluss stets differenzierbar von beiden Veränderlichen abhängt. Wir beschränken uns hier
darauf nachzuweisen, dass diese Abhängigkeit stetig ist. Interessanterweise
kann man etwas mehr zeigen:
Satz 14 Es seien U ⊆ Rn offen, und F : U → Rn sei Liptschitz-stetig
mit Konstante L ≥ 0. Es seien y1,2 zwei Lösungen der Differentialgleichung
y 0 = F (y), die auf (a, b) definiert sind und in U verbleiben. Dann gilt für
t0 , t ∈ (a, b)
ky1 (t) − y2 (t)k ≤ eL|t−t0 | ky1 (t0 ) − y2 (t0 )k
Korollar 14.1 Es sei F : U → Rn lokal Lipschitz sowie (t, x) → Φt (x) der
auf {(t, x) | t ∈ (−a(x), a(x)), x ∈ Rn } definierte Fluss der Differentialgleichung y 0 = F (y). Dann ist Φ in t und x stetig.
Die Stetigkeit (Differenzierbarkeit) in der Variablen t folgt unmittelbar aus
der Definition des Flusses. Die Stetigkeit in der Ortsvariablen ergibt sich
aus dem Satz, der die Differenz zweier Lösungen in einer Nachbarschaft des
Punktes t0 zum gleichen Zeitpunkt t durch eine stetige, bei t0 verschwindende Funktion abschätzt.
Wir beginnen den Beweis mit dem Lemma von Gronwall. Die hier bewiesene
Variante ist wahrscheinlich die einfachste, die es gibt; bis auf Weiteres ist
sie für unsere Zwecke ausreichend.
Gewöhnliche Differentialgleichungen (Kurzskript)
48
Lemma 14.1 (Gronwall) Es seien C, K ≥ 0. Falls für die nichtnegative
Funktion u : [0, a] → R gilt
Z
u(t) ≤ C +
t
Ku(τ ) dτ,
t ∈ [0, a]
0
so folgt
u(t) ≤ C exp (Ku(t))
für alle t ∈ [0, a].
Für den Beweis sei die rechte Seite der gegebenen Ungleichung durch U (t)
abgekürzt. Wegen K > 0 folgt dann aus dieser
(ln U )0 =
U0
≤ K.
U
Berücksichtigt man, dass Integration positiv ist, und setzt man vorläufig
voraus, dass C > 0, so liefert Integration von 0 bis t
ln U (t) ≤ ln U (0) + Kt = ln C + Kt.
Damit aber folgt bereits
u(t) ≤ U (t) ≤ CeKt .
Ist schließlich C = 0, so folgt die Aussage aus einer Approximation von C
durch eine Folge (Cn ) mit Cn > 0 und lim Cn = 0.
Der Beweis des Satzes ergibt sich im Wesentlichen aus diesem Lemma: Man
setzt
u(t) = ky1 (t) − y2 (t)k,
und folgert aus der Tatsache, dass beide Funktionen Lösungen sind
Z t
u(t) ≤ u(t0 ) +
Lu(τ ) dτ.
t0
Jetzt stimmt noch etwas mit den Zeiten nicht, was behoben ist, sobald wir zu
v(t) = u(t + t0 ) übergehen. Nun gilt die Eingangsungleichung des GronwallLemmas in der Form
Z t
v(t) ≤ v(0) +
Lv(τ ) dτ,
0
und es folgt
v(t) ≤ v(0) exp Lv(t).
Dies ist unschwer als die Aussage des Satzes zu erkennen.
Kapitel 4
Stabilität
Eine sehr allgemeine Idee bei der Untersuchung von Differentialgleichungen ist der Versuch, den Fluss in niedrigdimensionale Komponenten zu zerlegen, die dann vielleicht besser einer genaueren Analyse zugänglich sind.
Diese Komponeten hätten invariant zu sein: Eine Lösungskurve verlässt sie
nicht mehr, wenn einer ihrer Punkte zu irgendeinem Zeitpunkt in dieser
Menge gelegen hat. Erfolgreich wäre eine solche Strategie, wenn es gelänge,
jeden Fluss auf diese Weise in ‘Primfaktoren’ zu zerlegen. Leider ist das alles ein wenig komplizierter, und so muss z.B. auch untersucht werden, wie
sich die Lösungskurven in der Nachbarschaft einer invarianten Teilmenge
verhalten.—
Wir befassen uns im Folgenden mit einer allerersten Stufe dieses Programms:
Die invarianten Teilmengen sind hier Punkte (sogenannte Gleichgewichtslagen), und das Verhalten der Lösungen um diese Punkte herum beschreiben
wir durch verschiedene Formen von ‘Stabilität’.
4.1
Definitionen und Beispiele
Definition 5 Es sei F : U → Rn ein auf der offenen Menge U ⊆ Rn
definiertes Vektorfeld. Eine Gleichgewichtslage für die autonome Gleichung
y 0 = F (y) ist jeder Punkt y0 , für den die konstante Funktion y(t) = y0 eine
Lösung ist.
Ganz offensichtlich ist y0 genau dann ein solcher Punkt, wenn F (y0 ) = 0 ist.
Definition 6 Es sei y0 eine Gleichgewichtslage des Systems y 0 = F (y).
Dann heißt y0
(i) stabil, falls für alle ε > 0 ein δ > 0 existiert, so dass für alle y ∈ U mit
ky − y0 k < δ und alle t ≥ 0 gilt
kΦt (y) − y0 k < ε.
49
Gewöhnliche Differentialgleichungen (Kurzskript)
50
(ii) attraktiv, falls es ein δ > 0 gibt mit
lim kΦt (y) − y0 k = 0,
t→∞
für ky − y0 k < δ,
(iii) asymptotisch stabil, falls dieser Punkt stabil und attraktiv ist, sowie
(iv) instabil, falls y0 nicht stabil ist.
Beispiele
Die rechte Seite der Gleichung
p
y0 = 1 − y2
verschwindet an den Punkten y = ±1, wesegen diese beiden Punkte die
Gleichgewichtslagen sind. Die Lösungen der Gleichung sind
y(t) = sin(t + C),
C ∈ R,
sowie
y = ±1,
Unabhängig davon, wie dicht eine Lösung einem der Punkte ±1 kommt: Sie
wird stets nach einiger Zeit zu diesem den Abstand 2 erreichen, und daher
sind die Punkte ±1 instabile Gleichgewichtslagen.
Lässt man die Wurzel weg und betrachtet y 0 = 1 − y 2 , so liegen unverändert
Gleichgewichtslagen bei ±1 vor. Da die Lösungen dieser Gleichung,
y(t) = tanh(t + C),
C ∈ R,
und
y = ±1,
für t → ±∞ gegen ±1 konvergieren, sind diese Punkte attraktiv und aufgrund der Monotonie des Tangenshyperbolicus asymptotisch stabil.
Die Systeme linearer Gleichungen mit konstanten Koeffizienten der Dimension 2, die über ein Paar rein imaginärer Eigenwerte verfügen, besitzen den
Ursprung als einzige Gleichgewichtslage (zumindest, wenn der Begriff ‘rein
imaginär’ die Null ausschließt). Die Lösungskurven sind dann in der Ebene
um den Ursprung gedrehte Ellipsen mit einem festen Verhältnis der Hauptachsen. Wählt man für ε > 0 die Zahl δ > 0 so, dass sich ε zu δ wie die
kleinen zu den großen Hauptachsen verhalten, dann verläuft eine Lösung,
die in einer δ-Umgebung des Ursprungs startet, stets in einer ε-Umgebung.
Der Ursprung ist also eine stabile Gleichgewichtslage, die nicht attraktiv ist.
4.1.1
Der Fall linearer Gleichungen mit konstanten Koeffizienten
Wir betrachten lineare Gleichungen y 0 = Ay, A eine n × n-Matrix. Der Ursprung ist in jedem Fall eine Gleichgewichtslage. Deren Stabilitätsverhalten
beschreibt
51
Werner, Universität Münster, SS 10
Satz 15 Es sei A = ∆ + N die Jordan-Zerlegung der Matrix A sowie
λ1 , . . . , λn deren mit ihren Vielfachheiten gezählten Eigenwerte. Für die
Gleichung y 0 = Ay ist der Nullpunkt
(i) asymptotisch stabil, falls
max Re λi < 0,
i=1,...,n
(ii) sowie instabil, falls
max Re λi > 0.
i=1,...,n
(iii) Ist maxi=1,...,n Re λi = 0, so gilt
(a) der Ursprung ist stabil und nicht attraktiv, wenn die Einschränkung
A|Eλ auf den Eigenraum Eλ von ∆ für jeden Eigenwert λ mit
Re λ = 0 (über C) diagonalisierbar ist,
(b) während er instabil ist, wenn
N |Eλ 6= 0
für wenigstens ein Eigenwert λ mit Re λ = 0.
Der Teil (i) dieser Aussage folgt aus der Abschätzung
k
κN κ
X
t
k exp(tA)x0 k = T diag(eλ1 t , . . . , eλn t )T −1
x0 ≤
κ!
κ=1
X
k
tκ kN kκ
kx0 k;
≤ kT kkT −1 k exp max Re λi t
i=1,...,n
κ!
κ=1
denn wegen max Re λi < 0 verschwindet die rechte Seite, falls t → ∞ (Regel von l’Hospital), und der Nullpunkt ist attraktiv. Dieselbe Abschätzung
verwendet man, um die Stabilität nachzuweisen. Ist für (ii) Re λ > 0 und v
eine Eigenvektor zum Eigenwert λ, so ist der Ursprung wegen
k exp(tA)vk = eRe λt kvk → ∞
für t → ∞
instabil. Ist λ ein Eigenwert mit Re λ = 0, so können wir für den Fall, dass
A − λId|Eλ = N |Eλ 6= 0
einen Vektor v mit N (v) 6= 0 und N k = 0 für k ≥ 2 wählen. Für einen
solchen Vektor gilt dann
k exp(tA)vk = eλt (v + tN (v)) ≥ |t|kN (v)k − kvk,
Gewöhnliche Differentialgleichungen (Kurzskript)
52
was zeigt, dass in einem solchen Fall der Ursprung nicht stabil sein kann.
Für den Teil (b) schreiben wir
M
M
Eλ ,
Eλ
sowie
Ec =
Es =
Re λ=0
Re λ<0
so dass also E = Es ⊕ Ec . Mann nennt Es die stabile Mannigfaltigkeit und
Ec die Zentrumsmanigfaltigkeit von A. Ist nun Ac := A|Ec diagonalisierbar,
so gilt wie im Beweis von (i)
k exp(tAc )x0 k ≤ kT kkT −1 kkx0 k.
Ist ε > 0, so gilt für
kx0 k < δ :=
ε
kT kkT −1 k
k exp(tAc )x0 k < ε, und der Ursprung ist stabil für Ac . Da A = As ⊕ Ac
und weil der Ursprung asymptotisch für As ist, ergibt sich auch hier die
Behauptung.
4.2
Hyperbolische Gleichgewichstlagen nichtlinearer Systeme
Die Idee für die folgenden Abschnitte besteht darin, ein nichtlineares System
y 0 = F (y) an einer Gleichgewichtslage y0 durch das linearisierte System
y 0 = F 0 (y0 )y zu ‘approximieren’ und zu hoffen, dass man auf diese Weise
zumindest etwas über den Stabilitätstyp von y0 für das nichtlineare System
aussagen kann.
Geht man über zu y = y − y0 , ändert sich die Form der Gleichung nicht.
Auch die Linearisierte Gleichung sieht aus wie zuvor. Der einzige Unterschied
besteht darin, dass nun der Ursprung ein Gleichgewicht ist. Wir werden
häufig von dieser Möglichkeit Gebrauch machen.
4.2.1
Drei nicht lineare Systeme
Wir beginnen damit, ein paar Beispiele genauer anzusehen.
Der angenehme Fall Vorgelegt sei
x0 = x + y 2
0
y = −y.
(4.1)
(4.2)
Dieses System kann man explizit lösen. Der zweiten Gleichung entnimmt
man y(t) = C1 e−t . Setzt man dies in die erste Gleichung ein, so ergibt sich
x0 = x + C12 e−2t ,
53
Werner, Universität Münster, SS 10
was eine inhomogene lineare Differentialgleichung 1.Ordnung ist. Deren Lösung
können wir berechnen,
x(t) = C2 et −
C12 −2t
e
3
Das Anfangswertproblem y(0, 0) = (x0 , y0 ) wird so durch
x(t) =
y2
y2
x0 + 0 − 0 e−2t
3
3
y(t) = y0 e−t
gelöst. Es gibt hier zwei interessante Kurven, die x-Achse und die durch die
Gleichung
x+
y2
=0
3
bestimmte Kurve. Beide sind Lösungskurven, eine Lösung, die auf ihnen
startet, verlässt diese nicht mehr. Unterscheiden von anderen solchen Kurven
tun sie sich auf Grund der Tatsache, dass sie den Ursprung enthalten.
Der Ursprung ist die einzige Gleichgewichtslage. Die Ableitung der Funktion F ist durch die Jacobi-Matrix
1 2y
F (x, y) =
0 −1
0
gegeben. Das am Ursprung linearisierte System besitzt daher die Form
x0 = x
y 0 = −y.
Ursprungsgleichung und deren Linearisierung am Nullpunkt sind hier ganz
besonders eng miteinander verknüpft. Die Transfmoration (u, v) = T (x, y)
mit
y2
u=x+
v=y
3
bildet besitzt als ‘Koordinatenlinien’ die zuvor erwähnten Kurven. Schreibt
man das gegeben System in diesen neuen Koordinaten, so erhält man
2
u0 = x0 + yy 0 = u
3
v 0 = y 0 = −v,
also gerade das linearisierte System bezüglich der Koordinaten u, v.
Gewöhnliche Differentialgleichungen (Kurzskript)
54
Abbildung 4.1: Das hier besprochene nicht lineare System (links) sowie dessen Linearsierung um den Ursprung. Blau hervorgehoben sind die ineinander
deformierten ‘Koordinatenachsen’
Lokal in Ordnung, global daneben Das letzte Beispiel ist ein eher selten anzutreffender Idealfall. Häufiger ist es möglich, Differentialgleichung
zumindest lokal um eine Gleichgewichtslage herum in die linearisierte Gleichung zu transformieren. Wir betrachten das System
1
x0 = x − y −
2
1
0
y = y+x−
2
1 3
x + y2x
2
1 3
z + x2 y
2
Auch dieses lässt sich explizit lösen, wenn man zuvor die Lösungskurven in
Polarkoordinaten schreibt,
x(t) = r(t) cos ϕ(t)
y(t) = r(t) sin ϕ(t).
Dann erhält man das System
r0 =
r(1 − r2 )
2
ϕ0 = 1
Man braucht dieses System nicht explizit zu lösen, um die wesentlichen Züge
seines Verhaltens um das (einzige) Gleichgewicht (0, 0) zu ergründen. Für
Lösungen mit r = 1 verlassen den Einheitskreis offensichtlich nicht, solche
mit r > 1 werden (da hier r0 < 0 gilt) in Richtung des Ursprungs und solche
mit r < 1 (wegen r0 > 0) vom Ursprung weg vom Einheitskreis angezogen.
Da es kein lineares System gibt, das eine einzelne, in sich geschlossene
Lösungskurve besitzt, kann es keine globale Transformation geben, die dieses
55
Werner, Universität Münster, SS 10
System in ein lineares überführt.
Die Linearisierung am Ursprung ist durch
0 1
x
−1
x
2
=
1 12
y0
y
gegeben. Auch dieses System besitzt den Ursprung als instabilen Gleichgewichtspunkt, und man kann auch eine Transformation finden, die beide
Systeme auf dem offenen Einheitskreis ineinander überführt.
Abbildung 4.2: Das der linken Abbildung zu Grunde liegende System lässt
sich im Innern des Einheitskreis in die Linearisierung um den Ursprung
deformieren. Jenseits davon nicht mehr.
Ein anderes Gleichgewicht Auch das System
x0 = −y + x(x2 + y 2 )
y 0 = x + y(x2 + y 2 )
ist direkt durch Transformation auf Polarkoordinaten behandelbar. Man
erhält
r0 = r3
ϕ0 = −1.
Offensichtlich ist der Ursprung ein abstoßendes Gleichgewicht. Bei dem um
den Nullpunkt linearisierten System
x0 = −y
y0 = x
liegt ein stabiles Gleichgewicht vor. Wie wir gleich sehen werden, schließt
ein solches Verhalten die Existenz einer Koordinatentransformation aus, die
das Ausgangssystem in seine Linearisierung überführt.
Gewöhnliche Differentialgleichungen (Kurzskript)
56
Abbildung 4.3: Für das linke System ist der Ursprung offensichtlich ein abstoßendes Gleichgewicht. Bei dessen Linearisierung (rechts) geht diese Eigenschaft verloren.
4.2.2
Der Satz von Hartman-Grobman
Die Gleichgewichtslagen, die sich dieser Idee gegenüber aufgeschlossen zeigen, sind Gegenstand der folgenden
Definition 7 Eine Gleichgewichtslage y0 des Vektorfelds F : U → Rn heißt
hyperbolisch, falls für jeden Eigenwert λ von F 0 (0) gilt Re λ 6= 0.
Satz 16 (Hartman-Grobman) Es sei F : Rn → Rn ein Vektorfeld mit
F (0) = 0. Ist der Ursprung ein hyperbolisches Gleichgewicht, so ist F lokal
topologisch konjugiert zu F 0 (0).
Wir werden diesen Satz hier nicht komplett beweisen; stattdessen betrachten
wir den Begriff der topologischen Konjugiertheit etwas genau, überlegen uns,
warum dieses Ergebnis im einem Spezialfall richtig ist und folgen dann dem
Beweis doch lange genug, um erkennen zu können, woher der Homöomorphismus kommt, der die Konjugation stiftet. Bei dieser Gelegenheit stoßen
wir auf die sogenannte Lie-Ableitung eines Vektorfelds.
Topologische Konjugation Es lässt sich recht einfach zeigen, dass für
zwei vermöge des Homöomorphismus h zueinander topologisch konjugierte
Differentialgleichungen gilt:
• h bildet die Lösungskurven des einen auf die des anderen Systems ab.
• Insbesondere gilt dies auch für Gleichgewichtslagen.
• Gleichgewichtslagen, die von h aufeinander abgebildet werden, sind
vom gleichen Typ.
57
Werner, Universität Münster, SS 10
Die im Satz von Hartman-Grobman auftretende topologische Konjugation
mutet zunächst wie ein Fremdkörper in einer Umgebung an, in der es in
der Hauptsache um Differenzierbarkeit geht. Hier ist ein Beispiel, dass die
Beziehung illustriert, die durch topologische Konjugation entsteht:
Wir betrachten die eindimensionale Gleichung y 0 = αy mit dem Fluss
Φαt (x) = xeαt
und stellen uns die Frage, für welche Paare (α1 , α2 ) die zugehörigen Flüsse
Φαt 1 sowie Φαt 2 zueinander konjugiert sind. Man kann sich überlegen, dass
die einzige Abbildung, die als konjungierende Homöomorphismen in Frage
kommen, die Abbildungen
h(x) =
 α2

x α1
α2


−|x| α1
für x ≥ 0
für x < 0
sind. Entscheidend ist deren Verhalten am Nullpunkt (an allen anderen Stellen sind diese Abbildungen differenzierbar; die Funktionen sind stets bijektiv): Stetig sind diese Funktionen bei 0 genau dann, wenn die Vorzeichen von
α1 und α2 gleich sind. Differenzierbar nur, wenn α1 = α2 ist. Mit anderen
Worten: die Gleichungen y 0 = α1 y und y 0 = α2 y sind topologisch konjugiert genau dann, wenn sign α1 = sign α2 gilt. (Dies ist genau dann der Fall,
wenn die Gleichgewichtslage 0 vom selben Typ ist.) Die Abbildungen sind
darüberhinaus differenzierbar konjugiert nur, wenn α1 = α2 ist. Womit dieser Typ von Äquivalenzrelation zumindest in diesem Fall eine viel zu feine
Einteilung liefert.
Dimensionen 2, reelle Eigenwerte Wir überprüfen nun eine Vorhersage, die aus dem Satz von Hartman-Grobman hergeleitet werden kann: Besitzt
die Ableitung des Vektorfelds F am Ursprung nur negative Eigenwerte, so
ist der Ursprung asymptotisch stabil. Wir betrachten die zweidimensionale
Situation und gehen ferner davon aus, dass F 0 (0) diagonalisierbar ist. Wir
beginnen also mit einem System
x0 = F1 (x, y)
y 0 = F2 (x, y)
Eine Taylorentwicklung um den Nullpunkt gefolgt von einer linearen Koordinatentransformation, die F 0 (0) in diag(λ, µ), λ, µ < 0 transformiert führt
wegen F (0) = 0 auf
x0 = λx + R1 (x, y)
y 0 = µy + R2 (x, y),
Gewöhnliche Differentialgleichungen (Kurzskript)
58
mit limk(x,y)→0 k(x, y)k−1 |R1,2 (x, y) = 0. Wir zeigen dass, die Vektoren (x0 , y 0 )
stets in das Innere des Kreises weisen, auf dem (x, y) liegt. Dazu gehen wir
von λ ≤ µ aus und schätzen ab
0 x
x
,
= λ(x2 + y 2 ) + y 2 (µ − λ) + xR1 (x, y) + yR2 (x, y) ≤
0
y
y
≤ λ(x2 + y 2 ) + xR1 (x, y) + yR2 (x, y).
Die linken Seite schreiben wir in Polarkoordinaten, auf der rechten dividieren
wir durch k(x, y)k2 und gehen zum Grenzwert k(x, y)k → 0 über. Dann folgt
für x(t) = (r(t) cos ϕ(t), r(t) sin ϕ(t)) und hinreichend kleine r
rr0 < λ0 r2 ,
0 > λ0 > λ beliebig
somit
r(t) < eλ0 t ,
und der Ursprung ist einee asymptotisch stabile Gleichgewichtslage.
Wo kommt der Homöomorphismus her? Der Homöomorphismus h,
der die topologische Konjugation vermittelt, entsteht aus einer Anwendung
des Banachschen Fixpunktsatzes auf eine Abbildung Ψ. Der Nachweis, dass
Ψ eine Kontraktion ist, gelingt nur, wenn man das Vektorfeld F zuvor passend beschneidet. (Wenn man will, kann man in diesem Vorgang eine Analogie zu der Verwendung einer gewichteten Norm im Beweis des Satzes von
Picard-Lindelöf sehen.) Wir wählen zu diesem Zweck für r > 0 eine glatte
Funktion ρ : Rn → [0, 1] mit den Eigenschaften: ρ(x) = 1 für kxk < r/2,
ρ(x) = 0 für kxk > r sowie kρ0 (x)k < 4/r für x ∈ Rn (Hilfreich ist es
hierbei, zunächst ρ0 : R+ → R+ passend zu wählen und diese dann radial
fortzusetzen.) Wir betrachten nun
F0 = A + F1
mit
F1 (x) := ρ(x)(F (x) − Ax).
Dieses Vektorfeld ist identisch mit X auf der offenen Kugel mit Radius r/2
um den Ursprung. Da es sich bei dem Satz um eine lokale Aussage handelt,
genügt es, diese für das Vektorfeld F0 zu beweisen.
Wir bezeichnen mit Φt den Fluss des Vektorfelds F0 . Gesucht ist ein Homöomorphismus h, den wir in der Form h = id + h1 schreiben, mit
h (exp(tA)) = Φt (h(x))
Diese letzte Gleichung ist äquivalent zu
exp(−tA)h1 (exp(tA)x) = exp(−tA)Φt (h(x)),
59
Werner, Universität Münster, SS 10
wo die rechte (und damit auch die linke) Seite eine in t differnzierbare Funktion ist. Geht man zur Ableitung nach t am Nullpunkt über, so erhält man
LA h1 (x) = −Ah(x) + F0 (h(x)) = F1 (h(x)),
bzw.
LA h1 = F1 ◦ (id + h1 ).
Hier bezeichnet LA h1 die Lie-Ableitung von h1 in Richtung A. Der Beweis
besteht darin zu zeigen, dass die letzte Gleichung für ausreichend kleines
r > 0 eine Löusng h1 besitzt und dass h = id + h1 der gesuchte Homöomorphismus auf der r-Umgebung des Nullpunkts ist.
Wir konstruieren im Folgenden eine Rechtsinverse L−1
A zur Lie-Ableitung
in Richtung A. Jede Lösung h1 der Fixpunktgleichung
h1 = L−1
A (F1 ◦ (id + h1 ))
ist dann ein Lösung von LA h1 = F1 ◦ (id + h1 ).
An dieser Stelle geht mehrfach die Hyperbolizität von A ein, und zwar
in der Form von Abschätzungen, die im Prinzip identisch sind mit denen,
die wir bei der Diskussion der Stabilität des Ursprungs für lineare Systeme
erhalten hatten. Zerlegt man nämlich wie im Beweis von Satz 15 den Vektorruam Rn = Es ⊕ Eu und entsprechend die Vektoren v des Rn in v = vs + vu
in die stabilen und instabilen Anteile zu der Abbildung A, so findet man,
wiederum ähnlich wie im Beweis von Satz 15, positive Zahlen C und λ mit
ketA vs k ≤ Ce−λt kvs k
ke−tA vu k ≤ Ce−λt kvu k
sowie
(∗)
Diese Zerlegung zieht eine Zerlegung ganzer Vektorfelder X nach sich, X =
Xs + Xu , Xs (x) = X(x)s und Xu (x) = X(x)u .
Wir betrachten die (mit einer zunächst noch zu rechtfertigenden Bezeichnung versehene) Abbildung
Z ∞
Z ∞
−1
tA
−tA
LA X(x) :=
e Xs (e
x) dt −
e−tA Xu (etA x) dt.
0
0
Diese ist auf Grund der Abschätzungen (∗) eine stetig Abbildung: Wegen
kXs,u k ≤ kXk folgt nämlich aus (∗)
ketA Xs (e−tA x)k ≤ Ce−λt kXk
ke−tA Xu (etA x)k ≤ Ce−λt kXk,
sowie
woraus sich mit
kL−1
A X
−
L−1
A Y
Z
k ≤ 2CkX − Y k
die Lipschitz-Stetigkeit von
Raum
∞
e−λt = 2λCkX − Y k
0
L−1
A
ergibt. Dass L−1
A eine auf dem Banach-
Cb (Rn , Rn ) = {X : Rn → Rn | X ist stetig und beschränkt }
Gewöhnliche Differentialgleichungen (Kurzskript)
60
definierte Abbildung ist, folgt aus einem entsprechenden Satz über die Stetigkeit von durch parameterabhängigen Integralen definierten Funktionen.
Was uns nun noch interessiert ist, ob diese Abbildung tatsächlich die LieAbleitung in Richtung A von rechts neutralisiert. Um dies zu bestätigen,
entnehmen wir den hyperbolischen Abschätzungen (∗) dieses Mal die Gleichung limθ→∞ e−θA Y (eθA x) = 0. Mit deren Hilfe folgt aus dem Hauptsatz
der Differential- und Integralrechnung
Z
d ∞ (τ −t)A
LA L−1
e
Xs (e(t−τ )A x) dτ |t=0 =
(X
)(x)
=
s
A
dt 0
Z
d ∞ −θA
=−
e
Xs (eθA x) dθ|t=0 = e−tA Xs (etA x)|t=0 = Xs (x)
dt t
sowie in fast derselben Weise
Z
d ∞ (−τ −t)A
−1
LA LA (Xu )(x) = −
e
Xs (e(t+τ )A x) dτ |t=0 = Xu (x).
dt 0
Setzt man beide Gleichungen zusammen, ergibt sich LA L−1
A = id.
Die Existenz der Abbildung h1 ergibt sich, sobald man nachweist, dass die
Abbildung
Ψ : f 7→ L−1
A (F1 ◦ (id + f ))
ein Kontraktion ist. Für f1,2 gilt (wir nehmen den Mittelwertsatz zu Hilfe)
kΨ(f1 ) − Ψ(f2 )k ≤ 2λCkF10 kkf1 − f2 k,
und es ist kF10 k abzuschätzen. Eine Anwendung der Produktregel liefert
zunächst für kxk ≤ r
4
kF10 (x)k ≤ kF 0 (x) − Ak + kF (x) − Axk
r
Wählt man r hinreichend kleine, so wird der erste Summand gleichmäßig
in x so klein, wie wir das vorschreiben; denn F1 ist ein glattes Vektorfeld
und A ist der Wert dessen Ableitung am Ursprung. Wendet man die TaylorFormel mit Restglied auf den zweiten Summanden an, so wird auch dieser bei
passender Wahl von r ausreichend klein, und Ψ wird zu einer Kontraktion.
An dieser Stelle ist der Beweis noch nicht ganz zu Ende — es bleibt immer noch zu zeigen, dass h = id + h1 tatsächlich die im Satz behaupteten
Eigenschaften besitzt. Wir werden das hier nicht mehr ausführen.
Gleichgewichte im Miteinander von Raubtieren und deren Beute
Wir kommen zurück zu dem ganz am Anfang besprochenen System
R0 = −αR + βRB
B 0 = γB − δRB,
61
Werner, Universität Münster, SS 10
in dem R(t) und B(t) die Populationsdichte von Räubern bzw. deren Beutetieren beschreibt. Neben dem (reichlich trivialen) Gleichtgewichtspunkt
(0, 0) gibt es noch genau einen anderen, nämlich (R0 , B0 ) = (γ/δ, α/β). Die
linearisierenden Abbildungen sind hier
−α 0
0 γ
und
0
− δα
β
βγ
δ
!
0
Im ersten Fall liegt nach dem Satz von Hartman-Grobman ein instabiles
Gleichgewicht vor. Die nichttriviale Gleichgewichtslage hingegen ist durch
rein imaginäre Eigenwerte der Jacobi-Matrix gekennzeichnet, und so ist auf
diesem Wege keinerlei Aussage möglich.
Etwas anders liegen die Dinge, wenn man die im ersten Kapitel besprochene Sättigung der Bestände für beide Arten einführt,
R0 = −α1 R − β1 R2 + γ1 RB
B 0 = α2 B − β2 B 2 − γ2 RB
mit αi , βi , γi ≥ 0. Bezeichnet F das Vektorfeld auf der rechten Seite, so ist
0
F (R, B) =
−α1 − 2β1 R + γ1 B
γ1 R
−γ2 B
α2 − 2β2 B − γ2 R
Für eine Gleichgewichtslage (R∞ , B∞ ), bei der beide Koordinaten von Null
verschieden sind, gilt
0 = −α1 − β1 R∞ + γ1 B∞
0 = α2 − β2 B∞ − γ2 R∞ ,
weshalb
−β1 R∞ γ1 R∞
F (R∞ , B∞ ) =
.
−γ2 B∞ −β2 B∞
0
Wenn wir uns nur für die Gleichgewichte interessieren, bei denen es keine
negativen Wert für R oder B gibt, so ist für denn Fall, dass β1 β2 + γ1 γ2 6= 0
wenigstens ein βi 6= 0
sp F 0 (R∞ , B∞ ) = −β1 R∞ − β2 B∞ < 0
sowie
0
det F (R∞ , B∞ ) = (β1 β2 + γ1 γ2 )R∞ B∞ > 0.
Berücksichtigt man, dass sp A die Summe und det A das Produkt der Eigenwerte der Matrix A ist, so wird klar, dass es sich bei (R∞ , B∞ ) um ein
asymptotisch stabiles Gleichgewicht handelt.
Gewöhnliche Differentialgleichungen (Kurzskript)
4.3
62
Ljapunow-Theorie
Definition 8 Es sei U ⊆ Rn offen und F : U → Rn ein Vektorfeld. Eine
Ljapunow-Funktion für F um den Punkt y0 ist eine auf einer Umgebung U
von y0 definierte und dort stetige, auf U \ {y0 } glatte Funktion mit
n
X
∂V
V̇ (x) =
Fi ≤ 0.
∂xi
i=1
Die Bedeutung der manchmal so genannten Orbitableitung V̇ besteht darin,
dass für jede Lösung y(t) die Ableitung von V entlang y(t) durch
d
V (y(t)) = V 0 (y(t))y 0 (t) = V 0 (y(t))F (y) = V̇ (y(t))
dt
gegeben ist. Damit kann man über das Verhalten von V (y(t)) Aussagen
treffen, ohne y(t) explizit kennen zu müssen.
Satz 17 (Ljapunowscher Stabilitätssatz) Es sei y0 in Gleichgewichtspunkt der Differentialgleichung y 0 = F (y) und U eine Umgebung dieses
Punktes.
(i) Exisitiert eine Ljapunow-Funktion V : U → R, die in y0 ein striktes
Minimum annimmt, so ist y0 stabil.
(ii) Gilt zusätzlich V̇ (x) < 0 für alle x ∈ U \ {y0 }, so ist y0 asymptotisch
stabil.
(iii) Gilt für V : U → R hingegen V̇ > 0 auf U \ {y0 } und nimmt diese
Funktion in y0 kein lokalen Minimalwert an, so ist y0 instabil.
4.3.1
Zweidimensionale Systeme und die exakten Differentialgleichungen
Bevor wir den Ljapunowschen Satz beweisen, wollen wir uns wiederum
zunächst etwas vertrauter mit seiner Aussage machen. Wir betrachten dazu
Systeme in zwei Dimensionen.
Die Orbitgleichung Es sei F : R2 → R2 ein Vektorfeld. Der zweidimensionale Fall unterscheidet sich von allen höherer Dimension dadurch, dass
man die Geometrie der Lösungskurven vergleichsweise einfach behandeln
kann:
Lemma 17.1 Vorgelegt sei das System
x0 = F1 (x, y)
y 0 = F2 (x, y)
Gilt auf einer Umgebung U des Ursprungs F1 (x, y) 6= 0, so existiert eine
glatte Funktion ψ : (a, b) → R2 deren Graph in U enthalten ist mit
63
Werner, Universität Münster, SS 10
(i) ψ genügt der Differentialgleichung
y 0 F1 (x, y) − F2 (x, y) = 0
(ii) Die Funktion
(x(t), y(t)) = (x(t), ψ(x(t)))
genügt dem Ausgangssystem.
Umgekehrt existiert für jede Lösung ψ der Gleichung y 0 F1 (x, y)−F2 (x, y) = 0
eine Lösung des Ausgangssystems der Form (x(t), ψ(x(t))).
Der Beweis benutzt den Satz über implizite Funktionen sowie die Kettenregel.
Erste Integrale Wir gehen davon aus, dass wir die Bilder der Lösungskurven (x(t), y(t)) des zweidimensionalen Systems (x0 , y 0 ) = (F1 , F2 ) (unter
Wegfall der Parametrisierung) in der Form (x, ψ(x)) schreiben können, wobei ψ der Gleichung
y 0 F1 (x, y) − F2 (x, y) = 0
genügt. Gehen wir weiterhin davon aus, dass diese Gleichung exakt ist (oder
in einfacher Weise auf eine exakte Gleichung gebracht werden kann), so gilt
ja
Φ(x, ψ(x)) = C
für eine Stammfunktion Φ von (−F2 , F1 , ) und alle solchen Funktionen ψ.
Man nennt die Funktion Φ auch ein erstes Integral. Die Bedeutung dieser
Bezeichnung wird deutlich, wenn man die Orbitableitung von Φ bezüglich
des Vektorfelds (F1 , F2 ) anschaut:
Φ̇(x, y) =
∂Φ
∂Φ
F1 +
F2 = −F2 F1 + F1 F2 = 0.
∂x
∂y
Φ eine ganz spezielle Ljapunow-Funktion; denn Φ(x(t), y(t)) ist sogar konstant entlang der Lösungskurven (x(t), y(t)), liefert also eine sogenannte ‘erhaltene Größe’ oder eben auch ‘erstes Integral’. Wir haben so eine Möglichkeit gefunden, Ljapunow-Funktionen konkret zu bestimmen. Besitzt Φ nun
ein striktes Minimum in einem Punkt (x0 , y0 ), mit F1 (x0 , y0 ) = F2 (x0 , y0 ) =
0, so befindet sich das System an diesem Punkt in einem stabilen Gleichgewicht.
Nochmals Räuber und Beute Wir wenden diese Methode nun auf den
noch unklaren Fall des Gleichgewichts des Systems
R0 = −αR + βRB
B 0 = γB − δRB,
Gewöhnliche Differentialgleichungen (Kurzskript)
64
am Punkt (R0 , B0 ) = (γ/δ, α/β). Die (etwas umgeformte) Orbitgleichung
lautet hier
α
γ
0
y − +β + −δ =0
y
x
Diese Gleichung ist exakt und die Lösungen ergeben sich aus
V (x, y) := γ ln |x| − δx + α ln |y| − βy = C.
V ist eine Ljapunow Funktion. Wir wissen bereits, dass die Ableitung V 0 =
(γ/x − δ, α/y − β) am Punkt (γ/δ, α/β) verschwindet. Nun ist aber
!
γ
δ2
−
0
0
−
γ
α
2
γ
x
und
V 00
=
V 00 (x, y) =
,
2
0
− yα2
δ β
0
− βα
weswegen V bei im Gleichgewichtspunkt (γ/δ, α/β) ein Minimum annimmt.
Dieser Punkt ist daher nach dem Satz von Ljapunow stabil1 .
4.3.2
Beweis des Stabilitätssatzes
4.3.3
Weitere Beispiele
1
Mit weiter verfeinerten Methoden kann man zeigen, dass die Lösungen in einer Umgebung um diesen Punkt periodisch sind.