5.2 Charakteristisches Polynom und Eigenräume

5.2 Charakteristisches Polynom und Eigenräume
Wie bestimmt man die Eigenwerte und Eigenräume einer Matrix?
Den ersten Schritt beschreibt der folgende einfache
Satz 1: Die Eigenwerte einer Matrix A aus K
charakteristischen Polynoms
(n x n)
sind die Nullstellen des
pA( x ) = det( x E − A ).
Denn es gibt genau dann einen Vektor v ≠ 0 mit A v = λ v , wenn die Gleichung
(λ E − A) v = 0
eine nicht verschwindende Lösung v hat, d.h. im Falle
det( λ E − A ) = 0.
Häufig wird auch das Polynom
χA( x ) = det( A − x E )
charakteristisches Polynom von A genannt. Es unterscheidet sich von pA( x ) nur für ungerades n
und auch dann nur durch das Vorzeichen. Deshalb haben beide Polynome die gleichen Nullstellen,
und es spielt keine Rolle, welches davon man bei der Nullstellenbestimmung betrachtet.
Hat man eine Nullstelle λ (also einen Eigenwert) gefunden, so erhält man den zugehörigen
Eigenraum V( A, λ ) als Lösungsraum des linearen Gleichungssystems
( A − λ E ) v = 0.
Man löst es zum Beispiel mit Hilfe der Gauß-Jordan-Elimination. Der Lösungsraum darf nicht nur
den Nullvektor enthalten!
(n x n)
Satz 2: Für ungerades n hat jede Matrix aus R
mindestens einen reellen Eigenwert.
Denn als stetige Funktion muß ein Polynom, das von −∞ nach ∞ läuft, irgendwo "über den
Jordan", d.h. die x-Achse schneiden. Polynome mit geradzahligem höchsten Exponenten haben
diese Eigenschaft aber im allgemeinen nicht!
Beispiel 1: Polynome dritten und vierten Grades
p3( x ) = x3 − x2 + 1, p4( x ) = x4 − x2 + 1
Wegen Satz 2 hat eine reelle 3x3-Matrix
- entweder nur reelle Eigenwerte (und zwar höchstens drei)
- oder einen reellen und zwei konjugiert komplexe Eigenwerte.
Maple liefert das charakteristische Polynom einer Matrix A mit Hilfe des Befehls
charpoly(A,x).
Sowohl Eigenwerte als auch zugehörige Eigenvektoren bekommt man mit Hilfe des Befehls
eigenvectors(A). Will man nur die Eigenwerte wissen, verlangt man eigenvalues(A).
Diagonalmatrizen
haben als Eigenwerte die Diagonalelemente (alle anderen Einträge sind 0), und die kanonischen
Einheitsvektoren sind zugehörige Eigenvektoren.
Beispiel 2: Zwei Diagonalmatrizen
λ1

A :=  0
0

0

0 
λ3
0
λ2
0
pA ( x ) = ( x − λ 1 ) ( x − λ 2 ) ( x − λ 3 )
Eigenwerte, Vielfachheit, Eigenvektoren
[ λ 3 , 1, { [ 0, 0, 1 ] } ] , [ λ 1 , 1, { [ 1, 0, 0 ] } ] , [ λ 2 , 1, { [ 0, 1, 0 ] } ]
Jetzt eine 4x4-Matrix mit zwei doppelten Eigenwerten:
λ

0
A := 
0

0
0
λ
0
0
0 0

0 0

µ 0

0 µ
pA( x ) = ( x − λ )2 ( x − µ )2
Eigenwerte, Vielfachheit, Eigenvektoren
[ λ, 2, { [ 1, 0, 0, 0 ], [ 0, 1, 0, 0 ] } ], [ µ, 2, { [ 0, 0, 1, 0 ], [ 0, 0, 0, 1 ] } ]
Die letzte Zeile ist so zu interpretieren: λ ist zweifache Nullstelle des charakteristischen Polynoms;
der zugehörige Eigenraum ist zweidimensional und hat eine Basis, die aus den Einheitsvektoren
[ 1, 0, 0, 0 ]T und [ 0, 1, 0, 0 ]T besteht. Entsprechendes gilt für den Eigenwert µ.
Satz 3 (Fundamentalsatz der Algebra)
(n x n)
Jede Matrix A aus C
hat n (komplexe) Eigenwerte, von denen mehrere zusammenfallen
können. Das charakteristische Polynom hat daher die Form
n
pA ( x ) =
∏ (x − λ ) = x
j
j=1
n
cn − 1 =
− cn − 1 x
n
∑λ =∑a
j
j=1
n
j=1
j, j
= Spur( A )
(n − 1)
+...+( −1 )n c0 , wobei
sowohl die Summe der Eigenwerte als auch die Summe der Diagonalelemente von A ist.
Andererseits ist
n
c0 =
∏ λ = det( A )
j
j=1
sowohl das Produkt der Eigenwerte als auch die Determinante von A.
Insbesondere ist eine Matrix genau dann invertierbar (hat also eine nicht verschwindende
Determinante), wenn sie nicht den Eigenwert 0 besitzt.
Im Spezialfall n = 2 gilt demnach
pA( x ) = x2 − Spur( A ) x + det( A ).
Systematische Berechnung der Eigenwerte und Eigenräume beliebiger 2x2-Matrizen
Eine Matrix
a1, 1
A := 
a2, 1
a1 , 2 

a2, 2
hat das charakteristische Polynom
pA ( x ) = x 2 + ( − a1 , 1 − a2 , 2 ) x + a1 , 1 a2 , 2 − a1 , 2 a2 , 1 .
Mit der Abkürzung d =
λ1 =
λ2 =
a1 , 1 + a2 , 2
2
a1 , 1 + a2 , 2
2
sofern a2, 1 nicht 0 ist.
a1 , 1 − a2 , 2
2
+
−
ergibt sich für dessen Nullstellen
λ1 − a2, 2
 ,
d2 + a1, 2 a2, 1 der Eigenvektor v1 = 
 a2 , 1 
λ2 − a2, 2
 ,
d2 + a1, 2 a2, 1 der Eigenvektor v2 = 
 a2 , 1 
Denn wegen
( λ j − a1 , 1 ) ( λ j − a2 , 2 ) − a1 , 2 a2 , 1 = pA ( λ j ) = 0
ergibt sich
λj − a2, 2 a1, 1 a1, 2 λj − a2, 2  0
 − 
 
 =   ,
λj 
 a2, 1  a2, 1 a2, 2  a2, 1   0
also
A vj = λj vj für j = 1, 2 .
Im Falle a1, 2 ≠ 0 hat man entsprechend die Eigenvektoren
 a1 , 2 
 a


 zu λ und  1, 2  zu λ .
1
2
λ1 − a1, 1
λ2 − a1, 1
Der Fall a1, 2 = a2, 1 = 0 ist besonders einfach, denn dann ist A eine Diagonalmatrix, und als
Eigenvektoren kann man die kanonischen Einheitsvektoren nehmen.
Beispiel 3: Eigenwerte und Eigenvektoren einer 2 2-Matrix
1
A := 
5
3

7
Mit den obigen Formeln bekommt man sofort
λ1 = 4 + 2
−3 + 2
6 , v1 = 

5
6 
, λ2 = 4 − 2

−3 − 2 6 

6 , v2 = 

5

Oder mit dem Maple-Befehl eigenvectors(A):
Eigenwerte, Vielfachheit, Eigenvektoren

 4 + 2


2 6
6 , 1, {  1, 1 +

3
  

 } ,  4 − 2 6 , 1, {  1, 1 − 2 6
  

3
 
 } 
 
Das ist im Prinzip die gleiche Lösung, da Eigenvektoren ja nur bis auf Vielfache bestimmt sind.
Nullstellen von Polynomen
Bei nxn-Matrizen mit größerem n besteht das Hauptproblem in der Bestimmung der Eigenwerte,
d.h. der Nullstellen eines Polynoms n-ten Grades.
Beispiel 4: Drei ganzzahlige Eigenwerte
1

A := -2

0
-2
0
-2
0

1

1
pA( x ) = x3 − 2 x2 − x + 2
Faktorisieren liefert
pA ( x ) = ( x − 1 ) ( x − 2 ) ( x + 1 )
also die Eigenwerte 1, 2 und -1.
Beispiel 5: Ein reeller und zwei komplexe Eigenwerte
Veränderung eines einzigen Koeffizienten in der Matrix A aus Beispiel 4 bewirkt zwei komplexe
Eigenwerte:
1

B := 2

0
0

1

1
-2
0
-2
pB( x ) = x3 − 2 x2 + 7 x − 6
Die Nullstelle 1 errät man durch Einsetzen. Dann dividiert man pB( x ) durch x − 1 und bekommt
den Komplementärfaktor
x2 − x + 6
mit den konjugiert komplexen Nullstellen
1
2
+
i 23
2
und
1
2
−
i 23
2
.
Leider ist es in der Praxis häufig recht schwierig, überhaupt eine Nullstelle eines Polynoms dritten
Grades zu finden. MAPLE bietet eine exakte Lösung an, aber das Ergebnis ist meist eher
verwirrend.
Beispiel 6: Der Trick von Tartaglia und Cardano
Vorzeichenänderung des letzten Koeffizienten in der Matrix A aus Beispiel 4 führt bereits auf eine
ziemlich schwierige Eigenwertaufgabe:
1

C := -2

0
-2
0
-2
0

1

-1
Determinantenberechnung liefert das charakteristische Polynom
pC ( x ) = x 3 − 3 x − 6
Um hier eine reelle Nullstelle zu finden, hilft nur ein Trick weiter, der bereits im späten Mittelalter
bekannt war und von den italienischen Mathematikern Tartaglia und Cardano ausgebaut wurde.
Die "Zaubersubstitution"
1
x=w+
w
führt auf
3

1 
1
3
1
pC w +  =  w +  − 3 w − − 6 = w3 − 6 + 3 = 0

w 
w
w
w
bzw.
2
( w3 ) − 6 w 3 + 1 = 0
mit der Lösung
w3 = 3 + 2
2 , also w = ( 3 + 2
1
 
3
2)
.
Daher ist ein reeller Eigenwert der Matrix C
λ1 = ( 3 + 2 2 )
1
 
3
+ (3 + 2 2 )
 1
 − 
 3
.
Um die weiteren Nullstellen von pC zu finden, müssen wir den Linearfaktor x − λ1 ausklammern.
Wegen
3
pC( λ1 ) = λ1 − 3 λ1 − 6 = 0 bekommen wir
3
2
pC( x ) = x3 − 3 x − 6 = x3 − 3 x − λ1 + 3 λ1 = ( x − λ1 ) ( x2 + λ1 x + λ1 − 3 ),
und der quadratische Faktor hat die Nullstellen
λ2 = −
λ1
2
+
3−
3 λ1
2
4
=−
w
=−
w
2
−
w
1 

+ i 3  −
2w
 2 2w
−
w
1 
.
− i 3  −
2w
 2 2w
1
und
λ3 = −
λ1
2
−
3−
3 λ1
4
2
2
1
Maple präsentiert uns mittels eigenvalues(C) die gleichen Werte, wenn auch nicht sehr
übersichtlich. Ohne Computersysteme oder höhere Algebra ist es meist hoffnungslos, solche
Nullstellen von Polynomen dritten (oder höheren) Grades zu finden.
Beispiel 7: Eine bösartige Matrix mit drei reellen Eigenwerten
Wir verändern nochmals einige Vorzeichen in der Matrix A aus Beispiel 4.
1

M := 2

0
2
0
2
0

1

-1
Das charakteristische Polynom bekommen wir noch hin:
pM( x ) = x3 − 7 x − 2
Leider sind hier keine offenkundigen Nullstellen in Sicht. MAPLE berechnet mit Hilfe der
Formeln von Cardano und Tartaglia die folgenden Monster:
Eigenwerte
(1 / 3)
( 27 + 6 I 237 )
7
+
3
,−
7
(1 / 3)
6
( 27 + 6 I 237 )
−
(1 / 3)


7
 ( 27 + 6 I 237 )

,
+ I 3 
−
(
1
/
3
)


2
3
( 27 + 6 I 237 )


1
2 ( 27 + 6 I 237 )
−
(1 / 3)
( 27 + 6 I 237 )
( 27 + 6 I 237 )
(1 / 3)
(1 / 3)
6
7
−
(1 / 3)
2 ( 27 + 6 I 237 )
(1 / 3)


7
 ( 27 + 6 I 237 )


− I 3 
−
(
1
/
3
)


2
3

( 27 + 6 I 237 )

1
Näherungen
2.778457119 − 0.2 10 I, -2.489288572 − 0.8660254040 10-9 I,
-9
-0.289168546 + 0.8660254040 10-9 I
Drei echt komplexe Nullstellen? Das kann doch nicht sein! In Wirklichkeit sind hier die
Imaginärteile allesamt Null, d.h. alle drei Eigenwerte sind reell und haben die Näherungswerte
λ1 = 2.778457119, λ2 = −2.489288572, λ3 = −.289168546.
Probe:
pM( λ1 ) = 0.1 10-7, pM( λ2 ) = -0.1 10-7, pM( λ3 ) = -0.3 10-8
Tatsächlich kommt in allen drei Fällen fast genau 0 heraus.
Dreiecksmatrizen
haben unterhalb oder oberhalb der Diagonale nur Nullen als Koeffizienten. Bei solchen (oberen
oder unteren) Dreiecksmatrizen stehen wieder die Eigenwerte in der Diagonale.
n := 5
a1, 1

 0


A :=  0

 0

 0

a1 , 2
a2 , 2
0
0
0
a1 , 3
a2 , 3
a3 , 3
0
0
a1 , 4
a2 , 4
a3 , 4
a4 , 4
0
a1 , 5 

a2, 5
a3, 5

a4, 5
a5, 5
pA ( x ) = ( x − a1 , 1 ) ( x − a2 , 2 ) ( x − a3 , 3 ) ( x − a4 , 4 ) ( x − a5 , 5 )
Eigenwerte = ( a5, 5, a4, 4, a3, 3, a2, 2, a1, 1 )
Die Reihenfolge der Eigenwerte wird von MAPLE willkürlich gewählt!
Bei Dreiecksmatrizen entfällt die ansonsten manchmal mühselige bis hoffnungslose Suche nach
Nullstellen des charakteristischen Polynoms.
Beispiel 8: Eine obere Dreiecksmatrix
3

0
A := 
0

0
4
-5
0
0
-5
-2
-2
0
3

-1

1

-1
MAPLE berechnet als Eigenwerte und zugehörige Eigenvektoren:
Eigenwerte, Vielfachheit, Eigenvektoren

 -5 -4 -4   
 -23
-3  
 -1, 1, {  , 1, ,  } ,  -2, 1, {  , 1, , 0  } , [ -5, 1, { [ 1, -2, 0, 0 ] } ],

3
3 3  
 10
2  
[ 3, 1, { [ 1, 0, 0, 0 ] } ]
Da Vielfache eines Eigenvektors wieder Eigenvektoren sind, dürfen wir jeweils noch mit den
Nennern durchmultiplizieren. Geordnet von links nach rechts haben wir also folgende Eigenwerte
und Eigenvektoren:



λ1 = 3, v1 = 



1
1
−23
 −5 

 


 





3
0
−2
10
, λ2 = −5, v2 =  , λ3 = −2, v3 = 
, λ4 = −1, v4 =  
0
−15
 −4 
0

 


 
0
0
 0 
 −4 
Ähnlichkeit von Matrizen
Zwei quadratischen Matrizen A und Ä heißen ähnlich, falls es eine invertierbare Matrix B gibt
mit
B
( −1 )
A B = Ä.
Sehr nützlich für die Eigenwerttheorie ist der folgende
Satz 4: Ähnliche Matrizen haben das gleiche charakteristische Polynom.
Denn aufgrund der Produktregel für Determinanten gilt
( −1 )
p
B
( −1 )
( x ) = det( x E − B
AB
( −1 )
= det( B
A B)
( −1 )
( x E − A ) B ) = det( B )
det( x E − A ) det( B ) = pA( x ).
Beispiel 9: Zwei ähnliche 3 3-Matrizen
Wir erzeugen zwei zufällige ganzzahlige Matrizen:
56

A := 57

 -8
49
-59
-93
63

45

92
43

B := 66

99
-62
54
-61
77

-5

-50
und bilden die transformierte Matrix
Ä := B
 69285807

 1024769

 -17794241
Ä := 
 1024769

105074004

 1024769
( −1 )
AB
-126839974
1024769
-25703914
1024769
-12002211
1024769
3451635 

1024769 
46381344

1024769 

47622548

1024769 
pA = x3 − 89 x2 − 1684 x + 707903
pÄ = x3 − 89 x2 − 1684 x + 707903
So kompliziert Ä ausfällt, die charakteristischen Polynome sind gleich!
Satz 5: Jede quadratische Matrix ist zu einer oberen Dreiecksmatrix ähnlich, in deren Diagonale
die Eigenwerte stehen.
(Dabei kann die Dreiecksmatrix echt komplexe Koeffizienten haben, auch wenn die
Ausgangsmatrix reell war!)
Kennt man die Eigenwerte, so kann man schrittweise eine solche Dreiecksmatrix berechnen. Denn
ist λ1 ein Eigenwert und
(b1,...,bk)
eine Basis des zugehörigen Eigenraumes, so ergänzt man diese zu einer Basis B = (b1,...,bn) des Kn
und erhält in Kästchenschreibweise
λ E C 

A B = B  1
 0
A1
Dann ist wegen der Kästchenregel für Determinanten
pA ( x ) = p
k
B
( −1 )
( x ) = ( x − λ1 ) pA1( x ).
AB
Nun verfährt man ebenso mit A1 und setzt diese Prozedur fort, bis man eine Dreiecksmatrix hat.
Beispiel 10: Transformation auf Dreiecksgestalt
Wir betrachten eine 2x2-Matrix mit doppeltem Eigenwert:
 13
A := 
-16
9

37
pA = charpoly( A, x )
Eigenwerte, Vielfachheit, Eigenvektoren
eigenvectors( A )
Beachten Sie, daß hier der Eigenwert 25 die Vielfachheit 2, der Eigenraum aber trotzdem nur die
Dimension 1 hat!
Wir ergänzen den Eigenvektor in Spaltenform durch einen Einheitsvektor zu einer Basis. Das
Ergebnis schreiben wir als Matrix B:
 1

 4

 3
0


1

 1

 -4

 3
0


1

Die Inverse von B ist dann
( −1 )
Ähnliche obere Dreiecksmatrix Ä = B
A B mit den Eigenwerten in der Diagonalen:
25
Ä=
 0
9

25
Allgemein schließt man aus der obigen Transformation auf Dreiecksgestalt:
Satz 6: Die geometrische Vielfachheit eines Eigenwerts, d.h. die Dimension seines Eigenraumes,
ist höchstens so groß wie die algebraische Vielfachheit im charakteristischen Polynom, kann aber
auch kleiner sein.
Diagonalisierbare Matrizen
sind solche, die zu einer Diagonalmatrix Λ ähnlich sind:
B
( −1 )
A B = Λ bzw. A B = B Λ .
Satz 7: Eine nxn-Matrix A ist genau dann diagonalisierbar, wenn die Summe der Dimensionen der
Eigenräume n ergibt. In diesem Falle stehen in der Diagonalen der zu A ähnlichen Diagonalmatrix
Λ die Eigenwerte von A, und die Spalten der Transformationsmatrix B sind zugehörige
Eigenvektoren. Außerdem stimmt die algebraische Vielfachheit jedes Eigenwertes mit der
geometrischen Vielfachheit überein.
Satz 8: Eigenvektoren zu verschiedenen Eigenwerten sind linear unabhängig.
Sind nämlich umgekehrt v1,...,vk linear abhängige Eigenvektoren zu Eigenwerten
λ1,...,λk und ist k minimal gewählt, so gibt es von 0 verschiedene Zahlen r1,..., rk mit
k
k
k
 k



rj vj = 0, also erst recht
rj λj vj = A 
rj vj  = 0 ,
rj λk vj = 0
j = 1

j=1
j=1
j=1
∑
∑
∑
∑
k−1
und nach Differenzbildung
∑ r ( λ − λ ) v = 0,
j
j
k
j
j=1
was wegen der linearen Unabhängigkeit von v1,...,vk − 1 die Gleichung λj − λk = 0 für mindestens
ein j < k erzwingt.
Folgerung: Hat eine Matrix keine mehrfachen Eigenwerte, so ist sie zu einer Diagonalmatrix
ähnlich. Die Spalten der Transformationsmatrix sind Eigenvektoren zu je einem der Eigenwerte.
Beispiel 11: Eine Diagonalisierung
19

A :=  8

 4
-1
19
5
4

14

16
pA( x ) = x3 − 54 x2 + 891 x − 4374
pA( x ) = ( x − 27 ) ( x − 18 ) ( x − 9 )
 1
 -2
 1
 
 
 
λ1 = 9, v1 =  2, λ2 = 18, v2 =  2, λ3 = 27, v3 =  8
 
 
 
 -2
 1
 4
Matrix mit Eigenvektoren als Spalten
1

B :=  2

-2
( −1 )
Λ := B
-2
2
1
1

8

4
AB
9

Λ = 0

0
0
18
0
0

0

27
Anhang: Polynomgleichungen
Um die Eigenwerte einer nxn-Matrix A zu finden, muss man die Polynomgleichung
(n − 1)
pA ( x ) = x n + pn − 1 x
+...+ p1 x + p0 = 0
lösen. Das ist für n = 1 sehr einfach und auch für n = 2 kein Problem, aber schon für n = 3 recht
schwierig.
Gleichungen 1.Grades oder lineare Gleichungen
x+p=0
haben die offensichtliche Lösung
x = −p.
Gleichungen 2. Grades oder quadratische Gleichungen
x2 + p x + q = 0
reduziert man mittels "quadratischer Ergänzung" auf eine "rein quadratische Gleichung"
2

p
p2
 x +  + q −
=0

2
4
mit den offensichtlichen Nullstellen
x1 = −
p
2
p2
+
4
− q und x2 = −
p
2
−
p2
4
−q .
Gleichungen 3. Grades oder kubische Gleichungen
x 3 + p2 x 2 + p1 x + p0 = 0
erfordern weitaus mehr Finessen, die (wie früher angedeutet) auf italienische Mathematiker des 16.
Jahrhunderts zurückgehen.
Als grundsätzliches Hilfsmittel erweist sich die binomische Formel
( a + b ) 3 = a3 + 3 a 2 b + 3 a b2 + b3 .
Zunächst reduziert man die allgemeine Gleichung 3. Grades mittels "kubischer Ergänzung", um
das quadratische Glied zum Verschwinden zu bringen. Dies geschieht durch die Substitution
y=x+
2
p2
p2 x
p2
3
, also y3 = x3 + p2 x2 +
+
.
3
3
27
Dadurch geht die obige Gleichung für x in eine für y folgender Gestalt über:
y3 + p y + q = 0.
Jetzt macht man den Ansatz
1
 
3
1
 
3
y = y1 + y2
- warum, wird sich gleich zeigen: Aus der Gleichung für y wird nämlich
1
 1 

   1 
 
 

   3 
3
 3 
y1 + y2 +  3 ( y1 y2 ) + p   y1 + y2  + q = 0,
und das ist ist sicher erfüllt, wenn man das Gleichungssystem
y1 + y2 = −q
3
 p
y1 y2 =  − 
 3
gelöst hat. Die Lösungen hierfür sind:
y1 = −
q
2
3
+
2
p q
q
  +   , y2 = − −
3 2
2
3
p q
  +  
3 2
2
und Einsetzen in die Gleichung zwischen y, y1 und y2 ergibt die berühmte
Cardanische Formel

 q
y =  − +
 2
1
 
3
3
2
p q 
  +   
3 2 

 q
+  − −
 2
3
2
p q 
  +   
3 2 
1
 
3
.
Diese Lösung ist im Allgemeinen echt komplex, kann aber auch dann reell sein, wenn der
Ausdruck unter der Quadratwurzel negativ wird! Außerdem muß man prinzipiell drei Nullstellen
herausbekommen.
Für Gleichungen 4.Grades wird leider alles noch viel komplizierter, und Gleichungen höheren
Grades lassen sich überhaupt nicht mehr mit Hilfe von Wurzelausdrücken lösen, wie der geniale
Mathematiker Abel im 19. Jahrhundert gezeigt hat.
Man muss sich also bei der Nullstellensuche häufig mit Näherungslösungen begnügen - und für die
Ingenieurpraxis sind diese ohnehin fast immer ausreichend. Von Newton stammt eine schöne
Methode zur
Approximation von reellen Nullstellen
Man legt an einen beliebigen Kurvenpunkt die Tangente und bestimmt deren Schnittpunkt mit der
x-Achse. Zu diesem bestimmt man den Funktionswert und damit einen neuen, darüber oder
darunter liegenden Kurvenpunkt. Iteriert man dieses Verfahren, so erhält man fast immer schnell
gute Näherungen für eine Nullstelle. Genaueres dazu später!