Orario recupero pomeridiano del 30-03

4.8 Metodi quasi-Newton
Varianti del metodo di Newton in cui invece di usare/invertire la matrice Hessiana di
f (x) si estraggono informazioni relative alle derivate seconde dalle variazioni di ∇f (x).
Si genera una successione {Hk }, con Hk simmetrica definita positiva e approssimazione
di [∇2 f (x k )]−1 , e si pone
x k+1 = x k + αk d k
con
d k = −Hk ∇f (x k )
dove αk > 0 minimizza f (x) lungo d k o soddisfa le condizioni di ricerca 1-D inesatta
(e.g. Wolfe).
Vantaggi rispetto a metodo di Newton:
iterazione ben definita e metodo di discesa poich´e Hk sono simmetriche e definite
positive,
richiede solo derivate prime,
matrice Hk `e costruita in modo iterativo, ogni iterazione O(n2 ).
Svantaggio rispetto al metodo delle direzioni coniugate: richiede memorizzazione e
manipolazioni di matrici.
Edoardo Amaldi (PoliMI)
Ottimizzazione
A.A. 2013-14
1 / 12
Idea: Ricavare da ∇f (x k ) e ∇f (x k+1 ) informazioni relative alle derivate seconde di f (x).
Approssimazione quadratica di f intorno a x k :
f (x k + δ) ≈ f (x k ) + δ t ∇f (x k ) +
1 t 2
δ ∇ f (x k )δ.
2
Derivando si ottiene
∇f (x k + δ) ≈ ∇f (x k ) + ∇2 f (x k )δ.
Sostituendo δ con δ k e ponendo δ k = x k+1 − x k e γ k = ∇f (x k+1 ) − ∇f (x k ) abbiamo
γ k ≈ ∇2 f (x k )δ k
ovvero
[∇2 f (x k )]−1 γ k ≈ δ k .
Poich´e δ k e γ k possono essere determinate solo dopo la ricerca 1-D, si sceglie Hk+1
simmetrica definita positiva tale che
Hk+1 γ k = δ k
”secant condition”.
(1)
Sistema lineare che non determina in modo univoco Hk+1 (n equazioni e n(n + 1)/2
gradi di libert`
a). Vi sono molti modi di soddisfare le condizioni (1).
Edoardo Amaldi (PoliMI)
Ottimizzazione
A.A. 2013-14
2 / 12
Uno dei pi`
u semplici procede per aggiornamento:
Hk+1 = Hk + ak uu t
(2)
t
dove uu `e una matrice simmetrica di rango 1 e ak un coefficiente di proporzionalit`
a.
Per soddisfare (1) si richiede che
Hk γ k + ak uu t γ k = δ k
e quindi che u e (δ k − Hk γ k ) siano collineari.
Dato che ak tiene conto della propozionalit`
a, si pu`
o porre che u = δ k − Hk γ k e quindi
ak u t γ k = 1.
Formula di aggiornamento di rango 1:
Hk+1 = Hk +
(δ k − Hk γ k )(δ k − Hk γ k )t
(3)
(δ k − Hk γ k )t γ k
Propriet`
a
1
Per funzioni quadratiche strettamente convesse, in al pi`
u n iterazioni si ottiene
Hn = Q −1 , anche con ricerca 1-D approssimata.
2
Non c’`e garanzia che Hk sia definita positiva!
Edoardo Amaldi (PoliMI)
Ottimizzazione
A.A. 2013-14
3 / 12
Pi`
u interessanti: formule di aggiornamento di rango 2
Hk+1 = Hk + ak uu t + bk v v t
(4)
Imponendo (1) si ha
Hk γ k + ak uu t γ k + bk v v t γ k = δ k
in cui u, v non sono univocamente determinati.
Ponendo u = δ k e v = Hk γ k si ottengono le condizioni ak u t γk = 1 e bk v t γk = −1
e quindi la formula di aggiornamento di rango 2:
Hk+1 = Hk +
Edoardo Amaldi (PoliMI)
Hk γ k γ tk Hk
δ k δ tk
−
γ tk Hk γ k
δ tk γ k
Davidon-Fletcher-Powell (DFP)
Ottimizzazione
A.A. 2013-14
(5)
4 / 12
Proposizione: Se
condizione di curvatura,
δ tk γ k > 0 ∀k
il metodo preserva la condizione che Hk sia definita positiva.
Dim.:
Supponiamo H0 sia d.p. e procediamo per induzione.
Mostriamo che se Hk `e d.p. allora z t Hk+1 z > 0 ∀z 6= 0.
Se Hk `e d.p. ammette una fattorizzazione di Choleski Hk = Lk Ltk .
Eliminando i pedici k e ponendo a = Lt z e b = Lt γ abbiamo
z t (H −
Hγγ t H
(at b)2
)z = at a − t
≥0
t
γ Hγ
bb
visto che |at a| ≤ kakkbk (Cauchy).
Dato che z 6= 0, uguaglianza vale solo se a e b collineari, ovvero se z e γ collineari.
Poich´e δ t γ > 0 si ha
δδ t
)z ≥ 0
δt γ
che vale in senso stretto se z e γ sono collineari.
zt(
Basta quindi ”sviluppare”z t Hk+1 z e applicare queste due disuguaglianze.
Edoardo Amaldi (PoliMI)
Ottimizzazione
A.A. 2013-14
5 / 12
Fatto: La condizione di curvatura δ tk γ k > 0 `e garantita per ogni k purch´e la ricerca 1-D
soddisfi le condizioni di Wolfe (deboli o forti).
Dim.:
Per funzioni quadratiche strettamente convesse, γ k = Qδ k implica δ tk Qδ k = δ tk γ k > 0
perch´e Q `e d.p.
Per funzioni qualsiasi:
Condizioni di Wolfe deboli
f (x k + αk d k ) ≤ f (x k ) + c1 αk ∇t f (x k )d k
(6)
∇t f (x k + αk d k )d k ≥ c2 ∇t f (x k )d k
(7)
con 0 < c1 < c2 < 1.
Visto che δ k = αk d k , (7) implica
∇t f (x k+1 )δ k ≥ c2 ∇t f (x k )δ k
che implica
γ tk δk ≥ (c2 − 1)αk ∇t f (x k )d k
con (c2 − 1) < 0, αk > 0, ∇t f (x k )d k < 0 perch´e d k `e direzione di discesa.
Edoardo Amaldi (PoliMI)
Ottimizzazione
A.A. 2013-14
6 / 12
Propriet`
a
Per funzioni quadratiche strettamente convesse con ricerca 1-D esatta:
1
termina in al pi`
u n iterazioni con Hn = Q −1 ;
2
genera direzioni mutualmente Q–coniugate (partendo da H0 = I genera i
gradienti coniugati);
3
la condizione della secante `e ereditaria, ovvero Hi γ j = δ j j = 0 . . . i − 1.
Per funzioni qualsiasi:
4
se δ tk γ k > 0 (condizione di curvatura), le Hk sono definite positive se H0 lo `e
(quindi metodo di discesa);
5
ogni iterazione richiede O(n2 ) operazioni;
6
rapidit`
a di convergenza superlineare (in genere solo locale);
7
se funzione f (x) convessa e ricerca 1-D esatta, metodo DFP converge
globalmente.
Edoardo Amaldi (PoliMI)
Ottimizzazione
A.A. 2013-14
7 / 12
Metodo BFGS
In modo complementare, costruiamo un’approssimazione di ∇2 f (x k ) invece di [∇2 f (x k )]−1 .
Poich´e si desidera Bk ≈ ∇2 f (x k ), Bk deve soddisfare Bk+1 δ k = γ k .
Scegliendo Bk+1 = Bk + ak uu t + b k v v t , con passaggi analoghi, si ottiene:
Bk+1 = Bk +
γ k γ tk
γ tk δ k
−
Bk δ k δ tk Bk
δ tk Bk δ k
(8)
che andrebbe invertita ad ogni iterazione per ottenere Hk+1 .
Applicando due volte l’identit`
a di Sherman–Morrison
(A+ab t )−1 = A−1 −
A−1 ab t A−1
,
1 + b t A−1 a
A ∈ Rn×n non singolare, a, b ∈ Rn , denominatore 6= 0,
si ottiene la formula di aggiornamento di Broyden Fletcher Goldfarb e Shanno (BFGS):
!
γ t Hk γ
Hk γ k δ tk + δ k γkt Hk
δ k δ tk
−
(9)
Hk+1 = Hk + 1 + k t k
t
δk γ k
δk γ k
δ tk γ k
che non richiede molte pi`
u operazioni della formula di DFP.
Si verifica facilmente che Bk+1 Hk+1 = I se Bk Hk = I .
Edoardo Amaldi (PoliMI)
Ottimizzazione
A.A. 2013-14
8 / 12
Il metodo BFGS gode delle stesse propriet`
a 1 a 5 di quello DFP.
In pratica risulta pi`
u robusto (rispetto a errori di arrotondamento e ricerca 1-D inesatta).
Contrariamente a DFP `e stata dimostrata la convergenza globale anche con ricerca 1-D
inesatta.
BFGS e DFP sono due estremi dell’unica famiglia di formule di Broyden:
DFP + φH BFGS
Hk+1 = (1 − φ)Hk+1
k+1
con 0 ≤ φ ≤ 1.
Propriet`
a: (famiglia)
Hk+1 soddisfa la condizione della secante ed `e definita positiva se δ tk γ k > 0.
Invarianti rispetto a trasformazioni affini delle variabili.
Se f (x) quadratica strettamente convessa e ricerca 1-D esatta: si trova x ∗ in al pi`
u
n iterazioni (Hn = Q −1 ) e le direzioni prodotte sono mutualmente Q-coniugate.
Metodi quasi-Newton sono molto meno ”sensibili” alla ricerca 1-D inesatta che il
metodo delle direzioni coniugate (adatti a funzioni altamente non lineari).
Edoardo Amaldi (PoliMI)
Ottimizzazione
A.A. 2013-14
9 / 12
Convergenza dei metodi quasi-Newton
Analisi complessa perch´e l’approssimazione della matrice Hessiana (o della sua inversa)
viene aggiornata iterativamente.
Rapidit`
a di convergenza locale per qualsiasi {Bk } o {Hk } con ricerca 1-D inesatta
(condizioni di Wolfe) in cui viene provato prima il passo αk = 1:
Teorema: (Dennis e Mor´e)
Sia f ∈ C 3 e metodo quasi-Newton con Bk definite positive e αk = 1 per ogni k. Se {x k }
converge a x ∗ con ∇f (x ∗ ) = 0 e ∇2 f (x ∗ ) `e definita positiva, {x k } converge
superlinearmente se e solo se
lim
k→∞
k(Bk − ∇2 f (x ∗ ))d k k
= 0.
kd k k
(10)
Bk = Hk−1 ≈ ∇2 f (x k )
Se direzione quasi-Newton d k `e un approssimazione sufficiente della direzione di Newton,
αk = 1 soddisfa le condizioni di Wolfe quando x k converge verso x ∗ .
N.B.: Non `e necessario che Bk → ∇2 f (x ∗ ) per ottenere la convergenza superlineare,
basta che le Bk diventino approssimazioni sempre pi`
u accurate di ∇2 f (x ∗ ) lungo le
direzioni d k !
Edoardo Amaldi (PoliMI)
Ottimizzazione
A.A. 2013-14
10 / 12
La condizione (10), necessaria e sufficiente per la convergenza superlineare, `e soddisfatta
dai metodi quasi-Newton come BFGS e DFP.
Confronto rapidit`
a di convergenza tra metodi del gradiente, di Newton e BFGS:
esempio per funzione di Rosenbrock tratto da pagina 199 (capitolo 8) di J. Nocedal, S.
Wright, Numerical Optimization, Springer, first edition, 1999.
Convergenza globale:
Esistono risultati teorici di convergenza globale per funzioni generiche con ottimizzazione
1-D approssimata.
Le tecniche “classiche” di globalizzazione (”restart” o ”trust region”) sono poco
utilizzate per metodi quasi-Newton perch´e in pratica non si conoscono esempi di non
convergenza.
Edoardo Amaldi (PoliMI)
Ottimizzazione
A.A. 2013-14
11 / 12
Varianti a memoria limitata
I metodi quasi-Newton pi`
u utilizzati si basano sulle formule di aggiornamento BFGS e
DFP con ricerca 1-D che soddisfa le condizioni di Wolfe.
Visto che per n molto elevato `e troppo costo costruire esplicitamente Bk o Hk , sono
state proposte varianti a memoria limitata in cui vengono utilizzate solo informazioni (i
vettori δ k e γ k ) relative alle ultime iterazioni.
Il metodo BFGS a memoria limitata (cf. esercizio 7.5) risulta molto efficiente.
Edoardo Amaldi (PoliMI)
Ottimizzazione
A.A. 2013-14
12 / 12