Introduzione ai processi di Markov maggio 2014 Sommario La cinematica o la dinamica di una variabile aleatoria prende il nome di processo stocastico. • E Marinari G Parisi Trattatello di probabilit`a marzo 2002 • Sokal Monte Carlo Methods etc. (1996) Indice 1 Processi stocastici 1.1 processo markoviano, discreto . . . . . . . . . . . . 1.1.1 matrice di Markov . . . . . . . . . . . . . . 1.1.2 evoluzione misure e distribuzione stazionaria 1.1.3 teorema di Frobenius-Perron . . . . . . . . 1.1.4 reversibilit`a e bilancio dettagliato . . . . . . 1.2 RV funzioni della traiettoria . . . . . . . . . . . . . 1.2.1 serie temporali . . . . . . . . . . . . . . . . 1.3 grandezze fondamentali . . . . . . . . . . . . . . . . 1.3.1 shema conti e commenti . . . . . . . . . . . 1.3.2 algebra dell‘evoluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 4 4 5 6 7 7 8 11 13 15 2 Processi di Markov non discreti 16 2.1 |Ω| → ∞ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.1.1 transizione fase . . . . . . . . . . . . . . . . . . . . . . 18 2.2 ∆t → 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 3 simulazioni Monte Carlo 19 1 Capitolo 1 Processi stocastici La cinematica (la dinamica) di una variabile stocastica `e detta processo stocastico Fissato un intervallo [0, T ] e uno spazio di probabilit`a Ω, (con sua algebra e possibili misure di probabilit`a) un processo stocastico `e la famiglia delle variabili aleatorie {ω(t) t ∈ [0, T ], ω(t) ∈ Ω} ATT! le variabili aleatorie sono le traiettorie, le storie: Il punto essenziale, che dovete aver sempre in mente, consiste nel fatto che il processo stocastico `e dato dalla probabilit`a della ‘storia‘ t → ω(t) e non dalle probabilit`a (marginali) del valore assunto dalla variabile aleatoria in un certo istante Se l‘intervallo `e formato da N punti discreti [0, T ] ≡ {0, t1 , t2 , · · · , tj , · · · , tN −1 = T , il processo stocastico `e definito dalla probabilit`a congiunta p(ω(0), ω(t1), · · · , ω(T )) cio`e da una probabilit`a definita su ΩN Se l‘intervallo `e continunuo il processo `e determinato dalla famiglia di probabilit`a congiunte definite 1) per ogni N 2) ed ogni set {t1 , t2 , · · · , tN } : cio`e processo stocastico `e dato dall‘insieme delle probabilit`a congiunte ∀N, ∀{t1 , t2 , · · · , tN } ⇒ p(ω(t1 ), · · · , ω(tN )) (Questo insieme nasce dal problema di definire cosa `e misurabile in spazi infinito dimensionali tipo C 0 [0, T ] , vedi insiemi cilindrici ) 2 Sono necessarie ulteriori precisazioni in base alla natura dello spazio Ω ma per ora ci basta e ci `e utile pensare che Ω sia un insieme discreto esempi......................... • Le storie di N lanci di moneta definiscono un processo stocastico. Se chiamo testa, croce ω = {0, 1} e p(ω) = pω (1 − p)1−ω Q la probabilit`a associata alla traiettoria,P alla storia {ω(0), ω(t1), · · · , ω(T )) `e i p(ω(ti )) La famiglia t → X(t) = ti ≤t ω(ti ) ( somma totale vinta/ persa in t tiri) `e un processo stocastico a salti indipendenti (senza memoria) • La storie di lunghezza N di un‘urna di Polia `e un processo stocastico. Se la condizione iniziale dell‘urna `e data da w palline bianche (ω = 1) e r palline rosse (ω = 0), la probabilit`a associata alla traiettoria {ω(0), ω(t1), · · · , ω(T )), condizionata a ..., risulta p({ω| X j=1,N ωi = B}) = (b + w)! b−1 x (1 − x)w−1 b! w! (vedi appunti probabilit`a) P In questo caso il processo t → X(t) = ti ≤t ω(ti ) ha memoria (nota che il salto al tempo t `e condizionato dal risultato totale ottenuto fino a quel momento). • Il moto browniano `e un processo stocastico .......................... 3 1.1 processo markoviano, discreto Consideriamo il caso di intervallo [0, T ] ≡ {0, t1 , t2 , · · · , tj , · · · , tN −1 = T } discreto e spazio degli eventi Ω discreto. Mi pare che questa situazione sia ottimale per focalizzare le idee fondamentali della teoria. Possiamo assumere che ti − ti−1 = ∆t sia costante. La probabilit`a p(ω, ω‘|∆t) si dice probabilit`a di salto I processi di markov sono processi stocastici caraterizzati da Y p(ω(t0 ), · · · , ω(tN )) = p(ω(ti ), ω(ti+1 )) i=0,N −1 cio`e in cui le probabilit`a dei successivi salti sono indipendenti Si dice che il processo non ha memoria. 1.1.1 matrice di Markov Se inoltre la probabilit`a di salto `e indipendente dal tempo (iniziale) si parla di processo stazionario. In tal caso li processo `e descritto da una matrice (matrice di Markov) M = [|Ω| × Ω|] Mω←ω‘ (∆t) = p(ω(ti ) = ω, ω(ti−1) = ω‘) e in termini degli elementi della matrice M la probabilit`a della storia {ωo , ω1, · · · , ωN } `e data da p(ωo , ω1 , · · · , ωN ) = MωN ←ωN−1 MωN−1 ←ωN−2 · · · Mω1 ←ω0 La matrice M ha due propriet`a di base: ⇒ 1) Mω←ω‘ ≥ 0 perch`e ogni elemento di matrice `e una probabilit`a (condizionata P di salto) ⇒ 2) ω∈Ω Mω←ω‘ = 1 perch`e qualunque sia l‘evento di partenza assumo di finire in un qualche evento, cio`e assumo di non uscire dallo spazio Ω ( non estenzione del processo) Queste propriet`a implicano che lo spettro di M `e contenuto nella bolla unitaria di C. La matrice M `e matrice di contrazione per la propriet`a (2), µ = 1 `e autovalore, con autovettore sinistro costante P sommando su ω , l‘equazione agli autovalori ω∈Ω P ·Mω←ω‘ α(ω‘) = µ · α(ω) sempre per la propriet`a (2), ho o µ = 1 oppure o a(ω) = 0 P Quindi, prendendo il modulo ω∈Ω ·Mω←ω‘ |α(ω‘)| ≥ |µ| · ka(ω)| 4 (1) ottengo che |µ| ≤ 1 (2) inoltre l‘eguaglianza `e possibile solo se a(ω) = ka(ω)| ovvero l‘autovettore destro corrispondente all‘ autovalore µ = 1 se esiste `e (sceglibile) a componenti positive. 1.1.2 evoluzione misure e distribuzione stazionaria Se α `e una generica misura di probabilit`a definita su Ω il processo di markov induce una evoluzione di questa probabilit`a : P α(ω) → α(ω) = ω Mω←ω‘ α(ω‘) Per esempio si pensi ad Ω come spazio di stati microscopici e α come la misura di probabilit`a che descrive uno stato macroscopico Il processo di markov fa evolvere gli stati microscopici, passo passo con M. Se al tempo iniziale t = 0 ho probabilit`a α(0) (ω) di essere in ω, poich`e al tempo t = 1 lo stato ω `e con probabilit`a Mω‘←ω diventato ω‘ e le probabilit`a di salto `e indipendente da α(0) , ho probabilit`a Mω‘←ω α(ω) di essere P in ω‘. (0) (1) In conclusione la probabilit`a al tempo t = 1 `e data da α (ω‘) = ω Mω‘←ω α (ω) (sommo perch`e c‘`e autoesclusione ...) Le propriet`a base della matrice di Markov garantiscono che α(0)Pa componenti (1) (1) positive P (0) sia trasformato in α a componeti positive e che ω‘ α (ω‘) = e che sia conservata la normalizzazione della misura. ω α (ω) cio` ` immediato scrivere l‘evoluto dopo t passi della misura iniziale α(0) : E α(t) (ω‘) = [M t ]ω‘←ω α(0) (ω) Notate la similitudine con l‘evoluzione MQ via U(t) = [eiH ]t → [M]t Ma ATT! M non `e , in generale, simmetrica. Una misura di probabilit`a π su Ω tale che Mπ = π si dice distribuzione stazionaria (di equilibrio) del processo Se pensiamo che il processo descriva l‘evoluzione del sistema micro questa distribuzione `e lo stato macroscopico di equilibrio termodinamico Data la matrice M non `e detto che esista una corrispondente distribuzione di equilibrio. Il teorema di Frobenius-Perron individua le condizioni di esistenza per una classe di matrici M che soddisfano (oltre le propriet`a base) la condizione di irriducibilit`a La matrice M `e irriducibile se per qualsiasi coppia di stati ω, ω‘ esiste m > 0, finito tale che [M m ]ω←ω‘ > 0. Intuitivamente ci`o significa che qualsisi coppia di stati `e dinamicamente connessa, partendi da ω‘, in un tempo finito, ho probabilit`a non nulla di essere in ω. ` sostanzialmente una propriet`a di ergodicit`a della dinamica aleatoria. E 5 1.1.3 teorema di Frobenius-Perron Per esempio vedi : PerronFrobenius theorem From Wikipedia, the free encyclopedia Let A be an irreducible non-negative nn matrix with period h and spectral radius ρ(A) = r . Then the following statements hold. 1) The number r is a positive real number and it is an eigenvalue of the matrix A, called the PerronFrobenius eigenvalue. 2) The PerronFrobenius eigenvalue r is simple. Both right and left eigenspaces associated with r are one-dimensional. 3) A has a left eigenvector v with eigenvalue r whose components are all positive. Likewise, A has a right eigenvector w with eigenvalue r whose components are all positive. The only eigenvectors whose components are all positive are those associated with the eigenvalue r . 4) Matrix A has exactly h (where h is the period) complex eigenvalues with absolute value r . Each of them is a simple root of the characteristic polynomial and is the product of r with an h-th root of unity. 5) CollatzWielandt formula: for all non-negative non-zero vectors x let f (x) be the minimum value of [Ax]i /xi taken over all those i such that xi 6= 0. Then f is a real valued function whose maximum is the PerronFrobenius eigenvalue. 6) The eigenvalue satisfies the inequalities P PerronFrobeniusP mini j aij ≤ r ≤ maxi j aij ............................................................................................... commenti • periodo h e ciclicit`a Considerando l‘identit`a e le matrici di permutazione come matrici di markov ci si convince che una matrice di markov pu`o avere varie radici dell‘unit`a come autovalori. Questo fatto `e legato alla ciclicit`a del processo. La ciclicit`a comporta la scomposizione dell‘ insieme Ω in vari cluster etc. Nel seguito siamo interessati a escludere queste situazioni, almeno nel caso di Ω finito. Vedi Parisi-Marinari ‘ trattatello ...‘ Nel sequito escluderemo processi ciclici e quindi richiederemo propriet`a di connettivit`a, ergodicit`a etc per la matrice M • l‘unicit`a discende dalla positivit`a delle componenti 6 1.1.4 reversibilit` a e bilancio dettagliato Si dice che il processo di markov soddisfa la condizione di bilancio dettagliato se esiste una vettore χ tale che Mω←ω‘ χ(ω‘) = Mω′ ←ω χ(ω) ∀ω, ω‘ (1.1) P • Osservo chePse sommo questa eguaglianza su ω poich`e Pω Mω←ω‘ = 1 trovo che χ(ω‘) = ω Mω′ ←ω χ(ω) cio`e se χ `e normalizzabile ω χ(ω) < ∞ allora χ `e la distribuzione stazionaria associata ad M (χ = π) • Il significato della condizione di bilancio dettagliato `e legato alla reversibilit`a del processo. In modo sintetico si pu`o dire che [ 1.1] dice, nella distribuzione di equilibrio, la probabilit`a del salto ω → ω‘ `e eguale alla probabilit`a del salto opposto, • Tecnicamente una conseguenza importante del bilancio dettagliato consiste fω‘,ω = π(ω‘)− 21 Mω′ ←ω pi(ω) 21 `e simmetrica. (verifinel fatto che la matrice M care ) f ( e quindi di M) sia reale ed ho µ1 = 1 > Ci`o implica che lo spettro di M µ2 ≥ µ3 · · · ≥ µN ≥ −1 f = P µPµ e sviluppare molte considerazioni in moPosso diagonalizzare M µ do molto semplice. P L‘algebra dell‘evoluzione `e molto semplice M t ∼ µ µt Pµ t In particolare notare che limt→∞ Mω‘,ω = P1 ovvero qualunque sia la distribuzione iniziale il processo la trasforma nella distribuzione stazionaria. 1.2 RV funzioni della traiettoria Consideriamo le variabili aleatorie definite su Ω ( quelle che chiamiamo le ‘osservabili‘ microscopiche) ovvero le funzioni misurabili a valori reali (o vettoriali o altro) tipo f : ω → f (ω) . Abbiamo visto, nel capito sulle probabilit`a, che a variabili aleatorie, fissata una misura su Ω associamo valori di aspettazione, varianze etc... che interpretiamo comePgrandezze macroscopiche: P f →< f >α = ω∈Ω f (ω)α(ω), var 2 = ω∈Ω (f (ω)− < f >)2 α(ω) etc. Qui stiamo studiando un processo e quindi dobbiamo considerare la dinamica indotta dal processo sui valori assunti dalla RV f . come dire che non ci basta conoscere valori medi e varianze ad un certo istante ma dobbiamo conoscere anche le correlazioni fra i valori assunti da f a momenti diversi , < f (t) >, < f (t)f (s) >, etc. 7 In altre parole dobbiamo considerare la famiglia (il processo stocastico) dei varori assunti da f sui vari stati della storia: {f0 (ω0 ), f1 (ω1 ), · · · , fN (ωN )} ( ft `e la RV f misurata al tempo t) Evidentemente la probabilit`a di una sequenza {ft }i=0,N `e la probabilit`a della storia sottostane {ωi }i=0,N Se π(ω) `eP la dstribuzione iniziale avremo che t < ft >= ω,ω‘ f (ω)Mω,ω‘ π(ω‘) P t s < ft+s fs >= ω,ω‘,ω“ f (ω)Mω,ω‘ f (ω ′ )Mω‘,ω“ π(ω“) etc... P t In particolare se π(ω) `e la dstribuzione stazionaria ( ω‘ f (ω)Mω,ω‘ π(ω‘) = π(ω)) allora P < ft >= ω fP(ω)π(ω) ≡< f > time independent t < ft+s fs >= ω,ω‘ f (ω)Mω,ω‘ f (ω ′ )π(ω‘) ≡ gf f (t) funzione solo di t etc. Nota———— Come nel caso MQ passo dalla descrizione di Schrodinger a quella di Heisember qui posso passare dalla descrizione in cui faccio evolvere il macrostato alla descrizione in cui P faccio evolvere le osservabili. t f (ω‘) → ft (ω‘) = ω f ωMω,ω‘ e i valori attesi li prendo con misura fissata al tempo t = 0 —————————————– 1.2.1 serie temporali Il fatto che le RV ft non siano indipendenti ci pone un problema relativo a teoremi come la leggi dei grandi numeri e il teorema del limite centrale per la sequenza delle variabili ft . Che leggi soddisfano la media empirica, la varianza della media, etc. ? P Consideriamo l‘ aspettazione della “somma totale” F (T ) = ft t=0,T P P e calcoliamone la varianza σ (T ) = t ft s fs (per semplicit`a assumiamo < f >= 0) Tutto ci`o che ci serve sapere `e la correlazione temporale g(t) fra le nostre RV, correlazione che assumiamo dipendere solo dall‘intervallo temporale che separa le osservazioni (stazionariet`a del processo). Infatti abbiamo: X X X X X ft fs ] = ft fs = ft ft + ft fs t s t,s t=s t6=s = T gf f (0) + (T − 1)gf f (1) + (T − 1)gf f (−1) + (T − 2)gf f (2) + · · · 8 = |T | T X 1− |h|=0 |h| g(|R|) T (sommo gli addendi per diagonali: v. figura) . . . . . . . . . . . . . . . . . . . . . . . . . . . g(1) (T−1) . . . .g(0) T . . . . g(−1)(T−1) Ora se P+∞ −∞ g(r) = g˜(0) < ∞ ⇒ lim T →∞ X X T −1 [ fi ][ fj = g˜(0) i j P+∞ PT r a(r) →= - E’ Conseguenza del Lemma di Cesaro: 1 − −∞ a(r) 0 T - Scrivo g˜(0) perche’ e’ la trasformata di Fourier di g(r) calcolata in 0 : si dice ’correlazione integrale’ Se si confronta il risultato ottenuto con cio’ che conosciamo nel caso di variabili indipendenti, si vede che la grandezza g(0) = var2 (σ) e’ sostituita dalla dalla grandezza g˜(0). Si pu`o ripetere la dimostarzione alla Chebishev della legge dei grandi numeri < F (T ) > σ (T ) −<f >≥ǫ ≤ 2 2 P T T ǫ (T ) dove, da quanto sopra, σ = T g˜(0) La legge dei grandi numeri continua ad essere valida anche se g˜(0) diverge ma in modo sublineare nel tempo. Schematicamente possiamo considerare i seguenti andamenti della funzione di correlazione temporale per h → ∞: 9 • g(h) → γ costante, `e la massima correlazione permessa, allora g˜(0) diverge linearmente in T e la legge dei grandi numeri cade • g(h) ∼ h−α α > 0 , la correlazione si spegne lentamente, con legge di potenza ( code grasse in gergo) , allora g˜(0) diverge come T 1−α ma la legge continua a valere • g(h) ∼ eh/τ , la correlazione si spegne rapidamente, dopo un tempo ordine τ le RV sono (come) scorrelate, allora g˜(0) ∼ (1 − e1/τ )−1 vale la legge. Notare che posso stimare (...) g˜(0) ∼ τ Nel caso di processi di Markov su Ω discreti e finiti quello che ci apsettiamo `e di trovarci sempre nel terzo caso La dinamica delle fluttuazioni di f definitePcome (∆f )t = (ft − < f >) `e t t data considerando le identit`a (M − P1 )t = P i>1 µi Pi = M − P1 t t t Ora (∆f )t = f M − f P1 = f (M − P1 ) = f ( i>1 µi Pi ) Gli autovalori (diversi dal primo) sono tutti in modulo minori di uno, chiamando µ ‘mixing rate‘ il massimo fra essi e cio`e µ = max(µ2 , |µn |) > |µi | con i 6= 2, n posso dire t >> 1 (∆f )t ∼ f Pµ µt ⇒ ho spegnimento esponenziale In altri termini, le funzioni di correlazione gf f (t) sono funzioni esponenzialmente decrescenti dell‘ intervallo temporale che separa le variabili. Da M t ∼= P1 + µt2 P2 + · segue che < ft f0 > − < f >2 ∼ µt < f Pµ f > + · · · ∼ elog µt cf f Sokal usa ρf f (t) = gf f (t)/gf f (0) normalized autocorrelation cosich`e t 1 ρf f (t) ∼ e− τ e quindi τexp,f = − log max[µ2 , µn ] e definisce τexp,f = lim supt→∞ log ρ−tf f (t) ) Questo tempo, intuitivamente, ci indica quanto dobbiamo aspettare per considerare ’scorrelati’ i valori assunti dalla f , `e il tempo di ‘rilassamento‘del modo pi` u lento nel sistema. t Se vale ρf f (t) ∼ e− τ allora P posso definire un secondo tempo caratteristico 1 del processo τint,f = 2 + t=1,∞ ρf f (t) cosich`e risulta 1 var(f ) = (2τint,f )gf f (0) T 1 Nota che τint,f ∼ 1−µ Simili considerazioni si possono sviluppare per quanto riguarda la legge limite a cui converge la media empirica Svilupperemo questo punto nei sucessivi capitoli. Qui dico solo che sostanzialmente tranne che per il primo caso, vale sempre un teorema del limite ma 10 pu`o accadere `e di uscire dal bacino gaussiano e cadere in un bacino di L`evy. ( rif K L Chung: ‘Markov chains with stationary Transition probabilties’ (spriger 1967)) 1.3 grandezze fondamentali vedi nota da Feller negli appunti MS classica, vedi Kac etc... Il processo di Markov `e caratterizzato da un insieme di (ddp) tempi carateristici che svolgono un ruolo importante per la descrizione del processo stesso. Analizzaeremo queste ddp e le equazioni che li legano con dettaglio nello studio del RW e dei processi di diffusione, per ora mi pare importante darne un elenco e fare qualche commento Indico la probabilit‘a di occupazione ( essere in) dello stato ω‘, al tempo t, condizionata all‘essere in ω al tempo zero, con P (ω‘, t : ω, 0) ≡ < ω‘M t ω > Gli oggetti fondamentali sono: • autocorrelazione temporale: P (ω, t|ω, 0) = PA (ω, t) ; t > 0 definisce la ddp “tempo di ritorno”. • tempo di primo passaggio, tempo di primo ritorno Indichiamo con P1 (ω, t|0, 0) la ddp del tempo di primo passaggio, ovvero la probabilit`a di essere in ω al tempo t per la prima volta (cond. dall‘essere partiti da 0 al tempo 0). Indichiamo con P1R (ω, t) la ddp tempo di primo ritorno, ovvero la probabilit`a di essere in ω per la prima volta essendo partiti da ω stesso al tempo 0 Vale la equazione X P (ω, t|0, 0) = δω,0 δt,0 + P1 (ω, t1|0, 0) P (ω, t2|x, 0) | {z } t1 +t2 =t>0 PA (ω,t2 ) Per l‘origine il tempo di primo passaggio `e tempo di primo ritorno (t > 0 !) e similmente definisco tempo di primo ritorno P1R (ω, t) considerando la precedente equazione con la condizione (..|0, 0) → (..|ω, 0) • ddp tempo di i-simo passaggio Pi (ω, t|0, 0) (`e una p(Ti (x) = t|..)) X ricorsivita‘: i ≥ 2 Pi (ω, t|0, 0) = Pi−1 (ω, t1 )P1R (ω, t2 ) t1 +t2 =t 11 • numero medio stati distinti visitati fino al tempo t : N(t) ( = D(t) P di Itzykson-Drouffe) numero medio siti nuovi visitati al tempo t : ω6=0 P1 (ω, t) P P N(t) = 1 + t‘=1,t ω6=0 P1 (ω, t‘) L‘equazione fondamentale `e p(ω, t|0, 0) = δω,0 δt,0 + X i = δω,0 δt,0 + Pi (ω, t, |00) X P1 (ω, t1 |0, 0) PA (ω, t2) (1.2) t1 +t2 =t>0 Ricordando Feller e Kac `e immediato collegare queste ddp alla ddp di equilibrio del processo studiato. funzioni generatrici In generale la trasformata di laplace nella variable tempo permette di sviluppare uno studio dettagliato di queste distribuzioni di probabilit`a. trasformata di laplace nella variable tempo. Non tocco e non faccio ipotesi sullo spazio. • f-generatrice P della RV ‘tempo medio trascorso in ω ‘: G(ω, λ) = λ t λt P (ω, t|0, 0) P → tempo medio trascorso in ω :G(ω, 1) = t P (ω, t|0, 0) • f-generatrice P della RV ‘prob di almeno una visita in ω per t > 0: Π(ω, λ) = t λt P1 (ω, t) P → prob di almeno una visita in ω 6= 0 : Π(ω, 1) = t P1 (ω, t) ATT! prob di almeno una visita in ω = 0, t > 0 `e la prob. di ritorno (t > 0!) per ω 6= 0 prob di almeno una visita e prob. di ritorno sono grandezze diverse. Indico con Π1R (ω, λ) la f. g. di questa seconda grandezza. • f-generatrice della RV ‘prob di i-sima visita in ω vale l‘equazione ricorsiva Πi+1 (ω, λ) = ΠI (ω, λ)Π1R (ω, λ) i ≥ 1 e quindi Πi+1 (ω, λ) = Π(ω, λ)Π1R (ω, λ)i 0 • f-generatrice P della autocorrealzione temporale di ω : ΠA (ω, λ) = t λt P (ω, t; x, 0) P P → prob di ritorno in ω : P ΠA (ω, 1) = t P (ω, t; x, 0) = t PA (ω, t) Evidentemente ΠA (ω, λ) = i≥1 Π1R (ω, λ)i = 1−Π1R1 (ω,λ) 12 i≥ e in generale posso riscrivere le equazioni fondamentali come G(ω.λ)/λ =δω,0 + Π(ω, λ)ΠA (ω, λ) X = δω,0 + Π(ω, λ) Πi1R (ω, λ) (1.3) i≥0 = δx,0 + Π(ω, λ) 1 1 − Π1R (ω, λ) • f-generatrice della RV ‘siti nuovi visitati fino al tempo‘ N(λ) = N(λ) = X 1 [1 + Π(ω, λ)] (1 − λ) P∞ t‘=1 λt N(t) ω6=0 1.3.1 prob prob prob prob di di di di shema conti e commenti almeno una visita =Π(x), primo ritorno =ΠR (x), non visita 1 − Π(x), una visita, prob di due visite, etc. + + + + + + . . . ... per l‘origine: G(0) = 1 + 1Π(0)[1 − Π(0)] + 2Π2 (0)[1 − Π(0)] + · · · = [1 − Π(0)]−1 per ω 6= 0 G(ω) = Π(ω) + 2Π(ω)ΠR (ω)[1 − ΠR (ω)] + 3Π(ω)Π2R (ω)[1 − ΠR (ω)] + · · · = Π(ω)[1 − ΠR (ω)]−1 Dalla equazione [1.2] si ottengono le relazioni fra le diverse funzioni generatrici con l‘algebra alla Laplace transform. ∀i ≥ 1 Pi+1 (x, t) = X t1 +t2 +t 13 Pi (x, t)P1 (0, t) P t tempo prima visita → almeno una visita : Π(x, λ) = t=∞ t=0 λ P1 (x, t) Pt=∞ t Pt=∞ t Π(0, λ) = t=0 λ P1 (0, t) = t=0 λ PA (x, t) (∀ x) P (x, t) =δx,0 δt,0 + t=∞ X Pi (x, t) i=1 = δx,0δt,0 + P1 (x, t) + + X X P1 (x, t1 )P1 (0, t2 )+ t1 +t2 =t P1 (x, t1 )P1 (0, t2 )P1 (0, t3 ) + · · · t1 +t2 +t3 =t h i ⊗2 ⊗3 = δx,0δt,0 + P1 (x, t) 1 + P1 (0, t) + P1 (0, t) + P1 (0, t) · · · (1.4) convoluzione → prodotto 1 1 G(x, λ) = δx,0 + Π(x, λ) λ 1 − Π(0, λ) (1.5) Simili per N(λ) etc. P (0, t|0, 0) = δt,0 + PA (0, t) ΠA (0, λ) = λ1 G(0, λ) − 1 Π(0,λ) ΠA (0, λ) = 1−Π(0.λ) ——————————————breve commento Nel caso di |Ω| finito esiste un tempo medio Tcov finito necessario per visitare tutti i siti almeno una volta.`e detto tempo di ricoprimento, Per |Ω| finito il tempo medio di ritorno `e 1/π eq (ω) cosich`e G(ω|0) diverge ( come G(ω|0) ∼ T /π eq (x)) inoltre `e sempre Π(ω|0) = 1 (Indico con Π(x|0) la peobabilit`a di almeno una visita in x partendo da 0 e similmente le altre grandezze) Vale sempre la relazione ΠA (ω) =: [1 − Π1R (ω)]−1 1 e per i moti che partano da 0 al tempo zero vale la Π(0) + G(0) =1 (la probabilit`a di non ritorno `e l‘inverso del tempo di permanenza) mentre Π(ω|0) = G(ω|0) [1 − Π1R (ω)] e ΠA (x) = 1/G(x|0) diverge 14 Osservo ancora che dalla finitezza del tempo medio di ritorno 1/π eq (x) segue sostanzialmente G(x, λ) ∼ λ/(1 − λ) e quindi il numero di nuovi siti visitati ha funzione generatrice N(λ) ∼ t 1/(1 − λ) ovvero N(t) ∼ n ( va come N(t) ∼ n(1 − e− τ ) ??) 1.3.2 algebra dell‘evoluzione Le stesse osservazioni via algebra della matrice di markov Nel caso di uno spazio Ω discreto e finito, l‘algebra dell‘evoluzione `e molto semplice e permette di calcolare tutte le grandezze definite sopra. In particolare nel caso in cui il processo soddisfi il bilancio dettagliato (sia time reversible) • la matrice PM `e equivalente ad una matrice simmetrica quindi M ∼ P1 + i>1 µi Pi con P1 = |π >< e| • lo spettro `e µ1 = 1 > µ2 ≥ · · · ≥ µn ≥ −1 (escudiamo µnP= −1 per semplicit`a, per es nei grafi non-bipartiti µn > −1 ) • M t ∼ P1 + i>1 µti Pi Per t → ∞ M t ∼ P1 + µt Pµ dove µ = mixing rate = max(µ2 , |µn |) • l‘ autocerrelazione satura con legge esponenziale PA (x, t) =< xP1 x > +µt < xPµ x > |µ| < 1 anche µ = e−1/τ mix etc. • I tempi di permanenza fino al tempo T sono dati dagli elementi della matrice PT P 1−µT t i t=0 M ∼ T P1 + i>1 [ 1−µi ] Pi PT ovvero t=0 M t ∼ T P1 ∼ T π (stato in esame-stato di partenza, questo ultimo irrilevante) 15 Capitolo 2 Processi di Markov non discreti Ci poniamo due questioni 1) cosa succede quando lo spazio degli stati |Ω| → ∞ ? 2) cosa succede quando il processo diventa un processo continuo, da fisici cosa succede quando ∆t → 0 ? 2.1 |Ω| → ∞ Quando |Ω| → ∞ la matrice diventa una matrice infinita (operatore su opportuno dominio in l2 (Ω)) Se penso alla Mec Stat, |Ω| → ∞ vuol dire fare il limite termodinamico. il teorema di Frobenius Perron pu`o continuare a valere Glimm-Jaffe ............. Let A have a strictly positive kernel let ||A|| = λ be an eigenvalue of A (ATT! `e assunzione) ⇓ Then λ has multiplicity 1, and Ω the corresponding eigenvector can be chosen to be strictly positive function. ( strictly positive kernel: nella realizzazione L2 (X, dν) ... per qualsiasi θ(x) `e Aθ > 0 a.e. segue che per θ, φ positive, non identicamente nulle < θ, Aφ. > `e strettamente positivo) ———— Ma pu`o accadere che il teorema di Frobenius Perron non sia pi´ u valido Lo spettro dell’ operatore pu´o diventare continuo (sempre limitato) e se • l’autovalore massimo 1 diventa inproprio 16 ⇒ π eq 6∈ l1 non esiste pi´ u come misura di equilibrio. in tal caso ⇒ esiste [I − M]−1 che pu´o essere operatore sia limitato che illimitato. R 1 P t La ∞ dPµ = [I − M]−1 definisce il tempo di permanenza in x t=0 M = 1−µ (come < x[I − M]−1 0 >) che quindi pu´o anche essere limitato. Come dire che la probabilit`a di visita pu`o essere minore di uno, essere in x `e un evento transitorio, etc. ———— (The Fredholm alternative) O esiste π eq oppure esiste [I − M]−1 . Let K(x, y) be an integral kernel, and consider the homogeneous equation, the Fredholm R b integral equation, λφ(x) − a K(x, y)φ(y) dy = 0 and the inhomogeneous equation Rb λφ(x) − a K(x, y)φ(y) dy = f (x). The Fredholm alternative states that, for any non-zero fixed complex number λ ∈ C, either the first equation has a non-trivial solution, or the second equation has a solution for all f (x) A sufficient condition for this theorem to hold is for K(x, y) to be square integrable on the rectangle [a, b] × [a, b] (where ”a” and/or ”b” may be minus or plus infinity). ———— ⇒ Ancora l‘ autocerrelazione pu`o essere pwl: 1 trM t → t−a < xM t x >∼ |Γ| R 1 (tipo diffusione pura su reticolo regolare: |Γ| trM t = [dk]d e − −k 2 t = t−d/2 : vedi capitolo RW) • Indipendetemente dal fatto che il primo autovalore resti autovalore proprio o no posso schizzare una storia algebrica del tipo che segue X (M − P1 )t = M t − P1 = µti Pi → · · · i>1 ⇒ Ω finito: sempre µ = max(µ2 , |µn |) tale che per P esiste t t t >> 1 di spegnimento esponenziale i>1 µi Pi ∼ µ Pµ col significato R P ⇒ ma quando Ω va ad infinito i>1 µti Pi ⇒ [1,−1] µt dP (µ) e non posso in generale isolare il secondo autovalore (indipendentemente dal fatto che il primo sia proprio o no). Allora ho fenomeni tipo: 17 R R tr [1,−1] µt dP (µ) = [1,−1] µt n(µ)dµ dove n(µ) `e la densit`a di autovalori. Se n(µ) ∼ (1 − µ)a−1 accade che nell‘intorno di 1 valuto l‘integrale via R R t a−1 t a−1 µ (1 − µ) dµ = (1 − e) e de [1,−1] [0,··· ] R −et a−1 −a ∼ [0,··· ] e e de = t cio`e emergono comportamenti pwl. 1 |Γ| 2.1.1 transizione fase Sostanzialmente nel limite |Ω| → ∞ perdo la irriducibilit`a. Forse meglio dire tempo di autocorrelazione diverge il punto chiave per Ω → ∞ consiste nella possibilit`a che τexp,f → ∞, τint,f → ∞ Per esempio, il tempo di autocorrelazione vicino al punto critico (transizioni di fase del secondo ordine ) diverge come τ = [min(L, ξ)]z dove L `e la dimensione lineare del sistema, ξ `e la lunghezza correlazione e z `e l‘esponente critico dinamico update locali → per avere una configurazione statisticamente significativa (scorrelata) il processo deve eplorare (e cambiare) una regione di dimensione ξ → per un RW gaussiano questo richede τ ∼ ξ 2,. altri ............ In generale la funzione di autocorrelazione ρf f (t) obbedisce a leggi di scala dinamiche: ρf f (t; β) = |t|−a F (β − βc )|t|b ) |t| >> 1 |β − βc | << 1 |β − βc ||t|blim con a, b > 0 e F continua, strettamente positiva, rap. decrescente per argomento divergente. Allora τexp,f ∼ |β − βc |−1/b τ ∼ |β − βc |−(1−a)/b ρ int,f |t|−a f f (t; βc ) ∼ 2.2 ∆t → 0 problema M ∆t problema misure infinitamente divisibili Fer esmpio Feller Vol II, capitolo IX : `e una lettura particolarmente adatta a un fisico perch`e sviluppa argomenti dl tutto simili a MQ. 18 Capitolo 3 simulazioni Monte Carlo Vedi A.D. Sokal Monte Carlo Method in Sattistical Mechanics lectures at the Carg`ese Summer school - september 1996 19
© Copyright 2024 ExpyDoc