Stochastische Prozesse Stoffzusammenfassung Joachim Breitner 14. Mai 2016 Diese Zusammefassung ist natürlich alles andere als vollständig und zu knapp, um immer alle Aussagen mit Voraussetzungen korrekt wiederzugeben. Man verwende sie mit Vorsicht. 1 Vokabeln, Definitionen und äquivalente Charakterisierungen 1.1 Markov-Ketten in diskreter Zeit (Xn )x∈N0 , Xn : Ω → S P = (pij )i,j∈S (n) P (n) = (pij )i,j∈S i j i↔j J ⊆ S abgeschlossen (Xn ) irreduzibel Ti (n) fij fij∗ i rekurrent i transient ν : S → R≥0 ν invariant γk : S → R≥0 mi i positiv rekurrent Markov-Kette mit Zustandsraum S P (Xn+1 = in+i | X0 = i0 , . . . , Xn = in ) = pin in+1 Übergangsmatrix mit Übergangswahrscheinlichkeiten n-Schritt-Übergangsmatrix mit n-Schritt-Übergangswahrscheinlichkeiten (n) ∃n ∈ Npij > 0, „i führt nach j“ i j∧j i, „i kommuniziert mit j“ 6 ∃j ∈ J, i ∈ S \ J : i j (pij , i, j ∈ S) ist stochastische Matrix (Xn ) hat nur eine Äquivalenzklasse bzgl. „↔ ∨ =“ inf{n ∈ N | Xn = i}, „Ersteintrittszeit“ (1) P (Tj = n | X0 = i), insbesondere fij = pij P∞ (n) n=0 fij = Pi (Tj < ∞) ∗ fii = 1 P∞ P∞ (n) n=0 pij = ∞ = Ei ( n=0 1Xn =i ), die erwartete Zahl der Besuche. i nicht rekurrent Maß P Verteilung, wenn gilt: a∈S ν(a) = 1 P ν(i)p = ν(j), also ν = νP i∈S PTk ij Ek ( n=1 1(Xn =i) ), Besucher pro Zyklus invariant, 0 < γk < ∞, eindeutig mit γk (k) = 1, wenn (Xn ) irreduzibel, rekurrent. (Xn ) irreduzibel, transient: stationäre Verteilung existiert nicht. P (n) ∗ Ei (Ti ) = ∞ n=1 n · fii + ∞ · (1 − fii ) i transient =⇒ mi = ∞. mi < ∞ (Xn ) irreduzibel: Stationäre Verteilung existiert ⇐⇒ ein/alle Zustände positive rekurrent. Dann: π(i) = m1i 1 (P h)(i) P pij h(j), vergleiche Matrix-Vektor-Multiplikation. P h ≥ h =⇒ h(Xn ) Sub-Martingal P h = h =⇒ h(Xn ) Martingal P h ≤ h =⇒ h(Xn ) Super-Martingal j∈S 1.2 Markov-Ketten in stetiger Zeit 1.2.1 Poisson-Prozess (A1) t 7→ N (t, ω) ∈ {f : [0, ∞) → N0 | f (0) = 0, f monoton wachsend, f stetig von rechts} (A2) Unabhängige Zuwächse (A3) Identisch verteilte Zuwächse (A4) Ereignisse einzeln: P (Nh ≥ 2) = o(h) für h → 0 Dann gilt: • ∀s, t ≥ 0 : Ns+t − Ns ∼ Po(λt) • Zeit zwischen Sprüngen Exp(λ)-verteilt. Intensitätsmatrix: −λ λ 0 ··· 0 −λ λ 0 . .. 0 −λ λ .. .. . . 1.2.2 Der allgemeine Fall Markov-Eigenschaft P (t) = (pij (t)) Pij SÜMF Q = (qij ) qi P konservativ P (Xtn +h = in+1 | Xtk = ik , k = 1, . . . , n) = P (Xtn +h = in+1 | Xtn = in ) = P (Xt+h = in+1 | Xt = in ) pij (t) := P (Xt = j | X0 = i), Übergangsmatrizenfunktion limt→0 pij (t) = δij , „Standardübergangsmatrizenfunktion“ Instensitätsmatrix p (t)−δ qij := limt→0 ij t ij = p0ij (0) Anschaulich: Kehrwert der Diagonalelemente sagt, wie lange die Kette in dem Zustand bleibt, die anderen Elemente geben die Wahrscheinlichkeit des nächsten Zustands an. −q P ii i∈S qij = 0 1.3 Brownsche Bewegung Gauss-Prozess Brownsche Bew. alle Fidis normalverteilt P (B0 = 0) = 1, P -f.a. Pfade stetig, Bt − Bs unabhängig von Fs , N (0, t − s)verteilt. 2 P : R × B → [0, 1] G Generator Markov-Eigenschaft Fτ Progressiv messbar ⇐⇒ EBt = 0, Cov(Bs , Bt ) = s ∧ t, Gauss-Prozess mit F -f.s. stetigen Pfaden. Stochasticher Kern A 7→ P (x, A) Wahrscheinlichkeitsmaß und x 7→ P (x, A) messbar limt→0 1t (Pt − P0 ) Bei BB: Gf = 12 f 00 P (Xt ∈ A | Fs ) = Pt−s (Xs , A) {A ∈ F | ∀t ≥ 0 : A ∩ {τ ≤ t} ∈ Ft } ∀t ≥ 0 : (s, ω) 7→ Xs (ω) ist B([0, t]) ⊗ Ft -messbar. 2 Formeln Methode des ersten Besuchs: (n) pij = n X (n) (n−k) fij pjj k=1 Übergangswahrscheinlichsgrenzwert bei Periode dj : n·d +r lim p j n→∞ ij ∞ dj X k·dj +r = fij mj k=0 (n) insbesondere ist pij → 0 für mj = ∞, d.h. i transient oder null-rekurrent. Chapman-Kolmogorov-Gleichungen • diskret (n+m) pij = X (n) (m) pik pkj k∈S • stetig pij (t + s) = X pik (t)pkj (s) k∈S • allgemein (eigentlich die Definition von stochastischem Kern) Z Pt+s (x, A) = Ps (y, A)Pt (x, dy) Kolmogorovsche Rückwärts-DGL: P 0 (t) = QP (t) d.h. p0ij (t) = −qi pij (t) + X qik pkj (t) k6=i Kolmogorovsch Vorwärts-DGL: Wann genau gilt die? P 0 (t) = P (t)Q Ist S endlich, kann man P (t) = etQ schreiben. Erfüllt Q die Bedingungen X qij = 0 und 0 < sup |qi i| =: λ < ∞ i∈S j∈S so gilt: 3 ((∗)) • Ist N Poissonprozess und Yn Markov-Kette mit P = E + λ1 Q, dann ist Xt = YNt Markov-Kette mit Intensitätsmatrix Q. • µ ist invariantes Maß ⇐⇒ µQ = 0 • Ist Xn rekurrent, irreduzibel, dann gilt limt→∞ pij (t) = 1 mj qj Ist (Bt ) eine Brownsche Bewegung, dann auch: • (−Bt ), (Ba+t − Ba ), (cB t ) c2 • Zeitumkehr: (tB 1 ) t • Spiegelungsprinzip: Der nach τ gespiegelte Prozess. Eigenschaften der Brownschen Bewegung: • sup Bt = ∞, inf Bt = −∞, also unendlich oft weit hoch und runter. • P -fast-sicher nie Lipschitzs-Stetig P • Totalvariation ∞, quadratische Variation − → t. • Stochastischer Kern Pt (x, ·) = N (x, t) • Gf = 12 f 00 • Ist τ endliche Stoppzeit, dann ist (Bτ +t − Bτ ) verteilt wie (Bt ) und unabhängig von Fτ . • Identisch verteilt sind: Mt := sup0≤s≤t Bs , Mt − Bt , |Bt | • P -fast-sicher Nullstellenmenge perfekt Invarianzprinzip von Dansker: Ist Eξi = 0, 0 < Var(ξi ) =: σ 2 < ∞, Sk = (n) btct)ξbtc+1 , (Xt ) Pk j=1 ξi , Yt = Sbtc + (t − 1 √ := σ n Ynt , dann konvergieren die Wahrscheinlichkeitsmaße Pn schwach gegen P , wobei P so ist, dass die Projektionen πt eine Brownsche Bewegung sind. 3 Wichtige Beweisideen 3.1 Konvergenz gegen stationäre Verteilung Voraussetzungen: (Xn ) irreduzibel, aperiodisch, positiv rekurrent. „Kopplungs-Argument“: (Yn ) Kette mit gleicher Übergangsmatrix, Yn ∼ π, T := inf{n ∈ N | Xn = Yn }. • Zeige P (T < ∞) = 1 • Definiere n Zn := Xn , n ≤ T Yn , n > T • Schätze ab (n) |pij − π(j)| ≤ 2 · Pν̂ (T > n) → P (T = ∞) = 0 4 3.2 µQ = 0 ⇐⇒ µ stationäre Verteilung • P 0 (t) = P (t)Q = QP (t) Rt Rt • =⇒ P (t) = E + Q 0 P (s)ds = E + 0 P (s)dsQ Rt • =⇒ µ = µP (t) = µ + 0 µP (s)dsQ = µ + t · (µQ) = µ 3.3 Solidaritätsprinzip ( (n) i rekurrent, j ∈ K(i), also ∃m, n ∈ N : pij m)pji > 0. Dann ∞ X (k) pjj ≥ k=0 ∞ X (n+m+k) pjj ≥ k=0 ∞ X (n) (k) (m) pji pii pij (m) (n) = pij pji k=0 k=0 4 Verteilungen • N (0, σ 2 ): f (x) = √1 σ 2π exp(− 12 ( σx )2 ) • Exp(λ): f (x) = λe−λx , F (x) = 1 − e−λx , EX = λ1 , Var X = • Po(λ): P (X = k) = λk −λ , k! e ∞ X EX = Var X = λ. 5 1 . λ2 (k) pii = ∞
© Copyright 2024 ExpyDoc