Seminararbeit Kastanek

“Zufallsvariabeln und ihre
Verteilungsfunktionen, Unabhängigkeit von
Zufallsvariabeln, Stochastische Prozesse“
Ausarbeitungen zum Seminarthema
Counterexamples in Probabilities
von
Nicole Kastanek
Wien, 13. Januar 2016
Inhaltsverzeichnis
1 Verteilungsfunktionen von Zufallsvariabeln
3
1.1 Äquivalente Zufallsvariabeln sind identisch verteilt, aber die Umkehrung gilt nicht 3
1.2 X,Y identisch verteilt impliziert nicht, dass XZ, YZ identisch verteilt sind . . . . 4
1.3 n - dimensionale Verteilungsfunktionen . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Absolute Stetigkeit der Verteilung eines Zufallsvektors und seiner Komponenten . 5
1.5 Zusammenhang multivariater Verteilungen und Randverteilungen . . . . . . . . . 5
2 Unabhängigkeit von Zufallsvariabeln
2.1 Diskrete Zufallsvariablen, die paarweise Unabhängigkeit, aber nicht unabhängig
sind . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Abhängige Zufallsvariabeln, wo jede echte Teilmenge unabhängig ist . . . . . .
2.3 Abhängige Zufallsvariabeln X und Y, so dass X 2 und Y 2 unabhängig sind . . .
2.4 Unabhängigkeit von Zufallsvariabeln in Verbindung mit der charaketristischen
Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5 Unabhängigkeit von Zufallsvariabeln in Verbindung mit der Momentenerzeugenden Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6 Diskrete Zufallsvariabeln, welche unkorreliert aber nicht unabhängig sind . . .
2.7 Stetige Zufallsvariabeln, welche unkorreliert aber nicht unabhängig sind . . . .
2.8 E(Y |X) = E(Y ) impliziert nicht die Unabhängigkeit von X und Y . . . . . . .
2.9 Es gibt keine Beziehung zwischen bedingter Unabhängigkeit und stochastischer
Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.10 X,Y und X + Y Possion-verteilt implziert nicht dass X und Y unabhängig sind
7
.
.
.
7
8
9
.
9
.
.
.
.
11
12
13
13
. 14
. 15
3 Stochastische Prozesse
3.1 Ist es möglich einen Wahrscheinlichkeitsraum zu finden auf dem jede beliebiger
stochastischer Prozess definiert werden kann? . . . . . . . . . . . . . . . . . . . .
3.2 Beziehung zwischen Modifikation und ununterscheidar . . . . . . . . . . . . . . .
3.3 Stochastische Prozesse, die Modifikationen voneinander sind und trotzdem verschiedene Eigenschaften besitzen . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4 Stetigkeit des stochastischen Prozess impliziert nicht die Stetigkeit der natürlichen
Filteration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
Literaturverzeichnis
22
2
18
19
19
20
Kapitel 1
Verteilungsfunktionen von
Zufallsvariabeln
Definition 1.1. (Verteilungsfunktion) Eine Funktion F: R → R heißt Verteilungsfunktion im
engeren Sinn, wenn sie folgende Eigenschaften besitzt:
• F ist monoton wachsend
• F ist rechtsstetig
• limx→−∞ F (x) = 0 und limx→∞ F (x) = 1
1.1
Äquivalente Zufallsvariabeln sind identisch verteilt, aber
die Umkehrung gilt nicht
Definition 1.2. X und Y, zwei Zufallsvariabeln heißen äquivalent, wenn die
P (ω : X(ω) 6= Y (ω)) = 0.
Satz 1.3.
Vor.: X und Y äquivalente Zufallsvariabeln
Beh.: X und Y sind identisch verteilt.
Beweis. Seien X und Y äquivalent:
FX (x) = P (ω : X(ω) ≤ x) = P (ω : Y (ω) ≤ x) = FY (x) ∀x ∈ R
Folgendes Beispiel zeigt jedoch, dass die Umkehrung im Allgemeinen nicht gilt.
Beispiel 1.4. Zufallsvariable auf (Ω, F, P ), X sei stetig und symmertisch um 0.
Y := −X =⇒
FY (x) = P ([Y ≤ x]) = P ([−X ≤ x]) =
P ([X ≥ −x]) = P ([X ≤ x]) = FX (x)
3
Aber
P (ω : X(ω) = Y (ω)) = P (ω : X(ω) = −X(ω)) = P (ω : X(ω) = 0) = 0
1.2
X,Y identisch verteilt impliziert nicht, dass XZ, YZ identisch verteilt sind
Seien X, Y identisch verteilte Zufallsvariabeln auf (Ω, F, P ). Es ist bekannt, dass dann für eine
d
B-messbare Funktion g(X) = g(Y ) gilt. Diese Tatsache bringt die Frage auf, ob auch
d
d
X = Y =⇒ XZ = Y Z
für eine beliebige Zufallsvariable Z gilt?
Folgendes Beispiel zeigt, dass die Antwort im Allgemeinen Nein ist.
Beispiel 1.5. Zufallsvariable auf (Ω, F, P ), X sei stetig und symmertisch um 0.
Y := −X, Z := −X =⇒
d
XZ = Y Z
für X, die mit positiver Wahrscheinlichkeit einen Wert ungleich 0 annehmen unmöglich ist, da
XZ = −X 2 und Y Z = X 2 .
Wenn wir die Bedingung, X sei stetig verteilt, im vorigen Beispiel ausschließen, würde zwar
d
für X = 0 p − f s XZ = Y Z gelten, aber der Fall X = 0 p − f s ist im wesentlichen uninteressant.
1.3
n - dimensionale Verteilungsfunktionen
Definition 1.6. (n-dimensionale Verteilungsfuntion) Eine Funktion G: Rn → R heißt (mehrdimensionale) Verteilungsfunktion im engeren Sinn, wenn sie folgende Eigenschaften besitzt:
• G(x1 , . . . , xn ) ist monoton wachsend in jedem Argument
• G(x1 , . . . , xn ) ist rechtstetig wachsend in jedem Argument
• G(x1 , . . . , xn ) → 0 für mindestens ein xi → −∞
G(x1 , . . . , xn ) → 1 für alle xi → ∞, i = 1 . . . n
• Falls ai ≤ bi , i = 1 . . . n und ∆ai bi G(x1 , . . . , xn ) =
G(x1 , . . . , bi , . . . , xn ) − G(x1 , . . . , ai , . . . , xn ) ≥ 0
=⇒ ∆an bn . . . ∆a1 b1 G(x1 , . . . , xn ) ≥ 0
Wenn man die Definition der eindimensionalen Verteilungsfunktion vergleicht mit der mehrdimensionalen Verteilungsfunktion, sieht man, dass im eindimesionalen Fall der letzte Punkt in
der obigen Definition überflüssig ist. Für n > 1 kann man diesen Punkt jedoch nicht weglassen,
wie folgendes Beispiel zeigt
4
Beispiel 1.7. Sei G eine Funktion, die die ersten drei Punkte erfüllt.
0
x < 0 oder y < 0
G(x, y) =
min(1, max(x, y))
sonst
G erfüllt die Bedingungen 1-3 jedoch nicht die 4., da ∆0.2,1 ∆0.2,1 G(x, y) = −0.8 < 0. Um zu
sehen, dass das nicht sein darf betrachten wir folgendes Rechteck R = [0.2, 1] × [0.2, 1] und zwei
unabhängige Zufallsvariabeln X und Y:
P ((X, Y ) ∈ R) = P (0.2 ≤ X ≤ 1, 0.2 ≤ Y ≤ 1) = P (0.2 ≤ X ≤ 1)P (0.2 ≤ Y ≤ 1) =
P (X ≤ 0.2) − P (X ≤ 1) P (Y ≤ 0.2) − P (Y ≤ 1) =
P (X ≤ 0.2, Y ≤ 0.2) − P (X ≤ 0.2, Y ≤ 1) − P (X ≤ 1, Y ≤ 0.2) + P (X ≤ 1, Y ≤ 1) =
G(0.2, 0.2) − G(0.2, 1) − G(1, 0.2) + G(1, 1) =
0.2 − 1 − 1 + 1 = −0.8
1.4
Absolute Stetigkeit der Verteilung eines Zufallsvektors und
seiner Komponenten
Für die nächsten Überlegungen bleiben wir im zwei-dimensionalen Fall. Sei (X,Y) ein Zufallsvektor mit absolut stetiger Verteilung, dann kann man leicht sehen, dass X und Y auch absolut
stetig verteilt sind. Aber gilt auch die umkehrte Aussage?
Beispiel 1.8. Sei X eine Zufallsvariable mit stetiger Verteilung, Y := X. Offensichtlich ist
dann Y auch stetig verteilt. Angenommen der Vektor (X,Y) sei stetig verteilt. Dann existiert
eine Dichte f und es würde gelten
Z Z
f (x, y)dλ(x, y), ∀B ∈ B
(1.1)
P {(X, Y ) ∈ B} =
B
Aber alle Werte des Zufallsvektors (X,Y) sind auf der Linie l : x = y. Wenn wir also für
B = l = {(x, y)|x = y} nehmen, dann ist die linke Seite von 1.1 gleich 1, aber die rechte Seite
ist 0, da das Lebesguemaß einer Linie immer 0 ist.
Somit haben wir ein Beispiel gefunden, wo X und Y absolut stetig sind aber (X,Y) nicht. Dass
heißt die Umkehrung gilt im Allgemeinen nicht.
1.5
Zusammenhang multivariater Verteilungen und Randverteilungen
Falls ein Zufallsvektor (X1 , . . . Xn ) die Verteilungsfunktion F (x1 , . . . xn ) besitzt, so sind die
Randverteilungen Fj (x) = P (Xj ≤ x), j = 1 . . . n P-fs eindeutig bestimmt. Das nächste Beispiel
zeigt, dass die Umkehrung der Aussage im Allgemeinen nicht gelten muss.
Beispiel 1.9. Gegeben sind zwei Wahrscheinlichkeitsdichten:
f (x, y) =
1
4 (1
+ xy), |x| ≤ 1, |y| ≤ 1
0
sonst
5
g(x, y) =
1
4
0
|x| ≤ 1, |y| ≤ 1
sonst
Die Randdichten sind:
R
1
[−1,1] 4 (1 + xy) =
f1 (x) =
0
g1 (x) =
1
2
|x| ≤ 1
0 sonst
1
2
|x| ≤ 1
sonst
g2 (y) =
1
2
0
f2 (y) =
1
2
0
|y| ≤ 1
sonst
|y| ≤ 1
sonst
Wir haben also ein Beispiel gefunden, wo die Randdichten p-fs übereinstimmen, doch die gemeinsamen Dichten unterschiedlich sind.
6
Kapitel 2
Unabhängigkeit von Zufallsvariabeln
Definition 2.1. (Unabhängigkeit von Zufallsvariabeln) X1 und X2 auf (Ω, F, P) heißen unabhängig wenn
P (X1 ∈ B1 , X2 ∈ B2 ) = P (X1 ∈ B1 )P (X2 ∈ B2 )
(2.1)
∀B1 , B2 ∈ B
X1 , ..., Xn heißen unabhängig wenn ∀k 2 ≤ k ≤ n
1 ≤ i1 < ... < ik ≤ n, Bi1 , ..., Bik ∈ B
P (Xi1 ∈ Bi1 , . . . , Xik ∈ Bik ) = P (Xi1 ∈ Bi1 ) . . . P (Xik ∈ Bik )
(2.2)
Bemerkung: Gilt (2.2) für k = 2, heißen die Zufallsvariabeln paarweise unabhängig.
2.1
Diskrete Zufallsvariablen, die paarweise Unabhängigkeit, aber
nicht unabhängig sind
Beispiel 2.2. Sei (X,Y,Z) Zufallsvektor mit Werten (1, 0, 0), (0, 1, 0), (0, 0, 1), (1, 1, 1)
die jeweils mit Wahrscheinlichkeit 41 angenommen werden,
1
4
1
P (X = 0, Z = 1) =
4
1
P (X = 1, Z = 0) =
4
1
P (X = 1, Z = 1) =
4
P (X = 0, Z = 0) =
= P (X = 0)P (Z = 0)
= P (X = 0)P (Z = 1)
= P (X = 1)P (Z = 0)
= P (X = 1)P (Z = 1)
analog für X,Y und für Y,Z . Aber
P (X = 1, Y = 1, Z = 1) 6= P (X = 1)P (Y = 1)P (Z = 1)
7
Um die nächsten Behauptung zu zeigen brauche ich folgende Sätze.
Satz 2.3.
Vor.: Stetige Zufallsvariablen X1 , . . . Xn mit Dichten f1 (x1 ), . . . , fn (xn ).
Beh.: X und Y sind genau dann unabhängig wenn für die gemeinsame Dichte gilt
f (x1 , . . . , xn ) = f1 (x1 ) . . . fn (xn ) ∀x1 , . . . xn ∈ R.
Satz 2.4.
Vor.: X und Y Zufallsvariabeln
Beh.: X und Y sind genau dann unabhängig wenn
P (X ≤ x, Y ≤ y) = P (X ≤ x)P (Y ≤ y) ∀x, y ∈ R.
2.2
Abhängige Zufallsvariabeln, wo jede echte Teilmenge unabhängig ist
Beispiel 2.5. Sei f eine Funktion mit
(2π)−n (1 − cos(x1 ) · . . . · cos(xn )), (x1 , . . . , xn ) ∈ Qn
f (x1 , . . . , xn ) =
0,
sonst
Wobei Qn := [0, 2π]n .
Da cos(x) beschränkt ist mit 1, ist f nicht negativ. Außerdem gilt:
Z
f (x1 , . . . , xn )d(x1 . . . xn ) =
Rn
Z
Z 2π
−n
(1 − cos(x1 ) · . . . · cos(xn ))dx1 d(x2 . . . xn ) =
(2π)
Qn−1 0
Z
−n
(2π)
(2π − sin(2π) · . . . · cos(xn )) − (0 − sin(0) · . . . · cos(xn ))d(x2 . . . xn ) =
Qn−1
Z
(2π)−n
2πd(x2 . . . xn ) =
Qn−1
Z
−n+1
(2π)
1d(x2 . . . xn ) = (2π)−n+1 · (2π)n−1 = 1
Qn−1
Daraus folgt, dass f Wahrscheinlichkeitsdichte ist. Die Randdichten lassen sich analog ausrechnen, z.B.: Für x1 ∈ [0, 2π]
Z
f1 (x1 ) =
f (x1 , . . . , xn )d(x2 . . . xn ) = (2π)−n+1 · (2π)n−2 = (2π)−1
Rn−1
und f1 (x1 ) = 0 sonst.
Wählt man k (Definition 2.1, (2.2)) ungleich n so gilt, für die gemeinsame Dichte von Xi1 . . . Xik :
fXi1 ...Xik (xi1 , . . . , xik ) = (2π)−k = fi1 (xi1 ) . . . fik (xik )
8
Mit Satz 2.3 folgt Xi1 . . . Xik unabhängig aber für xi1 = · · · = xik = 0 gilt
f (x1 , . . . , xn ) = 0 6= (2π)−k = fi1 (xi1 ) · . . . · fin (xin )
und deshalb sind Xi1 . . . Xin abhängig.
2.3
Abhängige Zufallsvariabeln X und Y, so dass X 2 und Y 2
unabhängig sind
Es ist bekannt, dass wenn X,Y unabhängig Zufallsvariabeln sind und g eine beliebige stetige
Funktion, dass dann auch g(X) und g(Y) unabhängig sind. Die umkehrte Aussage gilt dann,
wenn g eine bijektive Funktion ist, im Allgemeinen aber nicht.
Beispiel 2.6. Sei (X, Y ) Zufallsvektor mit gemeinsamer Dichte
f (x, y) =
1
4 (1
+ xy) |x| < 1, |y| < 1
0
sonst
Es gilt f ist Dichte da:
• fX1 ,X2 (x, y) ≥ 0
R
• R2 fX1 ,X2 (x, y)d(x, y) =
f1 (x) =
1
4
R1
−1 (1
1
4
R1 R1
−1 −1 (1
+ xy)dy =
0
1
2
+ xy)dxdy = 1
|x| ≤ 1
sonst
f2 (y) =
1
4
R1
−1 (1
+ xy)dx =
0
1
2
|y| ≤ 1
sonst
Für
x=y=
1
gilt f (x, y) 6= f1 (x)f2 (y)
2
und wegen Satz 2.3 gilt, dass X und Y abhängig sind. Wegen Satz 2.4 bleibt zu zeigen:
P (X 2 < x, Y 2 < y) = P (X 2 < x)P (Y 2 < y)

Z s
s ≤ −1
 0
s
1
+
s
∈
(−1, 1)
P (X < s) =
f1 (x)dx =
 2 2
−∞
1
s≥1
(2.3)
(2.4)
X 2 ∈ [0, 1), x, y ∈ [0, 1)
√
√
√
√
P (X 2 < x, Y 2 < y) = P (− x < X < x, − y < Y < y) =
Z √x Z √y
√ √ (2.3)
1
x y = P (X 2 < x)P (Y 2 < y)
(1
+
uv)dudv
=
√
4 − x − √y
2.4
Unabhängigkeit von Zufallsvariabeln in Verbindung mit der
charaketristischen Funktion
9
Definition 2.7. (Charakteritische Funktion) Sei X eine Zufallsvariable auf einem Wahrscheinlichkeitsraum (Ω, F, P). Die Funktion
φ(t) = E(eitX ) t ∈ R
heißt charakteristische Funktion.
Satz 2.8.
Vor.: X1 , X2 unabhängige Zufallsvariabeln, φ1 , φ2 ihre charakteristischen Funktionen und φ
sei die charakteristische Funktion von X1 + X2 .
Beh.: Dann gilt φ = φ1 φ2 .
Wir können uns nun folgende Frage stellen: Seien φ1 , φ2 , φ die charakteristischen Funktionen
von X1 , X2 und X1 + X2 und es gilt φ = φ1 φ2 , impliziert dies, dass X1 und X2 unabhängig
sind? Folgendes Beispiel soll zeigen, das die Antwort im Allgemeinen Nein ist.
Beispiel 2.9. ei (X,Y) ein Zufallsvektor mit gemeinsamer Dichte
1
2
2
4 (1 + xy)(x − y ), |x| ≤ 1, |y| ≤ 1
f (x, y) =
0
sonst
Die Randdichten sind:
1
2 |x| ≤ 1
f1 (x) =
0 sonst
f2 (y) =
1
2
0
|y| ≤ 1
sonst
Für x = 12 , y = 12 gilt f (x, y) < f (x)f (y) und mit Satz 2.3 folgt, dass X und Y abhängig sind.
Da X und Y identisch verteilt sind, gilt:
Z 1
1
1 it
sin(t)
itY
φ1 (t) = φ2 (t) = E(e ) =
eity dy =
(e − e−it ) =
2
2it
t
−1
Nun müssen wir g(z) die Dichte von Z := X + Y bestimmen.
Z
P (Z ≤ z) = PZ ((t, u) : t + u ≤ z) =
fZ (t, u)d(t, u) =
Z
∞
Z
{(t,u):t+u≤z}
Z ∞Z z
z−t
fZ (t, u)dudt =
−∞
−∞
−∞
Z
−∞
z
Z
−∞
fZ (t, |v {z
− }t)dvdt =
−∞
|
=u
∞
fZ (t, v − t)dt dv
{z
}
g(v):=
Damit fZ (v) 6= 0 : |t| ≤ 1 und |v − t| ≤ 1 =⇒ v − t ≤ 1 und −v + t ≤ 1
v − t ≤ 1 ⇔ v − 1 ≤ t und −v + t ≤ 1 ⇔ t ≤ 1 + v
Z
∞
Z
∞
fZ (t, v − t)dt =
g(v) =
−∞
−∞
1
(1 + t(v − t)(t2 − (v − t)2 )1[−1,1] 1[v−1,v+1] dt
4
10
Daraus folgt für v > 2 gilt g(v) = 0 und ür v < −2 gilt g(v) = 0.
Für 0 ≤ v ≤ 2:
Z min{1,1−v}
Z 1+v
1
1
(1 + t(v − t)(t2 − (v − t)2 )dt =
(1 + t(v − t)(t2 − (v − t)2 )dt =
g(v) =
4
4
− max{−1,v−1}
−1
Z 1+v
1
1
(1 + v 3 t + 3v 2 t2 − 2vt3 )dt = (2 + x)
4
4
−1
Analog für −2 ≤ v ≤ 0
Z 1
1
1
g(v) =
(1 + t(v − t)(t2 − (v − t)2 )dt = (2 − x)
4
4
v−1
Insgesamt ergibt sich
 1
 4 (2 + x) 0 ≤ v ≤ 2
1
(2 − x) −2 ≤ v ≤ 0
g(v) =
 4
0
|v| > 2
=⇒ φ(t) = E(eit(X+Y ) ) =
1
0
Z 2
1
1
eitz (2 + z)dz +
eitz (2 − z)dz =
4
4
−1
−2
0
Z 0
Z 0
Z 0
Z
1
1
1
1 0 itz
eitz dz +
eitz z dz +
eitz dz −
e z dz =
2 −2
4 −2
2 −2
4 −2
Z
Z 0
Z 2
1 2 −2it
1 0 itz
1 2 −2it
1 itz
1 itz
e dz +
e
−
e z dz −
e
−
e z dz =
2 −2
4 it
4 it
−2 it
0 it
Z
eitz g(z)dz =
Z
e2it − e−2it e−2it 1 − e−2it e2it e−2it − 1
+
−
−
+
=
2it
2it
(2it)2
2it
(2it)2
sin(t) 2
(eit − e−it ) 2
(
) =(
) = φ1 (t)φ2 (t)
2it
t
2.5
Unabhängigkeit von Zufallsvariabeln in Verbindung mit der
Momentenerzeugenden Funktion
Definition 2.10. (Momentenerzeugende Funktion) Sei X eine Zufallsvariable auf einem Wahrscheinlichkeitsraum (Ω, F, P). Die Funktion
M(t) = E(etX ) t ∈ R oder C
sofern dieser Erwartungswert auf der rechten Seite existiert.
Satz 2.11.
Vor.: X1 , X2 unabhängige Zufallsvariabeln, M1 , M2 ihre Momentenerzeugenden Funktionen und M sei die Momentenerzeugende Funktion von X1 + X2 .
Beh.: Dann gilt M(t) = M1 (t)M2 (t).
11
Analog zur charakteristischen Funktion, können wir uns nun wieder folgende Frage stellen: Seien M1 , M2 , M die Momentenerzeugenden Funktionen von X1 , X2 und X1 + X2 und es gilt
M(t) = M1 (t)M2 (t), impliziert dies, dass X1 und X2 unabhängig sind? Folgendes Beispiel soll
uns eine Antwort auf die Frage liefern.
Beispiel 2.12. Sei (X,Y) ein diskreter Zufallsvektor
1
2
3
1
2
18
1
18
3
18
2
3
18
2
18
1
18
3
1
18
3
18
2
18
Y
X
Daraus folgt
P (X = 1) = P (X = 2) = P (X = 3) =
1
1
u. P (Y = 1) = P (Y = 2) = P (Y = 3) =
3
3
Das heißt X und Y sind identisch verteilt. Für die Bilder von Z := X + Y gilt dass sie in
{2, 3, 4, 5, 6}.
P (Z = 2) = P (X = 2 − Y ) =
X
P (X = k, Y = 2 − k) = P (X = 1, Y = 2 − 1) =
y∈1,2,3
1
9
analog kommt man auf die anderen Wahrscheinlichkeiten der Bilder von Z, nämlich 29 , 39 , 29 , 19 .
Da X und Y identisch verteilt sind gilt für die Momentenerzeugenden Funktionen:
1
MX (t) = MY (t) = E(exp(zY )) = (exp(z) + exp(2z) + exp(3z))
3
Da für die Momentenerzeugende für Z gilt:
1
MZ (t) = E(exp(zZ)) = (exp(2z) + 2 exp(3z) + 3 exp(4z) + 2 exp(5z) + exp(6z))
9
Folgt insgesamt MX (t)MY (t) = MZ (t) aber X und Y sind nicht unabhängig da
P (X = 1, Y = 2) =
2.6
1
1
6= = P (X = 1)P (Y = 2)
18
9
Diskrete Zufallsvariabeln, welche unkorreliert aber nicht
unabhängig sind
Definition 2.13. (unkorreliert) Zwei integrierbare Zufallsvariabeln X u. Y , mit XY ebenfalls
integrierbar, heißen unkorreliert, wenn Cov(X, Y ) = 0.
12
Es ist bekannt, dass, wenn X und Y integrierbar und unabhängig sind, dann sind sie unkorreliert. Jedoch ist die Eigenschaft der Unkorreliertheit schwächer als die der Unabhängigkeit.
Beispiel 2.14. Sei η eine diskrete Zufallsvariable mit den Werten {0, π2 , π}, die jeweils mit
Wahrscheinlichkeit 31 angenommen werden.
X = sin(η), Y = cos(η) Es gilt:
1
π 1
1
1
E(X) = sin(0) + sin( ) + sin(π) =
3
2 3
3
3
π 1
1
1
E(Y ) = cos(0) + cos( ) + cos(π) = 0
3
2 3
3
1
π
π 1
1
E(XY ) = sin(0)cos(0) + sin( )cos( ) + sin(π)sin(π) = 0
3
2
2 3
3
=⇒ X, Y unkorreliert, da Cov(X, Y ) = E(XY ) − E(X)E(Y ). Aber X und Y sind funktionell
abhängig da
X2 + Y 2 = 1
und daher nicht unabhängig.
2.7
Stetige Zufallsvariabeln, welche unkorreliert aber nicht unabhängig sind
Es gilt auch für stetige verteilte Zufallsvariabeln, dass Unabhängigkeit eine stärkere Eigenschaft
ist, als Unkorreliertheit.
Beispiel 2.15. X ∼ N (0, 1) und Y := X 2 − 1. Es gilt E(X) = 0 und da sich der 3. Moment von einer N (µ, σ 2 ) Zufallsvariable V ausrechnen lässt durch
E(V 3 ) = µ3 + 3µσ 2
gilt:
E(XY ) = E(X 3 ) − E(X) = 0
Damit sind X und Y unkorreliert, aber nicht unabängig.
2.8
E(Y |X) = E(Y ) impliziert nicht die Unabhängigkeit von X
und Y
Wir kommen nun zum Thema bedingter Erwartungswert. Es gilt folgende Aussage:
Satz 2.16.
Vor.: Y ist eine Zufallsvariable mit existierenden Erwartungswert auf einem Wahrscheinlichkeitsraum (Ω, F, P), A Subsigmaalegbra und σ(Y ) ist unabhängig von A
Beh.: Es gilt E(Y |A) = E(Y ).
Die Frage ist nun ob auch die umgekehrte Aussage gilt oder nicht.
Beispiel 2.17. Seien X und Z unabhängige intergrierbare Zufallsvariablen.X ist diskret und
13
nimmt mit positiver Wahrscheinlichkeit den Wert 1 und den Wert 2 an. Z ist symmetrisch um
0 mit P(Z = 0) < 1.
Z
X
Y :=
E(|Y |) = E(
|Z|
) ≤ E(|Z|) < ∞ =⇒ Y integrierbar.
|X|
Es gilt E(Z) = 0 da:
Z
∞
sym
Z
∞
−∞
Z
−∞
Z
xf (x)dx = −E(Z)
−∞
∞
−∞
∞
−xf (x)dx = −
zf (−z)dz = −
zf (z)dz =
E(Z) =
mit x := −z
dx
= −1 ⇔ dz = −dx
dz
=⇒ E(Z) = 0. Damit folgt
E(Y ) = E(
Z
1
) = E(Z) E( ) = 0
| {z } X
X
=0
Z
1
E(Y |σ(X)) = E( |σ(X)) = E(Z|σ(X)) = 0 =⇒ E(Y |σ(X)) = E(Y )
X
X
Damit gilt E(Y |X) = E(Y ) aber X und Y sind nicht unabhängig, da:
Annahme: X und Y sind unabhängig. Dann gilt für ein a > 0 beliebig:
P (Z > a, X = 1)
P (Y > a, X = 1)
=
= P (Z > a)
P (X = 1)
P (X = 1)
P (Y > a, X = 2)
P (Z > 2a, X = 2)
P (Y > a) = P (Y > a|[X = 2]) =
=
= P (Z > 2a)
P (X = 2)
P (X = 2)
=⇒ P (Z > a) = P (Z > 2a)
P (Y > a) = P (Y > a|[X = 1]) =
=⇒ P (a < Z < 2a) = P (Z > a) − P (Z > 2a) = 0
Da a > 0 beliebig war ist dies ein Widerspruch zu P (Z = 0) < 1. Damit ist gezeigt, dass die
Umkehrung im Allgemeinen nicht gilt.
2.9
Es gibt keine Beziehung zwischen bedingter Unabhängigkeit
und stochastischer Unabhängigkeit
Definition 2.18. Sei (Ω, F, P ) ein Wahrscheinlichkeitsraum, A, B ∈ F, P (B) > 0 Dann ist die
bedingte Wahrscheinlichkeit von A unter der Bedingung B definiert durch:
P (A|B) =
P (A ∩ B)
P (B)
14
Definition 2.19. (Bedingte Unabhängigkeit) Zwei Ereignisse A und B heißen bedingt unabhängig gegeben C mit P (C) > 0, wenn
P (A ∩ B|C) = P (A|C)P (B|C)
Intuitiv erwartet man vermutlich einen engen Zusammenhang zwischen der bedingten Unabhängigkeit und der stochastischen Unabhängigkeit. Die nächsten Beispiele zeigen, dass keines
der beiden das andere impliziert.
Beispiel 2.20. Seien X und Y unabhängige Bernoulli-verteilte Zufallsvariabeln mit p = 14 .
S := X + Y . Für S ∈ {0, 2} gilt X = Y = 0 oder X = Y = 1.
P (X = 1 ∩ Y = 1|S ∈ {0, 2}) =
P (X = 1, Y = 1, S ∈ {0, 2})
=
P (S ∈ {0, 2})
1
16
1
16
9
16
=
1
10
+
P (X = 1, S ∈ {0, 2}) P (Y = 1, S ∈ {0, 2})
P (X = 1|S ∈ {0, 2})P (Y = 1|S ∈ {0, 2}) =
=
P (S ∈ {0, 2})
P (S ∈ {0, 2})
1 1
16 16
1
9 2
( 16
+ 16
)
=
1
102
Das zeigt, dass P (A ∩ B) = P (A)P (B) nicht impliziert, dass P (A ∩ B|C) = P (A|C)P (B|C).
Beispiel 2.21. Seien X,Y und Z unabhängige, Bernoulli-verteilte ZV mit p = 13 .
Sei S3 := X + Y + Z, S2 = X + Y . Dann sind X und S nicht unabhängig da
P (X = 0, S3 = 3) = 0 6=
2 1
= P (X = 0)P (S3 = 3)
3 33
Aber für P (S2 = k) > 0 :
P (X = i, S3 = j, S2 = k)
P (X = i, Z = j − k, S2 = k)
=
=
P (S2 = k)
P (S2 = k)
P (X = i, S2 = k)
P (Z = j − k)
P (Z = j − k) = P (X = i|S2 = k)
P (S2 = k) =
P (S2 = k)
P (S2 = k)
P (S3 = j, S2 = k)
P (X = i|S2 = k)
= P (X = i|S2 = k)P (S3 = j|S2 = k)
P (S2 = k)
P (X = i, S3 = j|S2 = k) =
2.10
X,Y und X + Y Possion-verteilt implziert nicht dass X und
Y unabhängig sind
Definition 2.22. (Poisson-Verteilung)Eine Zufallsvariable X besitzt eine Poisson-Verteilung
mit Parameter λ (kurz: X ∼ P (λ) ), falls gilt:
P (X = k) = e−λ
λk
, k = 0, 1, 2 . . .
k!
15
Es gilt, wenn X und Y unabhängige Possion verteilte Zufallsvariabeln sind, dann ist die Summe
X + Y auch Possion verteilt. Die Frage ist ob man, wenn man weiß, dass X, Y und die Summe
X + Y Poisson verteilt sind darauf schließen kann, dass X und Y unabhängig sind? Im nächsten
Beispiel werden wir sehen, dass es im Allgemeinen nicht gilt.
Beispiel 2.23. Seien X und Y Possion-verteilte Zufallsvariabeln mit Parametern λ1 und λ2 .
Ihre Verteilungen sind gegeben mit {qi , i = 0, 1 . . . } und {rj , j = 0, 1 . . . } wobei
qi = P (X = i) und rj = P (X = j). Wir nehmen zwei Mengen A:={(0, 1), (1, 2), (2, 0)} und
B:={(0, 2), (2, 1), (1, 0}. Die gemeinsame Verteilung von X und Y ist definiert durch pij :=
P (X = i, Y = j)

 qi rj + , (i, j) ∈ A
qi rj − , (i, j) ∈ B
pij =

qi rj
sonst
so dass 0 < || < min((i,j)∈ A∪B) qi rj
Zuerst zeigen wir, dass pij , i = 0, 1, . . . j = 0, 1, . . . eine zwei dimensionale diskrete Wahrscheinlichkeitsverteilung ist.
1. pij ≥ 0 folgt aus der Definition unseres 2.
X
i,j
pij =
X
(qi rj + ) +
(i,j)∈A
X
X
(qi rj − ) +
qi rj =
(i,j)∈A∪B
/
(i,j)∈B
X
qi rj =
i,j
X
qi
X
i
rj = 1
j
da qi und rj Verteilungen sind.
Außerdem gilt, dass X + Y Possion-verteilt ist da:
P (X + Y = k) = P (X = k − Y ) =
k
X
pk−y,y
y=0
Für k = 1
P (X + Y = k) = q1 r0 − + q0 r1 − =
k
X
qk−y ry
y=0
Für k = 2
P (X + Y = k) = q2 r0 + + q1 r1 + q0 r2 − =
k
X
qk−y ry
y=0
Für k = 3
P (X + Y = k) = q3 r0 + q2 r1 − + q1 r2 + + q0 r3 =
k
X
y=0
16
qk−y ry
Sonst:
P (X + Y = k) =
k
X
qk−y ry
y=0
Und es gilt:
k
X
y=0
qk−y ry =
k
X
y=0
−λ1
e
y
λk−y
−λ2 λ2
1
e
=
k − y!
y!
k
1
1 −(λ1 +λ2 ) X
k!
e
λk−y λy2 = e−(λ1 +λ2 ) (λ1 + λ2 )k
k!
(k − y)!i! 1
k!
y=0
Daraus folgt, dass X+Y Poisson verteilt ist mit Parameter λ1 + λ2 . Aber X und Y sind nicht
unabhängig da:
P (X = 0, Y = 1) = p01 = q0 r1 + 6= q0 r1 = P (X = 0)P (Y = 1)
17
Kapitel 3
Stochastische Prozesse
Im letzten Teil meiner Seminararbeit widme ich mich dem Thema Stochastische Prozesse.
Definition 3.1. (Stochastischer Prozess) Ein stochastischer Prozess X = (Xt t ∈ T ) ist eine
Familie von reellen Zufallsvariabeln, die auf einem Wahrscheinlichkeitsraum (Ω, F, P) definiert
sind.
X : (Ω × T) → Rn
(ω, t) 7→ Xt (ω)
Bemerkung: Die Menge T heißt Paramterraum des Prozesses X. Beliebte Wahlen dafür sind
N, Z oder R+ .
Definition 3.2. Die Abbildung t 7→ Xt (ω) nennt man Trajektorie oder Pfad. X heißt p-fs stetig
wenn alle Pfade p-fs stetig sind.
3.1
Ist es möglich einen Wahrscheinlichkeitsraum zu finden auf
dem jede beliebiger stochastischer Prozess definiert werden
kann?
Da es einen universalen Wahrscheinlichkeitsraum gibt, auf dem jede beliebige Zufallvariable
definiert werden kann (Ash 1972), stellt sich die Frage, ob es auch möglich ist einen Wahrscheinlichkeitsraum zu finden, auf dem jeder beliebiger stochastischer Prozess definierbar ist.
Beispiel 3.3. Angenommen es gäbe einen. Sei (Ω, F, P) dieser ein Wahrscheinlichkeitsraum.
Wähle |T| > |F|.
X = (Xt t ∈ T ), Xt ´s sind unabhängig
P (Xt = 0) = P (Xt = 1) = 1/2
=⇒ ∃t1 6= t2 , t1 , t2 ∈ R mit P (ω : Xt1 = Xt2 ) = 1
Dann gilt aber:
1/2 = P (Xt1 = 1) = P (Xt1 = 1, Xt2 = 1) = P (Xt1 = 1)P (Xt2 ) = 1/4
Wir haben also gesehen, dass F mindesten gleichviele Elemente besitzen muss wie T .
18
3.2
Beziehung zwischen Modifikation und ununterscheidar
Definition 3.4. Seien X = (Xt , t ∈ T) und Y = (Yt , t ∈ T) zwei stochastische Prozesse auf
dem selben (Ω, F, P ) mit dem selben Bildbereich (E, E). Dann heißt X eine Modifikation von Y
wenn
∀t ∈ T : P (ω : Xt (ω) = Yt (ω)) = 1
Definition 3.5. (Ununterscheidbar ) Seien X = (Xt , t ∈ T) und Y = (Yt , t ∈ T) zwei stochastische Prozesse auf dem selben (Ω, F, P ) mit dem selben Bildbereich (E, E). Dann heißen X und
Y ununterscheidbar wenn
[
P(
: Xt (ω) 6= Yt (ω)) = 1
t∈T
Bemerkung: Man kann zeigen, dass wenn T abzählbar ist, X und Y ununterscheidbar sind
genau dann, wenn Y eine Modifikation von X ist.
Das folgende Beispiel zeigt aber, dass Unterschiede zwischen den Definitionen auftreten können
wenn T überabzählbar ist.
Beispiel 3.6. Sei (Ω, F, P ) ein Wahrscheinlichkeitsraum Ω = [0, 1], F = B([0, 1]) und T = [0, 1].
τ sei eine auf [0,1]-gleichverteilte Zufallsvariable und
X=(Xt , t ∈ T) und Y = (Yt , t ∈ T), zwei stochastische Prozesse mit Xt (ω) = 0 und
Yt = 1τ =t (ω)t ∈ T.
Dann gilt:
∀t ∈ T : P (ω : Xt (ω) 6= Yt (ω)) = P (τ = t) = 0
Also ist Y eine Modifikation von X, aber X und Y sind ununterscheidbar da
[
P(
: Xt (ω) 6= Yt (ω)) = P ([0, 1]) = 1 6= 0
t∈T
3.3
Stochastische Prozesse, die Modifikationen voneinander sind
und trotzdem verschiedene Eigenschaften besitzen
Beispiel 3.7. X=(Xt , t ∈ T) und Y = (Yt , t ∈ T), zwei stochastische Prozesse und τ ≥ 0 eine
Zufallsvariable mit stetiger Verteilung,
Xt (ω) = 1[τ (ω)≤t] (ω) und Yt (ω) = 1[τ (ω)<t] (ω), X0 = Y0 = 0
Dann sind X und Y Modifikationen voneinander da:
P (ω : Xt (ω) 6= Yt (ω)) = P (ω : τ (ω) = t) = 0
Aber wenn wir uns die Pfade der zwei stochastischen Prozesse ansehen, bemerken wir dass X
rechtsstetig ist und Y hingegen linksstetig.
19
Abbildung 3.1: Trajektorie von X, mit τ (ω) = τ0
Abbildung 3.2: Trajektorie von Y, mit τ (ω) = τ0
3.4
Stetigkeit des stochastischen Prozess impliziert nicht die
Stetigkeit der natürlichen Filteration
Sei X=(Xt , t ∈ T) dann heißt die Familie (Ft , t ≥ 0) wobei Ft := σXs , s ≤ t die natürliche
Filteration. Um über die Stetigkeit von Filterationen zu diskutieren, müssen wir den Begriff
Stetigkeit für Filterationen zuerst einmal definieren.
Definition 3.8. Der rechte Grenzwert einer Filteration
T ist definiert durch Ft+ :=
Eine Filteration heißt rechtsstetig wenn Ft = Ft+ = s>t Fs ∀t ≥
W 0.
Der linke Grenzwert einer Filteration ist definiert durch
W Ft− := s>t Fs .
Eine Filteration heißt rechtsstetig wenn Ft = Ft+ = s>t Fs ∀ t ≥ 0.
Sie heißt stetig genau dann wenn sie rechts- und linksstetig ist.
T
s>t Fs .
Die Frage, die wir uns nun stellen ist, ob man behaupten kann, dass die Stetigkeit des stochastischen Prozess die Stetigkeit der natürlichen Filteration impliziert. Folgendes Beispiel widerlegt
aber diese Behauptung.
Beispiel 3.9. Ω = [0, 1], F = B([0, 1]) und das Lebesgue-Maß λ.
Wähle h ∈ C ∞ (R+ ) und zwar so dass h(x) = 0, x ∈ [0, 21 ], h(x) > 0, sonst und h(x) streng
20
monoton wachsend auf [ 21 , ∞).
X = (Xt , t ∈ T) wobei
Xt (ω) := ωh(t), ω ∈ Ω, t ≥ 0
Dann gilt, dass die Pfade von X stetig sind (Zusammensetzung stetiger Funktionen), somit ist
X stetig. Aber Ft := σ(Xs , s ≤ t) ist {∅, Ω} für t ∈ [0, 12 ], da Xt für t ∈ [0, 12 ] konstant 0 ist und
B für t ∈ [ 21 , ∞), da h(t) und somit Xt streng monoton wachsend ist für ω > 0. Das impliziert
aber das Ft nicht stetig ist, da F 1 + = B und F 1 = {∅, Ω} ist.
2
2
21
Literaturverzeichnis
Grill, Karl (2011): Theorie Stochastischer Prozesse. Institut für Statistik und Wahrscheinlichkeitstheorie (TU Wien) – Vorlesungsskript
Kredler, Christian (2003): Einführung in die Wahrscheinlichkeitsrechnung und Statistik.
Technische Universität München – Vorlesungsskript
Kusolitsch, Norbert (2014): Maß- und Wahrscheinlichkeitstheorie. 2. Auflage. Springer
Spektrum
Stoyanov, Jordan M. (2013): Counterexamples in Probabilities. 3. Auflage. Dover Books
22