Beispiel 6 (Multivariate Normalverteilung) Sei X ∼ N(µ,Σ) . Es

Beispiel 6 (Multivariate Normalverteilung)
d
Sei X ∼ N (µ, Σ). Es existiert eine Matrix A ∈ IRd×k , sodass X = µ+AZ
wobei Z ∈ Nk (0, I) und AAT = Σ. Weiters gilt Z = RS wobei S ein
gleichmäßig verteilter Zufallsvektor in S k−1 ist und R2 ∼ χ2k . Daraus
d
folgt X = µ + RAS und daher X ∼ Ed (µ, Σ, ψ) mit ψ(x) = exp{−x/2}.
Beispiel 7 (Multivariate normal variance mixture)
Sei Z ∼ Nd (0, I) ein normal-verteilter Zufallsvektor. Z ist sphärischd
verteilt mit stochastischer Darstellung Z = V S wobei V 2 = ||Z||2 ∼ χ2d .
Sei X = µ+W AZ eine Varianz-gemischte Normalverteilung. Dann gilt
d
X = µ + V W AS wobei V 2 ∼ χ2d und V W eine nicht-negative von S
unabhängige ZV ist. D.h., X ist elliptisch verteilt mit R = V W .
17
Theorem 5 (Eigenschaften der elliptischen Verteilung)
Sei X ∼ Ek (µ, Σ, ψ). X hat folgende Eigenschaften:
Lineare Kombinationen:
Für B ∈ IRk×d und b ∈ IRk gilt:
BX + b ∈ Ek (Bµ + b, BΣB T , ψ).
Randverteilungen:
T
T
(2)
T
(1)
,X
Setze X = X
für
T
T
X (1) = (X1 , X2, . . . , Xn)T und X (2) = (Xn+1 , Xn+2, . . . , Xk )T und
analog
(1,1)
(1,2)
T
T
Σ
Σ
. Es gilt dann
µT = µ(1) , µ(2)
sowie Σ =
Σ(2,1) Σ(2,2)
X1 ∼ Nn µ(1) , Σ(1,1) , ψ und X2 ∼ Nk−n µ(2) , Σ(2,2) , ψ .
18
Bedingte Verteilungen:
Wenn
Σ regulär, dann ist auch
X (2) X (1) = x(1) elliptisch verteilt:
wobei
die
bedingte
Verteilung
(1)
(2) (1)
= x ∼ Nk−n µ(2,1) , Σ(22,1) , ψ̃
X X
(2,1)
µ
(2)
=µ
(2,1)
+Σ
und
(22,1)
Σ
(2,2)
=Σ
(1,1)
Σ
(2,1)
−Σ
−1 (1)
(1)
x −µ
(1,1)
Σ
−1
Σ(1,2) .
Typischerwise sind ψ̃ und ψ unterschiedlich
(siehe Fang, Katz und Ng 1987).
19
Quadratische Formen:
Wenn Σ regulär, dann gilt
D2 = (X − µ)T Σ−1 (X − µ) ∼ R2.
wobei R die nicht-negative ZV aus der stochastischen Darstellung
(d−1)
Y = RS der spherischen Verteilung Y mit S ∼ U S
und
X = µ + AY ist. Die Zufallsvariable D heißt Mahalanobis Distanz.
Faltung:
Seien X ∼ Ek (µ, Σ, ψ) und Y ∼ Ek (µ̃, Σ, ψ̃) zwei unabhängige
Zufallsvektoren. Es gilt dann X + Y ∼ Ek (µ + µ̃, Σ, ψ̄) wobei ψ̄ =
ψ ψ̃.
Achtung: Σ muss i.a. dieselbe für X und Y sein.
Anmerkung: Aus X ∼ Ek (µ, Ik , ψ) folgt nicht, dass die Komponenten
von X unabhängig sind. Die Komponenten von X sind dann und nur
dann unabhängig wenn X multivariat normalverteilt mit der Einheitsmatrix als Kovarianzmatrix ist.
20
Koherente Risikomaße
Sei (Ω, F, P ) ein Wahrscheinlichkeitsraum mit Ereignismenge Ω,
Ereignisalgebra F und Wahrscheinlichkeitsmaß P .
Sei L(0) (Ω, F, P ) die Menge aller Zufallsgrößen aus (Ω, F), die fast
sicher endlich sind.
Sei M ⊆ L(0).
Sei ρ: M → IR ein Risikomaß in M
Definition 6 Ein Risikomaß ρ, das folgende Eigenschaften besitzt,
heißt koherent auf M :
(C1) Invarianz bzgl. Translation:
ρ(X + r) = ρ(X) + r, für jede Konstante r und jedes X ∈ M .
(C2) Subadditivität:
∀X1 , X2 ∈ M gilt ρ(X1 + X2 ) ≤ ρ(X1 ) + ρ(X2).
(C3) Positive Homogenität:
ρ(λX) = λρ(X), ∀λ ≥ 0, ∀X ∈ M .
(C4) Monotonie:
f.s.
∀X1 , X2 ∈ M gilt X1 ≤ X2 =⇒ ρ(X1 ) ≤ ρ(X2 ).
21
Konvexe Risikomaße
Betrachte die Eigenschaft
(C5) Konvexität:
∀X1 , X2 ∈ M , ∀λ ∈ [0, 1] gilt
ρ(λX1 + (1 − λ)X2 ) ≤ λρ(X1 ) + (1 − λ)ρ(X2 ).
(C5) ist schwächer als (C2) und (C3), d.h. (C2) und (C3) zusammen
implizieren (C5) aber nicht umgekehrt.
Definition 7 Ein Risikomaß ρ, das die Eigenschaften (C1),(C4) und
(C5) besitzt, heißt konvex auf M .
Beobachtung: VaR ist i.A. nicht koherent
Sei das Wahrscheinlichkeitsmaß P durch einer beliebigen kontinuierlichen oder diskreten Wahrscheinlichkeitsverteilung F definiert.
V aRα(F ) = F ← (α) besitzt die Eigenschaften (C1), (C3) und (C4),
jedoch i.A. nicht die Subadditivität
22
Beispiel 8 Sei das Wahrscheinlichkeitsmaß P durch die Binomialverteilung B(p, n) für n ∈ IN, p ∈ (0, 1), definiert.
Wir zeigen: V aRα(B(p, n)) ist nicht subadditiv.
ZB.: Berechnen Sie den VaR der Verluste eines Bond-Portfolios bestehend aus 100 Bonds, die unabhängig von einander mit Wahrscheinlichkeit p defaultieren. Beobachten Sie, dass dieser Wert größer als
das Hunderfache des VaRs des Verlustes eines einzigen Bonds ist.
Theorem 6 Sei (Ω, F, P ) ein Wahrscheinlichkeitsraum und M ⊆
L(0)(Ω, F, P ) die Menge aller in (Ω, F, P ) definierten Zufallsvariablen
mit einer kontinuierlichen Wahrscheinlichkeitsverteilung F . CV aRα ist
eine koherentes Risikomaß in M, ∀α ∈ (0, 1).
23
Elliptische Verteilungen und Portfoliooptimierung
Ein Investor möchte in d (risikoreichen) Assets investieren. Sei X =
(X1, X2 , . . . , Xd )T der Zufallsvektor der Asset-Returns mit E(X) = µ
und Cov(X) = Σ.
Sei P die Klasse aller Portfolios bestehend aus den obigen d Aktien.
Jedes (long-short) Portfolio aus P ist eindeutig durch den
Gewichtsvektor w = (wi) ∈ IRd definiert. wi > 0 enstpricht einer LongInvestition und wi < 0 entspricht einer Short-Investition. Daher:
d
o
n
X
d
|wi| = 1
P = w = (wi) ∈ IR :
i=1
Die Portfoliorendite ist die Zufallsvariable Z(w) =
Die erwartete Portfoliorendite: E(Z(w)) = wT µ.
Pd
i=1 wi Xi .
Es gelte X ∼ Ed (µ, Σ, ψ) mit E(Xk2 ) < ∞ und Σ = cov(X).
Sei Pm die Klasse jener PF aus P sodass E(Z(w)) = m, m ∈ IR, m > 0.
Pm = {w = (wi ) ∈ IRd ,
d
X
|wi| = 1, wT µ = m}
i=1
24
Das Mean-Variance PF-Opt.modell (Markowitz 1952, 1987) lautet
(1)
min var(Z(w))
w∈Pm
oder äquivalent (siehe zB. Campbell et al. (1997))
wT Σw
min
w
sodass
wT µ = m
Pd
i=1 |wi | = 1
Sei ρ ein Risikomaß. Das Mean-ρ PF-Optimierungsmodell lautet:
(2)
min ρ(Z(w))
w∈Pm
Sei ρ = V aRα, α ∈ (0, 1). Das Mean-VaR PF-Optimierungsmodell
lautet:
min V aRα(Z(w))
(3)
w∈Pm
Frage: Wie hängen die Probleme (1) und (2) (insbesondere (3))
zusammen?
25
Theorem 7 Sei M die Menge der erwarteten Rendite der Portfolii
aus P. Die Risikofaktoren, d.h. die Rendite der einzelnen Aktien seien
elliptisch verteilt, X = (X1 , X2 , . . . , Xd ) ∼ Ed (µ, Σ, ψ) für gegebene
µ ∈ IRd, σ ∈ IRd×d und ψ: IR → IR. V aRα ist koherent auf M , für jedes
α ∈ (0.5, 1).
Theorem 8 (Embrechts et al., 2002)
Sei X = (X1, X2 , . . . , Xd ) = µ + AY elliptisch verteilt mit µ ∈ IRd,
A ∈ IRd×k , und einem spherisch verteilten Zufallsvektor Y ∼ Sk (ψ) und
0 < E(Xk2) < ∞, ∀k. Sei ρ ein Risikomaß, das die Eigenschaften (C1)
und (C3) besitzt, und ρ(Y1) > 0 erfüllt, wobei Y1 die erste Komponente
des spherisch verteilten Zufallsvektors Y ist.
Es gilt dann:
arg min{ρ(Z(w)): w ∈ Pm } = arg min{var(Z(w)): w ∈ Pm }
26
Einführung in Copulas: Grundlegende Eigenschaften
Definition 8 Eine d-dimensionale Copula ist eine Verteilungsfunktion
auf [0, 1]d deren Randverteilungen jeweils standard gleichverteilt auf
[0, 1] sind.
Oder äquivalent:
Eine Copula C ist eine Funktion C: [0, 1]d → [0, 1], die folgende Eigenschaften hat:
1. C(u1, u2, . . . , ud) ist mon. steigend in jeder Variable ui, 1 ≤ i ≤ d.
2. C(1, 1, . . . , 1, uk , 1, . . . , 1) = uk für jedes k ∈ {1, . . . , d}, uk ∈ [0, 1].
3. Folgende Ungleichung (sogenannte Rechtecksungleichung)
gilt für alle (a1, a2, . . . , ad), (b1, b2, . . . , bd) ∈ [0, 1]d
mit ak ≤ bk , ∀k ∈ {1, 2, . . . , d}:
2
X
k1 =1
...
2
X
(−1)k1+k2+...+kd C(u1k1 , u2k2 , . . . , udkd ) ≥ 0
kd =1
wobei uj1 = aj und uj2 = bj .
Anmerkung: Für 2 ≤ k ≤ d sind die k-dimensionalen Randverteilungen einer d-dimensionalen Copula wieder Copulas, k-dimensionale
Copulas.
27