2015年6月19日 統計数理研究所 オープンハウス カーネル法によるノンパラメトリックなベイズ推論とその応用 福水 健次 数理・推論研究系 教授 / 統計的機械学習研究センター長 ■カーネル法による粒子フィルタ ■ カーネル法 観測モデルの密度関数(尤度)が書けない場合の粒子フィルタ サンプリングは可能とする. 正定値カーネルを用いた,データの非線形性,高次モーメントを 取り込むための新しい方法論. 効率的な計算を重視. 例) a-stable Stochstic Volatility model 𝑥𝑡 = 𝜙𝑥𝑡−1 + 𝑣𝑡 , 𝑣𝑡 ∼ 𝑁(0, 𝜎𝑠2 ) 𝑦𝑡 = 𝑒 𝑥𝑡 /2 𝑤𝑡 , 𝑤𝑡 ∼ 𝑆(𝛼, 0, 𝜎𝑜 ) 定義: 正定値カーネル Ω :集合.k : W W R が正定値であると は,𝑘 が対称で任意の n N, x1 , xn W に対し, グラム行列 k ( x1 , x1 ) k ( x1 , xn ) k(x , x ) k(x , x ) n 1 n n 例: ガウスカーネル 𝑦1 , … , 𝑦𝑡 :観測系列 • 事後確率𝑝 𝑋𝑡 𝑦1 … , 𝑦𝑡 のパーティクル表現: が半正定値. exp −||𝑥 − 𝑦||2 /(2𝜎 2 ) 1 𝑁 再生核ヒルベルト空間(RKHS) • • • 正定値カーネルに対しヒルベルト空間が一意に定まる. Ω 上の関数からなる関数空間.一般に無限次元. 特殊な内積を持つ. k ( , x), f f ( x) f H , x W. (再生性) W • H Φ 𝑥𝑖 Φ 𝑥𝑗 特徴空間 (関数空間) • x F ( x ) : k ( , x ). • ■ カーネル平均による分布の表現 カーネル平均: 特徴ベクトル Φ(𝑋) の期待値 𝑚𝑃 = 𝐸𝑋~𝑃 Φ 𝑋 = ∫ 𝑘 ⋅, 𝑥 𝑑𝑃(𝑥) 𝑁 一様重み 𝑝 𝑋𝑡 𝑦1 , … , 𝑦𝑡 1 𝑁 𝑡 𝑁 𝑗=1 𝑘(⋅, 𝑍𝑗 ) 𝑝 𝑋𝑡+1 𝑦1 , … , 𝑦𝑡 𝑝 𝑋𝑡+1 𝑦1 , … , 𝑦𝑡+1 1 𝑁 𝑡+1 𝑁 𝑘 𝑗=1 𝑤𝑗 𝑡+1 𝑁 ) 𝑗=1 𝑘(⋅, 𝑋𝑗 Sampling 𝑝(𝑋𝑡+1 |𝑋𝑡 ) 𝑍𝑗𝑡 1 𝑁 ⋅, 𝑋𝑗𝑡+1 Resampling Conditional kernel mean Kernel herding 𝑋𝑗𝑡+1 𝑋𝑗𝑡+1 𝑡+1 𝑁 ) 𝑗=1 𝑘(⋅, 𝑍𝑗 𝑍𝑗𝑡+1 Sampling 𝑞(𝑌𝑡+1 |𝑋𝑡+1 ) 特性的なカーネル 𝑌𝑗𝑡+1 𝑚𝑃 により 𝑃 を一意に決める (例:ガウスカーネル) Positive weight Negative weight カーネル平均によるノンパラメトリック推論 𝑦𝑡+1 原理: 特性的なカーネルを用いると, 分布に関する推論 カーネル平均に関する推論 2標本問題 𝑚𝑋 = 𝑚𝑌 ? (Gretton et al. NIPS’06), 独立性検定 𝑚(𝑋,𝑌) = 𝑚𝑋 ⊗ 𝑚𝑌 ? (Gretton et al. NIPS’07) 重み付サンプルによる推論 サンプルによる表現 SV (𝛼 = 1.5) 多変量Stochastic Vloatility model への応用 𝛼 = 1.5, 2.0 (Gauss) ABC filter (Calvet&Czeller 2014), 標準的 Seq. MC (SIR) との比較 SV (𝛼 = 1.5) 𝑁 𝑚𝑋 = 𝑝 𝑋𝑡+1 𝑦1 , … , 𝑦𝑡+1 Correction Prediction 𝑃 の積分変換 例: 𝑋𝑖𝑡+1 • Resampling step: Kernel herding による「リサンプリング」 1 𝑁 𝑡+1 𝑡+1 𝑡+1 𝑁 𝑤 Φ 𝑋 ⇒ Φ 𝑍 で近似 𝑖=1 𝑖 𝑖=1 𝑖 𝑖 Φ 𝑥 , Φ(𝑦) = 𝑘 ⋅, 𝑥 , 𝑘(⋅, 𝑦) = 𝑘 𝑥, 𝑦 . 特徴空間上で線形の解析手法を適用 (注:多くの手法は内積計算が本質的) → カーネルPCA,サポートベクターマシン etc 非線形カーネル 非線形/高次情報の抽出 𝑡+1 𝑁 𝑤 Φ 𝑖=1 𝑖 (𝑋𝑖 , 𝑤𝑖 ) カーネルトリック: 容易な内積計算 • (𝑖 = 1, … , 𝑁) カーネル版 𝑋1 , … , 𝑋𝑁 ∼ 𝜋 𝑌1 , … , 𝑌𝑁 ∼ 𝑞(𝑦|𝑋𝑖 ) 𝑤 = 𝐺𝑌 + 𝜆𝐼𝑁 −1 𝐤 𝑦𝑜 IW: 𝑤𝑖 = 𝑞(𝑦𝑜 |𝑋𝑖 ) 特徴写像と特徴ベクトル F : W H, 𝑖=1 IW 𝑋1 , … , 𝑋𝑁 ∼ 𝑍𝜋 xj データの空間 Φ 𝑍𝑖𝑡 • Correction step: Importance weightingのカーネル化(線形演算) 𝜋: prior, 𝑞(𝑦|𝑥): likelihood ⇒ posterior ∝ 𝑞 𝑦𝑜 𝑥 𝜋(𝑥) 𝑦𝑜 :観測値 正定値カーネルとRKHSを用いたデータ解析 xi 𝑁 • Prediction step: サンプリング 𝑋𝑖𝑡+1 ∼ 𝑝(𝑥𝑡+1 |𝑥𝑡 = 𝑍𝑖𝑡 ) 𝑌𝑖𝑡+1 ∼ 𝑝(𝑦𝑡+1 |𝑥𝑡+1 = 𝑋𝑖𝑡+1 ) H F 特徴写像 𝑥𝑡 : log volatility 𝑦𝑡 : return 𝑤𝑖 Φ 𝑋𝑖 𝑖=1 重み付サンプル 𝑋𝑖 , 𝑤𝑖 による表現とみなせる 重みは負も現れる. SV (𝛼 =2.0, Gauss)
© Copyright 2024 ExpyDoc