+ 1. 4 東京工業大学 大学院総合理工学研究科 樺島祥介 replica method 1. 2 1 greedy 0. 8 2015年度 第1回駒場物性セミナー 0.6 0. 4 0.2 0 0 0.05 0.1 0.15 0.2 0.25 東京工業大学 大学院総合理工学研究科 許インイン 日本物理学会2015年秋季大会 関西大学千里山キャンパス19aCQ-6 次元選択の情報統計力学 京都大学大学院情報学研究科 大関 真之 単純パーセプトロンの容量 E. Gardner and B. Derrida: J. Phys. A: Math. Gen. 21 (1988) 271 } Gardner-Cover容量 } 単純パーセプトロン ¨ } ラベル(出力): 入力: 結合: P個のランダムな入出力関係とN次元の結合で識別できる限界 2015.09.19 次元選択の情報統計力学 単純パーセプトロンの容量 E. Gardner and B. Derrida: J. Phys. A: Math. Gen. 21 (1988) 271 } Gardner-Cover容量 } 単純パーセプトロン ¨ } ラベル(出力): 入力: 結合: P個のランダムな入出力関係とN次元の結合で識別できる限界 2015.09.19 次元選択の情報統計力学 結果概要 M. Ohzeki, Xu Yingying and Y. Kabashima: to appear soon } L0 norm (貪欲法)+ Perceptron(非零割合: ) } Gardner容量から増大! } } 貪欲法Binary Iterative Hard Thresholding N=64、128、256 1. 4 replica method 1. 2 1 greedy 0. 8 0.6 0. 4 0.2 0 2015.09.19 次元選択の情報統計力学 0 0.05 0.1 0.15 0.2 0.25 解析概要1 M. Ohzeki, Xu Yingying and Y. Kabashima: to appear soon } どの結合成分をつかうかどうか? } } } 非零の割合: 使うかどうか: 非零の結合を指定された上でのGardner体積 } } } ランダムな入出力関係: 指数関数でスケール仮定: 識別可能なcが存在する: 、存在しない: 2015.09.19 次元選択の情報統計力学 解析概要2 M. Ohzeki, Xu Yingying and Y. Kabashima: to appear soon } Complexityの定義 } 母関数を経由して、complexityの計算をする. } } ルジャンドル変換 母関数をレプリカ法を用いて評価する. 2015.09.19 次元選択の情報統計力学 考察 M. Ohzeki, Xu Yingying and Y. Kabashima: to appear soon } 典型的な非零の選び方でも識別可能なとき( ) 2015.09.19 次元選択の情報統計力学 考察 M. Ohzeki, Xu Yingying and Y. Kabashima: to appear soon } 典型的な非零の選び方でも識別可能なとき( ) } 典型的な非零の選び方では識別不可能なとき( ) Complexityが連続関数なので である限り、 である. 非零の選び方はある 2015.09.19 次元選択の情報統計力学 考察 M. Ohzeki, Xu Yingying and Y. Kabashima: to appear soon } 典型的な非零の選び方でも識別可能なとき( ) } 典型的な非零の選び方では識別不可能なとき( ) Complexityが連続関数なので である限り、 である. 非零の選び方はある となり、complexityが0となるところが求めたい容量である. 2015.09.19 次元選択の情報統計力学 解析概要3 M. Ohzeki, Xu Yingying and Y. Kabashima: to appear soon } 母関数(レプリカ対称仮定のもと) 2015.09.19 次元選択の情報統計力学 解析概要3 M. Ohzeki, Xu Yingying and Y. Kabashima: to appear soon } 母関数(レプリカ対称仮定のもと) } 容量の条件 } の最大値( )=0 (どんなに頑張っても識別可能な結合はない) 2015.09.19 次元選択の情報統計力学 いくつかの事例 M. Ohzeki, Xu Yingying and Y. Kabashima: to appear soon } Complexityの計算結果 0.6 0.5 0.4 0.3 0.2 0.1 0 0 1 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.5 2 1 2015.09.19 次元選択の情報統計力学 3 1.5 4 2 2.5 5 3 6 3.5 7 4 結果 M. Ohzeki, Xu Yingying and Y. Kabashima: to appear soon } スパース結合による識別可能限界(容量) 1. 4 replica method 1. 2 1 0. 8 0.6 0. 4 0.2 0 0 0.05 2015.09.19 次元選択の情報統計力学 0.1 0.15 0.2 0.25 数値実験 L. Jacques, J. N. Laska, P. T. Boufounos, and R. G. Baraniuk: IEEE Trans, IT, 59, (2013) 2082. } 貪欲法:Binary Iterative Hard Thresholding (BIHT) } } 手順 } } } } 硬判定しきい値関数(上位K成分だけを残す): 1: K=1から徐々に非零成分を増やす. 2: BIHTを実行する. 3: 識別できる入出力関係数Pcを記録する. 計算条件 } } サンプル数:Nsam = 10000 次元数:N=64,128,256 2015.09.19 次元選択の情報統計力学 数値実験結果 L. Jacques, J. N. Laska, P. T. Boufounos, and R. G. Baraniuk: IEEE Trans, IT, 59, (2013) 2082. } 次元数:N=64(赤),128(緑),256(青) 1. 4 replica method 1. 2 1 greedy 0. 8 0.6 0. 4 0.2 0 0 0.05 2015.09.19 次元選択の情報統計力学 0.1 0.15 0.2 0.25 まとめ M. Ohzeki, Xu Yingying and Y. Kabashima: to appear soon } 実はL1 norm + Perceptronでも } } Gardner容量から変わらず… L0 norm (貪欲法)+ Perceptron } Gardner容量から増大! } } 貪欲法Binary Iterative Hard Thresholding N=64(赤), 128(緑), 256(青) 1. 4 replica method 1. 2 1 greedy 0. 8 } } 貪欲法の良好なアルゴリズム追求 Ising Perceptronの場合は? } [M. Ohzeki, Xu Yingying, and Y. Kabashima: work in progress] 0.6 0. 4 0.2 0 2015.09.19 次元選択の情報統計力学 0 0.05 0.1 0.15 0.2 0.25
© Copyright 2024 ExpyDoc