ニューラルネット研究の概観 村田研究室M1 5310E063-4 園田 翔 2010/4/27 目次 目的と手法 昨年の取り組みを整理 これから取り組む問題 そのほかの興味 目的と手法 目的 NNの研究を通して脳を理解する。 手法 NNの学習法(加速・モデル選択)を研究する。 修士では,生理学的な意味づけにも注意する。 昨年の取り組み 問題設定 0.5 0.0 -0.5 どうすれば学習が収束するか? どうすれば学習が速く終わるか? ニューロンはいくつ必要か? 2 4 6 8 10 12 14 16 18 20 -1.0 1. 2. 3. 1.0 3層パーセプトロンの回帰問題を取り上げ,その 学習法を研究した。 0 20 40 60 Time 80 100 昨年の取り組み はじめは勾配学習について調べていた。 非線形最適化問題として取り組んでいた。 後半から「積分表現による近似学習」を提案。 一度別の関数空間に飛ばして,戻す方法。 逆変換をモンテカルロ積分で有限和近似すると, NNに読み替えることができる。という確率的アルゴ リズム。 モデル選択についてはサーベイ止まり。 枝刈り,正則化,NIC 積分近似学習の概要 これから取り組む問題 モデル選択 T(a,b)の構造から決める方法。 積分表現アルゴリズム さらなる効率化。サンプリングや ベンチマークデータで実験する。 の計算など。 回帰問題として 信頼区間を付ける。 実装 Rで実験できるようにインタフェースを整備する。 他のモデル T(a,b)によるモデル選択 積分近似は,主成分分析のアナロジーで捉えることができる。 ここで とおくと, を基底ベクトルとする線形空間 の元として近似していることになる。 各 は, の”主成分”方向が選ばれているはずなので, 同じ方向のベクトルは選ばないようにすれば無駄がなくなる。 の同じピークから選ばれたと考えられる。 サンプリングについて 棄却法(Acceptance-Rejection method) 現在使用している方法 SIR(Sampling-Importance Resampling) MCMC Gibbs Sampler Metropolis-Hastings Slice Sampling 逐一実装してみる予定。 NNの他のモデルについて 階層型 3層パーセプトロン リカレント Elman, Jordan Network 相互結合型 アソシアトロン,ホップフィールド 教師なし SOM 参考文献 N.Murata (’96) An Integral Representation of Functions Using Threelayered Networks and Their Approximation Bounds. Neural Networks, Vol.9, No.6, pp.947-956 園田 翔 (‘09) 卒業論文「ニューラルネットワークの学習法」 伊庭 幸人ほか (‘05) 統計科学のフロンティア 計算統計Ⅱ マルコフ連鎖 モンテカルロ法とその周辺,岩波書店 浅川伸一 サーベイ 入門神経回路モデル
© Copyright 2024 ExpyDoc