PowerPoint プレゼンテーション

パターン認識とニューラルネットワーク
栗田多喜夫
2015/9/30
早稲田大学大学院理工学研究科講義
1
講義内容
 1時限目
 統計的決定理論
パターン認識とは
 ベイズ決定理論
 確率密度分布の推定




パラメトリックモデルを用いる方法
ノンパラメトリックな方法
セミパラメトリックモデルを用いる方法
 2時限目
 統計的特徴抽出の理論
特徴抽出の枠組み
 線形多変量データ解析手法
 非線形判別特徴の抽出
 線形手法と非線形手法との関係

2015/9/30
早稲田大学大学院理工学研究科講義
2
講義内容
 3時限目
 学習の理論とニューラルネットワーク





単純パーセプトロン
ADALINE
ロジスティック回帰
多層パーセプトロン
汎化性
 4時限目
 その他のニューラルネット
恒等写像学習
 RBF(Radial Basis Function)ネットワーク
 Mixture of Experts
 SVM(Support Vector Machine)

2015/9/30
早稲田大学大学院理工学研究科講義
3
学習の理論とニューラルネット
 パターン認識
 有限個の例からパターンとクラスの確率的構造を推定
 確率密度関数がわかれば、最適なベイズ識別が可能
 ニューラルネット
 パターン認識の分野でもニューラルネットが盛んに利用されるように
なってきた。
多層パーセプトロンの学習法として誤差逆伝播法が考案され、良い識別性
能を持つ識別器を学習データから比較的簡単に構成できることがわかった
 セミパラメトリックモデルによる学習と解釈できる

 ニューラルネットの分類

階層的ニューラルネットワーク


相互結合ネットワーク

2015/9/30
多層パーセプトロン、RBF(Radial Basis Function)ネットワーク等
Hopfieldネットワーク、Boltzmann Machine等
早稲田大学大学院理工学研究科講義
4
歴史1
 単純パーセプトロン
 1943年 McCulloch & Pitts


ニューロンモデルとして、2値(+1,-1)入力の組を2値出力に変換するしきい値論
理素子を提案
ニューラルネットは論理計算として万能であることを示す
 1949年 Hebb

シナプス結合強度の変化規則の提案 => Hebb学習則
 1957年 Rosenblatt

パーセプトロン(視覚パターン識別学習機械のモデル)の提案

入力パターンに対するパーセプトロンの出力と教師の答えに応じて、結合重みを逐次修正す
る学習則
 1969年 Minsky & Papert

パーセプトロン(特に1層)の能力の限界を明らかにした
 ブームの終了

原因


デジタルな論理関数ネットワークの学習という識別関数のエラーフリーが学習を考えていた
決定論的な観点からのアプローチ
単純パーセプトロンOHPあり
2015/9/30
早稲田大学大学院理工学研究科講義
5
歴史2
 最小2乗線形判別関数の学習
 1960年 Widrow & Foff

ADALINE (Adaptive Linear Neuron)モデルの提案

モデル
I
y   ai xi  a0
i 1


P
   || t  y ||2
2
p
p
評価基準:2乗誤差最小化
p 1
学習:最急降下法に基づく学習
 理想的な識別関数を線形関数(判別関数)によって2乗誤差最小化の意味
で解析的に近似 <= 多変量解析の考え方と同じ
 1966年 Koford & Groner

ADALINEとフィシャーの線形判別関数との関係を指摘
 1966年 Patterson & Wowmack

ADALINEは誤識別率最小の意味で理論的に最適なベイズ識別関数を最
小2乗近似していることを指摘
 ポイント

連続実数化、線形化 => 統計解析的な研究対象へ
逐次線形重回帰OHPあり
2015/9/30
早稲田大学大学院理工学研究科講義
6
歴史3
 人工知能ブーム
 1970年代
 第2次ニューロブーム
 1980年代前半から
 1986年 Rumelhart等
多層パーセプトロンの学習法(誤差逆伝播学習法)の提案
 2乗誤差最小化を評価関数とする最急降下

 他方
 統計では、GLIM(Generalized Linear Model)の研究

ロジスティック回帰
ロジスティック回帰OHPあり
2015/9/30
早稲田大学大学院理工学研究科講義
7
多層パーセプトロン
 多層パーセプトロンの構造・多層パーセプトロンでの計算
 多層パーセプトロンの能力
 誤差逆伝播学習法
 最尤推定としての定式化
 フィッシャー情報行列とその学習への利用
多層パーセプトロンOHPあり
2015/9/30
早稲田大学大学院理工学研究科講義
8
階層型ニューラルネットと非線形回帰
 階層型ニューラルネット
 たくさんの単純なユニットを結合したネットワークにより非線形回帰を
行っている
 最適非線形写像
 学習すべき究極の目標を与えている
非線形回帰OHPあり
2015/9/30
早稲田大学大学院理工学研究科講義
9
汎化性
 学習の目的
 学習データに対して良い結果を与えることでは無く、未学習のデータ
に対して性能が良いこと

特に、パターン認識に用いる場合には、学習データでいくらうまく識別出来
ても、未知のデータに対してうまく識別出来なければ意味が無い
 汎化性

未知データに対する性能
汎化性OHPあり
2015/9/30
早稲田大学大学院理工学研究科講義
10
ノイズの付加による汎化能力の向上
 ノイズの付加
 観測データを補間するような学習データを生成(1992赤穂)
 中間層のニューロンにノイズを付加(1993栗田)
 結合荷重にノイズを付加(1993Murray)
 中間層の各ニューロンの入力のノイズを付加
 誤差逆伝播学習がどのような影響を受けるか?
中間層へのノイズの付加OHPあり
2015/9/30
早稲田大学大学院理工学研究科講義
11
3時限目終了
 4時限目
 その他のニューラルネット
恒等写像学習
 RBF(Radial Basis Function)ネットワーク
 Mixture of Experts
 SVM(Support Vector Machine)

2015/9/30
早稲田大学大学院理工学研究科講義
12