わかりやすいパターン認識

わかりやすいパターン認識
4・1パラメトリックな学習とノンパラメ
トリックな学習
2003年5月2日
結城 隆
4・1パラメトリックな学習とノンパ
ラメトリックな学習
・確率密度関数
・認識対象としているパターンの生起確率
を示したもの
px | i 
i  1,.....c 
・クラス i に属する
x の生起確率を表す
事前確率と事後確率
x
p(x)
クラスによらない の生起確率
事前確率
pi 
クラス i の生起確率
事後確率
p i | x
が生起したとき、そのクラスが i であ
る確率
x


ベイズ決定則
ベイズの定理
px | i 
Pi | x  
Pi 
p x 
i  1,.....c 
Pi | x  は、未知パターン が入力されたとき、クラス
が  である確かさしらをしめしている
x
i
パターン を識別する際に事後確率 px | i 
が最大となる i を識別結果として出力する
x
ベイズ決定則
・ベイズの決定則
maxPi | x  Pk | x
x  k
Pi | x  を最大とするクラスが k ならば、 x は kと識別される
・ベイズ決定則における識別関数
Px は各クラスに共通の因子であるので、最大となる Pi | x 
めるのに関与しない
識別関数 g i
x 
gi x  px | i Pi 
を決
i  1,....c
または右辺の対数をとって
gi x  log px | i   log Pi 
i  1,....c
正規分布の例
確率密度関数 px | i  が正規分布で表される場合
1
 1

t
px | i  
exp x  mi  i x  mi 
1/ 2
d /2
 2

2  i
1
i  1,...,c 
ここで mi 、i はそれぞれクラスi の平均ベクトル、共分散
であり
1
mi 
x
ni xX i
1
t
i   x  mi x  mi 
ni xX i
ni はクラスi のパターン数、X i はクラス i のパターン集合
正規分布の例
1
1
l
g i  x     x  mi  i  x  mi 
2
1
d
 log  i  log 2  log Pi 
2
2
1 t 1
1 t 1
1
t
  x i x  x i mi  mi i mi
2
2
1
d
 log  i  log 2  log Pi 
2
2
確率密度関数 Px | i が正規分布で表される場合、識別
関数は の2次関数となる
x
線形識別関数
共分散行列が全クラスで等しい場合
gi x   x
t

1
0
1 t 1
mi  mi 0 mi  log Pi 
2
x
の2次の係数は定数となるので、識別関数は線形となり線形識
別関数である。
最小距離識別法
特徴間の相関がなく分散が等しい
(共分散行列が単位行列)
事前確率 Pi  が各クラスで等しく
1
P i  
c
最小距離識別法
i  1,...,c 
1
g i x   m x  mi
2
t
i
2
パラメトリックとノンパラメトリック
パラメトリック
学習パターンを用いて確率密度関数のパ
ラメータ推定を行い識別部を構成するよう
な方法
ノンパラメトリック
確率密度関数の形を想定せずに、学習パ
ターンから直接識別関数を求めている方
法