わかりやすいパターン認識

わかりやすいパターン認識
第4章 識別部の設計
4.4 特徴空間の次元数と学習パターン数
平成15年5月9日(金)
藤井 丈明
学習パターン数nと特徴ベクトル
の次元数dの関係(1)
• (n  d )の場合
d次元の特徴空間を用意したにもかかわらず実際
は(n-1)次元の空間しか利用していない
例)3次元空間上の3点
2次元平面上で表せる。
最低限の条件としてn=d+1
一般的条件 n  d (dは見掛けの次元数ではなく、
固有次元数)
学習パターン数nと特徴ベクトル
の次元数dの関係(2)
• d次元の特徴空間上にn個のパターンが分
布している場合{一般位置(general posi
tion)にあるとする}
パターンを2クラスに分け、その中から任意
の一つを選んだ時、超平面により線形分
離できる確率を求める
超平面により線形分離できる確率
 p ( n, d )  1
(n<2(d+1)のとき)

 p ( n, d )  1 2 (n=2(d+1)のとき)
 p ( n, d )  0
(n>2(d+1)のとき)

*dが大きい時
2(d+1)を超平面の容量(capacity)という
n>2(d+1)の条件下で超平面が得られればそ
の信頼度はきわめて高い
次元の呪い
(curse of dimensionality)
• 識別部設計時には特徴ベクトルの次元数
に比べ十分な学習パターンを用意しなけ
ればならないが、必要とされる学習パター
ンの数は次元数の増大とともに指数関数
的に増えていく。この事を次元の呪い
(curse of dimensionality)という
オーバフィッティング(overfitting)
• 少数の個別パターンを多数のパラメータを持つ
複雑な関数で誤差ゼロで近似してしまうことであ
り、新たな入力パターンに対して正確な出力がで
きなくなるという危険をはらんでいる
• 過学習(over-training)も、パラメータ数に対して少
なすぎる学習パターンを用いることに起因してい
るため、オーバフィッティングの問題として取り上
げることができる
coffee break(1)
前述では学習パターン数が自由に設定できるとい
う条件だったが、パターン数が有限な場合に特
徴を増やしすぎると次元の呪いにかかわってしま
う。これはヒューズの現象(Hughes phenome
na)といわれ、nに対してdが無視できなくなるくら
い大きくなると統計的な信頼度が低下し、識別性
能の低下を招く。識別部の設計は学習パターン
数と特徴数の関係を常に考えなければならない
coffee break(2)
・学習パターンが少ない場合はNN法が有効
・ニューラルネットワークの効用を示す例とし
てしばしば排他的論理和(exclusive OR)
が取り上げられるが、これも学習パターン
が少ない場合はNN法で簡単に実現できる