わかりやすいパターン認識 第4章 識別部の設計 4.4 特徴空間の次元数と学習パターン数 平成15年5月9日(金) 藤井 丈明 学習パターン数nと特徴ベクトル の次元数dの関係(1) • (n d )の場合 d次元の特徴空間を用意したにもかかわらず実際 は(n-1)次元の空間しか利用していない 例)3次元空間上の3点 2次元平面上で表せる。 最低限の条件としてn=d+1 一般的条件 n d (dは見掛けの次元数ではなく、 固有次元数) 学習パターン数nと特徴ベクトル の次元数dの関係(2) • d次元の特徴空間上にn個のパターンが分 布している場合{一般位置(general posi tion)にあるとする} パターンを2クラスに分け、その中から任意 の一つを選んだ時、超平面により線形分 離できる確率を求める 超平面により線形分離できる確率 p ( n, d ) 1 (n<2(d+1)のとき) p ( n, d ) 1 2 (n=2(d+1)のとき) p ( n, d ) 0 (n>2(d+1)のとき) *dが大きい時 2(d+1)を超平面の容量(capacity)という n>2(d+1)の条件下で超平面が得られればそ の信頼度はきわめて高い 次元の呪い (curse of dimensionality) • 識別部設計時には特徴ベクトルの次元数 に比べ十分な学習パターンを用意しなけ ればならないが、必要とされる学習パター ンの数は次元数の増大とともに指数関数 的に増えていく。この事を次元の呪い (curse of dimensionality)という オーバフィッティング(overfitting) • 少数の個別パターンを多数のパラメータを持つ 複雑な関数で誤差ゼロで近似してしまうことであ り、新たな入力パターンに対して正確な出力がで きなくなるという危険をはらんでいる • 過学習(over-training)も、パラメータ数に対して少 なすぎる学習パターンを用いることに起因してい るため、オーバフィッティングの問題として取り上 げることができる coffee break(1) 前述では学習パターン数が自由に設定できるとい う条件だったが、パターン数が有限な場合に特 徴を増やしすぎると次元の呪いにかかわってしま う。これはヒューズの現象(Hughes phenome na)といわれ、nに対してdが無視できなくなるくら い大きくなると統計的な信頼度が低下し、識別性 能の低下を招く。識別部の設計は学習パターン 数と特徴数の関係を常に考えなければならない coffee break(2) ・学習パターンが少ない場合はNN法が有効 ・ニューラルネットワークの効用を示す例とし てしばしば排他的論理和(exclusive OR) が取り上げられるが、これも学習パターン が少ない場合はNN法で簡単に実現できる
© Copyright 2025 ExpyDoc