3層パーセプトロン • 基本パーセプトロンにより線形分離可能な問 題を扱うことが出来た。 • しかしながら線形分離可能でない問題も多く 存在する。 • 例 XOR(exclusive or)排他的論理和 2つの入力x1, x2があったとき、次の表のよう な出力が要求される。 x1 0 0 1 1 x2 0 1 0 1 z 0 1 1 0 • これをx1, x2をそれぞれの軸とするパターン空 間で見てみると、次のように2本の超平面が 必要であることが分かる。 • このような問題は基本パーセプトロンで扱うこ とは出来ない。 • そこでパーセプトロンを層状にする方法により これを解決する。 • より正確なXORを実現するにはバックプロパ ゲーションと呼ばれる方法を用いる必要があ るが、ここではより単純な3層パーセプトロン と呼ばれる方法を示す。 • 3層パーセプトロンの構造 x1 x2 z xn ランダム変換 S層 A層 R層 • 第1層(sensory units, S層)は感覚層と呼ば れ、外部からの入力を受けてそのまま第2層 へ送る(生物の視覚での目の網膜などに対 応)。この層は省略し、直接入力が次の第2 層の全てのニューロンに入ると考えても良い。 • 第2層は連合層(association units, A層)と 呼ばれ、入力信号を変換する。 • 第3層は基本パーセプトロンが並んでおり、 反応層(response units, R層)と呼ばれる。 • S層からR層へ入力されるまでの処理方法 (結合荷重)は完全にランダムである。 • ランダム変換を受けた信号に対し、R層の基 本パーセプトロンにより最終的な識別処理が 行われる。 • 詳細は省略するが、ランダム変換は、カテゴ リー間の距離が近い場合、カテゴリー間の距 離を変換し、線形分離性を高める性質がある。 • この性質により、線形分離不可の問題を線形 分離可能な状態に変換できる可能性がある。 多層ニューラルネットワークの能力 • 1つのパーセプトロンではパターン空間を一 つの超平面で2分割する線形分離可能な識 別しかできないが、複数のニューロンを用い て多層にすることにより、より複雑なパターン の識別が可能となる。 • 以下、例題を通しながら多層ニューラルネット ワークの効果について見ていく。 • いま基本パーセプトロンを組み合わせて次図 のような2層のニューラルネットワークを構成 する。 x1 1 x3 3 x2 2 x4 z • このニューラルネットワークにより次図のよう な識別を行う場合を考えてみる。いま入力値 が1か0しかとらない場合、このニューラルネッ トワークにより入力値のXORが実現できるこ とになる。 x1 0 0 1 1 x2 0 1 0 1 z 0 1 1 0 • 問題 いまニューロン3の決定領域が次図のように なっている場合、ニューロン1と2のそれぞれ の決定領域を求めよ。またそれぞれの結合 加重としきい値の値を求めよ。 ※さらにパターン空間内に境界(超平面)により閉じた複数の島状の決定領域を作る場合 は最低3つの超平面の組が複数必要となる。よってこのような決定領域の作成には最低3 層のニューラルネットワークが必要となる。 バックプロパゲーションの手法を用いるとこのような多層のニューラルネットワークのそ れぞれのニューロンの結合荷重としきい値の自動的な学習が可能となる。 何層のニューラルネットワークを用いる必要があるかはパターン空間内のカテゴリーの分 布を考慮して決定する必要がある。無意味に多層化すると計算量が増え構造が複雑になる というデメリットが生じる。 structure single layer Type of decision region Half plane bounded by hyperplane two layer Convex open or closed region three layer Arbitrary (Complexity limited by number of nodes) Shapes of decision region
© Copyright 2024 ExpyDoc