T

脳科学入門 V #5
情報科学研究科 井上純一
URL : http://chaosweb.complex.eng.hokudai.ac.jp/~j_inoue/
平成26年5月14日 第5回(最終回)講義
前回までの復習
Si = sgn(hi )
hi
対称結合 : Hebb則
(−1)
ν 
µ µ ν 
ξi 1 +
ξi ξ j ξ j 
∑∑
N j µ ≠ν


Ciν > 1
hi 内部ポテンシャル
のとき誤りが生じる
クロストーク
ν
Ci
の従う分布
シミュレーション上
はこれより右側に
落ちたサンプル数
を全サンプル数で
割ったものが誤り
確率
素子をつなげる
素子数、パターン数が十分に大きければ
クロストークはガウス分布に従う
例えば誤り率
をここまで許すと
 N
H 
 = 0.036
 p
記憶容量は ⇒
pc = 0.138 N
※結合が非対称の場合にはリミットサイクルが出現
ニューロンの動作は不正確である
第2回講義の復習
一つひとつの素子は
不正確である
ノイマン型コンピュータ
脳
単位: プロセッサ
単位: ニューロン
演算速度: ~10^8 Hz
演算速度: ~10^2 Hz
シグナル/ノイズ ~ ∞
シグナル/ノイズ ~ 1
シグナルスピード: ~10^8 m/s
シグナルスピード: ~ 1 m/s
コネクション数 : ~10
コネクション数 : ~10^4
特徴:直列演算、プログラム&
データ、外部プログラミング
特徴:並列演算、シナプス結合、閾
値、自己プログラミング、適応
ハードウエアの欠陥が致命的
ハードウエアの欠陥に対しロバスト
Si = sgn(hi )
:
個々の素子の不正確さ
を多数の素子の結合に
よる並列・分散処理
により補っている
決定論的素子
ある確率で誤作動する素子とみなす
不正確さを「確率」で導入する
確率的動作の導入
e β hi
1)= β hi
P( S=
i
e + e − β hi
β= ∞
P( Si = 1 : β = 0) =
ノイズ無しの動作
β =0
完全にランダムな動作
1
2
完全にランダム
P( Si = 1: β = ∞) = Θ(hi )
階段関数
ノイズ無し素子
Si = sgn(hi )
ノイズ・フリー
T ≡ β −1
: ノイズレベル
T =0
ここからの目標
β hi
e
1) =β hi
, P ( Si =
1 P ( Si =
1)
P ( Si =
−1) =−
− β hi
e +e
個々の素子の不正確さをβで導入し、その不正確さを
徐々に増加させて行った場合、素子どうしの協力
(分散処理)に基づく機能である連想記憶がどこまで損
なわれずに保持されるのかを調べる
ミクロからマクロへ
理想気体の状態方程式
理想気体
これと同じようなことをやる
素子状態の期待値と平均場近似
β hi
− β hi
e
e
Si =(+1) × β hi
+ (−1) × β hi
− β hi
e +e
e + e − β hi
β

β

µ µ
µ µ
=
tanh
 ∑∑ ξi ξ j S j  tanh  ∑∑ ξi ξ j S j 
 N j ≠i µ

 N j ≠i µ

Si =
Si + δ Si , δ Si → 0
→
回路網の状態ベクトル :
平均値のまわりの揺らぎを無視
⇒平均場近似
S = ( S1 , S 2 ,..., S N )
素子ごとの重なりと平均場方程式
→
1
ξ = (1,1,...,1)
:
=
mi ξ=
Si
1
i
想起パターン (ターゲットパターン)
Si
: 素子ごとの重なり
回路網とターゲットパターンの近さ(重なり)は
mi (i = 1,..., N )
の従う方程式 : 平均場方程式は
β
mi = tanh 
N

ξi ξ j m j 
∑∑
j ≠i µ

µ
µ
平均場方程式の反復解法
( n +1)
i
m
( n +1)
i
|m
T = T1
β
= tanh 
N
(n)
i
−m
|< ε
∑∑µ ξ
j ≠i
µ
i
µ
ξj m
(n)
j



: 全ての素子に対して収束条件を課す
→
での
m = (m1 ,..., mN )
T2 > T1 > 1
なノイズレベル
T2 → T1
を求める際
T2
から
のようにノイズレベルを下げていく
アニーリング
ノイズなしの解と最適化問題
T →0
の解
→
*
m = (m1* ,..., m*N )
1
E (S ) = −
N
→
はエネルギー関数 :
µ µ
ξ
∑∑ i ξ j Si S j
ij
µ
を最小化 (p=1の場合のチェックは講義ノート)
パターン数P=O(1)の場合の解析解
m
1
1
1
ξ i Si
=
∑
N i
N


β 1
µ µ
ξi ξ j S j 
∑i tanh  β m + N ξi ∑∑
j ≠i µ


→0
O  1

N

状態方程式
T = β −1
m = m(T )
を変化させたときの解をプロットする
:
ノイズの増加とともに重なりがどのように変化するか?
記憶と相転移
のときはエネルギー
一つのパターンを記憶させた場合の状態図
想起可能領域
想起
不可領域
E= −
1
N
∑∑ (ξ S )(ξ S )
ij
µ
1
i i
1
j
j
を最小化するよう素子は動作する
臨界領域での重なりの振る舞い:
m |1 − T |
1
2
で重なりはゼロに向かう
ではエントロピー
を最大にするように
素子は動作する
相転移はこれら2つの効果が
拮抗することにより生じる
計算機実験との比較
解析解
m = tanh( β m)
N=400,p=4の場合に対する
平均場アルゴリズムからの結果
β
mi = tanh 
N

ξi ξ j m j 
∑∑
j ≠i µ

µ
µ
P=O(N)の解析解とその相転移
p=O(1)のとき無視した
β
N
ξi1 ∑∑ ξiµ ξ jµ S j
T = 1+ α
j
µ ≠1
をきちんと評価する
(2次転移)
回路網の状態方程式
重なりは
不連続に
変化する
(1次転移)
この方向にパターン数を
増加させたときの重なりの変化
を固定して
(想起相)
α c = 0.138
詳細は講義ノートに基づき黒板で説明します
について解く
ノイズ無しの極限
y=0は常に解である
両者の非ゼロの交点
が消失するときのα