ニューラル情報処理第09回 ニューラルネットワーク1 竹内一郎 名古屋工業大学 Ichiro Takeuchi, Nagoya Institute of Technology 1/25 一変数非線形モデリング ⇓ 多変数(高次元)非線形モデリング Ichiro Takeuchi, Nagoya Institute of Technology 2/25 多変数(高次元)非線形モデリングは何が難しい のか? ⇓ 次元の呪い (Curse of Dimensionality) Ichiro Takeuchi, Nagoya Institute of Technology 3/25 一変数多項式モデル(復習) ▶ 1 次多項式(線形)モデル (パラメータ数 = 2 個) f (x) = w0 + w1 x ▶ 2 次元多項式モデル (パラメータ数 = 3 個) f (x) = w0 + w1 x + w2 x2 ▶ 3 次元多項式モデル (パラメータ数 = 4 個) f (x) = w0 + w1 x + w2 x2 + w3 x3 一変数モデリングではパラメータ数が線形に増える Ichiro Takeuchi, Nagoya Institute of Technology 4/25 一変数基底関数モデル(復習) ▶ 入力の定義域 x ∈ [0, 10] を 5 個の局所基底関数で表現 1 0.8 0.6 0.4 0.2 0 0 2 4 6 8 10 一変数基底関数モデルでは基底関数が線形に増える Ichiro Takeuchi, Nagoya Institute of Technology 5/25 多変数(p 変数)多項式モデル ▶ 1 次多項式モデル(パラメータ数 = 1 + p 個) f (x1 , . . . , xp ) = w0 + w1 x1 + . . . + wp xp ▶ ▶ 2 次多項式モデル(パラメータ数 = 1 + p + p(p−1) 2 個) f (x1 , . . . , xp )= w0 + w1 x1 + . . . + wp xp +w11 x21 + w12 x1 x2 + . . . + wpp x2p () () 3 次多項式モデル(パラメータ数 = 1 + p + p2 + p3 個) f (x1 , . . . , xp )= w0 + w1 x1 + . . . + wp xp +w11 x21 + w12 x1 x2 + . . . + wpp x2p +w111 x21 + w112 x21 x2 + . . . + wppp x3p 多変数多項式モデルではパラメータ数が指数的に増える Ichiro Takeuchi, Nagoya Institute of Technology 6/25 多変数基底関数モデル ▶ 各入力の定義域 x1 , x2 ∈ [0, 10] をそれぞれ 5 個の局所基 底関数で表現 1 0.5 0 10 5 5 10 0 多変数基底関数モデルでは基底関数が指数的に増える Ichiro Takeuchi, Nagoya Institute of Technology 7/25 適応的な基底関数 ▶ 高次元空間に潜む低次元空間 10 1 0.75 7.5 0.5 5 0.25 2.5 0 2.5 0 5 10 7.5 7.5 0 2.5 5 7.5 5 10 2.5 10 0 2 次元入力空間 Ichiro Takeuchi, Nagoya Institute of Technology 適応的な基底関数 8/25 適応的な基底関数モデル ▶ 適応的基底関数モデル f (x) = v0 + q ∑ hk (xk , w̃k ) k=1 ▶ ▶ ▶ ▶ 基底の数: q 適応的な基底関数: hk (x, w̃k ), k = 1, . . . , q 基底関数のパラメータ: w̃k 係数パラメータ: v0 , v1 , . . . , vq Ichiro Takeuchi, Nagoya Institute of Technology 9/25 適応的な基底関数モデル(模式図) 適応的な基底関数モデル Ichiro Takeuchi, Nagoya Institute of Technology 10/25 神経細胞のモデル 神経細胞のモデル Ichiro Takeuchi, Nagoya Institute of Technology 11/25 階層型ニューラルネットの基底関数 hk (x, w̃k ) = ψ(wk0 + p ∑ wkj xj ), k = 1, . . . , q j=1 1 1 0.8 0.5 psi(z) psi(z) 0.6 0 0.4 -0.5 0.2 0 -1 -4 -2 0 z 2 logistic sigmoid Ichiro Takeuchi, Nagoya Institute of Technology 4 -4 -2 0 z 2 4 tanh sigmoid 12/25 階層型ニューラルネットモデル f (x) = v0 + q ∑ k=1 Ichiro Takeuchi, Nagoya Institute of Technology ψ(wk0 + p ∑ wkj xj ) j=1 13/25 階層型ニューラルネットモデル f (x) = v0 + q ∑ k=1 Ichiro Takeuchi, Nagoya Institute of Technology ψ(wk0 + p ∑ wkj xj ) j=1 13/25 階層型ニューラルネットモデルのパラメータ W q×(1+p) w10 w11 w12 · · · w1p w20 w21 w22 · · · w2p = .. .. .. .. ... . . . . wq0 wq1 wq2 · · · wqp Ichiro Takeuchi, Nagoya Institute of Technology , v = (1+q)×1 v0 v1 v2 .. . vq 14/25 課題1 (a) logistic シグモイド関数の導関数を logistic シグ モイド関数自体を用いて表わせ. (b) logistic シグモイド関数を ϕlogi (z),tanh シグモ イド関数を ϕtanh (z) とすると, ϕtanh (z) = 2ψlogi (2z) − 1 という関係にあることを示せ. Ichiro Takeuchi, Nagoya Institute of Technology 15/25 シグモイド関数の特徴 シグモイド関数は C ∞ 級関数(何回でも微分可能) 1 0.8 psi(z) 0.6 0.4 0.2 0 -4 Ichiro Takeuchi, Nagoya Institute of Technology -2 0 z 2 4 16/25 階層型ニューラルネットの入出力関係 step1: 入力変数を入力層へ Ichiro Takeuchi, Nagoya Institute of Technology 17/25 階層型ニューラルネットの入出力関係 step2: 入力変数のアフィン変換(位置・尺度変換と回転) Ichiro Takeuchi, Nagoya Institute of Technology 18/25 階層型ニューラルネットの入出力関係 step3: シグモイド関数による非線形変換 Ichiro Takeuchi, Nagoya Institute of Technology 19/25 階層型ニューラルネットの入出力関係 step3: シグモイド関数による非線形変換 Ichiro Takeuchi, Nagoya Institute of Technology 20/25 階層型ニューラルネットの入出力関係 step4: 基底関数を入力とする線形回帰分析 Ichiro Takeuchi, Nagoya Institute of Technology 21/25 階層型ニューラルネット回帰の学習 ▶ 学習データ X= ▶ x1p x2p .. . xn1 xn2 · · · xnp x12 x22 .. . , y = y1 y2 .. . yn 学習誤差 E= n ∑ i=1 ▶ ··· ··· .. . x11 x21 .. . パラメータ W q×(1+p) [yi − {v0 + q ∑ vk ψ(wk0 + Ichiro Takeuchi, Nagoya Institute of Technology wkj xij )}]2 j=1 k=1 w10 w11 w12 · · · w20 w21 w22 · · · = . .. .. .. .. . . . wq0 wq1 wq2 · · · ∑ w1p w2p .. . wqp , v = (1+q)×1 v0 v1 v2 .. . vq 22/25 階層型ニューラルネットによる2クラス分類 ▶ ニューラルネットによって事後確率 P (y = +1 | x) を 予測 P (y = +1 | x) = ψlogi (v0 + q ∑ vk ψ(wk0 + k=1 ∑ wkj xij )) j=1 P (y = −1 | x) = 1 − P (y = +1 | x) ▶ 損失関数 = (負の対数尤度) E= n ∑ log ψlogi (yi (v0 + i=1 Ichiro Takeuchi, Nagoya Institute of Technology q ∑ k=1 vk ψ(wk0 + ∑ wkj xij ))) j=1 23/25 深層学習(Deep Neural Networks) Ichiro Takeuchi, Nagoya Institute of Technology 24/25 宿題 ▶ 深層学習(Deep Learning)の応用先を 3 つ以上(ただ し,説明したものを除く)リストアップせよ.なお, 情報源を明示すること. Ichiro Takeuchi, Nagoya Institute of Technology 25/25
© Copyright 2024 ExpyDoc