スライド タイトルなし

人工知能基礎
5月14日、 5月21日、 5月28日
学習って何?
世界に適応する
... そして ...認識,予測,行動,…
1.学習と規準
学習前
モデル
実世界
データ
規準
x1, x2, x3, …,
学習後
モデル
規準は期待通りだった?
認識,予測,行動
2.学習,規準,結果
迷路
勉強
試験
合格
実人生
ゲーム
綿密
作戦
予想外
最短
計画
工事中
目標を立てないと
何もできない
目標について
最適化しても
環境は変化してしまうかも
3.規準の最適化
人工知能設計の問題は、
しばしば目的関数の最小化の問題になる
E(x1,x2,…,xn)
x= (x1,x2,…,xn) :高次元
例1.文字・音声の認識 --- 例ができるだけ当たる
例2.ロボットの経路決定 --- 経路が最も短い
例3.組み合わせ最適化 --- 不適合さが小さい
例4.運動・制御 --- 遠くに飛ばせる,正確に止まる
最適される変数は?
4.最適化法1 - 確率的探査法
(1)x: 初期化
(2)y := x+ rand;
(3) if E(y)>E(x) x = y; else ;
(4)(2)に戻る
簡単だけど大変だ
x2(t)
最大化
E(x)
x1(t)
x3(t)
5.最適化法2
最急降下法
(1)x: 初期化
(2)x := x-∇E(x) ;
(3)(2)に戻る
早いけど
局所で止まる
本当に早い?
ローカルミニマを
見た人はいない
局所極小に見えるものが
高次元空間には多い
6.最適化法3
雑音つき
最急降下法
(1)x: 初期化
(2)x := x-∇E(x) +rand;
(3)(2)に戻る
遅いけど
最後まで
解析できる
時刻=∞で,平衡状態 p(x) = (1/Z) exp(-E(x))
E(x)
勉強しよう!
確率微分方程式
p(x)
x
6.最適化法4
多点
探査法
GA
(1)xa,xb,…,xz: 初期化
(2)評価,淘汰
(3)交差
(4)突然変異
(5)(2)に戻る
実問題で
うまくいく例が
多いらしい
理論はまだない
雑音を加える
7.実世界は厳しい
☆ 評価関数が最小になったからといって
未来の予測や行動に最適とは限らない
例:学習誤差
n
2
1
En(w) =
Σ (y -f(xi,w))
n i=1 i
予測誤差
E(w) = ∫ (y-f(x,w))2 q(x,y) dx dy
最小化
w*
学習と予測の関係:
E(w*) ≒ (1+2N/n) En(w*)
N:パラメータ
の次元
・・本当の目的は予測が当たること
8.予測の最適化
現在,予測に最強だと思われている
学習アルゴリズム:
(1) 確率 P(w) ∝ exp( - n En(w)) に従って
パラメータ w をたくさん発生させ
(2) 予測 f(x,w) の平均を取り
(3) F = ∫exp( -n E(w))dw を最小にするモデルを使う
なぜ,これでうまくいくのか?
もっとよい方法はないのか?
・・・まだわかっていない
9.さらなる知能に向かって
実世界の中の知能
生命を持つということ
人間から見て
知能的だということ
工学的実現
10.テストって何がでるんだろう
1.持ちこみ可。
2.相談は×。後から提出は×。
3.2回の授業に関係した問題を出す。
4.かんたんなはず。用意はいらないと思う。
5.まだ作ってない。
知能について考えたことが
あると少しだけ有利かも?