人工知能基礎 5月14日、 5月21日、 5月28日 知能って何? どうしたら知能を作ることができるか? 何ができたら知能だといえるのだろう? 1.知能の問題 1980年頃、コンピュータが発達した Turing Machine (1930) どんな もんだい 計算 記憶 データ処理 コンピュータは、コンピュータの中でなら何でもできるが、 実世界に出ると無力だった 実世界を把握している知能とは何だろう? 2.人工知能とは 目的 「知能のように見えるもの」を工学的に実現する 方法1 昔 目的の知能 → アルゴ → ソフト → 実現 リズム ウエア 方法2 近年 目的の知能 → データ → 学習 → 実現 将来は? 3.人工知能の方法論 インタビュー 専門家 言語化 論理化 アルゴリズム, データ構造 演算量 設計者 ワタシ ハ チノウ デス If … Then ... アルゴリズム テスト ソフトウエア コンピュータ 4.人工知能 - 作ってみたら うまくいった! まあまあ…いまいち 問題を限定 特殊化すると まあまああできる まったくだめだった OS,コンパイラ データ管理 ゲーム 言語化 できる情報 故障診断 医療診断 かな漢字変換 文字認識 対話システム 実世界の中の知能ロボット カウンセリングシステム 非言語的 な情報 5.言語化できない情報の獲得にむかって 設計者 世界 → データ → 特殊モデル → 実用 ◎いかにうまく特殊なモデルを発見するか 設計者 ↓ 普遍 モデル → 世界 → データ → 実用 ◎いかに優れた普遍モデルを構成しておくか 6.学習とは? りんご, みかん, ぶどう, … でしょう 先生 ・・・ 先生と同じ 推論になる には…? 果物の絵 が次々と… 学習モデル 7.学習の定式化 Q(x) 環境 データ X1, X2, X3, …, Xn, ... 先生 Q(y|x) P(y|x, w) 学習モデル 先生の推論 Y1, Y2,…., Yn, ... 8.優れた学習モデルとは? ◎ 先生が何であっても学習できる Sup Q inf || Q(y|x) - P(y|x,w) || モデルの豊かさ が小さい w ◎ 少ない例だけから学習できる E || Q(y|x) - P(y|x, w(n) ) || 例 学習の早さ がちいさい 9.モデルの豊富さVS 学習の早さ 例 N y = Σ{ ancos( n x) + bn sin (nx) } n=1 N が大きいと 多くの関数になれるが 最適化するパラメータ数は増える 入力の次元が増えるとさらに… 人工知能・機械学習における基本法則 豊かなモデルほど学習には時間がかかる 大器は晩成す… 10.神経回路網の登場 f(x) y x θ w1 x1 w2 w3 w4 x2 x3 n y = f( Σwixi - θ) i=1 w5 x4 xn たくさん あつめると 何が起こるだろう? 11.神経回路網とは… 「大器は晩成す…」 ところが… 神経回路を模倣して作られたモデルは… 神経回路網を含む階層的学習モデルは ◎ モデルの豊富さは、線形モデルより大きい ◎ 学習する早さは線形モデルよりも早い …それはなぜか? 12.もうちょっと数学的に言うと? ◎ 神経回路網は、入力の次元に依存しない 関数近似能力を持つ (Barron, 1993) inf ||Q-Pw||2 = 1 / N w …学習対象に合せて関数族も 最適化できるから ◎ 神経回路網は、パラメータ数よりも遥かに 小さい学習係数を持つ (Watanabe, 1999) E || Q - Pn ||2 = λ/ n …パラメータ空間に 特異点があるから 今週は 人工知能の問題は 言語化できない情報の獲得 大器は晩成す…しかし 神経回路網は大器で学習も早い 来週は 学習モデルの活躍,そして将来は?
© Copyright 2024 ExpyDoc