8. 問題解決 (1)問題解決とは (2)ヒューリスティクス (3)「問題の表象」の重要性 (4)進化論的視点 (5)人工知能と深層学習 (1)問題解決とは Problem Solving • 認知心理学的視点:目的的な行為はいか にして可能なのか。 • 人や機械にパズルなどを解かせる研究が 多い。 (1)問題解決とは Problem Solving • 古典的研究:Kohler(1927) AHA!=洞察学習 • 問題解決の3つのポイント (1)目標志向性 (2)下位目標への分割 (3)オペレータ(operator)の選択 • オペレータ:ある状態を別の状態へ移行さ せる行為や手続き。 (1)問題解決とは Problem Solving • 人間の行為の多くには明確な目的がある。 • 従って人間の行為は「問題解決的」である。 • ドラクエから人生まで。 (1)問題解決とは Problem Solving • 古典的研究:Kohler(1927) (1)問題解決とは Problem Solving • 問題解決=「問題空間内を検索する過程」 その方法 (1)アルゴリズム(algorism, 計算手順) 四則演算、2次方程式の解など。 (2)ヒューリスティクス(heuristics,発見法) 明確なアルゴリズムがない状態で、問題空 間内を探索する(だいたいの当たりをつけて、いく つかの可能性を試みる) 認知心理学・人工知能研究はもっぱらヒューリス ティクスに関心がある。 1 (2)ヒューリスティクス ① 差異低減法 difference-reduction method • 初期条件と目標状態の差異をとにかく減ら す(類似度を高める)という方略。 • 順番が重要。 • 類似性ばかりに注目すると失敗する。 ① 差異低減法 ② 手段-目標分析 ③ アナロジーの使用 (2)手段-目標分析 means-end analysis (2)手段-目標分析 means-end analysis • 基本的には、差異低減方略と同じ。 • ただし差異を低減できない場合には柔軟 に下位目標を設定し直すことが可能。 • つまり「回り道」ができる。 • Newell and Simon のGPS(general problem solver) で採用された。 • GPSはこれによって「ハノイの塔」を解くこ とができた。 ② 手段-目標分析 1.現状から目標へと進む ② 手段-目標分析 2.差異を低減する 成功 現状と目標を比 較し、 もっとも大きな差 異を検出せよ。 差異検出 下位目標: 差異を低減せよ 失敗 差異なし 成功 失敗 差異低減の ためのオ ペレータ を発見せ よ オペレータ と現状を 差異 オペレータ 比較し、 検出 最も重要 検出 な差異を 検出せよ 発見できず 失敗 失敗 下位目標: 差異を低減 せよ 差異なし オペレータ適用 2 「子供を保育所へ送る」 オペレータの発見 • • • • • • • • 現状と目標の差は=自宅と保育所の距離 「距離」を低減するオペレータ=車 現状と目標の差は=車が故障 「故障」を除去するオペレータ=修理工場 現状と目標の差は=工場へへ連絡してない 「連絡してない」を除去するオペレータ=電話 現状と目標の差は=電話は隣の部屋 「隣の部屋」を除去するオペレータ=隣の部屋へ 行く ② 手段-目標分析 「子供を保育所へ送る」 差異の低減 • • • • • 隣の部屋に行き、電話をかける 工場に連絡がつき、工場から人が来る 車を修理し、直る 子供を乗せて車で出発 子供を保育所へ送ることに成功 前頭前野 • Kotovsky, Hayes and Simon(1985) 「ハノイの塔」で、被験者はしばらく単純な 差異低減を試みた後にMEに移行。 ・Goel and Grafman(1995) 前頭前野損傷者は、IQが正常でも、「ハノ イの塔」の成績が極端に悪く、特に「回り 道」で困難を示した。 • 長期的に満足のいく結果を得るために、短 期的な満足感を先送りにするという選択肢 を制御する能力。 • じっくり物事に取り組む=知性と社会的 人格の核となる能力。 • ヒトの進化の500万年で、脳の大きさは3 倍になったが、前頭前皮質の大きさは6倍に 前頭前野 ③ アナロジー Analogy • ある問題の解法を別の問題に応用する。 • 「胃ガンの放射線治療」問題 • 胃ガンには放射線治療が効果的。しかし 治療に必要な線量を照射するとガン以外 の組織も破壊してしまう。 • 機械的アナロジーで失敗する場合も。 3 (3) 「問題の表象」の重要性 • 問題解決には適切なオペレータの選択が 重要である。 • しかしオペレータの選択は、問題そのもの をどう表象するか、という「視点」に依存す ることがある。 ① 機能的固着 Functional Fixedness • Duncker(1945) ① 機能的固着 Functional Fixedness • Maier(1931) 10分以内=39%のみ。 ② 構えの効果 Set effects • Lunchins(1942) 水桶問題 • Einstellung効果とも呼ぶ。 ② 構えの効果 Set effects ③ 孵化効果 Incubation effects • Safren(1962) • 手続き的ではない、意味的知識についても構え の効果が見られる。アナグラム問題におけるリス ト構造の効果。構造化されたリストは、されてい ないリストより早い。 (Kmli,graus,teews,recma,foefce,ikrdn) (epn, itpuerc, idaro,reapp, noir, upc) • 構造化=7.4秒、非構造化=12.2秒 • 歴史上の、科学発明発見物語 • Silveira(1971) 安物ネックレス問題 • はずすのに200円、つなぐのに300円。1500円でやっ てほしい。 4 (4) 進化論的視点 • 「4枚カード問題」における内容効果 • 抽象型:4枚のカードがある。表に数字、裏 にアルファベット。「3ならD」というルール があるとして、これが正しいかどうかを確 かめるには最低どのカードをめくればいい か。 • 3 5 D K • 非常にむつかしい。正答率10%程度。 (4) 進化論的視点 • 「4枚カード問題」における内容効果 • Cosmides(1989):この現象は、ヒトが社会 生活の中で「裏切り者検知能力」を進化さ せた結果生じている。ヒトの持つ高度な認 知能力は、社会的問題(他者との関係)を 解決するために進化した。 (4) 進化論的視点 • 「4枚カード問題」における内容効果 • 主題型:4枚のカードは4人の人物を表す。 表に年齢、裏に飲み物。「飲酒は20歳以 上」が守られているかどうかを確かめるに は最低どのカードをめくればいいか。 • 酒 茶 25 16 • ほとんどの被験者が正解。 (5) 人工知能と深層学習 • 人工知能(AI)研究は、認知心理学とと もに始まった。 • 研究者が大言壮語して研究費を獲得し ては失敗、ということが続いた。 • 3回か4回くらいのブームがあった。 • • • • (5) 人工知能と深層学習 ① 第1次ブーム(1960年代) 第1次ブーム(1960年代):推論と探索 第2次ブーム(1980年代):知識システム 第3次ブーム(2010年代):機械学習 現代では「深層学習 deep learning」に よってさらなる研究の飛躍が期待されて いる。 • 推論と探索:あらゆる選択肢をしらみつ ぶしに調べる。 • 手段ー目標分析とほぼ同じで、回り道を 考えながら現状と目標の差異を低減する。 • これで「ハノイの塔」を解いた。 • オセロ、チェス、将棋、囲碁の研究へ。 • しかしオセロでさえ選択肢が10の60乗 もある。 5 ① 第1次ブーム(1960年代) • この方向性は、計算速度の向上のおか げでいくつかの成果を上げた。「力まかせ 」である。 • 1997年、IBMのdeep blue がチェスの 世界チャンピオンを撃破。 ① 第1次ブーム(1960年代) ・ 2012年、ボンクラーズが日本将棋連盟 会長(米長邦雄永世棋聖)を撃破。 • 2014年、将棋電王戦で将棋ソフトが人 間相手に4勝1敗。 (東大の670台のコンピュータを結合し、1 秒間に3億手を読んだ) しかしこれは将棋に特化したソフトで、他の ことは何もできない。 ② 第2次ブーム(1980年代) Semantic Network ② 第2次ブーム(1980年代) ② 第2次ブーム(1980年代) • 知識システム:人間の意味記憶のような ものを構築する。 • 人工の「意味ネットワーク」である。 • ELIZA(1964)はカウンセリングのような 対話ができた。「つらいんです」「何がつ らいのですか?」 • 「エキスパート・システム」の開発。 • 「人工無能」もsiriやツイッター上の「ボ ット」も同じ原理。 • 2011年、IBMの「ワトソン」はクイズ番 組で全米チャンピオンを撃破。(ウィキペ ディアに接続していた) • 2021年までに東大合格を目指す「東ロ ボくん」プロジェクト。 • おもしろいおもちゃが作れる。 • しかし真に「意味」を理解しているわけで はない。 • 翻訳はすごく苦手。文脈などを入力する ことが困難だから。 • Time flies like an arrow. • 「タイムというハエは一本の矢が好きだ。 6 ③ 第3次ブーム(2010年代) • 機械学習(machine learning) ネットの情報を取り込んで自ら学習するシ ステム。 Google検索はこの原理を駆使している。 現代の人工知能は、探索推論、知識シス テム、機械学習を巧妙に組み合わせて いる。 神経回路網モデル Neural Network Modeling • 脳の神経細胞(ニューロン)のしくみを模 倣した機械学習のシステム。 ・単純パーセプトロンの時代(1950年代末) • 逆伝播法による並列分散処理(PDP)モ デルの時代(1980年代) • 深層学習の時代(現在) 神経回路網モデル 単純パーセプトロンの時代 (1950年代末) ・解ける問題に限界があることが数学的に証明された。 ・現在のニューラルネットの基礎となっている。 ・「小脳パーセプトロン説」 逆伝播法によるPDPモデルの時代 (1980年代) • • • • PDP(並列分散処理モデル) 誤差逆伝播法(Backpropagation) 「教師信号」をネット内で逆に入力する。 入力層と出力層の間に「隠れ層」がある。 3層以上のモデルは1967年に甘利俊一 が発表した。 7 深層学習の時代(現在) 深層学習の時代(現在) • 隠れ層を何層も作る。 • すさまじい計算量が必要となるが、コン ピュータの能力の向上により、実用化さ れた。 深層学習の時代(現在) • Google(2012)は、ユーチューブの画像1 000万枚を入力して、「ネコ認識」に成功。 • ネット上の大量のデータ(いわゆるビッグ データ)と、超高速計算で初めて可能に なった。 • 人工シナプス100億個からなるネットワ ークを構成し、1000台のコンピュータを 結合して3日かかって計算した。 深層学習の時代(現在) • たいへんな時代になってきた。 • しかしヒトのニューロンは数百億個。 • ニューロンの結合(シナプス)の数は天 文学的。Googleもまだまだ。 • 近い将来にヒトをしのぐ人工知能が登場 するのか? • Singularity(技術的特異点) 8
© Copyright 2024 ExpyDoc