3.2.1. 協力性の進化 社会心理学特殊講義(高木) 2000.07.06 囚 人 の ジ レ ン マ 協 力 ( C ) と 非 協 力 ( D ) C C = 相 互 サ ポ ー ト ━ ━ ━ ━ ━ ━ ━ ━ ━ S e l f O t h e r ─ ─ ─ ─ ─ ─ ─ ─ ─ 一 種 の ( 限 定 ) 交 換 均 衡 解 静 的 ゲ ー ム → D D M e t a G a m e , S u p e r G a m e へ の 拡 張 → C C が D D と と も に 均 衡 解 に 含 ま れ る 。 g i v e 0 2 n o t g i v e 1 0 ━ ━ ━ ━ ━ ━ ━ ━ ━ P l a y e r 2 n o t g i v e g i v e 2 3 g i v e 2 0 P l a y e r 1 n o t 0 g i v e 1 3 1 Axelrod(1984) の分析 一種の進化ゲーム状況 戦略間のトーナメント • tit-for-tat戦略(TFT)の優越 解析 • TFT を取り合う(→CC)ことが Nash 均衡解になる。 • Collective Stable Starategy ≒ESS) TFT の頑健性 限界 • どの戦略が勝つかは戦略分布に よる。 • ノイズを考えない。 • 多数の戦略が競い合う状況では ない。 Axelrod(1984) 以後の展開(1) :ノイズのある状況 ノイズがある状況では TFT より「寛容な」戦略が有利 である可能性 右図の p : C 返礼確率 右図の q : D に C を返す 確率 厳密な TFT :協力の優越 への触媒作用 Axelrod(1984) 以後の展開(2) パブロフ戦略(Win-stay Lose-change): TFT より成績が良い、と いう結果(Nowak, M. & Sigmund, K., 1993) 非寛容な Gradual が強いという説( Beaufils, Delahaye & Mathieu, 1996):相手が裏切った全回数を、相手が裏切るたび に裏切り返す。 Open end な進化(Lindgren, 1991) • ノイズの存在+遺伝子操作によって戦略の次元が増加できる • 何らかのESSに到達 - 9割 ESSの1種 Pavlov • open end な進化 - 1割 TFT セルオートマトンの適用例 (Hegselmann, 1996a,b) エージェントをセルで表現 • エージェントはリスクを抱える。 • サポート関係の成立のシミュ レーション 結果 • サポートのネットワークが出 現 • 近隣間でサポート関係が生じ る。 • リスク水準が似通ったエー ジェント間でサポート関係が 生じやすい。 参考文献 Axelrod, R., 1984, The Evolution of Cooperation. NY: Basic Books. アクセルロッド 松田裕之 (訳) 『つきあい方の科学』、1987、HBJ出版局. Beaufils, B., Delahaye, J-P., Mathieu, P. (1996) Our meeting with Gradual. Artificial-Life-V, MIT Press, Pp.202-209. Hegselmann, R., 1996a, Understanding social dynamics. See Troitzsch et al. (1996), Pp.282-306. Hegselmann, R., 1996b, Cellular automata in the social sciences. In R. Hegselmann, U. Mueller & K.G. Troitzsch (Eds.), Modelling and Simulation in the Social Sciences from the Philosophy of Science Point of View. Dordrecht: Kluwer Academic Publishers, Pp.209-233. Lindgren, K. (1991) Evolutionary phenomena in simple dynamics. Artificial Life-II. AddisonWesley, Pp.295-312. Nowak, M. & May, R.M., 1992, Evolutionary games and spatial chaos. Nature, 359, 29, 8269. Nowak, M., May, R.M. & Sigmund, K., 1995, The arithmetics of mutual help. Scientific American, June, 50-55. Nowak, M. & Sigmund, K., 1992, Tit for tat in heterogeneous populations. Nature, 355, 16, 250-3. Nowak, M. & Sigmund, K., 1993, A strategy of win-stay, lose-shift that outperforms tit-for-tat in the Prisoner's Dilemma game. Nature, 364, 1, 568-3. Suleiman, R., 1996, Simulating cooperation and competition: Present state and future objectives. See Troitzsch et al. (1996), Pp.264-281. 余談:社会的交換ゲーム ゲーム(シミュレーション)のルール 100人のプレイヤー ゲームの1ラウンド = 試行の繰返し プレイヤーは各試行で資源を保有する。 資源を自由に分割し、他者ないし自分に与える。 各試行でのプレイヤーの利得=その試行で受け取った資源量の和 他者から得た資源は自分の資源より価値がある。 • 囚人のジレンマ ラウンドでのプレイヤーの利得は試行ごとの利得和。ただし後の試行の利 得は割引かれる。 ラウンドごとに、利得の下位者の戦略は上位者の戦略と入代わる(進化)。 囚人のジレンマのシミュレーションとの違い 予算制約:協力の範囲を無制限に拡張することはできない。 与える量を自由に調節できる。 限定交換戦略 • NonCoop:孤立主義者 – 決して他者に与えない。 • Saint:聖人 – すべてを無条件に他者に与える。 • Recp:お返し戦略 ~ 返報規範 – 最初のうちは自発的に他者に資源を与える。 – 自分と相手との差し引き勘定を計算、負債の2倍返しをする。 → 交換の永続 • TFT:仲間作り戦略 ~ tit for tat – 最初のうちは自発的に他者に資源を与える。 – 資源をくれる相手を「仲間」と認定する。仲間には常に与える。 – 2度裏切った(資源をくれない)相手は2度と仲間とは認めない。 →同類を識別 • 情報構造 - 自分の交換履歴の情報だけを利用 返報戦略(Recp) + 1 + 1 1 1 + 1 + 1 1 A 2 2 1 2 2 2 2 2 2 B + 1 1 1 1 1 + 1 + 1 2 2 仲間作り戦略(TFT) A 1 1 1 1 1 1 1 1 1 1 1 1 1 B 1 1 分析:4戦略の比較 4 0 0 平均利得 相手が NonCoop だけなら、 Recp、TFT は勝利できる。 5 0 0 • Recp 8 vs NonCoop 92 → Recp 100 • TFT 7 vs NonCoop 93 → TFT 100 TFT が4戦略中最強。 Recp は Saint に弱い。 • 同類識別能力の欠如 3 0 0 2 0 0 T R N S a 1 0 0 0 S N aR o i n T n e t F C c 戦 略 図 2 1 : T F T が 参 加 し た 場 合 図 2 : R e c p , N o n C o o p , S a i n t の 循 環 分析:改良返報戦略 Recp2:改良型返報戦略 4 0 0 平均利得 5 0 0 3 0 0 同類を識別できる 。 2 得点能力は TFT にせまる(図3)。1 保有資源の不確実性 0 0 T F R e N S a 0 0 0 SN a R i o n T e n tc F C p T o 戦 略 TFT は不確実なほど得点が低下 3 : 戦 略 の 平 均 利 得 Recp2 は不確実性の影響を受けない 図 (図3-1)。 5 0 0 シミュレーション 条件 • 確実:毎試行資源 10 • 低不確実: 15/5 • 高不確実: 20/0 確実条件 → TFT が勝利 低/高不確実条件 → Recp2 が勝 利 4 0 0 3 0 0 T 2 0 0 R e 1 0 0 0 確 低 高 実 図 3 1 : 戦 略 の 平 均 利 得 100 80 T F T 60 R e c p 2 40 N o n C o o p 20 0 確 実 条 件 1 0 0 T F T 8 0 6 0 N o n C o o p 0 80 60 R e c p 2 4 0 2 0 T F T 1 00 R e c p 2 40 N o n C o o p 2 0 0 高 不 確 実 条 件 低 不 確 実 条 件
© Copyright 2024 ExpyDoc