情報の期待価値(pdf)

情報の価値 (マネジメント・サイエンス)
目次
1
意思決定の理論における情報の価値
1.1 リスクの下での意思決定と期待値基準
1.2 情報の期待価値 . . . . . . . . . . . .
1.3 完全情報の期待価値 . . . . . . . . .
1.4 サンプル情報の期待価値 . . . . . . .
.
.
.
.
1
1
2
3
4
2
確率論の初歩とベイズの公式
2.1 諸概念 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 ベイズの公式の解説 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
5
7
3
演習問題
7
1
意思決定の理論における情報の価値
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
意思決定の場面において何らかの追加情報が得られれば,それを利用してよりよい結果 (より多くの
ペイオフ) を得られると期待できる.ここでは,追加情報が得られない場合と得られた場合での期待ペ
イオフの差をその追加情報の価値とし,それを評価する方法 (価値を求める方法) を示す.情報の価値を
評価できれば,その情報を得るための代価が妥当なものかどうかを判断することができる.
一般に意思決定に関わるプロセスは,
「事前検討」→「情報の収集」→「意思決定」→「行動の実行」
→「行動の結果」と進む.よって,意思決定を行う時点では当然のことながら行動の結果がどうなるか
は分かっていない (結果についの不確実性).そのために,意思決定の理論では,不確実な結果 (ペイオ
フ) を評価するための道具として確率を用い,ペイオフの平均 (期待値) によって情報の価値を評価して
いる.
1.1
リスクの下での意思決定と期待値基準
(1) リスクの下での意思決定
意思決定の場面では,ひとつの決定に対して起こりうる結果が複数存在する場合が一般的である (例
えば,株式を購入した場合に得られる利益,商品を値下げあるいは値上げした場合に増加・減少する利
益など).リスクの下での意思決定 とは,ひとつの決定に複数の結果が生じる状況において,各結果の
起こる確率が事前に与えられている場合 (事前に推定されている場合) の意思決定を指す.リスクの下で
の意思決定は,次のような構造を持った問題として表現される.
• 決定の集合:D = {d1 , d2 , ..., dm },m 種類の決定
• (将来起こり得る) 状態の集合:S = {s1 , s2 , ..., sn },n 種類の状態
• (状態の主観的な) 生起確率:pj = P (sj ), j = 1, 2, ..., n,各状態が起こる確率
• ペイオフ:cij = c(di , sj ), i = 1, 2, ..., m, j = 1, 2, ..., n,決定 di と状態 sj の組に対して与えられ
るペイオフ
• ペイオフ表:(cij ) を表にしたもの(表 1)
このような意思決定の構造 (情報の収集も追加したもの) は,
「情報の確定」→「決定の選択」→「状態
の確定」→「ペイオフの確定」という順序で時間的に進むプロセスと捉えることもできる.このプロセ
スを樹形図で描いたのが意思決定ツリーである.リスクの下での意思決定で扱う問題はこの意思決定ツ
リーで表現すると分かりやすい.具体的な意思決定ツリーについては講義中に示す.
(2) 期待値基準
リスクの下での意思決定において,複数の代替案 (決定) からひとつを選ぶための合理的な選択方法の
ひとつとして,次の期待値基準がある.
1
表 1: ペイオフ表
決定
状態
s2 · · ·
d1
d2
..
.
s1
c11
c21
..
.
c12
c22
..
.
···
···
..
.
sn
c1n
c2n
..
.
dm
cm1
cm2
···
cmn
期待値基準
• X(di ): 決定 di を選んだときのペイオフ (確率変数となる,2 節を参照)
¯ i ): X(di ) の期待値 (決定 di を選んだときの期待ペイオフ),次で与えられる (期待値について
• X(d
は 2 節を参照)
¯ i ) = E(X(di )) = p1 ci,1 + p2 ci,2 + · · · + pn ci,n
X(d
• 期待値基準とは,期待ペイオフが最大となる決定を選ぶ基準のこと (意思決定ツリーは講義中に
示す)
¯ ∗ = max1≤i≤m X(d
¯ i ) (X
¯ ∗ を与える決定を最適な決定といい, d∗ で表す)
• 最大期待ペイオフ: X
例 1(外貨預金 vs 国内預金):日本円で 100 万円を 1 年間預金し,元利合計を円で受け取る.
• 決定の集合: D = {d1 , d2 }; d1 = 米国で預金 (年利 5%), d2 = 国内で預金 (年利 1%)
• 状態の集合 (円・ドル為替レートの値を状態と考える) : S = {s1 , s2 , s3 }; s1 = 110 円 (現在より 10
円円高), s2 = 120 円 (現在の為替レート), s3 = 130 円 (現在より 10 円円安)
• 生起確率 (主観確率) : p1 = 0.2, p2 = 0.4, p3 = 0.4
• ペイオフ表: 表 2 (1 年後に受け取る円建ての金額から 100 万円を引いた値をペイオフとした)
¯ ∗ = 6.75, 最適な決定 d∗ = d1
• 期待値基準に従った意思決定の結果: 最大期待ペイオフ X
表 2: 外貨預金と国内預金のペイオフ(単位:万円,手数料や税金は考慮しない)
決定
pj
1.2
d1
d2
s1
−3.75
1
0.2
状態
s2
5
1
0.4
s3
13.75
1
0.4
期待値
¯ i)
X(d
6.75
1
情報の期待価値
• リスクの下での意思決定を対象とする.
• 意思決定の理論における情報とは,起こりうる状態に関する情報であり,予め与えられている各
状態の生起確率 (事前確率) をより確からしい値にするものである.
• 情報の価値は,次のようにして定義される.
¯ ∗ のこと)
– W0 : 事前確率のみを用い,期待値基準に従って求めた最大期待ペイオフ (X
– WI : 追加情報を用いて求めた最大期待ペイオフ
– VI = WI − W0 : 情報の期待価値
W0 の求め方は既に与えたので,以下では WI の求め方を説明する.
• 追加的な情報が得られる場合,意思決定は次のような構造を持った問題となる (意思決定ツリーは
講義中に示す).
2
– 情報の集合:G = {g1 , g2 , ..., g` },` 種類の情報
– 決定の集合:D = {d1 , d2 , ..., dm },m 種類の決定
– 状態の集合:S = {s1 , s2 , ..., sn },n 種類の状態
– ペイオフ:cij = c(di , sj ), i = 1, 2, ..., m, j = 1, 2, ..., n
さらに,次も得られているとする.
– 事前確率:pj = P (sj ), j = 1, 2, ..., n,追加情報が与えられる前に得られている,各状態が起
こる確率
– 情報の条件付き確率:P (gk | si ), i = 1, 2, ..., n, k = 1, 2, ..., `;状態 si が起こったという条件
の下で情報 gk を得る条件付き確率
• 追加情報として,完全情報とサンプル情報の 2 種類を考える.完全情報とは,その情報が与えられ
ればどの状態が生起するかが一意に特定される情報である.サンプル情報とは,完全情報ではな
い情報であり,生起する状態の特定はできないが,各状態が起こる確率をより確からしいものに
する情報である.
以下では,次の例をもとにして情報の価値を評価していく.
例 2-1 A 氏は輸入企業の株 (決定 d1 ) または輸出企業の株 (決定 d2 ) を購入しようとしている.6ヶ月後
の株価はその時の為替レートに依存して決るものとし,円高になる場合 (状態 s1 ) と円安になる場
合 (状態 s2 ) について,株の売買によるペイオフ (単位:万円) と各状態の生起確率 (事前確率) を
表 3 のように予測した.このような設定の下,期待値基準に従って選ばれる最適な決定は d2 であ
り,最大期待ペイオフは W0 = 44(万円)である.
表 3: 株式投資のペイオフ (単位:万円,手数料や税金は考慮しない)
状態
s1 (円高) s2 (円安)
決定
d1 (輸入企業の株式購入)
d2 (輸出企業の株式購入)
pj (事前確率)
100
−10
0.4
−20
80
0.6
期待値
¯ i)
X(d
28
44
例 2-2 コンサルタントの B 氏は為替変動の予測を得意とし,6ヶ月以内であれば円高になるか円安にな
るかを確実に (確率 1 で) 当てることができる.ただし,その情報料は 30 万円である.A 氏は B 氏
から情報を購入すべきかどうか.
例 2-3 コンサルタントの C 氏も為替変動の予測を行うが,その信頼度 (予測が当たる確率) は,6ヶ月後
の予測の場合,0.7 である.ただし,その情報料は 10 万円である.A 氏は C 氏から情報を購入す
べきかどうか.また,B 氏と C 氏のどちらから情報を購入すべきか.
1.3
完全情報の期待価値
• 完全情報 (perfect information) とは,どの状態が起こるかを確率 1 で示す情報のこと.以下,
j = 1, 2, ..., n に対して,情報 gj は状態 sj が起こることを示す情報とする (完全情報の種類の数
は状態数と同じになる,すなわち,` = n).
• 完全情報を条件付き確率で表現すれば,P (gj | sj ) = 1, j = 1, 2, ..., n, であり,k 6= j に対しては
P (gk | sj ) = 0 となる.
• WP I を完全情報が得られるとして求めたペイオフの期待値とする.この時,完全情報の期待価値
VP I は,VP I = WP I − W0 で与えられる.
• WP I の求め方 (意思決定ツリーは講義中に示す)
3
(Step 1) 情報 gj を得たとする.gj は状態 sj が起こるという情報なので,状態が sj のときに
ペイオフを最大にする決定を選ぶことにし,その時得られる最大ペイオフを c∗j とする.すな
わち,
c∗j = max cij .
1≤i≤m
この操作を全ての j = 1, 2, ..., n について行う.
(Step 2) 各情報を得る確率 (完全情報なので,情報 gj を得る確率は状態 sj が起こる事前確率
pj = P (sj ) に等しいと考える) を用いて,Step 1 で求めた最大ペイオフの期待値を求め,そ
れを WP I とする.すなわち,
WP I = p1 c∗1 + p2 c∗2 + ... + pn c∗n .
• 例 2-2 では,
WP I = 0.4 × max{100, −10} + 0.6 × max{−20, 80} = 88.
よって,情報の価値は VP I = 88 − 44 = 44 万円で,それは情報料 30 万円より大きい.これより,
情報の価値を基にした判断からは,情報を購入してもよいことが分かる.
1.4
サンプル情報の期待価値
• サンプル情報 (sample information) とは,完全情報ではない情報のこと.不完全情報ともいう.
• WSI をサンプル情報が得られるとして求めたペイオフの期待値とする.この時,サンプル情報の
期待価値 VSI は,VSI = WSI − W0 で与えられる.また,比 VSI /VP I をサンプル情報の効率と
いう.
• WP I の求め方
情報 gk が得られた場合に状態 sj が起こる確率 P (sj | gk ) が分かれば,それを用いて,情報 gk
が得られた場合の最大期待ペイオフを求めることができる (P (sj | gk ) を P (sj ) の代わりに用いる).
以下での計算のポイントは,事前に与えられた条件付き確率 P (gk | sj ) からベイズの公式を用いて
P (sj | gk ) を求めるところにある1 (ベイズの公式については 2 節を参照).
(Step 1) 各 k = 1, 2, ..., ` に対して,情報 gk を得る確率 P (gk ) を次の式から求める (この式は条
件付き確率の定義と全確率の公式から得られる,2 節を参照).
P (gk ) = p1 P (gk | s1 ) + p2 P (gk | s2 ) + ... + pn P (gk | sn )
(Step 2) 各 k = 1, 2, ..., ` に対して,情報 gk を得たという条件の下で状態 sj , j = 1, 2, ..., n, が
起こる確率 (事後確率) を,ベイズの公式から求める.すなわち,
pj P (gk | sj )
P (gk | sj )P (sj )
P (sj | gk ) =
=
.
P (gk )
P (gk )
(Step 3) 情報 gk が得られたとする.この時,事後確率 P (sj | gk ) は状態 sj が起こる確率を表すの
で,これを用いて期待値基準に従って意思決定を行い,得られた最大期待ペイオフを WSI (gk )
とする.この操作を全ての k = 1, 2, ..., ` に対して行う.
(Step 4) Step 1 で求めた,情報 gk を得る確率 P (gk ) を用いて,Step 3 で求めた,最大期待ペ
イオフ WSI (gk ) の期待値を求め,それを WSI とする.すなわち,
WSI = P (g1 )WSI (g1 ) + P (g2 )WSI (g2 ) + ... + P (g` )WSI (g` ).
• 例 2-3 では以下のようになる.
– 情報 gj を「状態 sj が起こる」という情報とする (例えば,g1 は「円高になる」という情報).
情報の信頼度は情報が当る確率なので,情報の条件付き確率 P (gk | sj ) は次で与えられる.
P (g1 | s1 ) = 0.7(当る), P (g2 | s1 ) = 1 − P (g1 | s1 ) = 0.3(はずれる)
P (g2 | s2 ) = 0.7(当る), P (g1 | s2 ) = 1 − P (g2 | s2 ) = 0.3(はずれる)
1
一般に,P (gk | sj ) は与えられた問題の構造から直接得られる場合が多い.
4
(Step 1) P (g1 ) = p1 P (g1 | s1 ) + p2 P (g1 | s2 ) = 0.4 × 0.7 + 0.6 × 0.3 = 0.46,
同様にして,P (g2 ) = 0.54.
p1 P (g1 | s1 )
0.4 × 0.7
(Step 2) P (s1 | g1 ) =
=
= 0.61, 同様にして,P (s2 | g1 ) = 0.39.
P (g1 )
0.46
p2 P (g2 | s1 )
0.4 × 0.3
P (s1 | g2 ) =
=
= 0.22, 同様にして,P (s2 | g2 ) = 0.78.
P (g2 )
0.54
(Step 3) 表 4 より,WSI (g1 ) = 53.2, WSI (g2 ) = 60.2 となる.
表 4: 情報を得た場合の期待ペイオフ
d1
d2
P (sj | gk ) (事後確率)
s1
100
−10
0.61
情報 g1
¯ i)
s2
X(d
−20
80
0.39
53.2
25.1
s1
100
−10
0.22
情報 g2
¯ i)
s2
X(d
−20
80
0.78
6.4
60.2
(Step 4) ・WSI = P (g1 )WSI (g1 ) + P (g2 )WSI (g2 ) = 0.46 × 53.2 + 0.54 × 60.2 = 56.98
・VSI = WSI − W0 = 56.98 − 44 = 12.98
・サンプル情報の効率 = 12.98/44 = 0.3
– よって,情報の価値は 12.98 万円で情報料 10 万円より大きいので情報を購入してもよい.し
かし,情報の価値と情報料との差額は B 氏の方が大きいので,その意味では B 氏から購入す
る方が得である.
確率論の初歩とベイズの公式
2
2.1
諸概念
ここでは確率論の初歩を示す.
(1) 試行,事象,全事象,空事象
試行 結果が偶然に支配される実験や観察
例)さいころを投げる
事象 試行の結果として起こる事柄
例)A = {1 または 2 の目が出る } = {1, 2}
全事象 起こり得る結果の全体,通常 Ω で表す.
例)Ω = {1, 2, 3, 4, 5, 6}
空事象 起こり得る結果をひとつも含まない事象,通常 ∅ で表す.
注)事象は起こりうる結果の集合と考えてもよい.空事象は空集合に対応する.
(2) 確率
– 事象 A の起こる確率とは事象 A の起こることが期待される割合であり,ここでは P (A) と記
述する.
例)P ({1 または 2 の目が出る }) = 13
– 性質)0 ≤ P (A) ≤ 1, P (Ω) = 1, P (∅) = 0
(3) 確率変数
– 試行の結果を変数として表したものを確率変数という.具体的にどのような値を取るかは分
からないが,どの値を取るかの確率は与えられている.
例)X: さいころの出た目の数,P (X ≤ 3) = 12
(4) 期待値
5
– 確率変数の実現値を,その実現値が起こる確率で重み付けし,和を取ったものをその確率変
数の期待値という.
– 今,確率変数 X が離散的な値 x1 , x2 , ..., xn のどれかを取るものとし,xi , i = 1, 2, ..., n, を
取る確率が pi であったとする.この時,X の期待値 E(X) は次で与えられる (記号 E は
expectation の頭文字).
E(X) = p1 x1 + p2 x2 + · · · + pn xn
– 確率変数が連続値を取る場合,その期待値は積分で与えられるがここでは省略する.
(5) 積事象,和事象,余事象
– 積事象:A ∩ B (A かつ B )
– 和事象:A ∪ B (A または B )
– 余事象:AC = {Ωのうちで A の要素でないもの }
A ∪ AC = Ω, A ∩ AC = ∅
(6) 排反と加法定理
– 事象 A と事象 B が排反 ⇔ A ∩ B = ∅
– 確率の加法定理:事象 A と事象 B が排反 ⇒ P (A ∪ B) = P (A) + P (B)
(7) 和事象,余事象の確率
加法定理を用いて次が導かれる.
– P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
– P (AC ) = 1 − P (A)
(8) 独立
– 事象 A と事象 B が独立 ⇔ P (A ∩ B) = P (A)P (B)
– 例)A = { 大きいさいころの目が 1}, B = { 小さいさいころの目が偶数 },
1
P (A ∩ B) = P (A)P (B) = 16 × 12 = 12
(9) 条件付き確率
P (A ∩ B)
:事象 B が起こったという条件の下で事象 A が起こる確率のこと
P (B)
– 例)A = { さいころの目が 2}, B = { さいころの目が偶数 },
P (A∩B)
1/6
P (A|B) = P (B) = 1/2 = 13
– P (A|B) =
(10) 全確率の公式
– A1 , A2 , ..., An :事象,次を満たす
Ai ∩ Aj = ∅ (i 6= j): 互いに排反
A1 ∪ A2 ∪ ... ∪ An = Ω: 和事象が全事象
– この時,任意の事象 G に対して次の全確率の公式が成り立つ.
P (G) = P (G ∩ A1 ) + P (G ∩ A2 ) + · · · + P (G ∩ An )
(1)
さらに条件付き確率の定義式を用いて次の式が得られる.
P (G) = P (G | A1 )P (A1 ) + P (G | A2 )P (A2 ) + · · · + P (G | An )P (An )
(11) ベイズ (Bayes) の公式
– 追加情報を用いて対象とする事象の確率を修正する公式のこと
– ベイズの公式(一般形)
・ A1 , A2 , ..., An :事象,次を満たす
Ai ∩ Aj = ∅ (i 6= j): 互いに排反
A1 ∪ A2 ∪ ... ∪ An = Ω: 和事象が全事象
・ 確率 P (Ai ), i = 1, 2, ..., n, は与えられているものとする.
6
(2)
・ 事象 G に対して,条件付き確率 P (G | Ai ), i = 1, 2, ..., n, は与えられているものとする.
・ この時,事象 G が起こったという追加情報が得られた場合において事象 Ai が起こる確
率は次の公式で与えられる.
P (G|Ai )P (Ai )
P (G|Ai )P (Ai )
, i = 1, 2, ..., n
(3)
P (Ai |G) =
= ∑n
P (G)
j=1 P (G|Aj )P (Aj )
注)右端の式は,式 (2) を用いて得られる.
2.2
ベイズの公式の解説
• ベイズの公式(n = 2 の時)
A, B :事象,次を満たす
A ∩ B = ∅ (i 6= j): 互いに排反
A ∪ B = Ω: 和事象が全事象
この時,追加情報を表す事象 G に関して次の公式が成り立つ.
P (G|A)P (A)
P (G|B)P (B)
P (A|G) =
, P (B|G) =
(4)
P (G)
P (G)
• 使い方:事前確率 P (A), P (B) が得られているとする.また,事象 A (事象 B) が起こったと仮定
した場合に追加情報 G が得られる確率 P (G|A) (P (G|B)) も事前に得られているものとする.こ
のとき,追加情報 G を得たという結果の下で事象 A (事象 B) が起こる確率 P (A|G) (P (B|G)) は
式 (4) を用いて計算される.
• 例:玉を取り出してつぼを当てるゲーム.取り出した玉の色が情報に対応する.
– ふたつのつぼ:つぼ h は白玉のみ,つぼ r は白玉と赤玉が 1 対 2
– どちらかをランダムに選び,布をかぶせる.
– ひとつ玉を取り出し,その色を見てどちらのつぼかを予想する.
– 事象 H: 隠されたつぼは h,事象 R: 隠されたつぼは r → 事前確率:P (H) = P (R) =
1
2
– 玉を取り出し,その色を見る → 追加情報:事象 GH : 白玉,事象 GR : 赤玉
– つぼがどちらか分かれば出る玉の色についての確率は計算できる (事前情報としての条件付
き確率が得られる).
→ P (GH |H) = 1, P (GR |H) = 0, P (GH |R) = 13 , P (GR |R) = 23
– 取り出したのが赤玉だった場合 (事象 GR )
→ つぼ r,事後確率は P (R|GR ) = 1, P (H|GR ) = 0.
– 取り出したのが白玉だった場合 (事象 GH ) → ベイズの公式を用いて事後確率を求める.
1 1 1
2
P (GH ) = P (GH |H)P (H) + P (GH |R)P (R) = 1 × + × =
2 3 2
3
1
1×
P (GH |H)P (H)
3
= 2 2 =
P (H|GH ) =
P (GH )
4
3
P (R|GH ) =
P (GH |R)P (R)
=
P (GH )
1
3
×
2
3
1
2
=
1
4
– これより,白玉が出れば隠されたつぼが h である確率が高くなるのが分かる.
3
演習問題
ある企業が新店舗の建設を計画しており,候補地を場所 X (決定 d1 ) と場所 Y (決定 d2 ) に絞った.場
所 X は以前に詳細な調査を行った場所であり,出店後の利益 (ペイオフ) は 1 年間で 5500 万円が見込ま
れる.場所 Y は予備調査の段階であり,条件が良い場所なのかあまり良くない場所なのかはまだ結論が
出ていない.もし,条件が良い場所であれば (状態 s1 ),1 年間で 6000 万円の利益が見込まれるが,条件
があまり良くない場所ならば (状態 s2 ),1 年間で 4000 万円の利益しか見込めない (表 5).条件が良いか
悪いかの確率は今のところ五分五分 (いずれも確率 0.5) である.以下の問に答えよ.
7
表 5: 出店によるペイオフ(単位:万円)
状態
s1
5500
6000
0.5
決定
d1
d2
事前確率 pj
s2
5500
4000
0.5
(問 1) 期待値基準に従って意思決定を行った場合の最適な決定と最大期待ペイオフを示せ.
(問 2) 場所 Y についてはさらに詳細な 2 種類の調査をすることが可能である.調査 A は費用が 100 万
円かかるが良い場所か悪い場所かを確実に知ることができる.調査 A の情報の価値を 1 年間での
利益をもとにして示せ.
(問 3) 調査 B は費用が 50 万円であるが,調査結果が誤る場合もある.良い場所であった場合に調査結
果が誤る確率は 0.3,悪い場所であった場合に調査結果が誤る確率は 0.1 である.調査 B の情報の
価値を 1 年間での利益をもとにして示せ.
(問 4) 1 年間での利益をもとに考えた場合,調査を受けるべきか受けないべきか,受けるならどちらの
調査にすべきかを問 2, 3 の結果から示せ.
参考文献
[1] 田畑吉雄, 経営科学入門, 牧野書店 (2000).
[2] 古川一郎他, マーケティング・サイエンス入門, 有斐閣アルマ (2003).
8