¾ðÊóÍýÏÀ

情報理論
第5回
情報理論
1 / 27
1
情報源のモデル
情報源のモデル
マルコフ情報源
エントロピーレート
定常情報源のエントロピーレート
2
練習問題
情報理論
2 / 27
情報源
語句
情報源:情報を発生する源
アルファベット:情報源から発生される記号の集合
q 元アルファベット:アルファベットの要素数が q
例:コインを 1 秒毎に投げ,表なら 1,裏なら 0 を出力する情報源を考え
る.これは 2 元アルファベット {0, 1} となる.
情報理論
3 / 27
確率過程
確率過程:確率変数の列のこと.時刻 i の確率変数が Xi とすると,
X1 , X2 , X3 , · · · , Xn
各確率変数 Xi が値 xi をとるときの確率は,
P ((X1 , X2 , · · · , Xn ) = (x1 , x2 , · · · , xn )) = P (x1 , x2 , · · · , xn )
と同時確率により書ける.
例:コインを 1 秒毎に投げ,表なら 1,裏なら 0 を出力する情報源を考え
る.コインを 5 回投げた結果が,0, 1, 1, 0, 1 のとき,
P ((X1 , X2 , X3 , X4 , X5 ) = (0, 1, 1, 0, 1)) = P (0, 1, 1, 0, 1) =
情報理論
1
32
4 / 27
定常情報源
定常情報源
定常情報源とは,任意の正整数 n と k ,(x1 , x2 , · · · , xn ) ∈ An に対して以
下を満たす情報源をいう.
P (X1 = x1 , X2 = x2 , · · · , Xn = xn )
= P (X1+k = x1 , X2+k = x2 , · · · , Xn+k = xn )
つまり,時間のシフトに対して同時確率が変化しない情報源である.
例:n = 1 としたときに,任意の正整数 k > 0 に対して以下が成り立つ.
P (X1 = x1 ) = P (X1+k = x1 )
独立したコイン投げは定常情報源.
情報理論
5 / 27
定常無記憶情報源
定常無記憶情報源
アルファベット A の値をとる確率変数列 X1 , X2 , · · · , Xn が互いに独立
で,同一の確率分布 Q に従うとき,その情報源を定常無記憶情報源とい
う.すなわち,以下を満たす.
P (X1 = x1 , X2 = x2 , · · · , Xn = xn ) = Q(x1 )Q(x2 ) · · · Q(xn )
つまり,前の確率変数に今の確率変数の値が依存しない.
例:独立したコイン投げは定常無記憶情報源.
情報理論
6 / 27
マルコフ情報源
マルコフ情報源
任意の正整数 n に対し,アルファベット A の値をとる確率変数列
X1 , X2 , · · · , Xn がすべての,(x1 , x2 , · · · , xn ) ∈ An について以下を満た
すとき,その情報源をマルコフ情報源という.
P (Xn = xn | Xn−1 = xn−1 , Xn−2 = xn−2 , · · · , X1 = x1 )
= P (Xn = xn | Xn−1 = xn−1 )
つまり,時刻 i における確率変数 Xi の確率分布が時刻 i − 1 の確率変数
Xi−1 のとった値のみに依存する.
例:アルファベット {0, 1} 上の情報源を考える.1 つ前の文字が 0 であれ
ば,1 がでる確率が 23 ,1 つ前の文字が 1 であれば,1 がでる確率が 13 で
あるような情報源はマルコフ情報源である.
情報理論
7 / 27
定常マルコフ情報源
定常マルコフ情報源
マルコフ情報源かつ,任意の正整数 n と任意の x, x′ ∈ A に対して以下の
2 つをみたすとき,その情報源を定常マルコフ情報源という.
P (Xn = x) = P (x1 = x)
P (Xn = x′ | Xn−1 = x) = P (X2 = x′ | X1 = x)
つまり,時刻 n で記号 x が出現する確率と時刻 n − 1 で x が出現したと
きに時刻 n で x が出現する確率が時刻 n によって変化しない.
情報理論
8 / 27
定常マルコフ情報源における同時確率
定常マルコフ情報源における同時確率
定常マルコフ情報源における同時確率 P (x1 , x2 , · · · , xn ) は以下のように
書ける.
P (x1 , x2 , · · · , xn ) = P (xn | xn−1 )P (xn−1 | xn−2 ) · · · P (x2 | x1 )P (x1 )
【証明】条件つき確率の公式より,
P (x1 , x2 , · · · , xn ) = P (xn | x1 , x2 , · · · xn−1 )P (x1 , x2 , · · · , xn−1 )
ここでマルコフ情報源の条件より,右辺は,
P (xn | x1 , x2 , · · · xn−1 )P (x1 , x2 , · · · , xn−1 )
= P (xn | xn−1 )P (x1 , x2 , · · · , xn−1 )
となる.あとは同様の式変形を繰り返せば上記の等式を得る.
情報理論
9 / 27
マルコフ情報源の特徴
2 元アルファベット {0, 1} 上の 2 元定常マルコフ情報源を考える.定常マ
ルコフ情報源を定めるためには,まず各条件付き確率を定める必要が
ある.
P (0|0) = 1 − a, P (1|0) = a, P (0|1) = b, P (1|1) = 1 − b
それと,時刻 1 における各記号の出現確率も定めないといけない.
P (X1 = 0) = w, P (X1 = 1) = 1 − w
これを状態遷移図(またはシャノン線図)で表すと以下のようになる.
1/a
0/1
a
0
1
1/1
b
0/b
情報理論
10 / 27
マルコフ情報源の特徴
定常確率分布の一意性
定常確率分布 P (0) = P (X1 = 0) と P (1) = P (X0 = 1) は,条件付き確率
を定めると一意に定まる.
(注意)a = b = 0 などの特別な場合は定めることができない.定めるこ
とのできないマルコフ情報源を非定常マルコフ情報源とよぶ.
【証明】定常マルコフ情報源なので以下を満たす.
P (Xn = 0) = P (X1 = 0) = w
P (Xn = 1) = P (X1 = 1) = 1 − w
今,条件確率が時刻によらず一定なので,以下が成り立つ必要がある.
P (X2 = 0) = P (X1 = 0) = w
P (X2 = 1) = P (X1 = 1) = 1 − w
情報理論
11 / 27
一意性の証明の続き
ここで,P (X2 = 0) を周辺確率の定義式より書き直すと,
P (X2 = 0) = P (X2 = 0, X1 = 0) + P (X2 = 0, X1 = 1)
= P (0|0)P (X1 = 0) + P (0|1)P (X1 = 1)
= (1 − a)w + b(1 − w)
となる,今,P (x2 = 0) = w を満たすので,
(1 − a)w + b(1 − w) = w
より,
w=
b
a+b
となり,a と b の値が決まれば一意に決まることがわかる.P (X2 = 1) の
方からも同様の導出ができるので各自行うこと.
情報理論
12 / 27
マルコフ情報源の特徴
問
2 元アルファベット {0, 1} 上の 2 元定常マルコフ情報源の条件付き確率が
以下で与えられている.
2
1
1
1
P (0|0) = , P (1|0) = , P (0|1) = , P (1|1) =
3
3
2
2
このとき,定常確率分布 P (0) と P (1) を求めよ.
問
2 元アルファベット {0, 1} 上の 2 元定常マルコフ情報源の条件付き確率が
以下で与えられている.
3
1
1
2
P (0|0) = , P (1|0) = , P (0|1) = , P (1|1) =
4
4
3
3
このとき,定常確率分布 P (0) と P (1) を求めよ.
情報理論
13 / 27
エントロピーレート
エントロピーレート
情報源 X からの出力列を表す確率変数列 X1 , X2 , · · · , Xn に対して,同
時エントロピーに関する以下の極限が存在するとき,H(X) を情報源 X
のエントロピーレートという.
1
H(X1 , X2 , · · · , Xn )
x→∞ n
H(X) = lim
同時エントロピーの収束値のこと.
情報理論
14 / 27
エントロピーの加法性の一般化
エントロピーの加法性の一般化
H(X1 , X2 , · · · , Xn ) =
H(X1 ) + H(X2 |X1 ) + H(X3 |X1 , X2 ) + · · · + H(Xn |X1 , X2 , · · · , Xn−1 )
【証明】確率変数が 2 個のときのエントロピーの加法性を用いると,
H(X1 , X2 , · · · , Xn ) = H(X1 , X2 , · · · , Xn−1 ) + H(Xn |X1 , X2 , · · · , Xn−1 )
となるので,後は同時エントロピーの部分に繰り返し,確率変数が 2 個
のエントロピーの加法性を利用すると結論の式が導かれる.
情報理論
15 / 27
定常無記憶情報源のエントロピーレート
エントロピーの加法性の一般化を用いることで,エントロピーレートを
求めることができる.
定常無記憶情報源のエントロピーレート
X を定常無記憶情報源とする.このとき,エントロピーレート H(X) は
以下を満たす.
H(X) = H(X1 )
【証明】情報源 X が定常無記憶情報源なので,出力列を表す確率変数列
X1 , X2 , · · · , Xn は互いに独立かつ同一の確率分布 P に従うことより,
H(Xn |X1 , X2 , · · · , Xn−1 ) = H(Xn ) n = 2, 3, · · ·
が成り立つ.
情報理論
16 / 27
証明
【証明のつづき】これより,
H(X1 , X2 , · · · , Xn )
= H(X1 ) + H(X2 |X1 ) + H(X3 |X1 , X2 ) + · · · + H(Xn |X1 , X2 , · · · , Xn−1 )
= H(X1 ) + H(X2 ) + · · · + H(Xn )
となり,各確率変数は独立かつ同じ確率分布に従うので,
H(X1 ) = H(X2 ) = · · · = H(Xn )
であるから,
H(X1 , X2 , · · · , Xn ) = nH(X1 )
これより,
1
H(X1 , X2 , · · · , Xn ) = H(X1 )
n
あとは両辺の n → ∞ の極限をとれば,H(X) = H(X1 ) を得る.
情報理論
17 / 27
定常マルコフ情報源のエントロピーレート
定常マルコフ情報源のエントロピーレート
X を定常マルコフ情報源とする.このとき,エントロピーレート H(X)
は以下を満たす.
H(X) = H(X2 | X1 )
【証明】情報源 X が定常マルコフ情報源なので,出力列を表す確率変数
列 X1 , X2 , · · · , Xn において,確率変数 Xn は 1 つ前の確率変数 Xn−1 以
外とは独立であるので,
H(Xn |X1 , X2 , · · · , Xn−1 ) = H(Xn |Xn−1 ) n = 2, 3, · · ·
が成り立つ.
情報理論
18 / 27
証明
【証明のつづき】これより,
H(X1 , X2 , · · · , Xn )
= H(X1 ) + H(X2 |X1 ) + H(X3 |X1 , X2 ) + · · · + H(Xn |X1 , X2 , · · · , Xn−1 )
= H(X1 ) + H(X2 |X1 ) + H(X3 |X2 ) · · · + H(Xn |Xn−1 )
となる.また定常性より,
H(X2 |X1 ) = H(X3 |X2 ) = · · · = H(Xn |Xn−1 )
であるから,
H(X1 , X2 , · · · , Xn ) = H(X1 ) + (n − 1)H(X2 |X1 )
となる.
情報理論
19 / 27
証明
【証明のつづき】よって,
1
H(X1 , X2 , · · · , Xn ) =
n
1
n−1
H(X1 ) +
H(X2 |X1 )
n
n
H(X1 ),H(X2 |X1 ) は n によらない定数なので,n → ∞ を考えると,
1
1
n−1
H(X1 , X2 , · · · , Xn ) = lim H(X1 ) + lim
H(X2 |X1 )
n→∞ n
n→∞ n
n→∞
n
= H(X2 |X1 )
lim
となり,証明される.
情報理論
20 / 27
定常マルコフ情報源のエントロピーレートの計算
条件付き確率が以下で与えられ,
P (0|0) = 1 − a, P (1|0) = a, P (0|1) = b, P (1|1) = 1 − b
ならびに定常確率分布が以下で与えられる定常マルコフ情報源 X を考
える.
P (0) =
b
a
, P (1) =
a+b
a+b
このとき,エントロピーレートは,
H(X) =
b
a
h(a) +
h(b)
a+b
a+b
となる.ここで,h(x) = −x log x − (1 − x) log(1 − x) の 2 元エントロ
ピー関数である.
情報理論
21 / 27
定常マルコフ情報源のエントロピーレートの計算
問
条件付き確率が以下で与えられる定常マルコフ情報源を考える.
1
2
3
1
P (0|0) = , P (1|0) = , P (0|1) = , P (1|1) =
3
3
4
4
このとき,定常確率分布 P (0),P (1) と,エントロピーレート H(X) を
求めよ.
情報理論
22 / 27
定常情報源のエントロピーレート
定常情報源のエントロピーレート
X を定常情報源とする.X の出力列を表す確率変数を X1 , X2 , · · · , Xn と
する.このとき,
1
H(X1 , X2 , · · · , Xn ), n = 1, 2, · · ·
n
は,n について非増加な数列であり,n → ∞ で収束する.すなわち,X
が定常情報源であれば,必ずエントロピーレート H(X) は存在する.
【証明】略.
情報理論
23 / 27
練習問題
練習問題 1
以下の情報源が,定常無記憶情報源,マルコフ情報源,定常情報源のい
ずれかを答えなさい.
(a) 公平なサイコロを単位時間ごとに振って出た目を出力する情報源
(b) コイン投げを単位時間ごとに行う.最初は公平なコインを投げる.
各時刻のコイン投げで表が出れば次は公平なコインを投げ,裏が出
れば偏りのあるコインを投げる試行を繰り返し,表を 1,裏を 0 とし
て出力する情報源
(c) 最初にコインを投げ,表が出ればそれ以降公平なサイコロを,裏が
出ればそれ以降偏りのあるサイコロを振り続け,出た目を出力する
情報源
情報理論
24 / 27
練習問題
練習問題 2
2 つの偏りのあるコイン A とコイン B を投げて表が出れば 1,裏がでれ
ば 0 を表す確率変数をそれぞれ X と Y とする.また X と Y は以下の確
率分布に従うものとする.
2
1
P (X = 1) = x, P (X = 0) = 1 − x, P (Y = 1) = , P (Y = 0) =
3
3
最初にコイン A から投げ始め,各時刻において表がでれば次の時刻には
コイン A を,裏がでればコイン B を投げるという操作を繰り返す.この
とき,以下の問いに答えよ.
(a) この試行が定常マルコフ状態であるための x の値を求めよ.
(b) 定常マルコフ状態のとき,この情報源に対するエントロピーレート
を求めよ.
情報理論
25 / 27
練習問題
練習問題 3
公平なコインを投げて,表が出れば公平なサイコロを n 回振り,裏が出
れば 1 しか出ないサイコロを n 回振る.i 回目に振ったサイコロの目を表
す確率変数を Xi とするとき,エントロピーレート
1
H(X1 , X2 , · · · , Xn )
n→∞ n
lim
を求めよ.
情報理論
26 / 27
練習問題
練習問題 4
Xi は A = {0, 1} の要素を次の規則に従ってとる確率変数であるとする.
Xi = Xi−1 + Xi−2 + Zi mod 2
ただし,X0 = X−1 = 0 であり,Zi は等確率(一様に){0, 1} の要素をと
る確率変数である.また各 Zi は独立であるとする.このとき,エントロ
ピーレート
lim
n→∞
1
H(X1 , X2 , · · · , Xn )
n
を求めよ.
情報理論
27 / 27