第四章 情報源符号化の基礎

第四章




情報源符号化の基礎
4・1
4・2
4・3
4・4
情報量とエントロピー
エントロピー符号化
音声符号化
画像符号化
4・1
情報量とエントロピー
(1)情報量
(a)コインを投げてその結果が"表"であるという情報
(b)サイコロを振ってその出た目が"偶数"であるという情報
(c)サイコロを振ってその出た目が"4"であるという情報
情報(c)の方が情報(b)より詳しい:量が多い
情報の発生確率 p が小さいほどその情報の情報量は大きい
情報量 = – log2 p
(bit)
(2)エントロピー
H = –  pi log2 pi
N
平均情報量;エントロピー
i=1
N:情報源から発生する事象の数
pi : i 番目 の事象の発生確率
p1 = 1 / 2, p2 = 1 / 4, p3 = 1 / 4 の場合の例
H = – 1 log2 1 – 1 log2 1 – 1 log2 1
2
2 4
4 4
4
= 1 + 2 + 2 = 1.5
2 4 4
冗長度;
r = 1 – H / Hm
4・2
号化
エントロピー符
(1)瞬時符号の平均符号長
固定長符号および可変長符号と一意的に復号不可
能な符号(表4・1)
通報 発生 固定長符号 可変長符号 一意的に復号不
要素 確率
可能な符号C3
C1
C2
F
1/2
00
0
0
C
1/4
10
10
1
R
1/4
11
11
11
L =  pi li
N
平均符号長:
i=1
各符号(C1、C2、C3)に対応する符号の木(図4・1)
葉
F (00)
0
根
0
1
0
1
0
C (10)
1
R (11)
(a) C 1 の符号の木
1
F (0)
0
0
C (10)
1
R (11)
(b) C 2 の符号の木
1
F (0)
C (1)
1
R (11)
(c) C 3 の符号の木
瞬時符号:異なった葉に通報要素が対応している
瞬時符号の平均符号長
2
N
クラフトの不等式:
– li
1
i=1
li = – log2 pi
のとき平均符号長はエントロピーと一致
整数とは限らないので;
このとき
– log2 pi  li < – log2 pi + 1
– li  log2 pi
つまり
2
– li
 pi
H L<H +1
平均符号長はエントロピーより大きい
(2)ハフマン符号化
手順1:通報要素を確率の大きさ順に並べて、節点を割り当てる。
手順2:最小から2個の要素(節点)を枝で結んで新しい要素(節点)
とし、2個の確率の和を新しい要素の確率とする。
このとき最小から2番目の確率を持つ要素が複数ある場合
には任意に選んでよい。
2本の枝に0と1のラベルを与える。この与え方も任意である。
手順3:手順1と手順2を要素が1個になるまで繰り返し、最終的に得
られた確率1の1個の要素に対応する節点を根とする。
ハフマン符号化により得られた符号の木、小数
の数字は確率を示す(図4・2)
0.5 (F)
0
1
0.5
平均符号長:1.5
0
0.25 (C)
1
0.25 (R)