2012年度 情報数理 ~ Huffmanの符号化法Ⅱ ~ 担当教員: 幸山 直人 2012年度 情報数理 符号理論(講義前半) 符号理論(広義の符号理論) *統計・確率論 ・ 情報量(ビットの導入) ⇒ 様々なデジタル情報 誤り訂正符号理論 暗号理論 圧縮理論 ・・・ ・ 情報の正確性 ・ 情報の秘密性 ・ 情報の効率性 2012年度 情報数理 補助定理2.1の補足1(等号が成り立つ場合) 例として(生起確率が1/rkの形をしている場合) s1 S= 1/2 s2 1/4 s3 1/4 s1 1/2 0 1/2 s2 1/4 1 1 0 1 s3 1/4 平均符号長 L=1×1/2+2×1/4+2×1/4=3/2 s1 (0) s2 (10) s3 (11) 2012年度 情報数理 補助定理2.1の補足2(等号が成り立つ場合) 1/2 1/2 (s1,s1) 1/4 1/4 1/4 1/4 (s1,s2) 1/8 0 1 (s1,s3) 1/8 (s2,s1) 1/8 0 1 (s3,s1) 1/8 1/8 1/8 (s2,s2) 1/16 0 1 (s2,s3) 1/16 (s3,s2) 1/16 (s3,s3) 1/16 0 1 0 1 0 1 0 1 1 0 1 (s1,s1) (s1,s2) (s1,s3) (s2,s1) (s3,s1) (s2,s2) (s2,s3) (s3,s2) (s3,s3) 平均符号長 L=2×1/4+4×(3×1/8)+ 4×(4×1/16) =3 1文字あたりの平均符号長(L/2)は3/2 ⇔ 最も短い符号 (00) (010) (011) (100) (101) (1100) (1101) (1110) (1111) 2012年度 情報数理 これまでのまとめ 役立つ符号 特異でない 一意 瞬時 Kraftの不等式 瞬時に復号可能な符号の存在性 符号の木 コンパクト符号 Huffmanの符号化法Ⅰ Huffmanの符号化法Ⅱ 平均符号長の下限 情報量
© Copyright 2024 ExpyDoc