情報通信システム(8) http://www10.plala.or.jp/katofmly/chiba-u/ 2016年6月23日 火曜日 午後4時10分~5時40分 NTT-IT Corp. 加藤 洋一 課題1 千葉大学 8- 2 • 今までの講義や見学、あるいは、情報通信に 関して普段から疑問に思っていることなどか ら、各自質問を3つ用意し、 • EMailにて講師に提出すること。 • 期限は、6月30日とします。 • 講師のメールアドレスは、kato(ドット)yoichi ( アットマーク) ntt-it(ドット)co(ドット)jp です。 • 質問は、対象の理解を深めることにつながる ようなものを期待しています。 – (スパムメール防止のため、わざわざ「アットマー ク」や「ドット」と書いています。) 千葉大学 8- 3 (復習)情報を送るということ たとえば、文字を送りましょう 送信側 How are you? 一文字読み取る 受信側 符号を受け取る 文字に符号を割り当てる 符号を送る 001001010010…. 符号から文字を再現する 001001010010…. 提示(再生)する How are you? 一般化すると、 送信側(蓄積側) 事象が起きる 事象に符号を割り当てる 送る(蓄積する) 符号から事象を再現する 提示(再生)する 受信側(再生側) 符号を受け取る 事象をなんとするか? 一文字、音楽の一サンプル、画像の一画素、、、二文字、三文字、、 千葉大学 8- 4 符号量はどうなるか? 送信側 How are you? 一文字読み取る 文字に符号を割り当てる 符号を送る 001001010010…. 受信側 符号を受け取る 符号から文字を再現する 提示(再生)する 001001010010…. How are you? 総符号量 = 伝送する文字の数 × 一文字あたりの符号量 一文字あたりの符号量を如何に小さくするか? 場合の数(上記の場合には、文字の種類の数)をNとする。 2 N m となる最小の長さ m の固定長符号で表現可能(一文字あたりm ビット) ただし、通常固定長符号は総符号量を最小にする符号ではない! 千葉大学 8- 5 (復習)効率的な符号化(可変長符号化) • 符号には固定長の他に、可変長符号がある。 例: 袋には4種類の玉が入っている。赤と黒は10個ずつ、 白は20個、黄色は、40個とする。全部で80個。玉をひとつ取り出したときの発生 確率は、黄色 50%、白25%、赤12.5%、黒12.5%である。 以下のような符号を割り振る。 黄色 0 白 10 赤 110 黒 111 玉を16回取り出したところ(出したら元に戻してかきまぜる) 黄 白 黒 黄 黒 白 黄 赤 黄 白 黄 白 黄 赤 黄 黄 とでた。これを符号化すると、 0 10 111 0 111 10 0 110 0 10 0 10 0 110 0 0 となる。詰めて表示すると、 0101110111100110010010011000 (total 28bit) これを復号してみる。左のビットから順番に見ていくと、まず0なので直ちに決まって黄、次 は1なので決まらずさらに次を見ると10つまり白、というように、正しく復号できる。 場合の数は4なので、固定長符号なら2ビット、16シンボル分では32ビットとなる。可変長 符号化の場合には28ビットだったので、効率が上がったことが分かる。 (黄8回、白4回、赤2回、黒2回 発生確率どおりです) 千葉大学 8- 6 (復習)情報量、情報エントロピー、可変長符号化 • ある事象の生起確率が p のとき、その事象が生起し たときの情報量は -log p と定義される。 • 0<p <1 なので、情報量は正の実数と なる。 15 P=0.5のとき1ビット 10 対数の底が2のとき、単 位はbit(びっと)という 5 0.2 0.4 0.6 0.8 1 • 情報エントロピーとは、情報量の期待値。即ち、 N p i i 1 N ( log pi ) pi log pi i 1 (発生確率 情報量)の総和 千葉大学 8- 7 (復習)エントロピーの性質 前頁の例で、赤球が 75個、黒球が 25個であるとすると、 赤だまの確率 p1 0.75、黒い玉の確率 p 2 0.25、情報エントロピーは 、 N p log p 0.75log 0.75 0.25log 0.25 i i 2 2 i 1 0.811bit と計算できる。 entropy 前頁では、赤黒の生起確 率は0.5で情報エントロピー は1bitだった。 1 2つの事象の生 起確率とエントロ ピー 0.8 0.6 0.4 0.2 0.2 0.4 0.6 0.8 p1 ( = 1 – p2) 一般に、場合の数をNとすると、それぞれの事象の発生確率が1/N のとき(即ち、全て同じとき)、エントロピーが最大となり、その値は、 log2(N)となる。逆に、発生確率が「片寄る」と、エントロピーは減る。 千葉大学 8- 8 発生確率を偏らせる 頻度 頻度 …. …. 0 例えば、画像を画素ごとに その画素値を符号化する場 合 順に差分を符号化する場合 (受信側で一つ前の画素の 値と加算すれば元の値に戻 る) 千葉大学 8- 9 前回の講義 • 画像の基本的な統計的性質を調べた。 – 平均、分散、エントロピー、RGBからYUVへの変換 • 相関関数について学び、実際の画像の自己相関関 数を求めた。画像の自己相関は大きいことを確認し た。 – 相関が大きいということは、「冗長である」ということ。ここ に、情報量圧縮の可能性がある。 • 「冗長性」を減らす方法として、予測符号化について 学習した。予測誤差信号は元の画像に比べ自己相 関が大幅に減少することを確かめた。 • 予測方式を用いて実際に画像情報量圧縮を行った。 4分の1程度の圧縮では画像の劣化はほとんど認識 されなかったが、10分の1以上の圧縮では、画像の 顕著な劣化が見られた。 – しかし、JPEG方式には及ばない 千葉大学 8- 10 予測符号化の原理 Y(i-1, j) Y(i-1, j-1) Y(i, j-1) Y(i, j) 符号化済み これから符号化 既に符号化し た(伝送した) 画素から次の 画素を予測す る。 Y’(I, j) = Y(i-1, j) or Y’(I, j) = Y(i-1, j) + Y(I, j-1) – Y(i-1, j-1) 受信側でも同じ計算ができる(予測は、既に送った画素から行うので) 予測誤差 E (I ,j) = Y (I, j) – Y’(I, j) 予測誤差のみ送れば、受信側でも同じ値を再現できる。 (予測誤差は量子化して送る) 量子化も含めた予測符号化 千葉大学 8- 11 Eq (I, j) 量子化された予測誤差 予測誤差 画素値を 量子化 出力(予測誤差 送信側 順に入力 のみ伝送する。 予測値 量子化インデッ クスをエントロ Y’ (I, j) 過去に再生された 入力 Y (I, j) ピー符号化) 画素値から次の画 予測誤差 Y ‘(I, j) 予測値 素値を予測する 再生値 Yr (I, j) Yr (I, j) = Y’ (I, j) + Eq (I, j) Yr (I-1, j-2), Yr (I, j-1), Yr (I-1, j) …. E (I, j) Y (I, j) 受信側 Eq (I, j) 量子化された予測誤 差(量子化インデック Y’ (I, j) スを復号) 予測値 Yr (I, j) = Y’ (I, j) + Eq (I, j) 過去に再生された 画素値から次の画 素値を予測する Yr (I-1, j-2), Yr (I, j-1), Yr (I-1, j) …. Yr (I, j) 再生した画素値 千葉大学 8- 12 圧縮符号化の構成(再掲) 音声、音楽、画像の各標本値は、他の近隣の標本値と関連がある。 即ち、冗長性がある。最初に、信号の性質に着目して、冗長性を削 減することで情報量を減らす。 予測、直交変換など 音声や画像では、完全に再生できなくても支障がない場合が多い。 「完全に再生する」ことをあきらめる事で、さらに情報量を削減する。 量子化 最終的に得られた値(シンボル)を効率よくビット列にする。 エントロピー符号化 「完全に再生できない」場合の元信号との差を「符号化雑音」という。 これを目立たせないように、復号の後で何らかの処理を加える。 ポストフィルター 千葉大学 8- 13 予測符号化方式についてもう少し詳しく調べる • 圧縮率を高める、あるいは、画像の劣化を低減する ような何か良い工夫はないか? – 出力画像を良く見てみる。 – 予測誤差出力を良く見てみる。 • まず、再生画像は、空の平坦な部分の劣化が激し いことに注目。これはなぜか?人間の視覚特性は、 なだらかに変化する部分では敏感だが、急激に変 化する部分ではそうでもない – 量子化の工夫。なだらかに変化する、つまり、予測誤差 が小さい。急激に変化する、つまり、予測誤差が大きい。 – 予測誤差が小さいときには細かな量子化、予測誤差が大 きいときには粗い量子化をしたらどうか? 千葉大学 8- 14 予測誤差の量子化方法を改良する 量子化出力 量子化出力 量子化 代表値 : 真値 (予測誤差) 一様量子化 真値 (予測誤差) 一様でない量子化 予測誤差が大きいときには粗く、小さいとき には細かく量子化できる 千葉大学 8- 15 Kbytes 予測誤差の量子化方法の改良 300 280 260 240 220 200 180 160 140 120 100 一様 非一様 2 4 6 8 10 12 14 16 18 量子化ステップ値 (非一様の場合は、最小のステップ値) 千葉大学 8- 16 予測誤差信号(量子化済み)をさらに詳しく調べる • 画像を確認(量子化ステップ8のとき) – ゼロがたくさん続く場合が多い • 0の長さを「事象」として捉える。 – ランレングス符号化という – 今回は、0のランレングスと次の非ゼロの予測誤 差を結合したものをシンボルとして符号化する 普通に可変長符号化する場合 1 0 0 2 3 0 0 0 5 0 1 0 0 0 0 0 2 0 0 4 0 0 5 0 0 0 2 1 0 0 0 1 (32事象) ランレングス符号化を使う場合 1 2-0 2 3 3-0 5 1-0 1 5-0 2 2-0 4 2-0 5 3-0 2 1 3-0 1 (19事象) 0のランレングス+次の非ゼロを結合してシンボルとする場合 0-1 2-2 0-3 3-5 1-1 5-2 2-4 2-5 3-2 0-1 3-1 (11事象) 「0が連続して生起しやすい」という「冗長性」を削減することができる。 Kbytes ランレングスによる改善(非一様量子化) 300 280 260 240 220 200 180 160 140 120 100 千葉大学 8- 17 一サンプルずつ 符号化 0レングス+非ゼ ロ 2 4 6 8 10 12 14 16 18 量子化ステップ値 同じ量子化(即ち、全く同じ再生画像)でも圧縮率を上げることができた 千葉大学 8- 18 「冗長性」を減らす別の方法=直交変換 • 2画素ずつ対にして、その値を2次元平面上 にプロットしてみる。 a b b 2画素ずつ対にして 値の分布を見る。 a 隣り合う画素値は近いので上記のようになるだろう 千葉大学 8- 19 2次元の直交変換 ここで、座標軸を45 度回転させる。 cos( / 4) sin( / 4) a sin( / 4) cos( / 4) b 0.707 0.707 a b 0 . 707 0 . 707 b α β 45度 a 千葉大学 8- 20 2次元の直交変換 元に戻すには、座標軸 を 45度回転させればよ い。 a cos( / 4) sin( / 4) b sin( / 4) cos( / 4) 0.707 0.707 0 . 707 0 . 707 b α β -45度 a 千葉大学 8- 21 2次元の直交変換 画素 a のヒストグラム α のヒストグラム 座標変換 (座標軸を45 度回転) 画素 b のヒストグラム β のヒストグラム βのヒストグラムは、頻度が偏ってい る即ち、エントロピーは小さい 千葉大学 8- 22 N次元の直交変換 • 画素を2つずつペアにして2次元空間上で表 したとき、45度座標を回転させると情報量圧 縮の効果がありそうなことが分かった。 • もっと多くの画素をグループにして、同様なこ とができないか? • 鍵は、N次元の座標軸回転で、有意義な回転 方法を探すことである。 千葉大学 8- 23 N次元の直交変換 • N次元の直交座標の回転を考える – 各軸の直交性を保ったまま回転する – 座標軸上の単位ベクトルを考える – 各座標軸上の単位ベクトル間の内積は0(座標軸は互い に直交しているから) – N次元空間上の一点をベクトルで表す。そのベクトルの各 座標軸の成分は、そのベクトルと、各座標軸の単位ベクト ルの内積で与えられる。 (a,b)・(0.707,0.707)=0.707(a+b)=α (a,b) ・(-0.707,0.707)=0.707(-a+b)=β (a, b) b (a, b) (a,b)・(1,0)=a (a,b) ・(0,1)=b (0,1) a (1,0) α (0.707, 0.707) (-0.707, 0.707) β 千葉大学 8- 24 N次元の直交変換 N次元直交座標軸を回転させたときの各座標軸 上の単位ベクトルを V 0 (v00 , v01 , v02 v0 N 1 ), V 1 (v10 , v11 , v12 v1N 1 ),V N 1とする。 N次元空間の一点をベク トル表示し、 P ( p0 , p1 , p2 p N 1 )とする。 Pの座標軸回転後の各座標軸の成分を 0 , 2 , N 1とすると、 0 V 0 P, 1 V 1 P, 2 V 2 P, N 1 V N 1 Pである。 ( 0 , 1 , 2 N 1 )とし、 Pと を縦ベクトルで表せば 、 0 V 0 p0 p V 1 1 1 2 V 2 p2 N 1 V N 1 p N 1 V0 V 1 V 2 P V N 1 と表せる(各 Vは横ベクトル)。この 直交変換という。また ような Pから への変換を 、V nを基底ベクトルという 。 千葉大学 8- 25 内積が分からない人はいないでしょうが。。。 いま N次元のベクトル Aと Bがある。 Aと Bはそれぞれ、 A (a0, a1 a N 1 ) B (b0,b1 bN 1 ) Aと Bの内積は、 A B a0b0 a1b1 a N 1bN 1 a0 AB a1 T b0 b 1 a N 1 bN 1 千葉大学 8- 26 N次元直交変換の条件 N次元座標軸を回転させ たときの各座標軸上の 単位ベクトルは、 以下のようになる(「 直交」するという条件 )。 V n V m 1, n mのとき 0, n mのとき 前頁のように直交変換 は、行列で表すことが できる。 V0 V 1 [O] V 2 V N 1 とすると、 [O]P 逆変換は、[O]の逆行列である。これ を [O]1とし、上の式の左側か らかければ [O]1 [O]1[O]P [ I ]P P [ I ]は単位行列。 千葉大学 8- 27 離散フーリエ変換はどうか? 1 Fk N N 1 f e jk 2 n ( DFTの計算式) n 0 W 0 1, W 1 e 1 Fk N n N j 2 1 N ,W2 e j 2 2 N , W N 1 e j 2 N 1 N と定義すると、 N 1 fn W kn n 0 W 0 W 0 W0 W 0 f 0 F0 0 F1 1 2 N 1 f 1 W W W W 1 0 2 4 2 ( N 1 ) f 2 F 2 W W W W N 2 W 0 W N 1 W 2 ( N 1) W ( N 1) fN 1 FN 1 離散フーリエ変換では 、係数に複素数が表れ る。 入力は実数なので、で きれば実数から実数へ の変換を使いたい。 千葉大学 8- 28 離散コサイン変換(DCT) 実数から実数への変換 として、離散コサイン 変換がある。 離散コサイン変換の座 標軸回転後の単位ベクトルは、 1 1 1 V0 ( , ) N N N 1 3 2N 1 V 1 (cos( ), cos( ) cos( )) 2N 2N 2N 1 3 2N 1 V 2 (cos(2 ), cos(2 ) cos(2 )) 2N 2N 2N 1 3 2N 1 V 3 (cos(3 ), cos(3 ) cos(3 )) 2N 2N 2N 1 3 2N 1 V N 1 (cos((N 1) ), cos((N 1) ) cos((N 1) )) 2N 2N 2N 千葉大学 8- 29 2次元DCT • 画像は2次元信号であるため、2次元DCTを適用す る。 • 8×8画素からなる画像の2次元DCTの例。 平均値分 まず、画素を横方向 にひとまとめにし、 それぞれの行に DCTをかける。 次に、横方向1次元 DCTの計算結果を 縦方向にひとまとめ にし、それぞれの列 に再度DCTをかけ る。 終わり DCT後により計算さ れたベクトル、あるい は行列をDCT係数と いう 千葉大学 8- 30 2次元DCTの基底 8個の要素 N=8のとき 合計、8*8=64個の基 底がある 左上の基底と入力ブロッ クの内積を計算すること は、入力ブロックの平均 値を計算することに等し い。 フーリエ変換のように 色々な(空間)周波数成 分があることが分かる 千葉大学 8- 31 2次元DCTの考え方 8×8(64)次元の空間の直交基底 8×8の画素か らなるブロック それぞれの基底との 内積を計算(基底も 8×8の大きさを持 つ) ブロックの平均値成分(DC成分) 各基底ベクトル(行列)に対応する成分(AC成分) 8×8の DCT係数 千葉大学 8- 32 2次元DCTを利用した符号化方式 入力画像 ブロックに分割(8×8画素) 1ブロック( 8×8 ) ブロック毎にDCT係数 を量子化、エントロ ピー符号化する ブロック毎にDCTをかける DCT係数( 8×8 ) 千葉大学 8- 33 DCT係数の量子化とエントロピー符号化 • DCT係数にはどれほどの「冗長性」が残って いるだろうか? – 隣接する各ブロックの平均値成分(DC成分とも 言います)にはまだ大きな冗長性が残っている。 – そのほかの成分(AC成分とも言います)には大き な冗長性はないと考えられる。 • 量子化の考え方は? – DC成分の量子化が粗いと、なだらかな領域(例 えば青空)で、ブロック間の境界が見えてしまう (ブロック雑音といいます)。 – AC成分は、DC成分より粗い量子化でも良いと思 われる。 千葉大学 8- 34 画像のDCT係数の性質(標準偏差) Std dev Y 435.061 112.259 113.350 55.339 73.523 41.108 49.819 30.061 38.201 23.288 29.473 17.720 21.159 13.279 14.451 9.087 70.235 40.926 31.240 23.832 19.332 15.089 11.008 7.810 51.515 32.727 25.211 20.728 16.947 12.863 9.517 6.668 39.365 26.289 21.182 17.763 15.460 11.205 8.481 5.913 31.007 21.764 17.574 14.154 12.012 9.678 7.171 5.119 Std dev U 184.388 26.739 14.236 10.404 29.582 14.946 10.636 8.279 16.200 11.386 8.672 7.121 11.183 9.356 7.624 6.238 8.874 7.421 6.960 6.109 8.310 6.845 6.467 5.536 7.620 6.106 6.256 5.275 6.638 6.219 6.501 5.553 8.395 7.280 6.686 5.666 5.670 5.688 5.052 5.169 8.278 6.637 5.848 5.292 5.436 5.013 5.020 5.082 23.230 17.475 17.205 13.880 14.227 11.782 11.489 9.696 9.592 7.907 7.789 6.137 6.169 4.789 4.065 3.326 7.089 6.090 5.343 5.450 4.827 5.412 5.110 5.133 7.588 6.443 5.654 5.170 4.808 4.886 5.127 5.009 左上ほど値が大きい。つまり、低次成分ほどパワーが大きいことを示している。 千葉大学 8- 35 DCT係数の自己相関 DCT係数をブロック毎に元の画像と同じように並べたときの自己相関 1.000 0.003 -0.025 -0.002 -0.006 -0.005 0.003 -0.040 -0.003 0.002 0.001 0.000 -0.001 0.001 0.000 0.001 -0.030 -0.000 0.002 -0.000 -0.000 -0.001 0.001 0.003 -0.002 0.000 -0.000 -0.001 0.000 -0.001 0.000 0.001 -0.007 -0.001 0.000 0.000 0.001 0.001 -0.001 0.001 -0.009 -0.001 0.001 0.000 0.001 0.000 -0.000 0.000 0.004 0.000 0.000 0.001 -0.001 -0.001 0.001 0.001 -0.055 0.000 0.002 0.001 -0.001 0.001 0.000 0.005 このような見方では、相関はほとんどないことが分かる つまり、DCTは、ブロック内の画素間の相関をほとんど取 り去るような(うまい)直交変換であることが分かる。 千葉大学 8- 36 平均値分の自己相関 では、ブロック間の各係数同士の相関はどうであろうか? 平均値分だけ集めて画像とし、その自己相関を計算してみた 1.000 0.819 0.656 0.580 0.520 0.482 0.439 0.393 0.837 0.729 0.618 0.559 0.506 0.470 0.429 0.386 0.705 0.635 0.556 0.513 0.478 0.449 0.414 0.372 0.618 0.566 0.505 0.471 0.443 0.421 0.400 0.362 0.561 0.519 0.466 0.439 0.417 0.405 0.389 0.354 0.529 0.484 0.434 0.411 0.396 0.392 0.382 0.353 0.492 0.452 0.411 0.393 0.381 0.382 0.373 0.344 0.465 0.433 0.398 0.382 0.369 0.372 0.360 0.326 まだかなりの相関(つまり冗長性ですね)が残っていることが分かる。 DCT係数の(0,0)成分のみ集める ・・・・ ・・・・ 縦横1/8に縮小さ れたような画像 が得られる 千葉大学 8- 37 DCT係数の自己相関(2) DCT係数の(0,1)成分のみ集めて自己相関を計算した。結構大きな相関が残っている。 1.000 0.523 0.201 0.082 0.033 0.005 0.015 0.022 -0.200 -0.003 -0.078 -0.036 0.031 -0.061 0.019 -0.109 0.017 -0.052 -0.018 0.006 -0.053 0.040 -0.046 0.029 -0.024 0.006 -0.028 -0.025 0.030 -0.016 0.027 -0.031 0.007 -0.025 0.016 0.003 -0.006 0.017 -0.041 0.010 -0.010 0.029 0.004 0.009 -0.012 -0.053 0.010 0.013 0.010 0.020 0.024 -0.016 -0.062 0.008 0.030 0.005 0.024 0.019 0.000 -0.070 0.006 0.015 0.024 -0.001 同様に、DCT係数の(1,0)成分のみ集めて自己相関を計算した。 1.000 -0.127 -0.139 0.044 -0.016 -0.022 -0.034 0.058 0.562 0.376 0.293 0.245 -0.052 -0.032 -0.010 -0.006 -0.103 -0.077 -0.054 -0.025 0.058 0.057 0.031 0.014 -0.007 0.014 0.022 0.019 -0.037 -0.038 -0.049 -0.036 -0.022 0.012 0.032 0.012 0.071 0.057 0.054 0.052 0.218 0.181 0.161 -0.001 0.001 0.006 -0.028 -0.020 -0.023 0.031 0.028 0.033 -0.004 -0.018 -0.022 -0.015 0.007 0.003 0.006 0.007 0.011 0.036 -0.001 -0.016 千葉大学 8- 38 2次元DCT画像圧縮符号化方式を設計する 知見1: 高次のAC成分は分散が小さい。量子化後は0になる確率が大きい。 方針1: DCT係数を、エントロピーの大きな順に並べる。 予測符号化のときのように、0のランレングス+次にくる非ゼロの値を セットで事象とし、ハフマン符号化しよう。 知見2: DC成分にはまだ大きな自己相関が残っている。 方針2: DC成分は予測符号化しよう 知見3: DC成分の量子化が粗いと、なだらかに変化する部分で ブロック境界が見えてくる。 方針3: DC成分の量子化は、AC成分の半分の粗さとする 知見4: AC成分でも、(1,0)や(0,1)のような低次の成分にはまだ ある程度の自己相関が残っている。 方針4: このような性質を利用した符号化方式はまだ(講師が知る限り) 報告されていない。今後の研究対象か? 千葉大学 8- 39 DC成分の予測符号化 DCT係数の(0,0)成分(DC成分)のみ集める ・・・・ ・・・・ 縦横1/8に縮小さ れたような画像 が得られる このようにして得られた画像上で、予測符号化を行う 千葉大学 8- 40 各ブロックのエントロピー符号化 係数(量子化インデックス)ごとのエントロピー を計算 各ブロックのDC成分、各AC成分ごとに量シカ ゴの大きさのヒストグラムを作り、エントロピー を計算する。 [ 0 [ 1 [ 3 [ 6 [10 [17 [26 [40 2 4 8 14 19 27 37 49 5 9 13 20 24 33 42 52 7 12 18 23 30 39 46 56 11 16 22 28 32 43 51 59 15 21 29 35 41 48 55 60 25 31 36 44 47 53 57 62 34] 38] 45] 50] 54] 58] 61] 63] 係数の(量子化インデックス の)エントロピーの大きい順 に並べる この順序で、(0ランレングス+非ゼロ値)をシ ンボルとして、ハフマン符号化する 千葉大学 8- 41 圧縮結果 KBytes 200 'img_dct1.dat' 180 160 140 120 100 80 60 40 0 5 10 15 20 25 30 35 量子化ステップサイズ(AC成分用) 千葉大学 8- 42 圧縮符号化のまとめ • 既存の技術の説明ではなく、圧縮符号化の考え方 の方法論を具体例を多く交えて説明しました。また、 その中で、ディジタル信号処理に頻繁に現れる事項 を学びました。 • 少々駆け足だったので消化不良かもしれません。講 義資料を読み返したり、実際のPythonプログラムを 読んだりして補ってください。 • なお、本講義で設計、実装した画像符号化方式と JPEG方式はかなり近いです。 – 講師はJPEG標準化の初期の会合に出席しました。
© Copyright 2024 ExpyDoc