ける画素値の平均 ,uvn^ hと標準偏差 ,uvv^ hを求める - CG

0.01
0.03
ノイズレベル
0.008
0.02
0.006
0.004
0.01
(
τ n)0.002
0
0
0.2
0.4
0.6
0.8
1
0
0
0.2
[ a ]G1Xのノイズレベル関数(ISO100)
0.01
0.008
0.006
0.006
0.004
0.004
(
τ n)0.002
0.002
ノイズレベル
0.01
c h a p t e r
3
0
0.2
0.4
0.6
0.8
1
0.8
1
[ b ]G1Xのノイズレベル関数(ISO6400)
0.008
0
0.4
画素値の平均値 n
画素値の平均値 n
0.6
0.8
1
0
0
[ c ]Dragonfly Expressのノイズレベル関数(γ =1.0)
0.2
0.4
0.6
画素値の平均値 n
画素値の平均値 n
[ d ]Flea2のノイズレベル関数(γ =1.0)
■図 3.4 ――キヤノンG1XとPoint Grey Research社の 2 種類のカメラのノイズレベル関数の測定結果例
画素値の平均値nは,0 から1に正規化されている。ノイズレベルは,画素値の最大値が 1のときの大きさである。それぞれ,
100 枚の画像から求めている。
1-1
画像の性質を表す諸量
ける画素値の平均 n ^u, vhと標準偏差 v ^u, vh を求めることができる。この
平均 n ^u, vh に対する標準偏差 v ^u, vh をプロットすれば,ノイズレベル関
数を得ることができる。ちなみに,平均 n ^u, vh を位置 ^u, vh に対して並べ
れば,ノイズを含まない画像になる。
図 3.4 に,このようにして測定した 3 種類のカメラのノイズレベル関数
の例を示す。同図[ a ]
,
[b]
は,同じカメラで異なるISO感度に設定した
ときのノイズレベル関数である。この場合には,ISO感度を高感度に設定
すると,低感度の場合よりもノイズが約 3 倍増加しているが,ノイズレベ
ル関数の形状はあまり変わらない。なお,2-4-4 で図 2.37 に示したノイズ
レベル関数の例は,
[a]
に合わせて式( 2.31 )のパラメータを調整したも
のである。
[c]
,
[d]
は,ガンマ補正を 1に設定した異なるカメラのノイズレベル
関数である。これらのノイズレベル関数は,光ショットノイズの影響で,
画素値の平均値が大きくなるに従ってノイズの標準偏差が大きくなって
いる。
どのようなカメラで撮影したのか不明な画像があるときに,その画像
*1 ノ イ ズを推 定
する手法については,
7-2-1を参照のこと。
062
*1
だけから画像に含まれるノイズを推定する手法も提案されている。
出力
頻度
頻度
低
低
0
高
高
入力
255
画素値
0
255
■図 4.3 ――折れ線型トーンカーブによる変換( 2 )
画素値
255
出力
c h a p t e r
画素値
[ b ]出力画像
[ a ]入力画像
4
1-3
頻度
頻度
低
低
0
高
高
明るさ・コントラストの変換
入力
255
画素値
0
[ b ]出力画像
[ a ]入力画像
■図 4.4 ――折れ線型トーンカーブによる変換( 3 )
4-1-3 累乗型トーンカーブ
折れ線型のトーンカーブでは,トーンカーブの折れ曲がっている点の
前後で変換の性質が急激に変わることになる。また,トーンカーブが水
平な部分では,出力画像の画素値がすべて一定になるため,入力画像の
その範囲の濃淡変化は完全に失われる。これらの欠点を補うために,図
4.5[ a ]のような曲線のトーンカーブを用いることがある。入力画像の画
素値を x ,出力画像の画素値を y とするとき,このトーンカーブは以下で
表される。
y = ₂₅₅ a
084
₁
x ₂
k
₂₅₅
――――( 4.1 )
[ b ]k= 4
[ a ]k= 9
[ b ]k= 18
c h a p t e r
[ a ]入力画像
5
4
鮮鋭化
■図 5.34 ――鮮鋭化フィルタの結果
[ a ]入力画像
[ b ]k= 6
■図 5.35 ――鮮鋭化フィルタの結果(カラー画像)
116
[ c ]k= 18
y
v
f ^x, yh
O
F ^u, vh
フーリエ変換
x
O
u
フーリエ逆変換
空間領域
周波数領域
■図 6.1 ――空間領域と周波数領域
ワースペクトル( power spectrum )とよばれている。
ここでは,連続関数のフーリエ変換を示したが,ディジタル画像を変
Fourier transform )および離散
c h a p t e r
換する場合には,離散的フーリエ変換( discrete
的フーリエ逆変換( inverse discrete Fourier transform )が用いられる。さらに,そ
の計算を高速に実行する高速フーリエ変換( Fast
Fourier Transform:FFT )があ
り,実用的によく用いられている。
6
6-1-2 画像のフーリエ変換
1-2
画像のフーリエ変換
図 6.2,図 6.3 に,画像に対しフーリエ変換を施した例を示す。図 6.2 は,
フーリエ変換の性質がよくわかるように,模擬的に作成した画像の結果
v
B
AO B A
[ a ]画像(正弦波)
[ a ]の振幅スペクトル
[b]
u
[ b ]の説明図(ピーク位置)
[c]
F ^u, vh
O
[ d ]画像(方形波)
[e]
[ d ]の振幅スペクトル
u
[ f ]v= 0 における
[e]
の断面
■図 6.2 ――画像のフーリエ変換(合成画像)
127
K w ^u, vh =
H ^u, vh
1
H ^u, vh H ^u, vh 2 +C
2
――――( 7.19 )
図 7.4 に,焦点ぼけによる劣化画像からの画像復元例を,図 7.5 に,カメ
ラぶれによる劣化画像からの画像復元例を,それぞれ示す。なお,
式( 7.19 )のウィーナフィルタを用いて,定数 C を変化させたときの結果
を示している。焦点ぼけカメラぶれの点拡がり分布関数のフーリエ変換
は,ゼロ点を含んでいるため,逆フィルタにより画像復元例では画素値
が発散していることが確認できる。一方,ウィーナフィルタによる復元例
では,画素値が発散せず,復元画像が得られている。また,定数 C が小
さい場合,鮮鋭に復元されるものの,ノイズも増幅され,定数 C が大き
い場合,ノイズは増幅されないものの,ぼけやぶれの復元もあまり行わ
c h a p t e r
れないことが確認される。
7
1-3
^x, yh
点拡がり関数 h
逆フィルタによる復元画像
^x, yh
Γ:小
ぼけ・ぶれ画像の復元
劣化画像 g
Γ:中
ウィーナフィルタによる復元画像
Γ:大
Γ:中
ウィーナフィルタによる復元画像
Γ:大
■図 7.4 ――焦点ぼけによる劣化画像からの画像復元
劣化画像 g^x,
yh
逆フィルタによる復元画像
点拡がり関数 h^x,
yh
Γ:小
■図 7.5 ――カメラぶれによる劣化画像からの画像復元
147
8-4-4 画像の幾何学的変換と合成
8-4-3 で求めた射影変換を用いて,実際に画像を変換し,画像をつなぎ
合わせて 1 枚の大きな画像を生成する。そのためには,8-3 で説明したよ
うに,出力画像(モザイキング後の画像)の各画素位置の逆変換を行って
入力画像上の位置を求め,その位置の画像の値を補間処理により求める。
*21 周辺 光 量の 低
下 につ いては,
2-2-3
[ 4 ]を参照。
*21
このようにして画像をつなぎ合せたとき,画像の周辺光量の低下や,
画像間での明るさや色の違いなどにより,画像のつなぎ目が目立ってし
まうことがよくある。そこで,画像をつなぎ合せる際に,つなぎ目を目
立たなくするような処理が必要になる。そのための方法としては,画像
のつなぎ目の位置を適切に選ぶ方法や,画像が重なった部分で,両方の
c h a p t e r
画像の画素値を混ぜ合わせる方法がある。後者の例として,両方の画像
の重なった部分で,4-4-1 のアルファブレンディングの考え方を利用し,
8
4-4
イメージモザイキング
[ a ]単純につなぎ合わせた結果
[ b ]重み付き平均をして合成した結果
■図 8.23 ――画像の合成結果
176
1 つの背景,1 つの穴で構成される(同図[ b ]
)
。8 連結で対象の連結性を
定義した場合,画像は 1 つの対象,1 つの背景,3 つの穴で構成される
(
[c]
)
。
9-2-2 輪郭追跡
連結成分の境界を求めることを,輪郭追跡( contour
tracking )とよぶ。こ
こでは,8 連結の場合の輪郭追跡について解説する。4 連結の場合も,探
索する黒画素が 4 連結成分になるだけで,処理手順は同じである。
① まず,ラスタスキャン( raster
scan )によって,白画素から黒画素に
変わる画素を探索する。ラスタスキャンとは,画像の左上を起点に,
c h a p t e r
左端から右に画素を調べ,右端に着いたら,行を 1 つ下がって左端
から右に画素を調べる走査である。探索した方向を進入方向とする。
② 図 9.7 に示す例のように,その進入方向を基点に番号順に右回り
に黒画素を探索する。
9
③ 見つかった黒画素に移動する。黒画素が開始点で,かつ,つぎの
移動点が追跡ずみの場合は,処理を終了し,追跡結果を登録する。
そうでない場合は,②の処理を繰り返す。
2-2
222222222222
ここで,追跡の終了条件が,単に追跡ずみの画素へ移動したときだけ
進入方向
[1]
[2]
進入方向
[7]
[6]
[3]
[6]
[4]
[5]
[5]
[4]
■図 9.7 ――黒画素の探索
■図 9.8 ――外輪郭の追跡
184
■図 9.9 ――内輪郭の追跡
[7]
[1]
[3]
[2]
フィルタバンク
texton
ガボールフィルタ 1
特徴 1
ガボールフィルタ 2
特徴 2
イメージ
ガボールフィルタ
n−1
特徴 n−1
ガボールフィルタ
n
特徴 n
■図 10.5 ――画像にさまざまなフィルタで処理を施し,その処理結果の特徴群をtextonとする
g ^x, y, m, {h = exp d-
x ₂ +y ₂
n exp _₂rmi ^x cos {+y sin {hi ―――( 10.3 )
₂v ₂
ここで,m は周波数で { は回転を表す。この関数は,実数部と虚数部の成
分をもち,以下となる。
g ^x, y, m, {h = exp d-
x ₂ +y ₂
n cos _₂rm ^x cos {+y sin {hi 実数部
₂v ₂
x ₂ +y ₂
n sin _₂rm ^x cos {+y sin {hi 虚数部
₂v ₂
10
1-3
領域処理のための特徴量
g ^x, y, m, {h = exp d-
c h a p t e r
以下に,2 次元ガボールフィルタの式を示す。
――――( 10.4 )
入力された画像に対して ガ ボ ー ル フ ィ ル タをたたみ込んで,特徴量
G ^x, y, m, { h を表す式は以下となる。
G ^x, y, m, { h = !
u
! I ^x, yh ) g ^x-u, y-v, m, { h
v
――――( 10.5 )
ここで,I ^x, yh は入力画像である。
{のパラメータを変えて作成したガボールフィルタバンクの例を図 10.6,
図 10.7 に示す。また,ガボールフィルタの出力結果の例を図 10.8 に示す。
■図 10.6 ――8 方向に向きを変えたガボールフィルタ例
■図 10.7 ――周波数を2 倍にした8方向のガボールフィルタ例
201
15
16 1 2
14
13
12
3
4
5
6
p
11
10 9 8
明るい(Brighter)
類似(Similar)
暗い(Darker)
1
7
5
15
12
観測する周囲の画素
9
コーナー判定
14
12
2
10
13
3
15
11
コーナー 非コーナー
c h a p t e r
■図 11.12 ――決定木によるコーナー検出
11
11-3-2 DoG 画像を用いた特徴点とスケールの検出
3-2
特徴点検出
画像中に拡大縮小があると,画像間の特徴点領域の濃淡パターンが変
*22 キーポイントと
もよばれている。
*23 D o G による特
徴点検出は,
11-4-1の
SIFTの前処 理として
使用される。
*24 LoGについては
*22
化するため,特徴点の対応づけができない。そこで,特徴点とその領域
*23
の大きさを表すスケールを検出する必要があり,複数のDoG( Difference-of*24
Gaussian )画像を用いて計算することができる。DoGはLoG( Laplacian-of-
Gaussian )を近似したものであり,スケールの異なるガウス関数G ^vh と入
力画像 I をたたみ込んだ平滑化画像 L の差分により,DoG画像 D ^vh を求
める。
5-3-3を参照のこと。
D ^vh = ^G ^kvh-G ^vhh ) I
= L ^kvh-L ^vh
――――( 11.21 )
L ^vh = G ^vh ) I
――――( 11.22 )
ここで,k はv の増加率であり, スケールを少しずつ大きくして複数の
DoG画像を求める。図11.13のように隣接する3枚のDoG画像において,
注目画素を中心とした26近傍を比較し,注目画素が極値となる画素を特
徴点候補およびスケールとして検出する。このように検出した特徴点候
補には,エッジ上の点が含まれることがある。エッジ上の画素は,開口問
*25 局所 領 域 にお
いて一意に対応づけ
ができない問題。 一
般に直線 エッジ上で
の対応づけに開口問
題が発生する。
*25
題の影響を受けやすいため削除する。そして,特徴点のサブピクセル位
置推定により,特徴点の正しい位置とスケールを求める。さらに,サブピ
クセル位置でのDoG出力値を再度計算する。サブピクセル位置でのDoG
出力の絶対値がしきい値以下の場合(模様に特徴がなく画素値の変化が
ない平坦な部分)は,ノイズに影響されやすいため削除する。このような
230
強識別器
弱識別器 1
弱識別器 2
入力データ
弱識別器 T
a1
h2^xh
a2
・・・
・・・
x
h1^xh
aT
Σ
y
出力
hT ^xh
■図 12.10 ――アダブーストの重み付き多数決による識別
+
[ b ]t = 1
[ c ]t = 2
=
[d]t = 3
■図 12.11 ――学習サンプルの重みの遷移
まず学習サンプルに対して均一の重みを与える。学習が始まり,1 つ
の弱識別器が選択されると,正しく識別できるサンプ ルは重みが小さ
く,誤識別したサンプルの重みは大きくなる。図 12.11 に 2 次元の特徴空
[ e ]強識別器
c h a p t e r
[ a ]学習前
+
12
2-2
教教教教教教教教教教教教教教教
間における学習サンプルの重みの遷移のようすを示す。同図の円は学習
サンプルを表し,円の大きさは重みの値を表す。つぎの弱識別器の学習
では,学習サンプルの重みを考慮して,誤識別した学習サンプルを正し
く識別する弱識別器が選択される。
この処理を繰り返して複数の弱識別器が選択される。
アダブーストの具体的な手順を以下に示す。事前に N 個のクラスラベ
ル付きの学習サンプル ^x , y , g, xn , yn , g, xN , y Nh を用意する。ここで,
x n は学習サンプルの特徴量,yn ! "-1, +1, はクラスラベルを表す。
① まず,学習サンプルの重み Dt, n を以下のように初期化する。
D
,n =
1
N
――――( 12.7 )
② 各弱識別器候補に対して,以下の式を用いて エ ラー率 f t を算出
し,エラー率 f t が最も小さい弱識別器 h t ^ xhを選択する。弱識別器
h t ^xhは,+ 1 または-1 を出力する。詳細については後述する。
N
ft =
!
n:ht ^xnh!yn
Dt, n
――――( 12.8 )
③ エラー率 f t から弱識別器の重み a t を計算する。エラー率 f t が小
さいほど弱識別器の重み a t は大きくなる。
at =
1 c 1-f t m
ln
2
ft
――――( 12.9 )
257
対象物体の
ヒストグラム:q
頻度
︵確率︶
頻度
︵確率︶
探索開始位置近傍(黒枠内)の
ヒストグラム:p( y0)
u
u
重ならない部分
0 =
0
wi =
30
重なり部分
32 =
4
2
wi =
■図 13.14 ――ミーンシフトトラッキングにおける画素の重みの変化
重なり領域の画素では重みが大きくなり,重なりのない領域の画素は重み
が小さくなる。
■図 13.15 ――ミーンシフトトラッキング
による探索位置の変化
徐 々 に重なりが大きくなる方向,すなわ
ち真の物体位置へと近づいていく。
k の範囲と,物体領域は一部重なり合っていることが前提である。たと
c h a p t e r
えば,移動体が速く動いており,1 フレーム期間に大きく移動し,重なり
領域が存在しない場合は追跡できなくなる。
13
13-3-4 ベイジアンフィルタ
時系列画像中の移動体の状態を推定する問題は,状態空間モデルに基
づく方法が有効である。時刻 t におけるシステムの状態を x t ,観測を y t
とする。このような状態空間モデルにおいて,時刻 t までに観測された
時系列画像 y ₁ : t = " y ₁ , g, y t , から,移動体の状態 x t を推定する方法とし
て,ベイジアンフィルタ( Bayesian
filter )がある。ベイジアンフィルタは,
3-4
移動体追跡
*12
*12 ここでは,一般
にシステムという用語
を使用し,移動体を含
む時系列画像を観測
することを指している。
1 時刻前の分布 p _ x t-₁ y ₁ : t-₁i に対し,以下のように予測と観測を繰り返す
逐次的な解法である。グラフィカルモデルで表現すると,図 13.16となり,
各時刻の状態は直前の時刻の状態にのみ依存し,各時刻における観測は
同じ時刻の状態にのみ依存する。まず,以下により,予測分布 p _ xt y
を求める。
p_xt y
: t-
i=
# p_x x
t
t-
i p _ x t- y
: t-
i dxt-
: t-
i
――――( 13.27 )
つぎに,この予測分布と現在時刻における観測から,以下を計算する。
p _ x t y ₁ : t i = p _ y t x t i p _ x t y ₁ : t-₁i ――――( 13.28 )
これを繰り返すことで移動体の状態に関する条件付き分布 p _ x t y ₁ : t i を
状態
観測
x0
x1
x t-1
xt
y1
yt-1
yt
■図 13.16 ――状態空間モデルのグラフィカルモデル表現
299
14-2
カメラキャリブレーション
14-1では,空間と画像の幾何学的な関係を記述する式を示した。ここで
は,それらの式のなかに現れるパラメータを実際に求める方法について
解説する。
式( 14.7 )では,空間の位置と画像上の位置が,カメラの内部パラメータ
と外部パラメータを用いて関係づけられている。また,式( 14.14 )では,透
*12
*12 カメラの内部・
パラメータは,用いるカメラやその位置・姿勢により決まるものであるが,
わせてカメラパラメー
通常,具体的な値がはじめからわかっていることはない。そこで,あらか
じめ位置がわかっている空間点と,その画像上への投影点を用いて,それ
らのパラメータを求めておく必要がある。これをカメラキャリブレーショ
ン( camera calibration )とよぶ。
そのために,撮影された画像から,空間点の座標が容易に判別できる
外部 パラメータを合
タ
( camera
parameter)
とよぶ。 一方,透視
投影行列の各要素の
ことをカメラパラメー
タとよぶことがある。
c h a p t e r
視投影行列の各要素をパラメータとして,関係づけられている。これらの
14
2
カメラキャリブレーション
ような,キャリブレーションターゲット( calibration target )とよばれるものが
用いられる。図 14.6 はその一例であるが,図に示すようにワールド座標
系を定め,格子の間隔は既知であるとすれば,赤い点で示されているよ
うな格子点に対するワールド座標 ^ Xw , Yw , Zwhと,その画像中の座標 ^u, vh
を得ることができ,それらを用いてカメラキャリブレーションを行う。
カメラキャリブレーションの計算手法は,さまざまなものが提案され
Yw
Zw
v
Xw
u
■図 14.6 ――キャリブレーションターゲットを撮影した画像
315
15-3
反射
光源から放たれて物体に入射する光は物体表面で反射される。この反射
光をカメラでとらえたものが画像である。ここでは,光学的解析の基礎
となる反射の性質と表現を解説する。
15-3-1 反射の種類
c h a p t e r
物体表面の明るさは,一般に,物体を照らす光源の方向と物体を観察
する視線の方向の両方に依存する。石膏やセラミックスなどの不透明物
体では,物体表面上のある点に入射した光は,同じ点から出射するとみ
なすことができる(図15.9[a]
)
。したがって,不透明物体の反射特性は,
物体表面上のある点への入射光の方向 ^i i , z ih とその点からの出射光の
*7
*7 法 線 の方 向を
考え,天頂角をi ,方
3-1
位角をz とする。
項 で 述 べ る が ,不 透 明 物 体 の 反 射 特 性 を 記 述 す る 4 次 元 の 関 数
f BRDF ^i i , z i, i o , z oh は,
双方向反射率分布関数( B i d i r e c t i o n a l
15
光学的解析
方向 ^i o , z oh の4つの角度の関数として記述される(図15.10)
。定義は次
天 頂とする球座標を
Reflectance
Distribution Function:BRDF)
とよばれる。私たちの身の回りにあるほとんど
の物体は,完全な不透明物体ではないが,コンピュータビジョンでは,不
透明物体として近似的に扱われることが多い。
均質な物体の反射特性が単一のBRDFで記述されるのに対して,不均
質な物体では,物体表面上の位置 ^x, yh に依存してBRDFが変化する。し
たがって,不均質な不透明物体の反射特性は,空間的に変化するBRDF
*8
(spatially - varying BRDF )
とよばれる6次元の関数
記述される。
f svBRDF ^x, y, i i , z i , i o , z oh で
*8 相 互 反 射 や入
射光・反射光の遮へ
い など の 非 局 所 的
一方,皮膚や大理石などの半透明物体では,物体表面のある点に入射
な影 響も含めて,双
した光は,物体内部に深く浸透して散乱を繰り返したのち,入射した点
( BT F:Bidirectional
方向テクスチャ関数
Texture Function )と
とは異なる点から出射する(図15.9
[ b]
)
。したがって,半透明物体の反射
もよばれる。
z
ii
[a]不透明物体
[b]半透明物体
■図 15.9 ――不透明物体と半透明物体の反射
x
zi
io
zo
y
■図 15.10 ――BRDFの座標系
339
16-3
エントロピー符号化
ここでは,画素値の出現確率を利用した一般的な符号化法である,ハフ
マン符号化と算術符号化について解説する。どちらも出現確率が大きい
画素値に短い符号を割り当て,出現確率が小さい画素値に長い符号を割
2)
り当てて,平均符号長を短くしようとするものである。
16-3-1 ハフマン符号化
c h a p t e r
ハフマン符号化( Huffman coding )は,以下の手順によって処理される。
① 出現確率の最も小さい 2 つのシンボルを選択する。
② 出現確率の大きいほうに符号 0,小さいほうに符号 1 を割り当て,
16
3-1
部分木を作成する。
③ 2 つのシンボルにおける出現確率の和を出現確率とする新たなシ
*16
図 16.3 では,
エントロピー符号化
統合の結果得られた
新たなシン ボ ルを順
にA,B,C,…と 表して
いる。
*16
ンボルに統合する。
④ ①~③を繰り返す。
表 16.2 の例ではシンボルの数は 8 であり,
この手順を 7 回繰り返した結
果,すべてのシンボルが統合され,図 16.3 に示すようなハフマン木とよ
ばれる木構造がつくられる。各節点に,統合された新たなシンボル名と
出現確率を示す。
ハフマン木をたどることで,シンボル(画素値)に割り当てられた符号
を知ることができる。これを表にしたものが表 16.5 である。この表を用
0
4:0.28
F:0.55
1
0
0
D:0.27
1
G:1.00
5:0.14
0
0
7:0.03
6:0.06
3:0.25
E:0.45
1
1
B:0.13
1
1
0:0.04
0
A:0.07
0
2:0.12
C:0.20
1
1:0.08
■図 16.3 ――ハフマン木
■表 16.5 ――符号化テーブル
368
画素値
0
1
2
3
4
5
6
7
符号
01100
111
110
10
00
010
0111
01101
画像出力● appendix
濃度パターン法
画素値に対応した2 値パターンを割り当てて,グ
レースケール画像の階調を表現する方法を,濃度
パターン法( density pattern method )とよぶ。図a.29に,
濃度パターン法の処理の流れを示す。画像の1 画素
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
原画像
に対応する2 値パターンを 4#4 画素とすると,2 値
パ ター ン中の黒領域の密度で 17 階調が表現でき
る。この場合,画像サイズが N # N 画素のとき,プ
リンタが出力する2 値画像のサイズは 4 N #4 N 画素
となる。
各画素について,
近い
濃度パターンを選択
16
■図a.29 ――濃度パターン法の処理の流れ
ディザ法
画像サイズとプリンタが出力する2 値画像のサ
① 画像を4# 4画素の
ブロックに分割する。
イズが同じハーフトーニングの方法として,ディザ
法と誤差拡散法がある。
ディザ法( dither
method )のなかの組織的ディザ法
では,図a.30に示すようなディザパターン(通常は
4×4 画素)を用意し,ディザパターンの値と画像の
画素値を比較して,どちらが大きいかによってその
画素を白にするか黒にするかを決定する。組織的
0 8 2 10
12 4 14 6
② ブロック内の各画素
が,ディザパターン
内の対応 画 素の 値
#16+8以上ならば
白,そうでなければ
黒に置き換える。
比較
3 11 1 9
15 7 13 5
ディザパターン
(Bayer型)
ディザ法では,周期的な偽パターンが発生しやす
い。この偽パターンを防ぐために,ディザパターン
③ ②の変換をすべての
ブロックについて行う。
をランダムに変更するランダムディザ法とよばれ
る方法もある。
■図a.30 ――ディザ法の処理の流れ
誤差拡散法
誤差拡散法( error
diffusion method )では,図a.31に
画像の左上の画素から順に,
白(画素値255)か黒(画素値0)に
置き換える処理を行うものとする。
示すように,処理対象画素値 f と,2 値化した値 gと
の誤差 e= f - g を周辺画素に分散させ,誤差 eを
キャンセルするように未処理画素の画素値を補正
しながら,画像全体の画素を白にするか黒にする
かを決定する。
図a.32に,濃度パターン法,組織的ディザ法,誤
f f1
f2 f3 f4
差拡散法を用いてハーフトーニングした例を示す。
濃度パターン法では,グレースケール画像の1 画素
に対して16 画素の 2 値パターンが割り当てられて
いるので,ほかの 2 つの方式に比べてプリンタが出
力する2 値画像のサイズが大きくなる。組織的ディ
ザ法では,画素値が同じ領域で周期的なパターン
が目立つが,誤差拡散法では軽減されている。
g f1'
f2' f3' f4'
誤差 e = f−g
① 処理対象画素の画素値を fとす
るとき,
f >127 白(255)に置き換える。
( g=255)
f E127 黒(0)に置き換える。
( g=0)
そして,置き換えたあとの誤差
を eとする。
② 未 処 理 画 素 領 域(図のグレー
の領域)のうち,処理対象画素
周辺の数画素(図の濃いグレー
で示した4 画素)に誤 差 e を分
散させて画素値を変更する。
③ ①と②の処理をすべての画素に
ついて順に行う。
誤差 eを分散させる式の例
f 1' = f 1+(5/16)e
f 2' = f 2+(3/16)e
f 3' = f 3+(5/16)e
f 4' = f 4+(3/16)e
■図a.31 ――誤差拡散法の処理の流れ
413