事例型 MI-Hough Forest を用いた物体把持判定

MI-Hough Forest
Grasp Decision Using Exemplar-Based MI-Hough Forest
,
,
,
Yusuke MURAI , Ryosuke OZEKI , Yasutoshi MATSUURA ,
Yuji YAMAUCHI , Takayoshi YAMASHITA and Hironobu FUJIYOSHI
:
{ym@vision., hf@}cs.chubu.ac.jp
:
Random Forest
2
把持のための
1.
干渉領域
(
)
ルール設定が必要
入力画像
ワーク認識
把持判定
ワークの把持
(a) 従来のワーク認識と把持判定
1(a)
[1-7]
把持可能な事例 把持不可能な事例
ルールを自動獲得
入力画像
3
ワーク認識
把持判定
ワークの把持
(b) 提案アプローチ
1
1(a)
Random Forest[8]
1(b)
2
学習画像
把持判定に有効なサンプルに対して
学習サンプル
高い重みとなるように更新
把持可能な事例
把持不可能な事例
回転
ネガティブ
把持可能な事例
ネガティブサンプルとの
ポジティブ
Bag
( ,
,
)
0°
( , , )
0°
( , ,
)
0°
( , ,
)
0°
( , , )
0°
( ,
,
)
0°
( ,
, )
0°
( , ,
)
0°
( , ,
)
0°
( , ,
)
0°
( , , )
0°
( ,
,
)
0°
( , , )
回転
識別に有効なサンプルに
高い重みとなるように更新
2
回転
把持不可な事例
ポジティブ画像
2
回転
非認識対象
ネガティブ画像
3
Bag
xij
2.
I
Bagi = {xij , sij , cij , rij , oij }
Bag
j
i
Bagi
1
sij
0
2
wP
1(
)
cij
0
2(
)
cij
wc
wc
2
rij
∗
oij
∗
1
wc
wc
Bag
Bag
2
MI-Hough Forest[9]
MI-Hough Forest
Hough Forest[10]
Multiple Instance Learning[11]
oij
Bag
Bag
1
Bag
Bag
2.1.
3
Bag
2.2.
2
4
1
360
1
2
Step1
wijP
wijc
∗
1
1
ポジティブサンプル
階層
サブクラス1
0
サブクラス2
ネガティブサンプル
Bag
ランダム選択
クラス尤度算出
1
<τ
分岐ノード
クラス尤度算出
2
テンプレート
Neg.
Pos.
D
末端ノード
Sub.1Sub.2
末端ノードのクラス割合
4
5
Step2
Dominant Orientation Templates(DOT)[12]
[13]
DOT
Step3
(3)
(T, τ ) = argmin(U∗ ({xij | hT ,τ = 0}) +U∗ ({xij | hT ,τ = 1})) (3)
8
T ,τ
7
{xij | hT ,τ = 0}
2
{xij | hT ,τ = 1}
1
0
(1)
M
3
U∗
1
"$ 0 if δ (V (x ) ⊗ V (T ))
l
ij
l
M (xij ,T ) = ∑ #
(1)
1
otherwise
Vl ( xij )∈xij $
%
V (T )∈T
3
1
l
Vl (xij ) Vl (T )
xij
T
DOT
1
δ
Vl (xij ) Vl (T )
1
(4)
l
⊗
U1 (A) =| A | (−a ⋅ log a − (1− a)⋅ log(1− a)) (4)
AND
AND
1
xij T
(5)
xij
M
h
T
τ
a
A
1
∑
a=
(2)
!# 0 if M (x ,T ) < τ
ij
hT ,τ (xij ,T ) = "
#$ 1 otherwise
T
wijP
wijP ∈A∧sij =1
(5)
∑w
P
ij
wijP ∈A
(2)
2
1
2
B = {A | sij = 1}
5
B
T
xij
τ
T
U 2 (B) =| B | (−b ⋅ log b − (1− b)⋅ log(1− b)) (6)
τ
(6)
pijc
:低い
:低い
:低い
:低い
:低い
:低い
:高い
:高い
:高い
:高い
:高い
:高い
∗
Bag
Bag
pi
(11)
(a) ポジティブ,ネガティブ間の重み
pi = ∏ pij∗
(11)
j∈i
(b) サブクラス 1,サブクラス 2 間の重み
wijP
Bag
6
(6)
wijc
b
1
∗
(12)
wij∗ = pi ⋅ pij∗
(7)
∑
b=
∗
wijc ∈
c
ij
w
d
B∧cij =1
∑
wijc
S
(7)
∗
(13) (14)
∗
3
(8)
ij
− rB )
(13)
∑w
P
ij
wijP ∈A
2
(8)
wijc
c∗
ij
w =
rij ∈B
rij
rB
wijP
wijP =
∑ (r
d
(d )
wijc ∈ B
U3 (B) =
(12)
∗
U3
∗
(14)
c∗
ij
∑w
∗
wijc ∈B
pijP
6(a)
Step4
d
Bag
wijP wijc
∗
pijc
pijP
Bag
pijP pijc
pi
∗
Bag
P
ij
6(b)
w
∗
pijc
(9) (10)
F
1
pijP =
1+ exp(1− F(xij ))
F(xij ) = 2 a −1
Bag
w
wijP wijc
Step5 Step2
1
p =
1+ exp(1− G(xij ))
c∗
ij
1
2
Gc1
Step2
Step4
D
2
p
Gc1 (xij ) = 2b −1
Step4
∗
(10)
c1
ij
1
pijc2
Bag
c∗
ij
p
Gc1
∗
pi
(9)
P
ij
G
pi
2
Gc2 (xij ) = 2b −1
Step6
l
Qt,l(0) = a
1
Qt,l(1) = b
2
7
ポジティブ画像
回転角
2°
1°
1°
ロボットハンド
カメラ
ワーク
オフセットベクトル
重み
重み
把持不可
ワーク 1
0°
ネガティブ画像
把持可能
ワーク 2
末端ノード
ロボットアーム
実験環境
重み
Sub.1 Sub.2
学習画像
9
Positive Negative
クラス割合
R t,l
7
o
θ
360 度
V
(i)
Vθ(i)
, p+Rij = ∑ Qt,l
0度
尤度マップへ投票
(15)
t
パッチ画像切り出し
1
2
3
4
把持不可能
ワークの認識
識別
入力画像
θ
(
θ
θ
把持可能
8
)
2.3.2.
(2)
t,l
R t,l = rij
Q = 1− b
Ot,l = oij
t
p'
l
θ'
(16)
c∗ = argmaxVθ(i)
'
, p'
(16)
1≤ i ≤ 2
p'
θ'
2.3.
1
2
1(
1)
2(
8
2)
2.3.1.
θ
3.
3
1
1
3.1.
2
3
i
9
i=0
1
2
i =1
i=2
0
p
x
t
1
l
1
l
Qt,l(0)
2
Qt,l(1)
1
Qt,l(2)
R t,l
(15)
360
Ot,l
p
360
× 2(
360
× 2(
1
10
) × 2(
) × 2(
)
)
把持可能
ポジティブ
把持不可
把持不可能
ワーク 1
回転
把持可能
中心
重みマップ
ワーク 1
高い
重み
ワーク 2
重みマップ
ワーク 2
低い
11
3.3.
11
10
10
1
2cm
2cm
5pixel
2
5
3.2.
1
1
[%]
12
1
95.1
100.0
98.1
2
85.1
84.0
82.5
1
2
95.1%
100.0% 98.1%
85.1%
84.0% 82.5%
2
1
2
2
4.
Recognition, 2009.
[11] T. G. Dietterich, and R. H. Lathrop: Solving the
multiple-instance problem with axis-parallel rectangles,
Artificial Intelligence, vol.89, pp.31-71, 1997.
[12] S. Hinterstoisser, V. Lepetit, S. Ilic, P. Fua, and N. Navab:
Dominant Orientation Templates for Real-Time Detection
of Texture-Less Objects, Computer Vision and Pattern
Recognition, pp. 2257-2264, 2010.
[13] D. Tang, Y. Liu, and T.-K. Kim: Fast pedestrian detection
by cascaded random forest with dominant orientation
templates, British Machine Vision Conference, 2012.
[14]
,
,
,
,
Random Forest
,
, 2014.
2013
[14]
2007
[1] A. Bicchi, and V. Kumar: Robotic grasping and contact: a
review, International Conference on Robotics and
Automation, 2000.
[2] M. T. Mason, and J. K. Salisbury: Manipulator grasping and
pushing operations, Robot Hands and the Mechanics of
Manipulation. Cambridge, MA: The MIT Press, 1985.
[3] K. Shimoga: Robot grasp synthesis: a survey, The
International Journal of Robotics Research, vol. 15,
pp.230-266, 1996.
[4] A. M. Okamura, N. Smaby, and M. R. Cutkosky: An
overview of dexterous manipulation: International
Conference on Robotics and Automation, 2000.
[5] J. Glover, D. Rus, and N. Roy: Probabilistic Models of
Object Geometry for Grasp Planning, Robotics: Science
and Systems IV, 2008.
[6] A. Saxena, L. Wong, M. Quigley, and A. Y. Ng: A
vision-based system for grasping novel objects, Robotics
Research. Springer Berlin Heidelberg, 2011, pp.337-348.
[7]
,
,
,
,
:
,
29
2011.
[8] L. Breiman: Random Forests, Machine Learning, vol. 45,
no. 1, pp. 5-32, 2001.
[9]
,
,
,
,
,
,
MI-Hough Forest
,
, 2014.
[10] J. Gall, and V. Lempitsky: Class-specific hough forests for
object detection, Computer Vision and Pattern
2003
2012
2012
2010
2014
DC2
2002
2002
2009
) 2014
(
2009
2013
2013
PRMU
1997
1997 2000
Postdoctoral Fellow 2000
2010
2005
2004
2006
2005
2009
2009
2010
2013
2013
2014
把持可能なワーク
把持不可能なワーク
把持可能サンプルからの投票の割合
把持可能サンプルからの投票の割合
1
0.8
0.6
0.4
0.2
0
シーン 1
1
0.8
0.6
0.4
0.2
0
1
0.8
0.6
0.4
0.2
0
1
0.8
0.6
0.4
0.2
0
シーン 2
1
0.8
0.6
0.4
0.2
0
1
0.8
0.6
0.4
0.2
0
1
0.8
0.6
0.4
0.2
0
シーン 3
1
0.8
0.6
0.4
0.2
0
1
0.8
0.6
0.4
0.2
0
1
0.8
0.6
0.4
0.2
0
シーン 4
1
0.8
0.6
0.4
0.2
0
1
0.8
0.6
0.4
0.2
0
シーン 5
1
0.8
0.6
0.4
0.2
0
1
0.8
0.6
0.4
0.2
0
1
0.8
0.6
0.4
0.2
0
シーン画像
尤度マップ ( ポジティブ )
12
Sub1 Sub2
Sub1 Sub2
Sub1 Sub2
Sub1 Sub2
Sub1 Sub2
Sub1 Sub2
Sub1 Sub2
Sub1 Sub2
Sub1 Sub2
Sub1 Sub2
Sub1 Sub2
Sub1 Sub2
Sub1 Sub2
Sub1 Sub2
Sub1 Sub2