MI-Hough Forest Grasp Decision Using Exemplar-Based MI-Hough Forest , , , Yusuke MURAI , Ryosuke OZEKI , Yasutoshi MATSUURA , Yuji YAMAUCHI , Takayoshi YAMASHITA and Hironobu FUJIYOSHI : {ym@vision., hf@}cs.chubu.ac.jp : Random Forest 2 把持のための 1. 干渉領域 ( ) ルール設定が必要 入力画像 ワーク認識 把持判定 ワークの把持 (a) 従来のワーク認識と把持判定 1(a) [1-7] 把持可能な事例 把持不可能な事例 ルールを自動獲得 入力画像 3 ワーク認識 把持判定 ワークの把持 (b) 提案アプローチ 1 1(a) Random Forest[8] 1(b) 2 学習画像 把持判定に有効なサンプルに対して 学習サンプル 高い重みとなるように更新 把持可能な事例 把持不可能な事例 回転 ネガティブ 把持可能な事例 ネガティブサンプルとの ポジティブ Bag ( , , ) 0° ( , , ) 0° ( , , ) 0° ( , , ) 0° ( , , ) 0° ( , , ) 0° ( , , ) 0° ( , , ) 0° ( , , ) 0° ( , , ) 0° ( , , ) 0° ( , , ) 0° ( , , ) 回転 識別に有効なサンプルに 高い重みとなるように更新 2 回転 把持不可な事例 ポジティブ画像 2 回転 非認識対象 ネガティブ画像 3 Bag xij 2. I Bagi = {xij , sij , cij , rij , oij } Bag j i Bagi 1 sij 0 2 wP 1( ) cij 0 2( ) cij wc wc 2 rij ∗ oij ∗ 1 wc wc Bag Bag 2 MI-Hough Forest[9] MI-Hough Forest Hough Forest[10] Multiple Instance Learning[11] oij Bag Bag 1 Bag Bag 2.1. 3 Bag 2.2. 2 4 1 360 1 2 Step1 wijP wijc ∗ 1 1 ポジティブサンプル 階層 サブクラス1 0 サブクラス2 ネガティブサンプル Bag ランダム選択 クラス尤度算出 1 <τ 分岐ノード クラス尤度算出 2 テンプレート Neg. Pos. D 末端ノード Sub.1Sub.2 末端ノードのクラス割合 4 5 Step2 Dominant Orientation Templates(DOT)[12] [13] DOT Step3 (3) (T, τ ) = argmin(U∗ ({xij | hT ,τ = 0}) +U∗ ({xij | hT ,τ = 1})) (3) 8 T ,τ 7 {xij | hT ,τ = 0} 2 {xij | hT ,τ = 1} 1 0 (1) M 3 U∗ 1 "$ 0 if δ (V (x ) ⊗ V (T )) l ij l M (xij ,T ) = ∑ # (1) 1 otherwise Vl ( xij )∈xij $ % V (T )∈T 3 1 l Vl (xij ) Vl (T ) xij T DOT 1 δ Vl (xij ) Vl (T ) 1 (4) l ⊗ U1 (A) =| A | (−a ⋅ log a − (1− a)⋅ log(1− a)) (4) AND AND 1 xij T (5) xij M h T τ a A 1 ∑ a= (2) !# 0 if M (x ,T ) < τ ij hT ,τ (xij ,T ) = " #$ 1 otherwise T wijP wijP ∈A∧sij =1 (5) ∑w P ij wijP ∈A (2) 2 1 2 B = {A | sij = 1} 5 B T xij τ T U 2 (B) =| B | (−b ⋅ log b − (1− b)⋅ log(1− b)) (6) τ (6) pijc :低い :低い :低い :低い :低い :低い :高い :高い :高い :高い :高い :高い ∗ Bag Bag pi (11) (a) ポジティブ,ネガティブ間の重み pi = ∏ pij∗ (11) j∈i (b) サブクラス 1,サブクラス 2 間の重み wijP Bag 6 (6) wijc b 1 ∗ (12) wij∗ = pi ⋅ pij∗ (7) ∑ b= ∗ wijc ∈ c ij w d B∧cij =1 ∑ wijc S (7) ∗ (13) (14) ∗ 3 (8) ij − rB ) (13) ∑w P ij wijP ∈A 2 (8) wijc c∗ ij w = rij ∈B rij rB wijP wijP = ∑ (r d (d ) wijc ∈ B U3 (B) = (12) ∗ U3 ∗ (14) c∗ ij ∑w ∗ wijc ∈B pijP 6(a) Step4 d Bag wijP wijc ∗ pijc pijP Bag pijP pijc pi ∗ Bag P ij 6(b) w ∗ pijc (9) (10) F 1 pijP = 1+ exp(1− F(xij )) F(xij ) = 2 a −1 Bag w wijP wijc Step5 Step2 1 p = 1+ exp(1− G(xij )) c∗ ij 1 2 Gc1 Step2 Step4 D 2 p Gc1 (xij ) = 2b −1 Step4 ∗ (10) c1 ij 1 pijc2 Bag c∗ ij p Gc1 ∗ pi (9) P ij G pi 2 Gc2 (xij ) = 2b −1 Step6 l Qt,l(0) = a 1 Qt,l(1) = b 2 7 ポジティブ画像 回転角 2° 1° 1° ロボットハンド カメラ ワーク オフセットベクトル 重み 重み 把持不可 ワーク 1 0° ネガティブ画像 把持可能 ワーク 2 末端ノード ロボットアーム 実験環境 重み Sub.1 Sub.2 学習画像 9 Positive Negative クラス割合 R t,l 7 o θ 360 度 V (i) Vθ(i) , p+Rij = ∑ Qt,l 0度 尤度マップへ投票 (15) t パッチ画像切り出し 1 2 3 4 把持不可能 ワークの認識 識別 入力画像 θ ( θ θ 把持可能 8 ) 2.3.2. (2) t,l R t,l = rij Q = 1− b Ot,l = oij t p' l θ' (16) c∗ = argmaxVθ(i) ' , p' (16) 1≤ i ≤ 2 p' θ' 2.3. 1 2 1( 1) 2( 8 2) 2.3.1. θ 3. 3 1 1 3.1. 2 3 i 9 i=0 1 2 i =1 i=2 0 p x t 1 l 1 l Qt,l(0) 2 Qt,l(1) 1 Qt,l(2) R t,l (15) 360 Ot,l p 360 × 2( 360 × 2( 1 10 ) × 2( ) × 2( ) ) 把持可能 ポジティブ 把持不可 把持不可能 ワーク 1 回転 把持可能 中心 重みマップ ワーク 1 高い 重み ワーク 2 重みマップ ワーク 2 低い 11 3.3. 11 10 10 1 2cm 2cm 5pixel 2 5 3.2. 1 1 [%] 12 1 95.1 100.0 98.1 2 85.1 84.0 82.5 1 2 95.1% 100.0% 98.1% 85.1% 84.0% 82.5% 2 1 2 2 4. Recognition, 2009. [11] T. G. Dietterich, and R. H. Lathrop: Solving the multiple-instance problem with axis-parallel rectangles, Artificial Intelligence, vol.89, pp.31-71, 1997. [12] S. Hinterstoisser, V. Lepetit, S. Ilic, P. Fua, and N. Navab: Dominant Orientation Templates for Real-Time Detection of Texture-Less Objects, Computer Vision and Pattern Recognition, pp. 2257-2264, 2010. [13] D. Tang, Y. Liu, and T.-K. Kim: Fast pedestrian detection by cascaded random forest with dominant orientation templates, British Machine Vision Conference, 2012. [14] , , , , Random Forest , , 2014. 2013 [14] 2007 [1] A. Bicchi, and V. Kumar: Robotic grasping and contact: a review, International Conference on Robotics and Automation, 2000. [2] M. T. Mason, and J. K. Salisbury: Manipulator grasping and pushing operations, Robot Hands and the Mechanics of Manipulation. Cambridge, MA: The MIT Press, 1985. [3] K. Shimoga: Robot grasp synthesis: a survey, The International Journal of Robotics Research, vol. 15, pp.230-266, 1996. [4] A. M. Okamura, N. Smaby, and M. R. Cutkosky: An overview of dexterous manipulation: International Conference on Robotics and Automation, 2000. [5] J. Glover, D. Rus, and N. Roy: Probabilistic Models of Object Geometry for Grasp Planning, Robotics: Science and Systems IV, 2008. [6] A. Saxena, L. Wong, M. Quigley, and A. Y. Ng: A vision-based system for grasping novel objects, Robotics Research. Springer Berlin Heidelberg, 2011, pp.337-348. [7] , , , , : , 29 2011. [8] L. Breiman: Random Forests, Machine Learning, vol. 45, no. 1, pp. 5-32, 2001. [9] , , , , , , MI-Hough Forest , , 2014. [10] J. Gall, and V. Lempitsky: Class-specific hough forests for object detection, Computer Vision and Pattern 2003 2012 2012 2010 2014 DC2 2002 2002 2009 ) 2014 ( 2009 2013 2013 PRMU 1997 1997 2000 Postdoctoral Fellow 2000 2010 2005 2004 2006 2005 2009 2009 2010 2013 2013 2014 把持可能なワーク 把持不可能なワーク 把持可能サンプルからの投票の割合 把持可能サンプルからの投票の割合 1 0.8 0.6 0.4 0.2 0 シーン 1 1 0.8 0.6 0.4 0.2 0 1 0.8 0.6 0.4 0.2 0 1 0.8 0.6 0.4 0.2 0 シーン 2 1 0.8 0.6 0.4 0.2 0 1 0.8 0.6 0.4 0.2 0 1 0.8 0.6 0.4 0.2 0 シーン 3 1 0.8 0.6 0.4 0.2 0 1 0.8 0.6 0.4 0.2 0 1 0.8 0.6 0.4 0.2 0 シーン 4 1 0.8 0.6 0.4 0.2 0 1 0.8 0.6 0.4 0.2 0 シーン 5 1 0.8 0.6 0.4 0.2 0 1 0.8 0.6 0.4 0.2 0 1 0.8 0.6 0.4 0.2 0 シーン画像 尤度マップ ( ポジティブ ) 12 Sub1 Sub2 Sub1 Sub2 Sub1 Sub2 Sub1 Sub2 Sub1 Sub2 Sub1 Sub2 Sub1 Sub2 Sub1 Sub2 Sub1 Sub2 Sub1 Sub2 Sub1 Sub2 Sub1 Sub2 Sub1 Sub2 Sub1 Sub2 Sub1 Sub2
© Copyright 2024 ExpyDoc