○ 西村 健太(岡山大) 候 森(岡山大) 前田 耕市(岡山大) 見浪 護 (岡山大) 矢納 陽 (岡山大) K.NISHIMURA (Okayama Univ.) H.SEN (Okayama Univ.) K.MAEDA (Okayama Univ.) M.MINAMI (Okayama Univ.) A.Yanou (Okayama Univ.) 概要: 本研究ではビジュアルサーボの物体認識手法の一つとして遺伝的認識法(GA)を用いている. GAを用いることにより対象物認識時間の短縮を行なっている.ビジュアルサーボにおける1-step GAの 実時間ポーズトラッキング性能について示すことにより,物体認識の誤差について検証した. Abstract: In this research, Genetic algorithm (GA) is used as pose-tracking method of an target object for 3-D visual servoing. Real-time Object tracking time has been shortened for real-time pose estimation by using 1-step GA and Eye-vergence function, and pose-tracking accuracy has be verified through fitness function distribution which is a correlation function between the target object projected in camera flame and model defined in the control computer. In this research, it verifies about the error of object recognition by showing the action of GA in time-domain during visual servoing. 1.研究の背景と意義 ~Introduction~ Eye-vergence system object ビジュアルサーボの物体認識手法 GAを使用 left camera GAを用いるメリット 対象物を一度見失ったとしても 対象物を再認識・再追従する ことができる right camera 対象物がカメラに 近い場合でも認識できる 両カメラでの 可視領域が広い 本報 実時間のビジュアルサーボにおけるGAの 挙動を把握することにより,GAの優位性の確認 対象物が素早く動いた 場合でも注視し続けられる 対象物をカメラの 中心に写像できる 2.ハンドアイビジュアルサーボシステム ~Hand-Eye Visual Servoing System~ ÜM E Actual Object M TM Ed Ed ÜE W ^ TM ( †(t)) ^ TM W T Ed E _ T Ed Desiredtrajectory generation E !Ed T M^ E E TM E xM yM Ü Desired Ed End Effector T E (q(t)) W T Ed transform ÜE ÜM E W Åè !E;Ed Velocity controller block Manipulator dynamics ú _ q_ J(q)° q + C(q; q) + G(q) = ú Camera q cd inverse kinematics q_ cd Camera controller block Camera dynamics ú _ q_ J(q)° q + C(q; q) + G(q) = ú ÜW E TM ^ Recognition by model-based Raw image Camera E _ matching and 1-step GA T ^ M W rE;Ed Coordinate W r_ E;Ed Motion-FeedForward compensation ハンドコントローラ W W zM Eye visual servoing block T Ed Desired Camera 手先 目標速度 E Hand visual servoing block W E qd Inverse kinematics TM ^ Actual Camera Trajectory Detected Object ÜM^ E Actual End Effector TM ^ Objective of visual servoing Ed T M , EdT_ M W r_d = KPp rE;Ed + KVp r_ E;Ed 手先 W W E W ! = K R Åè+ K ! d P E V E;Ed o o 目標角速度 Visual feedback block 目標関節 q _ Ed 角速度 入力トルク f(q) + = KPq (qEd Ä qE) + J (q) W_ rd W !d _ d Ä q) _ ú= KSP (qd Ä q) + KSD(q 3.認識手法 ~Object Estimation Method~ Model-based Matching法 1-step GA(実時間遺伝的認識法) 対象物の知識を与えたモデル ・対象物の色 ・対象物の形状 初期化: 左カメラ画像 右カメラ画像 Sout :対象物の帯部分 Sin:対象物の面部分 適合度関数: P IR p( ri ) Ä Fsite(û) = f( +( IR P ri 2 SR;in(û) IL IL p( ri 2 SL;in(û) 進化処理 初期個体を探索 エリア内にばらまく P i IL i i p( 新しい個体に対して 現在の個体の 進化処理の適用 進化を続行 ri ) R;out IL 並び 適応度に基づいて : 替え 個体を並び替え YES ) r 2S (û) P r )Ä p( r ))g/2 r 2S (û) IR IR NO 画像入力 p(r):色相分布 評価: 選択 L;out 進化処理 交叉・突然変異 適合度は,対象物と Sin 領域が重なり, Sout が色相値の高い背景と一致しているときに大きな値を取る 終了 実 験 シ ス テ ム 高 x End effector -900 z z Position recognized by GA Actual position of target object -1100 x Ü y M z -1300 y y ÜE ÜW x 低 12 8 16 12 720 16 520 24 20 Time[s] 720 (d) 20[s] z[mm] z[mm] (b) 12[s] Fitness 24 value 1.0 20 520 1.0 0 x [mm] 520 720 (c) 16[s] z[mm] z[mm] (a) 8[s] 720 (e) 24[s] GA 320 0 x[mm] 100 -100 z[mm] 320 0 x[mm] 100 -100 -1100 -1300 0 4 0 -1100 Position recognized by GA 8 12 8 4 (b) 4[s] z[mm] -900 Time[s] 12 720 520 520 320 -100 320 -100 16 16 (d) 12[s] -1300 440 240 -100 (a) 1[s] 440 240 0 x[mm] 100 -100 3 3 2 (b) 2[s] 640 440 240 0 x[mm] 100 -100 5.結 論 ~Conclusion~ まとめ • GAの実時間での挙動を確認 • 探索範囲の再考が必要である Time[s] (c) 3[s] 4 4 720 520 320 0 x[mm] 100 -100 0 x[mm] 100 (a) 0[s] GA 720 520 320 0 x[mm] 100 -100 (c) 8[s] 0 x[mm] 100 720 z[mm] 1 640 2 z[mm] 1 z[mm] z[mm] 0 z[mm] -1500 0 640 z[mm] Z position[mm] End effector Actual position of target object Searching area of GA Actual position of target object Position recognized by GA 720 -700 x [mm] End effector -900 -1500 0 x[mm] 100 θ [mm] ! =1.256 -700 520 520 320 -100 0 0 x[mm] 100 Z position[mm] 720 0 x[mm] 100 320 -100 z[mm] 320 -100 多峰性(姿勢も含めた全探索) 単峰性(位置のみの全探索) z[mm] 8 Fitness value -1500 Fitness value Z position[mm] -700 出力: 最良の個体の 位置/姿勢を出力 i 4.実機実験 ~Pose Tracking of GA~ ! =0.209 個々の適合度 関数の計算 (e) 16[s] 520 320 0 x[mm] 100 -100 0 x[mm] 100
© Copyright 2024 ExpyDoc