Document

○ 西村 健太(岡山大) 候 森(岡山大) 前田 耕市(岡山大) 見浪 護 (岡山大) 矢納 陽 (岡山大)
K.NISHIMURA (Okayama Univ.)
H.SEN (Okayama Univ.)
K.MAEDA (Okayama Univ.)
M.MINAMI (Okayama Univ.) A.Yanou (Okayama Univ.)
概要: 本研究ではビジュアルサーボの物体認識手法の一つとして遺伝的認識法(GA)を用いている.
GAを用いることにより対象物認識時間の短縮を行なっている.ビジュアルサーボにおける1-step GAの
実時間ポーズトラッキング性能について示すことにより,物体認識の誤差について検証した.
Abstract: In this research, Genetic algorithm (GA) is used as pose-tracking method of an target object for 3-D visual servoing.
Real-time Object tracking time has been shortened for real-time pose estimation by using 1-step GA and Eye-vergence function,
and pose-tracking accuracy has be verified through fitness function distribution which is a correlation function between the
target object projected in camera flame and model defined in the control computer. In this research, it verifies about the error of
object recognition by showing the action of GA in time-domain during visual servoing.
1.研究の背景と意義 ~Introduction~
Eye-vergence system
object
ビジュアルサーボの物体認識手法
GAを使用
left
camera
GAを用いるメリット
対象物を一度見失ったとしても
対象物を再認識・再追従する
ことができる
right
camera
対象物がカメラに
近い場合でも認識できる
両カメラでの
可視領域が広い
本報
実時間のビジュアルサーボにおけるGAの
挙動を把握することにより,GAの優位性の確認
対象物が素早く動いた
場合でも注視し続けられる
対象物をカメラの
中心に写像できる
2.ハンドアイビジュアルサーボシステム ~Hand-Eye Visual Servoing System~
ÜM
E
Actual Object
M
TM
Ed
Ed
ÜE
W
^
TM
(
†(t))
^
TM
W
T Ed
E _
T Ed
Desiredtrajectory
generation
E
!Ed
T M^
E
E
TM
E
xM
yM
Ü
Desired
Ed End Effector
T E (q(t))
W
T Ed
transform
ÜE
ÜM
E
W
Åè
!E;Ed
Velocity
controller
block
Manipulator
dynamics
ú
_ q_
J(q)°
q + C(q; q)
+ G(q) = ú
Camera q cd
inverse
kinematics q_ cd
Camera
controller
block
Camera
dynamics
ú
_ q_
J(q)°
q + C(q; q)
+ G(q) = ú
ÜW
E
TM
^ Recognition by model-based Raw image
Camera
E _
matching and 1-step GA
T ^
M
W
rE;Ed
Coordinate W r_
E;Ed
Motion-FeedForward
compensation
ハンドコントローラ
W
W
zM
Eye visual servoing block
T Ed
Desired Camera
手先
目標速度
E
Hand visual servoing block
W
E
qd
Inverse
kinematics
TM
^
Actual Camera
Trajectory
Detected Object
ÜM^
E
Actual End
Effector
TM
^
Objective of
visual servoing
Ed
T M , EdT_ M
W
r_d = KPp rE;Ed + KVp r_ E;Ed
手先
W
W
E
W
!
=
K
R
Åè+
K
!
d
P
E
V
E;Ed
o
o
目標角速度
Visual feedback block
目標関節 q
_ Ed
角速度
入力トルク
f(q)
+
= KPq (qEd Ä qE) + J (q)
W_
rd
W
!d
_ d Ä q)
_
ú= KSP (qd Ä q) + KSD(q
3.認識手法 ~Object Estimation Method~
Model-based Matching法
1-step GA(実時間遺伝的認識法)
対象物の知識を与えたモデル
・対象物の色
・対象物の形状
初期化:
左カメラ画像 右カメラ画像
Sout :対象物の帯部分
Sin:対象物の面部分
適合度関数:
P
IR
p( ri ) Ä
Fsite(û) =
f(
+(
IR
P
ri 2 SR;in(û)
IL
IL
p(
ri 2 SL;in(û)
進化処理
初期個体を探索
エリア内にばらまく
P
i
IL
i
i
p(
新しい個体に対して 現在の個体の
進化処理の適用
進化を続行
ri )
R;out
IL
並び 適応度に基づいて
:
替え 個体を並び替え
YES
)
r 2S
(û)
P
r )Ä
p( r ))g/2
r 2S
(û)
IR
IR
NO
画像入力
p(r):色相分布
評価:
選択
L;out
進化処理
交叉・突然変異
適合度は,対象物と Sin 領域が重なり,
Sout が色相値の高い背景と一致しているときに大きな値を取る
終了
実 験 シ ス テ ム
高
x
End effector
-900
z
z
Position recognized by GA
Actual position of target object
-1100
x
Ü
y M
z
-1300
y
y
ÜE
ÜW
x
低
12
8
16
12
720
16
520
24
20
Time[s]
720
(d) 20[s]
z[mm]
z[mm]
(b) 12[s]
Fitness
24
value
1.0
20
520
1.0
0
x [mm]
520
720
(c) 16[s]
z[mm]
z[mm]
(a) 8[s]
720
(e) 24[s]
GA
320
0 x[mm] 100 -100
z[mm]
320
0 x[mm] 100 -100
-1100
-1300
0
4
0
-1100
Position recognized by GA
8
12
8
4
(b) 4[s]
z[mm]
-900
Time[s]
12
720
520
520
320
-100
320
-100
16
16
(d) 12[s]
-1300
440
240
-100
(a) 1[s]
440
240
0 x[mm] 100 -100
3
3
2
(b) 2[s]
640
440
240
0 x[mm] 100 -100
5.結 論 ~Conclusion~
まとめ
• GAの実時間での挙動を確認
• 探索範囲の再考が必要である
Time[s]
(c) 3[s]
4
4
720
520
320
0 x[mm] 100 -100
0 x[mm] 100
(a) 0[s]
GA
720
520
320
0 x[mm] 100 -100
(c) 8[s]
0 x[mm] 100
720
z[mm]
1
640
2
z[mm]
1
z[mm]
z[mm]
0
z[mm]
-1500
0
640
z[mm]
Z position[mm]
End effector
Actual position of target object
Searching area of GA
Actual position of target object
Position recognized by GA
720
-700
x [mm]
End effector
-900
-1500
0 x[mm] 100
θ [mm]
! =1.256
-700
520
520
320
-100
0
0 x[mm] 100
Z position[mm]
720
0 x[mm] 100
320
-100
z[mm]
320
-100
多峰性(姿勢も含めた全探索)
単峰性(位置のみの全探索)
z[mm]
8
Fitness value
-1500
Fitness value
Z position[mm]
-700
出力:
最良の個体の
位置/姿勢を出力
i
4.実機実験 ~Pose Tracking of GA~
! =0.209
個々の適合度
関数の計算
(e) 16[s]
520
320
0 x[mm] 100 -100
0 x[mm] 100