視覚フィードバックによる車椅子ロボットの制御 視覚フィードバックによる

視覚フィードバックによる車椅子ロボットの制御
‐人に優しいロボットシステムを目指して‐
Vision-based Motion Control for Robotic Wheelchair
- Human Friendly Robot System 小田尚樹(Naoki ODA)
Tel & Fax: 0123-27-6104
E-mail: [email protected]
URL: http://odalab.spub.chitose.ac.jp/
Abstract: Robot technologies will play an important role in the super aging society. Assistive devices, such as
robotic wheelchair, rehabilitation robots and so on, are expected for human-life supporting systems. In our
laboratory, the vision-based technique of motion control for robotic wheelchair has been proposed, and it is
evaluated by using originally developed wheelchair robot. The proposed approach makes it possible to facilitate
the direct intelligent interactions between human, robot and dynamic environments.
高齢者人口の増加,及び少子化に伴う介護側の負担増までも憂慮されている今日,ロボットの介護
福祉面での利用が期待されている。電動車椅子に期待される支援機能としては、操作時における肉体
的負担の低減を目指したパワーアシスト機能のみならず、自律的な移動能力の実装による操作負担の
軽減、
先導者への追従や障害回避行動の支援など多くの複合的な支援が考えられる.これらの機能が,
複雑な環境変化を伴う人の生活エリアで利用されることを考慮すると,環境情報と密に連携のとれる
モーション制御系を構成することが重要である。
車椅子(Fig.1)などの介護福祉ロボットに求められる基本的な機能は、自律的な動作の実現以上
に、
「人の行動を支援する」機能の提供が強く求められる。つまり主役は
人であって、その意思やロボットへの入力を観測し、その行動を支援す
ることが重要な役割となる。提案したアプローチは、支援機能の一つで
あるパワーアシスト機能をビジュアルフィードバック系で構成すること
で(Fig.2)、動的環境における視野内の変化と人が車椅子に加える力を
効果的に結びつけたアシスト系としている。本年度は、提案した制御系
の特徴を生かすために、パワーアシスト系に操作支援の機能を統合する
ための理論的検証を行い、視野変化の影響度合を自由に調整可能なシス
テムを構成した。また通常、操作力の検出には、力・トルクセンサを備
えることが一般的であるが、Fig.3 に示す動作結果は力センサ等を一切利
用せず、車輪のエンコーダなどの内界信号から力を推定している。現在、
その推定を含めてすべて画像情報のみで実現できるよう研究を進めてい
Fig.1 Robotic Wheelchair
る。
Target Motion Model
D
Camera Motion
Estimation
Reaction Force
Observer
Robust Velocity Controller
Stereo Cameras
Stereo Images
Disparity Flow
Distance Image
0
0
1
2
3
4
5
6
7
8
5
6
7
8
-50
-100
Time[s]
-
Right
50
-150
+
Velocity
Moving Object
Detection
Left
M
Ideal Flow
Velocity[m/s]
k-1, k Frames
Optical Flow
Vector Field
Weighting Matrix
Determination
Weighted Least Square Method
Human Force[N]
100
2
1.5
1
0.5
0
-0.5 0
-1
-1.5
-2
assist command
1
2
3
4
actual velocity
estimated velocity
Time[s]
Fig.2 Power Assist Controller using Optical Flow and Disparity
64
Fig.3 Experimental Results