要約
強化学習(RL)や模倣学習(IL)を用いたロボット操作の最近の研究は、引き出しや食器棚を開けるといった様々なタスクに対応できる可能性を示しています。しかし、これらの技術は、未知の物体に対する汎化が不十分である。これは、共同制御のための行動空間が高次元であるためと推測される。本論文では、別のアプローチとして、「何をするか」と「どのようにするか」を学習するタスク、すなわち、全身制御を分離します。RL問題は、関節を持つオブジェクトと相互作用する体外仮想マニピュレータのスキルダイナミクスを決定する問題である。全身ロボットの運動制御は、ワークスペースのゴールに到達するための高次元の関節運動を実行するように最適化される。これは、ロボットの特異点と運動学的制約を持つ二次計画(QP)モデルを解くことで実現される。複雑な関節物体を操作する実験により、提案アプローチはクラス内変動の大きい未見の物体に対してより一般化でき、以前のアプローチを凌駕することが示された。評価結果は、我々のアプローチがより適合性の高いロボットモーションを生成し、タスク成功率において純粋なRLとILのベースラインを上回ることを示している。
要約(オリジナル)
Recent works in robotic manipulation through reinforcement learning (RL) or imitation learning (IL) have shown potential for tackling a range of tasks e.g., opening a drawer or a cupboard. However, these techniques generalize poorly to unseen objects. We conjecture that this is due to the high-dimensional action space for joint control. In this paper, we take an alternative approach and separate the task of learning ‘what to do’ from ‘how to do it’ i.e., whole-body control. We pose the RL problem as one of determining the skill dynamics for a disembodied virtual manipulator interacting with articulated objects. The whole-body robotic kinematic control is optimized to execute the high-dimensional joint motion to reach the goals in the workspace. It does so by solving a quadratic programming (QP) model with robotic singularity and kinematic constraints. Our experiments on manipulating complex articulated objects show that the proposed approach is more generalizable to unseen objects with large intra-class variations, outperforming previous approaches. The evaluation results indicate that our approach generates more compliant robotic motion and outperforms the pure RL and IL baselines in task success rates.
arxiv情報
著者 | Kai Lu,Bo Yang,Bing Wang,Andrew Markham |
発行日 | 2023-03-07 16:31:13+00:00 |
arxivサイト | arxiv_id(pdf) |