要約
本論文では、一つの把持ポーズに対して定義された把持物体(道具など)の操作軌道を、新しい把持ポーズに適応させる問題を研究する。この問題に対処するための一般的なアプローチは、可能性のある把持ごとに新しい軌道を明示的に定義することであるが、これは非常に非効率的である。その代わりに、我々はこのような軌道を直接適応させる方法を提案します。その際、物体を硬く把持した状態でロボットのエンドエフェクタが移動するのをカメラが観察する、自己教師付きのデータ収集期間を必要とするだけです。重要なことは、我々の方法は、把持物体に関する事前知識(3D CADモデルなど)を必要とせず、RGB画像、深度画像、またはその両方を扱うことができ、カメラの較正を必要としないことである。1360の評価を含む一連の実世界実験を通して、我々は、自己教師付きRGBデータが、いくつかの最先端の姿勢推定法を含む、深度画像に依存する代替法を一貫して凌駕することを発見した。最も性能の良いベースラインと比較して、我々の手法は、いくつかの日常的なタスクにおいて、新しい把持に操作軌道を適応させる際に、平均28.5%高い成功率をもたらす。実験の動画は我々のウェブページ(https://www.robot-learning.uk/adapting-skills)で見ることができる。
要約(オリジナル)
In this paper, we study the problem of adapting manipulation trajectories involving grasped objects (e.g. tools) defined for a single grasp pose to novel grasp poses. A common approach to address this is to define a new trajectory for each possible grasp explicitly, but this is highly inefficient. Instead, we propose a method to adapt such trajectories directly while only requiring a period of self-supervised data collection, during which a camera observes the robot’s end-effector moving with the object rigidly grasped. Importantly, our method requires no prior knowledge of the grasped object (such as a 3D CAD model), it can work with RGB images, depth images, or both, and it requires no camera calibration. Through a series of real-world experiments involving 1360 evaluations, we find that self-supervised RGB data consistently outperforms alternatives that rely on depth images including several state-of-the-art pose estimation methods. Compared to the best-performing baseline, our method results in an average of 28.5% higher success rate when adapting manipulation trajectories to novel grasps on several everyday tasks. Videos of the experiments are available on our webpage at https://www.robot-learning.uk/adapting-skills
arxiv情報
著者 | Georgios Papagiannis,Kamil Dreczkowski,Vitalis Vosylius,Edward Johns |
発行日 | 2024-07-31 22:18:09+00:00 |
arxivサイト | arxiv_id(pdf) |