要約
物体を把握するために自由度 (DoF) の高いロボットの動きを調整するには、多くの課題が生じます。
この論文では、単一の固定カメラによって提供される部分点群から 23 自由度の把握軌道を直接予測するポリシーを学習するための新しい模倣学習アプローチを提案します。
このアプローチの中心となるのは、行動力学の 2 次の幾何学ベースのモデルです。
この Neural Geometric Fabric (NGF) ポリシーは、ジョイント スペース内の加速度を直接予測します。
私たちは、私たちのポリシーが新しいオブジェクトに一般化できることを示し、ループ内の幾何学的なファブリックモーションプランナーと私たちのポリシーを組み合わせて、安定した把握軌道を生成します。
3 つの異なるオブジェクトのセットに対するアプローチを評価し、異なるポリシー構造を比較し、ポリシー学習における異なるオブジェクト エンコーディングの重要性を理解するためにアブレーション研究を実行します。
要約(オリジナル)
Coordinating the motion of robots with high degrees of freedom (DoF) to grasp objects gives rise to many challenges. In this paper, we propose a novel imitation learning approach to learn a policy that directly predicts 23 DoF grasp trajectories from a partial point cloud provided by a single, fixed camera. At the core of the approach is a second-order geometric-based model of behavioral dynamics. This Neural Geometric Fabric (NGF) policy predicts accelerations directly in joint space. We show that our policy is capable of generalizing to novel objects, and combine our policy with a geometric fabric motion planner in a loop to generate stable grasping trajectories. We evaluate our approach on a set of three different objects, compare different policy structures, and run ablation studies to understand the importance of different object encodings for policy learning.
arxiv情報
著者 | Martin Matak,Karl Van Wyk,Tucker Hermans |
発行日 | 2024-11-21 18:29:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google