要約
私たちは把握学習を神経場として定式化し、Neural Grasp Distance Fields (NGDF) を提示します。
ここで、入力はロボット エンド エフェクターの 6D ポーズであり、出力はオブジェクトの有効な把握の連続多様体までの距離です。
離散的な掴み候補のセットを予測する現在のアプローチとは対照的に、距離ベースの NGDF 表現はコストとして簡単に解釈され、このコストを最小限に抑えることで成功した掴みポーズが生成されます。
この把握距離コストは、軌道の滑らかさや衝突回避などの他のコストと合わせて最適化するために、軌道オプティマイザーに直接組み込むことができます。
最適化では、各種コストのバランスが取れ最小化されるため、学習された把握領域が連続的であるため、把握対象を滑らかに変化させることができます。
私たちは、シミュレーションと現実世界における関節把握と動作計画に関して NGDF を評価し、実行成功率が 63% 向上し、ベースラインを上回っています。同時に、目に見えないクエリ ポーズや目に見えないオブジェクト形状にも一般化しています。
プロジェクト ページ: https://sites.google.com/view/neural-grasp- distance-fields。
要約(オリジナル)
We formulate grasp learning as a neural field and present Neural Grasp Distance Fields (NGDF). Here, the input is a 6D pose of a robot end effector and output is a distance to a continuous manifold of valid grasps for an object. In contrast to current approaches that predict a set of discrete candidate grasps, the distance-based NGDF representation is easily interpreted as a cost, and minimizing this cost produces a successful grasp pose. This grasp distance cost can be incorporated directly into a trajectory optimizer for joint optimization with other costs such as trajectory smoothness and collision avoidance. During optimization, as the various costs are balanced and minimized, the grasp target is allowed to smoothly vary, as the learned grasp field is continuous. We evaluate NGDF on joint grasp and motion planning in simulation and the real world, outperforming baselines by 63% execution success while generalizing to unseen query poses and unseen object shapes. Project page: https://sites.google.com/view/neural-grasp-distance-fields.
arxiv情報
著者 | Thomas Weng,David Held,Franziska Meier,Mustafa Mukadam |
発行日 | 2023-12-28 12:24:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google