Neural Grasp Distance Fields for Robot Manipulation

要約

把握学習をニューラル フィールドとして定式化し、Neural Grasp Distance Fields (NGDF) を提示します。
ここで、入力はロボット エンド エフェクタの 6D ポーズであり、出力はオブジェクトの有効な把持の連続多様体までの距離です。
一連の個別の候補把持を予測する現在のアプローチとは対照的に、距離ベースの NGDF 表現はコストとして容易に解釈され、このコストを最小限に抑えることで成功した把持ポーズが生成されます。
この把握距離コストは、軌道の滑らかさや衝突回避などの他のコストと一緒に最適化するために、軌道オプティマイザーに直接組み込むことができます。
最適化の際、さまざまなコストがバランスして最小化されるため、学習された把握フィールドが連続するため、把握対象がスムーズに変化します。
シミュレーションと現実の世界での共同把握とモーション プランニングで NGDF を評価し、実行成功率が 63% でベースラインを上回り、目に見えないクエリ ポーズと目に見えないオブジェクト形状に一般化します。
プロジェクトページ: https://sites.google.com/view/neural-grasp-distance-fields.

要約(オリジナル)

We formulate grasp learning as a neural field and present Neural Grasp Distance Fields (NGDF). Here, the input is a 6D pose of a robot end effector and output is a distance to a continuous manifold of valid grasps for an object. In contrast to current approaches that predict a set of discrete candidate grasps, the distance-based NGDF representation is easily interpreted as a cost, and minimizing this cost produces a successful grasp pose. This grasp distance cost can be incorporated directly into a trajectory optimizer for joint optimization with other costs such as trajectory smoothness and collision avoidance. During optimization, as the various costs are balanced and minimized, the grasp target is allowed to smoothly vary, as the learned grasp field is continuous. We evaluate NGDF on joint grasp and motion planning in simulation and the real world, outperforming baselines by 63% execution success while generalizing to unseen query poses and unseen object shapes. Project page: https://sites.google.com/view/neural-grasp-distance-fields.

arxiv情報

著者 Thomas Weng,David Held,Franziska Meier,Mustafa Mukadam
発行日 2023-03-28 17:54:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク