Generalizing 6-DoF Grasp Detection via Domain Prior Knowledge

要約

この論文では、6-DoF 把握検出法の一般化能力に焦点を当てます。
学習ベースの把握検出方法では、トレーニング セットから学習した把握分布を使用して、目に見えないオブジェクトの把握ポーズを予測できますが、さまざまな形状や構造を持つオブジェクトに遭遇すると、パフォーマンスが大幅に低下することがよくあります。
把持検出方法の一般化能力を強化するために、ロボットによる把持に関する領域の事前知識を組み込んで、形状や構造に大きな違いがある物体へのより適切な適応を可能にします。
より具体的には、トレーニング段階で物理的制約の正則化を採用し、把握に関する物理的なルールに準拠した把握を予測する方向にモデルを導きます。
新しいオブジェクトで予測される不安定な把握ポーズについては、投影接触マップを使用して接触スコア結合の最適化を設計し、乱雑なシナリオでこれらのポーズを洗練します。
GraspNet-1billion ベンチマークで行われた広範な実験では、新しいオブジェクト セットで大幅なパフォーマンスの向上が実証されており、現実世界の把握実験では、一般化した 6-DoF 把握検出手法の有効性も実証されています。

要約(オリジナル)

We focus on the generalization ability of the 6-DoF grasp detection method in this paper. While learning-based grasp detection methods can predict grasp poses for unseen objects using the grasp distribution learned from the training set, they often exhibit a significant performance drop when encountering objects with diverse shapes and structures. To enhance the grasp detection methods’ generalization ability, we incorporate domain prior knowledge of robotic grasping, enabling better adaptation to objects with significant shape and structure differences. More specifically, we employ the physical constraint regularization during the training phase to guide the model towards predicting grasps that comply with the physical rule on grasping. For the unstable grasp poses predicted on novel objects, we design a contact-score joint optimization using the projection contact map to refine these poses in cluttered scenarios. Extensive experiments conducted on the GraspNet-1billion benchmark demonstrate a substantial performance gain on the novel object set and the real-world grasping experiments also demonstrate the effectiveness of our generalizing 6-DoF grasp detection method.

arxiv情報

著者 Haoxiang Ma,Modi Shi,Boyang Gao,Di Huang
発行日 2024-04-02 08:33:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク