要約
局所的な幾何学的情報は、把握ポーズを決定するために重要です。
一連の領域ベースの手法は、領域の特徴を抽出し、把握検出の品質を向上させることに成功しました。
しかし、複数の物体と衝突の可能性がある乱雑なシーンに直面すると、把握関連領域の定義は方法間で一貫性がなく、把握と領域空間の関係は不完全に調査されたままです。
本稿では、新しい領域認識および把握中心の観点から、正規化された領域空間内で把握表現を統合する正規化把握空間 (NGS) を提案します。
把握幅、領域スケール、グリッパー サイズの関係が考慮され、異なるスケールのグリッパーやシーンにこの方法を一般化できるようになります。
NGS の特性を活用することで、2D CNN がクラッター シーンにおける複雑な 6-DoF 把握検出タスクに対して驚くほど過小評価されていることを発見し、高効率の領域認識正規化把握ネットワーク (RNGNet) を構築します。
公開ベンチマークで行われた実験では、私たちの方法が、約 50 FPS のリアルタイム推論速度を達成しながら、以前の最先端技術と比較して最良の把握検出結果を達成できることが示されています。
現実世界の乱雑なシーンのクリアランス実験では、他の方法よりも高い成功率で私たちの方法の有効性が強調されています。
さらに、人間からロボットへのハンドオーバーと移動物体把握実験により、動的シナリオにおける閉ループ把握のための提案手法の可能性が実証されています。
要約(オリジナル)
Regional geometric information is crucial for determining grasp poses. A series of region-based methods succeed in extracting regional features and enhancing grasp detection quality. However, faced with a cluttered scene with multiple objects and potential collision, the definition of the grasp-relevant region remains inconsistent among methods, and the relationship between grasps and regional spaces remains incompletely investigated. In this paper, from a novel region-aware and grasp-centric viewpoint, we propose Normalized Grasp Space (NGS), unifying the grasp representation within a normalized regional space. The relationship among the grasp widths, region scales, and gripper sizes is considered and empowers our method to generalize to grippers and scenes with different scales. Leveraging the characteristics of the NGS, we find that 2D CNNs are surprisingly underestimated for complicated 6-DoF grasp detection tasks in clutter scenes and build a highly efficient Region-aware Normalized Grasp Network (RNGNet). Experiments conducted on the public benchmark show that our method achieves the best grasp detection results compared to the previous state-of-the-arts while attaining a real-time inference speed of approximately 50 FPS. Real-world cluttered scene clearance experiments underscore the effectiveness of our method with a higher success rate than other methods. Further human-to-robot handover and moving object grasping experiments demonstrate the potential of our proposed method for closed-loop grasping in dynamic scenarios.
arxiv情報
著者 | Siang Chen,Pengwei Xie,Wei Tang,Dingchang Hu,Guijin Wang |
発行日 | 2024-06-03 20:16:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google