要約
一連の領域ベースの手法は、領域の特徴を抽出し、把握検出の品質を向上させることに成功しました。
しかし、衝突の可能性がある乱雑なシーンに直面すると、把握関連領域の定義は一貫性のないままであり、把握と領域空間との関係は不完全に調査されたままです。
この論文では、新しい領域認識の観点から正規化された領域空間 (NGS) を提案し、正規化された領域空間内で把握表現を統合し、手法の一般化可能性の恩恵を受けます。
NGS を活用することで、CNN がクラッター シーンでの 3D 特徴抽出と 6-DoF 把握検出に関して過小評価されていることを発見し、高効率の領域認識正規化把握ネットワーク (RNGNet) を構築します。
公開ベンチマークでの実験では、私たちの方法が約 50 FPS のリアルタイム推論速度を達成しながら、20% を超える大幅なパフォーマンス向上を達成することが示されています。
現実世界の乱雑なシーンのクリアランス実験は、私たちの方法の有効性を強調しています。
さらに、人間からロボットへのハンドオーバーと動的物体把握実験は、動的シナリオにおける閉ループ把握のための提案手法の可能性を実証しています。
要約(オリジナル)
A series of region-based methods succeed in extracting regional features and enhancing grasp detection quality. However, faced with a cluttered scene with potential collision, the definition of the grasp-relevant region stays inconsistent, and the relationship between grasps and regional spaces remains incompletely investigated. In this paper, we propose Normalized Grasp Space (NGS) from a novel region-aware viewpoint, unifying the grasp representation within a normalized regional space and benefiting the generalizability of methods. Leveraging the NGS, we find that CNNs are underestimated for 3D feature extraction and 6-DoF grasp detection in clutter scenes and build a highly efficient Region-aware Normalized Grasp Network (RNGNet). Experiments on the public benchmark show that our method achieves significant >20% performance gains while attaining a real-time inference speed of approximately 50 FPS. Real-world cluttered scene clearance experiments underscore the effectiveness of our method. Further, human-to-robot handover and dynamic object grasping experiments demonstrate the potential of our proposed method for closed-loop grasping in dynamic scenarios.
arxiv情報
著者 | Siang Chen,Pengwei Xie,Wei Tang,Dingchang Hu,Yixiang Dai,Guijin Wang |
発行日 | 2024-11-14 16:46:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google