Efficient Heatmap-Guided 6-Dof Grasp Detection in Cluttered Scenes

要約

乱雑な環境で物体を高速かつ堅牢に把握することは、ロボット工学の重要な要素です。
現在のほとんどの研究では、グローバル セマンティクスから発掘されたガイダンス情報を無視して、6-Dof 把握生成のために観察された点群全体に頼っているため、高品質の把握生成とリアルタイム パフォーマンスが制限されています。
この研究では、広く使用されているヒートマップが 6-Dof 把握生成の効率において過小評価されていることを示します。
したがって、グローバルからローカルへの意味論からポイントへの方法で推論する、ガイダンスとして把握ヒートマップと組み合わせた効果的なローカル把握ジェネレーターを提案します。
具体的には、ガウス エンコーディングとグリッド ベースの戦略を適用して、ローカル ポイントを把握可能な領域に集約し、グローバルなセマンティック情報を提供するためのガイダンスとして把握ヒートマップを予測します。
さらに、新しい不均一アンカー サンプリング メカニズムが設計されており、把握精度と多様性が向上します。
画像空間での高効率エンコーディングの恩恵を受け、局所的な把握可能な領域の点に焦点を当てることで、私たちのフレームワークは高品質の把握検出をリアルタイムで実行し、最先端の結果を達成できます。
さらに、実際のロボット実験では、成功率 94%、クラッタ完了率 100% というこの手法の有効性が実証されています。
私たちのコードは https://github.com/THU-VCLab/HGGD で入手できます。

要約(オリジナル)

Fast and robust object grasping in clutter is a crucial component of robotics. Most current works resort to the whole observed point cloud for 6-Dof grasp generation, ignoring the guidance information excavated from global semantics, thus limiting high-quality grasp generation and real-time performance. In this work, we show that the widely used heatmaps are underestimated in the efficiency of 6-Dof grasp generation. Therefore, we propose an effective local grasp generator combined with grasp heatmaps as guidance, which infers in a global-to-local semantic-to-point way. Specifically, Gaussian encoding and the grid-based strategy are applied to predict grasp heatmaps as guidance to aggregate local points into graspable regions and provide global semantic information. Further, a novel non-uniform anchor sampling mechanism is designed to improve grasp accuracy and diversity. Benefiting from the high-efficiency encoding in the image space and focusing on points in local graspable regions, our framework can perform high-quality grasp detection in real-time and achieve state-of-the-art results. In addition, real robot experiments demonstrate the effectiveness of our method with a success rate of 94% and a clutter completion rate of 100%. Our code is available at https://github.com/THU-VCLab/HGGD.

arxiv情報

著者 Siang Chen,Wei Tang,Pengwei Xie,Wenming Yang,Guijin Wang
発行日 2024-03-27 13:24:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO パーマリンク