要約
ロボット操作には、効率的かつ堅牢な把握ポーズ検出が不可欠です。
一般的な 6 DoF 把握の場合、従来の方法はシーン内のすべての点を同等に扱い、通常は均一なサンプリングを採用して把握候補を選択します。
しかし、どこを掴むかを無視すると、現在の掴みポーズ検出方法の速度と精度が大きく損なわれることがわかりました。
この論文では、乱雑なシーンの中で把握可能な領域を区別する幾何学的手がかりに基づく品質である「把握性」を提案します。
把握性を測定するために先読み検索法を提案し,統計結果は我々の方法の合理性を正当化する。
実際に把握を迅速に検出するために、検索プロセスを近似するカスケード把握モデルと呼ばれるニューラル ネットワークを開発します。
広範な実験により、把握モデルの安定性、一般性、有効性が検証され、さまざまな方法のプラグアンドプレイ モジュールとして使用できるようになりました。
把握モデルを装備した後、以前のさまざまな方法で精度の大幅な向上が見られました。
さらに、低品質の予測を早期にフィルタリングするための把握モデルを組み込んだエンドツーエンドのネットワークである GSNet を開発しています。
大規模ベンチマークである GraspNet-1Billion での実験では、私たちの手法が従来技術を大幅に上回り (30+ AP)、高い推論速度を実現していることが示されています。
GSNet のライブラリは AnyGrasp (https://github.com/graspnet/anygrasp_sdk) に統合されています。
要約(オリジナル)
Efficient and robust grasp pose detection is vital for robotic manipulation. For general 6 DoF grasping, conventional methods treat all points in a scene equally and usually adopt uniform sampling to select grasp candidates. However, we discover that ignoring where to grasp greatly harms the speed and accuracy of current grasp pose detection methods. In this paper, we propose ‘graspness’, a quality based on geometry cues that distinguishes graspable areas in cluttered scenes. A look-ahead searching method is proposed for measuring the graspness and statistical results justify the rationality of our method. To quickly detect graspness in practice, we develop a neural network named cascaded graspness model to approximate the searching process. Extensive experiments verify the stability, generality and effectiveness of our graspness model, allowing it to be used as a plug-and-play module for different methods. A large improvement in accuracy is witnessed for various previous methods after equipping our graspness model. Moreover, we develop GSNet, an end-to-end network that incorporates our graspness model for early filtering of low-quality predictions. Experiments on a large-scale benchmark, GraspNet-1Billion, show that our method outperforms previous arts by a large margin (30+ AP) and achieves a high inference speed. The library of GSNet has been integrated into AnyGrasp, which is at https://github.com/graspnet/anygrasp_sdk.
arxiv情報
著者 | Chenxi Wang,Hao-Shu Fang,Minghao Gou,Hongjie Fang,Jin Gao,Cewu Lu |
発行日 | 2024-06-17 02:06:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google