Hybrid Physical Metric For 6-DoF Grasp Pose Detection

要約

マルチグリップおよびマルチオブジェクトの6-DoF把握ポーズ検出は、インテリジェントロボットの分野での課題です。
オブジェクトを把握するための人間の推論能力を模倣するために、データ駆動型の方法が広く研究されています。
大規模なデータセットの導入により、単一の物理メトリックが通常、数百万の把握ポーズを細かく区別できず、不正確な予測結果につながる、いくつかの離散レベルの把握信頼スコアを生成することがわかりました。
本論文では、この評価の不十分さを解決するためのハイブリッド物理的測定基準を提案する。
最初に、オブジェクトの平坦度、重力、および衝突の測定によって補完された、力閉鎖メトリックに基づく新しいメトリックを定義します。
次に、このハイブリッド物理メトリックを活用して、精巧な信頼スコアを生成します。
第三に、新しい信頼スコアを効果的に学習するために、Flatness Gravity Collision GraspNet(FGC-GraspNet)と呼ばれるマルチ解像度ネットワークを設計します。
FGC-GraspNetは、複数のタスクのためのマルチ解像度機能学習アーキテクチャを提案し、把持検出の平均精度を向上させる新しいジョイント損失関数を導入します。
ネットワーク評価と適切なリアルロボット実験は、ハイブリッド物理メトリックとFGC-GraspNetの有効性を示しています。
私たちの方法は、現実の雑然としたシーンで90.5 \%の成功率を達成します。
私たちのコードはhttps://github.com/luyh20/FGC-GraspNetで入手できます。

要約(オリジナル)

6-DoF grasp pose detection of multi-grasp and multi-object is a challenge task in the field of intelligent robot. To imitate human reasoning ability for grasping objects, data driven methods are widely studied. With the introduction of large-scale datasets, we discover that a single physical metric usually generates several discrete levels of grasp confidence scores, which cannot finely distinguish millions of grasp poses and leads to inaccurate prediction results. In this paper, we propose a hybrid physical metric to solve this evaluation insufficiency. First, we define a novel metric is based on the force-closure metric, supplemented by the measurement of the object flatness, gravity and collision. Second, we leverage this hybrid physical metric to generate elaborate confidence scores. Third, to learn the new confidence scores effectively, we design a multi-resolution network called Flatness Gravity Collision GraspNet (FGC-GraspNet). FGC-GraspNet proposes a multi-resolution features learning architecture for multiple tasks and introduces a new joint loss function that enhances the average precision of the grasp detection. The network evaluation and adequate real robot experiments demonstrate the effectiveness of our hybrid physical metric and FGC-GraspNet. Our method achieves 90.5\% success rate in real-world cluttered scenes. Our code is available at https://github.com/luyh20/FGC-GraspNet.

arxiv情報

著者 Yuhao Lu,Beixing Deng,Zhenyu Wang,Peiyuan Zhi,Yali Li,Shengjin Wang
発行日 2022-06-22 14:35:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO パーマリンク