Keypoint-GraspNet: Keypoint-based 6-DoF Grasp Generation from the Monocular RGB-D input

要約

点群入力からの 6-DoF 把握学習で大きな成功が達成されましたが、点集合の無秩序性による計算コストは​​依然として懸念事項です。
または、このペーパーでは、RGB-D 入力からの把握生成について説明します。
提案されたソリューション Keypoint-GraspNet は、画像空間内のグリッパー キーポイントの投影を検出し、PnP アルゴリズムを使用して SE(3) ポーズを復元します。
プリミティブ形状と把握ファミリーに基づく合成データセットを構築して、アイデアを検証します。
メトリックベースの評価により、把握提案の精度、多様性、および時間コストの点で、私たちの方法がベースラインよりも優れていることが明らかになりました。
最後に、ロボット実験は高い成功率を示し、現実世界での応用におけるアイデアの可能性を示しています。

要約(オリジナル)

Great success has been achieved in the 6-DoF grasp learning from the point cloud input, yet the computational cost due to the point set orderlessness remains a concern. Alternatively, we explore the grasp generation from the RGB-D input in this paper. The proposed solution, Keypoint-GraspNet, detects the projection of the gripper keypoints in the image space and then recover the SE(3) poses with a PnP algorithm. A synthetic dataset based on the primitive shape and the grasp family is constructed to examine our idea. Metric-based evaluation reveals that our method outperforms the baselines in terms of the grasp proposal accuracy, diversity, and the time cost. Finally, robot experiments show high success rate, demonstrating the potential of the idea in the real-world applications.

arxiv情報

著者 Yiye Chen,Yunzhi Lin,Ruinian Xu,Patricio Vela
発行日 2023-03-16 18:10:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO パーマリンク