要約
我々は、把握ポーズのアノテーションや把握トレーニングに依存しない、シンプルかつ効果的な 6-DOF ロボットの把握ポーズ検出方法である GoalGrasp を紹介します。
私たちのアプローチにより、部分的に遮られたシーンでユーザーが指定したオブジェクトの把握が可能になります。
3D バウンディング ボックスと単純な人間の掴み事前分布を組み合わせることで、私たちの方法はロボットの掴み姿勢検出のための新しいパラダイムを導入します。
まず、新しいシーンでの迅速な 3D 検出を実現するために、3D アノテーションを必要としない RCV という名前の 3D オブジェクト検出器を採用します。
3D バウンディング ボックスと人間の把握事前分布を利用して、私たちの方法は密な把握ポーズの検出を実現します。
実験評価には、形状に基づいて 7 つのクラスに分類された 18 個の一般的なオブジェクトが含まれます。
把握トレーニングを行わない場合、私たちの方法は 1000 シーンの高密度の把握ポーズを生成します。
新しい安定性指標を使用して、私たちの方法の把握ポーズを既存のアプローチと比較し、大幅に高い把握ポーズの安定性を実証しました。
ユーザーが指定したロボットの把持実験において、当社のアプローチは 94% の把持成功率を達成しました。
さらに、部分咬合下でのユーザー指定の把持実験では、成功率は92%に達します。
要約(オリジナル)
We present GoalGrasp, a simple yet effective 6-DOF robot grasp pose detection method that does not rely on grasp pose annotations and grasp training. Our approach enables user-specified object grasping in partially occluded scenes. By combining 3D bounding boxes and simple human grasp priors, our method introduces a novel paradigm for robot grasp pose detection. First, we employ a 3D object detector named RCV, which requires no 3D annotations, to achieve rapid 3D detection in new scenes. Leveraging the 3D bounding box and human grasp priors, our method achieves dense grasp pose detection. The experimental evaluation involves 18 common objects categorized into 7 classes based on shape. Without grasp training, our method generates dense grasp poses for 1000 scenes. We compare our method’s grasp poses to existing approaches using a novel stability metric, demonstrating significantly higher grasp pose stability. In user-specified robot grasping experiments, our approach achieves a 94% grasp success rate. Moreover, in user-specified grasping experiments under partial occlusion, the success rate reaches 92%.
arxiv情報
著者 | Shun Gui,Yan Luximon |
発行日 | 2024-05-08 03:16:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google