要約
ユーザー指定のオブジェクトを把握することは、ロボットアシスタントにとって重要です。
ただし、現在の6-DOFグラス検出方法のほとんどはオブジェクトに依存しているため、シーンから特定のターゲットを把握することが困難です。
それを実現するために、goalgraspを提示します。これは、シンプルでありながら効果的な6-dofロボットグラスポーズ検出方法であり、ポーズアノテーションとトレーニングを把握することに依存していません。
3Dの境界ボックスとシンプルな人間の把握前の握りを組み合わせることにより、私たちの方法は、ロボットグラップポーズ検出のための新しいパラダイムを紹介します。
GoalGraspの斬新さは、ユーザー指定のオブジェクトの迅速な把握と、閉塞問題の部分的な緩和です。
実験的評価には、7つのクラスに分類された18の共通オブジェクトが含まれます。
私たちの方法は、1000シーンの密な把握ポーズを生成します。
新しい安定性メトリックを使用して、メソッドの把握ポーズを既存のアプローチと比較し、ポーズの安定性が大幅に高いことを示しています。
ユーザー指定のロボット把握テストでは、この方法は94%の成功率を達成し、92%が部分閉塞中に達成されます。
要約(オリジナル)
Grasping user-specified objects is crucial for robotic assistants; however, most current 6-DoF grasp detection methods are object-agnostic, making it challenging to grasp specific targets from a scene. To achieve that, we present GoalGrasp, a simple yet effective 6-DoF robot grasp pose detection method that does not rely on grasp pose annotations and grasp training. By combining 3D bounding boxes and simple human grasp priors, our method introduces a novel paradigm for robot grasp pose detection. GoalGrasp’s novelty is its swift grasping of user-specified objects and partial mitigation of occlusion issues. The experimental evaluation involves 18 common objects categorized into 7 classes. Our method generates dense grasp poses for 1000 scenes. We compare our method’s grasp poses to existing approaches using a novel stability metric, demonstrating significantly higher grasp pose stability. In user-specified robot grasping tests, our method achieves a 94% success rate, and 92% under partial occlusion.
arxiv情報
著者 | Shun Gui,Kai Gui,Yan Luximon |
発行日 | 2025-04-22 02:25:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google