要約
雑然とした実環境における把持ポーズ検出は、ノイズが多く不完全な感覚データと複雑な物体形状との組み合わせにより、依然として大きな課題となっている。本論文では、Grasp the Graph 2.0 (GtG 2.0)法を紹介する。GtG 2.0は、点群データから効率的な幾何学的推論を行うために、グラフニューラルネットワークのアンサンブルを活用した、軽量でありながら非常に効果的な仮説と検証を行うロボット把持フレームワークである。GtG 2.0は、グラフニューラルネットワークによる把持検出の可能性を示したGtG 1.0の成功に基づき、7次元の把持候補を効率的に生成するために従来のGrasp Pose Generatorを採用しています。把持候補は、グリッパーの顎内の点(内点)と周囲の文脈点(外点)を含むアンサンブルグラフニューラルネットワークモデルで評価されます。この改良された表現により、同じジェネレーターを使用した従来の手法よりも、把持検出性能が向上しました。GtG 2.0は、GraspNet-1Billionベンチマークにおいて、仮説とテストやグラフニューラルネットワークベースの手法と比較して、平均精度が最大35%向上しており、上位3つのフレームワークにランクインしています。3-DofデルタパラレルロボットとKinect-v1カメラを用いた実験では、成功率91%、クラッタ完了率100%を示し、その柔軟性と信頼性を実証しています。
要約(オリジナル)
Grasp pose detection in cluttered, real-world environments remains a significant challenge due to noisy and incomplete sensory data combined with complex object geometries. This paper introduces Grasp the Graph 2.0 (GtG 2.0) method, a lightweight yet highly effective hypothesis-and-test robotics grasping framework which leverages an ensemble of Graph Neural Networks for efficient geometric reasoning from point cloud data. Building on the success of GtG 1.0, which demonstrated the potential of Graph Neural Networks for grasp detection but was limited by assumptions of complete, noise-free point clouds and 4-Dof grasping, GtG 2.0 employs a conventional Grasp Pose Generator to efficiently produce 7-Dof grasp candidates. Candidates are assessed with an ensemble Graph Neural Network model which includes points within the gripper jaws (inside points) and surrounding contextual points (outside points). This improved representation boosts grasp detection performance over previous methods using the same generator. GtG 2.0 shows up to a 35% improvement in Average Precision on the GraspNet-1Billion benchmark compared to hypothesis-and-test and Graph Neural Network-based methods, ranking it among the top three frameworks. Experiments with a 3-Dof Delta Parallel robot and Kinect-v1 camera show a success rate of 91% and a clutter completion rate of 100%, demonstrating its flexibility and reliability.
arxiv情報
著者 | Ali Rashidi Moghadam,Sayedmohammadreza Rastegari,Mehdi Tale Masouleh,Ahmad Kalhor |
発行日 | 2025-05-05 14:14:32+00:00 |
arxivサイト | arxiv_id(pdf) |