要約
ポイントクラウドに基づく6度の自由(DOF)把握方法は、ロボットがターゲットオブジェクトを把握できるようにする上で重要な可能性を示しています。
ただし、ほとんどの既存の方法は、シングルビュー深度画像から生成されたポイントクラウド(2.5Dポイント)に基づいています。
これらのポイントクラウドには、不完全なジオメトリ情報を提供するオブジェクトの1つの表面側のみがあり、ターゲットオブジェクトの形状を判断するために把握するアルゴリズムを誤解させ、把握精度が低くなります。
人間は、ジオメトリエクスペリエンスを活用してオブジェクトの形状を推定することにより、単一のビューからオブジェクトを正確に把握できます。
人間に触発されて、私たちは、6-dofグラップネットワークをトレーニングするためのオブジェクト形状の特徴としてポイント完成結果を変換する新しい6ドフグローシングフレームワークを提案します。
ここで、ポイント完了は、人間のジオメトリエクスペリエンスと同様の2.5Dポイントからおおよその完全なポイントを生成でき、形状機能としてそれを変換することは、それを利用して把握効率を向上させる方法です。
さらに、ネットワーク生成と実際の実行のギャップにより、スコアフィルターをフレームワークに統合して、実際のロボットのより多くの実行可能な把握提案を選択します。
これにより、私たちの方法は、カメラの視点で高い把握品質を維持することができます。
広範な実験では、完全なポイント機能を使用することで、より正確な把握提案の生成が可能になり、スコアフィルターを含めることで、実際のロボットグラッシングの信頼性が大幅に向上することが示されています。
私たちの方法は、実際の実験で最先端の方法よりも高い17.8 \%の成功率を達成します。
要約(オリジナル)
The 6-Degree of Freedom (DoF) grasp method based on point clouds has shown significant potential in enabling robots to grasp target objects. However, most existing methods are based on the point clouds (2.5D points) generated from single-view depth images. These point clouds only have one surface side of the object providing incomplete geometry information, which mislead the grasping algorithm to judge the shape of the target object, resulting in low grasping accuracy. Humans can accurately grasp objects from a single view by leveraging their geometry experience to estimate object shapes. Inspired by humans, we propose a novel 6-DoF grasping framework that converts the point completion results as object shape features to train the 6-DoF grasp network. Here, point completion can generate approximate complete points from the 2.5D points similar to the human geometry experience, and converting it as shape features is the way to utilize it to improve grasp efficiency. Furthermore, due to the gap between the network generation and actual execution, we integrate a score filter into our framework to select more executable grasp proposals for the real robot. This enables our method to maintain a high grasp quality in any camera viewpoint. Extensive experiments demonstrate that utilizing complete point features enables the generation of significantly more accurate grasp proposals and the inclusion of a score filter greatly enhances the credibility of real-world robot grasping. Our method achieves a 17.8\% success rate higher than the state-of-the-art method in real-world experiments.
arxiv情報
著者 | Yaofeng Cheng,Fusheng Zha,Wei Guo,Pengfei Wang,Chao Zeng,Lining Sun,Chenguang Yang |
発行日 | 2025-04-22 23:37:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google