要約
ロボットによる把持は、ロボットが環境と対話するための基本的な能力です。
現在の方法は、オブジェクトごとに安定した信頼性の高い把握ポーズを取得する方法に焦点を当てていますが、きめの細かい把握とロボットのアフォーダンスに関連する部分 (形状) ごとの把握についてはほとんど研究されていません。
パーツは、オブジェクトを構成する原子的要素と見なすことができ、豊富なセマンティック知識とアフォーダンスとの強い相関関係が含まれています。
ただし、大規模な部分的な 3D ロボット データセットが不足していると、部分表現の学習と下流のアプリケーションの開発が制限されます。
この論文では、3D の部分的なアフォーダンスと把握能力を学習するために、新しい大規模な言語ガイド付きの SHApe grAsPing データ (Lang-SHAPE と呼ばれる) を提案します。
新しい 2 段階のきめの細かいロボット把持ネットワーク (PIONEER という名前) を設計します。これには、新しい 3D 部分言語グラウンディング モデルと、部分認識の把持姿勢検出モデルが含まれます。
有効性を評価するために、マルチレベルの難易度部分言語グラウンディングの把握実験を行い、提案したモデルを実際のロボットに展開します。
結果は、私たちの方法が参照識別、アフォーダンス推論、および3Dパーツ認識把握において満足のいくパフォーマンスと効率を達成することを示しています。
データセットとコードは、プロジェクトのウェブサイト https://sites.google.com/view/lang-shape で入手できます。
要約(オリジナル)
Robotic grasping is a fundamental ability for a robot to interact with the environment. Current methods focus on how to obtain a stable and reliable grasping pose in object wise, while little work has been studied on part (shape)-wise grasping which is related to fine-grained grasping and robotic affordance. Parts can be seen as atomic elements to compose an object, which contains rich semantic knowledge and a strong correlation with affordance. However, lacking a large part-wise 3D robotic dataset limits the development of part representation learning and downstream application. In this paper, we propose a new large Language-guided SHape grAsPing datasEt (named Lang-SHAPE) to learn 3D part-wise affordance and grasping ability. We design a novel two-stage fine-grained robotic grasping network (named PIONEER), including a novel 3D part language grounding model, and a part-aware grasp pose detection model. To evaluate the effectiveness, we perform multi-level difficulty part language grounding grasping experiments and deploy our proposed model on a real robot. Results show our method achieves satisfactory performance and efficiency in reference identification, affordance inference, and 3D part-aware grasping. Our dataset and code are available on our project website https://sites.google.com/view/lang-shape
arxiv情報
著者 | Yaoxian Song,Penglei Sun,Yi Ren,Yu Zheng,Yue Zhang |
発行日 | 2023-01-27 07:00:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google