要約
本稿では、多指ロボットハンドと操作対象物との間の接触を使用して把持するための新しい表現を提案します。
この表現により、予測次元が大幅に削減され、学習プロセスが加速されます。
単発の点群から複数の指の把持姿勢と手の構成を効率的に予測することにより、散らかった環境で未知の物体を把持するための効果的なエンドツーエンド ネットワーク CMG-Net を提示します。
さらに、5,000 の乱雑なシーン、80 のオブジェクト カテゴリ、および 2,000 万の注釈で構成される合成把握データセットを作成します。
包括的な実証研究を行い、把握表現と CMG-Net の有効性を実証します。
私たちの仕事は、最先端の 3 本指ロボットハンドよりもはるかに優れています。
また、合成データを使用してトレーニングされたモデルが実際のロボットで非常にうまく機能することも示しています。
要約(オリジナル)
In this paper, we propose a novel representation for grasping using contacts between multi-finger robotic hands and objects to be manipulated. This representation significantly reduces the prediction dimensions and accelerates the learning process. We present an effective end-to-end network, CMG-Net, for grasping unknown objects in a cluttered environment by efficiently predicting multi-finger grasp poses and hand configurations from a single-shot point cloud. Moreover, we create a synthetic grasp dataset that consists of five thousand cluttered scenes, 80 object categories, and 20 million annotations. We perform a comprehensive empirical study and demonstrate the effectiveness of our grasping representation and CMG-Net. Our work significantly outperforms the state-of-the-art for three-finger robotic hands. We also demonstrate that the model trained using synthetic data performs very well for real robots.
arxiv情報
著者 | Mingze Wei,Yaomin Huang,Zhiyuan Xu,Ning Liu,Zhengping Che,Xinyu Zhang,Chaomin Shen,Feifei Feng,Chun Shan,Jian Tang |
発行日 | 2023-03-23 11:29:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google