GP-net: Flexible Viewpoint Grasp Proposal

要約

Grasp Proposal Network (GP-net) は、柔軟な視点から 6-DOF の把握を生成できる畳み込みニューラル ネットワーク モデルです。
モバイルマニピュレーターが経験するように。
GP-net をトレーニングするために、深度画像とグラウンド トゥルース把握情報を含むデータセットを合成的に生成します。
実際の実験では、EGAD を使用します。
PAL TIAGo モバイル マニピュレーターで、一般的に使用される 2 つのアルゴリズム、Volumetric Grasping Network (VGN) と Grasp Pose Detection パッケージ (GPD) に対して GP-net を評価するベンチマークを把握します。
ロボットによる把持の最先端の方法とは対照的に、GP-net は、ワークスペースを定義する必要なく、柔軟で未知の視点からオブジェクトを把持するために使用でき、51.8% の把持成功率を達成します。
VGN と GPD の 33.6%。
https://aucoroboticsmu.github.io/GP-net/ で、コードと事前トレーニング済みのモデルと共に ROS パッケージを提供しています。

要約(オリジナル)

We present the Grasp Proposal Network (GP-net), a Convolutional Neural Network model which can generate 6-DOF grasps from flexible viewpoints, e.g. as experienced by mobile manipulators. To train GP-net, we synthetically generate a dataset containing depth-images and ground-truth grasp information. In real-world experiments we use the EGAD! grasping benchmark to evaluate GP-net against two commonly used algorithms, the Volumetric Grasping Network (VGN) and the Grasp Pose Detection package (GPD), on a PAL TIAGo mobile manipulator. In contrast to the state-of-the-art methods in robotic grasping, GP-net can be used for grasping objects from flexible, unknown viewpoints without the need to define the workspace and achieves a grasp success of 51.8% compared to 51.1% for VGN and 33.6% for GPD. We provide a ROS package along with our code and pre-trained models at https://aucoroboticsmu.github.io/GP-net/.

arxiv情報

著者 Anna Konrad,John McDonald,Rudi Villing
発行日 2023-03-23 14:14:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク