GP-net: Flexible Viewpoint Grasp Proposal

要約

我々は、柔軟な視点から 6-DoF 把握を生成できる畳み込みニューラル ネットワーク モデルである Grasp Proposal Network (GP-net) を紹介します。
モバイルマニピュレーターが経験したように。
GP-netを学習させるために、深度画像とグラウンドトゥルース把握情報を含むデータセットを合成的に生成します。
実際の実験では、EGAD 評価ベンチマークを使用して、PAL TIAGo モバイル マニピュレータ上で一般的に使用される 2 つのアルゴリズム、体積把握ネットワーク (VGN) と把握姿勢検出パッケージ (GPD) に対して GP-net を評価します。
ロボットによる把持における最先端の手法とは対照的に、GP-net はワークスペースを定義する必要がなく、柔軟で未知の視点から物体を把持するために使用でき、把持成功率は 54.4% と、ロボット把持の 51.6% を達成しています。
VGN、GPD は 44.2%。
ROS パッケージとコードおよび事前トレーニング済みモデルを https://aucoroboticsmu.github.io/GP-net/ で提供しています。

要約(オリジナル)

We present the Grasp Proposal Network (GP-net), a Convolutional Neural Network model which can generate 6-DoF grasps from flexible viewpoints, e.g. as experienced by mobile manipulators. To train GP-net, we synthetically generate a dataset containing depth-images and ground-truth grasp information. In real-world experiments, we use the EGAD evaluation benchmark to evaluate GP-net against two commonly used algorithms, the Volumetric Grasping Network (VGN) and the Grasp Pose Detection package (GPD), on a PAL TIAGo mobile manipulator. In contrast to the state-of-the-art methods in robotic grasping, GP-net can be used for grasping objects from flexible, unknown viewpoints without the need to define the workspace and achieves a grasp success of 54.4% compared to 51.6% for VGN and 44.2% for GPD. We provide a ROS package along with our code and pre-trained models at https://aucoroboticsmu.github.io/GP-net/.

arxiv情報

著者 Anna Konrad,John McDonald,Rudi Villing
発行日 2023-10-12 07:55:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク