要約
信頼性の高い物体把握は、自律ロボットにとって重要な機能です。
しかし、既存の把握アプローチの多くは、オブジェクトを明示的にモデル化せず、一般的なクラッタの除去に重点を置いているため、目に見える局所的な形状のみに依存しています。
オブジェクト認識と全体的な把握を組み合わせた新しいフレームワークである CenterGrasp を紹介します。
CenterGrasp は、連続的な潜在空間で形状と有効な把握をエンコードすることにより、一般的なオブジェクトを事前に学習します。
これは、最近の進歩を活用してオブジェクトを検出し、そのポーズと潜在コードを推測する RGB-D 画像エンコーダーと、シーン内の各オブジェクトの形状と把握を予測するデコーダーで構成されます。
私たちは、シミュレートされた現実世界の乱雑なシーンに対して広範な実験を実行し、強力なシーン再構成と 6-DoF 把握ポーズ推定パフォーマンスを実証します。
最新技術と比較して、CenterGrasp は形状の再構築において 38.5 mm の改善を達成し、把握成功率では平均 33 パーセント ポイントを達成しました。
コードとトレーニング済みモデルは http://centergrasp.cs.uni-freiburg.de で公開されています。
要約(オリジナル)
Reliable object grasping is a crucial capability for autonomous robots. However, many existing grasping approaches focus on general clutter removal without explicitly modeling objects and thus only relying on the visible local geometry. We introduce CenterGrasp, a novel framework that combines object awareness and holistic grasping. CenterGrasp learns a general object prior by encoding shapes and valid grasps in a continuous latent space. It consists of an RGB-D image encoder that leverages recent advances to detect objects and infer their pose and latent code, and a decoder to predict shape and grasps for each object in the scene. We perform extensive experiments on simulated as well as real-world cluttered scenes and demonstrate strong scene reconstruction and 6-DoF grasp-pose estimation performance. Compared to the state of the art, CenterGrasp achieves an improvement of 38.5 mm in shape reconstruction and 33 percentage points on average in grasp success. We make the code and trained models publicly available at http://centergrasp.cs.uni-freiburg.de.
arxiv情報
著者 | Eugenio Chisari,Nick Heppert,Tim Welschehold,Wolfram Burgard,Abhinav Valada |
発行日 | 2023-12-13 16:01:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google