ICGNet: A Unified Approach for Instance-Centric Grasping

要約

正確な把握は、組み立てや家庭用ロボットなどのいくつかのロボット作業の鍵となります。
雑然とした環境で掴みを成功させるには、複数のレベルでシーンを理解する必要があります。まず、ロボットは個々のオブジェクトの幾何学的特性を分析して、実現可能な掴みを見つける必要があります。
これらの把握は、ローカル オブジェクトのジオメトリに準拠している必要があります。
第 2 に、提案された把握ごとに、ロボットはシーン内の他のオブジェクトとの相互作用について推論する必要があります。
最後に、ロボットは、ターゲット オブジェクトの形状を考慮しながら、衝突のない把握軌道を計算する必要があります。
ほとんどの掴み検出アルゴリズムは、モノリシックな方法で掴みポーズを直接予測しますが、これは環境の構成可能性を捉えていません。
この論文では、オブジェクト中心の把握のためのエンドツーエンドのアーキテクチャを紹介します。
このメソッドは、単一の任意の視点方向からのポイントクラウド データを入力として使用し、シーン内で部分的に観察されたオブジェクトごとにインスタンス中心の表現を生成します。
この表現は、乱雑なテーブルトップ シーンでのオブジェクトの再構築と把握検出にもさらに使用されます。
合成データセット上の最先端の方法と比較して広範に評価することにより、提案された方法の有効性を示し、把握と再構成の優れたパフォーマンスを示します。
さらに、さまざまな数のオブジェクトを含むシーンを整理することで、現実世界への適用可能性を実証します。

要約(オリジナル)

Accurate grasping is the key to several robotic tasks including assembly and household robotics. Executing a successful grasp in a cluttered environment requires multiple levels of scene understanding: First, the robot needs to analyze the geometric properties of individual objects to find feasible grasps. These grasps need to be compliant with the local object geometry. Second, for each proposed grasp, the robot needs to reason about the interactions with other objects in the scene. Finally, the robot must compute a collision-free grasp trajectory while taking into account the geometry of the target object. Most grasp detection algorithms directly predict grasp poses in a monolithic fashion, which does not capture the composability of the environment. In this paper, we introduce an end-to-end architecture for object-centric grasping. The method uses pointcloud data from a single arbitrary viewing direction as an input and generates an instance-centric representation for each partially observed object in the scene. This representation is further used for object reconstruction and grasp detection in cluttered table-top scenes. We show the effectiveness of the proposed method by extensively evaluating it against state-of-the-art methods on synthetic datasets, indicating superior performance for grasping and reconstruction. Additionally, we demonstrate real-world applicability by decluttering scenes with varying numbers of objects.

arxiv情報

著者 René Zurbrügg,Yifan Liu,Francis Engelmann,Suryansh Kumar,Marco Hutter,Vaishakh Patil,Fisher Yu
発行日 2024-01-18 12:41:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク