要約
我々は、1 つの注釈付きオブジェクトとカテゴリカル事前分布によるシングルビュー RGB-D 観察を使用して、目に見えないオブジェクトの高密度かつ信頼性の高い把握構成を推論できるフレームワークである FuncGrasp を紹介します。
一連の把握ポーズを転送するだけの以前の作品とは異なり、FuncGrasp はオブジェクト中心の連続把握関数によってパラメータ化された無限の構成をさまざまなインスタンス間で転送することを目的としています。
伝達プロセスを容易にするために、我々は、把握構成を高密度にエンコードするために表面上に定義された効果的なニューラル表現であるニューラル サーフェス 把握フィールド (NSGF) を提案します。
さらに、球プリミティブを使用した関数間の伝達を利用して、意味的に意味のあるカテゴリ対応を確立します。これは、専門知識がなくても教師なしの方法で学習されます。
シミュレーターと現実世界の両方での広範な実験を通じて、その有効性を実証します。
驚くべきことに、私たちのフレームワークは、生成された把握の密度と信頼性の点で、いくつかの強力なベースライン手法を大幅に上回っています。
要約(オリジナル)
We present FuncGrasp, a framework that can infer dense yet reliable grasp configurations for unseen objects using one annotated object and single-view RGB-D observation via categorical priors. Unlike previous works that only transfer a set of grasp poses, FuncGrasp aims to transfer infinite configurations parameterized by an object-centric continuous grasp function across varying instances. To ease the transfer process, we propose Neural Surface Grasping Fields (NSGF), an effective neural representation defined on the surface to densely encode grasp configurations. Further, we exploit function-to-function transfer using sphere primitives to establish semantically meaningful categorical correspondences, which are learned in an unsupervised fashion without any expert knowledge. We showcase the effectiveness through extensive experiments in both simulators and the real world. Remarkably, our framework significantly outperforms several strong baseline methods in terms of density and reliability for generated grasps.
arxiv情報
著者 | Hanzhi Chen,Binbin Xu,Stefan Leutenegger |
発行日 | 2024-02-08 12:59:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google