Local Neural Descriptor Fields: Locally Conditioned Object Representations for Manipulation

要約

家庭環境で活動するロボットは、様々なユニークで見慣れない物体を目にすることになる。このような物体の多くについて学習することは可能であるが、ロボットが見るであろう全ての物体を予測することは不可能である。本論文では、限られた数のデモンストレーションから得た物体操作スキルを、未知の形状カテゴリに属する新規な物体に汎化する手法を提案する。我々のアプローチである局所神経記述子場(L-NDF)は、物体の局所形状に定義された神経記述子を利用し、テスト時に操作の実演を新しい物体に効率的に転移させる。これにより、物体間で共有される局所的な形状を活用し、より一般的な操作のフレームワークを実現します。我々は、シミュレーションと実世界の両方で、新しい物体を新しい姿勢で操作する際に、我々のアプローチが有効であることを説明する。

要約(オリジナル)

A robot operating in a household environment will see a wide range of unique and unfamiliar objects. While a system could train on many of these, it is infeasible to predict all the objects a robot will see. In this paper, we present a method to generalize object manipulation skills acquired from a limited number of demonstrations, to novel objects from unseen shape categories. Our approach, Local Neural Descriptor Fields (L-NDF), utilizes neural descriptors defined on the local geometry of the object to effectively transfer manipulation demonstrations to novel objects at test time. In doing so, we leverage the local geometry shared between objects to produce a more general manipulation framework. We illustrate the efficacy of our approach in manipulating novel objects in novel poses — both in simulation and in the real world.

arxiv情報

著者 Ethan Chun,Yilun Du,Anthony Simeonov,Tomas Lozano-Perez,Leslie Kaelbling
発行日 2023-02-07 16:37:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO パーマリンク