Grasp Transfer based on Self-Aligning Implicit Representations of Local Surfaces

要約

私たちが対話したり操作したりするオブジェクトは、ハンドルなどの類似した部分を共有していることが多く、機能が共有されているため、アクションを柔軟に転送できます。
この研究は、ロボットが以前に遭遇した物体と形状の類似性を共有する新しい物体に把握体験またはデモンストレーションを転送するという問題に取り組んでいます。
この問題を解決するための既存のアプローチは、通常、特定のオブジェクト カテゴリまたはパラメトリック形状に制限されています。
ただし、私たちのアプローチでは、オブジェクト カテゴリ間で共有されるローカル サーフェスの暗黙的モデルに関連付けられた把握を転送できます。
具体的には、単一の専門家による把握デモンストレーションを使用して、オブジェクト メッシュの小さなデータセットから暗黙的なローカル サーフェス表現モデルを学習します。
推論時に、このモデルは、熟練した把握が実証された表面と最も幾何学的に類似した表面を識別することにより、把握を新しいオブジェクトに転送するために使用されます。
私たちのモデルは完全にシミュレーションでトレーニングされ、トレーニング中には表示されないシミュレートされた現実世界のオブジェクトで評価されます。
評価の結果、このアプローチを使用した目に見えないオブジェクト カテゴリへの把握の転送は、シミュレーションと現実世界の実験の両方で首尾よく実行できることが示されています。
シミュレーション結果は、提案されたアプローチがベースライン アプローチと比較して空間精度と把握精度の向上につながることも示しています。

要約(オリジナル)

Objects we interact with and manipulate often share similar parts, such as handles, that allow us to transfer our actions flexibly due to their shared functionality. This work addresses the problem of transferring a grasp experience or a demonstration to a novel object that shares shape similarities with objects the robot has previously encountered. Existing approaches for solving this problem are typically restricted to a specific object category or a parametric shape. Our approach, however, can transfer grasps associated with implicit models of local surfaces shared across object categories. Specifically, we employ a single expert grasp demonstration to learn an implicit local surface representation model from a small dataset of object meshes. At inference time, this model is used to transfer grasps to novel objects by identifying the most geometrically similar surfaces to the one on which the expert grasp is demonstrated. Our model is trained entirely in simulation and is evaluated on simulated and real-world objects that are not seen during training. Evaluations indicate that grasp transfer to unseen object categories using this approach can be successfully performed both in simulation and real-world experiments. The simulation results also show that the proposed approach leads to better spatial precision and grasp accuracy compared to a baseline approach.

arxiv情報

著者 Ahmet Tekden,Marc Peter Deisenroth,Yasemin Bekiroglu
発行日 2023-08-15 14:33:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク