NOD-TAMP: Multi-Step Manipulation Planning with Neural Object Descriptors

要約

家庭や工場での複雑な操作タスクのための知能ロボットの開発は、長いホライズンタスク、接触が多い操作、多種多様な物体形状やシーンレイアウトを汎化する必要があるため、依然として困難である。タスク・アンド・モーション・プランニング(TAMP)は有望な解決策を提供するが、キノダイナミックモデルなどの前提条件により、新しいコンテキストでの適用が制限される。ニューラルオブジェクト記述子(NOD)は、オブジェクトやシーンの汎化において有望であるが、より広範なタスクに対応するには限界がある。我々の提案するTAMPに基づくフレームワークNOD-TAMPは、一握りの人間の実演から短い操作軌跡を抽出し、NOD特徴を用いてこれらの軌跡を適応させ、幅広いロングホライズンタスクを解決するために合成する。シミュレーション環境で検証した結果、NOD-TAMPは様々な課題に効果的に取り組み、既存の手法を凌駕し、操作プランニングのための一貫したフレームワークを確立しました。ビデオやその他の補足資料については、プロジェクトのウェブサイトhttps://sites.google.com/view/nod-tamp/。

要約(オリジナル)

Developing intelligent robots for complex manipulation tasks in household and factory settings remains challenging due to long-horizon tasks, contact-rich manipulation, and the need to generalize across a wide variety of object shapes and scene layouts. While Task and Motion Planning (TAMP) offers a promising solution, its assumptions such as kinodynamic models limit applicability in novel contexts. Neural object descriptors (NODs) have shown promise in object and scene generalization but face limitations in addressing broader tasks. Our proposed TAMP-based framework, NOD-TAMP, extracts short manipulation trajectories from a handful of human demonstrations, adapts these trajectories using NOD features, and composes them to solve broad long-horizon tasks. Validated in a simulation environment, NOD-TAMP effectively tackles varied challenges and outperforms existing methods, establishing a cohesive framework for manipulation planning. For videos and other supplemental material, see the project website: https://sites.google.com/view/nod-tamp/.

arxiv情報

著者 Shuo Cheng,Caelan Garrett,Ajay Mandlekar,Danfei Xu
発行日 2023-11-02 18:26:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.RO パーマリンク