Predicting Motion Plans for Articulating Everyday Objects

要約

ドアを開ける、引き出しを引っ張って開く、トイレのふたを持ち上げるなどのモバイル操作タスクでは、環境およびタスクの制約の下でエンドエフェクタの動きを制限する必要があります。
これは、新しい環境での部分的な情報と相まって、テスト時に従来のモーション プランニング アプローチを採用することを困難にします。
私たちの重要な洞察は、それを学習問題としてキャストし、同様の計画問題を解決した過去の経験を活用して、テスト時に新しい状況でのモバイル操作タスクの動作計画を直接予測することです。
これを可能にするために、実際のシーンに配置された多関節オブジェクトをシミュレートするシミュレータ ArtObjSim を開発しました。
次に、モーション プランの高速で柔軟な表現である SeqIK+$\theta_0$ を紹介します。
最後に、SeqIK+$\theta_0$ を使用して、テスト時に新しいオブジェクトを関節運動させるためのモーション プランを迅速に予測するモデルを学習します。
実験的評価では、純粋な検索ベースの方法や純粋な学習方法よりも、モーション プランを生成する速度と精度が向上していることが示されています。

要約(オリジナル)

Mobile manipulation tasks such as opening a door, pulling open a drawer, or lifting a toilet lid require constrained motion of the end-effector under environmental and task constraints. This, coupled with partial information in novel environments, makes it challenging to employ classical motion planning approaches at test time. Our key insight is to cast it as a learning problem to leverage past experience of solving similar planning problems to directly predict motion plans for mobile manipulation tasks in novel situations at test time. To enable this, we develop a simulator, ArtObjSim, that simulates articulated objects placed in real scenes. We then introduce SeqIK+$\theta_0$, a fast and flexible representation for motion plans. Finally, we learn models that use SeqIK+$\theta_0$ to quickly predict motion plans for articulating novel objects at test time. Experimental evaluation shows improved speed and accuracy at generating motion plans than pure search-based methods and pure learning methods.

arxiv情報

著者 Arjun Gupta,Max E. Shepherd,Saurabh Gupta
発行日 2023-03-02 18:45:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO パーマリンク