One-Shot Imitation Learning: A Pose Estimation Perspective

要約

この論文では、(1) 1 回のデモン​​ストレーションのみ、(2) それ以上のデータ収集なし、(3) 事前のタスクやオブジェクトの知識なしという困難な設定の下で模倣学習を研究します。
これらの制約を使用して、模倣学習を軌道伝達と目に見えない物体の姿勢推定の組み合わせとしてどのように定式化できるかを示します。
このアイデアを探求するために、最先端の目に見えない物体姿勢推定器が現実世界の 10 のタスクでワンショットの模倣学習をどのように実行するかに関する詳細な研究を提供し、カメラの効果を深く掘り下げます。
キャリブレーション、姿勢推定誤差、空間汎化はタスクの成功率に影響します。
ビデオについては、https://www.robot-learning.uk/pose-estimation-perspective をご覧ください。

要約(オリジナル)

In this paper, we study imitation learning under the challenging setting of: (1) only a single demonstration, (2) no further data collection, and (3) no prior task or object knowledge. We show how, with these constraints, imitation learning can be formulated as a combination of trajectory transfer and unseen object pose estimation. To explore this idea, we provide an in-depth study on how state-of-the-art unseen object pose estimators perform for one-shot imitation learning on ten real-world tasks, and we take a deep dive into the effects that camera calibration, pose estimation error, and spatial generalisation have on task success rates. For videos, please visit https://www.robot-learning.uk/pose-estimation-perspective.

arxiv情報

著者 Pietro Vitiello,Kamil Dreczkowski,Edward Johns
発行日 2023-10-18 16:13:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO パーマリンク