MimicPlay: Long-Horizon Imitation Learning by Watching Human Play

要約

人間のデモンストレーションからの模倣学習は、現実世界でロボットの操作スキルを教えるための有望なパラダイムです。
ただし、長期にわたる複雑なタスクを学習するには、多くの場合、達成不可能な量のデモンストレーションが必要です。
大量のデータ要件を軽減するために、私たちは人間のプレイ データ、つまり手を使って環境と自由に対話する人々のビデオ シーケンスに頼っています。
形態が異なっていても、人間の遊びデータには、ロボットのポリシー学習を容易に促進できる物理的相互作用に関する豊富で顕著な情報が含まれているという仮説を立てています。
これを動機として、少数の遠隔操作デモンストレーションで訓練された低レベルの視覚運動制御を導くために、人間の遊びデータから潜在的な計画を学習する MimicPlay という階層型学習フレームワークを導入します。
現実世界での 14 の長期的な操作タスクの体系的な評価により、MimicPlay がタスクの成功率、汎化能力、および外乱に対する堅牢性の点で最先端の模倣学習手法を上回ることを示しました。
コードとビデオは https://mimic-play.github.io で入手できます。

要約(オリジナル)

Imitation learning from human demonstrations is a promising paradigm for teaching robots manipulation skills in the real world. However, learning complex long-horizon tasks often requires an unattainable amount of demonstrations. To reduce the high data requirement, we resort to human play data – video sequences of people freely interacting with the environment using their hands. Even with different morphologies, we hypothesize that human play data contain rich and salient information about physical interactions that can readily facilitate robot policy learning. Motivated by this, we introduce a hierarchical learning framework named MimicPlay that learns latent plans from human play data to guide low-level visuomotor control trained on a small number of teleoperated demonstrations. With systematic evaluations of 14 long-horizon manipulation tasks in the real world, we show that MimicPlay outperforms state-of-the-art imitation learning methods in task success rate, generalization ability, and robustness to disturbances. Code and videos are available at https://mimic-play.github.io

arxiv情報

著者 Chen Wang,Linxi Fan,Jiankai Sun,Ruohan Zhang,Li Fei-Fei,Danfei Xu,Yuke Zhu,Anima Anandkumar
発行日 2023-10-13 05:44:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク