MimicPlay: Long-Horizon Imitation Learning by Watching Human Play

要約

人間のデモンストレーションから学習することは、実世界でロボットに操作スキルを教える有望なパラダイムですが、複雑で長期的なタスクを学習するには、達成できない量のデモンストレーションが必要になることがよくあります。
高いデータ要件を軽減するために、私たちは人間のプレイ データ (手を使って環境と自由にやり取りする人々のビデオ シーケンス) に頼っています。
形態が異なっていても、人間の遊びのデータには、ロボットのポリシー学習を容易に促進できる身体的相互作用に関する豊富で顕著な情報が含まれていると仮定しています。
これに動機付けられて、MimicPlay という名前の階層型学習フレームワークを紹介します。これは、人間のプレイ データから潜在的な計画を学習し、少数の遠隔操作デモンストレーションで訓練された低レベルの視覚運動制御を導きます。
実世界での 14 の長期操作タスクの体系的な評価により、MimicPlay がタスクの成功率、一般化能力、および外乱に対するロバスト性において、最先端の模倣学習方法よりも劇的に優れていることを示します。
詳細とビデオの結果は、https://mimic-play.github.io にあります。

要約(オリジナル)

Imitation Learning from human demonstrations is a promising paradigm to teach robots manipulation skills in the real world, but learning complex long-horizon tasks often requires an unattainable amount of demonstrations. To reduce the high data requirement, we resort to human play data – video sequences of people freely interacting with the environment using their hands. We hypothesize that even with different morphologies, human play data contain rich and salient information about physical interactions that can readily facilitate robot policy learning. Motivated by this, we introduce a hierarchical learning framework named MimicPlay that learns latent plans from human play data to guide low-level visuomotor control trained on a small number of teleoperated demonstrations. With systematic evaluations of 14 long-horizon manipulation tasks in the real world, we show that MimicPlay dramatically outperforms state-of-the-art imitation learning methods in task success rate, generalization ability, and robustness to disturbances. More details and video results could be found at https://mimic-play.github.io

arxiv情報

著者 Chen Wang,Linxi Fan,Jiankai Sun,Ruohan Zhang,Li Fei-Fei,Danfei Xu,Yuke Zhu,Anima Anandkumar
発行日 2023-02-24 02:54:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク