M-EMBER: Tackling Long-Horizon Mobile Manipulation via Factorized Domain Transfer

要約

この論文では、長期的な活動のための視覚運動モバイル操作ソリューションを作成する方法を提案します。
私たちは、シミュレーションにおける最近の進歩を活用して、モバイル操作のための視覚的なソリューションをトレーニングすることを提案します。
これまでの研究では、この手順を自律視覚ナビゲーションと静止操作に適用して成功を収めていることが示されていますが、長距離の視覚運動モバイル操作にこの手順を適用することは、複数のスキルの知覚的および構成的一般化の両方を必要とする未解決の課題です。
この研究では、長期的なモバイル操作活動を原始的な視覚スキルのレパートリーに分解し、各スキルを強化学習し、これらのスキルを長期的な視野に組み立てる因数分解手法である Mobile-EMBER (M-EMBER) を開発します。
モバイル操作活動。
モバイル操作ロボットでは、M-EMBER が長期にわたるモバイル操作アクティビティ「cleaning_kitchen」を完了し、53% の成功率を達成していることがわかりました。
これには、5 つの要素に分けて学習した視覚スキルを適切に計画し、実行する必要があります。

要約(オリジナル)

In this paper, we propose a method to create visuomotor mobile manipulation solutions for long-horizon activities. We propose to leverage the recent advances in simulation to train visual solutions for mobile manipulation. While previous works have shown success applying this procedure to autonomous visual navigation and stationary manipulation, applying it to long-horizon visuomotor mobile manipulation is still an open challenge that demands both perceptual and compositional generalization of multiple skills. In this work, we develop Mobile-EMBER, or M-EMBER, a factorized method that decomposes a long-horizon mobile manipulation activity into a repertoire of primitive visual skills, reinforcement-learns each skill, and composes these skills to a long-horizon mobile manipulation activity. On a mobile manipulation robot, we find that M-EMBER completes a long-horizon mobile manipulation activity, cleaning_kitchen, achieving a 53% success rate. This requires successfully planning and executing five factorized, learned visual skills.

arxiv情報

著者 Bohan Wu,Roberto Martin-Martin,Li Fei-Fei
発行日 2023-05-23 00:53:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク