MOMA-Force: Visual-Force Imitation for Real-World Mobile Manipulation

要約

この論文では、モバイルマニピュレータが複数の接触の多い操作タスクを実行するための新しい方法を紹介します。
学習ベースの方法にはエンドツーエンドの方法でアクションを生成する可能性がありますが、アクションの精度やノイズに対する堅牢性が不十分であることがよくあります。
一方、古典的な制御ベースの手法ではシステムの堅牢性を高めることができますが、その代償として大規模なパラメータ調整が必要になります。
これらの課題に対処するために、我々は、知覚のための表現学習、複雑な動作生成のための模倣学習、システムの堅牢性と制御性のためのアドミタンス全身制御をシームレスに組み合わせる視覚力模倣手法である MOMA-Force を紹介します。
MOMA-Force を使用すると、モバイル マニピュレータは、高い成功率と小さな接触力で、接触が多い複雑なタスクを複数学習できます。
実際の家庭環境では、タスクの成功率の点で、私たちの方法はベースライン方法よりも優れています。
さらに、私たちの方法は、力の模倣を行わないベースライン方法と比較して、より小さな接触力とより小さな力の分散を実現します。
全体として、私たちは現実世界における効率的かつ堅牢なモバイル操作のための有望なアプローチを提供します。
ビデオと詳細については、\url{https://visual-force-imitation.github.io} をご覧ください。

要約(オリジナル)

In this paper, we present a novel method for mobile manipulators to perform multiple contact-rich manipulation tasks. While learning-based methods have the potential to generate actions in an end-to-end manner, they often suffer from insufficient action accuracy and robustness against noise. On the other hand, classical control-based methods can enhance system robustness, but at the cost of extensive parameter tuning. To address these challenges, we present MOMA-Force, a visual-force imitation method that seamlessly combines representation learning for perception, imitation learning for complex motion generation, and admittance whole-body control for system robustness and controllability. MOMA-Force enables a mobile manipulator to learn multiple complex contact-rich tasks with high success rates and small contact forces. In a real household setting, our method outperforms baseline methods in terms of task success rates. Moreover, our method achieves smaller contact forces and smaller force variances compared to baseline methods without force imitation. Overall, we offer a promising approach for efficient and robust mobile manipulation in the real world. Videos and more details can be found on \url{https://visual-force-imitation.github.io}

arxiv情報

著者 Taozheng Yang,Ya Jing,Hongtao Wu,Jiafeng Xu,Kuankuan Sima,Guangzeng Chen,Qie Sima,Tao Kong
発行日 2023-08-07 14:31:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク