Generalized Animal Imitator: Agile Locomotion with Versatile Motion Prior

要約

動物の敏捷性、特に走る、ターンする、ジャンプする、バック転するなどの複雑な動作は、ロボットシステム設計の模範となる。このような一連の行動を脚式ロボットシステムに応用することは、本質的な問題を提起する:ロボットに複数の運動動作を同時に学習させるにはどうすればよいか?どうすればロボットはこれらのタスクをスムーズに実行できるのか?また、どのような戦略をとれば、これらのスキルを統合的に応用できるのか?本論文では、高度なロボットアプリケーションに適した様々な機敏な運動タスクを組み込むために設計された強化学習フレームワークであるVersatile Instructable Motion Prior(VIM)を紹介する。本フレームワークは、機能性報酬とスタイライズ報酬を用いて、動物の動作や手動で設計された動作を模倣することにより、脚式ロボットが多様な機敏な低レベルスキルを学習することを可能にする。機能性報酬はロボットが多様なスキルを採用する能力を導く一方で、スタイライゼーション報酬は参照モーションとのパフォーマンスの整合性を保証する。我々のVIMフレームワークの評価は、シミュレーション環境と実世界展開の両方に及んでいる。我々の理解では、これはロボットが単一のコントローラを用いて多様な機敏なロコモーション課題を同時に学習することを可能にした最初の研究である。さらなる詳細と支援メディアは、プロジェクトサイトhttps://rchalyang.github.io/VIM。

要約(オリジナル)

The agility of animals, particularly in complex activities such as running, turning, jumping, and backflipping, stands as an exemplar for robotic system design. Transferring this suite of behaviors to legged robotic systems introduces essential inquiries: How can a robot be trained to learn multiple locomotion behaviors simultaneously? How can the robot execute these tasks with a smooth transition? And what strategies allow for the integrated application of these skills? This paper introduces the Versatile Instructable Motion prior (VIM) – a Reinforcement Learning framework designed to incorporate a range of agile locomotion tasks suitable for advanced robotic applications. Our framework enables legged robots to learn diverse agile low-level skills by imitating animal motions and manually designed motions with Functionality reward and Stylization reward. While the Functionality reward guides the robot’s ability to adopt varied skills, the Stylization reward ensures performance alignment with reference motions. Our evaluations of the VIM framework span both simulation environments and real-world deployment. To our understanding, this is the first work that allows a robot to concurrently learn diverse agile locomotion tasks using a singular controller. Further details and supportive media can be found at our project site: https://rchalyang.github.io/VIM .

arxiv情報

著者 Ruihan Yang,Zhuoqun Chen,Jianhan Ma,Chongyi Zheng,Yiyu Chen,Quan Nguyen,Xiaolong Wang
発行日 2023-10-02 17:59:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, cs.RO パーマリンク