Generalized Animal Imitator: Agile Locomotion with Versatile Motion Prior

要約

特に走る、回転する、ジャンプする、バク転などの複雑な動作における動物の敏捷性は、ロボット システム設計の模範となります。
この一連の動作を脚式ロボット システムに移すと、重要な疑問が生じます。複数の移動動作を同時に学習するようにロボットをどのように訓練できるでしょうか?
ロボットはどのようにしてこれらのタスクをスムーズに実行できるのでしょうか?
これらのスキルを幅広いアプリケーションに統合するにはどうすればよいでしょうか?
このペーパーでは、高度なロボット アプリケーションに適した一連の機敏な移動タスクを組み込むように設計された強化学習フレームワークである Versatile Instructable Motion Prior (VIM) について紹介します。
私たちのフレームワークにより、脚式ロボットは動物の動作や手動で設計された動作を模倣することで、多様で機敏な低レベルのスキルを学習できます。
機能性報酬は、ロボットがさまざまなスキルを採用できるように導きます。また、様式化報酬は、ロボットの動作が基準動作と確実に一致するようにします。
VIM フレームワークの評価は、シミュレーション環境と現実世界の展開の両方に及びます。
私たちの知る限り、これは、現実世界で単一の学習ベースのコントローラーを使用して、ロボットが多様な機敏な移動スキルを同時に学習できるようにした最初の研究です。
詳細と支援メディアはプロジェクト サイトでご覧いただけます: https://rchalyang.github.io/VIM

要約(オリジナル)

The agility of animals, particularly in complex activities such as running, turning, jumping, and backflipping, stands as an exemplar for robotic system design. Transferring this suite of behaviors to legged robotic systems introduces essential inquiries: How can a robot be trained to learn multiple locomotion behaviors simultaneously? How can the robot execute these tasks with a smooth transition? How to integrate these skills for wide-range applications? This paper introduces the Versatile Instructable Motion prior (VIM) – a Reinforcement Learning framework designed to incorporate a range of agile locomotion tasks suitable for advanced robotic applications. Our framework enables legged robots to learn diverse agile low-level skills by imitating animal motions and manually designed motions. Our Functionality reward guides the robot’s ability to adopt varied skills, and our Stylization reward ensures that robot motions align with reference motions. Our evaluations of the VIM framework span both simulation environments and real-world deployment. To the best of our knowledge, this is the first work that allows a robot to concurrently learn diverse agile locomotion skills using a single learning-based controller in the real world. Further details and supportive media can be found at our project site: https://rchalyang.github.io/VIM

arxiv情報

著者 Ruihan Yang,Zhuoqun Chen,Jianhan Ma,Chongyi Zheng,Yiyu Chen,Quan Nguyen,Xiaolong Wang
発行日 2024-04-21 00:07:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO パーマリンク