World Model-based Perception for Visual Legged Locomotion

要約

さまざまな地形を脚で移動するのは困難であり、固有受容と視覚の両方からロボットとその周囲を正確に認識する必要があります。
ただし、高次元の視覚入力から直接学習することは、多くの場合、データ効率が悪く複雑です。
この問題に対処するために、従来の方法では、まず特権情報へのアクセスを伴う教師のポリシーを学習し、次に視覚入力で教師の行動を模倣する生徒のポリシーを学習しようとします。
ある程度の進歩はあるものの、この模倣フレームワークは、入力間の情報ギャップにより、学生ポリシーが最適なパフォーマンスを達成することを妨げています。
さらに、動物は特別な知識がなくても、世界の理解に基づいてさまざまな地形を横断することを直感的に学習するため、学習プロセスは不自然です。
この自然な能力にヒントを得て、私たちは、環境の世界モデルを構築し、世界モデルに基づいて政策を学習する、シンプルかつ効果的な方法である世界モデルベースの認識 (WMP) を提案します。
シミュレーションで完全にトレーニングされているにもかかわらず、ワールド モデルは現実世界の軌道を正確に予測できるため、ポリシー コントローラーに有益な信号を提供できることを示します。
広範なシミュレーション実験と現実世界の実験により、WMP が通過性と堅牢性において最先端のベースラインを上回ることが実証されました。
ビデオとコードは https://wmp-loco.github.io/ から入手できます。

要約(オリジナル)

Legged locomotion over various terrains is challenging and requires precise perception of the robot and its surroundings from both proprioception and vision. However, learning directly from high-dimensional visual input is often data-inefficient and intricate. To address this issue, traditional methods attempt to learn a teacher policy with access to privileged information first and then learn a student policy to imitate the teacher’s behavior with visual input. Despite some progress, this imitation framework prevents the student policy from achieving optimal performance due to the information gap between inputs. Furthermore, the learning process is unnatural since animals intuitively learn to traverse different terrains based on their understanding of the world without privileged knowledge. Inspired by this natural ability, we propose a simple yet effective method, World Model-based Perception (WMP), which builds a world model of the environment and learns a policy based on the world model. We illustrate that though completely trained in simulation, the world model can make accurate predictions of real-world trajectories, thus providing informative signals for the policy controller. Extensive simulated and real-world experiments demonstrate that WMP outperforms state-of-the-art baselines in traversability and robustness. Videos and Code are available at: https://wmp-loco.github.io/.

arxiv情報

著者 Hang Lai,Jiahang Cao,Jiafeng Xu,Hongtao Wu,Yunfeng Lin,Tao Kong,Yong Yu,Weinan Zhang
発行日 2024-09-25 09:47:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク