Egocentric Visual Self-Modeling for Legged Robot Locomotion

要約

慣性計測ユニット (IMU) はロボット研究において広く普及しています。
ロボットのバランスやナビゲーションを実現するための姿勢情報を提供します。
ただし、人間や動物は、正確な方向や位置の値がなくても、環境内での体の動きを認識できます。
この相互作用には本質的に、知覚と行動の間の高速フィードバック ループが含まれます。
この研究では、高次元の視覚観察とアクション コマンドを使用して、脚の移動のための視覚的自己モデルをトレーニングするエンドツーエンドのアプローチを提案しました。
視覚的なセルフモデルは、ロボットの体の動きと地面のテクスチャの変化の間の空間的関係を画像シーケンスから学習します。
私たちは、ロボットが視覚的な自己モデルを活用して、ロボットがトレーニング中に目にすることのない現実世界の環境でさまざまな移動タスクを実行できることを実証します。
提案手法を用いると、ロボットはIMUなしで、あるいはGPSや弱い地磁気のない環境(屋内や都市部の谷間など)でも移動が可能となる。

要約(オリジナル)

Inertial Measurement Unit (IMU) is ubiquitous in robotic research. It provides posture information for robots to realize balance and navigation. However, humans and animals can perceive the movement of their bodies in the environment without precise orientation or position values. This interaction inherently involves a fast feedback loop between perception and action. This work proposed an end-to-end approach that uses high dimension visual observation and action commands to train a visual self-model for legged locomotion. The visual self-model learns the spatial relationship between the robot body movement and the ground texture changes from image sequences. We demonstrate that the robot can leverage the visual self-model to achieve various locomotion tasks in the real-world environment that the robot does not see during training. With our proposed method, robots can do locomotion without IMU or in an environment with no GPS or weak geomagnetic fields like the indoor and urban canyons in the city.

arxiv情報

著者 Yuhang Hu,Boyuan Chen,Hod Lipson
発行日 2023-06-28 18:05:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク