ViNL: Visual Navigation and Locomotion Over Obstacles

要約

人間やペットが足を持ち上げるのと同様に、四足歩行ロボットがその経路にある小さな障害物 (靴、おもちゃ、ケーブルなど) を乗り越えながら、目に見えないアパートをナビゲートできるようにする障害物上の視覚的ナビゲーションとロコモーション (ViNL) を紹介します。
彼らが歩くようにオブジェクトの上。
ViNL は次の要素で構成されます。(1) なじみのない屋内環境でロボットを目標座標に誘導する直線および角速度コマンドを出力するビジュアル ナビゲーション ポリシー。
(2) 提供された速度コマンドに従いながら、障害物を踏まないようにロボットの関節を制御する視覚的移動ポリシー。
どちらのポリシーも完全に「モデルフリー」です。つまり、エンドツーエンドでトレーニングされたセンサーからアクションへのニューラル ネットワークです。
この 2 つは、2 つのまったく異なるシミュレーターで個別にトレーニングされ、ナビゲーターからロコモーターに速度コマンドを供給することによってシームレスに共同展開されます。完全に「ゼロ ショット」です (共同トレーニングなし)。
以前の研究では、視覚的ナビゲーションまたは視覚的移動の学習方法が開発されましたが、私たちの知る限りでは、これはビジョンを活用して (1) 新しい環境でのインテリジェントなナビゲーションと (2) インテリジェントな視覚的移動の両方を達成する最初の完全に学習されたアプローチです。
障害物を妨害することなく、雑然とした環境を横断することを目的としています。
未知の環境での遠くの目標へのナビゲーションのタスクでは、自己中心的なビジョンのみを使用した ViNL は、特権地形マップを使用した堅牢な移動に関する以前の研究よりも大幅に優れています (成功率 +32.8%、1 メートルあたりの衝突回数 -4.42)。
さらに、移動ポリシーを削除して、アプローチの各側面が障害物の衝突を減らすのに役立つことを示します。
http://www.joannetruong.com/projects/vinl.html のビデオとコード

要約(オリジナル)

We present Visual Navigation and Locomotion over obstacles (ViNL), which enables a quadrupedal robot to navigate unseen apartments while stepping over small obstacles that lie in its path (e.g., shoes, toys, cables), similar to how humans and pets lift their feet over objects as they walk. ViNL consists of: (1) a visual navigation policy that outputs linear and angular velocity commands that guides the robot to a goal coordinate in unfamiliar indoor environments; and (2) a visual locomotion policy that controls the robot’s joints to avoid stepping on obstacles while following provided velocity commands. Both the policies are entirely ‘model-free’, i.e. sensors-to-actions neural networks trained end-to-end. The two are trained independently in two entirely different simulators and then seamlessly co-deployed by feeding the velocity commands from the navigator to the locomotor, entirely ‘zero-shot’ (without any co-training). While prior works have developed learning methods for visual navigation or visual locomotion, to the best of our knowledge, this is the first fully learned approach that leverages vision to accomplish both (1) intelligent navigation in new environments, and (2) intelligent visual locomotion that aims to traverse cluttered environments without disrupting obstacles. On the task of navigation to distant goals in unknown environments, ViNL using just egocentric vision significantly outperforms prior work on robust locomotion using privileged terrain maps (+32.8% success and -4.42 collisions per meter). Additionally, we ablate our locomotion policy to show that each aspect of our approach helps reduce obstacle collisions. Videos and code at http://www.joannetruong.com/projects/vinl.html

arxiv情報

著者 Simar Kareer,Naoki Yokoyama,Dhruv Batra,Sehoon Ha,Joanne Truong
発行日 2022-10-26 15:38:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO パーマリンク