ViNL: Visual Navigation and Locomotion Over Obstacles

要約

私たちは、人間やペットが足を上げるのと同じように、四足歩行ロボットがその経路上にある小さな障害物 (靴、おもちゃ、ケーブルなど) をまたぎながら、目に見えないアパートを移動できるようにする視覚ナビゲーションと障害物越え移動 (ViNL) を紹介します。
歩きながら物の上を歩きます。
ViNL は次の要素で構成されます。(1) 不慣れな屋内環境でロボットを目標座標に誘導する線形および角速度コマンドを出力するビジュアル ナビゲーション ポリシー。
(2) 提供された速度コマンドに従いながら障害物を踏まないようにロボットの関節を制御する視覚的な移動ポリシー。
どちらのポリシーも完全に「モデルフリー」です。つまり、センサーからアクションまでのニューラル ネットワークがエンドツーエンドでトレーニングされます。
この 2 つは、2 つのまったく異なるシミュレーターで個別にトレーニングされ、その後、ナビゲーターから運動器に速度コマンドを供給することで、完全に「ゼロショット」(共同トレーニングなし) でシームレスに共同展開されます。
これまでの研究では視覚ナビゲーションまたは視覚移動の学習方法が開発されてきましたが、私たちの知る限り、これは視覚を活用して (1) 新しい環境でのインテリジェントなナビゲーションと (2) インテリジェントな視覚移動の両方を達成する、完全に学習された初めてのアプローチです。
障害物を妨げることなく、雑然とした環境を通過することを目的としています。
未知の環境で遠くの目標へのナビゲーションというタスクでは、自己中心的な視覚だけを使用した ViNL は、特権的な地形マップを使用した堅牢な移動に関する以前の研究を大幅に上回りました (成功率 +32.8%、1 メートルあたりの衝突回数 -4.42)。
さらに、移動ポリシーを削除して、アプローチの各側面が障害物との衝突の軽減に役立つことを示します。
ビデオとコードは http://www.joannetruong.com/projects/vinl.html にあります。

要約(オリジナル)

We present Visual Navigation and Locomotion over obstacles (ViNL), which enables a quadrupedal robot to navigate unseen apartments while stepping over small obstacles that lie in its path (e.g., shoes, toys, cables), similar to how humans and pets lift their feet over objects as they walk. ViNL consists of: (1) a visual navigation policy that outputs linear and angular velocity commands that guides the robot to a goal coordinate in unfamiliar indoor environments; and (2) a visual locomotion policy that controls the robot’s joints to avoid stepping on obstacles while following provided velocity commands. Both the policies are entirely ‘model-free’, i.e. sensors-to-actions neural networks trained end-to-end. The two are trained independently in two entirely different simulators and then seamlessly co-deployed by feeding the velocity commands from the navigator to the locomotor, entirely ‘zero-shot’ (without any co-training). While prior works have developed learning methods for visual navigation or visual locomotion, to the best of our knowledge, this is the first fully learned approach that leverages vision to accomplish both (1) intelligent navigation in new environments, and (2) intelligent visual locomotion that aims to traverse cluttered environments without disrupting obstacles. On the task of navigation to distant goals in unknown environments, ViNL using just egocentric vision significantly outperforms prior work on robust locomotion using privileged terrain maps (+32.8% success and -4.42 collisions per meter). Additionally, we ablate our locomotion policy to show that each aspect of our approach helps reduce obstacle collisions. Videos and code at http://www.joannetruong.com/projects/vinl.html

arxiv情報

著者 Simar Kareer,Naoki Yokoyama,Dhruv Batra,Sehoon Ha,Joanne Truong
発行日 2023-10-12 19:10:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO パーマリンク