Unsupervised Visual Odometry and Action Integration for PointGoal Navigation in Indoor Environment

要約

タイトル:屋内環境におけるポイントゴールナビゲーションのための非教師あり視覚オドメトリとアクション統合

要約:

– 屋内環境におけるポイントゴールナビゲーションは、指定されたポイントにロボットが移動するための基本的なタスクである。
– 最近の研究では、ノイズのないアクチュエーションと、GPSとコンパスセンサーによる完璧な位置情報を前提条件として、写真のような逼真的なシミュレート環境でこの課題をほぼ完全な成功率で解決した。
– しかし、実際の屋内環境では正確なGPS信号を得ることが難しいため、GPS信号がなくてもポイントゴールナビゲーションの精度を向上させるために、我々は視覚オドメトリ(VO)を使用し、非教師ありの訓練された新しいアクション統合モジュール(AIM)を提案する。
– 具体的には、非教師ありVOは、2つの隣接フレームの再投影誤差からエージェントの相対姿勢を計算し、正確なGPS信号をパスインテグレーションで置き換える。
– VOによって推定された擬似位置は、行動統合のトレーニングに使用され、エージェントが場所に関する内部認識を更新し、ナビゲーションの成功率を向上させるのに役立ちます。
– トレーニングと推論のプロセスは、RGB、深度、衝突、および自己アクションの情報のみを使用する。
– 実験によると、提案されたシステムは、人気のあるGibsonデータセットで部分的に教師ありの学習アルゴリズムよりも満足のいく結果を達成しました。

要約(オリジナル)

PointGoal navigation in indoor environment is a fundamental task for personal robots to navigate to a specified point. Recent studies solved this PointGoal navigation task with near-perfect success rate in photo-realistically simulated environments, under the assumptions with noiseless actuation and most importantly, perfect localization with GPS and compass sensors. However, accurate GPS signalis difficult to be obtained in real indoor environment. To improve the PointGoal navigation accuracy without GPS signal, we use visual odometry (VO) and propose a novel action integration module (AIM) trained in unsupervised manner. Sepecifically, unsupervised VO computes the relative pose of the agent from the re-projection error of two adjacent frames, and then replaces the accurate GPS signal with the path integration. The pseudo position estimated by VO is used to train action integration which assists agent to update their internal perception of location and helps improve the success rate of navigation. The training and inference process only use RGB, depth, collision as well as self-action information. The experiments show that the proposed system achieves satisfactory results and outperforms the partially supervised learning algorithms on the popular Gibson dataset.

arxiv情報

著者 Yijun Cao,Xianshi Zhang,Fuya Luo,Chuan Lin,Yongjie Li
発行日 2023-04-03 09:18:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク