DGMem: Learning Visual Navigation Policy without Any Labels by Dynamic Graph Memory

要約

近年、学習ベースのアプローチは、複雑なナビゲーションタスクに対処する上で大きな有望性を示しています。
ディープ ニューラル ネットワーク ナビゲーション ポリシーをトレーニングする従来の方法は、綿密に設計された報酬関数またはナビゲーション デモンストレーションとしての広範な遠隔操作データセットに依存しています。
ただし、前者はシミュレートされた環境に限定されることが多く、後者は多大な人間の労力を必要とするため、時間のかかるプロセスになります。
私たちのビジョンは、ロボットが自律的にナビゲーションスキルを学習し、人間の介入なしに環境の変化に行動を適応させることです。
この研究では、自己教師ありナビゲーションの問題について説明し、オンボード観測だけでトレーニングを容易にするダイナミック グラフ メモリ (DGMem) を紹介します。
DGMem の助けを借りて、エージェントは周囲を積極的に探索し、外部フィードバックなしでデータ効率の高い方法で包括的なナビゲーション ポリシーを自律的に取得できます。
私たちの手法はフォトリアリスティックな 3D 屋内シーンで評価され、実証研究により DGMem の有効性が実証されています。

要約(オリジナル)

In recent years, learning-based approaches have demonstrated significant promise in addressing intricate navigation tasks. Traditional methods for training deep neural network navigation policies rely on meticulously designed reward functions or extensive teleoperation datasets as navigation demonstrations. However, the former is often confined to simulated environments, and the latter demands substantial human labor, making it a time-consuming process. Our vision is for robots to autonomously learn navigation skills and adapt their behaviors to environmental changes without any human intervention. In this work, we discuss the self-supervised navigation problem and present Dynamic Graph Memory (DGMem), which facilitates training only with on-board observations. With the help of DGMem, agents can actively explore their surroundings, autonomously acquiring a comprehensive navigation policy in a data-efficient manner without external feedback. Our method is evaluated in photorealistic 3D indoor scenes, and empirical studies demonstrate the effectiveness of DGMem.

arxiv情報

著者 Wenzhe Cai,Teng Wang,Guangran Cheng,Lele Xu,Changyin Sun
発行日 2023-11-30 11:29:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク