Deep Bayesian Future Fusion for Self-Supervised, High-Resolution, Off-Road Mapping

要約

高速オフロード ナビゲーションには、ロボットが危険な障害物を回避しながらさまざまな路面上を安全に移動できるようにする長距離の高解像度マップが必要です。
ただし、計算能力とノイズ感知が限られているため、オフロード マッピングへのほとんどのアプローチは、環境の粗い (20 ~ 40 cm) マップを作成することに重点を置いています。
この論文では、まばらなセンシングデータ(前方30m、2cm)から高密度で高解像度の地図を生成できるフレームワークであるFuture Fusionを提案します。
これは、(1) ステレオおよび LiDAR 深度データのスパース パターンを明示的に考慮する、標準的な深層学習モデル内でよく知られたベイズ フィルタリングを効率的に実現すること、および (2) 生成画像の完成に共通する知覚損失を活用することによって実現されます。

提案された方法論は、従来のベースラインを上回ります。
さらに、学習された特徴と完成した緻密なマップは、下流のナビゲーション タスクの改善につながります。

要約(オリジナル)

High-speed off-road navigation requires long-range, high-resolution maps to enable robots to safely navigate over different surfaces while avoiding dangerous obstacles. However, due to limited computational power and sensing noise, most approaches to off-road mapping focus on producing coarse (20-40cm) maps of the environment. In this paper, we propose Future Fusion, a framework capable of generating dense, high-resolution maps from sparse sensing data (30m forward at 2cm). This is accomplished by – (1) the efficient realization of the well-known Bayes filtering within the standard deep learning models that explicitly accounts for the sparsity pattern in stereo and LiDAR depth data, and (2) leveraging perceptual losses common in generative image completion. The proposed methodology outperforms the conventional baselines. Moreover, the learned features and the completed dense maps lead to improvements in the downstream navigation task.

arxiv情報

著者 Shubhra Aich,Wenshan Wang,Parv Maheshwari,Matthew Sivaprakasam,Samuel Triest,Cherie Ho,Jason M. Gregory,John G. Rogers III,Sebastian Scherer
発行日 2024-09-27 14:18:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO パーマリンク