FrontierNet: Learning Visual Cues to Explore

要約

不明な環境の探索は、自律的なロボットにとって重要です。
マッピング、オブジェクトの発見、環境評価など、さまざまなタスクに対して取得する新しいデータを積極的に推論し、決定することができます。
フロンティアベースの探査アプローチなどの既存のソリューションは、マップの品質によって制限されている3Dマップ操作に大きく依存しています。
この作業は、効率的な自律探索のための2D視覚キューを活用し、3Dマップから目標ポーズを抽出することの制限に対処することを目的としています。
FrontierNetをコアコンポーネントとして視覚的にのみフロンティアベースの探索システムを提案します。
Frontienetは、(i)フロンティアを提案する学習ベースのモデルであり、(ii)単眼の深さの前層によって強化されたポーズのRGB画像からの情報ゲインを予測します。
当社のアプローチは、既存の3D依存の目標抽出アプローチに代わるものを提供し、広範なシミュレーションと実際の実験を通じて検証されたように、初期段階の探査効率の15%の改善を達成します。
このプロジェクトは、https://github.com/cvg/frontiernetで入手できます。

要約(オリジナル)

Exploration of unknown environments is crucial for autonomous robots; it allows them to actively reason and decide on what new data to acquire for different tasks, such as mapping, object discovery, and environmental assessment. Existing solutions, such as frontier-based exploration approaches, rely heavily on 3D map operations, which are limited by map quality and, more critically, often overlook valuable context from visual cues. This work aims at leveraging 2D visual cues for efficient autonomous exploration, addressing the limitations of extracting goal poses from a 3D map. We propose a visual-only frontier-based exploration system, with FrontierNet as its core component. FrontierNet is a learning-based model that (i) proposes frontiers, and (ii) predicts their information gain, from posed RGB images enhanced by monocular depth priors. Our approach provides an alternative to existing 3D-dependent goal-extraction approaches, achieving a 15\% improvement in early-stage exploration efficiency, as validated through extensive simulations and real-world experiments. The project is available at https://github.com/cvg/FrontierNet.

arxiv情報

著者 Boyang Sun,Hanzhi Chen,Stefan Leutenegger,Cesar Cadena,Marc Pollefeys,Hermann Blum
発行日 2025-05-07 23:28:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク