要約
未知の環境の探索は自律ロボットにとって非常に重要です。
これにより、地図作成、物体の発見、環境評価などのタスクのためにどのような新しいデータを取得するかを積極的に推論して決定できるようになります。
フロンティアベースの方法などの既存の方法は、3D マップ操作に大きく依存していますが、マップの品質によって制限され、視覚的な手がかりからの貴重なコンテキストが見落とされることがよくあります。
この取り組みは、2D 視覚的手がかりを活用して効率的な自律探索を行い、3D マップからゴールポーズを抽出する際の制限に対処することを目的としています。
我々は、この研究で開発されたコアコンポーネントとしてFrontierNetを使用した、画像のみのフロンティアベースの探索システムを提案します。
FrontierNet は、(i) フロンティアを検出し、(ii) 単眼深度事前分布によって強化されたポーズの RGB 画像からその情報利得を予測する学習ベースのモデルです。
当社のアプローチは、既存の 3D 依存探査システムの代替手段を提供し、広範なシミュレーションと実世界での実験を通じて検証されたように、初期段階の探査効率で 16% の向上を達成します。
要約(オリジナル)
Exploration of unknown environments is crucial for autonomous robots; it allows them to actively reason and decide on what new data to acquire for tasks such as mapping, object discovery, and environmental assessment. Existing methods, such as frontier-based methods, rely heavily on 3D map operations, which are limited by map quality and often overlook valuable context from visual cues. This work aims at leveraging 2D visual cues for efficient autonomous exploration, addressing the limitations of extracting goal poses from a 3D map. We propose a image-only frontier-based exploration system, with FrontierNet as a core component developed in this work. FrontierNet is a learning-based model that (i) detects frontiers, and (ii) predicts their information gain, from posed RGB images enhanced by monocular depth priors. Our approach provides an alternative to existing 3D-dependent exploration systems, achieving a 16% improvement in early-stage exploration efficiency, as validated through extensive simulations and real-world experiments.
arxiv情報
著者 | Boyang Sun,Hanzhi Chen,Stefan Leutenegger,Cesar Cadena,Marc Pollefeys,Hermann Blum |
発行日 | 2025-01-08 16:25:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google