NeU-NBV: Next Best View Planning Using Uncertainty Estimation in Image-Based Neural Rendering

要約

自律的なロボットタスクでは、アプリケーション固有の目標を達成するために環境を能動的に認識する必要があります。
この論文では、限られた測定予算を考慮して、未知のシーンを表すための最も有益な画像を収集するために RGB カメラを配置する問題に取り組みます。
我々は、収集された画像測定値に基づいて次善のカメラビューを反復的に計画するための、新しいマップレス計画フレームワークを提案します。
私たちのアプローチの重要な側面は、画像ベースのニューラル レンダリングにおける不確実性推定のための新しい技術です。これは、ビュー候補の中で最も不確実なビューでの測定取得をガイドし、データ収集中の情報価値を最大化します。
新しい測定値を画像コレクションに段階的に追加することで、私たちのアプローチはマップレスの方法で未知のシーンを効率的に探索します。
不確実性の推定は一般化可能であり、未知のシーンでのビュー計画に価値があることを示します。
合成データと現実世界のデータを使用した計画実験により、不確実性に基づいたアプローチにより、ベースラインと比較した場合に、より正確なシーン表現につながる有益な画像が見つかることが確認されました。

要約(オリジナル)

Autonomous robotic tasks require actively perceiving the environment to achieve application-specific goals. In this paper, we address the problem of positioning an RGB camera to collect the most informative images to represent an unknown scene, given a limited measurement budget. We propose a novel mapless planning framework to iteratively plan the next best camera view based on collected image measurements. A key aspect of our approach is a new technique for uncertainty estimation in image-based neural rendering, which guides measurement acquisition at the most uncertain view among view candidates, thus maximising the information value during data collection. By incrementally adding new measurements into our image collection, our approach efficiently explores an unknown scene in a mapless manner. We show that our uncertainty estimation is generalisable and valuable for view planning in unknown scenes. Our planning experiments using synthetic and real-world data verify that our uncertainty-guided approach finds informative images leading to more accurate scene representations when compared against baselines.

arxiv情報

著者 Liren Jin,Xieyuanli Chen,Julius Rückin,Marija Popović
発行日 2023-07-23 08:43:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク