要約
自律型ロボット タスクでは、アプリケーション固有の目標を達成するために環境を積極的に認識する必要があります。
このホワイト ペーパーでは、測定予算が限られている場合に、RGB カメラを配置して未知のシーンを表す最も有益な画像を収集するという問題に対処します。
収集した画像測定値に基づいて次善のカメラビューを繰り返し計画するための、新しいマップレス計画フレームワークを提案します。
私たちのアプローチの重要な側面は、画像ベースのニューラル レンダリングにおける不確実性推定の新しい手法です。これは、ビュー候補の中で最も不確実なビューで測定値の取得をガイドし、データ収集中の情報価値を最大化します。
画像コレクションに新しい測定値を段階的に追加することにより、私たちのアプローチは未知のシーンをマップレスな方法で効率的に探索します。
不確実性の推定が一般化可能であり、未知のシーンでのビューの計画に役立つことを示します。
合成データと現実世界のデータを使用した計画実験により、ベースラインと比較した場合に、不確実性に基づくアプローチが有益な画像を見つけて、より正確なシーン表現につながることが検証されます。
要約(オリジナル)
Autonomous robotic tasks require actively perceiving the environment to achieve application-specific goals. In this paper, we address the problem of positioning an RGB camera to collect the most informative images to represent an unknown scene, given a limited measurement budget. We propose a novel mapless planning framework to iteratively plan the next best camera view based on collected image measurements. A key aspect of our approach is a new technique for uncertainty estimation in image-based neural rendering, which guides measurement acquisition at the most uncertain view among view candidates, thus maximising the information value during data collection. By incrementally adding new measurements into our image collection, our approach efficiently explores an unknown scene in a mapless manner. We show that our uncertainty estimation is generalisable and valuable for view planning in unknown scenes. Our planning experiments using synthetic and real-world data verify that our uncertainty-guided approach finds informative images leading to more accurate scene representations when compared against baselines.
arxiv情報
| 著者 | Liren Jin,Xieyuanli Chen,Julius Rückin,Marija Popović |
| 発行日 | 2023-03-02 14:08:09+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google