F$^3$Loc: Fusion and Filtering for Floorplan Localization

要約

この論文では、フロアプラン内での自己位置特定のための効率的なデータ駆動型ソリューションを提案します。
フロアプラン データはすぐに利用でき、長期にわたって保存され、外観の変化に対して本質的に堅牢です。
私たちの方法では、地図や場所ごとに再トレーニングする必要がなく、対象地域の画像の大規模なデータベースも必要ありません。
我々は、観測と新しい時間フィルタリングモジュールから構成される新しい確率モデルを提案します。
効率的な光線ベースの表現で内部的に動作する観察モジュールは、画像から水平方向の深さを予測し、その結果を融合してどちらかの方法論によってもたらされる利点を活用する単一ビュー モジュールとマルチビュー モジュールで構成されます。
私たちの方法は従来の民生用ハードウェアで動作し、しばしば直立した画像を要求する競合方法に共通する制限を克服します。
当社の完全なシステムはリアルタイム要件を満たしながら、最先端のシステムを大幅に上回ります。

要約(オリジナル)

In this paper we propose an efficient data-driven solution to self-localization within a floorplan. Floorplan data is readily available, long-term persistent and inherently robust to changes in the visual appearance. Our method does not require retraining per map and location or demand a large database of images of the area of interest. We propose a novel probabilistic model consisting of an observation and a novel temporal filtering module. Operating internally with an efficient ray-based representation, the observation module consists of a single and a multiview module to predict horizontal depth from images and fuses their results to benefit from advantages offered by either methodology. Our method operates on conventional consumer hardware and overcomes a common limitation of competing methods that often demand upright images. Our full system meets real-time requirements, while outperforming the state-of-the-art by a significant margin.

arxiv情報

著者 Changan Chen,Rui Wang,Christoph Vogel,Marc Pollefeys
発行日 2024-03-05 23:32:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク