F$^3$Loc: Fusion and Filtering for Floorplan Localization

要約

この論文では、フロアプラン内の自己局在化に対する効率的なデータ駆動型ソリューションを提案します。
フロアプランデータは容易に入手でき、長期的に持続性があり、視覚的な外観の変化に対して本質的に堅牢です。
私たちの方法では、マップと場所ごとに再訓練する必要はありませんし、関心のある領域の画像の大きなデータベースを要求しません。
観察と新しい時間ろ過モジュールで構成される新しい確率モデルを提案します。
効率的な光線ベースの表現を使用して内部で動作する観測モジュールは、単一とマルチビューモジュールで構成され、画像から水平の深さを予測し、結果を融合させて、いずれかの方法論によって提供される利点から利益を得ます。
私たちの方法は、従来の消費者ハードウェアで動作し、しばしば直立した画像を要求する競合する方法の一般的な制限を克服します。
当社の完全なシステムは、リアルタイムの要件を満たしており、最先端を大幅に上回っています。

要約(オリジナル)

In this paper we propose an efficient data-driven solution to self-localization within a floorplan. Floorplan data is readily available, long-term persistent and inherently robust to changes in the visual appearance. Our method does not require retraining per map and location or demand a large database of images of the area of interest. We propose a novel probabilistic model consisting of an observation and a novel temporal filtering module. Operating internally with an efficient ray-based representation, the observation module consists of a single and a multiview module to predict horizontal depth from images and fuses their results to benefit from advantages offered by either methodology. Our method operates on conventional consumer hardware and overcomes a common limitation of competing methods that often demand upright images. Our full system meets real-time requirements, while outperforming the state-of-the-art by a significant margin.

arxiv情報

著者 Changan Chen,Rui Wang,Christoph Vogel,Marc Pollefeys
発行日 2025-05-14 14:34:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク