LoFi: Vision-Aided Label Generator for Wi-Fi Localization and Tracking

要約

Wi-Fi の位置特定と追跡は、プライバシーへの配慮、広いカバレッジ、透過性、照明条件からの独立性、および低コストにより、計り知れない可能性を示しています。
現在の手法は、モデルベースのアプローチとデータ駆動型のアプローチに大別できます。データ駆動型の手法はパフォーマンスが向上し、特殊なデバイスの必要性も低くなりますが、トレーニング用のデータセットが限られていることに苦労しています。
現在のデータ収集方法の制限により、ほとんどのデータセットは粗粒度のグランド トゥルース (GT) または限られた量のラベル ポイントしか提供しないため、データ駆動型手法の開発が大きく妨げられています。
LIDAR は正確な GT を提供できますが、コストが高いため、多くのユーザーは利用できません。
これらの課題に対処するために、Wi-Fi 位置特定と追跡のための視覚支援ラベル ジェネレーターである LoFi を提案します。これは、2D 画像のみに基づいてグラウンド トゥルースの位置座標を生成できます。
また、Wi-Fi は汎用性が低いモダリティであり、関連する方法を使用する場合は、新しく収集されたデータを使用してモデルを微調整する必要があるため、簡単かつ迅速なデータ収集方法は、データ駆動型ベースの方法を実際に展開するのにも役立ちます。
私たちの方法に基づいて、ESP32-S3 と Web カメラを使用して Wi-Fi 追跡および位置特定データセットも収集します。
将来の研究を促進するために、公開と同時にコードとデータセットを一般公開します。

要約(オリジナル)

Wi-Fi localization and tracking has shown immense potential due to its privacy-friendliness, wide coverage, permeability, independence from lighting conditions, and low cost. Current methods can be broadly categorized as model-based and data-driven approaches, where data-driven methods show better performance and have less requirement for specialized devices, but struggle with limited datasets for training. Due to limitations in current data collection methods, most datasets only provide coarse-grained ground truth (GT) or limited amount of label points, which greatly hinders the development of data-driven methods. Even though lidar can provide accurate GT, their high cost makes them inaccessible to many users. To address these challenges, we propose LoFi, a vision-aided label generator for Wi-Fi localization and tracking, which can generate ground truth position coordinates solely based on 2D images. The easy and quick data collection method also helps data-driven based methods deploy in practice, since Wi-Fi is a low-generalization modality and when using relevant methods, it always requires fine-tuning the model using newly collected data. Based on our method, we also collect a Wi-Fi tracking and localization dataset using ESP32-S3 and a webcam. To facilitate future research, we will make our code and dataset publicly available upon publication.

arxiv情報

著者 Zijian Zhao,Tingwei Chen,Fanyi Meng,Zhijie Cai,Hang Li,Xiaoyang Li,Guangxu Zhu
発行日 2024-12-06 14:32:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.SP パーマリンク