GDTM: An Indoor Geospatial Tracking Dataset with Distributed Multimodal Sensors

要約

移動物体の位置を常に検出すること、つまり地理空間追跡は、自律的な建物インフラストラクチャにとって不可欠です。
正確で堅牢な地理空間追跡には、多くの場合、マルチモーダル センサー フュージョン アルゴリズムが活用されます。これには、さまざまなセンサー タイプからの時間調整され同期されたデータを含む大規模なデータセットが必要です。
ただし、そのようなデータセットはすぐには入手できません。
そこで、分散型マルチモーダル センサーと再構成可能なセンサー ノード配置を使用したマルチモーダル オブジェクト追跡のための 9 時間のデータセットである GDTM を提案します。
私たちのデータセットを使用すると、マルチモーダル データを処理するためのアーキテクチャの最適化や、不利なセンシング条件やセンサー配置の差異に対するモデルの堅牢性の調査など、いくつかの研究課題の探索が可能になります。
この作業のコード、サンプル データ、チェックポイントを含む GitHub リポジトリは、https://github.com/nesl/GDTM から入手できます。

要約(オリジナル)

Constantly locating moving objects, i.e., geospatial tracking, is essential for autonomous building infrastructure. Accurate and robust geospatial tracking often leverages multimodal sensor fusion algorithms, which require large datasets with time-aligned, synchronized data from various sensor types. However, such datasets are not readily available. Hence, we propose GDTM, a nine-hour dataset for multimodal object tracking with distributed multimodal sensors and reconfigurable sensor node placements. Our dataset enables the exploration of several research problems, such as optimizing architectures for processing multimodal data, and investigating models’ robustness to adverse sensing conditions and sensor placement variances. A GitHub repository containing the code, sample data, and checkpoints of this work is available at https://github.com/nesl/GDTM.

arxiv情報

著者 Ho Lyun Jeong,Ziqi Wang,Colin Samplawski,Jason Wu,Shiwei Fang,Lance M. Kaplan,Deepak Ganesan,Benjamin Marlin,Mani Srivastava
発行日 2024-02-21 21:24:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO, eess.SP パーマリンク