要約
この論文では、動的な屋内環境で動作するインテリジェント モビリティ プラットフォーム向けに設計された、新しいリアルタイムの遅延認識協調知覚システムを紹介します。
このシステムには、モビリティ プラットフォームに知覚サービスを集合的に提供するマルチモーダル センサー ノードのネットワークとセントラル ノードが含まれています。
提案されているスキャン パターンを考慮した階層的クラスタリングと地面接触特徴ベースの LiDAR カメラ フュージョンにより、混雑した環境に対するノード内の認識が向上します。
このシステムは、ノード間でデータを同期および集約するための、遅延を考慮したグローバル認識機能も備えています。
私たちのアプローチを検証するために、2 つの屋内センサー ノードによってキャプチャされたデータからコンパイルされた屋内歩行者追跡データセットを導入しました。
私たちの実験では、ベースラインと比較して、検出精度と遅延に対する堅牢性が大幅に向上していることが実証されました。
データセットはリポジトリで入手できます: https://github.com/NingMingHao/MVSLab-IndoorCooperativePerception
要約(オリジナル)
This paper presents a novel real-time, delay-aware cooperative perception system designed for intelligent mobility platforms operating in dynamic indoor environments. The system contains a network of multi-modal sensor nodes and a central node that collectively provide perception services to mobility platforms. The proposed Hierarchical Clustering Considering the Scanning Pattern and Ground Contacting Feature based Lidar Camera Fusion improve intra-node perception for crowded environment. The system also features delay-aware global perception to synchronize and aggregate data across nodes. To validate our approach, we introduced the Indoor Pedestrian Tracking dataset, compiled from data captured by two indoor sensor nodes. Our experiments, compared to baselines, demonstrate significant improvements in detection accuracy and robustness against delays. The dataset is available in the repository: https://github.com/NingMingHao/MVSLab-IndoorCooperativePerception
arxiv情報
著者 | Minghao Ning,Yaodong Cui,Yufeng Yang,Shucheng Huang,Zhenan Liu,Ahmad Reza Alghooneh,Ehsan Hashemi,Amir Khajepour |
発行日 | 2024-11-04 21:31:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google