要約
トラフィック予測は輸送研究の基本的なタスクですが、現在の研究の範囲は主にループ検出器の単一のデータモダリティに焦点を当てています。
最近、人工知能とドローン技術の進歩により、都市交通の効率的で正確で柔軟な空中観測のための新しいソリューションが可能になりました。
有望なトラフィック監視アプローチとして、ドローンキャプチャされたデータは、既存のインフラストラクチャと組み合わせると、大規模な都市ネットワークの正確なマルチセンサーモビリティ天文台を作成できます。
したがって、このペーパーでは、ドローンとループ検出器のデータを使用して、マルチソースのトラフィック速度予測の問題を同時に調査します。
複数のデータモダリティを統合し、時空間相関を学習するために、シンプルで効果的なグラフベースのモデルHIMSNETが提案されています。
詳細な分析によると、特に重い混雑とさまざまなトラフィックダイナミクスを備えた高デマンドシナリオの下で、正確なセグメントレベルの速度を予測することは、地域の速度よりも困難です。
ドローンとループの両方の検出器データの両方を利用すると、センサーのカバレッジが低く、ノイズの影響を受ける場合、シングルモダリティケースと比較して予測精度を改善できます。
実際の都市道路網の車両軌道に基づく私たちのシミュレーション研究は、トラフィックの予測と監視にドローンを統合することの付加価値を強調しています。
要約(オリジナル)
Traffic forecasting is a fundamental task in transportation research, however the scope of current research has mainly focused on a single data modality of loop detectors. Recently, the advances in Artificial Intelligence and drone technologies have made possible novel solutions for efficient, accurate and flexible aerial observations of urban traffic. As a promising traffic monitoring approach, drone-captured data can create an accurate multi-sensor mobility observatory for large-scale urban networks, when combined with existing infrastructure. Therefore, this paper investigates the problem of multi-source traffic speed prediction, simultaneously using drone and loop detector data. A simple yet effective graph-based model HiMSNet is proposed to integrate multiple data modalities and learn spatio-temporal correlations. Detailed analysis shows that predicting accurate segment-level speed is more challenging than the regional speed, especially under high-demand scenarios with heavier congestions and varying traffic dynamics. Utilizing both drone and loop detector data, the prediction accuracy can be improved compared to single-modality cases, when the sensors have lower coverages and are subject to noise. Our simulation study based on vehicle trajectories in a real urban road network has highlighted the added value of integrating drones in traffic forecasting and monitoring.
arxiv情報
著者 | Weijiang Xiong,Robert Fonod,Alexandre Alahi,Nikolas Geroliminis |
発行日 | 2025-04-28 15:28:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google