要約
特定の地域に出入りする群衆を予測することを目的とした群衆の流れ予測は、スマート シティの基本的なタスクです。
群衆の流れデータの重要な特性の 1 つは、周期性です。これは、毎週のパターンなど、一定の時間間隔で発生するパターンです。
このような周期性を捉えるために、既存の研究では周期的な隠れ状態をチャネルに融合してネットワークが学習するか、追加の周期的戦略をネットワーク アーキテクチャに適用します。
この論文では、群衆の流れデータの周期性のより良いモデリングのために、新しい周期的残差学習ネットワーク (PRNet) を考案します。
既存の方法とは異なり、PRNet は、入力 (前の期間) と出力 (将来の期間) の間の変動をモデル化することにより、群衆の流れ予測を周期的な残差学習問題として組み立てます。
非常に動的な群集の流れを直接予測する場合と比較して、より定常的な偏差を学習する方がはるかに簡単であるため、モデルのトレーニングが容易になります。
さらに、学習された変動により、ネットワークは将来の状態とそれに対応する各時間間隔での毎週の観測値との間の残差を生成できるため、実質的により正確な複数ステップ先の予測に貢献します。
広範な実験により、PRNet を既存のモデルに簡単に統合して、予測性能を向上させることができることが示されています。
要約(オリジナル)
Crowd flow forecasting, which aims to predict the crowds entering or leaving certain regions, is a fundamental task in smart cities. One of the key properties of crowd flow data is periodicity: a pattern that occurs at regular time intervals, such as a weekly pattern. To capture such periodicity, existing studies either fuse the periodic hidden states into channels for networks to learn or apply extra periodic strategies to the network architecture. In this paper, we devise a novel periodic residual learning network (PRNet) for a better modeling of periodicity in crowd flow data. Unlike existing methods, PRNet frames the crowd flow forecasting as a periodic residual learning problem by modeling the variation between the inputs (the previous time period) and the outputs (the future time period). Compared to directly predicting crowd flows that are highly dynamic, learning more stationary deviation is much easier, which thus facilitates the model training. Besides, the learned variation enables the network to produce the residual between future conditions and its corresponding weekly observations at each time interval, and therefore contributes to substantially more accurate multi-step ahead predictions. Extensive experiments show that PRNet can be easily integrated into existing models to enhance their predictive performance.
arxiv情報
著者 | Chengxin Wang,Yuxuan Liang,Gary Tan |
発行日 | 2022-09-28 13:49:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google