Trajectory-User Linking via Hierarchical Spatio-Temporal Attention Networks

要約

軌跡とユーザーのリンク (TUL) は、複雑な移動パターンの探索によってさまざまな軌跡をユーザーにリンクすることにより、人間の移動モデリングに不可欠です。
既存の研究は主にリカレント ニューラル フレームワークに依存して軌道の時間的依存性をエンコードしており、TUL 予測のための時空間的なグローバル コンテキストを捉えるには不十分です。
このギャップを埋めるために、この研究では、AttnTUL と呼ばれる新しい階層型時空間注意ニューラル ネットワークを提示し、TUL のローカルな軌道遷移パターンとグローバルな空間依存性を共同でエンコードします。
具体的には、最初のモデル コンポーネントは、ローカルおよびグローバルのコンテキストを保存し、地理的領域とユーザーの軌跡の表現パラダイムを強化するために、グラフ ニューラル アーキテクチャ上に構築されています。
さらに、階層構造のアテンション ネットワークは、時間的アテンション メカニズムとグローバルな弾性アテンション エンコーダの統合により、軌道内および軌道間の依存関係を同時にエンコードするように設計されています。
広範な実験により、さまざまな軌道データセットに関する最先端のベースラインと比較して、当社の AttnTUL メソッドの優位性が実証されています。
私たちのモデルのソース コードは https://github.com/Onedean/AttnTUL で入手できます。

要約(オリジナル)

Trajectory-User Linking (TUL) is crucial for human mobility modeling by linking diferent trajectories to users with the exploration of complex mobility patterns. Existing works mainly rely on the recurrent neural framework to encode the temporal dependencies in trajectories, have fall short in capturing spatial-temporal global context for TUL prediction. To ill this gap, this work presents a new hierarchical spatio-temporal attention neural network, called AttnTUL, to jointly encode the local trajectory transitional patterns and global spatial dependencies for TUL. Speciically, our irst model component is built over the graph neural architecture to preserve the local and global context and enhance the representation paradigm of geographical regions and user trajectories. Additionally, a hierarchically structured attention network is designed to simultaneously encode the intra-trajectory and inter-trajectory dependencies, with the integration of the temporal attention mechanism and global elastic attentional encoder. Extensive experiments demonstrate the superiority of our AttnTUL method as compared to state-of-the-art baselines on various trajectory datasets. The source code of our model is available at https://github.com/Onedean/AttnTUL.

arxiv情報

著者 Wei Chen,Chao Huang,Yanwei Yu,Yongguo Jiang,Junyu Dong
発行日 2023-12-07 12:27:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68-07, cs.AI, cs.LG, I.2.6 パーマリンク