Semantic-Enhanced Representation Learning for Road Networks with Temporal Dynamics

要約

この研究では、道路ネットワークの汎用表現を学習するための Toast と呼ばれる新しいフレームワークと、それに対応する高度な DyToast を紹介します。このフレームワークは、時間的ダイナミクスの統合を強化して、時間に敏感なさまざまな下流タスクのパフォーマンスを向上させるように設計されています。
具体的には、交通パターンと移動セマンティクスという、道路ネットワークに固有の 2 つの重要なセマンティクス特性をエンコードすることを提案します。
これを達成するために、対象の道路セグメントに関連する交通状況を予測することを目的とした補助目標を組み込むことにより、スキップグラム モジュールを改良します。
さらに、軌道データを活用し、Transformer に基づいて事前トレーニング戦略を設計し、道路ネットワーク上の走行セマンティクスを抽出します。
DyToast は、有益な特性を特徴とする統合三角関数を採用することでこのフレームワークをさらに強化し、道路網の時間的進化と動的な性質をより効果的に捉えることが可能になります。
これらの提案された技術を使用すると、道路セグメントベースのアプリケーションと軌道ベースのアプリケーションの両方に適用できる、道路ネットワーク内の知識の多面的な側面をエンコードした表現を取得できます。
3 つのタスクにわたる 2 つの現実世界のデータセットに対する広範な実験により、私たちが提案したフレームワークが一貫して最先端のベースラインを大幅に上回るパフォーマンスを示しています。

要約(オリジナル)

In this study, we introduce a novel framework called Toast for learning general-purpose representations of road networks, along with its advanced counterpart DyToast, designed to enhance the integration of temporal dynamics to boost the performance of various time-sensitive downstream tasks. Specifically, we propose to encode two pivotal semantic characteristics intrinsic to road networks: traffic patterns and traveling semantics. To achieve this, we refine the skip-gram module by incorporating auxiliary objectives aimed at predicting the traffic context associated with a target road segment. Moreover, we leverage trajectory data and design pre-training strategies based on Transformer to distill traveling semantics on road networks. DyToast further augments this framework by employing unified trigonometric functions characterized by their beneficial properties, enabling the capture of temporal evolution and dynamic nature of road networks more effectively. With these proposed techniques, we can obtain representations that encode multi-faceted aspects of knowledge within road networks, applicable across both road segment-based applications and trajectory-based applications. Extensive experiments on two real-world datasets across three tasks demonstrate that our proposed framework consistently outperforms the state-of-the-art baselines by a significant margin.

arxiv情報

著者 Yile Chen,Xiucheng Li,Gao Cong,Zhifeng Bao,Cheng Long
発行日 2024-03-18 05:59:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク