RED: Effective Trajectory Representation Learning with Comprehensive Information

要約

軌道表現学習 (TRL) は、軌道をベクトルにマッピングします。これは、軌道の類似性の計算、軌道の分類、移動時間の推定など、さまざまな下流タスクに使用できます。
ただし、既存の TRL メソッドは、ダウンストリーム タスクで使用すると精度が不十分なベクトルを生成することがよくあります。
主な理由は、軌道に含まれる包括的な情報を利用できないことです。
我々は、複数のタイプの軌道情報を効果的に活用する、REDと呼ばれる自己教師ありTRLフレームワークを提案します。
全体として、RED はバックボーン モデルとして Transformer を採用し、軌道内の構成パスをマスクしてマスクされたオートエンコーダー (MAE) をトレーニングします。
特に、RED は、マスキング中に軌道の重要な経路を保持する道路認識マスキング戦略を採用することで軌道の移動パターンを考慮し、それによって軌道の重要な情報を保存します。
RED はまた、モデル入力として軌跡を準備するときに包括的な情報をエンコードするために、時空間ユーザー結合埋め込みスキームを採用しています。
トレーニングを実施するために、RED は二重目的タスク学習を採用しています。つまり、Transformer エンコーダーが軌道内の次のセグメントを予測し、Transformer デコーダーが軌道全体を再構築します。
RED は、Transformer の注意メカニズムを変更することで、軌跡の時空間相関も考慮します。
3 つの現実世界のデータセット上の 4 つの下流タスクについて RED を 9 つの最先端の TRL 手法と比較したところ、RED は通常、最もパフォーマンスの高いベースラインの精度を 5% 以上改善できることがわかりました。

要約(オリジナル)

Trajectory representation learning (TRL) maps trajectories to vectors that can then be used for various downstream tasks, including trajectory similarity computation, trajectory classification, and travel-time estimation. However, existing TRL methods often produce vectors that, when used in downstream tasks, yield insufficiently accurate results. A key reason is that they fail to utilize the comprehensive information encompassed by trajectories. We propose a self-supervised TRL framework, called RED, which effectively exploits multiple types of trajectory information. Overall, RED adopts the Transformer as the backbone model and masks the constituting paths in trajectories to train a masked autoencoder (MAE). In particular, RED considers the moving patterns of trajectories by employing a Road-aware masking strategy} that retains key paths of trajectories during masking, thereby preserving crucial information of the trajectories. RED also adopts a spatial-temporal-user joint Embedding scheme to encode comprehensive information when preparing the trajectories as model inputs. To conduct training, RED adopts Dual-objective task learning}: the Transformer encoder predicts the next segment in a trajectory, and the Transformer decoder reconstructs the entire trajectory. RED also considers the spatial-temporal correlations of trajectories by modifying the attention mechanism of the Transformer. We compare RED with 9 state-of-the-art TRL methods for 4 downstream tasks on 3 real-world datasets, finding that RED can usually improve the accuracy of the best-performing baseline by over 5%.

arxiv情報

著者 Silin Zhou,Shuo Shang,Lisi Chen,Christian S. Jensen,Panos Kalnis
発行日 2024-11-22 17:51:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク