Region-Wise Attentive Multi-View Representation Learning for Urban Region Embeddings

要約

都市領域の組み込みは、都市データの複雑さと絶えず変化する性質により、重要であると同時に非常に困難な問題です。
この課題に対処するために、私たちは、厳格な近隣地域条件の制約を受けることなく、マルチビューの依存関係を捕捉し、都市地域の表現力豊かな表現を学習する、地域単位のマルチビュー表現学習 (ROMER) を提案します。
私たちのモデルは、マルチソースの都市データから都市地域の表現を学習することに重点を置いています。
まず、モビリティ フロー パターン、POI セマンティクス、チェックイン ダイナミクスからマルチビューの相関関係を取得します。
次に、グローバル グラフ アテンション ネットワークを採用して、グラフ内の任意の 2 つの頂点の類似性を学習します。
複数のビューの特徴を包括的に考慮して共有するために、マルチビューの埋め込みを融合するために外部の注意を払って重みを学習する2段階の融合モジュールがさらに提案されています。
現実世界のデータセットに対する 2 つの下流タスクに関する広範な実験により、私たちのモデルが最先端の手法よりも最大 17\% 向上することが実証されました。

要約(オリジナル)

Urban region embedding is an important and yet highly challenging issue due to the complexity and constantly changing nature of urban data. To address the challenges, we propose a Region-Wise Multi-View Representation Learning (ROMER) to capture multi-view dependencies and learn expressive representations of urban regions without the constraints of rigid neighbourhood region conditions. Our model focus on learn urban region representation from multi-source urban data. First, we capture the multi-view correlations from mobility flow patterns, POI semantics and check-in dynamics. Then, we adopt global graph attention networks to learn similarity of any two vertices in graphs. To comprehensively consider and share features of multiple views, a two-stage fusion module is further proposed to learn weights with external attention to fuse multi-view embeddings. Extensive experiments for two downstream tasks on real-world datasets demonstrate that our model outperforms state-of-the-art methods by up to 17\% improvement.

arxiv情報

著者 Weiliang Chan,Qianqian Ren
発行日 2024-01-23 13:15:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.CY, cs.LG パーマリンク