要約
都市地域の表現は、都市の下流のさまざまなタスクにとって重要です。
しかし、手法の急増とその成功にもかかわらず、都市地域の一般的な知識を獲得し、さまざまなタスクに適応することは依然として困難です。
これまでの研究では、エンティティ間の空間構造や機能レイアウトが無視されることが多く、地域を超えて伝達可能な知識を取得する能力が制限されていました。
さらに、これらの方法は、さまざまな下流タスクに必要な固有の機能や関係に適切に対処していないため、特定の下流タスクに効果的に適応するのが困難です。
この論文では、$\textbf{G}$raph ベースの $\textbf{U}$rban $\textbf{R}$egion $\textbf{P}$re-training と $\textbf{P} を提案します。
領域表現学習のための $rompting フレームワーク ($\textbf{GURPP}$)。
具体的には、まず、都市地域をより効果的に表現するために、詳細な空間エンティティ データを統合する都市地域グラフを構築します。
次に、サブグラフ中心の都市地域の事前トレーニング モデルを開発して、エンティティ間の相互作用の異種かつ伝達可能なパターンを捕捉します。
これらの埋め込みのさまざまなタスクへの適応性をさらに強化するために、明示的/非表示のタスク知識を組み込むための 2 つのグラフベースのプロンプト方法を設計します。
さまざまな都市地域予測タスクとさまざまな都市に関する広範な実験により、GURPP フレームワークの優れたパフォーマンスが実証されました。
要約(オリジナル)
Urban region representation is crucial for various urban downstream tasks. However, despite the proliferation of methods and their success, acquiring general urban region knowledge and adapting to different tasks remains challenging. Previous work often neglects the spatial structures and functional layouts between entities, limiting their ability to capture transferable knowledge across regions. Further, these methods struggle to adapt effectively to specific downstream tasks, as they do not adequately address the unique features and relationships required for different downstream tasks. In this paper, we propose a $\textbf{G}$raph-based $\textbf{U}$rban $\textbf{R}$egion $\textbf{P}$re-training and $\textbf{P}$rompting framework ($\textbf{GURPP}$) for region representation learning. Specifically, we first construct an urban region graph that integrates detailed spatial entity data for more effective urban region representation. Then, we develop a subgraph-centric urban region pre-training model to capture the heterogeneous and transferable patterns of interactions among entities. To further enhance the adaptability of these embeddings to different tasks, we design two graph-based prompting methods to incorporate explicit/hidden task knowledge. Extensive experiments on various urban region prediction tasks and different cities demonstrate the superior performance of our GURPP framework.
arxiv情報
著者 | Jiahui Jin,Yifan Song,Dong Kan,Haojia Zhu,Xiangguo Sun,Zhicheng Li,Xigang Sun,Jinghui Zhang |
発行日 | 2024-08-26 11:41:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google