要約
多変量時系列予測は、多くのアプリケーションにとって重要なタスクであり、グラフ時系列ネットワークは、時空間相関を同時に取得できるため、広く研究されています。
ただし、ほとんどの既存の作業は、明示的な事前グラフ構造を使用した学習に重点を置いており、暗黙的なグラフ構造からの潜在的な情報を無視して、不完全な構造モデリングを生み出しています。
最近のいくつかの研究では、内在的または暗黙的なグラフ構造を直接学習しようとしていますが、明示的な事前構造と暗黙的な構造を組み合わせる方法はありません。
この論文では、明示的な事前構造と暗黙的な構造の両方を組み込む正規化グラフ構造学習(RGSL)モデルを提案し、グラフ構造とともに予測ディープネットワークを学習します。
RGSL は 2 つの革新的なモジュールで構成されています。
まず、ノードの埋め込みによって暗黙的な密な類似性行列を導出し、Gumbel Softmax トリックに基づく正則化グラフ生成 (RGG) を使用して疎なグラフ構造を学習します。
次に、陽的グラフと陰的グラフを融合するラプラシアン行列混合モジュール (LM3) を提案します。
3 つの実際のデータセットで実験を行います。
結果は、提案された RGSL モデルが、重要なグラフ構造を同時に学習しながら、顕著なマージンで既存のグラフ予測アルゴリズムよりも優れていることを示しています。
私たちのコードとモデルは、https://github.com/alipay/RGSL.git で公開されています。
要約(オリジナル)
Multivariate time-series forecasting is a critical task for many applications, and graph time-series network is widely studied due to its capability to capture the spatial-temporal correlation simultaneously. However, most existing works focus more on learning with the explicit prior graph structure, while ignoring potential information from the implicit graph structure, yielding incomplete structure modeling. Some recent works attempt to learn the intrinsic or implicit graph structure directly while lacking a way to combine explicit prior structure with implicit structure together. In this paper, we propose Regularized Graph Structure Learning (RGSL) model to incorporate both explicit prior structure and implicit structure together, and learn the forecasting deep networks along with the graph structure. RGSL consists of two innovative modules. First, we derive an implicit dense similarity matrix through node embedding, and learn the sparse graph structure using the Regularized Graph Generation (RGG) based on the Gumbel Softmax trick. Second, we propose a Laplacian Matrix Mixed-up Module (LM3) to fuse the explicit graph and implicit graph together. We conduct experiments on three real-word datasets. Results show that the proposed RGSL model outperforms existing graph forecasting algorithms with a notable margin, while learning meaningful graph structure simultaneously. Our code and models are made publicly available at https://github.com/alipay/RGSL.git.
arxiv情報
著者 | Hongyuan Yu,Ting Li,Weichen Yu,Jianguo Li,Yan Huang,Liang Wang,Alex Liu |
発行日 | 2022-10-12 12:38:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google