要約
グラフ ニューラル ネットワーク (GNN) は、異なる時系列間の相関を捉える機能があるため、多変量時系列予測 (MTSF) タスクに広く適用されています。
これらのグラフベースの学習アプローチは、データの相関関係を表す基礎となるグラフ構造を発見して理解することで、予測パフォーマンスを向上させます。
明示的な事前のグラフ構造が利用できない場合、既存の研究のほとんどは、生成されたグラフのスパース性を保証できず、モデル全体の計算コストが高くなり、解釈しにくくなります。
この研究では、グラフ生成モジュールと GNN 予測モジュールを含む、分離されたトレーニング方法を提案します。
まず、Graphical Lasso (または GraphLASSO) を使用して、データからのスパース パターンを直接利用し、静的ケースと時間変化ケースの両方でグラフ構造を構築します。
次に、これらのグラフ構造と入力データをグラフ畳み込み再帰ネットワーク (GCRN) に適合させて、予測モデルをトレーニングします。
3 つの現実世界のデータセットでの実験結果は、私たちの新しいアプローチが既存の最先端の予測アルゴリズムに匹敵するパフォーマンスを持ちながら、まばらで意味のある説明可能なグラフ構造を提供し、トレーニング時間を約 40% 削減できることを示しています。
PyTorch 実装は https://github.com/HySonLab/GraphLASSO で公開されています。
要約(オリジナル)
Graph neural networks (GNNs) have been widely applied in multi-variate time-series forecasting (MTSF) tasks because of their capability in capturing the correlations among different time-series. These graph-based learning approaches improve the forecasting performance by discovering and understanding the underlying graph structures, which represent the data correlation. When the explicit prior graph structures are not available, most existing works cannot guarantee the sparsity of the generated graphs that make the overall model computational expensive and less interpretable. In this work, we propose a decoupled training method, which includes a graph generating module and a GNNs forecasting module. First, we use Graphical Lasso (or GraphLASSO) to directly exploit the sparsity pattern from data to build graph structures in both static and time-varying cases. Second, we fit these graph structures and the input data into a Graph Convolutional Recurrent Network (GCRN) to train a forecasting model. The experimental results on three real-world datasets show that our novel approach has competitive performance against existing state-of-the-art forecasting algorithms while providing sparse, meaningful and explainable graph structures and reducing training time by approximately 40%. Our PyTorch implementation is publicly available at https://github.com/HySonLab/GraphLASSO
arxiv情報
著者 | Ngoc-Dung Do,Truong Son Hy,Duy Khuong Nguyen |
発行日 | 2023-06-29 16:48:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google