Infinite-Horizon Graph Filters: Leveraging Power Series to Enhance Sparse Information Aggregation

要約

グラフ ニューラル ネットワーク (GNN) は、さまざまなグラフ学習タスク、特に近年のメッセージ パッシング アプローチに基づくタスクにおいて、かなりの有効性を示しています。
ただし、そのパフォーマンスは限られた受容野によって制限されることが多く、グラフがまばらな場合にはこの課題はさらに深刻になります。
無限の拡張能力を持つべき級数を考慮して、べき級数グラフ フィルターを使用して受容野を強化することでノード分類を強化する新しいグラフ パワー フィルター ニューラル ネットワーク (GPFN) を提案します。
具体的には、当社の GPFN は、スペクトル領域および空間領域で分析できる収束べき級数に基づく無限の受容野を備えたグラフ フィルターを構築する新しい方法を設計します。
さらに、GPFN があらゆるべき級数を統合し、長距離の依存関係をキャプチャできる一般的なフレームワークであることを理論的に証明します。
最後に、3 つのデータセットに関する実験結果は、最先端のベースラインに対する GPFN の優位性を示しています。

要約(オリジナル)

Graph Neural Networks (GNNs) have shown considerable effectiveness in a variety of graph learning tasks, particularly those based on the message-passing approach in recent years. However, their performance is often constrained by a limited receptive field, a challenge that becomes more acute in the presence of sparse graphs. In light of the power series, which possesses infinite expansion capabilities, we propose a novel Graph Power Filter Neural Network (GPFN) that enhances node classification by employing a power series graph filter to augment the receptive field. Concretely, our GPFN designs a new way to build a graph filter with an infinite receptive field based on the convergence power series, which can be analyzed in the spectral and spatial domains. Besides, we theoretically prove that our GPFN is a general framework that can integrate any power series and capture long-range dependencies. Finally, experimental results on three datasets demonstrate the superiority of our GPFN over state-of-the-art baselines.

arxiv情報

著者 Ruizhe Zhang,Xinke Jiang,Yuchen Fang,Jiayuan Luo,Yongxin Xu,Yichen Zhu,Xu Chu,Junfeng Zhao,Yasha Wang
発行日 2024-01-23 14:41:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SI パーマリンク