Improving Expressive Power of Spectral Graph Neural Networks with Eigenvalue Correction

要約

近年、多項式フィルターを特徴とするスペクトル グラフ ニューラル ネットワークがますます注目を集めており、ノード分類などのタスクで顕著なパフォーマンスを達成しています。
これらのモデルは通常、正規化されたラプラシアン行列の固有値が互いに異なることを前提としており、したがって多項式フィルターが高いフィッティング能力を持つことが期待されます。
ただし、この論文では、正規化されたラプラシアン行列が繰り返しの固有値を頻繁に持つことを経験的に観察しています。
さらに、識別可能な固有値の数がスペクトル グラフ ニューラル ネットワークの表現力を決定する上で極めて重要な役割を果たすことを理論的に確立します。
この観察を踏まえて、繰り返しの固有値入力の制約から多項式フィルターを解放できる固有値補正戦略を提案します。
具体的には、提案された固有値補正戦略は固有値の均一な分布を強化し、固有値の繰り返しを軽減し、多項式フィルターのフィッティング能力と表現力を向上させます。
合成データセットと現実世界のデータセットの両方に関する広範な実験結果は、私たちの方法の優位性を実証しています。

要約(オリジナル)

In recent years, spectral graph neural networks, characterized by polynomial filters, have garnered increasing attention and have achieved remarkable performance in tasks such as node classification. These models typically assume that eigenvalues for the normalized Laplacian matrix are distinct from each other, thus expecting a polynomial filter to have a high fitting ability. However, this paper empirically observes that normalized Laplacian matrices frequently possess repeated eigenvalues. Moreover, we theoretically establish that the number of distinguishable eigenvalues plays a pivotal role in determining the expressive power of spectral graph neural networks. In light of this observation, we propose an eigenvalue correction strategy that can free polynomial filters from the constraints of repeated eigenvalue inputs. Concretely, the proposed eigenvalue correction strategy enhances the uniform distribution of eigenvalues, thus mitigating repeated eigenvalues, and improving the fitting capacity and expressive power of polynomial filters. Extensive experimental results on both synthetic and real-world datasets demonstrate the superiority of our method.

arxiv情報

著者 Kangkang Lu,Yanhua Yu,Hao Fei,Xuan Li,Zixuan Yang,Zirui Guo,Meiyu Liang,Mengran Yin,Tat-Seng Chua
発行日 2024-03-18 09:00:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SI パーマリンク