Improving Your Graph Neural Networks: A High-Frequency Booster

要約

タイトル:あなたのグラフニューラルネットワークの向上:高周波ブースター

要約:

– グラフニューラルネットワーク(GNN)は、グラフ構造データの効率的な表現を学習することを約束しており、最も重要なアプリケーションの1つは半教師付きノード分類です。
– しかし、このアプリケーションでは、GNNフレームワークは、過度の平準化と異質性の問題のためにしばしば失敗する傾向があります。
– 最も人気のあるGNNはメッセージパッシングフレームワークに焦点を当てており、最近の研究は、これらのGNNが信号処理の観点からしばしばローパスフィルタによって制限されることを示しています。
– そのため、GNNに高周波情報を組み込むことで、この遺伝的問題を緩和することができます。
– この論文では、元のグラフの補数がハイパスフィルタを含んでいると主張し、高周波成分を効率的に改善するための補数ラプラシアン正則化(CLAR)を提案します。
– 実験結果は、CLARが敷石に比べて3.6%の改善を加え、異質的なグラフの表現能力を向上させ、トポロジックな堅牢性を保証しながら、GNNが平準化に対処するのに役立つことを示しています。

要約(オリジナル)

Graph neural networks (GNNs) hold the promise of learning efficient representations of graph-structured data, and one of its most important applications is semi-supervised node classification. However, in this application, GNN frameworks tend to fail due to the following issues: over-smoothing and heterophily. The most popular GNNs are known to be focused on the message-passing framework, and recent research shows that these GNNs are often bounded by low-pass filters from a signal processing perspective. We thus incorporate high-frequency information into GNNs to alleviate this genetic problem. In this paper, we argue that the complement of the original graph incorporates a high-pass filter and propose Complement Laplacian Regularization (CLAR) for an efficient enhancement of high-frequency components. The experimental results demonstrate that CLAR helps GNNs tackle over-smoothing, improving the expressiveness of heterophilic graphs, which adds up to 3.6% improvement over popular baselines and ensures topological robustness.

arxiv情報

著者 Jiaqi Sun,Lin Zhang,Shenglin Zhao,Yujiu Yang
発行日 2023-05-03 10:28:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク