SE-GSL: A General and Effective Graph Structure Learning Framework through Structural Entropy Optimization

要約

グラフ ニューラル ネットワーク (GNN) は、構造データ学習に対する事実上のソリューションです。
ただし、現実世界のグラフでは例外ではなく標準となっている、低品質で信頼性の低い構造の影響を受けやすくなっています。
既存のグラフ構造学習 (GSL) フレームワークには、依然として堅牢性と解釈可能性が欠けています。
この論文では、構造エントロピーとエンコーディングツリーで抽象化されたグラフ階層を通じて、一般的な GSL フレームワークである SE-GSL を提案します。
特に、元のグラフを強化するために補助的な近隣属性が融合されている場合、埋め込み情報コンテンツを最大化するために 1 次元構造エントロピーを利用します。
階層的抽象化における適切なコミュニティ分割を保証しながら、グラフの不確実性とノイズを最小限に抑えるために、最適な符号化ツリーを構築する新しいスキームが提案されています。
ノード構造エントロピー分布を介してグラフ構造を復元するための新しいサンプルベースのメカニズムを提示します。
これにより、ノード間の接続性が向上し、下位レベルのコミュニティでは不確実性が大きくなります。
SE-GSL は、さまざまな GNN モデルと互換性があり、ノイズの多い構造や異質性構造に対する堅牢性を高めます。
広範な実験により、構造学習とノード表現学習の有効性と堅牢性が大幅に向上することが示されています。

要約(オリジナル)

Graph Neural Networks (GNNs) are de facto solutions to structural data learning. However, it is susceptible to low-quality and unreliable structure, which has been a norm rather than an exception in real-world graphs. Existing graph structure learning (GSL) frameworks still lack robustness and interpretability. This paper proposes a general GSL framework, SE-GSL, through structural entropy and the graph hierarchy abstracted in the encoding tree. Particularly, we exploit the one-dimensional structural entropy to maximize embedded information content when auxiliary neighbourhood attributes are fused to enhance the original graph. A new scheme of constructing optimal encoding trees is proposed to minimize the uncertainty and noises in the graph whilst assuring proper community partition in hierarchical abstraction. We present a novel sample-based mechanism for restoring the graph structure via node structural entropy distribution. It increases the connectivity among nodes with larger uncertainty in lower-level communities. SE-GSL is compatible with various GNN models and enhances the robustness towards noisy and heterophily structures. Extensive experiments show significant improvements in the effectiveness and robustness of structure learning and node representation learning.

arxiv情報

著者 Dongcheng Zou,Hao Peng,Xiang Huang,Renyu Yang,Jianxin Li,Jia Wu,Chunyang Liu,Philip S. Yu
発行日 2023-03-17 05:20:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク