Hierarchical Uncertainty-Aware Graph Neural Network

要約

グラフニューラルネットワーク(GNNS)に関する最近の研究では、局所的な不確実性をキャプチャし、グラフ階層を利用してデータのスパースを軽減し、構造特性を活用するメカニズムを調査しました。
ただし、これらの2つのアプローチの相乗的な統合は、既知のままです。
この作業では、新しいアーキテクチャ、階層的な不確実性グラフニューラルネットワーク(HU-GNN)を紹介します。これは、単一のエンドツーエンドフレームワーク内のマルチスケール表現学習、原則的な不確実性の推定、および自己監督の埋め込み多様性を統合します。
具体的には、Hu-Gnnはノードクラスターを適応的に形成し、個々のノードからより高いレベルまでの複数の構造スケールで不確実性を推定します。
これらの不確実性の推定では、ノードレベルとグラフレベルの両方のタスクで予測精度を維持しながら、ノイズと敵対的な摂動を効果的に緩和し、効果的に緩和されたメカニズムと注意の重み付けを導きます。
また、確率的定式化、厳密な不確実性キャリブレーション保証、正式な堅牢性の範囲など、重要な理論的貢献も提供します。
最後に、グラフの対照学習に最近の進歩を組み込むことにより、Hu-Gnnは多様で構造的に忠実な埋め込みを維持します。
標準ベンチマークでの広範な実験は、モデルが最先端の堅牢性と解釈可能性を達成することを示しています。

要約(オリジナル)

Recent research on graph neural networks (GNNs) has explored mechanisms for capturing local uncertainty and exploiting graph hierarchies to mitigate data sparsity and leverage structural properties. However, the synergistic integration of these two approaches remains underexplored. In this work, we introduce a novel architecture, the Hierarchical Uncertainty-Aware Graph Neural Network (HU-GNN), which unifies multi-scale representation learning, principled uncertainty estimation, and self-supervised embedding diversity within a single end-to-end framework. Specifically, HU-GNN adaptively forms node clusters and estimates uncertainty at multiple structural scales from individual nodes to higher levels. These uncertainty estimates guide a robust message-passing mechanism and attention weighting, effectively mitigating noise and adversarial perturbations while preserving predictive accuracy on both node- and graph-level tasks. We also offer key theoretical contributions, including a probabilistic formulation, rigorous uncertainty-calibration guarantees, and formal robustness bounds. Finally, by incorporating recent advances in graph contrastive learning, HU-GNN maintains diverse, structurally faithful embeddings. Extensive experiments on standard benchmarks demonstrate that our model achieves state-of-the-art robustness and interpretability.

arxiv情報

著者 Yoonhyuk Choi,Chong-Kwon Kim
発行日 2025-04-28 14:22:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.IR, cs.LG パーマリンク