On the Stability of Graph Convolutional Neural Networks: A Probabilistic Perspective

要約

グラフ畳み込みニューラルネットワーク(GCNN)は、グラフ構造のデータを解析するための強力なツールとして登場し、様々なアプリケーションにおいて目覚ましい成果を上げている。しかし、これらのモデルの安定性、すなわちグラフ構造の小さな変化に対する感度の理論的理解は、かなり限定的な設定にとどまっており、ロバストで信頼性の高いモデルの開発と実践への展開を妨げている。このギャップを埋めるために、我々はグラフトポロジーの摂動がGCNNの出力にどのような影響を与えるかを研究し、モデルの安定性を分析するための新しい定式化を提案する。ワーストケースの摂動のみに焦点を当てた先行研究とは異なり、我々の分布を考慮した定式化は、幅広い入力データにわたる出力摂動を特徴付ける。このようにして、我々の枠組みは、ノードデータの統計的特性とグラフトポロジーの摂動との間の相互作用に関する確率論的な視点を初めて可能にした。我々の理論的知見を検証するために広範な実験を行い、表現の安定性と下流タスクに対する敵対的攻撃の両方の観点から、既存のベースラインに対する利点を実証する。我々の結果は、提案した定式化の実用的な意義を実証し、安定性解析にデータ分布を組み込むことの重要性を強調するものである。

要約(オリジナル)

Graph convolutional neural networks (GCNNs) have emerged as powerful tools for analyzing graph-structured data, achieving remarkable success across diverse applications. However, the theoretical understanding of the stability of these models, i.e., their sensitivity to small changes in the graph structure, remains in rather limited settings, hampering the development and deployment of robust and trustworthy models in practice. To fill this gap, we study how perturbations in the graph topology affect GCNN outputs and propose a novel formulation for analyzing model stability. Unlike prior studies that focus only on worst-case perturbations, our distribution-aware formulation characterizes output perturbations across a broad range of input data. This way, our framework enables, for the first time, a probabilistic perspective on the interplay between the statistical properties of the node data and perturbations in the graph topology. We conduct extensive experiments to validate our theoretical findings and demonstrate their benefits over existing baselines, in terms of both representation stability and adversarial attacks on downstream tasks. Our results demonstrate the practical significance of the proposed formulation and highlight the importance of incorporating data distribution into stability analysis.

arxiv情報

著者 Ning Zhang,Henry Kenlay,Li Zhang,Mihai Cucuringu,Xiaowen Dong
発行日 2025-06-03 17:15:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, eess.SP, stat.ML パーマリンク