Graph Convolutional Neural Networks Sensitivity under Probabilistic Error Model

要約

グラフニューラルネットワーク(GNN)、特にグラフ畳み込みニューラルネットワーク(GCNN)は、グラフ構造化データを処理するための機械学習と信号処理における極めて重要な道具として登場した。本論文では、グラフシフト演算子(GSO)に直接影響を与える確率的なグラフ摂動に対するGCNNの感度を調べる解析フレームワークを提案する。我々の研究は、エラーモデルパラメータに明示的にリンクされた厳しいGSO期待エラー境界を確立し、GCNNの各層におけるGSO摂動とその結果の出力差の間の線形関係を明らかにする。この線形性は、単層GCNNが、摂動の規模に関わらずGSO誤差が有界である限り、グラフエッジ摂動下でも安定性を維持することを示している。多層GCNNの場合、システムの出力差のGSO摂動依存性は線形性の再帰であることが示される。最後に、グラフ同型ネットワーク(GIN)と単純グラフ畳み込みネットワーク(SGCN)を用いてフレームワークを例示する。実験により、我々の理論的導出とアプローチの有効性を検証する。

要約(オリジナル)

Graph Neural Networks (GNNs), particularly Graph Convolutional Neural Networks (GCNNs), have emerged as pivotal instruments in machine learning and signal processing for processing graph-structured data. This paper proposes an analysis framework to investigate the sensitivity of GCNNs to probabilistic graph perturbations, directly impacting the graph shift operator (GSO). Our study establishes tight expected GSO error bounds, which are explicitly linked to the error model parameters, and reveals a linear relationship between GSO perturbations and the resulting output differences at each layer of GCNNs. This linearity demonstrates that a single-layer GCNN maintains stability under graph edge perturbations, provided that the GSO errors remain bounded, regardless of the perturbation scale. For multilayer GCNNs, the dependency of system’s output difference on GSO perturbations is shown to be a recursion of linearity. Finally, we exemplify the framework with the Graph Isomorphism Network (GIN) and Simple Graph Convolution Network (SGCN). Experiments validate our theoretical derivations and the effectiveness of our approach.

arxiv情報

著者 Xinjue Wang,Esa Ollila,Sergiy A. Vorobyov
発行日 2024-05-06 14:55:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, stat.ML パーマリンク