Graph Neural Network Sensitivity Under Probabilistic Error Model

要約

グラフ畳み込みネットワーク (GCN) は、グラフ畳み込みによってグラフ信号表現を首尾よく学習できます。
グラフの畳み込みは、データのトポロジ依存性を含み、データの特徴を伝播するグラフ フィルターに依存します。
ただし、伝播行列 (隣接行列など) の推定誤差は、グラフ フィルターや GCN に大きな影響を与える可能性があります。
この論文では、GCN のパフォーマンスに対する確率グラフ誤差モデルの影響を研究します。
誤差モデルの隣接行列がグラフ サイズと誤差確率の関数によって制限されることを証明します。
さらに、自己ループを追加した正規化された隣接行列の上限を解析的に指定します。
最後に、合成データセットで実験を実行することで誤差の限界を示し、この確率的誤差モデルに基づく単純な GCN の精度の感度を調べます。

要約(オリジナル)

Graph convolutional networks (GCNs) can successfully learn the graph signal representation by graph convolution. The graph convolution depends on the graph filter, which contains the topological dependency of data and propagates data features. However, the estimation errors in the propagation matrix (e.g., the adjacency matrix) can have a significant impact on graph filters and GCNs. In this paper, we study the effect of a probabilistic graph error model on the performance of the GCNs. We prove that the adjacency matrix under the error model is bounded by a function of graph size and error probability. We further analytically specify the upper bound of a normalized adjacency matrix with self-loop added. Finally, we illustrate the error bounds by running experiments on a synthetic dataset and study the sensitivity of a simple GCN under this probabilistic error model on accuracy.

arxiv情報

著者 Xinjue Wang,Esa Ollila,Sergiy A. Vorobyov
発行日 2023-08-11 11:50:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク