Robust Graph Neural Network based on Graph Denoising

要約

グラフ ニューラル ネットワーク (GNN) は、非ユークリッド データセットを扱う学習の問題に対処する悪名高い代替手段として登場しました。
ただし、ほとんどの研究ではグラフが完全に既知であると想定していますが、観測されたトポロジには観測ノイズ、グラフ学習の制限、または敵対的攻撃に起因するエラーが発生する傾向があります。
無視した場合、これらの摂動は GNN のパフォーマンスを大幅に妨げる可能性があります。
この制限に対処するために、この研究では、観測されたトポロジーにおける摂動の存在を明示的に説明する GNN の堅牢な実装を提案します。
GNN を含むあらゆるタスクについて、私たちの中心的なアイデアは、i) GNN の学習可能なパラメーターだけでなく、真のグラフに対しても最適化問題を解決すること、および ii) グラフ上の不一致を考慮した項を使用してフィッティング コストを増やすことです。
具体的には、グラフ フィルターに基づいた畳み込み GNN を検討し、交互最適化アプローチに従って、勾配降下法と投影された近位更新を組み合わせることによって (微分不可能で制約のある) 最適化問題を処理します。
結果として得られるアルゴリズムは、特定の種類のグラフに限定されず、摂動に関する事前の情報を組み込むことができます。
最後に、いくつかの数値実験を通じて提案手法の性能を評価します。

要約(オリジナル)

Graph Neural Networks (GNNs) have emerged as a notorious alternative to address learning problems dealing with non-Euclidean datasets. However, although most works assume that the graph is perfectly known, the observed topology is prone to errors stemming from observational noise, graph-learning limitations, or adversarial attacks. If ignored, these perturbations may drastically hinder the performance of GNNs. To address this limitation, this work proposes a robust implementation of GNNs that explicitly accounts for the presence of perturbations in the observed topology. For any task involving GNNs, our core idea is to i) solve an optimization problem not only over the learnable parameters of the GNN but also over the true graph, and ii) augment the fitting cost with a term accounting for discrepancies on the graph. Specifically, we consider a convolutional GNN based on graph filters and follow an alternating optimization approach to handle the (non-differentiable and constrained) optimization problem by combining gradient descent and projected proximal updates. The resulting algorithm is not limited to a particular type of graph and is amenable to incorporating prior information about the perturbations. Finally, we assess the performance of the proposed method through several numerical experiments.

arxiv情報

著者 Victor M. Tenorio,Samuel Rey,Antonio G. Marques
発行日 2023-12-11 17:43:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, eess.SP パーマリンク