You Can’t Ignore Either: Unifying Structure and Feature Denoising for Robust Graph Learning

要約

グラフニューラルネットワーク(GNN)のノイズや攻撃に対する頑健性に関する最近の研究は、実世界のアプリケーションにおける重要性から大きな注目を集めている。これまでの手法の多くは、単一のノイズ源を探索し、信頼性の高い構造バイアスによって破損したノードの埋め込みを回復したり、信頼性の高いノード特徴量を用いた構造学習を発展させたりしてきた。しかし、ノイズや攻撃はグラフの構造と特徴の両方から発生する可能性があり、グラフのノイズ除去はジレンマに満ちた困難な問題である。本論文では、構造ノイズ除去と特徴ノイズ除去の間の行き詰まりを解消するために、統一的なグラフノイズ除去(UGD)フレームワークを開発する。具体的には、特徴量が同時に摂動される可能性を考慮し、ノイズの多いエッジを認識するための高次近傍近接評価法を提案する。さらに、グラフオートエンコーダに基づく再構成により、ノイズの多い特徴を洗練することを提案する。さらに、フレームワークを最適化し、きれいなグラフを取得するための反復更新アルゴリズムを設計し、下流のタスクのための頑健なグラフ学習を可能にする。我々のUGDフレームワークは自己教師型であり、プラグアンドプレイモジュールとして簡単に実装できる。我々は広範な実験を行い、我々の手法の有効性と利点を証明した。コードはhttps://github.com/YoungTimmy/UGD。

要約(オリジナル)

Recent research on the robustness of Graph Neural Networks (GNNs) under noises or attacks has attracted great attention due to its importance in real-world applications. Most previous methods explore a single noise source, recovering corrupt node embedding by reliable structures bias or developing structure learning with reliable node features. However, the noises and attacks may come from both structures and features in graphs, making the graph denoising a dilemma and challenging problem. In this paper, we develop a unified graph denoising (UGD) framework to unravel the deadlock between structure and feature denoising. Specifically, a high-order neighborhood proximity evaluation method is proposed to recognize noisy edges, considering features may be perturbed simultaneously. Moreover, we propose to refine noisy features with reconstruction based on a graph auto-encoder. An iterative updating algorithm is further designed to optimize the framework and acquire a clean graph, thus enabling robust graph learning for downstream tasks. Our UGD framework is self-supervised and can be easily implemented as a plug-and-play module. We carry out extensive experiments, which proves the effectiveness and advantages of our method. Code is avalaible at https://github.com/YoungTimmy/UGD.

arxiv情報

著者 Tianmeng Yang,Jiahao Meng,Min Zhou,Yaming Yang,Yujing Wang,Xiangtai Li,Yunhai Tong
発行日 2024-08-01 16:43:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG パーマリンク