On the Robustness of Graph Reduction Against GNN Backdoor

要約

グラフ ニューラル ネットワーク (GNN) は、グラフ構造データの学習に効果があるため、さまざまな分野で人気が高まっています。
それにもかかわらず、実際のアプリケーションに深刻な脅威をもたらすバックドア ポイズニング攻撃の影響を受けやすいことがわかっています。
一方、粗密化やスパース化などのグラフ削減手法は、大規模なグラフ計算タスクのスケーラビリティを向上させるために長年使用されてきましたが、最近、大規模なグラフでの GNN トレーニングを高速化するための効果的な方法として浮上しました。
しかし、大規模なグラフに対するグラフ削減技術の現在の開発と展開では、GNN に対するデータ ポイズニング攻撃の潜在的なリスクが見落とされています。
グラフ削減が既存のバックドア攻撃とどのように相互作用するかはまだ明らかではありません。
この論文では、最先端のバックドア攻撃が存在する場合のスケーラブルな GNN トレーニングにおけるグラフ削減手法の堅牢性について徹底的な調査を実施します。
3 つの GNN アーキテクチャに対する 3 つの GNN バックドア攻撃の下で、グラフ削減のための 6 つの粗化手法と 6 つのスパース化手法にわたる包括的なロバスト性分析を実行しました。
私たちの調査結果は、攻撃の成功率を軽減するグラフ削減手法の有効性には大幅なばらつきがあり、一部の手法では攻撃を悪化させることさえあることを示しています。
トリガーと汚染されたノードの詳細な分析を通じて、調査結果を解釈し、グラフ削減がバックドア攻撃とどのように相互作用するかについての理解を深めます。
これらの結果は、計算効率の向上によって GNN システムのセキュリティが損なわれないように、GNN トレーニングのグラフ削減に堅牢性の考慮事項を組み込むことが重要であることを強調しています。

要約(オリジナル)

Graph Neural Networks (GNNs) are gaining popularity across various domains due to their effectiveness in learning graph-structured data. Nevertheless, they have been shown to be susceptible to backdoor poisoning attacks, which pose serious threats to real-world applications. Meanwhile, graph reduction techniques, including coarsening and sparsification, which have long been employed to improve the scalability of large graph computational tasks, have recently emerged as effective methods for accelerating GNN training on large-scale graphs. However, the current development and deployment of graph reduction techniques for large graphs overlook the potential risks of data poisoning attacks against GNNs. It is not yet clear how graph reduction interacts with existing backdoor attacks. This paper conducts a thorough examination of the robustness of graph reduction methods in scalable GNN training in the presence of state-of-the-art backdoor attacks. We performed a comprehensive robustness analysis across six coarsening methods and six sparsification methods for graph reduction, under three GNN backdoor attacks against three GNN architectures. Our findings indicate that the effectiveness of graph reduction methods in mitigating attack success rates varies significantly, with some methods even exacerbating the attacks. Through detailed analyses of triggers and poisoned nodes, we interpret our findings and enhance our understanding of how graph reduction interacts with backdoor attacks. These results highlight the critical need for incorporating robustness considerations in graph reduction for GNN training, ensuring that enhancements in computational efficiency do not compromise the security of GNN systems.

arxiv情報

著者 Yuxuan Zhu,Michael Mandulak,Kerui Wu,George Slota,Yuseok Jeon,Ka-Ho Chow,Lei Yu
発行日 2024-07-02 17:08:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク