AHSG: Adversarial Attack on High-level Semantics in Graph Neural Networks

要約

グラフニューラルネットワークに対する敵対的な攻撃は、グラフトポロジとノード属性を慎重に変更することにより、学習者のパフォーマンスを混乱させることを目的としています。
既存の方法は、グラフプロパティの変更と違いを制約することにより、攻撃のステルス性を実現します。
ただし、これらの方法は通常、タスクに関連する一次セマンティクスを直接混乱させ、攻撃の防御性と検出可能性が低くなります。
この論文では、グラフニューラルネットワーク(AHSG)の高レベルセマンティクスに対する敵対的な攻撃を提案します。これは、一次セマンティクスの保持を保証するグラフ構造攻撃モデルです。
潜在的な表現を共有された一次セマンティクスと組み合わせることにより、モデルは元のグラフの検出可能な属性とリレーショナルパターンを保持しながら、より微妙な変更を活用して攻撃を実行します。
次に、投影された勾配降下アルゴリズムを使用して、潜在的な表現と攻撃効果を敵対的なグラフにマッピングします。
防衛戦略を備えた堅牢なグラフディープラーニングモデルの実験を通じて、AHSGが攻撃の有効性における他の最先端の方法よりも優れていることを実証します。
さらに、コンテキスト確率的ブロックモデルを使用して攻撃されたグラフを検出すると、メソッドがグラフの主要なセマンティクスを保持することをさらに検証します。

要約(オリジナル)

Adversarial attacks on Graph Neural Networks aim to perturb the performance of the learner by carefully modifying the graph topology and node attributes. Existing methods achieve attack stealthiness by constraining the modification budget and differences in graph properties. However, these methods typically disrupt task-relevant primary semantics directly, which results in low defensibility and detectability of the attack. In this paper, we propose an Adversarial Attack on High-level Semantics for Graph Neural Networks (AHSG), which is a graph structure attack model that ensures the retention of primary semantics. By combining latent representations with shared primary semantics, our model retains detectable attributes and relational patterns of the original graph while leveraging more subtle changes to carry out the attack. Then we use the Projected Gradient Descent algorithm to map the latent representations with attack effects to the adversarial graph. Through experiments on robust graph deep learning models equipped with defense strategies, we demonstrate that AHSG outperforms other state-of-the-art methods in attack effectiveness. Additionally, using Contextual Stochastic Block Models to detect the attacked graph further validates that our method preserves the primary semantics of the graph.

arxiv情報

著者 Kai Yuan,Jiahao Zhang,Yidi Wang,Xiaobing Pei
発行日 2025-04-17 16:13:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク