GAIM: Attacking Graph Neural Networks via Adversarial Influence Maximization

要約

最近の研究では、グラフ構造やノードの特徴に対する巧妙な摂動が、トレーニングされたグラフ ニューラル ネットワーク (GNN) モデルの誤解を招く可能性があることを示しています。
ただし、これらの方法では、実際的な仮定が見落とされたり、ヒューリスティックに過度に依存したり、重要な攻撃コンポーネントが分離されたりすることがよくあります。
これに対して、厳密なブラックボックス設定を考慮しながら、ノード機能ベースで実行される統合敵対的攻撃手法である GAIM を紹介します。
具体的には、ノード摂動の敵対的影響を理論的に評価するための敵対的影響関数を定義し、それによって GNN 攻撃問題を敵対的影響最大化問題に再構成します。
私たちのアプローチでは、ターゲット ノードの選択と特徴の摂動の構築を単一の最適化問題に統合し、各ターゲット ノードに対して一意で一貫した特徴の摂動を保証します。
サロゲート モデルを活用して、この問題を解決可能な線形計画タスクに変換し、最適化プロセスを合理化します。
さらに、ラベル指向の攻撃に対応できるように手法を拡張し、その適用範囲を広げます。
3 つの人気のあるモデルにわたる 5 つのベンチマーク データセットの徹底的な評価により、非標的型攻撃とラベル指向型標的型攻撃の両方における当社の手法の有効性が強調されています。
包括的な分析とアブレーション研究を通じて、私たちは設計の選択に固有の実際的な価値と有効性を実証します。

要約(オリジナル)

Recent studies show that well-devised perturbations on graph structures or node features can mislead trained Graph Neural Network (GNN) models. However, these methods often overlook practical assumptions, over-rely on heuristics, or separate vital attack components. In response, we present GAIM, an integrated adversarial attack method conducted on a node feature basis while considering the strict black-box setting. Specifically, we define an adversarial influence function to theoretically assess the adversarial impact of node perturbations, thereby reframing the GNN attack problem into the adversarial influence maximization problem. In our approach, we unify the selection of the target node and the construction of feature perturbations into a single optimization problem, ensuring a unique and consistent feature perturbation for each target node. We leverage a surrogate model to transform this problem into a solvable linear programming task, streamlining the optimization process. Moreover, we extend our method to accommodate label-oriented attacks, broadening its applicability. Thorough evaluations on five benchmark datasets across three popular models underscore the effectiveness of our method in both untargeted and label-oriented targeted attacks. Through comprehensive analysis and ablation studies, we demonstrate the practical value and efficacy inherent to our design choices.

arxiv情報

著者 Xiaodong Yang,Xiaoting Li,Huiyuan Chen,Yiwei Cai
発行日 2024-08-20 15:41:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク