要約
グラフ ニューラル ネットワーク (GNN) はデータ サイエンスにおいて不可欠ですが、敵対的攻撃の影響を受けやすくなっています。
研究者がより堅牢な GNN モデルを開発できるようにするには、基礎的なベンチマークおよび指針となる参照として強力な攻撃モデルの設計に重点を置くことが不可欠です。
敵対的攻撃の中でも、グレーボックス ポイズニング攻撃は、その有効性と制約の少なさから注目に値します。
これらの攻撃は、更新されたデータに対する GNN の再トレーニングの必要性を悪用し、これらのデータセットを混乱させることでパフォーマンスに影響を与えます。
ただし、現在の研究では、不完全なグラフという現実世界のシナリオが見落とされています。このギャップに対処するために、Robust Incomplete Deep Attack Framework (RIDA) を導入します。
これは、不完全なグラフに対する堅牢なグレーボックス ポイズニング攻撃のための最初のアルゴリズムです。
このアプローチは、遠く離れた頂点情報を革新的に集約し、強力なデータ利用を保証します。 3 つの現実世界のデータセットでの 9 つの SOTA ベースラインに対する広範なテストにより、不完全なグラフに対する不完全性の処理と高い攻撃パフォーマンスにおける RIDA の優位性が実証されました。
要約(オリジナル)
Graph Neural Networks (GNNs) are vital in data science but are increasingly susceptible to adversarial attacks. To help researchers develop more robust GNN models, it’s essential to focus on designing strong attack models as foundational benchmarks and guiding references. Among adversarial attacks, gray-box poisoning attacks are noteworthy due to their effectiveness and fewer constraints. These attacks exploit GNNs’ need for retraining on updated data, thereby impacting their performance by perturbing these datasets. However, current research overlooks the real-world scenario of incomplete graphs.To address this gap, we introduce the Robust Incomplete Deep Attack Framework (RIDA). It is the first algorithm for robust gray-box poisoning attacks on incomplete graphs. The approach innovatively aggregates distant vertex information and ensures powerful data utilization.Extensive tests against 9 SOTA baselines on 3 real-world datasets demonstrate RIDA’s superiority in handling incompleteness and high attack performance on the incomplete graph.
arxiv情報
著者 | Jianke Yu,Hanchen Wang,Chen Chen,Xiaoyang Wang,Wenjie Zhang,Ying Zhang |
発行日 | 2024-07-25 16:33:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google