要約
Federated Graph Neural Network (FedGNN) は、フェデレーテッド ラーニング (FL) をグラフ ニューラル ネットワーク (GNN) と統合し、分散グラフ データに対するプライバシー保護トレーニングを可能にします。
FedGNN の主要なブランチである垂直フェデレーテッド グラフ ニューラル ネットワーク (VFGNN) は、データの特徴とラベルが参加者間で分散されるシナリオを処理します。
VFGNN は堅牢なプライバシー保護設計にもかかわらず、ラベルにアクセスできない状況であっても、依然としてバックドア攻撃のリスクに直面していることがわかりました。
この論文では、マルチホップ トリガーとバックドア リテンションを利用する新しいバックドア攻撃手法である BVG を提案します。BVG は、効果的な攻撃を実行するために必要なターゲット クラスのノードが 4 つだけです。
実験結果は、BVG が主なタスクの精度への影響を最小限に抑えながら、一般的に使用される 3 つのデータセットと 3 つの GNN モデルにわたってほぼ 100% の攻撃成功率を達成していることを示しています。
また、さまざまな防御手法も評価しましたが、BVG手法は既存の防御下でも高い攻撃効果を維持しました。
この発見は、実際の VFGNN アプリケーションにおける高度なバックドア攻撃に対抗するための高度な防御メカニズムの必要性を浮き彫りにしています。
要約(オリジナル)
Federated Graph Neural Network (FedGNN) integrate federated learning (FL) with graph neural networks (GNNs) to enable privacy-preserving training on distributed graph data. Vertical Federated Graph Neural Network (VFGNN), a key branch of FedGNN, handles scenarios where data features and labels are distributed among participants. Despite the robust privacy-preserving design of VFGNN, we have found that it still faces the risk of backdoor attacks, even in situations where labels are inaccessible. This paper proposes BVG, a novel backdoor attack method that leverages multi-hop triggers and backdoor retention, requiring only four target-class nodes to execute effective attacks. Experimental results demonstrate that BVG achieves nearly 100% attack success rates across three commonly used datasets and three GNN models, with minimal impact on the main task accuracy. We also evaluated various defense methods, and the BVG method maintained high attack effectiveness even under existing defenses. This finding highlights the need for advanced defense mechanisms to counter sophisticated backdoor attacks in practical VFGNN applications.
arxiv情報
著者 | Jirui Yang,Peng Chen,Zhihui Lu,Ruijun Deng,Qiang Duan,Jianping Zeng |
発行日 | 2025-01-24 14:13:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google