Sparsification Under Siege: Defending Against Poisoning Attacks in Communication-Efficient Federated Learning

要約

Federated Learning(FL)は、データプライバシーを維持しながら、分散クライアント全体で共同モデルトレーニングを可能にしますが、コミュニケーション効率と中毒攻撃に対する脆弱性における重要な課題に直面しています。
スパース化手法では、重要なモデルパラメーターのみを送信することで通信を緩和しますが、セキュリティリスクを誤って増幅します。敵対的なクライアントは、まばらな更新を悪用して検出を回避し、モデルのパフォーマンスを低下させることができます。
標準のFL通信シナリオ向けに設計された既存の防御メカニズムは、Sparsified FL内のこれらの脆弱性に対処するのに効果がありません。
このギャップを埋めるために、スパースインデックスマスク検査とモデルの更新標識類似性分析を統合する新しいフェデレーション学習フレームワークであるフレアを提案し、Sparsified FLの中毒攻撃を検出および軽減します。
複数のデータセットと敵対的なシナリオにわたる広範な実験は、フレアが既存の防衛戦略を大幅に上回り、コミュニケーション効率を維持しながら中毒攻撃に対してスパース化されたFLを効果的に確保することを示しています。

要約(オリジナル)

Federated Learning (FL) enables collaborative model training across distributed clients while preserving data privacy, yet it faces significant challenges in communication efficiency and vulnerability to poisoning attacks. While sparsification techniques mitigate communication overhead by transmitting only critical model parameters, they inadvertently amplify security risks: adversarial clients can exploit sparse updates to evade detection and degrade model performance. Existing defense mechanisms, designed for standard FL communication scenarios, are ineffective in addressing these vulnerabilities within sparsified FL. To bridge this gap, we propose FLARE, a novel federated learning framework that integrates sparse index mask inspection and model update sign similarity analysis to detect and mitigate poisoning attacks in sparsified FL. Extensive experiments across multiple datasets and adversarial scenarios demonstrate that FLARE significantly outperforms existing defense strategies, effectively securing sparsified FL against poisoning attacks while maintaining communication efficiency.

arxiv情報

著者 Zhiyong Jin,Runhua Xu,Chao Li,Yizhong Liu,Jianxin Li
発行日 2025-05-09 13:27:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク