要約
Federated Learning(FL)は、ローカルデータのプライバシーを保持しながら、分散デバイス間で協調的なモデル学習を可能にし、モバイルシステムや組み込みシステムに理想的です。しかし、FLは分散型であるため、モデルポイズニング攻撃、特にトリガーパターンを埋め込んでモデル予測を操作するバックドア攻撃に対する脆弱性がある。本論文では、スケーラブルで効率的なバックドアに頑健な連合学習フレームワークであるDeTriggerを提案する。温度スケーリングによる勾配分析を採用することで、DeTriggerはバックドア・トリガーを検出し分離することで、良性のモデル知識を犠牲にすることなく、バックドア活性化の正確なモデル重みの刈り込みを可能にする。広く使用されている4つのデータセットにわたる広範な評価により、DeTriggerは従来の手法よりも最大251倍高速な検出を達成し、グローバルモデルの精度への影響を最小限に抑えながら、バックドア攻撃を最大98.9%軽減することが実証されています。我々の発見は、DeTriggerが、高度なバックドア脅威から連携学習環境を保護するための堅牢でスケーラブルなソリューションであることを立証している。
要約(オリジナル)
Federated Learning (FL) enables collaborative model training across distributed devices while preserving local data privacy, making it ideal for mobile and embedded systems. However, the decentralized nature of FL also opens vulnerabilities to model poisoning attacks, particularly backdoor attacks, where adversaries implant trigger patterns to manipulate model predictions. In this paper, we propose DeTrigger, a scalable and efficient backdoor-robust federated learning framework that leverages insights from adversarial attack methodologies. By employing gradient analysis with temperature scaling, DeTrigger detects and isolates backdoor triggers, allowing for precise model weight pruning of backdoor activations without sacrificing benign model knowledge. Extensive evaluations across four widely used datasets demonstrate that DeTrigger achieves up to 251x faster detection than traditional methods and mitigates backdoor attacks by up to 98.9%, with minimal impact on global model accuracy. Our findings establish DeTrigger as a robust and scalable solution to protect federated learning environments against sophisticated backdoor threats.
arxiv情報
著者 | Kichang Lee,Yujin Shin,Jonghyuk Yun,Songkuk Kim,Jun Han,JeongGil Ko |
発行日 | 2025-02-03 16:20:25+00:00 |
arxivサイト | arxiv_id(pdf) |