Embedding Byzantine Fault Tolerance into Federated Learning via Virtual Data-Driven Consistency Scoring Plugin

要約

複数のエッジ デバイスから十分なデータが得られると、フェデレーテッド ラーニング (FL) を使用すると、プライベート データを中央サーバーに送信せずに共有モデルをトレーニングできます。
ただし、FL は一般に、侵害されたエッジ デバイスからのビザンチン攻撃に対して脆弱であり、モデルのパフォーマンスが大幅に低下する可能性があります。
このペーパーでは、ビザンチン復元力を実現するために既存の FL 技術に統合できる直感的なプラグインを提案します。
重要なアイデアは、仮想データ サンプルを生成し、ローカル更新全体でモデルの一貫性スコアを評価して、侵害されたエッジ デバイスを効果的に除外することです。
提案されたプラグインは、集約フェーズの前にこのスコアリング メカニズムを利用することにより、既存の FL 技術を元の利点を維持しながらビザンチン攻撃に対して堅牢にすることができます。
医用画像分類タスクの数値結果は、提案されたアプローチを代表的な FL アルゴリズムに組み込むことでビザンチン回復力を効果的に達成できることを検証します。
さらに、提案されたプラグインは、ビザンチン攻撃が存在しない場合、基本 FL アルゴリズムの元の収束特性を維持します。

要約(オリジナル)

Given sufficient data from multiple edge devices, federated learning (FL) enables training a shared model without transmitting private data to a central server. However, FL is generally vulnerable to Byzantine attacks from compromised edge devices, which can significantly degrade the model performance. In this paper, we propose a intuitive plugin that can be integrated into existing FL techniques to achieve Byzantine-Resilience. Key idea is to generate virtual data samples and evaluate model consistency scores across local updates to effectively filter out compromised edge devices. By utilizing this scoring mechanism before the aggregation phase, the proposed plugin enables existing FL techniques to become robust against Byzantine attacks while maintaining their original benefits. Numerical results on medical image classification task validate that plugging the proposed approach into representative FL algorithms, effectively achieves Byzantine resilience. Furthermore, the proposed plugin maintains the original convergence properties of the base FL algorithms when no Byzantine attacks are present.

arxiv情報

著者 Youngjoon Lee,Jinu Gong,Joonhyuk Kang
発行日 2024-11-15 14:17:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク