Defending Against Poisoning Attacks in Federated Learning with Blockchain

要約

ディープラーニングの時代において、フェデレーテッド ラーニング (FL) は、複数の機関のデータ所有者またはクライアントが、データのプライバシーを損なうことなく機械学習モデルを共同でトレーニングできる有望なアプローチを提供します。
ただし、既存の FL アプローチのほとんどは、グローバル モデルの集約を集中サーバーに依存しているため、単一障害点が発生します。
これにより、不正なクライアントを扱う際にシステムが悪意のある攻撃に対して脆弱になります。
この研究では、ブロックチェーンと分散台帳技術に基づいた安全で信頼性の高い FL システムを提案することで、この問題に対処します。
当社のシステムには、オンチェーン スマート コントラクトを活用したピアツーピア投票メカニズムとリワード アンド スラッシュ メカニズムが組み込まれており、悪意のある行為を検出して阻止します。
理論的分析と実証的分析の両方が、提案されたアプローチの有効性を実証するために提示され、私たちのフレームワークが悪意のあるクライアント側の動作に対して堅牢であることを示しています。

要約(オリジナル)

In the era of deep learning, federated learning (FL) presents a promising approach that allows multi-institutional data owners, or clients, to collaboratively train machine learning models without compromising data privacy. However, most existing FL approaches rely on a centralized server for global model aggregation, leading to a single point of failure. This makes the system vulnerable to malicious attacks when dealing with dishonest clients. In this work, we address this problem by proposing a secure and reliable FL system based on blockchain and distributed ledger technology. Our system incorporates a peer-to-peer voting mechanism and a reward-and-slash mechanism, which are powered by on-chain smart contracts, to detect and deter malicious behaviors. Both theoretical and empirical analyses are presented to demonstrate the effectiveness of the proposed approach, showing that our framework is robust against malicious client-side behaviors.

arxiv情報

著者 Nanqing Dong,Zhipeng Wang,Jiahao Sun,Michael Kampffmeyer,William Knottenbelt,Eric Xing
発行日 2024-03-12 13:44:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.GT, cs.LG パーマリンク