要約
機械学習の急速な発展とデータプライバシーへの懸念の高まりに伴い、フェデレーテッドラーニングがますます注目を集めるようになりました。
ただし、モデル パラメーターへの攻撃やインセンティブ メカニズムの欠如などの課題が、フェデレーテッド ラーニングの有効性を妨げています。
したがって、フェデレーテッド ラーニングのセキュリティを強化し、モデル トレーニングへのノードの積極的な参加を促進するために、プライバシー保護されたブロックチェーン ベースのフェデレーテッド ラーニング モデル (PPBFL) を提案します。
ブロックチェーンにより、InterPlanetary File System (IPFS) に保存されたモデル パラメーターが変更されないことが保証されます。
新しい適応差分プライバシー追加アルゴリズムがローカル モデルとグローバル モデルに同時に適用され、ローカル モデルのプライバシーを保護し、フェデレーテッド ラーニングにおける多数のローカル モデルの存在によるグローバル モデルのセキュリティの低下を防ぎます。
さらに、ローカル トレーニング クライアントの ID プライバシーをより適切に保護するために、新しいミックス トランザクション メカニズムを導入します。
セキュリティ分析と実験結果は、PPBFL がモデルのパフォーマンスとセキュリティの両方においてベースライン手法よりも優れていることを示しています。
要約(オリジナル)
With the rapid development of machine learning and growing concerns about data privacy, federated learning has become an increasingly prominent focus. However, challenges such as attacks on model parameters and the lack of incentive mechanisms hinder the effectiveness of federated learning. Therefore, we propose a Privacy Protected Blockchain-based Federated Learning Model (PPBFL) to enhance the security of federated learning and promote the active participation of nodes in model training. Blockchain ensures that model parameters stored in the InterPlanetary File System (IPFS) remain unaltered. A novel adaptive differential privacy addition algorithm is simultaneously applied to local and global models, preserving the privacy of local models and preventing a decrease in the security of the global model due to the presence of numerous local models in federated learning. Additionally, we introduce a new mix transactions mechanism to better protect the identity privacy of local training clients. Security analysis and experimental results demonstrate that PPBFL outperforms baseline methods in both model performance and security.
arxiv情報
著者 | Yang Li,Chunhe Xia,Wanshuang Lin,Tianbo Wang |
発行日 | 2024-01-02 13:13:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google