PPBFL: A Privacy Protected Blockchain-based Federated Learning Model

要約

機械学習の急速な発展とデータ プライバシーへの懸念の高まりに伴い、フェデレーテッド ラーニングが注目を集めています。
ただし、モデルのパラメーターに対する攻撃やインセンティブ メカニズムの欠如により、フェデレーテッド ラーニングの有効性が妨げられます。
したがって、フェデレーテッド ラーニングのセキュリティを強化し、モデル トレーニングへのノードの積極的な参加を促進するために、プライバシー保護されたブロックチェーン ベースのフェデレーテッド ラーニング モデル (PPBFL) を提案します。
ブロックチェーン テクノロジーは、InterPlanetary File System (IPFS) に保存されているモデル パラメーターの整合性を保証し、改ざんに対する保護を提供します。
ブロックチェーン内では、フェデレーテッド ラーニング向けに調整された Proof of Training Work (PoTW) コンセンサス アルゴリズムを導入し、トレーニング ノードにインセンティブを与えることを目指しています。
このアルゴリズムはノードに高い計算能力を与え、フェデレーション学習プロセスへの参加と努力の増加を促進します。
新しい適応型差分プライバシー アルゴリズムがローカル モデルとグローバル モデルに同時に適用されます。
これにより、クライアントのトレーニング時にローカル データのプライバシーが保護され、悪意のあるノードが推論攻撃を開始するのを防ぎます。
さらに、グローバル モデルのセキュリティが強化され、多数のローカル モデルの組み合わせによって生じる潜在的なセキュリティの低下を防ぎます。
セキュリティ低下の可能性は合成定理から導き出されます。
グローバル モデルにリバース ノイズを導入することにより、ローカル モデルとグローバル モデルの間の差分プライバシー ノイズのゼロバイアス推定が達成されます。
さらに、ローカルトレーニングクライアントのアイデンティティプライバシーをより適切に保護するために、リング署名テクノロジーを利用した新しいミックストランザクションメカニズムを提案します。
セキュリティ分析と実験結果は、ベースライン手法と比較して、PPBFL が優れたモデル パフォーマンスを示すだけでなく、より高いセキュリティを実現することを示しています。

要約(オリジナル)

With the rapid development of machine learning and a growing concern for data privacy, federated learning has become a focal point of attention. However, attacks on model parameters and a lack of incentive mechanisms hinder the effectiveness of federated learning. Therefore, we propose A Privacy Protected Blockchain-based Federated Learning Model (PPBFL) to enhance the security of federated learning and encourage active participation of nodes in model training. Blockchain technology ensures the integrity of model parameters stored in the InterPlanetary File System (IPFS), providing protection against tampering. Within the blockchain, we introduce a Proof of Training Work (PoTW) consensus algorithm tailored for federated learning, aiming to incentive training nodes. This algorithm rewards nodes with greater computational power, promoting increased participation and effort in the federated learning process. A novel adaptive differential privacy algorithm is simultaneously applied to local and global models. This safeguards the privacy of local data at training clients, preventing malicious nodes from launching inference attacks. Additionally, it enhances the security of the global model, preventing potential security degradation resulting from the combination of numerous local models. The possibility of security degradation is derived from the composition theorem. By introducing reverse noise in the global model, a zero-bias estimate of differential privacy noise between local and global models is achieved. Furthermore, we propose a new mix transactions mechanism utilizing ring signature technology to better protect the identity privacy of local training clients. Security analysis and experimental results demonstrate that PPBFL, compared to baseline methods, not only exhibits superior model performance but also achieves higher security.

arxiv情報

著者 Yang Li,Chunhe Xia,Wanshuang Lin,Tianbo Wang
発行日 2024-01-08 15:38:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR パーマリンク