要約
Federated学習は、生データを共有することなく分散化されたモデル学習を可能にし、データのプライバシーを保護する。しかし、悪意のあるクライアントによる勾配反転やモデルポイズニングなど、重要なセキュリティ脅威に対する脆弱性は未解決のままである。既存のソリューションは、これらの問題に個別に対処することが多く、システムの堅牢性やモデルの精度を犠牲にしている。本研究では、この2つの課題を同時に解決する、安全で効率的な連合学習フレームワークであるTazzaを紹介する。Tazzaは、ウェイトシャッフリングとシャッフルモデル検証によってニューラルネットワークの順列等価性と不変性の特性を活用することで、データの機密性と高いモデル精度を確保しつつ、多様なポイズニング攻撃に対する耐性を強化する。様々なデータセットと組込みプラットフォームで包括的な評価を行った結果、Tazzaは性能を損なうことなく、代替スキームと比較して計算効率を最大6.7倍改善し、強固な防御を実現することが示されました。
要約(オリジナル)
Federated learning enables decentralized model training without sharing raw data, preserving data privacy. However, its vulnerability towards critical security threats, such as gradient inversion and model poisoning by malicious clients, remain unresolved. Existing solutions often address these issues separately, sacrificing either system robustness or model accuracy. This work introduces Tazza, a secure and efficient federated learning framework that simultaneously addresses both challenges. By leveraging the permutation equivariance and invariance properties of neural networks via weight shuffling and shuffled model validation, Tazza enhances resilience against diverse poisoning attacks, while ensuring data confidentiality and high model accuracy. Comprehensive evaluations on various datasets and embedded platforms show that Tazza achieves robust defense with up to 6.7x improved computational efficiency compared to alternative schemes, without compromising performance.
arxiv情報
著者 | Kichang Lee,Jaeho Jin,JaeYeon Park,Songkuk Kim,JeongGil Ko |
発行日 | 2025-02-03 17:23:32+00:00 |
arxivサイト | arxiv_id(pdf) |