要約
このペーパーでは、Federated Learning (FL) における敵対的攻撃と対応する防御メカニズムをシミュレートするために設計されたベンチマークである FedMLSecurity を紹介します。
FL アルゴリズムの開発とパフォーマンス比較を容易にするオープンソース ライブラリ FedML の統合モジュールとして、FedMLSecurity は FL のセキュリティ問題と潜在的な救済策を評価する FedML の機能を強化します。
FedMLSecurity は 2 つの主要なコンポーネントで構成されます。1 つは FL トレーニング中に挿入される攻撃をシミュレートする FedML Attacker、もう 1 つは攻撃の影響を軽減する防御メカニズムをシミュレートする FedMLDefender です。
FedMLSecurity はオープンソースであり、幅広い機械学習モデル (ロジスティック回帰、ResNet、GAN など) やフェデレーテッド オプティマイザー (FedAVG、FedOPT、FedNOVA など) に合わせてカスタマイズできます。
FedMLSecurity は大規模言語モデル (LLM) にも簡単に適用でき、さまざまなシナリオでの適応性と適用性を実証します。
要約(オリジナル)
This paper introduces FedMLSecurity, a benchmark designed to simulate adversarial attacks and corresponding defense mechanisms in Federated Learning (FL). As an integral module of the open-sourced library FedML that facilitates FL algorithm development and performance comparison, FedMLSecurity enhances FedML’s capabilities to evaluate security issues and potential remedies in FL. FedMLSecurity comprises two major components: FedMLAttacker that simulates attacks injected during FL training, and FedMLDefender that simulates defensive mechanisms to mitigate the impacts of the attacks. FedMLSecurity is open-sourced and can be customized to a wide range of machine learning models (e.g., Logistic Regression, ResNet, GAN, etc.) and federated optimizers (e.g., FedAVG, FedOPT, FedNOVA, etc.). FedMLSecurity can also be applied to Large Language Models (LLMs) easily, demonstrating its adaptability and applicability in various scenarios.
arxiv情報
著者 | Shanshan Han,Baturalp Buyukates,Zijian Hu,Han Jin,Weizhao Jin,Lichao Sun,Xiaoyang Wang,Wenxuan Wu,Chulin Xie,Yuhang Yao,Kai Zhang,Qifan Zhang,Yuhui Zhang,Salman Avestimehr,Chaoyang He |
発行日 | 2023-10-06 07:58:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google