要約
フェデレーテッド ラーニング システムは敵対的な攻撃を受けやすいです。
これに対抗するために、Huber 損失の最小化に基づいた新しいアグリゲーターを導入し、包括的な理論分析を提供します。
独立かつ同一分散 (i.i.d) の仮定の下では、私たちのアプローチには既存の方法と比較していくつかの利点があります。
まず、攻撃されたクライアントの比率を表す $\epsilon$ に最適に依存します。
第二に、私たちのアプローチには $\epsilon$ の正確な知識は必要ありません。
第三に、異なるクライアントのデータ サイズが等しくない可能性があります。
次に、クライアントの分布がわずかに異なるなど、非 i.i.d データを含めるように分析を広げます。
要約(オリジナル)
Federated learning systems are susceptible to adversarial attacks. To combat this, we introduce a novel aggregator based on Huber loss minimization, and provide a comprehensive theoretical analysis. Under independent and identically distributed (i.i.d) assumption, our approach has several advantages compared to existing methods. Firstly, it has optimal dependence on $\epsilon$, which stands for the ratio of attacked clients. Secondly, our approach does not need precise knowledge of $\epsilon$. Thirdly, it allows different clients to have unequal data sizes. We then broaden our analysis to include non-i.i.d data, such that clients have slightly different distributions.
arxiv情報
著者 | Puning Zhao,Fei Yu,Zhiguo Wan |
発行日 | 2024-03-25 11:58:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google