A Huber Loss Minimization Approach to Byzantine Robust Federated Learning

要約

フェデレーテッド ラーニング システムは敵対的な攻撃を受けやすいです。
これに対抗するために、Huber 損失の最小化に基づいた新しいアグリゲーターを導入し、包括的な理論分析を提供します。
独立かつ同一分散 (i.i.d) の仮定の下では、私たちのアプローチには既存の方法と比較していくつかの利点があります。
まず、攻撃されたクライアントの比率を表す $\epsilon$ に最適に依存します。
第二に、私たちのアプローチには $\epsilon$ の正確な知識は必要ありません。
第三に、異なるクライアントのデータ サイズが等しくない可能性があります。
次に、クライアントの分布がわずかに異なるなど、非 i.i.d データを含めるように分析を広げます。

要約(オリジナル)

Federated learning systems are susceptible to adversarial attacks. To combat this, we introduce a novel aggregator based on Huber loss minimization, and provide a comprehensive theoretical analysis. Under independent and identically distributed (i.i.d) assumption, our approach has several advantages compared to existing methods. Firstly, it has optimal dependence on $\epsilon$, which stands for the ratio of attacked clients. Secondly, our approach does not need precise knowledge of $\epsilon$. Thirdly, it allows different clients to have unequal data sizes. We then broaden our analysis to include non-i.i.d data, such that clients have slightly different distributions.

arxiv情報

著者 Puning Zhao,Fei Yu,Zhiguo Wan
発行日 2024-03-25 11:58:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク