Attacks on fairness in Federated Learning

要約

Federated Learning は、クライアント上でデータを非公開に保つ、重要な新たな分散トレーニング パラダイムです。
FL クライアントの小さなサブセットのみを制御することで、特定の属性が存在する場合にフェデレーテッド ラーニング モデルにバックドアを導入できることがよく理解されています。
このペーパーでは、トレーニングされたモデルの公平性を損なう新しいタイプの攻撃を紹介します。
公平性は、トレーニングされたモデルの属性レベルのパフォーマンス分布であると理解されています。
これは、たとえば部分母集団間の精度の偏った区別が悲惨な結果をもたらす可能性がある領域で特に顕著です。
バックドア攻撃と同様の脅威モデルを採用することで、攻撃者は集約モデルに影響を与え、特定の属性セット間で不公平なパフォーマンス分布を持たせることができることがわかりました。
さらに、この攻撃は単一のクライアントを制御するだけで可能であることがわかりました。
フロリダ州で自然に引き起こされた不公平との戦いはこれまでに詳しく議論されてきたが、人為的に引き起こされた不公平については無視されてきた。
トレーニングされたモデルの不公平性がトレーニングに参加したユーザーに利益をもたらす可能性があるあらゆる状況において、公平性に対する攻撃に対する防御が重要な考慮事項である必要があることを示します。

要約(オリジナル)

Federated Learning is an important emerging distributed training paradigm that keeps data private on clients. It is now well understood that by controlling only a small subset of FL clients, it is possible to introduce a backdoor to a federated learning model, in the presence of certain attributes. In this paper, we present a new type of attack that compromises the fairness of the trained model. Fairness is understood to be the attribute-level performance distribution of a trained model. It is particularly salient in domains where, for example, skewed accuracy discrimination between subpopulations could have disastrous consequences. We find that by employing a threat model similar to that of a backdoor attack, an attacker is able to influence the aggregated model to have an unfair performance distribution between any given set of attributes. Furthermore, we find that this attack is possible by controlling only a single client. While combating naturally induced unfairness in FL has previously been discussed in depth, its artificially induced kind has been neglected. We show that defending against attacks on fairness should be a critical consideration in any situation where unfairness in a trained model could benefit a user who participated in its training.

arxiv情報

著者 Joseph Rance,Filip Svoboda
発行日 2024-07-26 14:08:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク