Fairness-Aware Client Selection for Federated Learning

要約

フェデレーテッド ラーニング (FL) により、複数のデータ所有者 (別名 FL クライアント) がプライベート データを明らかにすることなく機械学習モデルを共同でトレーニングできるようになります。
FL サーバーは各トレーニング ラウンドで限られた数のクライアントしか関与できないため、FL クライアントの選択は重要な研究課題となっています。
既存のアプローチは一般に、FL モデルのパフォーマンスを強化するか、FL クライアントの公正な扱いを強化することに重点を置いています。
FL クライアントを選択する際のパフォーマンスと公平性の考慮事項のバランスの問題は依然として解決されていません。
この問題に対処するために、Fairness-aware Federated Client Selection (FairFedCS) アプローチを提案します。
Lyapunov 最適化に基づいて、FL クライアントの評判、FL タスクへの参加時間、結果として得られるモデルのパフォーマンスへの寄与を共同考慮することで、FL クライアントの選択確率を動的に調整します。
しきい値ベースの評判フィルタリングを使用しないことにより、フロリダ州のクライアントに、パフォーマンスが悪いと認識された後に評判を取り戻す機会を提供し、それによって公平なクライアントの扱いをさらに強化します。
現実世界のマルチメディア データセットに基づく広範な実験により、FairFedCS は最もパフォーマンスの高い最先端のアプローチよりも平均で 19.6% 高い公平性と 0.73% 高いテスト精度を達成していることが示されています。

要約(オリジナル)

Federated learning (FL) has enabled multiple data owners (a.k.a. FL clients) to train machine learning models collaboratively without revealing private data. Since the FL server can only engage a limited number of clients in each training round, FL client selection has become an important research problem. Existing approaches generally focus on either enhancing FL model performance or enhancing the fair treatment of FL clients. The problem of balancing performance and fairness considerations when selecting FL clients remains open. To address this problem, we propose the Fairness-aware Federated Client Selection (FairFedCS) approach. Based on Lyapunov optimization, it dynamically adjusts FL clients’ selection probabilities by jointly considering their reputations, times of participation in FL tasks and contributions to the resulting model performance. By not using threshold-based reputation filtering, it provides FL clients with opportunities to redeem their reputations after a perceived poor performance, thereby further enhancing fair client treatment. Extensive experiments based on real-world multimedia datasets show that FairFedCS achieves 19.6% higher fairness and 0.73% higher test accuracy on average than the best-performing state-of-the-art approach.

arxiv情報

著者 Yuxin Shi,Zelei Liu,Zhuan Shi,Han Yu
発行日 2023-07-20 10:04:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.DC, cs.LG パーマリンク