Fair Federated Medical Image Segmentation via Client Contribution Estimation

要約

公平性を確保する方法は、フェデレーテッド ラーニング (FL) の重要なトピックです。
最近の研究では、貢献に基づいてクライアントに報酬を与える方法 (コラボレーションの公平性) と、クライアント間でパフォーマンスの均一性を達成する方法 (パフォーマンスの公平性) が調査されています。
いずれかで進歩を遂げたとしても、FL に参加するより多様なクライアントを関与させ、動機付けして高品質のグローバル モデルを導き出すためには、それらを一緒に検討することが重要であると私たちは主張します。
この作業では、両方のタイプの公平性を同時に最適化する新しい方法を提案します。
具体的には、勾配とデータ空間におけるクライアントの貢献を推定することを提案します。
勾配空間では、各クライアントの勾配方向の違いを他のクライアントと比較して監視します。
データ空間では、補助モデルを使用してクライアント データの予測誤差を測定します。
この貢献度推定に基づいて、貢献度推定 (FedCE) を介したフェデレーテッド トレーニング、つまりグローバル モデル集約重みとして推定値を使用する FL メソッドを提案します。
この方法を理論的に分析し、2 つの現実世界の医療データセットで経験的に評価しました。
私たちのアプローチの有効性は、パフォーマンスの大幅な改善、コラボレーションの公平性の向上、パフォーマンスの公平性の向上、および包括的な分析研究によって検証されています。

要約(オリジナル)

How to ensure fairness is an important topic in federated learning (FL). Recent studies have investigated how to reward clients based on their contribution (collaboration fairness), and how to achieve uniformity of performance across clients (performance fairness). Despite achieving progress on either one, we argue that it is critical to consider them together, in order to engage and motivate more diverse clients joining FL to derive a high-quality global model. In this work, we propose a novel method to optimize both types of fairness simultaneously. Specifically, we propose to estimate client contribution in gradient and data space. In gradient space, we monitor the gradient direction differences of each client with respect to others. And in data space, we measure the prediction error on client data using an auxiliary model. Based on this contribution estimation, we propose a FL method, federated training via contribution estimation (FedCE), i.e., using estimation as global model aggregation weights. We have theoretically analyzed our method and empirically evaluated it on two real-world medical datasets. The effectiveness of our approach has been validated with significant performance improvements, better collaboration fairness, better performance fairness, and comprehensive analytical studies.

arxiv情報

著者 Meirui Jiang,Holger R Roth,Wenqi Li,Dong Yang,Can Zhao,Vishwesh Nath,Daguang Xu,Qi Dou,Ziyue Xu
発行日 2023-03-29 08:21:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク