要約
医療アプリケーションでの連邦学習の可能性にもかかわらず、機関全体で一貫性のないイメージングの品質 – 少数のクライアントバイアスのフェデレーションモデルからのより一般的な高品質の画像への低品質のデータからです。
これは、重大な公平性の懸念を引き起こします。
既存の公正な連合学習方法は、単一の0番目または1次収束状態(トレーニング損失やシャープネスなど)を整列させることにより、この問題を解決する際にある程度の有効性を実証しています。
ただし、この作業では、このような単一の状態に基づいた公平性は、テスト中の公平性の適切な代理ではないと主張しています。これらの単一のメトリックが収束特性を完全にキャプチャできず、公正な学習を導くために最適であると主張しています。
この制限に対処するために、一般化されたフレームワークを開発します。
具体的には、さまざまな検索距離で計算されたシャープネスまたは摂動損失として定義された複数の状態を使用して収束を評価することを提案します。
この包括的な評価に基づいて、私たちは、クライアント全体のこれらの州の公平性を促進するために、私たちの究極の公平性の目的を達成することを提案します。
これは、提案された方法であるFedism+を通じて達成されます。
Fedism+では、検索距離は時間とともに進化し、さまざまな状態に徐々に焦点を当てています。
次に、地元のトレーニングとグローバルな集約に2つのコンポーネントを組み込み、各州のクロスクライアントの公平性を確保します。
これにより、徐々にすべての状態で収束が公平になり、テスト中の公平性が向上します。
よく知られているRSNA ICHおよびISIC 2019データセットで実行された私たちの経験的評価は、公正な連邦学習のための既存の最先端の方法に対するFedism+の優位性を示しています。
このコードは、https://github.com/wnn2000/ffl4miaで入手できます。
要約(オリジナル)
Despite the potential of federated learning in medical applications, inconsistent imaging quality across institutions-stemming from lower-quality data from a minority of clients-biases federated models toward more common high-quality images. This raises significant fairness concerns. Existing fair federated learning methods have demonstrated some effectiveness in solving this problem by aligning a single 0th- or 1st-order state of convergence (e.g., training loss or sharpness). However, we argue in this work that fairness based on such a single state is still not an adequate surrogate for fairness during testing, as these single metrics fail to fully capture the convergence characteristics, making them suboptimal for guiding fair learning. To address this limitation, we develop a generalized framework. Specifically, we propose assessing convergence using multiple states, defined as sharpness or perturbed loss computed at varying search distances. Building on this comprehensive assessment, we propose promoting fairness for these states across clients to achieve our ultimate fairness objective. This is accomplished through the proposed method, FedISM+. In FedISM+, the search distance evolves over time, progressively focusing on different states. We then incorporate two components in local training and global aggregation to ensure cross-client fairness for each state. This gradually makes convergence equitable for all states, thereby improving fairness during testing. Our empirical evaluations, performed on the well-known RSNA ICH and ISIC 2019 datasets, demonstrate the superiority of FedISM+ over existing state-of-the-art methods for fair federated learning. The code is available at https://github.com/wnn2000/FFL4MIA.
arxiv情報
著者 | Nannan Wu,Zhuo Kuang,Zengqiang Yan,Ping Wang,Li Yu |
発行日 | 2025-03-12 17:56:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google