Federated Model Aggregation via Self-Supervised Priors for Highly Imbalanced Medical Image Classification

要約

医療分野では、フェデレーション ラーニングは通常、皮膚病変や胃腸の画像など、非常に不均衡なデータセットを処理します。
非常に不均衡なデータセットの下での既存のフェデレーション手法は、母集団、所見、スキャナーの違いによって医療画像処理で発生する可能性のあるクラス内変動を組み込むことなく、グローバル モデルを最適化することに主に焦点を当てています。
この論文では、公的に利用可能な自己監視型補助ネットワークを使用して、クライアント間のクラス内変動を研究します。
具体的には、MoCo-V2 のような共有補助事前トレーニング済みモデルをすべてのクライアントでローカルに採用すると、一貫した発散測定が得られることがわかりました。
これらの発見に基づいて、自己教師あり事前分布 (MAS) を介して動的にバランスの取れたモデルの集約を導き出し、グローバル モデルの最適化を導きます。
Fed-MAS は、高度に堅牢で偏りのないグローバル モデルに向けた効果的なモデル集約のために、さまざまなローカル学習方法と併用できます。
私たちのコードは \url{https://github.com/xmed-lab/Fed-MAS} で入手できます。

要約(オリジナル)

In the medical field, federated learning commonly deals with highly imbalanced datasets, including skin lesions and gastrointestinal images. Existing federated methods under highly imbalanced datasets primarily focus on optimizing a global model without incorporating the intra-class variations that can arise in medical imaging due to different populations, findings, and scanners. In this paper, we study the inter-client intra-class variations with publicly available self-supervised auxiliary networks. Specifically, we find that employing a shared auxiliary pre-trained model, like MoCo-V2, locally on every client yields consistent divergence measurements. Based on these findings, we derive a dynamic balanced model aggregation via self-supervised priors (MAS) to guide the global model optimization. Fed-MAS can be utilized with different local learning methods for effective model aggregation toward a highly robust and unbiased global model. Our code is available at \url{https://github.com/xmed-lab/Fed-MAS}.

arxiv情報

著者 Marawan Elbatel,Hualiang Wang,Robert Martí,Huazhu Fu,Xiaomeng Li
発行日 2023-07-27 15:52:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク