Framework for Co-distillation Driven Federated Learning to Address Class Imbalance in Healthcare

要約

Federated Learning (FL) は、分散機械学習における先駆的なアプローチであり、データのプライバシーを維持しながら、複数のクライアント間での協調的なモデル トレーニングを可能にします。
ただし、複数のクライアントにわたるリソース表現の不均衡による固有の異質性は、重大な課題を引き起こし、多くの場合、多数派のクラスに対する偏見をもたらします。
この問題は、クライアントとして病院が医療画像を共有する医療現場で特に顕著です。
クラスの不均衡に対処し、偏見を減らすために、私たちは連合医療環境における共蒸留主導のフレームワークを提案します。
指定されたサーバークライアントを使用した従来のフェデレーテッドセットアップとは異なり、当社のフレームワークはクライアント間の知識共有を促進し、共同して学習成果を向上させます。
私たちの実験は、フェデレーテッド・ヘルスケア環境において、共蒸留がクラスの不均衡を処理する際に他のフェデレーテッド・メソッドよりも優れていることを示しています。
さらに、私たちのフレームワークは他のベースラインを上回りながら、不均衡の増加に対して標準偏差が最小であることを実証し、医療における FL に対する私たちのフレームワークの堅牢性を示しています。

要約(オリジナル)

Federated Learning (FL) is a pioneering approach in distributed machine learning, enabling collaborative model training across multiple clients while retaining data privacy. However, the inherent heterogeneity due to imbalanced resource representations across multiple clients poses significant challenges, often introducing bias towards the majority class. This issue is particularly prevalent in healthcare settings, where hospitals acting as clients share medical images. To address class imbalance and reduce bias, we propose a co-distillation driven framework in a federated healthcare setting. Unlike traditional federated setups with a designated server client, our framework promotes knowledge sharing among clients to collectively improve learning outcomes. Our experiments demonstrate that in a federated healthcare setting, co-distillation outperforms other federated methods in handling class imbalance. Additionally, we demonstrate that our framework has the least standard deviation with increasing imbalance while outperforming other baselines, signifying the robustness of our framework for FL in healthcare.

arxiv情報

著者 Suraj Racha,Shubh Gupta,Humaira Firdowse,Aastik Solanki,Ganesh Ramakrishnan,Kshitij S. Jadhav
発行日 2024-11-15 17:46:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク