FedMT: Federated Learning with Mixed-type Labels

要約

フェデレーション ラーニング (FL) では、複数のデータ センター間でデータを交換することなく、分類器 (ディープ ネットワークなど) が複数のデータ センターからのデータセットでトレーニングされるため、サンプル効率が向上します。
ただし、従来の FL 設定は、関係するすべてのデータセンターで同じラベル付け基準を想定しているため、実用性が制限されています。
この制限は、病気の診断などの分野で特に顕著になり、異なる臨床センターが異なる基準に従う可能性があり、従来の FL 法が不適切になる可能性があります。
この論文では、この重要でありながら十分に検討されていない FL の設定、つまり、異なるラベル付け基準を許容することでセンター間のラベル スペースの違いが生じる、混合タイプのラベルを持つ FL について取り上げます。
この課題に効果的かつ効率的に対処するために、ラベル空間の対応を推定し、分類スコアを予測して損失関数を構築する、FedMT と呼ばれるモデルに依存しないアプローチを導入します。
提案された FedMT は多用途であり、FedAvg などのさまざまな FL メソッドとシームレスに統合されます。
ベンチマークおよび医療データセットの実験結果は、混合タイプのラベルの存在下で FedMT によって達成される分類精度の大幅な向上を強調しています。

要約(オリジナル)

In federated learning (FL), classifiers (e.g., deep networks) are trained on datasets from multiple data centers without exchanging data across them, which improves the sample efficiency. However, the conventional FL setting assumes the same labeling criterion in all data centers involved, thus limiting its practical utility. This limitation becomes particularly notable in domains like disease diagnosis, where different clinical centers may adhere to different standards, making traditional FL methods unsuitable. This paper addresses this important yet under-explored setting of FL, namely FL with mixed-type labels, where the allowance of different labeling criteria introduces inter-center label space differences. To address this challenge effectively and efficiently, we introduce a model-agnostic approach called FedMT, which estimates label space correspondences and projects classification scores to construct loss functions. The proposed FedMT is versatile and integrates seamlessly with various FL methods, such as FedAvg. Experimental results on benchmark and medical datasets highlight the substantial improvement in classification accuracy achieved by FedMT in the presence of mixed-type labels.

arxiv情報

著者 Qiong Zhang,Jing Peng,Xin Zhang,Aline Talhouk,Gang Niu,Xiaoxiao Li
発行日 2024-02-15 16:58:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.DC, cs.LG パーマリンク