Learning Underrepresented Classes from Decentralized Partially Labeled Medical Images

要約

分散型データをフェデレーショントレーニングに使用することは、医療分野でのデータ不足を緩和するための有望な新しい研究の方向性の1つです。
ただし、一般的なオブジェクト認識タスクで一般的に見られる大規模な完全にラベル付けされたデータとは対照的に、ローカル医療データセットには、注釈コストが高いため、対象のクラスのサブセットに対して注釈が付けられた画像のみが含まれる可能性が高くなります。
このホワイトペーパーでは、過小評価されたクラスで使用可能なラベル付きインスタンスがほとんどなく、連合システムの少数のクライアントにしか存在しない、実用的でありながら十分に検討されていない問題について検討します。
標準の連合学習アプローチでは、極端なクラスの不均衡を伴う堅牢なマルチラベル分類器を学習できず、新しい連合学習フレームワークであるFedFewを提案することでそれに対処できることを示します。
FedFewは3つのステージで構成されており、最初のステージでは、フェデレーションされた自己監視学習を活用して、クラスにとらわれない表現を学習します。
第2段階では、分散型の部分的にラベル付けされたデータを利用して、共通クラスのエネルギーベースのマルチラベル分類器を学習します。
最後に、過小評価されたクラスがエネルギーに基づいて検出され、プロトタイプベースの最近傍モデルが数ショットのマッチングのために提案されます。
マルチラベル胸部疾患分類タスクでFedFewを評価し、フェデレーションベースラインを大幅に上回っていることを示します。

要約(オリジナル)

Using decentralized data for federated training is one promising emerging research direction for alleviating data scarcity in the medical domain. However, in contrast to large-scale fully labeled data commonly seen in general object recognition tasks, the local medical datasets are more likely to only have images annotated for a subset of classes of interest due to high annotation costs. In this paper, we consider a practical yet under-explored problem, where underrepresented classes only have few labeled instances available and only exist in a few clients of the federated system. We show that standard federated learning approaches fail to learn robust multi-label classifiers with extreme class imbalance and address it by proposing a novel federated learning framework, FedFew. FedFew consists of three stages, where the first stage leverages federated self-supervised learning to learn class-agnostic representations. In the second stage, the decentralized partially labeled data are exploited to learn an energy-based multi-label classifier for the common classes. Finally, the underrepresented classes are detected based on the energy and a prototype-based nearest-neighbor model is proposed for few-shot matching. We evaluate FedFew on multi-label thoracic disease classification tasks and demonstrate that it outperforms the federated baselines by a large margin.

arxiv情報

著者 Nanqing Dong,Michael Kampffmeyer,Irina Voiculescu
発行日 2022-06-30 15:28:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク