Addressing Imbalance for Class Incremental Learning in Medical Image Classification

要約

ディープ畳み込みニューラル ネットワークは、すべてのクラスのトレーニング サンプルが同時に利用可能であるという前提の下で、医療画像分類において大きな進歩を遂げました。
ただし、実際の医療シナリオでは、新しい病気について継続的に学習する必要があるという共通のニーズがあり、これが医療分野におけるクラス増分学習 (CIL) という新興分​​野につながっています。
通常、CIL は、新しいクラスでトレーニングされると、壊滅的な忘却に悩まされます。
この現象は主に古いクラスと新しいクラスの不均衡によって引き起こされますが、医療データセットの不均衡ではさらに困難になります。
この作業では、不均衡による悪影響を軽減するための 2 つのシンプルかつ効果的なプラグイン方法を紹介します。
まず、ロジット調整を通じて多数クラスへの分類器のバイアスを軽減するために、CIL バランスの取れた分類損失を提案します。
第二に、埋め込み空間におけるクラス間のオーバーラップを軽減するだけでなく、クラス内のコンパクト性も強制する分散マージン損失を提案します。
3 つのベンチマーク データセット (CCH5000、HAM10000、および EyePACS) に対する広範な実験により、この方法の有効性を評価します。
結果は、私たちのアプローチが最先端の方法よりも優れていることを示しています。

要約(オリジナル)

Deep convolutional neural networks have made significant breakthroughs in medical image classification, under the assumption that training samples from all classes are simultaneously available. However, in real-world medical scenarios, there’s a common need to continuously learn about new diseases, leading to the emerging field of class incremental learning (CIL) in the medical domain. Typically, CIL suffers from catastrophic forgetting when trained on new classes. This phenomenon is mainly caused by the imbalance between old and new classes, and it becomes even more challenging with imbalanced medical datasets. In this work, we introduce two simple yet effective plug-in methods to mitigate the adverse effects of the imbalance. First, we propose a CIL-balanced classification loss to mitigate the classifier bias toward majority classes via logit adjustment. Second, we propose a distribution margin loss that not only alleviates the inter-class overlap in embedding space but also enforces the intra-class compactness. We evaluate the effectiveness of our method with extensive experiments on three benchmark datasets (CCH5000, HAM10000, and EyePACS). The results demonstrate that our approach outperforms state-of-the-art methods.

arxiv情報

著者 Xuze Hao,Wenqian Ni,Xuhao Jiang,Weimin Tan,Bo Yan
発行日 2024-07-18 17:59:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク