NVUM: Non-Volatile Unbiased Memory for Robust Medical Image Classification

要約

実世界の大規模医用画像解析(MIA)データセットには、3つの課題がある。1) ノイズの多いラベル付けされたサンプルを含み、学習の収束と一般化に影響を与える、2) 通常クラス毎のサンプルの分布が不均衡である、3) サンプルが複数の診断を持つことがある、通常マルチラベル問題から構成される、である。現在のアプローチは、これらの問題のサブセットを解決するために一般的に訓練されているが、我々は3つの問題を同時に解決する方法を知らない。本論文では、ノイズの多いマルチラベル問題に対する新しい正則化損失に対するモデルのロジットの実行平均を不揮発的に保存する、不揮発性不偏メモリ(NVUM)と呼ばれる新しい学習モジュールを提案する。さらに、不均衡な学習問題に対して、NVUMの更新で分類予測に偏りを持たせる。本論文で提案するベンチマークでは、Chest-Xray14とCheXpertで形成されるノイズの多いマルチラベルの不均衡な胸部X線(CXR)学習セットで学習を行い、クリーンなマルチラベルCXRデータセットOpenIとPadChestでテストを実施し、NVUMの評価のために大規模実験を実施した。本手法は、全ての評価において、従来の最新鋭のCXR分類器や、ノイズの多いラベルを扱える従来の手法を凌駕している。我々のコードは https://github.com/FBLADL/NVUM で公開されている。

要約(オリジナル)

Real-world large-scale medical image analysis (MIA) datasets have three challenges: 1) they contain noisy-labelled samples that affect training convergence and generalisation, 2) they usually have an imbalanced distribution of samples per class, and 3) they normally comprise a multi-label problem, where samples can have multiple diagnoses. Current approaches are commonly trained to solve a subset of those problems, but we are unaware of methods that address the three problems simultaneously. In this paper, we propose a new training module called Non-Volatile Unbiased Memory (NVUM), which non-volatility stores running average of model logits for a new regularization loss on noisy multi-label problem. We further unbias the classification prediction in NVUM update for imbalanced learning problem. We run extensive experiments to evaluate NVUM on new benchmarks proposed by this paper, where training is performed on noisy multi-label imbalanced chest X-ray (CXR) training sets, formed by Chest-Xray14 and CheXpert, and the testing is performed on the clean multi-label CXR datasets OpenI and PadChest. Our method outperforms previous state-of-the-art CXR classifiers and previous methods that can deal with noisy labels on all evaluations. Our code is available at https://github.com/FBLADL/NVUM.

arxiv情報

著者 Fengbei Liu,Yuanhong Chen,Yu Tian,Yuyuan Liu,Chong Wang,Vasileios Belagiannis,Gustavo Carneiro
発行日 2022-06-09 07:24:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク