Multi-Label Continual Learning for the Medical Domain: A Novel Benchmark

要約

ディープラーニングにおける医療分野の重要性にもかかわらず、この分野の研究のほとんどは静的環境でのモデルのトレーニングのみに焦点を当てています。
動的環境に取り組み、継続学習(CL)技術を通じて壊滅的な忘却の問題に取り組む研究が始まったのは、ごく最近のことです。
これまでの研究は主に、ドメイン増分学習やクラス増分学習などのシナリオに焦点を当てていましたが、現実世界のアプリケーションの複雑さを完全には捉えていませんでした。
したがって、この研究では、新しいインスタンスと新しいクラス (NIC) のシナリオを考慮することにより、新しいクラスの到着とドメインの移行の課題を 1 つのフレームワークに組み合わせた新しいベンチマークを提案します。
このベンチマークは、医療画像におけるマルチラベル分類問題に対する現実的な CL 設定をモデル化することを目的としています。
さらに、以前にテストされたシナリオと比較して、より多くのタスクが含まれます。
具体的には、私たちのベンチマークは 2 つのデータセット (NIH と CXP)、19 のクラス、および 7 つのタスクで構成されており、以前にテストしたものよりも長いストリームです。
CIL および NIC シナリオに見られる共通の課題 (タスク推論問題など) を解決するために、ラベル伝播による再生統合 (RCLP) と呼ばれる新しいアプローチを提案します。
私たちの手法は既存のアプローチを超え、最小限の忘れで優れたパフォーマンスを発揮します。

要約(オリジナル)

Despite the critical importance of the medical domain in Deep Learning, most of the research in this area solely focuses on training models in static environments. It is only in recent years that research has begun to address dynamic environments and tackle the Catastrophic Forgetting problem through Continual Learning (CL) techniques. Previous studies have primarily focused on scenarios such as Domain Incremental Learning and Class Incremental Learning, which do not fully capture the complexity of real-world applications. Therefore, in this work, we propose a novel benchmark combining the challenges of new class arrivals and domain shifts in a single framework, by considering the New Instances and New Classes (NIC) scenario. This benchmark aims to model a realistic CL setting for the multi-label classification problem in medical imaging. Additionally, it encompasses a greater number of tasks compared to previously tested scenarios. Specifically, our benchmark consists of two datasets (NIH and CXP), nineteen classes, and seven tasks, a stream longer than the previously tested ones. To solve common challenges (e.g., the task inference problem) found in the CIL and NIC scenarios, we propose a novel approach called Replay Consolidation with Label Propagation (RCLP). Our method surpasses existing approaches, exhibiting superior performance with minimal forgetting.

arxiv情報

著者 Marina Ceccon,Davide Dalle Pezze,Alessandro Fabris,Gian Antonio Susto
発行日 2024-07-18 13:00:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク