What is Wrong with Continual Learning in Medical Image Segmentation?

要約

継続的な学習プロトコルは、医用画像コミュニティからますます注目を集めています。
継続的な環境では、さまざまな条件下で取得されたデータセットが順番に到着します。
そして、それぞれが限られた期間のみ利用可能です。
医療データに固有のプライバシー リスクがあることを考えると、このセットアップは、ディープ ラーニング診断放射線システムの展開の現実を反映しています。
画像分類のために継続的に学習する多くの手法が存在し、いくつかはセマンティック セグメンテーションに適用されています。
しかし、ほとんどの人は有意義な方法で知識を蓄積するのに苦労しています。
代わりに、モデルの可塑性が低下し、トレーニング プロセスに負担がかかる場合でも、壊滅的な忘却の問題を防ぐことに重点を置いています。
これは、特に計算要件がすでに高い医療画像セグメンテーションの場合、知識保存の追加のオーバーヘッドがそれだけの価値があるかどうか、または別のモデルを維持することがより良い解決策になるかどうかに疑問を投げかけます.
UNEG は、トレーニング ステージごとに個別のセグメンテーション ネットワークとオートエンコーダ ネットワークを維持する、シンプルで広く適用可能なマルチモデル ベンチマークです。
オートエンコーダーは、追加の設計上の決定をバイパスするために、セグメンテーション ネットワーク (この場合はフル解像度の nnU-Net) と同じアーキテクチャから構築されます。
推論中、再構成エラーを使用して、各テスト イメージに最適なセグメンターが選択されます。
この概念を開いて、壊滅的な忘却の防止を超えた、さまざまな継続的学習設定の公正な評価スキームを開発します。
関心のある 3 つの領域 (前立腺、海馬、右心室) にわたる我々の結果は、UNEG がいくつかの継続的学習方法よりも優れていることを示しており、継続的学習研究における強力なベースラインの必要性を強化しています。

要約(オリジナル)

Continual learning protocols are attracting increasing attention from the medical imaging community. In continual environments, datasets acquired under different conditions arrive sequentially; and each is only available for a limited period of time. Given the inherent privacy risks associated with medical data, this setup reflects the reality of deployment for deep learning diagnostic radiology systems. Many techniques exist to learn continuously for image classification, and several have been adapted to semantic segmentation. Yet most struggle to accumulate knowledge in a meaningful manner. Instead, they focus on preventing the problem of catastrophic forgetting, even when this reduces model plasticity and thereon burdens the training process. This puts into question whether the additional overhead of knowledge preservation is worth it – particularly for medical image segmentation, where computation requirements are already high – or if maintaining separate models would be a better solution. We propose UNEG, a simple and widely applicable multi-model benchmark that maintains separate segmentation and autoencoder networks for each training stage. The autoencoder is built from the same architecture as the segmentation network, which in our case is a full-resolution nnU-Net, to bypass any additional design decisions. During inference, the reconstruction error is used to select the most appropriate segmenter for each test image. Open this concept, we develop a fair evaluation scheme for different continual learning settings that moves beyond the prevention of catastrophic forgetting. Our results across three regions of interest (prostate, hippocampus, and right ventricle) show that UNEG outperforms several continual learning methods, reinforcing the need for strong baselines in continual learning research.

arxiv情報

著者 Camila Gonzalez,Nick Lemke,Georgios Sakas,Anirban Mukhopadhyay
発行日 2023-02-10 16:48:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク