nnU-Net Revisited: A Call for Rigorous Validation in 3D Medical Image Segmentation

要約

nnU-Net のリリースは 3D 医用画像セグメンテーションにおけるパラダイム シフトを示し、適切に構成された U-Net アーキテクチャが依然として最先端の結果を達成できることを実証しました。
それにもかかわらず、新しいアーキテクチャの追求と、U-Net ベースラインを超える優れたパフォーマンスのそれぞれの主張は続けられました。
この研究では、不適切なベースラインの使用、不十分なデータセット、無視された計算リソースなど、一般的な検証の欠点を精査すると、これらの最近の主張の多くが成り立たないことを示しています。
これらの落とし穴を細心の注意を払って回避することで、CNN ベース、Transformer ベース、Mamba ベースのアプローチを含む現在のセグメンテーション手法の徹底的かつ包括的なベンチマークを実行します。
現在の考えとは対照的に、最先端のパフォーマンスの秘訣は、1) ResNet および ConvNeXt バリアントを含む CNN ベースの U-Net モデルの採用、2) nnU-Net フレームワークの使用、および 3) であることがわかりました。
最新のハードウェア リソースに合わせてモデルをスケーリングします。
これらの結果は、この分野で新しいアーキテクチャに対するイノベーションのバイアスが継続していることを示しており、科学の進歩を求める上でより厳格な検証基準の必要性を強調しています。

要約(オリジナル)

The release of nnU-Net marked a paradigm shift in 3D medical image segmentation, demonstrating that a properly configured U-Net architecture could still achieve state-of-the-art results. Despite this, the pursuit of novel architectures, and the respective claims of superior performance over the U-Net baseline, continued. In this study, we demonstrate that many of these recent claims fail to hold up when scrutinized for common validation shortcomings, such as the use of inadequate baselines, insufficient datasets, and neglected computational resources. By meticulously avoiding these pitfalls, we conduct a thorough and comprehensive benchmarking of current segmentation methods including CNN-based, Transformer-based, and Mamba-based approaches. In contrast to current beliefs, we find that the recipe for state-of-the-art performance is 1) employing CNN-based U-Net models, including ResNet and ConvNeXt variants, 2) using the nnU-Net framework, and 3) scaling models to modern hardware resources. These results indicate an ongoing innovation bias towards novel architectures in the field and underscore the need for more stringent validation standards in the quest for scientific progress.

arxiv情報

著者 Fabian Isensee,Tassilo Wald,Constantin Ulrich,Michael Baumgartner,Saikat Roy,Klaus Maier-Hein,Paul F. Jaeger
発行日 2024-07-25 14:42:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク