Joint Optimization of Class-Specific Training- and Test-Time Data Augmentation in Segmentation

要約

この論文では、医療画像セグメンテーションのための効果的かつ一般的なデータ拡張フレームワークを紹介します。
計算効率とデータ効率の高い勾配ベースのメタ学習スキームを採用し、目に見えないテスト データのプロキシとして使用されるトレーニング データと検証データの分布を明示的に調整します。
現在のデータ拡張戦略を 2 つのコア設計で改善します。
まず、クラス固有のトレーニング時データ拡張 (TRA) を学び、トレーニング サブセット内の異質性を効果的に高め、セグメンテーションで一般的なクラスの不均衡に取り組みます。
2 番目に、TRA とテスト時データ拡張 (TEA) を共同で最適化します。これらは両方ともトレーニング データとテスト データの分布を調整することを目的としており、密接に関連していますが、以前の研究ではこれまで別々に検討されていました。
DeepMedic と nnU-Net という 2 つの最先端のセグメンテーション モデルを使用して、さまざまなシナリオにわたる 4 つの医療画像セグメンテーション タスクに対するこの方法の有効性を実証します。
広範な実験により、提案されたデータ拡張フレームワークは、既存のソリューションと比較してセグメンテーションのパフォーマンスを大幅かつ一貫して向上できることが示されています。
コードは公開されています。

要約(オリジナル)

This paper presents an effective and general data augmentation framework for medical image segmentation. We adopt a computationally efficient and data-efficient gradient-based meta-learning scheme to explicitly align the distribution of training and validation data which is used as a proxy for unseen test data. We improve the current data augmentation strategies with two core designs. First, we learn class-specific training-time data augmentation (TRA) effectively increasing the heterogeneity within the training subsets and tackling the class imbalance common in segmentation. Second, we jointly optimize TRA and test-time data augmentation (TEA), which are closely connected as both aim to align the training and test data distribution but were so far considered separately in previous works. We demonstrate the effectiveness of our method on four medical image segmentation tasks across different scenarios with two state-of-the-art segmentation models, DeepMedic and nnU-Net. Extensive experimentation shows that the proposed data augmentation framework can significantly and consistently improve the segmentation performance when compared to existing solutions. Code is publicly available.

arxiv情報

著者 Zeju Li,Konstantinos Kamnitsas,Qi Dou,Chen Qin,Ben Glocker
発行日 2023-05-30 14:48:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク