ADS_UNet: A Nested UNet for Histopathology Image Segmentation

要約

タイトル:ADS_UNet:組み込みUNetのヒストパトロジー画像セグメンテーション
要約:
– UNetモデルは、収縮するエンコーダーマップと拡大するデコーダーマップとして配置された完全畳み込みネットワーク(FCN)層で構成されています。
– これらのエンコーダーとデコーダーマップのネスト構成により、UNeteやUNet++などのUNetモデルの拡張が生まれます。
– また、畳み込みレイヤーの出力を制約して、エンドツーエンドでトレーニングされたときにセグメントラベルを区別することができるようにすることなど、より洗練された手法もあります。これをディープスーパーバイジョンと呼びます。
– これらのネストされたUNetモデルは、その大きなパラメータ空間にもかかわらず、特徴の多様性を減らしてしまいます。
– テクスチャセグメンテーションでは、複数のスケールでのピクセル相関が分類タスクに寄与するため、浅いレイヤーの明示的なディープスーパーバイジョンは性能を向上させる可能性があります。
– 本論文では、リソース効率の高い浅いレイヤーのディープスーパーバイジョンを組み込んだ段階的な加算トレーニングアルゴリズムであるADS UNetを提案しています。また、サブUNetの性能に重みを付けた組み合わせを作成してセグメンテーションモデルを構築します。
– ADS_UNetは、資源効率が高く、構成要素の相関を減らし、性能を向上させるという主張を裏付けるために、3つのヒストパトロジーデータセットで実証結果を提供しています。
– さらに、CRAGとBCSSデータセットでは、ADS_UNetは、State-of-the-artのTransformerベースのモデルよりも1.08ポイントと0.6ポイント優れていますが、Transformerに必要なGPU消費量の37%とトレーニング時間の34%のみが必要です。

要約(オリジナル)

The UNet model consists of fully convolutional network (FCN) layers arranged as contracting encoder and upsampling decoder maps. Nested arrangements of these encoder and decoder maps give rise to extensions of the UNet model, such as UNete and UNet++. Other refinements include constraining the outputs of the convolutional layers to discriminate between segment labels when trained end to end, a property called deep supervision. This reduces feature diversity in these nested UNet models despite their large parameter space. Furthermore, for texture segmentation, pixel correlations at multiple scales contribute to the classification task; hence, explicit deep supervision of shallower layers is likely to enhance performance. In this paper, we propose ADS UNet, a stage-wise additive training algorithm that incorporates resource-efficient deep supervision in shallower layers and takes performance-weighted combinations of the sub-UNets to create the segmentation model. We provide empirical evidence on three histopathology datasets to support the claim that the proposed ADS UNet reduces correlations between constituent features and improves performance while being more resource efficient. We demonstrate that ADS_UNet outperforms state-of-the-art Transformer-based models by 1.08 and 0.6 points on CRAG and BCSS datasets, and yet requires only 37% of GPU consumption and 34% of training time as that required by Transformers.

arxiv情報

著者 Yilong Yang,Srinandan Dasmahapatra,Sasan Mahmoodi
発行日 2023-04-10 13:08:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, eess.IV パーマリンク