U-Net v2: Rethinking the Skip Connections of U-Net for Medical Image Segmentation

要約

このペーパーでは、医療画像セグメンテーション用の新しい堅牢かつ効率的な U-Net バリアントである U-Net v2 を紹介します。
これは、低レベルの機能へのセマンティック情報の注入を強化すると同時に、高レベルの機能をより詳細に洗練することを目的としています。
入力画像の場合、ディープ ニューラル ネットワーク エンコーダーを使用してマルチレベルの特徴を抽出することから始めます。
次に、上位レベルの特徴からセマンティック情報を注入し、アダマール積を通じて下位レベルの特徴からより詳細な情報を統合することで、各レベルの特徴マップを強化します。
当社の新しいスキップ接続により、強化されたセマンティック特性と複雑な詳細を備えたすべてのレベルの機能が強化されます。
改善された特徴はその後、さらなる処理とセグメント化のためにデコーダに送信されます。
私たちの方法は、あらゆるエンコーダ/デコーダ ネットワークにシームレスに統合できます。
私たちは、皮膚病変のセグメンテーションとポリープのセグメンテーションについて、いくつかの公開医療画像セグメンテーション データセットで私たちの方法を評価しました。実験結果は、メモリと計算効率を維持しながら、最先端の方法よりも私たちの新しい方法のセグメンテーション精度が実証されています。
コードはhttps://github.com/yaoppeng/U-Net\_v2から入手できます。

要約(オリジナル)

In this paper, we introduce U-Net v2, a new robust and efficient U-Net variant for medical image segmentation. It aims to augment the infusion of semantic information into low-level features while simultaneously refining high-level features with finer details. For an input image, we begin by extracting multi-level features with a deep neural network encoder. Next, we enhance the feature map of each level by infusing semantic information from higher-level features and integrating finer details from lower-level features through Hadamard product. Our novel skip connections empower features of all the levels with enriched semantic characteristics and intricate details. The improved features are subsequently transmitted to the decoder for further processing and segmentation. Our method can be seamlessly integrated into any Encoder-Decoder network. We evaluate our method on several public medical image segmentation datasets for skin lesion segmentation and polyp segmentation, and the experimental results demonstrate the segmentation accuracy of our new method over state-of-the-art methods, while preserving memory and computational efficiency. Code is available at: https://github.com/yaoppeng/U-Net\_v2

arxiv情報

著者 Yaopeng Peng,Milan Sonka,Danny Z. Chen
発行日 2023-11-29 16:35:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク