要約
U-Net とその拡張セグメンテーション モデルは、医療画像セグメンテーション タスクで大きな成功を収めました。
ただし、通常の畳み込み操作に固有のローカル特性により、エンコーダーはグローバル コンテキスト情報を効果的に抽出できません。
また、単純なスキップ接続では、顕著な特徴を捉えることができません。
この作業では、ハイブリッド畳み込みとマルチスケールのアテンション ゲートを組み込んだ完全な畳み込みセグメンテーション ネットワーク (CMU-Net) を提案します。
ConvMixer モジュールは、グローバル コンテキスト情報を抽出するために離れた空間位置を混合します。
さらに、マルチスケール アテンション ゲートは、重要な機能を強調し、効率的なスキップ接続を実現するのに役立ちます。
オープンソースの乳房超音波画像とプライベート甲状腺超音波画像データセットの評価は、CMU-Net が 73.27% と 84.75% の平均 IOU を達成し、F1 値が 84.16% と 91.71% であることを示しています。
コードは https://github.com/FengheTan9/CMU-Net で入手できます。
要約(オリジナル)
U-Net and its extended segmentation model have achieved great success in medical image segmentation tasks. However, due to the inherent local characteristics of ordinary convolution operations, the encoder cannot effectively extract the global context information. In addition, simple skip connection cannot capture salient features. In this work, we propose a full convolutional segmentation network (CMU-Net) which incorporate hybrid convolution and multi-scale attention gate. The ConvMixer module is to mix distant spatial locations for extracting the global context information. Moreover, the multi-scale attention gate can help to emphasize valuable features and achieve efficient skip connections. Evaluations on open-source breast ultrasound images and private thyroid ultrasound image datasets show that CMU-Net achieves an average IOU of 73.27% and 84.75%, F1-value is 84.16% and 91.71%. The code is available at https://github.com/FengheTan9/CMU-Net.
arxiv情報
著者 | Fenghe Tang,Lingtao Wang,Chunping Ning,Min Xian,Jianrui Ding |
発行日 | 2022-10-24 07:58:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google