要約
U 字型アーキテクチャは、医療画像セグメンテーション ネットワークの設計における重要なパラダイムとして登場しました。
ただし、畳み込みに固有の局所的な制限があるため、U 字型アーキテクチャを備えた完全畳み込みセグメンテーション ネットワークでは、病変の正確な位置特定に不可欠なグローバル コンテキスト情報を効果的に抽出するのが困難です。
CNN と Transformer を組み合わせたハイブリッド アーキテクチャはこれらの問題に対処できますが、環境とエッジ デバイスによって課せられる計算リソースの制約により、実際の医療シナリオでの適用は制限されます。
さらに、軽量ネットワークの畳み込み誘導バイアスは、Transformer ベースのネットワークには欠けている希少な医療データに適切に適合します。
帰納的バイアスを利用しながらグローバルなコンテキスト情報を抽出するために、実際のシーンのシナリオで高速かつ正確な補助診断を可能にする、効率的な完全畳み込み軽量医療画像セグメンテーションネットワークであるCMUNeXtを提案します。
CMUNeXt は、大規模なカーネルと逆ボトルネック設計を活用して、離れた空間情報と位置情報を徹底的に混合し、グローバル コンテキスト情報を効率的に抽出します。
また、スムーズなスキップ接続を可能にし、十分な機能融合を保証するように設計された Skip-Fusion ブロックも紹介します。
複数の医用画像データセットに関する実験結果では、CMUNeXt がセグメンテーション パフォーマンスの点で既存の重量および軽量の医用画像セグメンテーション ネットワークを上回っており、より高速な推論速度、軽量、および計算コストの削減を実現していることが実証されています。
コードは https://github.com/FengheTan9/CMUNeXt で入手できます。
要約(オリジナル)
The U-shaped architecture has emerged as a crucial paradigm in the design of medical image segmentation networks. However, due to the inherent local limitations of convolution, a fully convolutional segmentation network with U-shaped architecture struggles to effectively extract global context information, which is vital for the precise localization of lesions. While hybrid architectures combining CNNs and Transformers can address these issues, their application in real medical scenarios is limited due to the computational resource constraints imposed by the environment and edge devices. In addition, the convolutional inductive bias in lightweight networks adeptly fits the scarce medical data, which is lacking in the Transformer based network. In order to extract global context information while taking advantage of the inductive bias, we propose CMUNeXt, an efficient fully convolutional lightweight medical image segmentation network, which enables fast and accurate auxiliary diagnosis in real scene scenarios. CMUNeXt leverages large kernel and inverted bottleneck design to thoroughly mix distant spatial and location information, efficiently extracting global context information. We also introduce the Skip-Fusion block, designed to enable smooth skip-connections and ensure ample feature fusion. Experimental results on multiple medical image datasets demonstrate that CMUNeXt outperforms existing heavyweight and lightweight medical image segmentation networks in terms of segmentation performance, while offering a faster inference speed, lighter weights, and a reduced computational cost. The code is available at https://github.com/FengheTan9/CMUNeXt.
arxiv情報
著者 | Fenghe Tang,Jianrui Ding,Lingtao Wang,Chunping Ning,S. Kevin Zhou |
発行日 | 2023-08-02 15:54:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google