SegMamba: Long-range Sequential Modeling Mamba For 3D Medical Image Segmentation

要約

Transformer アーキテクチャは、グローバルな関係をモデル化する際に優れた能力を示しています。
ただし、高次元の医療画像を処理する場合には、計算上の大きな課題が生じます。
これは、このタスクにおける開発と広範な採用を妨げます。
状態空間モデル (SSM) としての Mamba は、逐次モデリングにおける長距離依存関係の注目すべき方法として最近登場し、その顕著なメモリ効率と計算速度によって自然言語処理分野で優れています。
その成功に触発されて、私たちは、あらゆるスケールでボリューム特徴全体内の長距離依存関係を効果的に捕捉するように設計された、新しい 3D 医療画像 \textbf{Seg}mentation \textbf{Mamba} モデルである SegMamba を紹介します。
当社の SegMamba は、Transformer ベースの手法とは対照的に、状態空間モデルの観点からボリューム全体の特徴モデリングに優れており、解像度が {$64\times 64\times 64$} のボリューム特徴であっても、優れた処理速度を維持します。
BraTS2023 データセットの包括的な実験により、SegMamba の有効性と効率性が実証されました。
SegMamba のコードは、https://github.com/ge-xing/SegMamba で入手できます。

要約(オリジナル)

The Transformer architecture has shown a remarkable ability in modeling global relationships. However, it poses a significant computational challenge when processing high-dimensional medical images. This hinders its development and widespread adoption in this task. Mamba, as a State Space Model (SSM), recently emerged as a notable manner for long-range dependencies in sequential modeling, excelling in natural language processing filed with its remarkable memory efficiency and computational speed. Inspired by its success, we introduce SegMamba, a novel 3D medical image \textbf{Seg}mentation \textbf{Mamba} model, designed to effectively capture long-range dependencies within whole volume features at every scale. Our SegMamba, in contrast to Transformer-based methods, excels in whole volume feature modeling from a state space model standpoint, maintaining superior processing speed, even with volume features at a resolution of {$64\times 64\times 64$}. Comprehensive experiments on the BraTS2023 dataset demonstrate the effectiveness and efficiency of our SegMamba. The code for SegMamba is available at: https://github.com/ge-xing/SegMamba

arxiv情報

著者 Zhaohu Xing,Tian Ye,Yijun Yang,Guang Liu,Lei Zhu
発行日 2024-01-24 16:17:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク