Rotate to Scan: UNet-like Mamba with Triplet SSM Module for Medical Image Segmentation

要約

画像セグメンテーションは、医療領域における診断と治療の領域で重要な位置を占めている。従来の畳み込みニューラルネットワーク(CNN)やトランスフォーマーモデルは、この領域で大きな進歩を遂げたが、受容野が限られていたり、計算の複雑性が高かったりするため、依然として課題に遭遇している。最近、状態空間モデル(State Space Models:SSM)、特にマンバ(Mamba)とその亜種が、視覚の分野で注目すべき性能を示している。しかし、それらの特徴抽出法は十分な効果を発揮していない可能性があり、冗長な構造を保持しているため、パラメータ削減の余地が残されている。これまでの空間的、チャンネル的注目法に動機づけられ、我々はTriplet Mamba-UNetを提案する。本手法は、残差VSSブロックを活用して集中的な文脈特徴を抽出し、空間次元とチャンネル次元にまたがる特徴を融合するためにTriplet SSMを採用する。ISIC17、ISIC18、CVC-300、CVC-ClinicDB、Kvasir-SEG、CVC-ColonDB、Kvasir-Instrumentデータセットで実験を行い、提案するTM-UNetの優れたセグメンテーション性能を実証した。さらに、従来のVM-UNetと比較して、我々のモデルは3分の1のパラメータ削減を達成した。

要約(オリジナル)

Image segmentation holds a vital position in the realms of diagnosis and treatment within the medical domain. Traditional convolutional neural networks (CNNs) and Transformer models have made significant advancements in this realm, but they still encounter challenges because of limited receptive field or high computing complexity. Recently, State Space Models (SSMs), particularly Mamba and its variants, have demonstrated notable performance in the field of vision. However, their feature extraction methods may not be sufficiently effective and retain some redundant structures, leaving room for parameter reduction. Motivated by previous spatial and channel attention methods, we propose Triplet Mamba-UNet. The method leverages residual VSS Blocks to extract intensive contextual features, while Triplet SSM is employed to fuse features across spatial and channel dimensions. We conducted experiments on ISIC17, ISIC18, CVC-300, CVC-ClinicDB, Kvasir-SEG, CVC-ColonDB, and Kvasir-Instrument datasets, demonstrating the superior segmentation performance of our proposed TM-UNet. Additionally, compared to the previous VM-UNet, our model achieves a one-third reduction in parameters.

arxiv情報

著者 Hao Tang,Lianglun Cheng,Guoheng Huang,Zhengguang Tan,Junhao Lu,Kaihong Wu
発行日 2024-05-03 10:12:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク