MSA2Net: Multi-scale Adaptive Attention-guided Network for Medical Image Segmentation

要約

医用画像のセグメンテーションには、医用画像内のオブジェクト インスタンスを識別して分離して、さまざまな組織や構造を描写することが含まれますが、これらの特徴のサイズ、形状、密度が大きく異なるため、この作業は複雑になります。
畳み込みニューラル ネットワーク (CNN) は伝統的にこのタスクに使用されてきましたが、長距離の依存関係を取得するには限界があります。
自己注意メカニズムを備えた変圧器は、この問題に対処することを目的としています。
ただし、医療画像のセグメンテーションでは、ローカルとグローバルの両方の特徴をマージして、さまざまなスケールにわたる特徴マップを効果的に統合し、構造の変化に対処するための詳細な特徴とより広範な意味論的要素の両方をキャプチャすることが有益です。
このペーパーでは、スキップ接続の適切な設計を特徴とする新しいディープ セグメンテーション フレームワークである MSA2Net を紹介します。
これらの接続は、動的に重み付けを行い、粗粒度のエンコーダ特徴を細粒度のデコーダ特徴マップと組み合わせることで、特徴の融合を容易にします。
具体的には、マルチスケール適応空間注意ゲート (MASAG) を提案します。これは、背景の邪魔を最小限に抑えながら、空間的に関連する特徴が選択的に強調表示されるように、受容野 (ローカルおよびグローバルのコンテキスト情報) を動的に調整します。
皮膚科学および放射線医学データセットを含む広範な評価により、当社の MSA2Net が最先端 (SOTA) の機能を上回っているか、そのパフォーマンスに匹敵することが実証されています。
ソース コードは https://github.com/xmindflow/MSA-2Net で公開されています。

要約(オリジナル)

Medical image segmentation involves identifying and separating object instances in a medical image to delineate various tissues and structures, a task complicated by the significant variations in size, shape, and density of these features. Convolutional neural networks (CNNs) have traditionally been used for this task but have limitations in capturing long-range dependencies. Transformers, equipped with self-attention mechanisms, aim to address this problem. However, in medical image segmentation it is beneficial to merge both local and global features to effectively integrate feature maps across various scales, capturing both detailed features and broader semantic elements for dealing with variations in structures. In this paper, we introduce MSA2Net, a new deep segmentation framework featuring an expedient design of skip-connections. These connections facilitate feature fusion by dynamically weighting and combining coarse-grained encoder features with fine-grained decoder feature maps. Specifically, we propose a Multi-Scale Adaptive Spatial Attention Gate (MASAG), which dynamically adjusts the receptive field (Local and Global contextual information) to ensure that spatially relevant features are selectively highlighted while minimizing background distractions. Extensive evaluations involving dermatology, and radiological datasets demonstrate that our MSA2Net outperforms state-of-the-art (SOTA) works or matches their performance. The source code is publicly available at https://github.com/xmindflow/MSA-2Net.

arxiv情報

著者 Sina Ghorbani Kolahi,Seyed Kamal Chaharsooghi,Toktam Khatibi,Afshin Bozorgpour,Reza Azad,Moein Heidari,Ilker Hacihaliloglu,Dorit Merhof
発行日 2024-07-31 14:41:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク