SA2-Net: Scale-aware Attention Network for Microscopic Image Segmentation

要約

顕微鏡画像のセグメンテーションは困難なタスクであり、その目的は、特定の顕微鏡画像内の各ピクセルに意味ラベルを割り当てることです。
畳み込みニューラル ネットワーク (CNN) は多くの既存のフレームワークの基礎を形成していますが、長距離の依存関係を明示的に把握するのに苦労することがよくあります。
トランスフォーマーは当初、自己注意を使用してこの問題に対処するために考案されましたが、形状、サイズ、外観、ターゲット領域の密度の変化など、顕微鏡画像のさまざまな課題に対処するには、局所的特徴と全体的特徴の両方が重要であることが証明されています。
この論文では、マルチスケール特徴学習を活用して顕微鏡画像内の多様な構造を効果的に処理する注意誘導型手法である SA2-Net を紹介します。
具体的には、正確なセグメンテーションのために、細胞などの微視的領域のスケールと形状の固有の変動を捕捉するように設計されたスケールアウェア アテンション (SA2) モジュールを提案します。
このモジュールには、マルチステージ機能の各レベルでのローカル アテンションと、複数の解像度にわたるグローバル アテンションが組み込まれています。
さらに、アダプティブ アップ アテンション (AuA) モジュールと呼ばれる新しいアップサンプリング戦略を導入することで、ぼやけた領域境界 (セル境界など) の問題に対処します。
このモジュールは、明示的な注意メカニズムを使用して微小領域の位置特定を改善するための識別能力を強化します。
5 つの困難なデータセットに対する広範な実験により、SA2-Net モデルの利点が実証されました。
私たちのソース コードは \url{https://github.com/mustansarfiaz/SA2-Net} で公開されています。

要約(オリジナル)

Microscopic image segmentation is a challenging task, wherein the objective is to assign semantic labels to each pixel in a given microscopic image. While convolutional neural networks (CNNs) form the foundation of many existing frameworks, they often struggle to explicitly capture long-range dependencies. Although transformers were initially devised to address this issue using self-attention, it has been proven that both local and global features are crucial for addressing diverse challenges in microscopic images, including variations in shape, size, appearance, and target region density. In this paper, we introduce SA2-Net, an attention-guided method that leverages multi-scale feature learning to effectively handle diverse structures within microscopic images. Specifically, we propose scale-aware attention (SA2) module designed to capture inherent variations in scales and shapes of microscopic regions, such as cells, for accurate segmentation. This module incorporates local attention at each level of multi-stage features, as well as global attention across multiple resolutions. Furthermore, we address the issue of blurred region boundaries (e.g., cell boundaries) by introducing a novel upsampling strategy called the Adaptive Up-Attention (AuA) module. This module enhances the discriminative ability for improved localization of microscopic regions using an explicit attention mechanism. Extensive experiments on five challenging datasets demonstrate the benefits of our SA2-Net model. Our source code is publicly available at \url{https://github.com/mustansarfiaz/SA2-Net}.

arxiv情報

著者 Mustansar Fiaz,Moein Heidari,Rao Muhammad Anwer,Hisham Cholakkal
発行日 2023-09-28 17:58:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク