要約
Transformer とそのバリアントは、医療画像のセグメンテーションに広く使用されています。
ただし、これらのモデルはパラメーターの数が多く、計算負荷が大きいため、モバイル ヘルス アプリケーションには適していません。
この問題に対処するために、私たちはより効率的なアプローチである Efficient Group Enhanced UNet (EGE-UNet) を提案します。
グループ多軸アダマール プロダクト アテンション モジュール (GHPA) とグループ アグリゲーション ブリッジ モジュール (GAB) を軽量な方法で組み込みます。
GHPA は入力特徴をグループ化し、さまざまな軸でアダマール プロダクト アテンション メカニズム (HPA) を実行して、多様な観点から病理学的情報を抽出します。
GAB は、低レベルの特徴、高レベルの特徴、および各段階でデコーダによって生成されたマスクをグループ化することにより、マルチスケール情報を効果的に融合します。
ISIC2017 および ISIC2018 データセットの包括的な実験により、EGE-UNet が既存の最先端の方法よりも優れたパフォーマンスを発揮することが実証されました。
つまり、TransFuse と比較して、私たちのモデルは優れたセグメンテーション パフォーマンスを達成しながら、パラメーターと計算のコストをそれぞれ 494 分の 1 と 160 分の 1 に削減します。
さらに、私たちの知る限り、これはパラメーター数がわずか 50KB に制限された最初のモデルです。
私たちのコードは https://github.com/JCruan519/EGE-UNet で入手できます。
要約(オリジナル)
Transformer and its variants have been widely used for medical image segmentation. However, the large number of parameter and computational load of these models make them unsuitable for mobile health applications. To address this issue, we propose a more efficient approach, the Efficient Group Enhanced UNet (EGE-UNet). We incorporate a Group multi-axis Hadamard Product Attention module (GHPA) and a Group Aggregation Bridge module (GAB) in a lightweight manner. The GHPA groups input features and performs Hadamard Product Attention mechanism (HPA) on different axes to extract pathological information from diverse perspectives. The GAB effectively fuses multi-scale information by grouping low-level features, high-level features, and a mask generated by the decoder at each stage. Comprehensive experiments on the ISIC2017 and ISIC2018 datasets demonstrate that EGE-UNet outperforms existing state-of-the-art methods. In short, compared to the TransFuse, our model achieves superior segmentation performance while reducing parameter and computation costs by 494x and 160x, respectively. Moreover, to our best knowledge, this is the first model with a parameter count limited to just 50KB. Our code is available at https://github.com/JCruan519/EGE-UNet.
arxiv情報
著者 | Jiacheng Ruan,Mingye Xie,Jingsheng Gao,Ting Liu,Yuzhuo Fu |
発行日 | 2023-07-17 13:28:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google