LHU-Net: A Light Hybrid U-Net for Cost-Efficient, High-Performance Volumetric Medical Image Segmentation

要約

Transformer アーキテクチャの台頭により、医療画像のセグメンテーションに革命が起こり、畳み込みニューラル ネットワーク (CNN) と Transformer を組み合わせて精度を向上させたハイブリッド モデルが誕生しました。
ただし、これらのモデルは複雑さが増し、セグメンテーションの精度に不可欠な空間特徴とチャネル特徴の間の相互作用が見落とされることがよくあります。
LHU-Net は、体積医療画像セグメンテーション用の合理化されたハイブリッド U-Net であり、最初に空間特徴を分析し、次にチャネル特徴を分析して効果的な特徴抽出を行うように設計されています。
5 つのベンチマーク データセット (シナプス、ロサンゼルス、膵臓、ACDC、BRaTS 2018) でテストしたところ、LHU-Net は優れた効率と精度を実証し、特に ACDC で 85\% 少ないパラメーターと 4 分の 1 の計算量で 92.66 ダイス スコアを達成しました。
主要モデル。
このパフォーマンスは、事前トレーニング、追加のデータ、またはモデル アンサンブルなしで達成され、1,100 万未満のパラメーターを使用して、セグメンテーションの計算効率と精度の新しいベンチマークを設定します。
この成果は、医療画像のセグメンテーションにおいて、計算効率と高精度のバランスをとることが実現可能であることを強調しています。
私たちの LHU-Net の実装は、GitHub (https://github.com/xmindflow/LHUNet) 上の研究コミュニティから自由にアクセスできます。

要約(オリジナル)

The rise of Transformer architectures has revolutionized medical image segmentation, leading to hybrid models that combine Convolutional Neural Networks (CNNs) and Transformers for enhanced accuracy. However, these models often suffer from increased complexity and overlook the interplay between spatial and channel features, which is vital for segmentation precision. We introduce LHU-Net, a streamlined Hybrid U-Net for volumetric medical image segmentation, designed to first analyze spatial and then channel features for effective feature extraction. Tested on five benchmark datasets (Synapse, LA, Pancreas, ACDC, BRaTS 2018), LHU-Net demonstrated superior efficiency and accuracy, notably achieving a 92.66 Dice score on ACDC with 85\% fewer parameters and a quarter of the computational demand compared to leading models. This performance, achieved without pre-training, extra data, or model ensembles, sets new benchmarks for computational efficiency and accuracy in segmentation, using under 11 million parameters. This achievement highlights that balancing computational efficiency with high accuracy in medical image segmentation is feasible. Our implementation of LHU-Net is freely accessible to the research community on GitHub (https://github.com/xmindflow/LHUNet).

arxiv情報

著者 Yousef Sadegheih,Afshin Bozorgpour,Pratibha Kumari,Reza Azad,Dorit Merhof
発行日 2024-09-11 14:35:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク