要約
医用画像のセグメンテーションは、さまざまな臨床応用において重要な役割を果たし、解剖学的構造や病理学的領域の正確な描写と分析を可能にします。
従来の CNN は、この分野で目覚ましい成功を収めてきました。
ただし、多くの場合、固定されたカーネル サイズに依存するため、機器、ターゲット サイズ、専門家の解釈のばらつきにより、特徴が多様なスケールや構成を示す医療画像でのパフォーマンスと適応性が制限される可能性があります。
この論文では、入力画像のローカル コンテキストに基づいてカーネル サイズを動的に調整する、UCTransNet などの主要な深層学習モデルの前に配置される適応層を提案します。
複数のスケールで特徴を適応的にキャプチャして融合することにより、私たちのアプローチは、UCTransnet などのスケール内モジュールを内部実装する最近実行されたアーキテクチャであっても、多様な解剖学的構造と微妙な画像の詳細を処理するネットワークの能力を強化します。
私たちの提案の有効性を評価するために、ベンチマーク医療画像データセットに対して広範な実験が行われています。
同程度のパラメータ数で固定カーネル サイズを使用する従来の \glspl{CNN} よりも一貫して優れたパフォーマンスを発揮し、SegPC2021 や ISIC2018 などの一般的なデータセットで優れたセグメンテーション精度、ダイス、IoU を実現します。
モデルとデータはオープンソース リポジトリで公開され、有望な結果の透明性と再現性が保証されます。
要約(オリジナル)
Medical image segmentation plays a vital role in various clinical applications, enabling accurate delineation and analysis of anatomical structures or pathological regions. Traditional CNNs have achieved remarkable success in this field. However, they often rely on fixed kernel sizes, which can limit their performance and adaptability in medical images where features exhibit diverse scales and configurations due to variability in equipment, target sizes, and expert interpretations. In this paper, we propose an adaptive layer placed ahead of leading deep-learning models such as UCTransNet, which dynamically adjusts the kernel size based on the local context of the input image. By adaptively capturing and fusing features at multiple scales, our approach enhances the network’s ability to handle diverse anatomical structures and subtle image details, even for recently performing architectures that internally implement intra-scale modules, such as UCTransnet. Extensive experiments are conducted on benchmark medical image datasets to evaluate the effectiveness of our proposal. It consistently outperforms traditional \glspl{CNN} with fixed kernel sizes with a similar number of parameters, achieving superior segmentation Accuracy, Dice, and IoU in popular datasets such as SegPC2021 and ISIC2018. The model and data are published in the open-source repository, ensuring transparency and reproducibility of our promising results.
arxiv情報
著者 | Seyed M. R. Modaresi,Aomar Osmani,Mohammadreza Razzazi,Abdelghani Chibani |
発行日 | 2024-04-17 13:18:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google